Apple will Kinder (be)schützen, opfert dafür aber die Privat- und Intimsphäre

Man kann argumentieren, dass der Schutz unserer Kinder über allem steht und Apples neue Maßnahme – unter anderem soll nach Kinderpornographie auf den iPhone gescannt werden – macht genau das. Aber was passiert, wenn wir unter anderem mit solchen Maßnahmen die Fotos unserer Kinder auf deren Geräten scannen lassen und damit im Worst case Intimsphäre kriminalisieren und zudem unsere Privatsphäre komplett aufgeben „for the Greater Good“? Ist es da wert? Ich behaupte Nein, aus folgenden Gründen:

Heute wird Kinderpornographie in den Fokus genommen, aber bleibt es dabei?

Diese Technik erlaubt es theoretisch nach allem zu scannen. Was ist wenn Länder den Verkauf der Geräte verbieten, wenn nicht nach eigenen Mustern gescannt wird?

Fehlerhafte Analysen, werden zu Anklagen und womöglich sogar Verurteilungen führen, wie dieser:

Weil ein KI-gesteuertes System zur Erkennung von Schüssen vermutlich falschen Alarm schlug, saß ein US-Amerikaner elf Monate lang hinter Gittern.

Quelle: Einziger Zeuge KI: System zur Schusserkennung bringt Mann ins Gefängnis – Golem.de

Weitere Details listet der folgende Artikel:

Important changes are coming to Messages and iCloud.

Quelle: Apple’s controversial new child protection features, explained – The Verge
Photo by Louis Hansel on Unsplash