
Im letzten Jahr sorgten die Pläne von Apple für einen Sturm der Entrüstung. Mittels einer Technologie, genannt #NeuralHash, wollte der Konzern die Endgeräte der Nutzer auf verdächtige Kinderpornodateien scannen lassen. Der Umfang war zunächst nicht klar, zuletzt hieß es, dass nur Geräte, also Mac-Computer, iPads und iPhones gescannt würden, wenn diese die iCloud als Datenspeicher für Fotos und Videos nutzen würden. Natürlich alles nur zum Besten und ohne jede Verletzung der Privatsphäre, da die Hashwerte bekannter Kinderpornodateien mit denen auf den Geräten abgeglichen werden sollte.
Aus der Fachpresse hagelte es Kritik.
Wird die Kinderporno-Scanner-Idee tatsächlich umgesetzt – aktuell schaltet Apple trotz einer enormen, weltweiten Kritikwelle zahlloser Experten auf stur – werden sich die Diktatoren und Freiheitsfeinde künftig die Finger nach iPhone-Nutzern lecken. Deren Geräte kann man ja a) leicht knacken (siehe Pegasus) und b) kommen sie ja gleich mit integrierter Schnüffelsoftware! Dystopischer kann man sich die Zukunft kaum vorstellen.
heise online
Auch fragte man sich, was denn der Abgleich mit teils Jahrzehnte alten Dateien soll, die bei allen möglichen Razzien beschlagnahmt worden sind. Wie können dadurch Kinder vor Missbrauch geschützt werden? Kaum ein Täter wird wohl Bilder illegal im Netz kaufen und dann von seinem iPhone in der Cloud speichern oder weiterversenden. Die Täter von heute bringen Kinder dazu, sich selbst nackt zu fotografieren und ihnen die Fotos dann zu zu senden.
Mit der Ankündigung neuer iCloud-Funktionen ließ Apple nun wissen, dass das Unternehmen seine Pläne in Bezug auf Kinderporno-Scan nicht mehr verfolgt, erfährt man auf MacWelt.
Die neue Strategie sei es, sich auf die iMessage-Analyse zu konzentrieren. Eltern können ihren minderjährigen Kindern eine ab Werk ausgeschaltete Funktion aktivieren, mit der vor dem Versenden ihrer Bilder, diese auf Nacktheit überprüft werden. Werde ein Bild mit viel nackter Haut festgestellt, wird das Kind davor gewarnt, auf den Absende-Knopf zu drücken, heisst es weiter.
Die Nutzer können erstmal aufatmen. Hat der Konzern nun Verständnis gezeigt oder ging es vielleicht nur darum, technischen Aufwand zu reduzieren?

Kommentare
3 Kommentare zu „#NeuralHash: Apple verzichtet jetzt doch auf Kinderporno-Scan“