Risiko-Papier hastig nachgeschoben
Mindestens 30 Fotos: Apple präzisiert Missbrauchs-Erkennung
Nach tagelangem Dauerfeuer von Sicherheits-Experten, Datenschützern, verunsicherten Anwendern und der eigenen Belegschaft hat Apple zum Wochenende abermals an der Außendarstellung der neuen Kinderschutz-Funktionen gearbeitet, die das Unternehmen initial am 5. August vorgestellt hat und zusammen mit iOS 15 einführen will.
Die insgesamt drei Features selbst haben wir auf ifun.de in den zurückliegenden Tagen ausführlich beschrieben. Zum einen werden Apples Betriebssysteme demnächst eine Funktion bereitstellen, die iMessage-Nachrichten auf Geräten von Kindern nach Bilder durchsuchen kann, die möglicherweise nackte Haut zeigen. Ist die Funktion aktiviert, wird deren Anzeige erst mal unterbunden, und muss von Kindern in einer Familienfreigabe besonders bestätigt werden, was dann wiederum deren Eltern informiert.
Zweite Neuerung waren neue Warnhinweise in der Suchfunktion des iPhones und von Siri, wenn die Sprachassistenz oder die Suche zur Websuche von Missbrauchsfotos genutzt werden.
Dritte, und mit Abstand umstrittenste Funktion, war die Ankündigung Apples fortan alle Fotos vor dem Upload in Apples iCloud mit einer Datenbank bekannter Missbrauchsfotos abzugleichen. Statt die Bilder wie schon bislang auf den iCloud-Servern selbst zu überprüfen, plant Apple den Scan auf die Geräte der Nutzer zu verlagern. Deren Geräte sollen bereits vor dem Foto-Upload nach möglichen Treffern Ausschau halten und informieren Apple wenn entsprechende Fotos gefunden werden. Apple selbst meldet die Treffer nach einer zusätzlichen Sichtprüfung dann den Behörden.
Plötzlich doch 3 Falsch-Positiv-Treffer auf 100 Mio.
Die Funktion, die vor dem weltweiten Rollout ausschließlich in den USA eingesetzt werden soll, war von Kritikern als Hintertür bezeichnet worden, die die Suche nach nahezu beliebigen Bilddateien möglich machen würde.
Auf die von allen Seiten formulierte Kritik hat Apple zum Wochenende noch mal mit proaktiven Veröffentlichungen reagiert. Zum einen hat sich Apples Software-Chef Craig Federighi im Interview mit dem Wall Street Journal zum Thema geäußert und gibt an, dass eine Meldung an Apple erst bei Erkennung von rund 30 Missbrauchsfotos auslösen würde (zumindest während der initialen Phase der Foto-Erkennung) zum anderen hat Apple hastig das 14-seitige PDF-Dokument „Security Threat Model Review of Apple’s Child Safety Features“ nachgeschoben.
Risiko-Papier hastig nachgeschoben
Dieses (PDF-Download) geht auf die zahlreichen Sicherheitsbedenken ein, die Beobachter nach Ankündigung der Einführung des Fotoabgleichs geäußert hatten. Etwa die Möglichkeit, dass die Bild-Datenbank um beliebige andere Foto-Fingerabdrücker erweitert werden könnte (öffentliche Hash-Werte sollen dies unmöglich machen) bleibt aber Wortkarg, was die Hoheit über die Zusammenstellung der Bilddatenbank angeht.
In dem neu veröffentlichten PDF räumt Apple auch ein, dass die eigene Missbrauchsfoto-Erkennung beim Training auf 100 Million Fotos immerhin 3 Falsch-Positive Treffer ausgespuckt hat. Bei über einer Milliarde aktiven iOS-Geräten, keine zu vernachlässigende Größe und mit ein Grund für die händische Nachkontrolle und den Wert von 30 Bilder mit dem Apple initial arbeiten wird.