Anfang 2019 vorbereitet, jetzt aktiv
Kindesmissbrauch: Apple scannt iCloud-Fotos auf bekannte Bilder
Fotos, Grafiken und digitale Bilder, die Apple-Nutzer über den Online-Speicher iCloud verwalten, werden von Apple auf bekannte Bilder geprüft, die die Ausübung sexueller Gewalt gegen Kinder darstellen.
Darüber informiert Apple auf der neu eingerichteten Webseite „Unser Bekenntnis zur Sicherheit von Kindern“, die der Konzern im Rahmen der Elektronik-Messe CES vorstellte.
Hier heißt es unter anderem:
Apple hat sich dem Schutz von Kindern in unserem gesamten Ökosystem verschrieben […] Als Teil dieses Engagements setzt Apple eine Technologie zum Abgleich von Bildern ein, um die Ausbeutung von Kindern zu finden und zu melden.
Ähnlich wie Spam-Filter in E-Mails verwenden unsere Systeme elektronische Signaturen, um mutmaßliche Ausbeutung von Kindern zu finden. Wir validieren jeden Abgleich mit einer individuellen Überprüfung. Accounts mit Inhalten, die gegen unsere Nutzungsbedingungen verstoßen, werden deaktiviert, wenn wir Accounts mit diesem Material finden.
Um den automatisierten Abgleich der Bilder vorzubereiten änderte Apple die hauseigenen Datenschutzrichtlinien bereits im Frühjahr 2019 – ifun.de berichtet.
Damals formulierte der Konzern eine Passage im Abschnitt „Wie wir personenbezogene Daten nutzen“ neu und weist seitdem explizit darauf hin, dass hochgeladene Fotos auf Inhalte geprüft werden, die im Zusammenhang mit der sexuellen Ausbeutung von Kindern stehen.
[…] Wir können Ihre personenbezogenen Daten auch für Zwecke der Account- und Netzwerksicherheit verwenden, in dem wir, zum Wohle all unserer Nutzer, unsere Dienstleistungen durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern, schützen. […]
Wahrscheinlich ist, dass Apple die iCloud-Fotos seiner Anwender durch eine PhotoDNA-ähnliches Prüfverfahren schiebt, um anhand eines robusten Fingerabdrucks auszuschließen, dass sich bereits bekannte kinderpornographische Inhalte über die eigene Infrastruktur weiterverbreiten.