iOS 15 startet ohne lokalen Foto-Abgleich
Rückzieher: Apple verschiebt Missbrauchs-Erkennung
Apple wird die von Bürgerrechtlern, Sicherheitsforschern, Wissenschaftlern und Netzaktivisten kritisierten Pläne, iOS 15 mit einer Handvoll neuer Funktionen zum Schutz von Kindern auszurollen, vorerst auf Eis legen. Darauf hat das Unternehmen am Freitagnachmittag mit einer kurzen Stellungnahme aufmerksam gemacht, in der Apple ausdrücklich auch auf das laute Kunden-Feedback verweist.
Basierend auf den Rückmeldungen von Kunden, Interessengruppen und Forschern habe man beschlossen, beschlossen sich nun doch noch mehr Zeit zu nehmen um Kritik zu berücksichtigen und Verbesserungen in das eigenen System einfließen zu lassen. Erst nach einer gründlichen Auseinandersetzung mit dem Thema in den kommenden Monaten werde man dann die „äußerst wichtigen Funktionen zum Schutz von Kindern“ veröffentlichen.
Zum Start von iOS 15 in wenigen Wochen wird das neue iPhone-Betriebssystem somit weder mit der Nacktbild-Erkennung in iMessage, noch mit dem Foto-Abgleich starten, der lokale Fotos vor dem Upload in Apples iCloud mit einer Datenbank von digitalen Fingerabdrücken bekannter Missbrauchsbilder abgleichen sollte.
In einer soeben ausgegebenen Stellungnahme heißt es aus Cupertino:
Previously we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them and to help limit the spread of Child Sexual Abuse Material. Based on feedback from customers, advocacy groups, researchers, and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.
Auf ifun.de haben wir Apples Vorstoß und die anschließende Welle (durchaus berechtigter) Kritik in den zurückliegenden Wochen ausführlich dokumentiert. Alle Artikel, die wir bislang zum Thema verfasst haben könnt ihr in unserem Nachrichten-Archiv unter dem Schlagwort CSAM nachlesen. Hier eine Auswahl:
- Gegen die Bilderkennung in iMessage: Über 90 Lobby-Gruppen appellieren
- Mindestens 30 Fotos: Apple präzisiert Missbrauchs-Erkennung
- Apples geplante Fotoscans sorgen auch intern für massive Kritik
- Kinderporno-Scan: Apples Antworten lassen viele Fragen offen
- Apple-Kritik aus dem Bundestag: Lokaler Foto-Abgleich ein „Dammbruch“
- Offener Brief: „Apple-Überwachung verstößt gegen Pressefreiheit“
Sorge vor Dammbruch
Hierzulande waren Apples Pläne unter anderem von Journalisten und Bundestagsabgeordneten kritisiert worden. Apples Technologie, die die lokale Suche nach verbotenen Inhalten auf den Geräten von Millionen von Kunden ermöglichen würde, so die Sorge vieler Kritiker, würde Begehrlichkeiten bei autoritären Regimen und Machthabern wecken, denen Apple langfristig nachgeben müsste.