Uni-Professor warnt vor Nebenwirkungen
Missbrauchsfotos: Das iPhone prüft mit iOS 15 auch lokal
Update: Apple hat die Einführung der beschriebenen Funktion inzwischen offiziell bestätigt.
Original-Eintrag: Der Kryptographie-Experte Matthew Green ist an der renommierten Johns Hopkins University als Professor aktiv und scheint über ausgesprochen gute Drähte zu Apples Betriebssystem-Entwicklern zu verfügen.
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Diese, so Green auf dem Kurznachrichten-Portal Twitter, sollen am morgigen Freitag dazu übergehen nicht mehr nur die auf iCloud hochgeladenen Fotos auf Inhalte zu prüfen, die im Zusammenhang mit der sexuellen Ausbeutung von Kindern stehen, sondern auch lokal gespeicherte iPhone-Fotos zu durchsuchen.
Apple habe vor die lokalen Bilder seiner Anwender mit den Fingerabdrücken bekannter Missbrauchs-Fotos abzugleichen und würde serverseitig dann all jene Nutzer melden, auf deren Geräten mehrere Treffer verzeichnet worden seien.
Kurznachrichten-Kontrolle durch die Hintertür?
Was grundsätzlich erst mal nach einem begrüßenswerten Schritt Apples klingt, ist nach Angaben von Professor Green Anlass zur Sorge. Ist die Infrastruktur auf den Endgeräten erst mal vorhanden, könnte das Scannen lokaler Inhalte langfristig problemlos auch auf Apples Kurznachrichten-Applikation iMessage ausgeweitet werden.
Eine Möglichkeit vollverschlüsselte Kurznachrichtendienste auf spezifische Inhalte hin zu durchforsten fordern Strafverfolgungsbehörden auf der ganzen Welt seit Jahren von Apple. Der Professor der Johns Hopkins Universität führt China als einen der problematischen Märkte an. Apples iMessage ist dort der letzte Messenger mit Ende-zu-Ende-Verschlüsselung.
Kollisionen könnten Falsch-Positiv-Meldungen provozieren
Zudem besorgniserregend: Das System würde auf Fingerabdrücken „problematischer Medieninhalte“ basieren, die von Anwendern nicht nachvollzogen werden könnten. Entsprechend bestünde die Gefahr von Kollisionen. Also das Vorhandensein von Bildern, die trotz gänzlich anderer Motiv-Inhalte, den selben Fingerabdruck wie bekannte Missbrauchs-Fotos besitzen. Solche Kollisionen könnten versehentlich auftreten, durch entsprechende Bildmanipulation aber auch aktiv provoziert werden.
Apple should commit to publishing its algorithms so that researchers can try to develop “adversarial” images that trigger the matching function, and see how resilient the tech is. (I will be pleasantly but highly surprised if Apple does this.)
— Matthew Green (@matthew_d_green) August 5, 2021
Green hat Apple dazu aufgefordert die im Hintergrund aktiven Algorithmen offenzulegen, damit Sicherheitsforscher diese auf ihre Anfälligkeit für Kollisionen abklopfen könnten, zeigt sich aber wenig zuversichtlich, dass Apple den Themenbereich überhaupt kommentieren wird.