iphone-ticker.de — Alles zum iPhone. Seit 2007. 35 092 Artikel

Google sorgt für Negativbeispiel

Fotos von nacktem Kleinkind: Account-Verlust und Polizeieinsatz

Artikel auf Mastodon teilen.
101 Kommentare 101

Dass Apple im August des vergangenen Jahres die Einführung einer neuen Foto-Scan-Funktion ankündigte, mit der das Unternehmen proaktiv gegen die sexuelle Ausbeutung von Kindern vorgehen wollte, ist schon fast wieder in Vergessenheit geraten.

Nach der überraschenden Vorstellung drei neuer Kinderschutzfunktionen im vergangenen Jahr, hat Apple davon bislang nur eine wie vorgesehen implementiert. Die beiden anderen wurden in abgewandelter Form integriert beziehungsweise erst mal auf Eis gelegt.

Damals wollte Apple eigentlich drei Kinderschutzfunktionen in das iPhone-Betriebssystem integrieren:

  • System-Intervention bei thematischen Suchen: Suchen Anwender im Netz, über Siri oder die Spotlight-Suche Apples nach Wortkombinationen, die erkennen lassen, dass diese offenbar auf der Suche nach Inhalten sind, die möglicherweise im Zusammenhang mit dem Missbrauch von Kindern stehe, wird die Suchabfrage abgebrochen und durch einen Warnhinweis ersetzt. Hier hat Apple nicht geschraubt.
  • iMessage-Nacktfilter: Die Erkennung von Nacktbildern auf den Telefonen von Kindern sollte dafür sorgen, dass diese erst nach Nachfrage angezeigt werden und die Eltern in der zugehörigen Familienfreigabe informiert werden, wenn sich die Kinder für die Anzeige entscheiden. Hier ist Apple inzwischen davon abgekommen, die Eltern zu informieren.
  • Lokale Erkennung von Missbrauchsbildern: Umstrittenste Neuerung und von Apple bis auf Weiteres verworfen, war die lokale Suche nach Missbrauchs-Fotografien. Apple hatte vor, Geräte von Anwendern die iCloud-Fotos nutzen, bereits vor dem Upload auf Fotos zu durchsuchen, die die sexuelle Ausbeutung von Kindern darstellen könnten. Nach einem lauten Aufschrei von Journalisten, Aktivisten, Zivilgesellschaft, Datenschützern und IT-Sicherheitsexperten, entfernte Apple die Hinweise auf die sogenannte CSAM-Erkennung dann im vergangenen Dezember gänzlich.

Google sorgt für Negativbeispiel

Ein aktueller Fall aus den USA, den die New York Times am Wochenende dokumentiert hat, zeigt, welchen Einfluss Falsch-Positiv-Treffer vergleichbarer Technologien auf Anwender haben können.

Nachdem ein Vater Fotos seines nackten Kleinkindes für einen behandelnden Mediziner gemacht hat, stufte Google die Bilder über einen automatisierten Scan als kriminell ein und deaktivierte den zugehörigen Google-Account.

Der betroffene Nutzer sah sich daraufhin nicht nur mit ermittelnden Strafverfolgern konfrontiert, sondern verlor auch sein mehrere Jahre altes Google-Konto. Eine Einspruchsmöglichkeit war nicht vorgesehen.

Zum Nachlesen:

22. Aug 2022 um 14:16 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    101 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
    Abonnieren
    Benachrichtige mich bei
    101 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments
    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 35092 Artikel in den vergangenen 5689 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2023 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven