iphone-ticker.de — Alles zum iPhone. Seit 2007. 31 130 Artikel

Warnung bei verdächtigen Suchen

Kindesmissbrauch: Siri und die iPhone-Suche sollen in iOS 15 intervenieren

98 Kommentare 98

Der erweiterte Schutz für Kinder, den Apple mit iOS 15 im Herbst ausrollen wird, steht auf insgesamt drei Säulen.

iMessage prüft auf Nacktbilder

Der Kurznachrichtendienst iMessage wird auf Geräten von minderjährigen Anwendern und Anwenderinnen aktiv nach Nacktbildern Ausschau halten und Kinder warnen, wenn entsprechende Bilder im Nachrichtenverlauf erkannt werden.

Erkennt iOS 15 ein ankommendes Nacktbild, zeigt das iPhone dieses nur nach zusätzlicher Nachfrage an und meldet den Aufruf, je nach Alter des Kindes, an die verantwortlichen Erwachsenen der Familienfreigabe.

Check Out Foto Ios15

Der iMessage-Schutz hat dabei erst mal nichts mit dem ebenfalls angekündigten Kampf gegen Bilder zu tun, auf dem die sexuelle Ausbeutung von Kindern abgebildet ist. Ist die Nacktbild-Erkennung in iMessage aktiv, wird der Messenger bei allen Nacktbildern anschlagen, auch wenn diese etwa von Heranwachsenden im gegenseitigen Einverständnis verschickt wurden.

Das iPhone prüft auf (bekannte) Missbrauchsbilder

Gegen den Kindesmissbrauch zielt die zweite Neuerung Apples. Mit iOS 15 sollen (vorerst ausschließlich in den Vereinigten Staaten) alle Bilder, die zum Upload in Apples iCloud vorgesehen sind, vor dem Transfer mit einer Datenbank bekannter Missbrauchsbilder abgeglichen werden. Ein Vorgang, der direkt auf dem Endgerät stattfindet. Die Initiative haben wir in den vergangenen Tagen ausführlich besprochen:

Siri und die iPhone-Suche intervenieren

Die dritte Säule der Kinderschutz-Initiative betrifft Siri und die Suchfunktion des iPhones. Zwei Gerätekomponenten, die laut Apple fortan einen genaueren Blick auf die Sucheingaben der Nutzer werfen und intervenieren sollen, wenn Anwender nach Begriffen suchen, die möglicherweise im Zusammenhang mit dem Missbrauch von Kindern stehen könnten. Apple erklärt:

Siri und Search werden ebenfalls aktualisiert, um einzugreifen, wenn Nutzer Suchanfragen zum Thema CSAM stellen. Diese Interventionen werden den Nutzern erklären, dass das Interesse an diesem Thema schädlich und problematisch ist, und Ressourcen von Partnern zur Verfügung stellen, um Hilfe bei diesem Problem zu erhalten.

An dieser Stelle wollen wir an die bereits länger vorhandenen Inhaltsbeschränkungen von Safari erinnern. Der Wortfilter den Apple hier nutzt, enthält auch ganz unschuldige Wörter wie „Teen“ und „Asian“, die bei aktiver Kinderschutzfunktion gefiltert werden.

Sind die Inhaltsbeschränkungen aktiv, lässt sich nicht mal mehr nach „asian recipes“ oder „teen mental health resources“ suchen. Bleibt zu hoffen, dass die Interventionen von Siri und der iPhone-Suche etwas durchdachter ausfallen.

Siri Intervention Screen

11. Aug 2021 um 15:21 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    98 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
    Abonnieren
    Benachrichtige mich bei
    98 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments
    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 31130 Artikel in den vergangenen 5209 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2021 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven