{"id":196749,"date":"2022-08-22T14:16:39","date_gmt":"2022-08-22T12:16:39","guid":{"rendered":"https:\/\/www.iphone-ticker.de\/?p=196749"},"modified":"2022-08-24T18:48:06","modified_gmt":"2022-08-24T16:48:06","slug":"fotos-von-nacktem-kleinkind-account-verlust-und-polizeieinsatz","status":"publish","type":"post","link":"https:\/\/www.iphone-ticker.de\/fotos-von-nacktem-kleinkind-account-verlust-und-polizeieinsatz-196749\/","title":{"rendered":"Fotos von nacktem Kleinkind: Account-Verlust und Polizeieinsatz"},"content":{"rendered":"<p>Dass Apple im August des vergangenen Jahres die Einf\u00fchrung einer neuen Foto-Scan-Funktion ank\u00fcndigte, mit der das Unternehmen proaktiv gegen die sexuelle Ausbeutung von Kindern vorgehen wollte, ist schon fast wieder in Vergessenheit geraten.<\/p>\n<p>Nach der \u00fcberraschenden Vorstellung drei neuer Kinderschutzfunktionen im vergangenen Jahr, hat Apple davon bislang nur eine wie vorgesehen implementiert. Die beiden anderen wurden in abgewandelter Form integriert beziehungsweise erst mal auf Eis gelegt.<\/p>\n<ul>\n<li><strong>Nachrichten-App<\/strong>: <a href=\"https:\/\/www.iphone-ticker.de\/nachrichten-app-nacktfotoscan-erreicht-deutsche-iphone-nutzer-195231\/\">Nacktfotoscan erreicht deutsche iPhone-Nutzer<\/a><\/li>\n<\/ul>\n<p>Damals wollte Apple eigentlich drei Kinderschutzfunktionen in das iPhone-Betriebssystem integrieren:<\/p>\n<ul>\n<li><strong>System-Intervention bei thematischen Suchen<\/strong>: Suchen Anwender im Netz, \u00fcber Siri oder die Spotlight-Suche Apples nach Wortkombinationen, die erkennen lassen, dass diese offenbar auf der Suche nach Inhalten sind, die m\u00f6glicherweise im Zusammenhang mit dem Missbrauch von Kindern stehe, wird die Suchabfrage abgebrochen und durch einen Warnhinweis ersetzt. <a href=\"https:\/\/www.iphone-ticker.de\/kindesmissbrauch-siri-und-die-iphone-suche-sollen-in-ios-15-intervenieren-178218\/\">Hier hat Apple nicht geschraubt<\/a>.<\/li>\n<li><strong>iMessage-Nacktfilter<\/strong>: Die Erkennung von Nacktbildern auf den Telefonen von Kindern sollte daf\u00fcr sorgen, dass diese erst nach Nachfrage angezeigt werden und die Eltern in der zugeh\u00f6rigen Familienfreigabe informiert werden, wenn sich die Kinder f\u00fcr die Anzeige entscheiden. Hier ist Apple inzwischen davon <a href=\"https:\/\/www.iphone-ticker.de\/nachrichten-app-nacktfotoscan-erreicht-deutsche-iphone-nutzer-195231\/\">abgekommen, die Eltern zu informieren<\/a>.<\/li>\n<li><strong>Lokale Erkennung von Missbrauchsbildern<\/strong>: Umstrittenste Neuerung und von Apple <a href=\"https:\/\/www.iphone-ticker.de\/rueckzieher-apple-verschiebt-missbrauchs-erkennung-179151\/\">bis auf Weiteres verworfen<\/a>, war die lokale Suche nach Missbrauchs-Fotografien. Apple hatte vor, Ger\u00e4te von Anwendern die iCloud-Fotos nutzen, bereits vor dem Upload auf Fotos zu durchsuchen, die die sexuelle Ausbeutung von Kindern darstellen k\u00f6nnten. Nach einem lauten Aufschrei von Journalisten, Aktivisten, Zivilgesellschaft, Datensch\u00fctzern und IT-Sicherheitsexperten, entfernte Apple die Hinweise auf die sogenannte CSAM-Erkennung dann <a href=\"https:\/\/www.iphone-ticker.de\/missbrauchs-erkennung-apple-tilgt-ankuendigung-aus-dem-netz-183799\/\">im vergangenen Dezember<\/a> g\u00e4nzlich.<\/li>\n<\/ul>\n<h2>Google sorgt f\u00fcr Negativbeispiel<\/h2>\n<p>Ein aktueller Fall aus den USA, den die New York Times <a href=\"https:\/\/www.nytimes.com\/2022\/08\/21\/technology\/google-surveillance-toddler-photo.html\">am Wochenende dokumentiert hat<\/a>, zeigt, welchen Einfluss Falsch-Positiv-Treffer vergleichbarer Technologien auf Anwender haben k\u00f6nnen.<\/p>\n<p>Nachdem ein Vater Fotos seines nackten Kleinkindes f\u00fcr einen behandelnden Mediziner gemacht hat, stufte Google die Bilder \u00fcber einen automatisierten Scan als kriminell ein und deaktivierte den zugeh\u00f6rigen Google-Account.<\/p>\n<p>Der betroffene Nutzer sah sich daraufhin nicht nur mit ermittelnden Strafverfolgern konfrontiert, sondern verlor auch sein mehrere Jahre altes Google-Konto. Eine Einspruchsm\u00f6glichkeit war nicht vorgesehen.<\/p>\n<h2>Zum Nachlesen:<\/h2>\n<ul>\n<li><a href=\"https:\/\/www.ifun.de\/tag\/CSAM\/\">Alle Themen-Artikel auf ifun.de<\/a><\/li>\n<li><a href=\"https:\/\/www.iphone-ticker.de\/tag\/CSAM\/\">Alle Themen-Artikel auf iphone-ticker.de<\/a><\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg07.met.vgwort.de\/na\/4d7f97e75f3d4015a76ab4e5ffaf38d1\" width=\"1\" height=\"1\" no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.iphone-ticker.de\/fotos-von-nacktem-kleinkind-account-verlust-und-polizeieinsatz-196749\/\"><img decoding=\"async\" width=\"150\" src=\"https:\/\/vg07.met.vgwort.de\/na\/4d7f97e75f3d4015a76ab4e5ffaf38d1\" class=\"alignright wp-post-image tfe\" alt=\"\" title=\"\" \/><\/a><p>Dass Apple im August des vergangenen Jahres die Einf\u00fchrung einer neuen Foto-Scan-Funktion ank\u00fcndigte, mit der das Unternehmen proaktiv gegen die sexuelle Ausbeutung von Kindern vorgehen wollte, ist schon fast wieder in Vergessenheit geraten. Nach der \u00fcberraschenden Vorstellung drei neuer Kinderschutzfunktionen im vergangenen Jahr, hat Apple davon bislang nur eine wie vorgesehen implementiert. Die beiden anderen [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1,1975],"tags":[3912,5737,703,91,61],"class_list":["post-196749","post","type-post","status-publish","format-standard","hentry","category-news","category-feature","tag-apple","tag-csam","tag-fotos","tag-google","tag-kinder"],"aioseo_notices":[],"subheadline":["Google sorgt f\u00fcr Negativbeispiel","Google sorgt f\u00fcr Negativbeispiel"],"featured_image":["https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2018\/01\/kinder.jpg"],"rest_api_enabler":{"subheadline":["Google sorgt f\u00fcr Negativbeispiel","Google sorgt f\u00fcr Negativbeispiel"],"featured_image":"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2018\/01\/kinder.jpg"},"_links":{"self":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/196749","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/comments?post=196749"}],"version-history":[{"count":3,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/196749\/revisions"}],"predecessor-version":[{"id":196757,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/196749\/revisions\/196757"}],"wp:attachment":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/media?parent=196749"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/categories?post=196749"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/tags?post=196749"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}