iphone-ticker.de — Alles zum iPhone. Seit 2007. 37 355 Artikel

Risiko-Papier hastig nachgeschoben

Mindestens 30 Fotos: Apple präzisiert Missbrauchs-Erkennung

Artikel auf Mastodon teilen.
110 Kommentare 110

Nach tagelangem Dauerfeuer von Sicherheits-Experten, Datenschützern, verunsicherten Anwendern und der eigenen Belegschaft hat Apple zum Wochenende abermals an der Außendarstellung der neuen Kinderschutz-Funktionen gearbeitet, die das Unternehmen initial am 5. August vorgestellt hat und zusammen mit iOS 15 einführen will.

Die insgesamt drei Features selbst haben wir auf ifun.de in den zurückliegenden Tagen ausführlich beschrieben. Zum einen werden Apples Betriebssysteme demnächst eine Funktion bereitstellen, die iMessage-Nachrichten auf Geräten von Kindern nach Bilder durchsuchen kann, die möglicherweise nackte Haut zeigen. Ist die Funktion aktiviert, wird deren Anzeige erst mal unterbunden, und muss von Kindern in einer Familienfreigabe besonders bestätigt werden, was dann wiederum deren Eltern informiert.

Zweite Neuerung waren neue Warnhinweise in der Suchfunktion des iPhones und von Siri, wenn die Sprachassistenz oder die Suche zur Websuche von Missbrauchsfotos genutzt werden.

Dritte, und mit Abstand umstrittenste Funktion, war die Ankündigung Apples fortan alle Fotos vor dem Upload in Apples iCloud mit einer Datenbank bekannter Missbrauchsfotos abzugleichen. Statt die Bilder wie schon bislang auf den iCloud-Servern selbst zu überprüfen, plant Apple den Scan auf die Geräte der Nutzer zu verlagern. Deren Geräte sollen bereits vor dem Foto-Upload nach möglichen Treffern Ausschau halten und informieren Apple wenn entsprechende Fotos gefunden werden. Apple selbst meldet die Treffer nach einer zusätzlichen Sichtprüfung dann den Behörden.

Plötzlich doch 3 Falsch-Positiv-Treffer auf 100 Mio.

Die Funktion, die vor dem weltweiten Rollout ausschließlich in den USA eingesetzt werden soll, war von Kritikern als Hintertür bezeichnet worden, die die Suche nach nahezu beliebigen Bilddateien möglich machen würde.

Auf die von allen Seiten formulierte Kritik hat Apple zum Wochenende noch mal mit proaktiven Veröffentlichungen reagiert. Zum einen hat sich Apples Software-Chef Craig Federighi im Interview mit dem Wall Street Journal zum Thema geäußert und gibt an, dass eine Meldung an Apple erst bei Erkennung von rund 30 Missbrauchsfotos auslösen würde (zumindest während der initialen Phase der Foto-Erkennung) zum anderen hat Apple hastig das 14-seitige PDF-Dokument „Security Threat Model Review of Apple’s Child Safety Features“ nachgeschoben.

Risiko-Papier hastig nachgeschoben

Dieses (PDF-Download) geht auf die zahlreichen Sicherheitsbedenken ein, die Beobachter nach Ankündigung der Einführung des Fotoabgleichs geäußert hatten. Etwa die Möglichkeit, dass die Bild-Datenbank um beliebige andere Foto-Fingerabdrücker erweitert werden könnte (öffentliche Hash-Werte sollen dies unmöglich machen) bleibt aber Wortkarg, was die Hoheit über die Zusammenstellung der Bilddatenbank angeht.

In dem neu veröffentlichten PDF räumt Apple auch ein, dass die eigene Missbrauchsfoto-Erkennung beim Training auf 100 Million Fotos immerhin 3 Falsch-Positive Treffer ausgespuckt hat. Bei über einer Milliarde aktiven iOS-Geräten, keine zu vernachlässigende Größe und mit ein Grund für die händische Nachkontrolle und den Wert von 30 Bilder mit dem Apple initial arbeiten wird.

16. Aug 2021 um 07:46 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    110 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Macht es nicht besser… bin sehr enttäuscht von Apple. Wahnsinn was sie sich hier erlauben.

    • Warum? Betrifft es dich persönlich? Solche Aussagen sind an sich schon fragwürdig. Ich meine, Apple wird nichts ohne Grund machen. Und nur weil das vllt in den US konform ist und das durchgeht, heißt es nicht automatisch, dass das bei uns ebenfalls so ist.

      Die DSGVO sollte dir bekannt sein. Ebenso die Datenschutzparanoia der Deutschen …

      Also mal ruhig aufm Teppich bleiben und abwarten. Noch ist nix in Sack und Tüten.

      Guten Tag.

      • Du verstehst es nicht.
        Es ist im neuen iOS.
        Das ist der Punkt.
        Der Durchstich ist gemacht.

      • Das neue OS ist aber noch nicht im Release, also abwarten. Immer noch Beta!!

      • Wehret denn Anfängen! Dass eine Firma ungefragt und verdachtsunabhängig meine privaten Daten durchsuchen will ist Grund genug dies massiv zu kritisieren und schon lautstark vor Umsetzung zu protestieren.

      • Private Fotos werden seit Jahren bei jedem Upload durchsucht. Einfach mal nach Zahlen zu der Anzahl der Meldungen von Social Media Plattformen und Cloud Diensten suchen. So viel dazu das Firmen private Daten durchsuchen. Wehret den Anfängen hätte man vor über 10 Jahren schreien müssen.

      • Deshalb lade ich keine Fotos hoch.
        wenn das Gerät aber schon selbst über den User hinweg entscheidet ist es schon ätzend.
        da kann ich die Befürchtung nachvollziehen, das mit einem Schalter seitens Hersteller alles andere auch gescannt werden kann und das ist in D. eben immer noch Privatsphäre und darf mit Sicherheit nicht von einem Aktienunternehmen einfach mal beliebig ein- oder umgeschaltet werden.

        was hat apple denn da nur geritten?

      • P. S.
        und dieses ewige Blabla „ich hab doch nix zu verbergen“ oder „hast du was zu verbergen?“ ist einfach nur lächerlich, weil es mir der Sache selbst überhaupt nichts zu tun hat.
        selbst WENN ich was zu verbergen hätte, ist es nicht Aufgabe eines Wirtschaftsubtetnehmens, das offenzulegen.

      • @Scoo
        Alle die hier Apple beistehen lassen sich gerne veräppeln. Apple hat schon so einiges Versprochen nicht zu tun und dann doch getan. Das gefährliche an der Funktion ist, dass man sie nicht kontrollieren kann. iOS ist nicht OpenSource, auch kann bei Buggs alles passieren, es würde keinem auffallen. Wir alle wissen das Apple erst Buggs fixt wenn der mediale Aufschrei groß genug ist. Ich erinnere da gerne an die Abhörfunktion des iPhones via FaceTime. Da hatte der Entdecker sogar noch Stress mit Apple.

        Leute die diese Funktion befürworten haben freie Meinungsäußerung und Privatsphäre nicht verstanden und sind die Naivität in Person.

      • Trifft es auf den Punkt! Und das ewige „wird von allen anderen auch gemacht“ ist keineswegs eine Rechtfertigung dafür, dass Apple das jetzt auch machen soll/kann/darf!

      • @Phil
        Sie Daten/Bilder liegen in der Cloud. Die Cloud gehört mir nicht und das da keine privaten Bilder drauf gehören weiß eigentlich jedes Kind.

        Jetzt wird aber dein privates Gerät ohne Verdacht durchsucht, das ist schon ein Problem.

      • Dann ist ja jetzt alles gut und Apple kann Ihre Spyware ruhig installieren. Was wird als Nächstes gescannt ? Welche Parteien ich unterstütze ? Oder ähnliches ?

      • +1 autoritäre Staaten reiben sich jetzt schon die Hände. Für die wird es doch jetzt ein Leichtes, von unliebsamen Gegner mehr als nur die Fotos zu scannen.

      • Wer sagt denn das es nicht schon gemacht wird? Warum wird immer das schlimmste vermutet? Oder gibt es hier so viele die doch Angst haben das die Leichen im Keller entdeckt werden könnten? Es gibt seit Jahrzehnten immer so ein Gefasel.

      • Es wird bei allen Cloud-Anbietern (Dropbox, Google Drive, Onedrive & co) schon seit Jahren gemacht. Und wohl mit weniger Rücksicht auf Privatsphäre.

        Apple macht es eigentlich intelligent und will die Privatsphäre schützen mit dieser Kryptographiesache, aber der Schuss ging mit der miserablen Kommunikation hinten raus.

      • @knut
        Nein, einfach nein.
        auch Apple durchleitet wie Google deine Cloud Daten, Apple ist dazu verpflichtet.

        Weil Apple meine Privatsphäre schützen will, wird jetzt auf meinem iPhone meine private Galerie gescannt.
        Apple hat auch in der PDF nicht erläutert wer die Datenbank befüllt, nur woher die Bilder für die Datenbank kommen. Auch in Deutschland reiben sich die Behörden die Hände, der Bundestrojaner wird nicht mehr benötigt und man kann ohne Aufwand jeden und alles mit Apple überwachen

        So sieht der Schutz der Privatsphäre von Apple aus. Ohne Privatsphäre muss man auch nichts schützen.

      • @Frank
        Weil bisher immer das schlimmste eingetreten ist. Auch bei Apple.
        ich nenne der als Beispiel gerne das „Siri-Debakel“. Als bei Amazon raus kam das dort Sprachaufzeichnungen von Menschen einer Fremdfirma ausgewertet wurden, war der Aufschrei groß. Die Apple User wähnten sich in Sicherheit da Apple die Privatsphäre ja groß schreibt. Dann kam raus das Apple ebenfalls die Sprachaufnahmen auswertet, da wurde aber jedem der kritisch wurde auch versucht zu erklären das passiert bei Apple selbst. Tja die Wahrheit kam dann aber doch ans Licht. Apple arbeitet genauso wie Amazon mit Fremdfirmen und macht das immer noch. Da gehen halt immer mal Daten verloren.

        Genau wegen solchen Beispielen sollte man immer vom schlimmsten ausgehen! Auch der Fall Pegasus zeigt doch das gewisse Behörden und Länder die totale Überwachung wollen. Oder Uploadfilter etc.

      • Was bist du für ein Schwachmat?

      • Zu @Alex

      • Unsere Innenminister freuen sich. Bisher hieß es immer „geht halt nicht“. Jetzt wissen Sie das es geht.
        Und wenn ich mich an die Vorratsdatenspeicherung erinnere. Die war ja auch nur zu Abwehr schwerster Verbrechen gedacht und wird jetzt zur Verfolgung von Urheberrechtsverletzungen eingesetzt … schon interessant was alles schwerste Verbrechen sind …

      • Nicht wollen, sondern gesetzlich verpflichtet. Und sie machen es schon längst. Und zwar alle Cloud Anbieter.

      • Es geht ausschließlich um Fotos die in iCloud hochgeladen werden, das machen ALLE CLOUD ANBIETER SCHON JAHRELANG. Bei Apple werden die Fotos lediglich vor upload gescannt auf dem Smartphone, bei anderen in der Cloud direkt. Hier wird wieder ein Faß aufgemacht. Wenn man seine Bilder dezentral in einer Cloud speichert ist es legitim dass der Anbieter auf illegale und strafbare Inhalte scannt, wenn man das nicht möchte kann man seine Bilder lokal speichern ohne Cloudnutzung, und dann bleibt alles wie es ist, keine Scanns, alles privat.

      • Ja, gegen Scans in der Cloud sage ich auch nichts. Leider hilft es bei der Apple-„Lösung“ aber gerade NICHT, wenn ich nur noch lokale Bilder habe. Denn: weil die Bilder lokal gescannt werden macht’s keinen Unterschied, ob man die nun irgendwo hochlädt oder nicht. Apple SAGT zwar, dass sie nur die zur iCloud hochgeladenen melden. Umzustellen, dass auch ohne Upload ne Meldung für markierte Fotos an Apple geht, wäre vermutlich nur ein kleiner Schalter im Code…

        Hinzu kommt: Wenn nun ein Regime sagt „nimm unsere Datenbank“, oder „nimm xx Bilder auf, sonst darfst du hier keine Telefone verkaufen“, wird Apple irgendwann einknicken. Im schlimmsten fall scannt dein Telefon dann deine Foto-Bibliothek nach Bildern, die in dem Land verbauen sind (LGBT-Menschen, Uiguren, …).

        Und wenn ich schwarzmalen darf: Was kommt als nächstes? Scannen von Texten nach terroristischen Inhalten vor dem Versenden?

      • Ist die Technik einmal am Markt, wird sie auch genutzt.

        Ein Beispiel sind doch auch die Gästelisten bei Restaurantbesuchen während der Pandemie.
        Plötzlich werden diese auch bei Kleinkriminalität zur Identifizierung von „Zeugen“ genutzt und nicht mehr nur zur Nachverfolgung bei positiven Fällen.

      • Die fotos in der iCloud werden bisher ehh schon gescannt und auch alle ander claouf FotoSrvices machen das.
        Neu ist einfach, dass die fotos nicht auf der cloud, sondern nur auf dem iPhone gescannt werden, wenn iCloud Fotos aktiviert ist.
        Es ist eigentlich einfach der Upload filter, welcher die eu ja auch verlangt.

      • Ganz genau so ist es! Das wäre so als wenn Apple sich täglich meine Wohnung anschauen würde. Schon mal was von Privatsphäre gehört? Ich finde das unfassbar von Apple. Die Absicht in allen Ehren. Aber so doch nicht!?

      • @Levis
        Doch, die Funktionen sind in Sack und Tüte und werden so kommen, ansonsten würde sich Apple nicht so abmühen.
        ich frage dich, warum will Apple die Kontrolle auf deinem Gerät durch führen. Seit 2012 sind sie dazu verpflichtet alle Daten der Cloud zu durchleuchten. Aufgrund der Funktion wird dein Gerät zur Wanze mit Filterfunktion. Wer die Filter bedient hat Apple nicht angegeben, nur woher die Kipo-Bilder kommen.

        Pegasus hätte von einer solchen Funktion geträumt.

      • Nur weil es einen nicht selbst betrifft mach es das nicht besser. Immer dieses Schwarz Weiß denken.
        Es ist im System und weckt Begehrlichkeiten

      • Heute sind es die Fotos, morgen die Messagernachrichten und übermorgen das komplette Smartphone. Gründe dafür lassen sich immer finden. Ich halte diese Entwicklung für sehr bedenklich. Wer weiß das er beobachtet wird verhält sich nicht mehr natürlich auch wenn er nichts zu verbergen hat.

    • Und dass Google Fotos oder Gmail alles scannt, für Marketingzwecke, Werbung etc. stört komischerweise niemanden, aber wenn es um Kinderpornographie geht ist das ein Skandal, die Menschheit ist wirklich behämmert.

      • @Mik11
        Auch Apple scannt seit 2012 sämtliche Cloud-Daten. Das ist für Cloud-Anbieter verpflichtend.

      • >>dass Google Fotos oder Gmail alles scannt, für Marketingzwecke, Werbung etc. stört komischerweise niemanden<<

        doch, deswegen habe ich bisher auch das dreifache für ein Apple Handy ausgegeben.

        mit der neuen Apple Stoßrichtung war es das für mich mit Apple

      • @Tut Was nun zu Android und seine Privatsphäre komplett aufgeben? Klingt nicht intelligent.

    • Es geht um KOMDERPORNOS… wenn du selbst Kinder hättest wprdest du wohl anders darüber nachdenken. Das gehört definitiv ausradiert und wenn man nur eins finden würde ist eins schon zuviel.

      • Habe Kinder, jedoch keine platte, vorgefasste und der Mehrheit angepasste, sondern eigenständige Meinung zum Thema. Punkt.

      • Nur ist halt das vorgestellte System von Apple besser für eine staatliche Überwachung als zur Bekämpfung der Kinderpornografie geeignet.

        und für so ein lausiger System gebe ich nicht meine Privatsphäre auf

    • Sehe ich genauso. Man sollte sich mal vom Thema KiPo lösen und das Ganze allgemein betrachten. Wo fängt es an, wo hört es auf?

  • Bin aus sehr enttäuscht.
    Das ist und bleib Hausfriedensbruch. Wenn ein Verdacht seitens der Ordnungshüter besteht dann könnte das Feature bei der verdächtigen Person aktiviert werden. Die sollen einfach die Finger von unserem Eigentum lassen. Bilder sind und bleiben privat solange sie nicht auf Netzwerken geshared werden.

    • Hartmut Bachmann

      Ist doch auch so.
      Erst bei einem Upload findet die Prüfung statt, sonst nicht.

    • Und…?
      Solange sie nicht in die Cloud geladen werden, wird auch nichts gescannt. Das sollte langsam klar sein und wer die Cloud nutzt, dessen Bilder werden auch heute schon gescannt.

      • Nein. Es werden generell keine Bilder im Upload gescannt.

        Allein, wenn man auf Socialmedia Bilder hochlädt, werden die bereits auf Straftatsbestände hin ggf überprüft. Zudem überprüfen diese Nutzerhinweise. Allein hierzu sind diese Anbieter gezwungen.

      • @Phil
        dann erklär mir mal warum Apple dann diese „Überwachung“ implementiert, wenn sie auf der Cloud schon alle Daten von mir scannen? Dann lassen wir es doch wie es schon ist.

        Auf die Begründung von dir bin ich gespannt. Warum miss Apple auf meinem Gerät durchleuchten, dort sollten die Daten verschlüsselt sein.

      • Sehr guter Punkt. Bitte, Phil, erklär uns das mal. Ernst gemeint!

    • Sind Bilderinhalte strafbar, so ist auch der Besitz dieser Bilder strafbar. Es besteht kein Eigentumsrecht an strafbaren Inhalten.

      Schon zu Sharingzeiten war das Teilen zum Zwecke der Vervielfältigung von Programmen oder Dateien, an denen man keine Rechte hielt, nicht erlaubt.

      • Es werden hier aber alle Bilder gescannt, nicht nur strafbare!

      • Und wie bitte soll man nach Bildern mit Strafbaren Inhalten suchen, wenn man nicht unterscheiden kann?
        Richtig! Man bastelt einen Algorithmus der das tut.
        Dieser meldet dann eventuelle Fotos mit einer sehr hohen Übereinstimmung.
        Dann prüft das ein Mensch, damit niemand zu Unrecht angezeigt wird.
        Dann wird ein Verfahren eröffnet und man hat als Beschuldigter die Gelegenheit sich zu äußern.
        Sind es keine Kinderpornos, haste also nichts zu befürchten.

      • >>Und wie bitte soll man nach Bildern mit Strafbaren Inhalten suchen, wenn man nicht unterscheiden kann?<<

        Mit ganz normalen Ermittlungen NACH einem richterlichen Beschluss.

        Richtig: wir leben nämlich in einem Rechtsstaat

      • Algorithmen… hab ich bereits geschrieben.

  • Hartmut Bachmann

    Ich finde das gut.
    Es ist wie bisher, nur das die Prüfung auf dem Gerät stattfindet und nicht mehr in der Cloud.
    Die Bilder in der Cloud sind dann so verschlüsselt, dass hier keiner mehr Zugriff hat.
    (Wenn ich es richtig verstanden habe).

    • Andererseits: Wenn Apple schon an alle Bilder auf dem Telefon rankommt, analysiert und die Ergebnisse hochlädt, ist auch eine Verschlüsselung der Sicherung völlig nutzlos. (Wenn ein Trojaner auf deinem Telefon alle Tastaturanschläge mitschneidet, hilft dir auch keine E2E.)
      Da habe ich lieber ein unverschlüsseltes Backup und nutze es nicht, als ständig ein Telefon herumzutragen, das entscheidet, welche meiner gemachten Bilder ok ist und Rückmeldung an Apple und irgendwelche Behörden gibt.

      Und ich sehe jetzt schon Statten, die sagen „ihr dürft das Telefon hier erst verkaufen, wenn die und die Bilder erkannt werden, weil das fällt hier unter missbrauch/Sittenwiedrigkeit“.

    • Toll. Anstatt es so wie bisher zu belassen (immerhin hat Apple ja bei weltweit allen iCloud Fotos von allen iOS Geräten und Macs insgesamt ganze 265 Fotos gemeldet) baut Apple unter extremen Gegenwind, zu Lasten des Aktienkurses, schlechter Presse etc. alles um, um diese Hintertür einzubauen ohne jeglichen Mehrwert oder gesetzlich bekannten Zwang dazu?

      Vielmehr ist es doch grob Naiv nicht zu erwarten, das auf Knopfdruck auch gescannt werden kann ohne iCloud Upload, um auch an die Fotos dieser Leute zu gelangen, weil halt irgendeine Behörde im Hintergrund Druck dazu macht oder Apple sich einen Mehrwert daraus erwartet.
      Ebenso auch stillschweigende Änderungen oder landesspezifische Anpassungen was denn konkret gescannt werden soll. Zum Beispiel statt nur Hashwerte abzugleichen einfach mal die Foto Tags/Personenzuordnungen/EXIF Daten abzugreifen, die ja eh auf dem iPhone vorhanden sind…. oder erweitern um Videos, Dokumente etc.

  • Also…. ich glaube Sie wollen wirklich etwas Gutes damit erreichen, scheitern aber an der Kommunikation und an der Transparenz die es für die Öffentlichkeit braucht.

    Interessant zu sehen, das solch ein Konzern so schnell bei sowas ins trudeln kommt. Dadurch das Sie den ersten Eindruck nicht positiv gestalten konnten, wird es nun ein schwerer Weg…

  • Google, Amazon, Facebook, … scannen alle Bilder bzw. Dateien, die sie in die Finger bekommen. Egal ob auf dem Gerät oder in der Cloud ….. komisch da beschwert sich niemand. Da ist Apples Ansatz eine gute Idee.

  • 29x Missbrauch ist in Ordnung, aber bei 30 wirds kritisch? Willkür ist bei solchen Themen vielleicht nicht angebracht.

    • Habe mir den Beitrag gerade angehört und fand das Thema dort nochmal gut beleuchtet mit den richtigen Fragen dazu. Niemand weiss ob das Scannen überhaupt was bringt, ob diese widerlichen KiPo Menschen nicht ausweichen auf andere Plattformen etc. Aber die Software ist dann erstmal auf allen Geräten drauf und kann jederzeit aktiviert werden und jederzeit zu einem beliebigen anderen Thema Dateien absuchen. Und dafür bezahlen wir dann viel Geld an Apple. Echt zum Kotzen.

      • Für jeden einzelnen, der durch diese Technik aufgespürt wird, hat sich das alles mehr als gelohnt!

      • Auf hunderten Millionen Geräten die die iCloud nutzen hat Apple bisher 265 Bilder gemeldet. Somit wird mit dieser Änderung nichts mehr oder weniger verhindert, keine Verbreitung eingeschränkt oder irgendeiner überführt – ES SEI DENN es wird etwas verändert (z.B. Scan und Meldung auch ohne Upload) oder die Änderung dient einem gänzlich anderen Zweck

  • ich sage dazu nur: der Zweck heiligt nicht die Mittel. Auch wenn der Grund gut gemeint ist, rechtfertigt das nicht die Mittel.

  • Was ich bei all den Kommentaren nicht finde, ist die Seite der Missbrauchten Kinder. Alle rufen Privatsphäre und Apple ist ein Teufel. Aber dass es wie es scheint eine signifikante Menge an Kindermissbrauchsfotos gibt, dass eins der größten IT Firma was gegen machen will, ist hier völlig egal.
    Ich sehe die Funktion auch kritisch, jedoch das Missbrauchsthema als viel schlimmer an. Wenigstens versucht eine IT Firma hier was zu ändern.

    • Bin völlig deiner Meinung. Ich befürchte auch das die Funktion eher helfen könnte als Schaden. Es kommt immer gleich der große Aluhut raus und es wird spekuliert was noch kommen könnte. Obwohl niemand weiß ob das nicht schon längst gemacht wird.

    • Niemand aber wirklich niemand will, dass Kinder missbraucht werden oder sich auf die Seite von Kinderschändern stellen!

      Mit Apples Ressourcen könnte man bei der Bekämpfung auch da ansetzen, wo Missbrauch entsteht, also viel früher!

      Es muss aber maximal kritisch hinterfragt werden, wenn persönliche Daten auf diesem Wege gescannt werden. Ich hoffe hier noch auf die GDPR, denn Apple müsste sich diesen Zugriff bei uns zumindest einwilligen lassen. Ich jedenfalls werde, sollten sie es in der EU umsetzen, zumindest diese Apple-Dienste nicht mehr nutzen. Was mir wirklich leid täte!

      • Also werden einfach alle Ersteller von Kinderpornos ablehnen…
        Hörst du dir eigentlich selber zu?

    • Gegen den Missbrauch selbst wird es aber nicht helfen. Es werden Fotos gesucht, die schon mehrfach bekannt sind. Da bin ich skeptisch ob das mit Angebot und Nachfrage zu regulieren ist.

    • Weil diese Argumentation auch einfach Schwachsinn ist. Meinst du denn ernsthaft, dass der durchschnittliche Kinderschänder (der bei Entdeckung mindestens eine mehrjährige Haftstrafe zu befürchten hat) tatsächlich einfach so seine Bilder und Videos in iCloud speichert? Komplett unverschlüsselt? Das wage ich zu bezweifeln.
      In den Medien wurde ja schon häufiger darüber berichtet, dass die sogar eigene Server betreiben und alles verschlüsseln…..Der Nutzen dürfte also tatsächlich gegen Null gehen….und dafür werden einfach mal pauschal die 99,99% der anständigen User unter Generalverdacht gestellt.

    • Die könnten doch aktiver ihre eigene Cloud scannen…? Machen andere (MS, FB, etc.) auch.

      Denn ich will nicht, dass meine Privaten Bilder von Apple Mitarbeitern angesehen werden. Denn die machen das, wenn das Ergebnis nicht so eindeutig war. Das habe ich dann, wenn ich Bilder mache, ständig im Hinterkopf.

      Die gleichen Argumente (für und wieder) findet man übrigens bei der Terrorabwehr.

      Man könnte bestimmt viel verhindern, wenn Staaten und Firmen texte und Bilder auf dem eigenen Telefon mitschneiden, die Frage ist nur: ist dieser massive eingriff in die Privatsphäre verhältnismäßig?

      PS: wenn Apple auf dem Telefon nach Texten mit terroristischen Inhalten beim Eintippen sucht, wäre die E2E-Verschlüsselung auch nutzlos. Dann können wir uns das ganze verschlüsseln auch sparen.

  • Übrigens ist das doch ein weiterer Schritt entfernt von einer vollständigen end zu end Verschlüsselung von iCloud!

    • Nein, nicht zwangsläufig. Die iCloud Daten könnten dann ja komplett verschlüsselt werden wenn vor dem Upload auf dem Gerät bereits gemäß Upload-Filter überprüft worden ist. Dann könnte das iCloud Backup auf Apples Servern vollständig verschlüsselt werden auch wenn es dann eigentlich vollkommen überflüssig ist

  • Die drei Falsch-Positiv-Treffer auf 100 Millionen widersprechen nicht unbedingt der ursprünglichen Aussage von eins zu einer Billion Wahrscheinlichkeit.
    „Apple always chooses the match threshold such that the possibility of any given account being flagged incorrectly is lower than one in one trillion, under a very conservative assumption of the NeuralHash false positive rate in the field. As the system is initially deployed, we do not assume the 3 in 100M image-level false positive rate we measured in our empirical assessment. Instead, our conservative assumption builds in a safety margin that is two orders of magnitude stronger. Specifically, we assume a worstcase NeuralHash image-level error rate of one in one million, and pick a threshold that safely produces less than a one-in-one-trillion error rate for a given account under that assumption. Building in an additional safety margin by assuming that every iCloud Photo library is larger than the actual largest one, we expect to choose an initial match threshold of 30 images. Since this initial threshold contains a drastic safety margin reflecting a worst-case assumption about real-world performance, we may change the threshold after continued empirical evaluation of NeuralHash false positive rates – but the match threshold will never be lower than what is required to produce a one-in-onetrillion false positive rate for any given account.“

    • Das sage ich seit Anfang an. Der Schwellenwert ist entscheidend, bringt aber halt in der Presse keinen Klick und man sieht ja das die meisten das eh nicht verstehen. Die Blogger, die meinten das die Aussage nicht stimmt, haben in ihren Rechnungen viel zu geringe Werte angenommen. Senke ich den Schwellenwert extrem, würde auch ein Foto von einem Apfel verglichen mit einer Birne einen Treffer bringen.

      • Und welcher Schwellenwert ist vertretbar?
        Also 3 Treffer zu 100.000.000 ist ja wohl echt zu verkraften, da ist noch niemand verurteilt.
        Erstmal läuft ein Verfahren und man wird ja wohl den Unterschied zu Kinderpornografie und Urlaubsfotos klar erkennen.
        Die einen Kinder sind nackt und die anderen nicht.

      • erstmal läuft ein Verfahren …
        und
        – man verliert seinen Job/Firma
        – wird von allen vorverurteilt
        – und niemand interessiert es im Nachgang, ob der Algorithmus leider fälschlicherweise einen Pfirsich falsch gemeldet hätte.

        Viel wichtiger aber: hier wird bereits über Anpassungen diskutiert. Bislang soll der Algorithmus NUR überprüfen ob sich exakt ein Bild aus der Datenbank befindet oder nicht. Somit dürfte nach aktueller Situation weder ein Nacktfoto vom Strandurlaub noch ein neues Missbrauchsfoto erkannt werden. Somit gehen schon Befürworter wie du davon aus, dass der Algorithmus angepasst wird und nach Suchtags erweitert wird.
        Also statt „ist eins der bekannten Missbrauchsbilder 1 – 1000 auf dem Gerät“ „ist ein Foto mit nackter Haut auf dem Gerät vorhanden, damit ein Apple Mitarbeiter sich das nochmal angucken soll“?

  • Ich denke ich werde nun doch komplett auf iCloud verzichten. War schon länger am überlegen wieder mehr lokal zu machen und werde das nun mal zum Anlass nehmen um umzustellen. Dann werden die Bilder in Zukunft eben mit Photosync lokal auf den Server oder Mac synchronisiert….mich regt es eh schon seit Jahren auf, dass Fotos in iCloud nicht Ende zu Ende verschlüsselt werden.
    Kontakte, Kalender, Notizen und Erinnerungen kann ich auch über meine NextCloud syncen und Backups laufen hier sowieso parallel lokal über den WLAN sync am Mac Mini.
    Netter Nebeneffekt ist dann auch, dass ich 10€/Monat spare. Dann muss man eben auf den Komfort verzichten alle Bilder auf dem iPhone immer „dabei“ zu haben. Zumindest in der Fotos App ist dann halt immer nur das letzte Jahr gespeichert….je nach freiem Speicher. Sei es drum….

    • ….mich regt es eh schon seit Jahren auf, dass Fotos in iCloud nicht Ende zu Ende verschlüsselt werden.“
      Erst wenn die Verarbeitung nicht in der Cloud, sondern auf dem Gerät stattfindet, kann Apple die Ende-zu-Ende-Verschlüsselung anbieten.

      • Apple hätte schon lange eine E2E Verschlüsselung für Bilder anbieten können. In der iCloud findet aktuell nämlich überhaupt keine Verarbeitung statt. Die Personen- und Objekterkennung der Fotos App findet komplett lokal auf den Geräten statt.

      • In der Cloud wird seit Jahren nach entsprechenden Inhalten gescannt – störte bislang auch niemanden (oder die Leute wussten das einfach nicht…?). Da konnte bisher nix verschlüsselt werden (wie bei allen anderen Anbietern eben auch). Erst durch den Schritt vor Upload, ist jetzt im Gegensatz zu anderen Anbietern eine Verschlüsselung auf den Servern überhaupt möglich.

      • Das Optimum wäre allerdings überhaupt kein Scan…weder in der Cloud noch auf dem Gerät….PLUS E2E Verschlüsselung….

      • Evt. ist das ja der Grund, für dieses Feature. Dass sie genau E2E-Verschlüsselung für alle Daten anbieten können.

      • Eventuell arbeitet Apple ja auch einfach mit allen größeren Geheimdiensten zusammen.

    • Wenn du Pech hast, scannen die irgendwann jedes lokale Bild, egal wo es hochgeladen wird. Da das lokale Scannen eingeführt wurde geht das dann auch wunderbar und ist unabhängig von iCloud. Dann ist’s auch egal wie gut der Anbieter die Cloud verschlüsselt und welchen man nun nimmt.
      Und das ist genau das Problem bei Apples „Lösung“.

  • Ich glaube das große Problem ist, dass niemand wirklich verstanden hat wie das ganze funktioniert und wie Fotos „gescannt“ werden. Am besten das verlinkte Video mit Craig schauen. Das erklärt wie das funktioniert und eben auch dass die Privatsphäre in keiner Weise verletzt wird. Wenn du ein Foto von einem Kinderpornografiebild machst, dann dürfte das Feature von Apple dieses Bild ebenfalls nicht erkennen, da der Hashwert ein anderer ist

    • Dazu wurden aber andere Aussagen gemacht. Nämlich dass auch ähnliche Bilder erkannt werden. Genau das wäre das Problem bezüglich der Falscherkennung. Solche Verfahren zur Ähnlichkeit sind nämlich recht Fehlerbehaftet.

    • Ich finde das Video bringt es gut verständlich rüber. Wahrscheinlich haben die Wenigsten hier es gesehen (oder verstanden).

      • Die haben es alle nicht verstanden…
        Oder sie haben nackte Kinder auf den iPhones…
        Kann ja nichts anderes sein.

      • Ich tippe auch auf letzteres. Ihr müsst auch mal reinziehen wie viele Männer auf Kinder stehen. Da gibt es ja auch zahlen. Ich sage nur es ist erschreckend hoch! Hier sind garantiert einige darunter die ordentlichen Wind machen.

      • Das ist eine üble Verleumdung. Gib mir deinen Schlüssel für deine Wohnung oder du hast Kinderpornos unter deinem Bett gesammelt.

      • Wenn du da nur einen Algorithmus durch meine Wohnung laufen lässt, kann’s heute losgehen.

      • kann man mal machen, ich zeichne vom jeglichen Videos und Ton auf, kann man ja für den Algorithmus gebrauchen und mal schauen wie eingeschränkt du dich fühlen würdest

    • Darum geht es doch überhaupt nicht. Es geht einfach generell um die Tatsache, dass Apple nun offenbar doch bereit dazu ist die Privatsphäre seiner User einzuschränken, obwohl es seit Jahren heißt, dass sie das höchste Gut sei.

      iOS ist komplett closed source….also kann niemand außer Apple kontrollieren, was da im Hintergrund auf dem Gerät so läuft.
      Bisher war das okay da Apple ein relativ hohes Vertrauen seiner User genossen hat. Die User haben halt darauf vertraut, dass Apple kein Interesse an irgendwelchen Daten hat.
      Nun wurde mit diesem Kinderporno Scan im Hintergrund allerdings ein Anfang gemacht.
      Wenn Apple sich in ein paar Monaten dazu entschließt die Bilder auch auf andere Sachen zu scannen und die Daten auszuwerten, brauchen sie nur ein Update auszuspielen und das wars….wenn sie es dann nicht kommunizieren (Maulkorb von US Behörde zB) wird das niemand jemals mitbekommen….
      Mein Vertrauen in Apple ist dadurch auf jeden Fall weg…

      • Die scannen schon ewig…
        Gib mal Karte in die Siri suche ein…
        Und dann schau mal unter gegundene Fotos

      • Eben, aber nicht in der iCloud, denn das würde weitere Ressourcen benötigen, diese Art von Verschlagwortung durchzuführen. Also wird das aufs Gerät verlagert ohne das sich was ändert.

        Aber wenn man schonmal auf dem Gerät ist, dann kann man doch auch den Scan mühelos erweitern um alle Fotos mit Schwulen und Lesben an den Orban in Ungarn zu melden, oder alle User die Fotos mit Kreml-Kritikern haben an den kleinen Wladimir in Russland oder oder oder.
        Video Konzertmitschnitte an Abmahnanwälte, EXIF GPS Daten an Polizei oder halt einfach Zahlungskräftige, Dokumente mit dem Inhalt Abtreibung an die Kirche oder Inhalt Geld and Finanzamt.
        Machbar ist mit der einmal etablierten Hintertür ohne Sinn oder Mehrwert einiges….

      • Genauso und nicht anders

  • Wie sie sich winden bei dem Versuch ihren massiven Eingriff in die Privatssphäre ihrer Kunden schön zu reden. Ja ja, iOS ist total sicher. Nur leider bedenkt man dabei selten, dass Apple selbst ein Unsicherheitsfaktor sein kann.

    1. Du bist ein unliebsamer Redakteur
    2. Du wird mit Pegasus beglückt
    3. Du bekommst ein paar nette Bilder
    4. Apples Missbrauchserkennung funktioniert einbahnfrei
    5. Apple Informiert die Polizei->Medien
    6. Du kannst deinen Beruf an den Nagel hängen
  • Eine auch wahre Schlagzeile wäre: „Apple erlaubt bis zu 30 Kinderporno Photos…“
    Die ganze Geschichte ist eine verheerende Schnapsidee gewesen. Das Ermitteln sollte man vielleicht den Ermittlungsbehörden überlassen. Und seine Kunden sollte man wertschätzen und nicht durchsuchen.

  • Apple soll nicht präzisieren, interessiert niemanden, sie sollen diesen unfassbaren Eingriff in die Integrität sofort einstellen.

  • Au Backe, wenn ich hier so einige Kommentare lese…! Ich habe nichts zu verbergen etc… toll für Euch! Dann bitte entfernt auch eure Haustür! Denn warum sollte irgendetwas im privaten bleiben??Was auf MEINEM Gerät, welches ich für
    über 1.000€ gekauft habe ist, geht NIEMANDEN etwas an! Punkt! Und alleine die Tatsache, dass sie es ankündigen, heißt für die ganzen Netflix verseuchten, fertig Pizza essenden, konsumabhängigen Kinder: sie werden es tun, wenn sie es nicht schon lange tun! Ich rede nicht von clouds! Ich rede von meinem Eigentum! Apple ist raus, letztendlich sollte man sich genau überlegen was man preisgibt… denn all die so bequemen „Services“ und Apps haben nur eines zum Ziel: Daten…. Das ist die neue Währung…. Dieses ganze Dilemma dann auch noch mit KiPo’s zu versuchen zu rechtfertigen… da komme ich mir schön veralbert vor! Fangt erst einmal an, die Strafen anzupassen!!!! Diese sind nämlich ein Witz! Siehe metzelder… lächerlich Apple, lächerlich! Auch mal überlegt was Apple der chinesischen Regierung alles steckt??? Nee? Dann macht euch mal schlau über diese Möchtegern privacy Firma…. Ich persönlich möchte meine Bilder auch bei mir wissen …. Eine neue Kamera ist bestellt… mein iPhone kann gerne bei eBay ersteigert werden ;-) Telefon kommt mein ehemaliges Blackberry wieder zum Einsatz … adios… ein iPhone User der allerersten Stunde ….

  • Vielleicht etwas kurz gedacht aber ich hab mein iPhone inzwischen verkauft. „Spionage“ bekomm ich bei Google für die Hälfte oder ein Drittel des Preises (Gerät und Zubehör).

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 37355 Artikel in den vergangenen 6072 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven