iphone-ticker.de — Alles zum iPhone. Seit 2007. 37 262 Artikel

Anfang 2019 vorbereitet, jetzt aktiv

Kindesmissbrauch: Apple scannt iCloud-Fotos auf bekannte Bilder

Artikel auf Mastodon teilen.
119 Kommentare 119

Fotos, Grafiken und digitale Bilder, die Apple-Nutzer über den Online-Speicher iCloud verwalten, werden von Apple auf bekannte Bilder geprüft, die die Ausübung sexueller Gewalt gegen Kinder darstellen.

Icloud Fotos Kinder

Darüber informiert Apple auf der neu eingerichteten Webseite „Unser Bekenntnis zur Sicherheit von Kindern“, die der Konzern im Rahmen der Elektronik-Messe CES vorstellte.

Hier heißt es unter anderem:

Apple hat sich dem Schutz von Kindern in unserem gesamten Ökosystem verschrieben […] Als Teil dieses Engagements setzt Apple eine Technologie zum Abgleich von Bildern ein, um die Ausbeutung von Kindern zu finden und zu melden.

Ähnlich wie Spam-Filter in E-Mails verwenden unsere Systeme elektronische Signaturen, um mutmaßliche Ausbeutung von Kindern zu finden. Wir validieren jeden Abgleich mit einer individuellen Überprüfung. Accounts mit Inhalten, die gegen unsere Nutzungsbedingungen verstoßen, werden deaktiviert, wenn wir Accounts mit diesem Material finden.

Um den automatisierten Abgleich der Bilder vorzubereiten änderte Apple die hauseigenen Datenschutzrichtlinien bereits im Frühjahr 2019 – ifun.de berichtet.

Damals formulierte der Konzern eine Passage im Abschnitt „Wie wir personenbezogene Daten nutzen“ neu und weist seitdem explizit darauf hin, dass hochgeladene Fotos auf Inhalte geprüft werden, die im Zusammenhang mit der sexuellen Ausbeutung von Kindern stehen.

[…] Wir können Ihre personenbezogenen Daten auch für Zwecke der Account- und Netzwerksicherheit verwenden, in dem wir, zum Wohle all unserer Nutzer, unsere Dienstleistungen durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern, schützen. […]

Wahrscheinlich ist, dass Apple die iCloud-Fotos seiner Anwender durch eine PhotoDNA-ähnliches Prüfverfahren schiebt, um anhand eines robusten Fingerabdrucks auszuschließen, dass sich bereits bekannte kinderpornographische Inhalte über die eigene Infrastruktur weiterverbreiten.

Dieser Artikel enthält Affiliate-Links. Wer darüber einkauft unterstützt uns mit einem Teil des unveränderten Kaufpreises. Was ist das?
09. Jan 2020 um 15:21 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    119 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
    • Mal gucken wie cool Du es findest, wenn das System eine negative Positiv Meldung über ein Bild bei dir macht und dadurch als Verdächtiger gemeldet wirst und eine Profiluntersuchung erhältst.
      Nicht falsch verstehen, jeder dreckskerl der sowas macht gehört für mich ****! Aber wir wissen alle wie schnell Systeme auch fehlfunktionieren können und die anschliessende verifikation erfolgt durch einen Menschen. Und wer teilt uns bitte anschließend mit dass unser Account durchleuchtet worden ist?

      • Mal mit Photo DNA beschäftigen, es gibt keine False Positiv bei dem System.

      • Jau hat er recht. Hier geht es nicht um Gesichtserkennung. Es geht um Hashes, die von cloud fotos ermittelt werden und mit bekannten gehashten Kinderpornographie-Bildern verglichen werden.

      • Die Frage ist trotzdem, wie sicher die Hashes sind. Bei md5 gibts ja auch Dopplungen. Und hier muss die Dateigröße ja nicht gleichgross sein. Sonstige Metadaten können auch nicht mit einbezogen werden.

  • Ich vermute es funktioniert so, dass eine Art Abgleich von bekannten strafbaren Inhalten erfolgt.
    Oder was passiert, wenn ich mein 3 jähriges Kind im Planschbecken oder Badehose fotografiere?

    • Ja genau, und zwar nur per digitalem Fingerabdruck. Jedes Photo besteht auf 0 und 1. Diese werden auf eine bestimmte Art addiert (Hash-Wert Berechnung). Das ergibt dann eine Zahl, die nur bei diesem bestimmten Foto heraus kommt.
      Auch ganz ähnliche Fotos werden nicht erkannt, nur vorher schon bekannte, bei denen der Wert errechnet wurde.
      Auf die gleiche Weise findet YouTube auch illegale Videos (Copyright).

      • alexanderhorner

        Mhm naja, der hash ist nicht einzigartig, da er ja sonst so groß wie das Bild selbst wäre. Also könnte es passieren das ein Bild geflaggt wird obwohls nichts mim original zu tun hat. Ist aber unwahrscheinlich.

      • Wo schreibt man im richtigen Leben so?

      • Ich hoffe mal nicht, dass die Erkennung wie von patmuk beschrieben per reiner Hashwerte funktioniert. Dann ist sie wertlos. Letztendlich ist sie dann ein Filter, der für illegale Dateien (egal ob Fotos, MP3s, eBooks, was auch immer man kopieren könnte) verwendet werden kann. Aber sobald auch nur ein Pixel des Fotos verändert wird, wird es nicht mehr erkannt (siehe horizontal gespiegelte Bundesliga-Spiele auf Youtube).

        Ich gehe also davon aus, dass schon schlauere Algorithmen auf den Bildern arbeiten. In diesem Fall ist es aber durchaus möglich, dass das Foto vom eigenen Kind im Planschbecken anschlägt.

      • Toll dann macht einer ein Punkt mit paint drauf und schon hat es einen anderen #hash deswegen hab ich das bei mir aus da ich nicht will das jeder meine Bilder sehen kann Stasie 3.0 kommt mir nicht in die Tüte.

      • Ich glaube keiner meiner Vorredner hat sich den Link zu PhotoDNA im letzten Abschnitt des Artikels angeschaut…

  • An sich verdammt gut, aber: Nur das löschen des dahinterstehenden Accounts bringt wohl eher geringen Erfolg. Dann werden eben andere Cloud-Anbieter genutzt.
    Da würde ich mir wirklich ein proaktives zugehen seitens Apple auf die Strafverfolgungsbehörden wünschen.

  • Top!! Vielleicht findet das hier einer nicht so toll, gibt ja genug Krankenin Deutschland

  • Und was macht man mit false-positive? Schaut da eine Person drüber, ähnlich wie bei Siri das mal war? Privatsphäre? Ich meine, bei 50.000 bis 100.000 Fotos gibt es durchaus eine gewisse Wahrscheinlichkeit, daß das ein oder andere false-positive dabei ist.

    • Ich würde sagen, da es eine Vorab-Prüfung ist, dass die Prüfung auf dem Gerät erfolgt, nicht online.

      • D. h. wenn ich Fotos via iCloud-Drive und Finder kopiere, also rein im Dateisystem, dann klappt das nicht? Sondern nur wenn ich iCloud-Foto aktiviert hab und synchronisiere?

      • @mozarella: Die Frage ist berechtigt. Ich würde schon erwarten, dass Apple auf Dateibasis prüft (sprich: alles, was auf deren Servern liegt) und nicht auf dem Uploadweg. Sonst wäre eine Umgehung ja super einfach. Das wirft aber die Folgefrage auf, ob z.B. auch Fotos ZIP-Dateien durchsucht werden.

    • Ja ich hab’s so verstanden das falle-positiv durch eine individuelle Prüfung herausgefiltert werden…also durch Personen…damit der Arbeitsaufwand nicht allzugroß ist darf es aber nur einen wirklich geringen Prozentteil betreffen- sonst würde man die Aufgabe wohl kaum bewältigen…also nehme ich an das man sicher mit bekanntem Material arbeitet, ggf. dann auf Metadaten noch zurückgreift und immer kleinschrittiger aufgliedert bevor es überhaupt anschlägt…wenn man solche Inhalte wie Hauptanteil etc. nur bewerten würde wäre man höchstwahrscheinlich verloren durch die ganzen strandbilder und kinderplanschbildrr etc.
      Ich denke da muss man sich nicht zwingend sorgen um seine Privatsphäre machen und das dagegen vergangen wird ist jawohl auch überaus wichtig- in dem Fall würde ich einen Falle-positiv Treffer bei meinen Fotos hinnehmen…

      • Nimmst du auch hin, dass einfach dein Account geschlossen wird und du keinen Zugriff auf Mails, Apps, allenfalls deine Geräte etc. mehr hast?
        Und dass du in der Beweispflicht deiner Unschuld bist?
        Ja, ich finde es richtig, dass solchen Unmenschen das Handwerk gelegt wird. Aber bei Rasterfandung, Falschpositiv und Unschuldsbeweispflicht hört es auf. Da gäbe es bessere Möglichkeiten.

      • Nein natürlich nicht- so meinte ich das auch gar nicht. Meinte nur das es für mich ok wäre wenn das System noch nicht ganz ausgereift ist und man dann bei den falschen Treffern auftaucht um dann erneut von einer realen Person aussortiert zu werden. Eine Accountschließung ohne Möglichkeit eine Stellungnahme hierzu abzugeben finde ich natürlich ebenfalls nicht gut…ist in der Vergangenheit natürlich schon vorgekommen wie man bei einigen Entwicklern gesehen hat.

  • Ich dachte, das Apple end-zu-end verschlüsselt? Also mein Photo auf dem iPhone verschlüsselt und erst dann hochgeladen wird.

    Könnte trotzdem stimmen, der Prüfmechanismus kann ja auch lokal laufen.

    Oder Apple macht bei Photos ne Ausnahme. Weis das jemand?

    • Überlege auch gerade. Sie sagen ja „Wir validieren jeden Abgleich mit einer individuellen Überprüfung.“. Klingt dann doch so als würden sie ab die Fotos kommen

    • Jo. End2end halt. Der iCloud Server ist das eine, das iPhone das andere Ende. An beiden Enden findet eine Entschlüsselung statt.

    • Es wird ein Fingerabdruck generiert (ähnlich von maschinellem lernen). Das sind Bytes die dem Foto anhängen und diese werden eben mit einer großen Datenbank verglichen. Die Verschlüsselung bleibt also bestehen.

    • Bestimmte Daten von Apple Services sind Ende-zu-Ende verschlüsselt. Dieses trifft z. B. für iMessages, Facetime, den synchronisierten Schlüsselbund oder Health-Informationen zu.

      Bei allen Daten auf die Du über eine iCloud.com Anmeldung im Browser zugreifen kannst gibt es jedoch nur eine Verschlüsselung der Übertragung zwischen Deinem Gerät und Apple, sowie eine Verschlüsselung der Daten bei der Speicherung auf den von Apple genutzten Cloud-Infrastrukturen von Dritt-Firmen. Hierzu gehört auch die Foto-Mediathek.

      Auch auf die von Apps in iCloud gespeicherten Daten kann Apple zugreifen, wenn der App-Entwickler nicht eigenständig verschlüsselt.

      So sehr ich „Kinderpornografie“ verabscheue, bedeutet diese Festlegung Apples jedoch auch, dass meine Fotos vermutlich niemals eine Ende-zu-Ende-Verschlüsselung erhalten werden und somit nicht vor dem von mir ungewünschten Zugriff über Sicherheitslücken in der iCloud-Infrastruktur, Mitarbeiter von Apple und berechtigten Behördenanfragen aufgrund mir nicht bekannter Gesetze in anderen Ländern geschützt sind.

      Hier bedaure ich, dass der Einsatz von Apple Fotos mit mehreren Geräten ohne iCloud-Fotomediathek doch sehr unkomfortabel abläuft und viele App-Entwickler die Unterstützung für private, webdav-basierende Cloud-Sync-Dienste nicht vorsehen.

      • Die MEGA App hat eine Vollverschlüsselung und Photo-Uploader zugleich.
        Vielleicht wäre das eine Alternative.

    • Laut HT202303 werden Fotos in der iCloud bei der Übertragung und auf dem Server „mindestens“ 128 Bit AES verschlüsselt. Was allerdings keine starke Verschlüsselung ist.

  • An sich natürlich gut. Aber ich zahle für den Online-Speicher und würde dann schon gerne selbst bestimmen können, ob meine Daten durch einen Filter gejagt werden.

    • Wenn dir die Bedingungen nicht passen, dann kündige und suche dir einen Anbieter, der besser passt.

      • Dieses dämliche Gelaber kannste Dir sparen … wenn du mit allem einverstanden bist was wahrscheinlich deine Frau dir sagt oder einfach keine Ahnung hast dann lass es doch.

      • Andre Cloud. Als wenn das vernünftig unter Apple möglich wäre.. Allein auf Grund der Preispolitik.. Cloud Preise würde ich sofort wechseln.
        also was sollen die bescheuerten Hinweise.

        Ihr jung Spunde vergesst eines, alle unter General Verdacht zu stellen und vorsorglich alles erstmal zu untersuchen, Verdachts Unabhängige Durchsuchung.. usw. macht genau eine Diktatur aus .. ein Hoch auf Mielke, Erdoğan, Putin & Co.
        Aber mit Terrorismus, Kinder Schändung, usw. lässt sich wohl (inzwischen) alles begründen.

      • … und wenn du nicht damit einverstanden bist, was deine Frau dir sagt, dann kündige doch und such dir eine Andere! ;-)

    • Cloud bei einem Anbieter bedeutet immer „Computer von anderen Leuten“ die du nicht kontrollieren kannst. Entweder du stimmst den Nutzungsbedingungen zu oder baust dir deine eigene Serverinfrastruktur.

  • Wäre besser wenn sie das gar nicht so publizieren würden. So werden natürlich auch die betreffenden Personen gewarnt.

  • Zwiespalt, einerseits gut, andererseits möchte ich nicht, dass jemand, den ich nicht autorisierte, meine Daten scannt.

    Man stelle sich vor, wie ein totalitärer Staat solche Mechanismen zur Unterdrückung des Volkes nutzen könnte.

    • Du hast durch deine Zustimmung zu den Nutzungsbedingungen Apple aber autorisiert, das zu tun.

      • Das ist richtig, allerdings nicht zu dem Zeitpunkt, als ich in den Apple Kosmos eingestiegen bin.
        Bin allerdings fein damit, da ich die cloud nicht für Fotos nutze.
        Bei Microsoft gab es vor Jahren ja schon böse Überraschungen, als Väter in den Verdacht kamen, nur weil Nacktfotos ihrer Kinder dort automatisch hochgeladen wurden. Von mir gibt es auch einige Nacktfotos als Kind, haben meine Eltern und schmunzeln heute noch beim ansehen. Finde sowas einfach normal.

      • Du stimmst den Änderungen bei jedem Update zu!

      • Diese Nacktfotos werden allerdings wohl kaum in einer Datenbank bekannter, gehandelter Bilder gewesen sein. Grosser Unterschied.

  • Grundsätzlich natürlich als löblich zu sehen aber morgen sind es andere vorgeschobene Probleme die sie unsere Fotos oder Daten scannen lassen.
    Ich find das so nicht gut alle unter Generalverdacht zu stellen bzw. zu sagen wir machen das jetzt und gut.

  • Gerne alles tun, um Kinder zu schützen.. aber hier werden ja alle unter General Verdacht gestellt, das finde ich nicht gut. Fotos sind mein persönlichster Bereich im Apple Universum.. und da hat niemand, außer mir selbst drin rumzuschnüffeln, was bei falschen Interpretationen vom Algorithmus der Fall sein wird!

    • Es wiederspricht in gewisser Weise unserem rechtsverständnis. Aber Deutschland bewegt sich genau in diese Richtung. Rasterfahndung, Freiheitsentzug bei Gefährdern. Ich bin da sehr gespalten. Einerseits bin ich der Freiheitsliebende. Aber andererseits haben alle Kriminellen eben durch den digitalen Wandel einen so großen Zuwachs an neuen Handlungsoptionen bekommen, dass es schwer für einen Rechtsstaat wird, wenn er nicht mitzieht. Ich denke das ist ein hartes Brot für eine rechtsphilosophische Diskussion

      • Das ist wirklich harter Tobak für so eine Diskussion.

        Für mich ist das ein Balanceakt, der hier sehr gut gemeistert wurde. Die Schwächsten unserer Gesellschaft sind unsere Kinder, und nichts ist so schützenswert wie die Rechte und Unversehrtheit ebendieser Kinder. Und deshalb finde ich ein Abgleich von Hashwerten mit einer Datenbank bekannter Kinderpornografieinhalten für richtig und über dem Wert des Datenschutzes. Und letzterer wird ja nicht mal wirklich tangiert; Es durchsucht niemand die Fotos, niemand bekommt diese je zu Gesicht oder erhält anderweitig Informationen dazu, ES SEI DENN, es handelt sich um kinderpornografische Inhalte, die anderswo bereits gefunden und in diese Datenbank eingepflegt wurden.

      • Wenn das so läuft, wie Waldelf sagt, finde ich es ok. Ich bin mir aber nicht sicher, was gemacht wird. Hashwerteabgleich oder Auswertung des Bildinhaltes. Letzteres finde ich nicht gut. Es wird dann sicher mehr falsch positive Feststellungen geben als Feststellungen solchen Materials. Leider gab es schon einige Fälle in denen Väter erstmal in U-Haft kamen und Kinder ihren Eltern weggenommen wurden wegen falscher Verdächtigungen. Familien wurden teils für immer zerstört. Das hilft dann auch keinem. Es ist eine Illusion zu glauben, dass man sich immer schnell exkulpieren kann.

      • Waldelf, das mit dem Kinderpornokram ist nur ein Beispiel dafür, warum Apple alle Fotos scannt. Ein Beispiel, bei dem jeder gesund denkende Mensch sich denkt „jo, das ist gut so“. Aber ganz im Ernst, Apple hat das Tor geöffnet für so ziemlich jeden Grund.

  • Die Aktion finde ich gut aber das Apple jetzt doch an meine Fotos kommt… Finde ich jetzt nicht so gut! Ich hoffe Apple löscht die Konten nicht einfach! Allesamt anzeigen!

  • Mir ist aus dem Text nur nicht ganz klar geworden ob Apple nun nur die Fotos aus dem Ordner „Fotos“ scannt, oder ob ALLE Apps, (PDF Reader, Documents etc.), die ein backup via iCloud aktiviert haben und Fotos enthalten, auch gescannt werden. Bin verheiratet und habe dementsprechend private Fotos in „documents“, wo ich, ehrlich gesagt nicht möchte, das die überhaupt irgend wer sieht. Kinderschutz ja, ohne Frage. Daher meine Frage, geht es nur um die Bilder in dem Ordner „Fotos“ oder grundsätzlich alle Bilddateien, die in Apps sind z.B. Threema, WhatsApp, Documents, PDF Reader etc

  • Theoretisch könnte also jede beliebige Datei mit einer DNA versehen werden und quer durchs Netz verfolgt werden? Bedenklich…

  • Ich bin ein bisschen sprachlos, dass man das „super“ findet. Das ist ein klarer Eingriff in die Privatsphäre, Datenschutz etc. Ich weiß schon, jetzt werden wieder die Stimmen kommen, wer nichts zu verbergen hat etc. Aber das ist Blödsinn. Immer öfter werden Gründe vorgeschoben, um in die Privatsphäre einzugreifen und den Datenschutz auszuhebeln. Und das wird noch gutgeheißen?!
    Und hier geht’s überhaupt nicht um die kranken Gehirne! Dass die dingfest gemacht werden müssen, gar keine Frage, aber nicht so. Hier werden alle unter Generalverdacht gestellt und das ist ein Witz. „Musst ja nicht nutzen….bla bla bla.“ Ich zahl für Speicherplatz und dann ist das mein Bereich, basta! Wacht mal auf!

    • Ich kann dich ja nach vollziehen aber das Argument „ich zahl ja dafür also habe ich hier das sagen“ zählt halt nicht wenn du den entsprechend Nutzungsbedingungen zugestimmt hast. Wenn du so viel wert auf deine Privatsphäre legst (was ich voll verstehe) dann musst du dir wohl deine eigene Infrastruktur aufbauen denn nur dann hast du die Möglichkeit die volle Kontrolle über deine Daten zu gewährleisten.

      • Das Problem sind aber auch im Nachhinein geänderte Nutzungsbedingungen für Services, welche man unter anderen und für sich akzeptablen Bedingungen quasi unterzeichnet hat.

      • Aber auch den Änderungen wurden zugestimmt. Bei Updates wird immer wieder die Zustimmung abgefragt. Es ist ja nicht so, dass hier nicht schon vor Jahren auf die Gefahr von Cloud Infrastruktur hingewiesen wurde.

  • Ich finde auch dass Apple keinen direkten Zugriff auf meine Fotos haben sollte und nicht alle Nutzer unter Generalverdacht stellen sollte. Wie bereits geschrieben- was ist mit false positives? Und ist so ein Filter erstmal eingebaut, kommt man noch auf die Idee nach Copyright Verletzungen etc. zu suchen.
    Keine gute Entwicklung was die Privatsphäre angeht.
    Dass Kindesmissbrauch etc. bestraft und verfolgt gehört steht außer Frage.

  • Finde ich auch nicht nur gut, sondern sogar oder besser gesagt leider notwendig!
    Aber.. ja ein aber, denn die andere Seite der Geschichte ist die, dass es ein klares Zeichen dafür ist, was so passiert mit unserer schönen neuen online Lebensweise. Zuerst zwingt man uns regelrecht in die „Cloud“und dann wird doch alles überwacht und ausgewertet.
    Snowden lässt grüßen, das Buch das ich zur Zeit lese und übrigens sehr interessant und empfehlenswert ist (weil auch mal die andere Seite anstatt immer nur meistgesuchte Verbrecher und so).

  • Was ihr alle wohl uber Google Photos denkt :D
    Wenn ich das hier so lese!

    • Das wird nicht genutzt, deshalb denke ich darüber nicht nach.

      Zum Thema sehe ich die Sache auch sehr zwiespältig. Apple behält sich also eine Prüfung pauschal aller Daten vor. Das darf nicht mal Polizei und Staatsanwaltschaft in Deutschland einfach so und halte ich unter datenschutzrichtlichen Gesichtspunkten schon für fragwürdig, auch wenn ich die Intention verstehe. Zeigt aber letztlich, dass man wohl all seine Daten auf europäischen/deutschen Servern sichern sollte, sofern man den strengeren europäischen „Schutz“ an der Stelle möchte. Ganz auf Cloud-Speicher zu verzichten, dass kann ich mir nicht mehr vorstellen, weil ich die Sicherung vor Verlust nur so gewahrt sehe. Heimischer Server (1. Sicherungskopie), Cloud (2.).

      • Appel scannt meine Fotos? MEINE Fotos? Was passiert wenn mein Kind gestürzt ist und ich meiner Frau die auf Geschäftsreise ist ein Foto davon schicke welches zuvor in der iCloud war? Wie wollen die Recht von Unrecht unterscheiden? Selbst ein Mensch kann die kaum aus der Ferne Beurteilen. Ist dick ka*ke…

      • Auch auf europäischen oder deutschen Server würde so eine Prüfung durchgeführt wenn Verdacht besteht und die Daten nicht verschlüsselt abgelegt werden. Die Anbieter versuchen sich allein schon aus Haftungsgründen gegen den missbrauch ihrer Infrastruktur abzusichern.

      • Das ist aber entscheidend, ob eine verdachtsabhängige oder verdachtsunabhängige Prüfung erfolgt. Für letztere sehe ich keine Rechtsgrundlage, die Apple dazu im deutschsprachigen/europäischen Raum berechtigen würden. Das sind hoheitliche Aufgaben und auch der Staat dürfte dies wohl nicht ohne entsprechende Gerichtsentscheidung.

  • Super!!
    Traurig nur,dass sowas überhaupt gemacht werden muss…

  • Oh ja, ganz toll Apple. Beim nächsten iOS Update gibts dann einen zufälligen Bug der außer Kontrolle gerät, zufällig das Bild meiner Freundin im Bikini plius nackter Haut markiert und Alarm schlägt. Und „zack“ ich bin in einer dubiosen Liste aufgetaucht, was mich wieder zum potentiellen Verdächtigen macht, wo ich wiederum näher „beobachtet“ werden darf. Ganz tolle neue Welt. Ich lach mich kaputt. Nein danke, ich weiß warum ich auf jegliche Cloud verzichte. Abgesehen davon, wer glaubt wirklich dass kriminelle auf die Weise agieren? Die Konsequenz? Eine Sperre…uiuiuiuiui…was für ein Bauernepp, aber glaubt ruhig weiter was Apple euch vorheult. Gestern waren es noch die doofen Terroristen, heute die und morgen die, blablabla.

  • 1. Pädos plus Strick gleich fertig!
    2. Ich würde nicht mal unscharfe Landschafts Fotos in irgendeine Wolke laden!
    Community erwache….

  • Ihr seid echt naiv! Zu glauben, dass Apple nur nach perversen Fotos mit Kindern sucht. Das ist eigentlich nur ein Nebenargument und dient nur um euch zu besänftigen und um euch zu sagen, du hast es uns ja erlaubt. In Wahrheit ist der tieferliegende Grund ein anderer. Als Bespiel: Terrorismus, Gesichter nach Flüchtenden abscannen, Schwarzarbeit aufdecken, Bewegungsprofil erstellen, Waffen entdecken, usw. Das ist echt interessant zu beobachten wie ihr im Rudel alle der gleichen Meinung seit. Keiner Hinterfragt was und vom Rückgrat zu sprechen wäre aussichtslos. Ich meine es ja schön und gut, dass nach Verbrechern gefahndet wird, aber nicht wenn ich meine Privatsphäre in dem Umfang aufgeben muss. Nicht auf meine Kosten. Ich will nicht, dass fremde meine Fotos anschauen. Ich werde iCloud nicht mehr für Fotos nutzen!

  • Geht es nur mir so? Oder findet noch wer das es äußerst Smart ist so etwas öffentlich zu machen?
    Ich mein, solche Typen können ja mit Sicherheit lesen.

  • Ich bin da sehr gespalten. Zum einen finde ich es super diese widerliche Art der Kriminalität mit allen Mitteln zu bekämpfen. Vor allem, weil es um die schwächsten der Gesellschaft geht. Zum anderen sehe ich da aber einen erheblichen Eingriff in die Privatsphäre des einzelnen und einen Generalversammlung gegen alle. Das ist schonmal sehr bedenklich. Noch bedenklicher wird es aus meiner Sicht, das dies nicht durch die Exekutive eines Staates geschieht sondern durch einen privaten Konzern, der die Persönlichkeitsrechte des Einzelnen durch Nutzungsbedingungen aufweicht, geschieht. Wenn die Rechte des einzelnen erstmal derart durch Konzerne beschnitten werden können, der Stein somit ins Rollen gebracht wird, ist der Schaden für die Freiheit aller gar nicht mehr in Worte zu fassen

  • Auch wenn du Motive sicher edel sind, bin ich damit ehrlich gesagt nicht einverstanden. Ich habe zwar keine sehr privaten Bilder in iCloud, dennoch finde ich es nicht toll wenn Apple die scannt. Seit Jahren erzählt Apple „wir machen die Personenerkennung lokal auf euren Geräten, weil uns Datenschutz ja so wichtig ist“ und nun ist es dann plötzlich doch okay alles im RZ automatisch zu scannen.
    Und mal ehrlich….Welcher Kinderschänder läd denn bitte belastendes Material unverschlüsselt in eine Cloud? Das ist doch quatsch….Auch diese wiederlichen Leute sind nicht so dämlich.

  • Übrigens möchte ich bei dieser Diskussion hier (die echt großteils erstaunlich Sachlich läuft….Hut ab dafür Leute) mal Cryptomator in den Raum werfen. Damit verschlüssele ich mittlerweile alles was ich so in iCloud und OneDrive hochlade.
    Das schöne ist, dass man trotzdem weiterhin von Unterwegs Zugriff drauf hat über die Cryptomator iOS App.
    Das Projekt ist noch dazu Open Source….Also auch relativ sicher ohne Backdoor. Schaut es euch mal an.

  • Liebes Ifun Team, ein sehr interessanter aber auch besorgniserregender Artikel. Hab ich das richtig verstanden, das die Icloud alle Signaturen meiner Bilder mit den Signaturen bekannter Kinderpornobilder vergleicht und bei einem Treffer es eine Meldung gibt? Was ist bei einem Fehler im System (soll ja bei Apple öfters vorkommen), darf dann irgend ein Honk irgendwo auf der Welt sich mein PRIVATES Bild angucken und es überprüfen ob es ein Kinderpornobild ist? Ohne vorher eine Genehmigung eines Richters/Staatsanwaltes einzuholen?

    • So wird es sicherlich laufen. Ich kann mir nicht vorstellen, dass Apple einen iCloud Account sperrt ohne das ein Mensch vorher nochmal drüber schaut. Dementsprechend muss eigentlich ein Apple Mitarbeiter einmal über das Bild schauen.
      Das hinterlässt auf jeden Fall einen faden Beigeschmack….

      • Hallo derzoelli,
        ein fader Beigeschmack ist wohl etwas untertrieben. Ich hoffe noch auf eine Reaktion vom Ifun Team, sollte es richtig sein wie ich es verstanden habe, ist das das sofortige Ende für meine Icloud Mediathek (auch wenn es bequem ist, brauch nicht immer meinen MacBook mitzunehmen sondern kann auch mal auf dem IPad Familienbilder ausm Urlaub etc… zeigen). ICH entscheide wer sich meine Familienbilder, Kinderbilder etc… anguckt und zu sehen bekommt. Ich achte bei allen Bildern die ich veröffentliche darauf das keines meiner Kinder oder meine Frau auf dem Bild sind und dann kann sich irgendein Apple Mitarbeiter bei einem „Verdacht“ meine Bilder angucken und das vollkommen Legitim? Es brauch mir jetzt auch keiner mit „wenn ich nichts zu verbergen habe, können die ruhig machen“ kommen.

      • Sorry Patrick, aber wenn du bilder auf einen us server einer us firma hochlädst und glaubst dass die bilder nicht gescannt oder angeschaut werden bist du ziemlich naiv

    • Hi Simon,
      warum Naiv? Das die das unter der Hand gemacht haben war klar, nur jetzt dürfen die das offiziel. Und das ist das was mich ankotzt. Aber egal, aufregen nutzt nichts. Ich habe mich heute mittag schon von der Icloud Fotomediathek verabschiedet und deaktiviert.

      • Hi Patrick
        Ja, dass sie es offiziell machen dürfen ist schon noch ein stück schlimmer. Aber unter dem strich haben sie es sowiso gemacht, deshalb hab ich noch nie die cloud aktiviert. Meine fotos sind meine und da kommt niemand ran, ob offiziell oder nicht. Sicher ist sicher.

  • Und bei Gmail waren se bei Apple die ersten, die das Mitlesen von Mails verurteilt haben. Das nennt sich dann wohl Doppelmoral…

  • Das Thema „Kinderpornographie“ ist nur eine billige Ausrede und ist nur ein billiger Vorwand, um gegen angeblichen Terrorismus und gegen weitere fragwürdige Themen auszunutzen und somit den Datenschutz total aufzuheben. Ich werde die iCloud sicher nicht mehr nutzen und werde nur noch eine alternative Cloud App mit gutem Datenschutz benutzen. Georg Orwell 1984 würde erschreckt sein, was sich mittlerweile entwickelt.

    • Ich bitte das iphone-ticker.de Team, diesen Kommentar zu löschen. Ich habe weiter unten eine korrigierte Fassung geschrieben. Es ist sehr schade, dass man persönliche Kommentare wegen Schreibfehler oder für Korrekturen nicht persönlich verändern kann oder den ganzen Kommentar nicht einmal selbst löschen kann. Ich rege deswegen das iphone-ticker.de Team an, die Webseite mit einer Korrektur- und einer Löschfunktion bei den persönlichen Kommentaren zu versehen. Diese Funktion würden sich hier viele Leute wünschen.
      Besten Dank….

  • huhu,
    wow krass zu lesen oder auf der einen seite gut auf der anderen schlecht (wegen ev. fehler im System beim scan von bilder)
    ich selbst habe icloud Fotos abgeschaltet.
    aber meine frage geht zum backup. Wenn ich ein backup erstelle (also das klassische vollständige handy-backup in die icloud), werden ja die bilder in der App Fotos für das Backup auch gespeichert. Aber da greift der Filter nicht oder? Also nur wenn ich I-Cloud Fotos aktiviert habe?

    Grüße

  • Das Thema „Kindesmissbrauch“ ist nur eine billige Ausrede und ist nur ein billiger Vorwand, um im iCloud gegen angeblichen Terrorismus und gegen weitere fragwürdige Themen vorgehen zu können und somit den Datenschutz total aufzuheben. Jeder Mensch wird offenbar des „Kindesmissbrauchs“ verdächtigt. Das grenzt mittlerweile an einen totalen Wahn. Ich werde die iCloud sicher nicht mehr nutzen und werde nur noch eine alternative Cloud App mit gutem Datenschutz benutzen. Georg Orwell 1984 lässt grüssen. Er würde erschreckt sein, was sich mittlerweile entwickelt.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 37262 Artikel in den vergangenen 6054 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven