iphone-ticker.de — Alles zum iPhone. Seit 2007. 37 262 Artikel

Google sorgt für Negativbeispiel

Fotos von nacktem Kleinkind: Account-Verlust und Polizeieinsatz

Artikel auf Mastodon teilen.
101 Kommentare 101

Dass Apple im August des vergangenen Jahres die Einführung einer neuen Foto-Scan-Funktion ankündigte, mit der das Unternehmen proaktiv gegen die sexuelle Ausbeutung von Kindern vorgehen wollte, ist schon fast wieder in Vergessenheit geraten.

Nach der überraschenden Vorstellung drei neuer Kinderschutzfunktionen im vergangenen Jahr, hat Apple davon bislang nur eine wie vorgesehen implementiert. Die beiden anderen wurden in abgewandelter Form integriert beziehungsweise erst mal auf Eis gelegt.

Damals wollte Apple eigentlich drei Kinderschutzfunktionen in das iPhone-Betriebssystem integrieren:

  • System-Intervention bei thematischen Suchen: Suchen Anwender im Netz, über Siri oder die Spotlight-Suche Apples nach Wortkombinationen, die erkennen lassen, dass diese offenbar auf der Suche nach Inhalten sind, die möglicherweise im Zusammenhang mit dem Missbrauch von Kindern stehe, wird die Suchabfrage abgebrochen und durch einen Warnhinweis ersetzt. Hier hat Apple nicht geschraubt.
  • iMessage-Nacktfilter: Die Erkennung von Nacktbildern auf den Telefonen von Kindern sollte dafür sorgen, dass diese erst nach Nachfrage angezeigt werden und die Eltern in der zugehörigen Familienfreigabe informiert werden, wenn sich die Kinder für die Anzeige entscheiden. Hier ist Apple inzwischen davon abgekommen, die Eltern zu informieren.
  • Lokale Erkennung von Missbrauchsbildern: Umstrittenste Neuerung und von Apple bis auf Weiteres verworfen, war die lokale Suche nach Missbrauchs-Fotografien. Apple hatte vor, Geräte von Anwendern die iCloud-Fotos nutzen, bereits vor dem Upload auf Fotos zu durchsuchen, die die sexuelle Ausbeutung von Kindern darstellen könnten. Nach einem lauten Aufschrei von Journalisten, Aktivisten, Zivilgesellschaft, Datenschützern und IT-Sicherheitsexperten, entfernte Apple die Hinweise auf die sogenannte CSAM-Erkennung dann im vergangenen Dezember gänzlich.

Google sorgt für Negativbeispiel

Ein aktueller Fall aus den USA, den die New York Times am Wochenende dokumentiert hat, zeigt, welchen Einfluss Falsch-Positiv-Treffer vergleichbarer Technologien auf Anwender haben können.

Nachdem ein Vater Fotos seines nackten Kleinkindes für einen behandelnden Mediziner gemacht hat, stufte Google die Bilder über einen automatisierten Scan als kriminell ein und deaktivierte den zugehörigen Google-Account.

Der betroffene Nutzer sah sich daraufhin nicht nur mit ermittelnden Strafverfolgern konfrontiert, sondern verlor auch sein mehrere Jahre altes Google-Konto. Eine Einspruchsmöglichkeit war nicht vorgesehen.

Zum Nachlesen:

22. Aug 2022 um 14:16 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    101 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
    • Der arme Kerl…
      Und der übertriebene Aktionismus amerikanischer Prüderie. Am meisten nervt, daß niemand zuständig, erreichbar oder als Ansprechpartner vorgesehen ist. Schöne, neue Welt

      • @Alnig
        Das hat nichts mit „amerikanischer Prüderie“ zu tun, es ging dabei um vermeintlichen Kindesmissbrauch.

      • Nun, man hätte beim Accountinhaber mindestens mal nachfragen können, bevor man ihn aufgrund falscher und nicht bewiesener Verdächtigungen verurteilt / henkt / seines Accounts beraubt. Spinnen wir den Faden doch mal weiter: Google hat den Versand der Fotos an den behandelnden Arzt des Kindes unterbunden. Sofern es um eine lebensnotwendige Behandlung ging, können die von Google sich schon mal warmlaufen, falls das Kind wegen der nicht weitergeleiteten Bilder und deswegen unterbliebenen (rechtzeitigen?) Behandlung einen Schaden davonträgt.

      • Mal ehrlich, wenn dein Kind in Lebensgefahr ist, rufst du den Notarzt oder schickst du noch Fotos hin und her?

      • Übertrieben? Würde ich zustimmen, wenn es nicht so viele Leute geben würde, die sich an Kindern aufgeilen oder noch schlimmer. Finde es gut, dass sich die Unternehmen Gedanken machen, auch wenn es dabei zu Fehlern kommt. Muss halt der Prozess optimiert werden, aber doch nicht gleich wieder abgeschafft. Wer weiß wie viel Pedos sich schon allein hier rumtreiben …

      • Ich bin grundsätzlich ja bei Dir, aber wie sollte eine lebenswichtige Operation und unterblieben sein, wenn der Vater sein Kind zuhause fotografiert und das Bild dann zum Arzt schickt? Dann ist die Maßnahme alles andere als lebensnotwendig.

    • Googles Beispiel wird halt wirklich von der KI „erkannt“. Apple Beispiel ist aber ganz anders. Da werden nach bekannte Kipos gescannt. Kleiner aber feiner Unterschied.

      • @Tut: Und? Das macht auch eine KI und auch da kann es zu Falsch Positiven Ergebnisse kommen.

      • Nein kann es nicht. Das macht keine Quasi keine KI. Die Methode die Apple einsetzt ist von Microsoft entwickelt worden. Eine Falsch positive Antwort ist so gut wie ausgeschlossen.

      • Aha, das erkläre uns dann doch mal genauer, wenn du da so sicher antwortest.

      • Eine Falsch positive Antwort ist so gut wie ausgeschlossen.“

        und genau das macht es ja so gefährlich…..es ich nicht die Möglichkeit vorgesehen das sich die KI „irrt“ oder „Fehler“ macht…

        Auf der unsikbaren Titanic haben viele bis das Wasser über das Deck gelaufen ist nicht daran geglaubt das dass Ding sinken könnte….

      • Wenn es nicht so ein ernstes Thema wäre (seibst Vater), müsste ich jetzt schmunzeln. Woher dein Wissen, dass das von MS entwickelte System fehlerfrei und sicher arbeitet? Bitte um genauere Details. Danke.

      • Und warum sollen dann Treffer erst aufsummiert und dann von Apple-Mitarbeitern gesichtet werden, bevor es den Behörden gemeldet wird? Ja, im ersten Schritt wird nach bekannten Dateien gesucht, aber eben auch nicht nur bitgleiche Dateien erkannt werden. Da liegt der Haken.

      • „So gut wie ausgeschlossen“ != „Ausgeschlossen“
        Es gibt immer Fehler, egal ob Mensch oder Maschine.
        Eine Falscherkennung kann man nie ausschließen.

      • Das wüsste ich jetzt aber gerne wie das geht? Kannst du das bitte erklären oder Quellen angeben???

      • Von Microsoft entwickelt ? Und dass soll die Begründung sein das ein False Positive ausgeschlossen ist ? Ich würde das ein bisschen anders sehen …. KI macht immer Fehler – die Frage ist WIVIELE ?

      • Was ist das denn für eine verquere Argumentation? Weil das von MS entwickelt wurde, sind „false positives“ ausgeschlossen? In welcher Parallelwelt lebst du denn?

        Sowohl bei Google wie auch bei Apple sitzt ein ML-Algorithmus (gemeinhin als „KI“ bezeichnet) dahinter. Dabei ist es egal, ob Bilder direkt ausgewertet werden, oder ob erst ein Hash auf Basis des Bildes berechnet wird und der dann verglichen wird. Es gibt *immer* falsch positiv bewertete Ergebnissen.
        Das brisante an solchen „Scans“ ist das Feintuning zwischen „Zuviels Falschmeldungen“ und „zu wenig richtige Erkennungen“.

      • „Nein kann es nicht.“
        „Sogut wie ausgeschlossen.“

        Red kein Mist.

    • Stichwort(e):
      – Voreilender Gehorsam
      – pauschal Verdächtigung, gegen jeden und alles
      – und auch gleich noch Sippen Haft mit ran.

      getopt durch Beweis Last Umkehr und keine „Einspruchs“ Möglichkeit.
      Finde immer (nicht mehr Lustig) wie sich Firmen als Behörden abspielen!

      Zusammengefasst:
      A. Hitler 1933!
      Oder auch der Dümmste Spruch den man bringen kann!

    • Ähm… man schickt Nacktbilder von den Kindern über einen Standard Messenger-Dienst an den behandelnden Mediziner?

      • Das kommt häufiger vor, als man glaubt. Bei meinem Bruder in der schulgruppe wird so viel geteilt, dass wirklich nicht jeder wissen sollte….

      • Also, direkt nacktbilder nicht, sondern eher die Stelle mit den Symptomen. Ich wundere mich immer wieder bei meinem Bruder, was da so in der schulgruppe geteilt wird….

      • Trotzdem, ob stelle oder nicht. Was erzählt man da einem Kind. „Papa macht jetzt ein Foto von der Stelle und schickt es dem Pfleger,…“? Würde man das auch von sich selbst so machen? Ich denke nicht.

  • Ein schönen Positiv Beispiel warum diese KI scans schrott sind und das argument iCh hAbE dOcH nIcHtS zU vErBeRgEn einfach schwachsinn ist

  • Deshalb auch immer eine Datensicherung der Cloud-Konten machen.

  • Super … so wird es in Zukunft bestimmt öfters kommen. Die KI kann schließlich nicht unterscheiden was der Hintergrund des Bildes ist : eigenes Kind, fremdes oder aus welcher Intention her das Bild gemacht wurde.
    Früher wurde nach sowas auch nicht gescannt. Man muss einfach die Kirche im Dorf lassen und diesen Kram dazu abschalten.

      • Da musste ich auch erst einmal schlucken.

      • Wenn es denn Medien gelungen sein sollte in euren Köpfen Kirche und sexuellen Missbrauch gleichzustellen, dann läuft etwas gewaltig schief. Studien zeigen, dass statistisch gesehen, in Kirchen nicht mehr missbraucht wird, als in Sportvereinen usw. Das Problem dieser medialen Darstellung: Es hilft den Opfern nicht, diese einseitigen Beschuldigungen. Kindesmissbrauch ist ein gesamtgesellschaftliches Problem.

      • Das bezweifle ich:
        Die Kirche hat in verschiedenen Ländern so viele Kindesmissbräuche verursacht (USA, Deutschland, Irland?…) Gepaart mit Vertuschung und Geldzahlungen.
        das ist einmalig und da kommt nichts ran.

        Das Zölibat sollte gebrochen werden, notfalls per Gesetz.
        genauso die Stellung der Frau innerhalb der Religionen (hallo Priesterin, Rabinerin, Imamin)
        Religionen haben in D zu viel Freiraum den ich absolut nicht versteh.

      • Das ist eine pauschalisierende, unbelegte Behauptung, die nur Stimmung machen soll, aber niemandem nützt.

        Kindesmissbrauch, wo und von wem auch immer, ist schrecklich und gehört verfolgt. Aber Stimmungsmache ist keine geeignete Methode der Verfolgung.

      • Genial wie mein kurzer Kommentar wegen einer Redewendung völlig aus dem Ruder läuft :D :D
        Oder sollte ich das lieber nicht schreiben, nicht das jetzt jemand mit Rudern um die Ecke kommt

      • Jetzt lass aber mal das Ruder im Boot…

      • Dann nenne doch mal eine Quelle dieser Studien

      • Dazu sag ich nur Amen

      • Hahahahahahahahaha Ich glaube statistisch gesehen ist die Kirche auf Platz eins.

      • @ralfer04

        Wenn die Kirche sich mal gegen so etwas positionieren würde, dann hätte man vielleicht auch ein anderes Bild. Aber so kommt man leider nur zu dem Schluss das alle da mit drin stecken. Sorry, aber selbst schuld wenn man denkt das es ein Drecksverein ist.

      • Ok sorry, es ging nur um die Redewendung, es sollte jetzt kein Zusammenhang andeuten :) blöder Zufall

      • @ralfer04 +1

      • @ralfer04
        Ach ja?
        Dann zeig mir doch mal die Studie in der gezeigt wird, dass Kinder systematisch vom Sportverein eingesperrt (Irland) oder ihre Leichen verscharrt wurden (Kanada).
        Unglaublich, diese Relativierung der Gräueltaten der Kirchen.

  • Einfach furchtbar!
    Jetzt darf man nicht einmal Fotos von seinen eigenen Kindern machen, wenn sie nichts an haben?
    Allein die Nacktheit reicht aus, um jemanden zum Verbrecher zu machen?
    Meiner Meinung nach sollten da andere, zusätzliche Kriterien angewandt werden.
    Das ist dich krank!!!

  • Will immer noch wissen wie es technisch funktioniert.
    Werden die Bilder übertragen und dann gescannt oder auf den Gerät analysiert?
    Was ist mit iPads?

    Zu viele Fragen?!

    • Apple wollte die Analyse lokal auf dem Endgerät machen. Bei Google weiß ich es nicht.

    • iFun hat zu diesem Thema schon viel geschrieben. Nutze bitte die Suche. Da sollten alle deine Fragen beantwortet werden

      • Hab eigentlich da immer aufgepasst auf die News.
        Ich lese eigentlich immer nur „iPhone und auf den Gerät“. Also keine Übertragung und nicht bei iPads.
        Aber heutzutage wird sowas auch mal fix geändert. Daher fragte ich einfach mal fix nach ;)

      • Googles Beispiel ist hier das die KI solche Dinge erkennt. Apples Kipos Scanner sucht nach bekannte Fotos.

    • Bei Google und co werden die Daten auf der cloud gescannt, ganz ohne Aufschrei. Also natürlich geschieht das ohne das ein Mitarbeiter die Fotos sieht wenn alles io ist. Wenn Apple das System verbessert, denn (etwa gleichen) scan auf dem handy schon vor dem Upload macht und so illegale fotos gar nicht erst in der cloud haben würde (a la Upload filter, was ja die EU wünscht) gibt es einen Aufschrei…
      Man muss die Menschheit nicht verstehen, oder?

      • Das ist das Problem mit der Menschheit. Die meisten begreifen nicht die Vorgehensweise und werden gesteuert von Hintermännern die ein künstlichen Aufschrei erzeugen wollen. Die meisten haben nicht die nötige Intelligenz den Unterschied zu erkennen. So ist es mit vielen Themen. Die dummen gehen voll auf dem Leim.

      • BigBausoftheNauf

        Oh bitte, was redest du da schon wieder für kokolores?! Meinst du echt die Mitarbeiter die nur einen Job haben und den App Store von bösen Apps fernhalten sollen? Und jetzt willst du mir weiß machen, dass die Kipo-Scan-Mitarbeiter so viel zuverlässiger sind? Menschen sind ja so unfehlbar?! Wo lebst du eigentlich? Villa Kunterbunt? Bist du im Auftrag von apple hier? Deine Kommentare sprechen zumindets ganz klar dafür.

    • Im vorliegenden Fall hatte der Kindesvater lt. NYT ein Android Handy mit aktiviertem Google Cloud Foto Upload. Er macht die Bilder, das Handy lädt diese in die Cloud hoch, dort werden sie gescannt ob es ein bekanntes Kipo Bild ist (was hier ja nicht der Fall war) und die Google KI scannt nochmal, ob es ein unbekanntes, aber trotzdem illegales Bild ist. Und diese hat dann Alarm geschlagen. Daraufhin hat ein Mitarbeiter die Bilder geprüft und, laut Google, keine Rötungen oder Reizungen erkennen können, die eine Aufnahme erklären würden und hat dann Alarm bei der Polizei gegeben. Und dann nahm das Unheil seinen Lauf.

  • An der Erkennung, Meldung und Deaktivierung ist GRUNDSÄTZLICH nichts Schlechtes, daß jedoch statt Reaktivierung bei Erkennung eines Fehlers nicht wiederhergestellt, sondern unwiderruflich gelöscht wird, ist inakzeptabel und unnötig – für den Anbieter aber wohl das Einfachste.

  • Ich verstehe die ganze Kritik hier, aber wenn durch diese Funktionen für jedes Kind was dadurch gerettet wird, ein Konto versehentlich gelöscht wird, finde ich das vollkommen okay.

    Und solche Negativbeispiele sind dafür da, das die Entwickler die Software stetig verbessern werden, und die Fehlerquote weiter minimiert wird.

    • BigBausoftheNauf

      Gehts noch? Erzähl das mal dem Typen der jetzt eine Menge Ärger am Hals hat und sich jedem Rechtfertigen muss. Nur weil ein paar Entwickler geschludert haben? Ob du da so verständnisvoll als Betroffener reagieren würdest?

      • Also ich würde lieber eine Stellungnahme mehr schreiben als darüber nachzudenken, dass „Onkel Willy“ ungestraft so Bilder macht. Er kann ja mithilfe des Doktors den Grund belegen und dann wird da wohl auch der Fall geschlossen werden. Wäre halt nur schöner wenn man dann sein Konto auch wieder entsperren kann (oder es automatisch durch die Polizei wieder freigegeben wird). Das wäre grad das einzige was ich an dem Prozess ändern würde.

      • Dein Handy als ausführendes Organ in einer 1984-Dystopie?

    • Das ist ja nicht nur die Kontolöschung.
      Da rückt ja die Polizei an und nimmt dich mit. Das passiert ja nicht still und heimlich nachts um 3 Uhr.
      Und dann werde mal das Gerede von den Nachbarn wieder los: „Schon gehört, den Meier haben sie heute wegen Kinderpornos verhaftet“.

    • Es wäre die Opferung meiner Privatsphäre wert, mir zumindest, wenn das wirklich so wäre. Wenn sie wirklich NUR auf der Suche nach Kinderschändern wären.
      Dann wäre das ein paar Fehlalarme wert.
      Aber dem ist nicht so. Und das ist alles nur der Anfang.

  • Das könnte ihm in den USA aber ggf. sehr viel Geld einbringen.

    • Sowas ging mir auch durch den Kopf. Mit dem richtigen Anwalt kann er Google um Millionen erleichtern. Solche Klagen sind doch Sport bei denen. ;-)

      • Egal, wer der zu Unrecht beschuldigte Typ ist – G hat die besten, die meisten, die einflussreichsten Anwälte. Nur wenn G das Thema aus den Medien haben will(!), werden sie „Stille“ kaufen.

  • Der referenzierte Artikel der NYT ist hinter einer Paywall bzw. setzt einen vorhandenen Account voraus.

  • BigBausoftheNauf

    Selten so ein Blödsinn gehört. Wir kriegen es nicht mal hin unsere Personalausweise zu digitalisieren, aber eine Nackt-KI soll reibungslos durchlaufen. Ich behaupte mal, dass solche Bilder egal ob mit Kindern oder Erwachsenen Frauen meist ohne Gesicht, bzw. Kopf abgebildet werden und auf die primären Geschlechtsteile reduziert werden. Wie will also die KI da differenzieren? Fehlschlüsse sind somit vorprogrammiert und jeder der Nacktfotos von Geschlechtsteilen besitzt ohne genaue Zuordnung steht erstmal unter Generalverdacht. Was ist mit asiatischen Frauen die oft zierlich gebaut sind? Schöne neue „heile“ Welt. Welch eine Freude.

  • Die Absurdität der Amerikaner: Da werden Eltern von Kleinkindern, die gemeinsam nackt im Aufblas-Pool spielen, strafrechtlich verfolgt! Gleichzeitig werden 14-jährige an der Waffe ausgebildet!

  • Nur als Beispiel: Facebook hat vor ein paar Monaten mein Facebook Profil blockiert, weil ich nach deren Meinung Nacktfotos gepostet habe. Das Profil war aber das von meiner BBQ Seite michiboabbq und hat nur „nacktes“ Grillgut gezeigt. Soviel zu den super KI’s…

  • Mal ganz doof gefragt: Wie wird so ein Tool entwickelt? Ich stell mir ganz naiv vor wie die Ki mit Kinderpornomaterial gefüttert wird um zu lernen wonach sie zu suchen hat. Aber woher nehmen die Entwickler solche Aufnahmen, bzw wie ist das rechtlich geregelt? Oder läuft das ganz anders? Hat da jemand ne Ahnung?

  • Der der solche Bilder macht verfolgt auch die News über Google und Apple. Also wird man anderweitig auf Android Smartphone mit Google freien OS ausweichen. Und das ganze über verschlüsselte Dienste versenden. Wenn es nicht heute schon so gemacht wird. Die das dann noch immer so machen sind wahrscheinlich 0.001%. Also sollte Google und Apple mal wieder runter kommen. Die haben in Thema Sicherheit oft keine Ahnung und der normal dumme Bürger glaubt den den Mist den die Marketing Abteilung produziert.

  • Also wenn mein Kind krank ist gehe ich hin zum Mediziner. Und wenn es mir akut erscheint gehe ich in die Notaufnahme. Da mache ich keine Fotos von einem unbekleideten Kind und schicke es dann wie? WhatsApp, Email etc? Das erscheint mir doch etwas hin konstruiert. Schon gar nicht im amerikanischen Gesundheitssystem. Vermutlich hat derjenige vorher ein Foto seiner Kreditkarte geschickt?
    Egal, wenn einer meint Fotos von seinem unbekleideten Kind machen zu müssen, dann sollte derjenige zur Digitalkamera greifen. Diese Bilder haben nichts auf irgendwelchen Cloudspeichern verloren.

    • BigBausoftheNauf

      Schonmal was Online Sprechstunden gehört? Gerade im Apple App Store scheint das der nächste große Hit unter den Krankenkassen zu sein. Und was meinst du wie solche Bilder von der Digitalkamera zum Doc kommen sollen? per Brieftaube? Am Ende hängt alles in einer Cloud bzw. einem Server.

    • Als Beispiel würde mir hier der verlauf einer krankheit in den Sinn kommen. Klar könntest du auch jeden Tag zum Arzt um das von dem protokollieren zu lassen oder du machst halt jeden Tag ein Foto und zeigst dem beim Folgetermin den Verlauf, aber ja: sowas hat nichts auf einem cloudspeicher zu suchen.

    • Hier in Spanien ist ein Online Termin mit dem Arzt ganz normal.

      • Da gebe ich dir recht in Spanien ganz normal. Auch sonst ist in Spanien das Digitale Zeitalter schon viel weiter. Bsp. Zählerstand ablesen ab und zuschalten Wasseruhr ablesen….

    • In Deutschland gibt es viele Mediziner und Apps, welche eine Ersteinschätzung über ein Foto aus der Ferne erlauben, z.B. in Bezug auf verdächtige Hautstellen (Hautkrebs), Ausschläge, allergische Reaktionen o.ä.

      Hierzu schickt man je nach Praxis oder Anbieter die Fotos klassisch per Mail, oder aber sogar, wenn man damit einverstanden ist, per Messenger oder lädt es alternativ in einer App hoch.

      Glaube, dass es sogar gesetzliche Krankenkassen gibt, die mit dem einen oder anderen Anbieter kooperieren. Gerade in Bezug auf Hautkrebs bzw. verdächtige Stellen gibt es genug Leute, die aus Scham oder aus anderen Gründen keinen Hautarzt oder anderen zertifizierten Arzt aufsuchen. Dann ist die Früherkennung natürlich billiger und auch für den Patienten deutlich besser als eine Behandlung vom Hautkrebs im fortgeschrittenen Stadium.

      Und ich meine oben gelesen zu haben, dass es sich nicht um eine Ganzkörperaufnahme des Kindes gehandelt hat, sondern um eine Aufnahme des Intimbereiches ohne, dass das Gesicht o.ä. sichtbar gewesen sei. Kann man davon halten, was man will. Ich würde es auch nicht machen, aber wenn die Story stimmt, dann ist es nun mal blöd gelaufen. Wie oben auch bereits jemand schrieb, ist es besonders ärgerlich, dass es bei sowas keine direkten Ansprechpartner gibt oder dass man erstmal die Presse einschalten muss, um die Aufmerksamkeit von Google oder anderen großen Konzernen zu kriegen.

      Würde mich nur interessieren, wie solche Aufnahmen z.B. in Deutschland rechtlich bewertet werden, wenn auf dem Handy der Eltern Aufnahmen des Intimbereiches von den minderjährigen Kindern gefunden werden. Vorausgesetzt, dass die Aufnahmen eben eindeutig zum Zweck der medizinischen Dokumentation angefertigt worden sind.

      Was ich komisch an dieser Story finde: oben zitierte ebenfalls jemand, dass die Hand des Elternteils auf die Stelle im Intimbereich gezeigt haben soll. Schon ein bisschen komisch – warum macht man dann keine Nahaufnahme? Gerade moderne Smartphones können doch super Nahaufnahmen anfertigen, dann muss man doch nicht den kompletten Unterkörper bzw. Intimbereich fotografieren und mit der Hand drauf zeigen.. andererseits denke ich, wenn es wirklich „echte“ KiPo sein soll, warum man sich dann an die Presse wendet.

  • Der Fakt das Google sich über das Urteil der Polizei stellt und eigene Untersuchungen des Privatlebens der Betroffenen angestellt hat, und dann nach eigenen Google-Gesetzen handelt, ist das gruseligste was ich seit langem gesehen habe!

    Der Artikel ist wirklich sehr interessant! Man kann darin gut erkennen wie viel weiter das Ganze schon geht, was für ein massiver Eingriff das in die Leben der beiden Familien ist. Der komplette Verlust der Privatsphäre, die komplette Offenlegung ALLER Daten die über zehn Jahre zurück gehen…

  • Na ja. So lange die Bevölkerung, auch hier in Deutschland diesen unsäglichen Schwachsinn von Rettung der Kinder schluckt, und sämtliche Übergriffe des Staates gutheißt, werden sich auch hier bald chinesische Verhältnisse einstellen.

  • Was für ein Witz „eine Einspruchsmöglichkeit war nicht vorgesehen“. Wollen die uns verarschen? Das ist ja rechtlich quasi undenkbar

  • Fehlt nur noch das Deep Fakes theoretisch sowas fingieren können. So kriegst du jeden. Beweise dann doch mal das Gegenteil.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 37262 Artikel in den vergangenen 6054 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven