Interne Prüfung nach Deepfake-Vorwürfen
Grok: Apple drohte Musk-KI mit Entfernung aus dem App Store
Apple hat laut einem Bericht des US-Nachrichtensenders CNBC Maßnahmen gegen die Anwendungen X und Grok des Multimilliardärs Elon Musk geprüft, nachdem Nutzer mit der KI-App manipulierte Bilder erzeugt hatten.
In der Kritik: Grok gestattet die sexualisierte Bilderstellung
Im Fokus standen Inhalte, bei denen reale Personen digital entkleidet oder sexualisiert dargestellt wurden. Darunter befanden sich auch Darstellungen von Minderjährigen.
Die Prüfungen fanden dabei hinter geschlossenen Türen statt, öffentlich äußerte sich Apple während der Debatte kaum. Intern stellte der Konzern jedoch fest, dass beide Anwendungen gegen die Richtlinien des App Store verstoßen.
Apple soll die zum Musk-Imperium gehörenden Apps daraufhin aufgefordert haben, konkrete Maßnahmen zur Verbesserung der Inhaltskontrolle vorzulegen. Hintergrund war wachsender politischer Druck in Europa und den USA, wo mehrere Senatoren eine Entfernung der Anwendungen aus dem App Store verlangten.
Nach Angaben aus einem Schreiben an US-Politiker prüfte Apple mehrere Aktualisierungen der Anwendungen. Eine erste Überarbeitung der Grok-App wurde abgelehnt, da die Anpassungen aus Sicht des Unternehmens nicht ausreichend waren. Erst nach weiteren Änderungen akzeptierte Apple eine neue Version. Zu diesem Zeitpunkt galt X als weitgehend regelkonform, während Grok zunächst weiterhin als problematisch eingestuft wurde.
Anpassungen und weiterhin bestehende Probleme
Die Entwickler reagierten mit zusätzlichen Einschränkungen, etwa bei der Bearbeitung von Bildern realer Personen. Auch der Zugriff auf bestimmte Funktionen wurde begrenzt. Diese Schritte führten schließlich zur Freigabe einer überarbeiteten Version der Grok-App.
Falsches Tim-Cook-Foto: Grok kann täuschend echte Bilder generieren
Gleichzeitig zeigt ein Blick in die sozialen Netze, dass die Maßnahmen nicht vollständig greifen. Demnach gelingt es Nutzern weiterhin, Schutzmechanismen zu umgehen und veränderte Bilder zu erzeugen, die reale Personen in sexualisierter Form zeigen. Die Anzahl solcher Fälle ist im Vergleich zum Jahresbeginn zwar gesunken, jedoch nicht vollständig verschwunden.
X verweist auf bestehende Sicherheitsmechanismen. Dazu gehören Filter für Eingaben, regelmäßige Anpassungen der KI-Modelle sowie eine laufende Überwachung der Nutzung. Apple selbst hat sich bislang nicht öffentlich zum Fall geäußert.


Jede App wird auf Jugendschutz bei Apple überprüft und muss familienfreundlich sein, außer sie erstellt für den reichsten Mann der Welt Kinderpornografie, da wird erstmal monatelang geprüft. Hab mich sowieso gefragt, warum das nicht schon längst entfernt wurde, andere Inhalte, die gegen Apples Nutzungsbedingungen verstoßen, sind doch sonst viel schneller weg. Jede andere App die solche Inhalte erstellt wäre längst entfernt worden
Das dachte ich mir auch gerade.
Die Antwort ist ganz einfach -> $$$ ;)
Ist halt ein Tech-Bro der Elmo.
„Die Prüfungen fanden dabei hinter geschlossenen Türen statt, öffentlich äußerte sich Apple während der Debatte kaum.“
Frage an iFun, welche App wurde öffentlich getestet?
+1
Schade das solche KI Tools immer für solche Bilder missbraucht werden. Ich selber nutze KI auch um Bilder von mir zu manipulieren. Macht mir halt spaß mich zum Beispiel in einen Ferrari zu setzen, oder als alter Cowboy auf einem Pferd in einer Herde Rinder zu tricksen. Oder mich in meinen alten VW T4 auf dem Mond zu positionieren. Ist lustig was man da so zaubern kann.
… wer’s braucht um sich zu amüsieren, sollte vielleicht auch mal darüber nachdenken, welche Ressourcen aufgewendet werden, um so sinnfreie Bildchen zu basteln!
Wer entscheidet denn über den Sinn? Du? Apple?
Wieso ist die reine Freude am Ergebnis für dich nicht genug „Sinn“?
Was ergäbe denn für dich mehr Sinn als die Freude am Ergebnis?