Analyse zeigt systematische Schwächen
Studie: KI-Apps verfälschen regelmäßig Nachrichteninhalte
Sprachbasierte KI-Applikationen werden zunehmend zur alltäglichen Nachrichtenquelle. Eine aktuelle Untersuchung zeigt jedoch, dass Antworten dieser Systeme in vielen Fällen inhaltlich unzuverlässig sind. Die Erhebung, die unter der Leitung der BBC in Kooperation mit zahlreichen europäischen Rundfunkanbietern durchgeführt wurde, umfasst Beiträge aus 18 Ländern und 14 verschiedenen Sprachen.
Bewertet wurden die Antworten von vier bekannten KI-Apps (Copilot, ChatGPT, Perplexity und Gemini) durch Redaktionen öffentlich-rechtlicher Medien. Hierzulande beteiligten sich ARD, ZDF und die Deutsche Welle. Die Ergebnisse deuten auf strukturelle Probleme hin. In fast der Hälfte der geprüften Fälle enthielten die Antworten inhaltliche oder formale Fehler. Dazu zählten unklare Quellenangaben, fehlende Kontextualisierung oder sachliche Ungenauigkeiten.
Besonders häufig waren Schwierigkeiten bei der Unterscheidung zwischen Tatsachen und Meinungsäußerungen. Die App mit der höchsten Fehlerquote (ChatGPT) lieferte in mehr als drei Vierteln der Fälle problematische Antworten. Die Tester bezogen sich unter anderem auf die Richtigkeit der Angaben sowie auf die Nachvollziehbarkeit der Quellen.
Forderung nach Regulierung und weiteren Prüfungen
Die beteiligten Medienorganisationen warnen davor, dass sich diese Mängel auf das Vertrauen in digitale Informationen auswirken könnten. Vor allem junge Nutzerinnen und Nutzer greifen zunehmend auf KI-Anwendungen zurück, wenn sie sich über aktuelle Ereignisse informieren. Vertreter der Europäischen Rundfunkunion fordern daher eine stärkere Kontrolle der eingesetzten Systeme sowie die konsequente Anwendung bestehender Vorschriften im Bereich digitaler Dienste.
Zur Unterstützung der praktischen Umsetzung wurde begleitendes Studienmaterial (PDF-Download) veröffentlicht, das Verbesserungsvorschläge für KI-Antworten und Empfehlungen zur Förderung von Medienkompetenz enthält. Zudem wird eine kontinuierliche Beobachtung der technischen Entwicklungen angestrebt, um die Qualität von automatisiert erstellten Inhalten langfristig zu bewerten und gegebenenfalls nachzusteuern.
- PDF-Download: News Integrity in AI Assistants




Nein! Doch! Ooh! ;)
Bester Kommentar und dann auch noch auf Platz 1 :))))
+1
Fakten sind eh überbewertet, heutzutage zählt nur das Gefühl und daß die KI mir zustimmt.
Stimmt, hab gerade ChatGPT gefragt :)
:-)))
Ach nee…wie kann das denn sein ?
Die KI ist halt nur schon viel weiter und zeigt auch alternative Fakten an.
Donaldismus everywhere
Vielleicht wird es langsam Zeit an der Börse auf den großen KI-Aktien Crash zu spekulieren
Wahrscheinlich waren genau diese Quellen die öffentlich Rechtlichen selbst ;)
Wow …. 6 Kommentare hat es nur gedauert, bis der erste Heini gegen den ÖRR wettert.
Herrje …
Echt hat lange gedauert bis so ein Quark aus dem blauen Loch gekrochen kommt.
War auch mein erster Gedanke ;)
Der Text ist mir zu lang. ChatGPT, fasse bitte den Text zusammen.
Hä, wird die KI für noch was anderes benutzt als irgendwelchen Blödsinn zu kreieren, um Klicks zu generieren! Jetzt bin ich überrascht! ;-)
„Besonders häufig waren Schwierigkeiten bei der Unterscheidung zwischen Tatsachen und Meinungsäußerungen“. Das ist bei den öffentlich rechtlichen doch generell problematisch.
Könntet Ihr Öffentlich-Rechtlichen-Basher nicht einfach die zuvor geschriebenen Kommentare lesen? Dann hättest du gesehen, dass dein Kumpel LeMiro heute schon für eure Sache gearbeitet hat. Nicht, dass ich dich vom Kommentieren abhalten möchte, nur so hättest du deinen Kommentar gleich bei ihm mit ranhängen können. So unterbrecht ihr mit eurem unnützen Zeug nicht immer unseren Lesefluss.
+++ 1
KI zu disqualifizieren ist ganz leicht:
Fragt einfach etwas, wo ihr euch gut auskennt, eine Berufsausbildung durchlaufen, oder es studiert habt:
Das Resultat ist meist diffus, mehrdeutig, oder schlicht falsch
Stimmt, ist allerdings bei Zeitungsartikeln leider oft auch so.
Da hast du sicher ein Punkt! Allerdings verlässt man sich selten auf eine Informationsquelle allein.
Fragt man unterschiedliche KIs, stellt man auch gerne mal fest, dass die Resultate diametral auseinander liegen.
Aber nachdem ich heute ein Video gesehen habe, wo die Gen Z nach der Uhrzeit auf einer analogen Uhr gefragt wurde und keiner eine korrekte Antwort gab, ist das eh alles egal…
:-/
So ist es, daher finde ich KI für mich persönlich völlig nutzlos, ich frage doch niemanden um Rat, bei dem ich weiss die Antwort ist zu 50% falsch…
Vor allem die ’grossen‘ wie chatGPT und Gemini reden so einen Mist, das geht auf keine Kuhhaut.
Code ist auch so gut wie immer Müll, Claude kann’s noch am besten, aber da verbringst auch so viel Zeit mit Fehlersuche, das ihn grad komplett selbst schreiben kannst.
Ist halt für Amerikaner, denen sind Fakten nicht so wichtig, Hauptsache es wurde etwas gesagt… ; )
Da scheint die KI immer noch besser zu arbeiten, als viele Journalisten: Kontextualusierung, Quellen, falsche Angaben… Ein Kollege berichtete mir letzte Woche von einem Fall von Qualitätsjournalismus. Eltern hatten bei einem tragischen Unfall ihren 12-jährigen Sohn verloren. Der Journalist zu den Eltern: Entweder erzählen sie uns was, oder wir schreiben einfach so was vom Unfall. Da finde ich KI humaner (Wortspiel)!!!
Ein Freund hat mir erzählt… :D haha
Der kleine ralfer04 sitzt wie immer an der Quelle der Weisheit
;-)))
Komisch, die Geschichte hab ich auch gehört, aber nicht von deinem Kollegen. Genau so lief es auch bei einer in TikTok ab. Vielleicht hast du es davon? Das witzige ist, es soll ein Bild Journalist gewesen sein, also einer deiner Quellen neben Nius und Telegram Ralfi
@Jens: wenn es einer von der Bild war, war es wenigstens kein Journalist. Ich habe letzt einen erste Hilfe Kurs gemacht und der Sani der den Kurs abgehalten hat meinte, dass die regelmäßig Ärger mit Bild Mitarbeitern haben, die die Uniformen von Sanitätern oder anderem Rettungspersonal tragen, um sich möglichst nah ans Geschehen ranzuschleichen und Bilder von den Opfern zu machen. Ekelhaft.
Was meinst du, woher die KIs ihre Inhalte haben? Wenn die Journalisten schon Miss schreiben, dann die KI noch einen drauf setzt … was soll da rauskommen? Wenn über den DPA Ticker allgemein was reinkommt und die KI das dann umsetzt, dann lese ich lieber die KI. NOCH muss ein Mensch den Triggerartikel schreiben.
Zwischen Tatsachen und Meinungsäußerung kann aber auch ARD und ZDF nicht unterscheiden
KI auch nicht. Das ist das Problem.
Man frage ChatGPT „Wer ist Papst?“
Die Antwort (gerade eben probiert) dürfte dem guten Leo nicht gefallen. ;-)
Naja, wenn man einen Hammer nimmt um einen Reifen zu wechseln dann funktioniert das meistens auch nicht besonders gut.
Ich war diesbzgl. anfangs auch sehr skeptisch. Wenn allerdings BBC und MSM mit dem Ergebnis nicht zufrieden sind, gibt mir das wieder Hoffnung. „Der Spiegel“ geht da ohnehin auf Nummer sicher und lässt seine Artikel gleich komplett von ChatGPT schreiben.