Analyse zeigt systematische Schwächen
Studie: KI-Apps verfälschen regelmäßig Nachrichteninhalte
Sprachbasierte KI-Applikationen werden zunehmend zur alltäglichen Nachrichtenquelle. Eine aktuelle Untersuchung zeigt jedoch, dass Antworten dieser Systeme in vielen Fällen inhaltlich unzuverlässig sind. Die Erhebung, die unter der Leitung der BBC in Kooperation mit zahlreichen europäischen Rundfunkanbietern durchgeführt wurde, umfasst Beiträge aus 18 Ländern und 14 verschiedenen Sprachen.
Bewertet wurden die Antworten von vier bekannten KI-Apps (Copilot, ChatGPT, Perplexity und Gemini) durch Redaktionen öffentlich-rechtlicher Medien. Hierzulande beteiligten sich ARD, ZDF und die Deutsche Welle. Die Ergebnisse deuten auf strukturelle Probleme hin. In fast der Hälfte der geprüften Fälle enthielten die Antworten inhaltliche oder formale Fehler. Dazu zählten unklare Quellenangaben, fehlende Kontextualisierung oder sachliche Ungenauigkeiten.
Besonders häufig waren Schwierigkeiten bei der Unterscheidung zwischen Tatsachen und Meinungsäußerungen. Die App mit der höchsten Fehlerquote (ChatGPT) lieferte in mehr als drei Vierteln der Fälle problematische Antworten. Die Tester bezogen sich unter anderem auf die Richtigkeit der Angaben sowie auf die Nachvollziehbarkeit der Quellen.
Forderung nach Regulierung und weiteren Prüfungen
Die beteiligten Medienorganisationen warnen davor, dass sich diese Mängel auf das Vertrauen in digitale Informationen auswirken könnten. Vor allem junge Nutzerinnen und Nutzer greifen zunehmend auf KI-Anwendungen zurück, wenn sie sich über aktuelle Ereignisse informieren. Vertreter der Europäischen Rundfunkunion fordern daher eine stärkere Kontrolle der eingesetzten Systeme sowie die konsequente Anwendung bestehender Vorschriften im Bereich digitaler Dienste.
Zur Unterstützung der praktischen Umsetzung wurde begleitendes Studienmaterial (PDF-Download) veröffentlicht, das Verbesserungsvorschläge für KI-Antworten und Empfehlungen zur Förderung von Medienkompetenz enthält. Zudem wird eine kontinuierliche Beobachtung der technischen Entwicklungen angestrebt, um die Qualität von automatisiert erstellten Inhalten langfristig zu bewerten und gegebenenfalls nachzusteuern.
- PDF-Download: News Integrity in AI Assistants




Nein! Doch! Ooh! ;)
Bester Kommentar und dann auch noch auf Platz 1 :))))
+1
Fakten sind eh überbewertet, heutzutage zählt nur das Gefühl und daß die KI mir zustimmt.
Stimmt, hab gerade ChatGPT gefragt :)
Ach nee…wie kann das denn sein ?
Die KI ist halt nur schon viel weiter und zeigt auch alternative Fakten an.
Vielleicht wird es langsam Zeit an der Börse auf den großen KI-Aktien Crash zu spekulieren
Wahrscheinlich waren genau diese Quellen die öffentlich Rechtlichen selbst ;)
War auch mein erster Gedanke ;)
Der Text ist mir zu lang. ChatGPT, fasse bitte den Text zusammen.
Hä, wird die KI für noch was anderes benutzt als irgendwelchen Blödsinn zu kreieren, um Klicks zu generieren! Jetzt bin ich überrascht! ;-)
KI zu disqualifizieren ist ganz leicht:
Fragt einfach etwas, wo ihr euch gut auskennt, eine Berufsausbildung durchlaufen, oder es studiert habt:
Das Resultat ist meist diffus, mehrdeutig, oder schlicht falsch
Stimmt, ist allerdings bei Zeitungsartikeln leider oft auch so.
Da hast du sicher ein Punkt! Allerdings verlässt man sich selten auf eine Informationsquelle allein.
Fragt man unterschiedliche KIs, stellt man auch gerne mal fest, dass die Resultate diametral auseinander liegen.
Aber nachdem ich heute ein Video gesehen habe, wo die Gen Z nach der Uhrzeit auf einer analogen Uhr gefragt wurde und keiner eine korrekte Antwort gab, ist das eh alles egal…
:-/
Die öffentlich rechtlichen bewerten die Richtigkeit von KI antworten.. Danke ich komm aus dem lachen nicht mehr raus :)
Frag besser Hans431 aus einem x-beliebigen Forum. Der weiß das sicher besser.
Bewertet durch ARD, ZDF usw.
Alles klar.
Ändere bitte deinen „Nick“ einfach das erste „i“ durch ein „u“ ersetzen!
+1
Von denen gibt’s hier reichlich im Forum. :D
Ja leider, Maik…
Aber das Schöne daran ist, dass sie sich immer sofort entlarven und es dabei nicht mal merken…
:-))
Da scheint die KI immer noch besser zu arbeiten, als viele Journalisten: Kontextualusierung, Quellen, falsche Angaben… Ein Kollege berichtete mir letzte Woche von einem Fall von Qualitätsjournalismus. Eltern hatten bei einem tragischen Unfall ihren 12-jährigen Sohn verloren. Der Journalist zu den Eltern: Entweder erzählen sie uns was, oder wir schreiben einfach so was vom Unfall. Da finde ich KI humaner (Wortspiel)!!!
Ein Freund hat mir erzählt… :D haha
Der kleine ralfer04 sitzt wie immer an der Quelle der Weisheit
;-)))
Zwischen Tatsachen und Meinungsäußerung kann aber auch ARD und ZDF nicht unterscheiden
Man frage ChatGPT „Wer ist Papst?“
Die Antwort (gerade eben probiert) dürfte dem guten Leo nicht gefallen. ;-)
Naja, wenn man einen Hammer nimmt um einen Reifen zu wechseln dann funktioniert das meistens auch nicht besonders gut.
…wie geil ist das denn – ARD und ZDF prüfen den Wahrheitsgehalt der Angaben von KI’s. Wer im Glashaus sitzt…ich hau mich weg…Der Lügner traut dem Betrüger nicht…:-)