iphone-ticker.de — Alles zum iPhone. Seit 2007. 42 620 Artikel

Analyse zeigt systematische Schwächen

Studie: KI-Apps verfälschen regelmäßig Nachrichteninhalte

Artikel auf Mastodon teilen.
28 Kommentare 28

Sprachbasierte KI-Applikationen werden zunehmend zur alltäglichen Nachrichtenquelle. Eine aktuelle Untersuchung zeigt jedoch, dass Antworten dieser Systeme in vielen Fällen inhaltlich unzuverlässig sind. Die Erhebung, die unter der Leitung der BBC in Kooperation mit zahlreichen europäischen Rundfunkanbietern durchgeführt wurde, umfasst Beiträge aus 18 Ländern und 14 verschiedenen Sprachen.

KI App Iphone

Bewertet wurden die Antworten von vier bekannten KI-Apps (Copilot, ChatGPT, Perplexity und Gemini) durch Redaktionen öffentlich-rechtlicher Medien. Hierzulande beteiligten sich ARD, ZDF und die Deutsche Welle. Die Ergebnisse deuten auf strukturelle Probleme hin. In fast der Hälfte der geprüften Fälle enthielten die Antworten inhaltliche oder formale Fehler. Dazu zählten unklare Quellenangaben, fehlende Kontextualisierung oder sachliche Ungenauigkeiten.

Oppinion Fact Ki.studie

Besonders häufig waren Schwierigkeiten bei der Unterscheidung zwischen Tatsachen und Meinungsäußerungen. Die App mit der höchsten Fehlerquote (ChatGPT) lieferte in mehr als drei Vierteln der Fälle problematische Antworten. Die Tester bezogen sich unter anderem auf die Richtigkeit der Angaben sowie auf die Nachvollziehbarkeit der Quellen.

Accuracy Ki.studie

Forderung nach Regulierung und weiteren Prüfungen

Die beteiligten Medienorganisationen warnen davor, dass sich diese Mängel auf das Vertrauen in digitale Informationen auswirken könnten. Vor allem junge Nutzerinnen und Nutzer greifen zunehmend auf KI-Anwendungen zurück, wenn sie sich über aktuelle Ereignisse informieren. Vertreter der Europäischen Rundfunkunion fordern daher eine stärkere Kontrolle der eingesetzten Systeme sowie die konsequente Anwendung bestehender Vorschriften im Bereich digitaler Dienste.

Infografik Ki Studie

Zur Unterstützung der praktischen Umsetzung wurde begleitendes Studienmaterial (PDF-Download) veröffentlicht, das Verbesserungsvorschläge für KI-Antworten und Empfehlungen zur Förderung von Medienkompetenz enthält. Zudem wird eine kontinuierliche Beobachtung der technischen Entwicklungen angestrebt, um die Qualität von automatisiert erstellten Inhalten langfristig zu bewerten und gegebenenfalls nachzusteuern.

27. Okt. 2025 um 17:21 Uhr von Nicolas Fehler gefunden?


    28 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Fakten sind eh überbewertet, heutzutage zählt nur das Gefühl und daß die KI mir zustimmt.

  • Die KI ist halt nur schon viel weiter und zeigt auch alternative Fakten an.

  • Vielleicht wird es langsam Zeit an der Börse auf den großen KI-Aktien Crash zu spekulieren

  • Wahrscheinlich waren genau diese Quellen die öffentlich Rechtlichen selbst ;)

  • Der Text ist mir zu lang. ChatGPT, fasse bitte den Text zusammen.

  • Hä, wird die KI für noch was anderes benutzt als irgendwelchen Blödsinn zu kreieren, um Klicks zu generieren! Jetzt bin ich überrascht! ;-)

  • KI zu disqualifizieren ist ganz leicht:

    Fragt einfach etwas, wo ihr euch gut auskennt, eine Berufsausbildung durchlaufen, oder es studiert habt:

    Das Resultat ist meist diffus, mehrdeutig, oder schlicht falsch

    • Der wahre Klaus

      Stimmt, ist allerdings bei Zeitungsartikeln leider oft auch so.

      • Da hast du sicher ein Punkt! Allerdings verlässt man sich selten auf eine Informationsquelle allein.

        Fragt man unterschiedliche KIs, stellt man auch gerne mal fest, dass die Resultate diametral auseinander liegen.

        Aber nachdem ich heute ein Video gesehen habe, wo die Gen Z nach der Uhrzeit auf einer analogen Uhr gefragt wurde und keiner eine korrekte Antwort gab, ist das eh alles egal…
        :-/

  • Die öffentlich rechtlichen bewerten die Richtigkeit von KI antworten.. Danke ich komm aus dem lachen nicht mehr raus :)

  • Da scheint die KI immer noch besser zu arbeiten, als viele Journalisten: Kontextualusierung, Quellen, falsche Angaben… Ein Kollege berichtete mir letzte Woche von einem Fall von Qualitätsjournalismus. Eltern hatten bei einem tragischen Unfall ihren 12-jährigen Sohn verloren. Der Journalist zu den Eltern: Entweder erzählen sie uns was, oder wir schreiben einfach so was vom Unfall. Da finde ich KI humaner (Wortspiel)!!!

  • Zwischen Tatsachen und Meinungsäußerung kann aber auch ARD und ZDF nicht unterscheiden

  • Man frage ChatGPT „Wer ist Papst?“
    Die Antwort (gerade eben probiert) dürfte dem guten Leo nicht gefallen. ;-)

  • Naja, wenn man einen Hammer nimmt um einen Reifen zu wechseln dann funktioniert das meistens auch nicht besonders gut.

  • Christian Leischner

    …wie geil ist das denn – ARD und ZDF prüfen den Wahrheitsgehalt der Angaben von KI’s. Wer im Glashaus sitzt…ich hau mich weg…Der Lügner traut dem Betrüger nicht…:-)

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 42620 Artikel in den vergangenen 6631 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2025 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven