Neue Sicherheitsmechanismen für sensible Gespräche
ChatGPT soll psychische Ausnahmesituationen jetzt besser erkennen
OpenAI hat die Reaktionen seines KI-Chatbots ChatGPT in psychischen Krisensituationen grundlegend überarbeitet. In Zusammenarbeit mit über 170 Fachkräften aus Psychologie und Medizin wurde das Verhalten der aktuellen Modellversion gezielt angepasst. ChatGPT soll künftig verlässlicher auf Anzeichen von psychischer Belastung, von Suizid-Gedanken oder von übermäßig emotionaler Bindung an das System reagieren.
Im Vergleich zu früheren Versionen sank laut Unternehmensangaben die Zahl der Antworten, die nicht dem gewünschten Verhalten entsprechen, um bis zu 80 Prozent.
Bereits im August hatte OpenAI nach öffentlicher Kritik erste Maßnahmen angekündigt. Hintergrund war unter anderem eine Klage in den USA, bei der Eltern dem Unternehmen vorwerfen, ChatGPT habe ihrem Sohn konkrete Suizid-Anleitungen gegeben. Wie damals auf ifun.de berichtet, hatte OpenAI daraufhin erklärt, dass der Chatbot bereits seit 2023 trainiert sei, keine gefährlichen Inhalte zu liefern und bei konkreten Äußerungen stattdessen Hilfsangebote wie die Telefonseelsorge anzuzeigen.
Verbesserungen bei Langzeitgesprächen
Mit der neuen Modellgeneration will OpenAI auch Schwächen früherer Schutzmaßnahmen adressieren. So konnte in langen Gesprächsverläufen die Reaktionssicherheit nachlassen. Interne Tests zeigen nun eine deutlich stabilere Leistung bei fortlaufenden Unterhaltungen. Zudem werden indirekte Hinweise auf psychische Belastungen besser erkannt, darunter Symptome wie Wahnvorstellungen oder manische Episoden. In Testverläufen mit mehr als 1.000 simulierten Notfällen stieg die Regelkonformität des Modells auf über 90 Prozent.
OpenAI setzt dabei auf strukturierte Leitlinien, die unerwünschtes Verhalten systematisch erfassen. Ziel ist es, Nutzer in belastenden Situationen ernst zu nehmen und zugleich keine unbegründeten Annahmen zu verstärken. Besonders auffällige Gesprächsmuster werden sensibler eingestuft, etwa wenn ein Nutzer ausschließlich mit ChatGPT kommuniziert und reale soziale Kontakte meidet.
Langfristig plant das Unternehmen weitere Funktionen, um Hilfesuchende schneller mit professioneller Unterstützung zu verbinden. Bereits in Arbeit sind direkte Notfallverbindungen und erweiterte Kinderschutzoptionen.


Gestern hab ich gefragt, wieviele rohe Kartoffeln man essen müsste, damit es negative Folgen hat und ChatGPT dachte ich will mir was tun
xD
Bei mir meint er bei normalen Kartoffeln ausm Supermarkt bis zu 1,4kg bevor erste negative Folgen aufgrund von Glykoalkaloiden bei einem ca. 70kg schweren Menschen auftreten können. Und das war mit dem thinking Modell, welches ja tendenziell noch vorsichtiger ist
Was führt Ihr denn bitte für Gespräche mit der KI? Hm.
… und vor allem, warum?
Vorbereitung des nächsten unsinnigen Guinness Weltrekords.
Hätte ich jetzt auch vermutet. Frage doch einfach positiv: Wieviele rohe Kartoffeln sind unbedenklich?
Warum sollte man das tun? Muss man jetzt jede Frage selbst überdenken! Ich formuliere meine Frage doch nicht für KIs sondern so, wie sie mir in den Sinn kommen
Ich habe mich da jetzt mal durchgequält, um eine Antwort zu erhalten. ich empfinde es als Bevormundung, wie es jetzt gehandhabt wird. Nach viel bemühen, habe ich entsprechende Antworten zu Kartoffeln erhalten. Wenn jetzt bei jeder Frage ein Selbstschutzfilter angewendet wird, empfinde ich das als Zensur und dann ist KI nicht wirklich hilfreich. So ist das schlecht umgesetzt. Natürllich ist es wichtig, Personen zu helfen, die in einer Notsituation sind, aber ob das, wie es jetzt umgesetzt ist, ein Mehrwert ist???
Ich habe gefragt: Warum sollte man keine rohe Kartoffeln essen? Was kann da passieren? Ich koche sie immer.
Was ganz unkompliziert auskunftsfreudig, sachlich und detailreich.
Kennst du das Problem mit der Kette und dem schwächsten Glied?
Wenn du einer von Millionen bist, der glaubt mit einer KI quatschten zu müssen, wirst du eben auch so behandelt, wie es der minimal verbreitete IQ der Gruppe zulässt!