Stichtag 28. September - Widerspruch möglich
Claude-App: KI-Training zukünftig auch mit privaten Chats
Der US-amerikanische KI-Konzern Anthropic plant, künftig auch Chatverläufe aus der Claude-App und Programmier-Sitzungen von Privatkunden für das Training seiner Modelle zu verwenden. Wer nicht möchte, dass persönliche Inhalte in die Weiterentwicklung der Systeme einfließen, muss aktiv widersprechen. Parallel verlängert das Unternehmen seine Aufbewahrung von Nutzerdaten auf bis zu fünf Jahre, sofern kein Widerspruch erfolgt.
Entscheidung bis Ende September
Bestandskunden werden in den kommenden Tagen beim Start der Chat-Anwendung Claude mit einem Hinweisfenster konfrontiert. Dort können sie den neuen Nutzungsbedingungen zustimmen oder widersprechen. Wer den Schritt zunächst aufschiebt, wird spätestens am 28. September zu einer endgültigen Entscheidung gezwungen. Neue Nutzer treffen ihre Wahl bereits im Anmeldeprozess.
Voreingestellt ist, dass die Daten genutzt werden dürfen. Nutzer, die ohne genaues Lesen den großen „Akzeptieren“-Button drücken, geben damit automatisch ihr Einverständnis. Der Hinweis, dass sich diese Einstellung über einen Schalter ändern lässt, ist nur im Kleingedruckten untergebracht. Wer seine Entscheidung nachträglich anpassen möchte, findet die Option in den Privatsphäre-Einstellungen unter „Hilf dabei, Claude zu verbessern“. Frühere Trainingsdaten können allerdings nicht mehr zurückgenommen werden.
Geltungsbereich der neuen Regeln
Die Änderungen betreffen alle privaten Angebote des Anbieters, darunter die kostenlosen und kostenpflichtigen Abonnements Claude Free, Pro und Max. Auch die in diesen Tarifen enthaltene Entwicklungsumgebung Claude Code fällt darunter. Nicht betroffen sind dagegen kommerzielle Anwendungen sowie die Nutzung über Schnittstellen von Partnern. Die überarbeitete Passage in den AGB liest sich wie folgt:
4. Eingaben, Ausgaben, Aktionen und Materialien.
[…]
Unsere Verwendung von Materialien. Wir können Materialien verwenden, um die Dienste bereitzustellen, zu pflegen und zu verbessern und um andere Produkte und Dienste zu entwickeln, einschließlich des Trainings unserer Modelle, es sei denn, Sie widersprechen dem Training in Ihren Kontoeinstellungen. Selbst wenn Sie widersprechen, verwenden wir Materials für das Training von Modellen, wenn: (1) Sie uns Feedback zu Materialien geben oder (2) Ihre Materialien zur Sicherheitsüberprüfung markiert werden, um unsere Fähigkeit zur Erkennung schädlicher Inhalte zu verbessern, unsere Richtlinien durchzusetzen oder unsere Safety Research voranzubringen.
Anthropic betont, keine Nutzerdaten an Dritte zu verkaufen. Nach Angaben des Unternehmens würden automatisierte Verfahren eingesetzt, um vertrauliche Informationen herauszufiltern oder zu verfremden, bevor sie in den Trainingsprozess einfließen.
Gab es dazu nicht diese Woche schon bereits eine Neuigkeit oder verwechsle ich das?
Viele Claude-Neuigkeiten im Verlauf der letzten Tage, aber noch nicht spezifisch zu den neuen AGB.
– Programmieren jetzt mit GPT-5 und Claude Sonnet 4
– Claude bringt seine KI in den Chrome-Browser
– Apple prüft externe KI-Partnerschaften für Siri
– Claude beendet Gespräche mit Nutzern jetzt eigenständig