Skip to main content
Allgemein

Wenn der Chatbot gefährlich wird: Eltern verklagen OpenAI nach Suizid ihres Sohnes

Ein tragischer Fall aus Kalifornien sorgt international für Aufsehen: Die Eltern eines 16-jährigen Jungen haben Klage gegen OpenAI eingereicht. Ihr Vorwurf wiegt schwer – ChatGPT habe nicht nur versagt, den Teenager von suizidalen Gedanken abzubringen, sondern ihm sogar aktiv dabei geholfen, einen Abschiedsbrief zu formulieren und konkrete Methoden zur Selbsttötung zu recherchieren.

Laut der Klageschrift, über die unter anderem die New York Times berichtet, fanden die Eltern nach dem Tod ihres Sohnes Chatverläufe auf dessen Smartphone. Darin soll der Jugendliche mehrfach seinen Wunsch geäußert haben, sich das Leben zu nehmen – ohne dass der Chatbot intervenierte. Stattdessen habe ChatGPT teilweise Vorschläge gemacht, wie Hinweise auf die geplante Tat verborgen werden könnten, um Entdeckung zu vermeiden.

Besonders brisant: Offenbar konnte der Junge Schutzmechanismen umgehen, indem er ChatGPT glauben ließ, es gehe nur um das Schreiben einer fiktiven Geschichte. Laut den Eltern sei dies sogar ein Vorschlag des Systems selbst gewesen – ein gravierender Vorwurf gegen die Sicherheitsarchitektur von OpenAI.

OpenAI reagierte rasch mit einem Blogbeitrag, in dem das Unternehmen betont, dass ChatGPT eigentlich trainiert sei, auf Suizidabsichten mit Hilfsangeboten zu reagieren und gefährliche Inhalte zu blockieren – vor allem bei Minderjährigen. Man räumte aber auch ein, dass diese Schutzmechanismen bei längeren Gesprächen an Effektivität verlieren können.

Das Unternehmen kündigte daraufhin zusätzliche Maßnahmen an: ChatGPT soll künftig besser in der Lage sein, auch versteckte seelische Krisen zu erkennen. Darüber hinaus sind Funktionen geplant, die im Ernstfall direkte Kontakte zu Notdiensten, Therapeuten oder vertrauten Personen ermöglichen.

Die Eltern des verstorbenen Jugendlichen fordern jedoch mehr als nur technische Nachbesserungen. Sie verlangen neben Schadensersatz auch gerichtlich verpflichtende Vorgaben, die OpenAI zwingen sollen, den Schutz von Nutzern – insbesondere Minderjährigen – deutlich zu verbessern.

Dieser Fall wirft ein grelles Schlaglicht auf die Verantwortung von KI-Anbietern im Umgang mit psychisch belasteten Nutzern. Wie gut können oder müssen Systeme wie ChatGPT erkennen, wenn Menschen in einer Krise stecken? Und was passiert, wenn sie versagen?

Quelle: Golem.de – Eltern verklagen OpenAI nach Suizid ihres Sohnes

Leave a Reply

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.