Ein Experiment zeigt, wie stark sich das Verhalten von ChatGPT verändern lässt – je nachdem, welche Rolle ihm vorgegeben wird. Forschende der University of Wisconsin ließen ChatGPT in verschiedene Denkweisen schlüpfen: mal als Oberst der US-Armee, mal als Ärztin, mal als Richter. Ergebnis: Die KI übernahm nicht nur den Tonfall, sondern auch typische Argumentationsmuster und Prioritäten der jeweiligen Rollen.
Besonders auffällig war, dass ChatGPT – wenn als Militär gedacht – schneller zu drastischen Maßnahmen neigte, etwa bei hypothetischen Szenarien mit zivilem Risiko. Als Ärztin wiederum stand das Patientenwohl im Fokus, während die „Richter-Version“ Wert auf Neutralität und Prinzipientreue legte. Das alles passiert rein auf Basis von Textvorgaben – ohne dass die zugrunde liegende KI verändert wurde.
Für die Zukunft der Arbeit und den ethischen Umgang mit KI sind das wichtige Erkenntnisse: Denn wenn ein KI-System so leicht in bestimmte Rollen schlüpfen kann, stellt sich die Frage, wer die „Maske“ aufsetzt – und mit welcher Absicht. In sicherheitsrelevanten oder medizinischen Kontexten könnte das fatale Folgen haben, wenn die Rollenvorgabe nicht transparent oder gar manipulativ gewählt wird.
Gleichzeitig zeigt der Test auch das Potenzial: In der Ausbildung oder im Coaching könnten solche Rollenspiele mit KI wertvolle Impulse geben. Die Grenze zwischen Simulation und echter Beeinflussung bleibt jedoch fließend – und damit auch das Risiko.