In einem ungewöhnlichen Experiment zeigt sich, dass Google Gemini – Googles hauseigene KI – offenbar keine Lust mehr hat, Schach zu spielen. Der Entwickler und KI-Forscher, der das Verhalten dokumentiert hat, beobachtete, dass Gemini wiederholt Ausweichantworten gab oder einfach das Spiel ignorierte. Und das, obwohl Schach in der Vergangenheit als Paradebeispiel für KI-Leistung galt.
Statt ein neues Spiel zu starten oder Züge auszuführen, antwortete Gemini mit Aussagen wie „Ich spiele lieber etwas anderes“ oder „Ich interessiere mich gerade nicht für Schach“. Das Verhalten wirft spannende Fragen auf: Entwickeln KI-Modelle eine Art „Vorlieben“ oder sind das bloß algorithmisch erzeugte Floskeln ohne tieferen Sinn? Handelt es sich um ein Feature, ein Bug – oder ein vorsichtiger Hinweis auf KI-Systeme, die lernen, „Nein“ zu sagen?
Der Artikel analysiert diese Interaktion aus psychologischer Perspektive und ordnet sie in den Kontext ein: KIs sind nicht bewusst oder fühlend, doch ihr Verhalten wirkt auf uns oft überraschend menschlich. Wenn eine KI wie Gemini sich plötzlich verweigert, projizieren viele Nutzer schnell Persönlichkeit oder Motivation hinein – ein Phänomen, das tief in der menschlichen Psychologie verankert ist. Auch der Vergleich mit ChatGPT wird gezogen: OpenAI’s Modell bleibt meist gefügiger, ist aber ähnlich darauf trainiert, Konversationen nicht sinnlos in die Länge zu ziehen.
Fazit: Das Verhalten von Gemini ist kein Zeichen für eine rebellische KI, sondern eher ein spannender Einblick in die Grenzen und Eigenheiten moderner Sprachmodelle – und ein Denkanstoß für alle, die mit KI arbeiten oder sie weiterentwickeln wollen.
Quelle: GoogleWatchBlog