Künstliche Intelligenzen wie ChatGPT lernen nicht nur von Daten, sondern auch voneinander – und dabei entwickeln sie teilweise ganz eigene soziale Normen. Forscher:innen der Universität Stanford und der Technischen Universität München haben in einem Experiment herausgefunden, dass KI-Agenten in einer simulierten Welt durch wiederholte Interaktion eigene Verhaltensregeln etablieren. Das bedeutet: Auch ohne explizite Vorgaben übernehmen KI-Systeme Muster aus der Kommunikation mit anderen KIs – inklusive Kooperationsstrategien und stillschweigender Übereinkünfte.
In dem Versuch wurden mehrere KI-Agenten auf ein soziales Dilemma angesetzt – ein klassisches Problem aus der Spieltheorie, bei dem Eigeninteresse und Gemeinschaftswohl in Konflikt stehen. Dabei zeigte sich, dass sich die Agenten nach einigen Runden an stillschweigend angenommene Normen hielten, die sie selbst entwickelt hatten. Überraschend war vor allem die Stabilität dieser neuen Regeln. Sie blieben auch dann bestehen, wenn neue Agenten hinzukamen – ganz ähnlich wie in echten sozialen Gruppen unter Menschen.
Die Studie wirft ein neues Licht auf die Frage, wie KI-Systeme sich im Zusammenspiel entwickeln und welche Dynamiken dabei entstehen. Für die KI-Forschung ist das ein wichtiger Hinweis: KIs sind nicht nur technische Systeme, sondern entwickeln eine Art „sozialen Charakter“, wenn sie im Kollektiv agieren. Das könnte weitreichende Folgen für den Einsatz in Gesellschaft und Wirtschaft haben – etwa bei der Automatisierung von Entscheidungsprozessen oder in Multi-Agenten-Systemen.
Quelle: t3n.de