AI kann durch „Schuldgefühle“ kooperativer werden

Einer AI „Schuldgefühle“ zu machen, damit sie kooperativer wird: Diesen Ansatz hat eine neue Studie verfolgt, die im Journal of the Royal Society Interface veröffentlicht wurde. Die Forschenden testeten dabei einen spieltheoretischen Ansatz, der auf dem klassischen „Gefangenendilemma“ basiert. Die Ergebnisse zeigen, dass Software-Agenten unter bestimmten Bedingungen tatsächlich kooperativer handeln können, wenn sie über eine Art Schuldempfinden verfügen. Dies könnte den Forschenden zufolge einen wichtigen Beitrag zur Entwicklung ethisch handelnder KI-Systeme leisten.
Experiment mit „Gefangenendilemma“
Die Tests verwendeten laut t3n eine Version des „Gefangenendilemmas“, bei dem Spieler in jeder Runde entscheiden mussten, ob sie kooperieren oder den anderen verraten. Kooperierten beide, erhielten sie jeweils eine Belohnung. Handelten beide egoistisch, bekamen sie eine Strafe. Wenn nur einer kooperierte und der andere egoistisch handelte, profitierte Letzterer besonders stark, während der kooperative Spieler die größte Strafe erhielt. In diesem Szenario traten Gruppen von Agenten mit unterschiedlich programmierten Schuld-Strategien wiederholt gegeneinander an.
Das Forschungsteam modellierte bei diesem Experiment zwei Arten von Schuld: soziale und nicht-soziale. Bei sozialer Schuld fühlten sich die Agenten schuldig, wenn sie wussten, dass sich ihr Gegner ebenfalls schuldig fühlen würde. Bei nicht-sozialer Schuld entstand das Schuldgefühl unabhängig vom Gegner. Um dieses Empfinden zu implementieren, statteten die Forschenden die Agenten mit einem Zähler für unkooperative Handlungen aus. Überschreitete dieser einen definierten Schwellenwert, reagieren die Agenten, indem sie einen Teil ihrer Punkte aufgaben – was letztlich zu mehr Kooperation führte.
Schuldgefühle für ethische AI
Laut der Studie war die soziale Schuld besonders wirksam, um die Kooperation der Agenten zu fördern. Die Autor:innen sehen darin ein vielversprechendes Konzept für die Entwicklung ethischer KI-Systeme. Der Bau ethischer Maschinen könnte ihnen demnach die emotionale Fähigkeit verleihen, sich selbst zu bewerten und ihre Handlungen zu bereuen. Wenn KI-Agenten mit der Fähigkeit ausgestattet werden, Schuld zu empfinden, könnten sie sich Fehlverhalten eingestehen und sogar Maßnahmen zur Wiedergutmachung ergreifen.
Trotz der vielversprechenden Ergebnisse bleibt fraglich, inwiefern sich diese vereinfachten Simulationen mit Software-Agenten auf komplexere, auf LLMs basierende KI-Systeme übertragen lassen. Bei den Tests kamen einfache Software-Agenten ohne KI zum Einsatz, was die direkte Anwendbarkeit auf moderne AI-Systeme einschränkt. Dennoch liefern die Ergebnisse wichtige Hinweise darauf, wie die Ausstattung von KI-Agenten mit emotionsähnlichen Mechanismen ihre Entscheidungsfindung beeinflussen könnte.