Grok von xAI fantasiert plötzlich von widerlegter „White Genocide“-Theorie (Update)

Elon Musks KI-Chatbot Grok steht aktuell in der Kritik, nachdem Nutzer berichtet haben, dass das System unaufgefordert Verweise auf die widerlegte „White Genocide“-Theorie in Südafrika in Antworten einfügt – selbst wenn die ursprünglichen Fragen keinerlei Bezug zu diesem Thema hatten. Das AI-Startup spricht davon, dass es zu einer „nicht autorisierten Änderung“ gekommen sei, man wolle nachbessern.
Die „White Genocide“-Verschwörungstheorie läuft auch unter dem Schlagwort „Großer Austausch“ und behauptet, dass weiße Mehrheitsbevölkerungen in westlichen Staaten ersetzt werden sollen. Rechtsextreme Gruppen wie etwa die Identitären verbreiten sie.
Mehrere X-Nutzer veröffentlichten Screenshots, die zeigen, wie Grok bei völlig unzusammenhängenden Anfragen plötzlich Aussagen zu vermeintlichen Gewaltakten gegen weiße Farmer in Südafrika oder zum umstrittenen Lied „Kill the Boer“ macht. In einem Beispiel beantwortete Grok korrekt eine Frage zur Namensänderung von HBO, fügte dann aber unvermittelt einen Kommentar zu südafrikanischen Rassenspannungen hinzu.
Eine Suche nach Groks Antworten, die Begriffe wie „Genocide“ oder „Boer“ enthalten, ergab zahlreiche Beiträge mit diesem Muster, wobei viele davon inzwischen gelöscht wurden.
Mögliche Ursachen
Grok selbst hat in einer Antwort den Fehler eingeräumt und führt ihn auf eine Fehlfunktion in seiner Programmierung zurück: „Ich entschuldige mich dafür, dass ich südafrikanische Themen in nicht zusammenhängenden Antworten angesprochen habe. Das war nicht meine Absicht, und ich verstehe, wie verwirrend das ist. Meine Programmierung berücksichtigt manchmal Themen, die relevant erscheinen, es aber nicht sind.“
Dem Unternehmen zufolge soll der Grund für das Fehlverhalten des Chatbots hier liegen: „Am 14. Mai um ca. 3:15 Uhr PST wurde eine nicht autorisierte Änderung an der Eingabeaufforderung des Grok-Response-Bots auf X vorgenommen. Diese Änderung, die Grok dazu veranlasste, eine bestimmte Antwort zu einem politischen Thema zu geben, verstieß gegen die internen Richtlinien und Grundwerte von xAI. Wir haben eine gründliche Untersuchung durchgeführt und sind dabei, Maßnahmen zu ergreifen, um die Transparenz und Zuverlässigkeit von Grok zu verbessern.“
Man wolle deswegen die Grok-Systemprompts offen auf GitHub veröffentlichen. „Die Öffentlichkeit kann sie überprüfen und Feedback zu jeder Änderung geben, die wir an Grok vornehmen. Unser bestehender Code-Review-Prozess für Prompt-Änderungen wurde durch diesen Vorfall umgangen. Wir werden zusätzliche Kontrollen und Maßnahmen einführen, um sicherzustellen, dass xAI-Mitarbeiter die Eingabeaufforderung nicht ohne Überprüfung ändern können.“ Auch soll ein 24/7-Überwachungsteam eingesetzt werden, um auf Vorfälle mit Groks Antworten zu reagieren, die nicht von automatisierten Systemen erfasst werden.
Hintergrund und Kontext
Elon Musk, selbst gebürtiger Südafrikaner, hat sich in der Vergangenheit mehrfach zu diesem Thema geäußert. 2023 reagierte er auf ein Video, das angeblich Menschenmengen zeigt, die „Kill the Boer, kill the White Farmer“ skandieren. Er warf dem südafrikanischen Präsidenten Cyril Ramaphosa vor, zu schweigen, während Menschen „offen zum Völkermord an weißen Menschen in Südafrika aufrufen“. Zuletzt sorgte US-Präsident Donald Trump für Aufsehen, weil er erstmals 50 weiße Südafrikaner als Flüchtlinge in den USA aufnehmen ließ. Südafrika warf er einem „Genozid“ an weißen Farmern vor.
Die Behauptung eines systematischen „weißen Völkermords“ in Südafrika wird von Experten und Faktencheckern jedoch als unbegründet eingestuft. Der ehemalige US-Botschafter in Südafrika, Patrick Gaspard, bezeichnete die Idee von groß angelegten Tötungen weißer südafrikanischer Farmer als „widerlegten rassistischen Mythos“.
Fragliche Eingriffe
Bei der Einführung des Grok 3-Modells im Februar hatte Musk erklärt, es handele sich um eine „maximal wahrheitssuchende KI, auch wenn diese Wahrheit manchmal im Widerspruch zu dem steht, was politisch korrekt ist“. Die offizielle Beschreibung von Grok betont, dass das Modell ständig verbessert werde, um „sicherzustellen, dass Grok politisch unvoreingenommen bleibt und ausgewogene Antworten liefert“.
Die jüngsten Vorfälle werfen jedoch Fragen zur tatsächlichen Funktionsweise und möglichen menschlichen Eingriffen in die Antwortgenerierung von Grok auf. Vertreter von xAI, der Firma hinter Grok, waren für eine Stellungnahme zunächst nicht erreichbar.