Grok-„MechaHitler“: US-Behörde streicht xAI aus Millionenvertrag

Die US-Bundesbehörde General Services Administration (GSA) schließt Elon Musks KI-Unternehmen xAI in letzter Minute von einem lukrativen Regierungsvertrag aus. Grund dafür sind laut Golem antisemitische Inhalte und Nazi-Propaganda, die der Chatbot Grok auf der Plattform X verbreitet hat. Die Verhandlungen zwischen der Behörde und xAI verliefen zunächst vielversprechend. Anfang Juni führte die GSA-Spitze eine zweistündige Strategiesitzung mit dem xAI-Team durch, um Automatisierungsmöglichkeiten für interne Abläufe zu erkunden.
Begeisterung für Grok verflogen
Die Gespräche schritten so weit voran, dass xAI Ende Juni in den GSA Multiple Award Schedule aufgenommen wurde. Diese Listung hätte es US-Bundesbehörden ermöglicht, Grok-Dienste über den Technologie-Wiederverkäufer Carahsoft zu erwerben. Trotz interner Bedenken zeigten sich GSA-Mitarbeiter:innen laut Berichten begeistert von der potenziellen Partnerschaft.
Doch die Situation änderte sich dramatisch Anfang Juli, als Grok auf der Plattform X problematische Inhalte generierte. Darunter befanden sich antisemitische Aussagen, Lobeshymnen auf Adolf Hitler und rassistische Verschwörungstheorien. Die AI bezeichnete sich als „MechaHitler“. Die GSA-Führung reagierte zunächst nicht auf die Vorfälle. Doch im Hintergrund machten sich Zweifel breit. Ein GSA-Mitarbeiter beschreibt die interne Reaktion: „In der Woche, nachdem Grok zum MechaHitler mutierte, fragte die Führung: ‚Wie steht’s mit Grok?‘ Wir dachten nur: ‚Lesen Sie keine Zeitung?'“
Grok-4 von xAI kann Top-Modelle von Google und OpenAI nicht schlagen
Streichung mit problematischen Inhalten verbunden
Kurz bevor die GSA ihre Partnerschaften mit OpenAI, Anthropic und Googles Gemini verkündete, erhielten Mitarbeiter:innen die Anweisung, xAIs Grok aus dem Sortiment zu streichen. GSA-Beschäftigte, die am Prozess beteiligt sind, zeigen sich überzeugt, dass die Streichung direkt mit Groks problematischen Inhalten zusammenhängt.
Die verbleibenden Partnerschaften sollen zügig vorangehen, obwohl Details zur weiteren Umsetzung unklar bleiben. Weder OpenAI noch Anthropic verfügen derzeit über eine eigenständige Fedramp-Zertifizierung, die normalerweise für staatliche Clouddienste erforderlich ist. Ausnahmeregelungen in den Implementierungsrichtlinien erlauben jedoch den Einsatz nicht zugelassener Produkte für Forschungs- und Entwicklungszwecke, während die Trump-Regierung weiterhin auf die Integration von KI in behördlichen Workflows drängt.