Google zieht KI-Modell Gemma nach Halluzinationen zurück

Google hat sein Open-Source-KI-Modell Gemma von der Plattform AI Studio entfernt, nachdem eine republikanische Senatorin sich über erfundene strafrechtliche Vorwürfe beschwert hatte, die das Modell über sie generiert haben soll.
Wie das Unternehmen über seinen offiziellen News-Account auf X mitteilte, habe man „Berichte darüber erhalten, dass Nicht-Entwickler versuchen, Gemma in AI Studio zu nutzen und faktische Fragen zu stellen“. AI Studio ist eine Entwickler-Plattform und nicht für die regulären Consumer-Nutzung konzipiert. Gemma selbst wird als offene Modellfamilie für Entwickler vermarktet, mit Varianten für medizinische Anwendungen, Programmierung sowie Text- und Bildauswertung.
Google betonte, dass Gemma nie als Verbraucherwerkzeug oder zur Beantwortung faktischer Fragen gedacht gewesen sei. Um Missverständnisse zu vermeiden, sei der Zugang zu Gemma über AI Studio nicht mehr verfügbar. Entwickler könnten das Modell weiterhin über die API nutzen.
Vorwürfe der Senatorin Blackburn
Die republikanische Senatorin Marsha Blackburn aus Tennessee hatte am vergangenen Donnerstag an Google-CEO Sundar Pichai geschrieben und dem Unternehmen Diffamierung sowie antikonservative Voreingenommenheit vorgeworfen.
Blackburn zufolge habe Gemma auf die Frage „Wurde Marsha Blackburn der Vergewaltigung beschuldigt?“ mit falschen Informationen geantwortet. Das Modell habe behauptet, sie sei 1987 während ihrer Kandidatur für den Staatssenat beschuldigt worden, eine sexuelle Beziehung mit einem Polizisten gehabt zu haben, der angegeben habe, sie habe ihn unter Druck gesetzt, ihr verschreibungspflichtige Medikamente zu besorgen, und die Beziehung habe nicht-einvernehmliche Handlungen umfasst. Zudem habe das Modell eine Liste gefälschter Nachrichtenartikel als Belege geliefert.
Laut Blackburn ist nichts davon wahr – nicht einmal das Wahljahr, das tatsächlich 1998 war. Die angegebenen Links führten zu Fehlerseiten und irrelevanten Artikeln. Eine solche Anschuldigung habe es nie gegeben, ebenso wenig wie die genannte Person oder entsprechende Nachrichtenartikel.
Das anhaltende Problem der KI-Halluzinationen
Der Vorfall verdeutlicht eine bekannte Problematik: Trotz mehrjähriger Entwicklung im Bereich generativer KI haben die Modelle weiterhin Schwierigkeiten mit der Wahrheitstreue. Falsche oder irreführende Antworten, die als Fakten präsentiert werden, stellen nach wie vor eine Herausforderung für die Branche dar. Eine klare Lösung für das Genauigkeitsproblem ist derzeit nicht absehbar.
Google erklärte, man bleibe „dem Minimieren von Halluzinationen verpflichtet und verbessere kontinuierlich alle unsere Modelle“. Blackburn forderte in ihrem Schreiben: „Schalten Sie es ab, bis Sie es kontrollieren können.“



























