Google rollt Videogenerator Veo3 weltweit aus, löst Flut rassistischer Clips aus

Google hat seine Video-KI Veo 3 im Dezember in über 159 Ländern für zahlende Abonnenten des AI Pro-Plans ausgerollt. Das System kann aus Texteingaben bis zu acht Sekunden lange Videos generieren, ist jedoch auf drei Videos pro Tag begrenzt.
Das Besondere im Unterschied zu Sora von OpenAI: Die Videos können auch vertont werden, unter anderem mit Musik oder sprechenden KI-generierten Menschen. Das hat unter anderem dazu geführt, dass sich nun via Social Media rassistische Witze, oft in Form von KI-generierten Straßen-Interviews, verbreiten und millionenfach gesehen werden.
Missbrauch auf TikTok festgestellt
Kurz nach der Einführung sind auf TikTok vermehrt rassistische und antisemitische Videos aufgetaucht, die mit Veo 3 erstellt wurden. Die Clips sind am charakteristischen Wasserzeichen der Google-KI erkennbar und verbreiten Stereotype gegen verschiedene Bevölkerungsgruppen.
Das Tech-Portal Ars Technica konnte die problematischen Inhalte mit einfachen Texteingaben reproduzieren, was darauf hindeutet, dass Googles angekündigte Sicherheitsvorkehrungen nicht vollständig greifen. Bei der Vorstellung hatte Google betont, dass Schutzmaßnahmen die Erstellung regelwidriger Inhalte verhindern sollen.
Plattform-Verantwortung und Moderation
TikTok verbietet in seinen Community-Richtlinien explizit „Hassreden, hasserfülltes Verhalten oder die Förderung hasserfüllter Ideologien“. Ein Sprecher der Plattform erklärte gegenüber Ars Technica, dass sowohl menschliche Moderatoren als auch automatisierte Systeme eingesetzt werden. Die große Menge täglich hochgeladener Videos erschwere jedoch eine zeitnahe Moderation.
Nach Bekanntwerden der Vorfälle wurden die identifizierten Konten gesperrt. Mehr als die Hälfte der von Media Matters gemeldeten Profile war bereits vor Veröffentlichung des Berichts gelöscht worden.
Herausforderungen bei KI-Sicherheit
Experten führen die Umgehung der Sicherheitsmaßnahmen auf mehrdeutige Eingaben und die begrenzte Fähigkeit von KI-Systemen zurück, rassistische Stereotype zu erkennen. Dies verdeutlicht die anhaltenden Schwierigkeiten bei der Implementierung effektiver Schutzmaßnahmen für generative KI.
Google arbeitet nach eigenen Angaben an der Erweiterung von Veo um Bild-zu-Video-Funktionen. Gleichzeitig werfen die aktuellen Vorfälle Fragen zur Wirksamkeit der Sicherheitsvorkehrungen bei der beschleunigten Einführung neuer KI-Technologien auf.