Google nutzt YouTube-Videos für KI-Training – Content Creator bleiben außen vor

YouTube-Creator sind alarmiert: Google verwendet Inhalte der eigenen weltweit größten Videoplattform für das Training seiner Künstlichen Intelligenz – und das, ohne die betroffenen User aktiv zu informieren oder ihnen Widerspruchsmöglichkeiten einzuräumen.
Von der Videoplattform zur Datenquelle für KI: Google hat gegenüber dem US-Sender CNBC bestätigt, YouTube-Videos für das Training seiner KI-Modelle zu nutzen – darunter auch Gemini sowie den Video- und Audio-Generator Veo 3. Zwar betont das Unternehmen, nur eine Teilmenge der Videos zu verwenden, doch angesichts der mehr als 20 Milliarden Videos auf der Plattform ergibt sich selbst bei nur einem Prozent Nutzung eine gewaltige Datenbasis. Expert:innen schätzen das Trainingsmaterial auf etwa 2,3 Milliarden Minuten – rund 40-mal mehr als viele konkurrierende KI-Projekte nutzen.
Content Creator oft ahnungslos
Besonders brisant: Die meisten YouTube-Creator wissen nicht, dass ihre Inhalte zur Schulung von Künstlicher Intelligenz verwendet werden können. „Es ist plausibel, dass sie Daten von vielen Kreativen verwenden, die viel Zeit und Energie in ihre Videos investiert haben“, sagt Luke Arrigoni, CEO des Datenschutzunternehmens Loti.
Ein weiterer Kritikpunkt ist die fehlende Opt-out-Möglichkeit. Zwar können YouTube-Nutzer:innen verhindern, dass ihre Inhalte Drittanbietern wie Amazon oder Apple zur Verfügung gestellt werden – für Googles eigene KI-Forschung gilt das allerdings nicht. Grund dafür sind die weitreichenden Lizenzbestimmungen der Plattform: „Durch das Bereitstellen von Inhalten gewähren Sie YouTube eine weltweite, nicht-exklusive, gebührenfreie, unterlizenzierbare und übertragbare Lizenz“, heißt es in den Nutzungsbedingungen.
Juristische Grauzonen und ethische Fragen
Die Debatte um KI-Training hat mittlerweile auch eine rechtliche Dimension. Einige Expert:innen warnen vor einer drohenden Urheberrechtskrise. Dan Neely, CEO des Unternehmens Vermillio, berichtet bereits von einer Zunahme gefälschter Inhalte, in denen echte Creator durch KI-Modelle imitiert werden – ohne deren Zustimmung oder Kontrolle.
YouTube selbst äußert sich so: „Wir haben schon immer YouTube-Inhalte genutzt, um unsere Produkte zu verbessern, und das hat sich mit dem Aufkommen der KI nicht geändert. Deshalb haben wir in robuste Schutzmaßnahmen investiert, die es den Urheber:innen ermöglichen, ihr Bild und ihr Abbild in der KI-Ära zu schützen.“ Google versucht der Kritik mit verschiedenen Maßnahmen zu begegnen. So bietet das Unternehmen eine Entschädingungsklausel für seine generativen KI-Produkte an. Darüber hinaus arbeitet Google mit der renommierten Creative Artists Agency zusammen, um prominenten Creatorn Werkzeuge zur Erkennung und Verwaltung KI-generierter Inhalte bereitzustellen.
Doch diese Angebote erreichen nur einen Bruchteil der Nutzer:innen – in erster Linie große Namen. Die breite Masse der YouTube-Schaffenden bleibt weiterhin außen vor. Die zentrale Frage bleibt damit ungelöst: Wer entscheidet, wie öffentlich verfügbare Inhalte in einer zunehmend KI-gesteuerten Welt verwendet werden dürfen?
Midjourney steigt in Video-KI ein, kontert OpenAIs Sora und Googles Veo 3