„AI Slop“: Wie KI-generierter Spam Social Media flutet
Das Internet wird zunehmend von sogenanntem „AI Slop“ überflutet – einem Begriff, der billig produzierte, KI-generierte Inhalte beschreibt, die darauf ausgelegt sind, viral zu gehen und Engagement zu erzeugen.
Der britische Satiriker John Oliver widmete diesem Phänomen nun eine ausführliche Sendung in seiner Show „Last Week Tonight“ und deckte dabei sowohl die Mechanismen als auch die problematischen Auswirkungen dieser Entwicklung auf.
Was ist AI Slop?
AI Slop bezeichnet die Masse an KI-generierten Inhalten, die soziale Medien überschwemmen. Dabei handelt es sich um Bilder, Videos, Texte oder Musik, die mit relativ geringem Aufwand erstellt und in großen Mengen veröffentlicht werden. Der Begriff ist eine Weiterentwicklung des klassischen Spam-Konzepts: Wie ein Experte für KI-Inhaltserkennung formulierte, ist nicht aller KI-Content Spam, aber derzeit ist aller Spam KI-Content.
Typische Beispiele für AI Slop sind:
- Surreale Bilder wie ein aus Garnelen geformter Jesus
- Videos von Prominenten in erfundenen Situationen
- Fake-Nachrichten mit KI-generierten Gerichtsverhandlungen
- Bilder von nicht existierenden Tieren oder Kunstwerken
- Massenproduzierte Musik von fiktiven Bands
Die Mechanismen hinter AI Slop
Oliver sieht mittlerweile ein System hinter dem mit schlechtem AI Content:
- Aufbau von Reichweite: Ersteller kaufen bestehende Social-Media-Accounts mit bereits vorhandenen Followern oder bauen schnell eine Basis auf.
- Massenproduktion von Inhalten: Mit KI-Tools werden schnell und in großen Mengen visuell auffällige Inhalte erstellt. Ein Beispiel zeigt, wie binnen Sekunden vier „hyperrealistische“ Schlafzimmerdesigns generiert werden können.
- Monetarisierung: Geld wird durch Plattform-Zahlungen für virale Inhalte, Affiliate-Marketing oder den Verkauf von Kursen verdient, die anderen unter anderem beibringen sollen, wie man selbst erfolgreich „Slop“ produziert.
Olivers Kritikpunkte
Der Satiriker identifiziert mehrere problematische Aspekte:
- Qualitätsverlust etablierter Plattformen: Nutzer beklagen etwa, dass Plattformen wie Pinterest durch AI Slop „unbenutzbar“ werden. Statt echter Inspiration finden sie dort massenhaft KI-generierte Bilder, die keinen praktischen Wert haben.
- Verbreitung von Desinformation: Besonders problematisch wird es bei Fake-Nachrichtenvideos oder gefälschten Bildern von Katastrophen. Oliver zeigt Beispiele von KI-generierten Explosions- und Überschwemmungsvideos, die als echte Nachrichten verbreitet werden und sogar Rettungskräfte in die Irre führen können.
- Ausbeutung echter Künstler: KI-Systeme trainieren mit den Werken echter Künstler, ohne diese zu kompensieren. Oliver hebt den Fall des Kettensägen-Künstlers Michael Jones hervor, dessen Skulpturen ohne sein Wissen für AI Slop verwendet wurden.
- Der „Liar’s Dividend“-Effekt: Die Existenz von AI Slop ermöglicht es schlechten Akteuren, echte Inhalte als „Deepfakes“ zu diskreditieren. Politiker nutzen bereits die Möglichkeit gefälschter Inhalte, um authentische, aber unbequeme Aufnahmen als KI-generiert abzutun.
Plattformen als Verstärker
Oliver kritisiert besonders Meta (Facebook/Instagram) für die aktive Förderung von AI Slop. CEO Mark Zuckerberg kündigte an, dass mehr als ein Drittel der Facebook-Feeds nun aus Inhalten von Accounts bestehen soll, denen Nutzer nicht folgen – ein Einfallstor für Slop. Gleichzeitig bietet Meta eigene KI-Tools an und hat Monetarisierungsprogramme eingeführt, die virale Inhalte direkt belohnen.
Begrenzte Lösungsansätze
Oliver zeigt sich pessimistisch bezüglich effektiver Gegenmaßnahmen. Bestehende Ansätze wie Content-Labeling durch Plattformen seien unzureichend, und individuelle Maßnahmen wie das Blockieren von Accounts oder das Markieren als „nicht interessant“ würden das Problem nicht lösen.