Anthropic mit Werbeverbot bei Claude: Ads nicht mit hilfreichem KI-Assistent vereinbar
Anthropic, eigentlich eine Abspaltung von OpenAI rund um CEO Dario Amodei, entwickelt sich immer mehr zu einer Art Anti-OpenAI. Während der ChatGPT-Macher kürzlich damit begonnen hat, Werbung in Form von Sponsored Links in Chat-Antworten von kostenlosen bzw. wenig zahlenden Usern zu mischen, will Anthropic seinen Chatbot Claude frei von Werbung halten. Bei Google’s Gemini gibt es bisher ebenfalls keine Werbung, auch soll es aktuell keine Pläne dazu geben.
Das KI-Unternehmen Anthropic hat bekannt gegeben, dass sein Chatbot Claude dauerhaft werbefrei bleiben wird. In einer ausführlichen Stellungnahme begründet das Unternehmen diese Entscheidung mit der besonderen Natur von KI-Konversationen und grenzt sich damit implizit von Konkurrenten ab, die Werbemodelle erwägen oder bereits implementieren.
Grundsätzliche Position zu Werbung
Anthropic betont, dass Werbung grundsätzlich wichtige Funktionen erfüllt: Sie fördert Wettbewerb, hilft bei der Produktentdeckung und ermöglicht kostenlose Dienste. Das Unternehmen hat selbst Werbekampagnen durchgeführt und unterstützt Kunden aus der Werbebranche. Dennoch sieht Anthropic Werbung in KI-Konversationen als unvereinbar mit dem Anspruch, ein „genuinely helpful assistant“ zu sein.
Die zentrale Aussage lautet: Claude soll eindeutig im Interesse der Nutzer handeln. Es wird weder gesponserte Links neben Konversationen geben, noch werden Antworten von Werbetreibenden beeinflusst oder unaufgeforderte Produktplatzierungen enthalten.
Unterschied zu Suchmaschinen und Social Media
Anthropic argumentiert, dass KI-Konversationen sich grundlegend von Suchmaschinen oder sozialen Medien unterscheiden. Während Nutzer dort eine Mischung aus organischen und gesponserten Inhalten erwarten, sei das Konversationsformat offener. Nutzer teilten mehr Kontext und persönliche Informationen als bei Suchanfragen.
Analysen von Claude-Konversationen zeigen laut Anthropic, dass ein erheblicher Anteil sensible oder zutiefst persönliche Themen betrifft, vergleichbar mit Gesprächen mit einem vertrauenswürdigen Berater. Andere Nutzungsszenarien umfassen komplexe Software-Engineering-Aufgaben oder tiefgehendes Nachdenken über schwierige Probleme. In diesen Kontexten würden Werbeanzeigen unpassend oder unangemessen wirken.
Problematische Anreizstrukturen
Ein werbebasiertes Geschäftsmodell würde laut Anthropic Anreize schaffen, die dem Grundprinzip „genuinely helpful“ widersprechen könnten. Das Unternehmen illustriert dies am Beispiel eines Nutzers mit Schlafproblemen:
Ein Assistent ohne Werbeanreize würde verschiedene potenzielle Ursachen erkunden, basierend darauf, was für den Nutzer am aufschlussreichsten sein könnte. Ein werbegestützter Assistent hätte eine zusätzliche Überlegung: ob das Gespräch eine Gelegenheit für eine Transaktion bietet.
Selbst Werbung, die nicht direkt die Antworten des Modells beeinflusst, sondern separat im Chat-Fenster erscheint, würde problematische Anreize schaffen. Sie würde zu einer Optimierung auf Engagement führen, also auf die Zeit, die Nutzer mit Claude verbringen. Diese Metriken seien nicht notwendigerweise mit echter Hilfsbereitschaft vereinbar, da die nützlichste KI-Interaktion möglicherweise eine kurze sei.
Geschäftsmodell und Zugang
Anthropic setzt stattdessen auf ein direktes Geschäftsmodell: Einnahmen werden durch Unternehmensverträge und kostenpflichtige Abonnements generiert und in die Verbesserung von Claude reinvestiert. Das Unternehmen räumt ein, dass diese Entscheidung Kompromisse mit sich bringt und andere KI-Unternehmen zu anderen Schlussfolgerungen kommen könnten.
Um den Zugang zu erweitern, ohne auf Werbung zu setzen, hat Anthropic verschiedene Initiativen gestartet:
- KI-Tools und Schulungen für Lehrkräfte in über 60 Ländern
- Nationale KI-Bildungspilotprojekte mit mehreren Regierungen
- Vergünstigter Zugang für gemeinnützige Organisationen
- Investitionen in kleinere Modelle, um das kostenlose Angebot leistungsfähig zu halten
Das Unternehmen erwägt zudem günstigere Abonnement-Stufen und regionale Preisgestaltung, wo klare Nachfrage besteht.
Kommerzielle Interaktionen auf Nutzerwunsch
Anthropic schließt kommerzielle Funktionen nicht grundsätzlich aus, betont aber ein entscheidendes Designprinzip: Interaktionen mit Dritten sollen vom Nutzer initiiert werden, nicht von Werbetreibenden. Das Unternehmen interessiert sich besonders für „agentic commerce“, bei dem Claude im Auftrag des Nutzers Käufe oder Buchungen durchführt.
Nutzer können bereits Drittanbieter-Tools wie Figma, Asana und Canva direkt in Claude integrieren. Weitere Integrationen sind geplant. Bei allen gilt: Die KI arbeitet für den Nutzer, nicht für einen Werbetreibenden.
Implizite Kritik an Konkurrenten
Obwohl Anthropic keine Konkurrenten namentlich nennt, richtet sich die Positionierung erkennbar gegen Unternehmen, die Werbemodelle für ihre KI-Assistenten erwägen oder einführen. Die Betonung, dass andere Unternehmen „reasonably reach different conclusions“ könnten, ist eine diplomatische Formulierung, die dennoch eine klare Abgrenzung markiert.
Die Analogie am Ende der Stellungnahme unterstreicht diese Position: „Open a notebook, pick up a well-crafted tool, or stand in front of a clean chalkboard, and there are no ads in sight. We think Claude should work the same way.“
Langfristige Perspektive
Anthropic verpflichtet sich zu Transparenz, sollte eine Änderung dieser Politik jemals notwendig werden. Das Unternehmen verweist auf die Geschichte werbegestützter Produkte, bei denen Werbeanreize nach ihrer Einführung tendenziell im Laufe der Zeit expandieren und einst klare Grenzen verschwimmen lassen.
Die Entscheidung gegen Werbung wird als grundlegend für die Vision von Claude als „trusted tool for thought“ dargestellt, ein Werkzeug, dem Nutzer bei ihrer Arbeit, ihren Herausforderungen und Ideen vertrauen können.

