„Sollten KI-Systeme das Niveau von AGI erreichen, würden sie verstaatlicht werden“
Im AI Talk Podcast Nummer 68 analysieren die Hosts Clemens Wasner (Gründer von Enlite AI und AI Austria) und Jakob Steinschaden (Mitgründer von Trending Topics und newsrooms) die jüngsten Entwicklungen rund um die Zusammenarbeit von KI-Unternehmen mit dem US-Verteidigungsministerium. Im Zentrum steht die unterschiedliche Positionierung von Anthropic und OpenAI gegenüber militärischen Anwendungen ihrer Technologien.
Die Ausgangslage: Anthropic lehnt Pentagon-Deal ab
Laut Wasner hat US-Verteidigungsminister Pete Hegseth Anthropic als „systemic risk“ eingestuft, nachdem Verhandlungen über einen Vertrag gescheitert waren. Der Grund: Anthropic wollte vertraglich ausschließen, dass ihre KI-Tools für Massenüberwachung amerikanischer Staatsbürger (Mass Surveillance) sowie für autonome Waffensysteme eingesetzt werden.
„Anthropic wollte sich nicht in die nächsten Leaks drinnen sehen, wo es dann heißt, Anthropic hat genau dasselbe Eigentor geschossen wie bei der Massenüberwachung von US-Bürgern in den 2010er Jahren“, erklärt Wasner mit Verweis auf die Snowden-Enthüllungen.
Steinschaden ergänzt, dass CEO Dario Amodei damit in Kauf nimmt, Millionen Dollar Umsatz und mögliche Geschäftspartner zu verlieren. Tatsächlich kündigte bereits Lockheed Martin an, Anthropic-Tools auszuphasen.
OpenAI springt ein: Sam Altmans Schachzug
Während Anthropic ablehnte, schloss OpenAI den Deal mit dem Pentagon ab. Sam Altman versuchte , die Situation zu beruhigen und versicherte, dass ähnliche Einschränkungen gelten würden. Wasner kommentiert kritisch:
„Sam Altman wollte als weißer Ritter auftreten und Anthropic in Schutz nehmen. Das hat das Ganze erst so richtig befeuert.“
OpenAI kommunizierte nachträglich, dass ihre KI-Technologie nicht für Massenüberwachung im Inland, nicht zur Steuerung autonomer Waffensysteme und nicht für automatisierte Hochrisiko-Entscheidungen wie Sozialkreditsysteme genutzt werden dürfe.
Der entscheidende Unterschied: Inlands- vs. Auslandsüberwachung
Beide Hosts weisen auf eine wichtige Einschränkung hin: Sowohl Anthropic als auch OpenAI haben lediglich die Überwachung von US-Bürgern ausgeschlossen. Steinschaden stellt fest:
„Völlig okay sind sie offenbar damit, dass alle anderen außerhalb der US-Grenzen überwacht werden, also auch wir hier in Europa, mit Hilfe dieser KI-Systeme.“
Wasner ergänzt, dass dies der Realität von Signal Intelligence entspricht und historisch etabliert ist. Die Einschränkung auf US-Bürger sei nachvollziehbar, da die NSA ohnehin für Auslandsaufklärung zuständig sei.
Marktreaktion: Nutzer wandern ab
Die Entscheidungen hatten unmittelbare Auswirkungen auf die Nutzerzahlen:
- ChatGPT-Deinstallationen haben sich vervierfacht
- Claude (Anthropics Chatbot) kletterte in mehreren Märkten (USA, Deutschland, Kanada, Australien) auf Platz 1 der Download-Charts
- Der annualisierte Umsatz (ARR) von Anthropic stieg von 10 Milliarden Ende 2024 auf 20 Milliarden im März 2025
- Anthropic bietet ein Tool an, um ChatGPT-Memory einfach zu Claude zu migrieren
Null Burggraben: Die fehlende Kundenbindung
Wasner hebt einen bemerkenswerten Aspekt hervor: Die KI-Anbieter haben praktisch keinen „Moat“ (Burggraben), also keine technische Kundenbindung. Der Wechsel zwischen Anbietern sei extrem einfach:
„Du kannst so einfach von einem Anbieter auf den anderen umziehen, das ist unglaublich. Im Endeffekt bist du in fünf Minuten umgezogen, fertig ist der Lachs.“
Steinschaden präzisiert, dass es nicht einmal ein Software-Tool braucht: Man fügt einen Prompt bei ChatGPT ein, erhält eine kleine Textdatei und lädt diese bei Anthropic hoch. Diese fehlende Kundenbindung sollte laut Wasner Investoren zu denken geben.
Europäische Perspektive: Mistral schweigt
Steinschaden weist auf eine bemerkenswerte Diskrepanz hin: Während in Europa der Aufschrei gegen OpenAI groß war, verhielt sich das europäische Vorzeigeunternehmen Mistral auffällig still. Der Grund:
- Mistral hat bereits Deals mit dem französischen Verteidigungsministerium für militärische Anwendungen und Robotik-Forschung
- Zusammenarbeit mit dem deutschen KI-Defense-Unternehmen Helsing im Bereich elektronischer Kriegsführung und Kampfdrohnen
„Die machen das eigentlich schon, was man jetzt OpenAI vorwirft, wahrscheinlich auf einem anderen Level“, so Steinschaden.
Historischer Kontext: Tech und Militär
Wasner ordnet die Entwicklung historisch ein: Die enge Verflechtung zwischen Tech-Industrie und Militär sei keineswegs neu, sondern eine Rückkehr zum Status quo. Von DARPA über die Manhattan-Projekte bis Silicon Valley habe diese Zusammenarbeit lange existiert und sei nur in den 2000er Jahren unterbrochen gewesen.
Als Beispiele für die aktuelle Entwicklung nennen die Hosts:
- Palmer Luckeys Anduril (Bewertung 40 bis 60 Milliarden Dollar) entwickelt autonome Waffensysteme
- Andreessen Horowitz hat einen Fonds namens „American Dynamism“ für Reindustrialisierung und staatliche Zusammenarbeit aufgesetzt
- Israels Unit 8200 als Pool für erfolgreiche Tech-Gründer im Cyber-Security-Bereich
Zukunftsperspektive: Verstaatlichung möglich?
Wasner hebt eine bemerkenswerte Konsens-Meinung hervor: Sollten KI-Systeme tatsächlich das Niveau von AGI (Artificial General Intelligence) erreichen, würden sie verstaatlicht werden. Diese Einschätzung teilen laut Wasner Andreessen Horowitz, Alex Karp von Palantir und Ben Thompson von Stratechery gleichermaßen.
Steinschaden spekuliert, ob dies möglicherweise OpenAIs langfristiger Plan sei, um Zugang zum enormen US-Militärbudget zu erhalten und die Bewertung von über 800 Milliarden Dollar zu rechtfertigen.
Fazit: Anthropic als kurzfristiger Gewinner
Die Podcast-Hosts sehen Anthropic Stand heute als Gewinner der Auseinandersetzung:
- Massiver Zustrom neuer zahlender Nutzer
- Positionierung als ethisch verantwortungsvolles Unternehmen
- Starkes Wachstum im B2B-Bereich durch Tools wie Claude Code und Cowork
- Demokraten im Finanz- und Verteidigungsausschuss wollen gegen die „systemic risk“-Einstufung klagen
Wasner fasst zusammen: „Der er Image-Schaden für OpenAI ist enorm.“ Gleichzeitig betonen beide, dass die langfristige Entwicklung noch offen sei, insbesondere angesichts der Konkurrenz durch Google Gemini und Meta AI.
Die grundsätzliche Frage bleibt laut den Hosts unbeantwortet: Kann und soll ein privates Unternehmen einem demokratisch legitimierten Staat vorschreiben, wofür er Technologie nutzen darf? Diese Debatte werde die KI-Branche weiter begleiten.


