Podcast

„Sollten KI-Systeme das Niveau von AGI erreichen, würden sie verstaatlicht werden“

Im AI Talk Podcast Nummer 68 analysieren die Hosts Clemens Wasner (Gründer von Enlite AI und AI Austria) und Jakob Steinschaden (Mitgründer von Trending Topics und newsrooms) die jüngsten Entwicklungen rund um die Zusammenarbeit von KI-Unternehmen mit dem US-Verteidigungsministerium. Im Zentrum steht die unterschiedliche Positionierung von Anthropic und OpenAI gegenüber militärischen Anwendungen ihrer Technologien.

Die Ausgangslage: Anthropic lehnt Pentagon-Deal ab

Laut Wasner hat US-Verteidigungsminister Pete Hegseth Anthropic als „systemic risk“ eingestuft, nachdem Verhandlungen über einen Vertrag gescheitert waren. Der Grund: Anthropic wollte vertraglich ausschließen, dass ihre KI-Tools für Massenüberwachung amerikanischer Staatsbürger (Mass Surveillance) sowie für autonome Waffensysteme eingesetzt werden.

„Anthropic wollte sich nicht in die nächsten Leaks drinnen sehen, wo es dann heißt, Anthropic hat genau dasselbe Eigentor geschossen wie bei der Massenüberwachung von US-Bürgern in den 2010er Jahren“, erklärt Wasner mit Verweis auf die Snowden-Enthüllungen.

Steinschaden ergänzt, dass CEO Dario Amodei damit in Kauf nimmt, Millionen Dollar Umsatz und mögliche Geschäftspartner zu verlieren. Tatsächlich kündigte bereits Lockheed Martin an, Anthropic-Tools auszuphasen.

OpenAI springt ein: Sam Altmans Schachzug

Während Anthropic ablehnte, schloss OpenAI den Deal mit dem Pentagon ab. Sam Altman versuchte , die Situation zu beruhigen und versicherte, dass ähnliche Einschränkungen gelten würden. Wasner kommentiert kritisch:

„Sam Altman wollte als weißer Ritter auftreten und Anthropic in Schutz nehmen. Das hat das Ganze erst so richtig befeuert.“

OpenAI kommunizierte nachträglich, dass ihre KI-Technologie nicht für Massenüberwachung im Inland, nicht zur Steuerung autonomer Waffensysteme und nicht für automatisierte Hochrisiko-Entscheidungen wie Sozialkreditsysteme genutzt werden dürfe.

Der entscheidende Unterschied: Inlands- vs. Auslandsüberwachung

Beide Hosts weisen auf eine wichtige Einschränkung hin: Sowohl Anthropic als auch OpenAI haben lediglich die Überwachung von US-Bürgern ausgeschlossen. Steinschaden stellt fest:

„Völlig okay sind sie offenbar damit, dass alle anderen außerhalb der US-Grenzen überwacht werden, also auch wir hier in Europa, mit Hilfe dieser KI-Systeme.“

Wasner ergänzt, dass dies der Realität von Signal Intelligence entspricht und historisch etabliert ist. Die Einschränkung auf US-Bürger sei nachvollziehbar, da die NSA ohnehin für Auslandsaufklärung zuständig sei.

Marktreaktion: Nutzer wandern ab

Die Entscheidungen hatten unmittelbare Auswirkungen auf die Nutzerzahlen:

  • ChatGPT-Deinstallationen haben sich vervierfacht
  • Claude (Anthropics Chatbot) kletterte in mehreren Märkten (USA, Deutschland, Kanada, Australien) auf Platz 1 der Download-Charts
  • Der annualisierte Umsatz (ARR) von Anthropic stieg von 10 Milliarden Ende 2024 auf 20 Milliarden im März 2025
  • Anthropic bietet ein Tool an, um ChatGPT-Memory einfach zu Claude zu migrieren

Null Burggraben: Die fehlende Kundenbindung

Wasner hebt einen bemerkenswerten Aspekt hervor: Die KI-Anbieter haben praktisch keinen „Moat“ (Burggraben), also keine technische Kundenbindung. Der Wechsel zwischen Anbietern sei extrem einfach:

„Du kannst so einfach von einem Anbieter auf den anderen umziehen, das ist unglaublich. Im Endeffekt bist du in fünf Minuten umgezogen, fertig ist der Lachs.“

Steinschaden präzisiert, dass es nicht einmal ein Software-Tool braucht: Man fügt einen Prompt bei ChatGPT ein, erhält eine kleine Textdatei und lädt diese bei Anthropic hoch. Diese fehlende Kundenbindung sollte laut Wasner Investoren zu denken geben.

Europäische Perspektive: Mistral schweigt

Steinschaden weist auf eine bemerkenswerte Diskrepanz hin: Während in Europa der Aufschrei gegen OpenAI groß war, verhielt sich das europäische Vorzeigeunternehmen Mistral auffällig still. Der Grund:

  • Mistral hat bereits Deals mit dem französischen Verteidigungsministerium für militärische Anwendungen und Robotik-Forschung
  • Zusammenarbeit mit dem deutschen KI-Defense-Unternehmen Helsing im Bereich elektronischer Kriegsführung und Kampfdrohnen

„Die machen das eigentlich schon, was man jetzt OpenAI vorwirft, wahrscheinlich auf einem anderen Level“, so Steinschaden.

Historischer Kontext: Tech und Militär

Wasner ordnet die Entwicklung historisch ein: Die enge Verflechtung zwischen Tech-Industrie und Militär sei keineswegs neu, sondern eine Rückkehr zum Status quo. Von DARPA über die Manhattan-Projekte bis Silicon Valley habe diese Zusammenarbeit lange existiert und sei nur in den 2000er Jahren unterbrochen gewesen.

Als Beispiele für die aktuelle Entwicklung nennen die Hosts:

  • Palmer Luckeys Anduril (Bewertung 40 bis 60 Milliarden Dollar) entwickelt autonome Waffensysteme
  • Andreessen Horowitz hat einen Fonds namens „American Dynamism“ für Reindustrialisierung und staatliche Zusammenarbeit aufgesetzt
  • Israels Unit 8200 als Pool für erfolgreiche Tech-Gründer im Cyber-Security-Bereich

Zukunftsperspektive: Verstaatlichung möglich?

Wasner hebt eine bemerkenswerte Konsens-Meinung hervor: Sollten KI-Systeme tatsächlich das Niveau von AGI (Artificial General Intelligence) erreichen, würden sie verstaatlicht werden. Diese Einschätzung teilen laut Wasner Andreessen Horowitz, Alex Karp von Palantir und Ben Thompson von Stratechery gleichermaßen.

Steinschaden spekuliert, ob dies möglicherweise OpenAIs langfristiger Plan sei, um Zugang zum enormen US-Militärbudget zu erhalten und die Bewertung von über 800 Milliarden Dollar zu rechtfertigen.

Fazit: Anthropic als kurzfristiger Gewinner

Die Podcast-Hosts sehen Anthropic Stand heute als Gewinner der Auseinandersetzung:

  • Massiver Zustrom neuer zahlender Nutzer
  • Positionierung als ethisch verantwortungsvolles Unternehmen
  • Starkes Wachstum im B2B-Bereich durch Tools wie Claude Code und Cowork
  • Demokraten im Finanz- und Verteidigungsausschuss wollen gegen die „systemic risk“-Einstufung klagen

Wasner fasst zusammen: „Der er Image-Schaden für OpenAI ist enorm.“ Gleichzeitig betonen beide, dass die langfristige Entwicklung noch offen sei, insbesondere angesichts der Konkurrenz durch Google Gemini und Meta AI.

Die grundsätzliche Frage bleibt laut den Hosts unbeantwortet: Kann und soll ein privates Unternehmen einem demokratisch legitimierten Staat vorschreiben, wofür er Technologie nutzen darf? Diese Debatte werde die KI-Branche weiter begleiten.

Rank My Startup: Erobere die Liga der Top Founder!
Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2026

Österreichs größter Startup-Wettbewerb - Top-Investoren mit an Bord

RankMyStartup.com

Steig' in die Liga der Top Founder auf!
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

2 Minuten 2 Millionen | Staffel 13

Alle Startups | Alle Deals | Alle Hintergründe

AI Talk

Der führende KI Podcast mit Clemens Wasner & Jakob Steinschaden

Future{hacks}

Zwischen Hype und Realität

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

Weiterlesen