Nvidia wirft 26 Milliarden Dollar in Entwicklung von Open-Source-KI
Trotz aller Sorgen um eine KI-Blase sind sie mit 4,45 Billionen Dollar Bewertung nach wie vor die wertvollste Firma der Welt. Bisher eher für Hardware (Nvidia-Chips treiben die GenAI) bekannt, will Nvidia aber nun offenbar auch groß in das Geschäft mit KI-Modellen selbst einsteigen.
Der Chip-Hersteller hat vor, in den kommenden fünf Jahren 26 Milliarden Dollar in die Entwicklung von Open-Weight-KI-Modellen zu investieren. Dies geht aus einer Finanzeinreichung von 2025 hervor und wurde von Unternehmensvertretern bestätigt. Nun folgt mit der Veröffentlichung von Nemotron 3 Super, einem 120-Milliarden-Parameter-Modell, das speziell für autonome KI-Agenten optimiert wurde, der erste Schritt in diese Richtung.
Nemotron 3 Super: Technische Innovation für KI-Agenten
Das neu veröffentlichte Nemotron 3 Super kombiniert drei Architekturkomponenten: Mamba-2-State-Space-Layer für effiziente Verarbeitung langer Token-Sequenzen, Transformer-Attention-Layer für präzises Abrufen und ein neuartiges „Latent MoE“-Design. Das Modell nutzt 12 Milliarden aktive Parameter aus insgesamt 120 Milliarden und verfügt über ein Kontextfenster von einer Million Token.
Eine Besonderheit ist das native Training in NVFP4, Nvidias 4-Bit-Gleitkommaformat. Anders als bei nachträglicher Kompression lernte das Modell von Beginn an, mit 4-Bit-Arithmetik präzise zu arbeiten. Im Vergleich zu Vorgängermodellen liefert Nemotron 3 Super mehr als fünfmal höheren Durchsatz und ist laut Nvidia 2,2-mal schneller als OpenAIs GPT-OSS 120B und 7,5-mal schneller als Alibabas Qwen3.5-122B.
Das vollständige Training-Pipeline ist öffentlich zugänglich: Gewichte auf Hugging Face, 10 Billionen kuratierte Pretraining-Token über insgesamt 25 Billionen während des Trainings, 40 Millionen Post-Training-Samples und Reinforcement-Learning-Rezepte. Unternehmen wie Perplexity, Palantir, Cadence und Siemens integrieren das Modell bereits in ihre Workflows, heißt es.
26-Milliarden-Investment: Größte Open-Source-KI-Wette der Geschichte
Die angekündigte Investition von 26 Milliarden Dollar übertrifft deutlich bisherige KI-Entwicklungsbudgets. Zum Vergleich: OpenAI soll etwa 3 Milliarden Dollar für das Training von GPT-4 ausgegeben haben. Bedeutet: Es gibt kein anderes Unternehmen, das derart viel Geld in Open-Source-KI steckt.
Bryan Catanzaro, Vice President of Applied Deep Learning Research bei Nvidia, bestätigte gegenüber Wired, dass das Unternehmen kürzlich das Pretraining eines 550-Milliarden-Parameter-Modells abgeschlossen habe. Die Mittel sollen laut Finanzeinreichung in Modellentwicklung, Recheninfrastruktur, Forschungstalente und „Ökosystem-Entwicklung“ fließen, was wahrscheinlich Partnerschaften und möglicherweise Übernahmen einschließt.
Jack Dorsey, der kürzlich 40 Prozent der Belegschaft von Block für KI-Initiativen abgebaut hatte, bezeichnete die Investition als „exzellent“.
Strategische Motivation: Verteidigung des CUDA-Ökosystems
Nvidias Marktposition basiert übrigens weniger auf Hardware als auf CUDA, dem Software-Ökosystem, das das Unternehmen in fast 20 Jahren aufgebaut hat. CUDA hat über 4 Millionen Entwickler, mehr als 3.000 optimierte Anwendungen und ist tief in alle wichtigen KI-Frameworks integriert. Universitäten lehren CUDA, Forschungsarbeiten beruhen auf CUDA-Basis.
Diese Dominanz gerät jedoch unter Druck. AMDs MI355X liefert laut Benchmarks 30 Prozent schnellere Inferenz als Nvidias B200 bei etwa 40 Prozent besseren Token pro Dollar. AMDs ROCm 7.0 bietet native Unterstützung für PyTorch und JAX. OpenAIs Triton-Compiler ermöglicht es Teams, Modelle auf AMD- und Intel-Hardware auszuführen, ohne Code neu zu schreiben.
Eine Analyse von Built In vom Januar 2026 argumentierte, dass CUDAs Dominanz einen Wendepunkt erreicht, da hardware-agnostische Compiler an Bedeutung gewinnen. Nvidia hält derzeit 86 Prozent des Umsatzes mit Rechenzentrum-GPUs im Jahr 2026, gegenüber etwa 90 Prozent im Jahr 2024.
Die Android-Strategie mit entscheidendem Unterschied
Die Strategie ähnelt Googles Vorgehen mit Android: Modelle werden offen verfügbar gemacht, damit Entwickler darauf aufbauen, und jedes Modell wird für Nvidia-Hardware optimiert, wo der tatsächliche Umsatz generiert wird. Google machte Android Open Source, um sicherzustellen, dass Google Search die Standard-Suchmaschine auf jedem Smartphone wurde. Nvidia macht Modelle offen, damit jeder Entwickler auf ihnen aufbaut und jedes Modell für Nvidia-Hardware optimiert ist.
Der entscheidende Unterschied: Google verkaufte keine Hardware an Samsung und HTC. Nvidia verkauft Chips an Microsoft, Amazon, Google und Meta, die vier Hyperscaler, die gleichzeitig seine größten Kunden und motiviertesten Konkurrenten sind. Alle vier entwickeln eigene Chips, um die Nvidia-Abhängigkeit zu reduzieren: Microsofts Azure, Amazons Trainium, Googles TPUs und Metas MTIA-Chips.
Risiken der Strategie
Die Investition birgt ein erhebliches Risiko: Wenn Nvidia beginnt, mit seinen größten Kunden auf der Modellebene zu konkurrieren, steigt der Anreiz für diese, ihre eigenen Chip-Programme zu beschleunigen. Hyperscaler wollen 202 660 Milliarden Dollar in KI-Infrastruktur investieren. Wenn auch nur ein Bruchteil dieser Ausgaben von Nvidia-GPUs zu eigenen Chips umgeleitet wird, weil Nvidia nun ein Konkurrent ist, übersteigt die finanzielle Auswirkung die 26-Milliarden-Investition bei weitem.
Nvidias Verteidigung liegt in seinem jährlichen Produktzyklus. Blackwell wurde 2025 ausgeliefert, Vera Rubin folgt im dritten Quartal 2026 mit HBM4-Unterstützung, Rubin Ultra in der zweiten Hälfte 2027. Jensen Huang bezeichnet sich selbst als „Chief Revenue Destroyer“, weil jede Generation die vorherige absichtlich obsolet macht.
Die Wette ist, dass Nvidia seinen Hardware-Vorsprung weit genug halten kann, dass selbst motivierte Konkurrenten die Lücke nicht rechtzeitig schließen können, während die Open-Model-Strategie die Software-Abhängigkeit verstärkt. Ob diese Wette aufgeht, hängt von der Umsetzung ab. Nvidia hat 20 Jahre damit verbracht, den CUDA-Burggraben zu bauen. Nun hat das Unternehmen fünf Jahre und 26 Milliarden Dollar, um den nächsten zu errichten.


