Nvidia zahlt 20 Milliarden Dollar für Groq: Der große Inferenz-Deal
Der Chipgigant Nvidia hat sich in einem ungewöhnlich strukturierten Deal die Inferenz-Technologie und vor allem die Köpfe des KI-Startups Groq gesichert. Nvidia gab kurz vor Weihnachten bekannt, eine nicht-exklusive Lizenzvereinbarung mit Groq abgeschlossen zu haben.
Im Rahmen dieser Vereinbarung zahlt Nvidia 20 Milliarden US-Dollar für die geistigen Eigentumsrechte und wichtige Mitarbeiter des Unternehmens – darunter Gründer Jonathan Ross und Präsident Sunny Madra. Die Struktur des Deals ist bemerkenswert: Nvidia erwirbt ausdrücklich nicht das Unternehmen selbst. GroqCloud, die Cloud-Infrastruktur-Sparte, bleibt unter der Leitung von CFO Simon Edwards als unabhängige Firma bestehen.
20 Milliarden Dollar sind natürlich eine Menge Geld, für Nvidia als wertvollstes Unternehmen der Welt aber jedenfalls leistbar. Denn so lag der Gewinn im Q3 2026 (beendet im Okt. 2025) bei etwa 19,3 Milliarden Dollar – ein Quartalsgewinn reicht also aus, um den Groq-Deal zu stemmen.
Jensen Huang, CEO von Nvidia, begründete die Transaktion in einer internen E-Mail mit der Integration von Groqs Beschleunigern in Nvidias „AI Factory“-Architektur und der „Erweiterung der Plattform, um ein noch breiteres Spektrum an KI-Inferenz- und Echtzeit-Workloads zu bedienen“. Es handelt sich um die größte Übernahme in der Geschichte Nvidias – der bisherige Rekord lag bei 7 Milliarden Dollar für den Netzwerk-Spezialisten Mellanox im Jahr 2019.
Was Inferenz in der KI bedeutet
Inferenz bezeichnet in der künstlichen Intelligenz den Prozess, bei dem ein bereits trainiertes Modell neue Eingaben verarbeitet und darauf basierend Ausgaben generiert. Während das Training eines großen Sprachmodells enorme Rechenkapazität erfordert und meist einmalig erfolgt, läuft Inferenz kontinuierlich ab – bei jeder Nutzeranfrage an ChatGPT, bei jeder Bildgenerierung oder bei jedem KI-gestützten Kundenservice-Chat.
Je schneller und effizienter diese Inferenz-Berechnungen ablaufen, desto besser wird die Nutzererfahrung. Mit dem exponentiellen Wachstum von KI-Anwendungen wird Inferenz zum dominierenden Workload in der KI-Infrastruktur und damit zu einem Milliardenmarkt.
Groqs technologischer Vorsprung
Groq wurde 2016 von ehemaligen Google-Mitarbeitern rund um CEO Jonathan Ross gegründet, die an Googles Tensor Processing Unit (TPU) gearbeitet hatten. Das Unternehmen entwickelte eine eigene Prozessor-Architektur namens Language Processing Unit (LPU), die speziell für Inferenz-Berechnungen optimiert ist.
Der entscheidende Unterschied zu herkömmlichen GPUs und CPUs liegt in der Speicherarchitektur: Während GPUs und CPUs auf externes DRAM oder High Bandwidth Memory (HBM) angewiesen sind und Daten ständig zwischen Prozessor und externem Speicher transportieren müssen, setzt Groqs LPU auf großflächigen On-Chip-SRAM-Speicher. Mit 230 MB Kapität pro Chip und 80 TB/s Bandbreite können kleinere bis mittelgroße Modelle vollständig im SRAM gehalten werden, wodurch der Flaschenhals des externen Speicherzugriffs eliminiert wird.
Die Architektur ist vollständig deterministisch – von der Kompilierung bis zur Ausführung ist jeder Taktzyklus vorhersehbar. Dies führt zu beeindruckenden Leistungswerten: Groq erreichte etwa bei Llama 3.1 8B über 800 Token pro Sekunde, bei größeren Modellen wie Llama 3.1 70B noch über 250 Token pro Sekunde – jeweils bei 128.000 Token Kontextlänge. Die Energieeffizienz liegt nach Unternehmensangaben um den Faktor 10 über GPU-basierter Inferenz.
Wohlgemerkt: Die Architektur eignet ausschließlich für Inferenz, nicht für das Training von Modellen – es geht also vor allem darum, KI-Modelle in der täglichen Nutzung schneller zu machen, nicht neue zu entwerfen.
Die ungewöhnliche Deal-Struktur
Die Transaktion erfolgte nur drei Monate nach Groqs jüngster Finanzierungsrunde im September 2025, bei der das Unternehmen 750 Millionen Dollar bei einer Bewertung von 6,9 Milliarden Dollar einsammelte. Nvidia zahlt nun das Dreifache dieser Bewertung.
Juristen und Branchenbeobachter weisen auf die ungewöhnliche Struktur hin: Durch die Formulierung als „nicht-exklusive Lizenzvereinbarung“ umgeht Nvidia die üblichen regulatorischen Hürden einer Übernahme. Eine traditionelle Akquisition hätte eine Prüfung durch das Committee on Foreign Investment in the United States (CFIUS) sowie eine ausführliche Kartellprüfung ausgelöst – beides zeitaufwendige Prozesse mit ungewissem Ausgang angesichts Nvidias dominanter Marktposition.
Die Bezeichnung „nicht-exklusiv“ suggeriert, dass auch andere Unternehmen die Technologie lizenzieren könnten. In der Praxis kontrolliert Nvidia jedoch alle wesentlichen Vermögenswerte: das geistige Eigentum, die Patente und vor allem die Mitarbeiter, die die Technologie entwickelt haben und verstehen.
Geopolitische Dimensionen
Ein weiterer Aspekt der Deal-Struktur betrifft Groqs internationale Geschäftsbeziehungen. Im Februar 2024 hatte Saudi-Arabien 1,5 Milliarden Dollar für den Ausbau eines Groq-Rechenzentrums in Dammam zugesagt. Die Anlage sollte Inferenz-Kapazität für ALLaM, Saudi-Arabiens arabisches Sprachmodell, sowie andere regionale KI-Projekte bereitstellen.
Durch die Ausgliederung von GroqCloud übernimmt Nvidia diese Verträge nicht und vermeidet damit potenzielle CFIUS-Prüfungen, die bei der Übernahme eines Unternehmens mit substantiellen Verträgen in sensiblen Regionen anfallen würden. Die operative Geschäftseinheit bleibt formal unabhängig, während Nvidia die Technologie und das Know-how erhält.
Marktkontext und Wettbewerb
Die Transaktion erfolgt in einem Umfeld verstärkten Wettbewerbs im Bereich KI-Beschleuniger. Google entwickelt seine TPU-Technologie kontinuierlich weiter und öffnet diese zunehmend für externe Kunden – Medienberichten zufolge plant Anthropic den Einsatz von bis zu einer Million TPUs. Amazon entwickelt mit Trainium und Microsoft mit Maia eigene KI-Chips, um die Abhängigkeit von Nvidia zu reduzieren.
Mit Groqs Technologie und Expertise könnte Nvidia seine Position im wachsenden Inferenz-Markt stärken. Branchenanalysten spekulieren, dass Nvidia die LPU-Technologie möglicherweise als Chiplet in zukünftige Produkte integrieren könnte, um GPU-Architekturen mit spezialisierten Inferenz-Beschleunigern zu kombinieren.
Nach Groqs Angaben nutzen über zwei Millionen Entwickler die GroqCloud-Plattform. Das Unternehmen betreibt Rechenzentren in Nordamerika, Europa und dem Nahen Osten. Wie sich die Ausgliederung der operativen Einheit auf diese Kundenbasis auswirkt, bleibt abzuwarten.
Ausblick
Nvidia hat die Akquisition mit strategischen Zielen begründet, ohne Details zur geplanten Integration zu nennen. Branchenbeobachter erwarten, dass die Groq-Technologie mittelfristig in Nvidias Produktportfolio einfließen wird, möglicherweise als Ergänzung zu den bestehenden GPU-basierten Lösungen für spezialisierte Inferenz-Workloads.
Für den Markt signalisiert die Transaktion die wachsende Bedeutung von Inferenz-Optimierung in der KI-Infrastruktur. Während Training-Workloads weiterhin wichtig bleiben, verschiebt sich mit der zunehmenden Verbreitung von KI-Anwendungen das Gewicht in Richtung effizienter, skalierbarer Inferenz-Lösungen.


