Meta kauft um 21 Milliarden Dollar KI-Inferenz bei CoreWeave ein
Der amerikanische Cloud-Anbieter CoreWeave und der Tech-Konzern Meta Platforms haben eine erweiterte, langfristige Vereinbarung über die Bereitstellung von KI-Rechenkapazitäten abgeschlossen. Das Volumen des Vertrags beläuft sich auf rund 21 Milliarden US-Dollar, die Laufzeit erstreckt sich bis Dezember 2032. Der Deal gilt als eines der größten Abkommen im Bereich der KI-Infrastruktur und unterstreicht den wachsenden Bedarf an spezialisierter Rechenleistung in der Branche.
Meta hat gerade erst sein neuestes KI-Modell Muse Spark (mehr dazu hier) veröffentlicht, das bei WhatsApp, Instagram, Facebook und AR-Brillen verbaut wird – und dementsprechend potenziell auf sehr viele User treffen wird. Für die braucht es dann entsprechende Rechenkapazitäten.
Was vereinbart wurde
CoreWeave, das seit seinem Börsengang an der Nasdaq unter dem Kürzel CRWV gehandelt wird, stellt Meta dedizierte Cloud-Kapazitäten an mehreren Standorten zur Verfügung. Bestandteil des Abkommens sind unter anderem erste Deployments der neuen NVIDIA-Plattform „Vera Rubin“, einer der leistungsstärksten GPU-Architekturen der nächsten Generation. Der verteilte Ansatz über mehrere Rechenzentren soll Leistung, Ausfallsicherheit und Skalierbarkeit für Metas KI-Betrieb optimieren.
Die Vereinbarung baut auf einer bereits bestehenden Geschäftsbeziehung zwischen beiden Unternehmen auf und weitet diese erheblich aus. Weitere Details wurden in einer Pflichtmitteilung an die US-Börsenaufsicht SEC veröffentlicht.
Der Wandel von Training zu Inferenz
Besonders bemerkenswert ist die strategische Ausrichtung des Deals. Im Mittelpunkt steht nicht mehr primär das Training neuer KI-Modelle, sondern deren Betrieb im großen Maßstab, also die sogenannte Inferenz. Dabei werden bereits trainierte Modelle genutzt, um in Echtzeit Anfragen zu beantworten, Inhalte zu generieren oder Entscheidungen zu treffen.
Dieser Wandel spiegelt eine branchenweite Entwicklung wider. Während in den vergangenen Jahren massive Investitionen in das Training großer Sprachmodelle flossen, verlagert sich der Schwerpunkt nun zunehmend auf die produktive Nutzung dieser Modelle in realen Anwendungen. Inferenz-Workloads stellen dabei eigene Anforderungen an die Infrastruktur: Sie erfordern niedrige Latenz, hohe Verfügbarkeit und die Fähigkeit, Millionen von Anfragen gleichzeitig zu verarbeiten.
„Dies ist ein weiteres Beispiel dafür, dass führende Unternehmen CoreWeaves KI-Cloud wählen, um ihre anspruchsvollsten Workloads zu betreiben“, so Michael Intrator, Mitgründer und CEO von CoreWeave.
Warum Inferenz zur neuen Schlüsseldisziplin wird
Der Übergang von Training zu Inferenz hat mehrere Ursachen. Erstens sind die großen Basismodelle inzwischen weitgehend entwickelt und werden nun in Produkte und Dienste integriert. Zweitens steigt die Nutzerzahl KI-gestützter Anwendungen rasant, was den Bedarf an skalierbarer Rechenleistung für den laufenden Betrieb erhöht. Drittens sind die Kosten für Inferenz bei wachsender Nutzerbasis ein entscheidender Wettbewerbsfaktor.
- Skalierung im Betrieb: Unternehmen wie Meta müssen KI-Modelle für Hunderte Millionen Nutzer in Echtzeit verfügbar halten.
- Spezialisierte Hardware: Inferenz-Workloads profitieren von GPU-Clustern, die auf Durchsatz und Effizienz optimiert sind.
- Verteilte Infrastruktur: Mehrere Rechenzentrumsstandorte reduzieren Latenz und erhöhen die Ausfallsicherheit.
- Langfristige Planbarkeit: Mehrjährige Verträge wie dieser ermöglichen es Unternehmen, ihre KI-Strategie auf einer stabilen Infrastrukturbasis aufzubauen.
Einordnung und Bedeutung
Der Vertrag zwischen Meta und CoreWeave ist ein Signal für die gesamte Branche. Er zeigt, dass große Technologiekonzerne bereit sind, langfristige und milliardenschwere Verpflichtungen für spezialisierte KI-Infrastruktur einzugehen. Für CoreWeave bedeutet das Abkommen eine erhebliche Umsatzsicherheit über mehrere Jahre und bestätigt die Positionierung des Unternehmens als zentraler Infrastrukturanbieter im KI-Ökosystem.
Für Meta wiederum ist der Deal Teil einer umfassenderen Strategie, KI tief in seine Produkte und Plattformen zu integrieren, von sozialen Netzwerken über Messaging bis hin zu Mixed-Reality-Anwendungen. Die Wahl eines externen Cloud-Anbieters neben den eigenen Rechenzentren deutet darauf hin, dass der Kapazitätsbedarf die interne Infrastruktur zunehmend übersteigt.


