AI-Entwicklung

Erste Blackwell-Chips operativ am Start – Grundstein für GPT-5 und Co gelegt

Nvidia-CEO Jensen Huang präsentiert GB200-Chips. © Nvidia
Nvidia-CEO Jensen Huang präsentiert GB200-Chips. © Nvidia
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

CoreWeave hat als erster Cloudanbieter weltweit die neue Nvidia GB200 NVL72 Blackwell-Superplattform in Betrieb genommen. Die vollständig montierte Rack-Lösung umfasst 72 GPUs und wurde speziell für das Training von Large Language Models (LLMs) im Billionenparameterbereich konzipiert. Laut Nvidia liefert die Blackwell Ultra-Plattform bis zu 50× mehr AI-Output pro Watt als die Hopper-Vorgänger-Generation durch technische Verbesserungen wie doppelt so viele Transistoren, FP8-Berechnungen und optimierte GPU-Kommunikation.

Die neue Infrastruktur wurde in Zusammenarbeit mit Dell (Hardware), Vertiv (Kühlung) und Switch (Colocation & Stromversorgung) realisiert. Im Gegensatz zu anderen Cloud-Anbietern, die noch mit Entwicklerkits experimentieren, steht bei CoreWeave bereits ein vollständig integriertes System zur Verfügung. Die Anlage umfasst neben den 72 Nvidia-GPUs auch 36 Prozessoren und ein spezialisiertes Kühlsystem.

Von Kryptomining zur KI-Infrastruktur

CoreWeave begann seine Unternehmensgeschichte als Ethereum-Miner, vollzog dann jedoch einen strategischen Wandel zum GPU-Vermieter für Rendering und Forschung. Heute betreibt das Unternehmen eine AI-native Cloud-Infrastruktur – mit Fokus auf spezialisierte Workloads, nicht general purpose. Zu den Kunden zählen sowohl KI-Startups als auch etablierte Unternehmen wie Hollywood-Studios.

Das Geschäftsmodell von CoreWeave unterscheidet sich von traditionellen Cloud-Anbietern. Das Unternehmen verkauft keine „Compute Units“, sondern ein durchoptimiertes Betriebssystem für maschinelles Lernen – von der Kühlung bis zur Queue. Dieser ganzheitliche Ansatz ermöglicht eine effizientere Nutzung der Hardware-Ressourcen für KI-Anwendungen.

CoreWeave, das im März seinen IPO machte, hat bisher sehr stark performt. Das Unternehmen ist mittlerweile rund 80 Milliarden Dollar wert, hat sich seit dem Börsengang also vervierfacht. OpenAI hat einen großen Deal im Umfang von 12 Milliarden Dollar mit dem Unternehmen geschlossen.

Wettbewerbsvorteil durch Infrastruktur-Integration

Im aktuellen KI-Wettlauf gewinnt nicht mehr unbedingt der Anbieter mit den meisten GPUs, sondern derjenige, der die Hardware am schnellsten und effizientesten in eine funktionsfähige Infrastruktur integrieren kann. Wer Blackwell als Erster produktiv einsetzt, legt den technischen Grundstein für das Training der nächsten Generation von KI-Modellen, heißt es in der Mitteilung.

Die Herausforderung liegt nicht nur im Erwerb der Hardware, sondern in deren optimaler Konfiguration: Jeder kann Nvidia-GPUs kaufen – aber sie thermisch zu stabilisieren, mit Low-Latency zu vernetzen und sie softwareseitig so effizient zu takten, dass GPT-5 & Co. innerhalb der Stromgrenzen trainiert werden kann – darin besteht der eigentliche Wettbewerbsvorteil in der KI-Infrastrukturbranche.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

Startup & Scale-up Investment Tracker 2025

Die größten Finanzierungsrunden des Jahres im Überblick
#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe
Die 2 Minuten 2 Millionen Investoren. © PULS 4 / Gerry Frank

2 Minuten 2 Millionen | Staffel 12

Die Startups - die Investoren - die Deals - die Hintergründe

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen