Reflection AI: Startup von Ex-DeepMind-Forschern sammelt zwei Milliarden Dollar ein

Reflection AI, ein Startup, das erst letztes Jahr zwei ehemalige Google DeepMind-Forscher gegründet hatten, hat laut TechCrunch in einer Finanzierungsrunde stolze zwei Milliarden Dollar bei einer Bewertung von acht Milliarden Dollar erhalten. Das bedeutet einen satten 15-fachen Sprung gegenüber der Bewertung von 545 Millionen Dollar vor nur sieben Monaten. Das Jungunternehmen, hatte sich ursprünglich auf autonome Codierungsagenten konzentriert. Nun positioniert es sich sowohl als Open-Source-Alternative zu geschlossenen Frontier-Labors wie OpenAI und Anthropic als auch als westliches Pendant zu chinesischen KI-Firmen wie DeepSeek.
Reflection AI will Sprachmodell mit „zig Billionen Tokens“ trainieren
Das Startup wurde im März 2024 von Misha Laskin und Ioannis Antonoglou ins Leben gerufen. Laskin war in der Vergangenheit Leiter der Belohnungsmodellierung für das Gemini-Projekt von DeepMind. Antonoglou ist Mitentwickler von AlphaGo, dem KI-System, das 2016 den Weltmeister im Brettspiel Go besiegte. Zusammen mit seiner neuen Finanzierungsrunde gab Reflection AI bekannt, dass es ein Team von Top-Talenten von DeepMind und OpenAI rekrutiert hat.
Zu den Investoren der jüngsten Finanzierungsrunde von Reflection AI zählen unter anderem Nvidia, B Capital, Lightspeed, Citi und Sequoia. Das Team von Reflection AI umfasst derzeit etwa 60 Mitarbeiter:innen. Reflection AI hat sich einen Rechencluster gesichert. Man hofft, im nächsten Jahr ein bahnbrechendes Sprachmodell auf den Markt zu bringen, das man mit „zig Billionen Tokens“ trainieren wird, so Laskin.
Startup will Deepseek und Co Konkurrenz machen
„Wir haben etwas geschaffen, was einst nur in den weltweit führenden Labors für möglich gehalten wurde: eine groß angelegte LLM- und Reinforcement-Learning-Plattform, die in der Lage ist, massive Mixture-of-Experts-Modelle (MoEs) auf bahnbrechender Ebene zu trainieren“, schrieb Reflection AI in einem Beitrag auf X. „Wir haben die Wirksamkeit unseres Ansatzes aus erster Hand gesehen, als wir ihn auf den kritischen Bereich des autonomen Codierens angewandt haben. Nachdem wir diesen Meilenstein erreicht haben, wenden wir diese Methoden nun auf das allgemeine agentenbasierte Denken an.“
MoE bezieht sich auf eine bestimmte Architektur, die bahnbrechende LLMs antreibt – Systeme, die zuvor nur große, geschlossene KI-Labore in großem Maßstab trainieren konnten. DeepSeek gelang ein Durchbruch, als es herausfand, wie man diese Modelle in großem Maßstab auf offene Weise trainieren kann. Andere chinesische Modelle sind Qwen und Kimi. „DeepSeek, Qwen und all diese Modelle sind unser Weckruf, denn wenn wir nichts dagegen unternehmen, wird der globale Standard für Intelligenz effektiv von jemand anderem festgelegt werden“, sagte Laskin.
Modelle nicht „Open Source“ im klassischen Sinn
Reflection AI ist nicht im klassischen Sinne „Open Source“. Laskin zufolge werde das Jungunternehmen Modellgewichte – die Kernparameter, die bestimmen, wie ein KI-System funktioniert – für die öffentliche Nutzung freigeben. Währenddessen sollen Datensätze und vollständige Trainingspipelines weitgehend proprietär bleiben. „In Wirklichkeit sind die Modellgewichte am wirkungsvollsten, da jeder diese verwenden und damit experimentieren kann“, so Laskin. „Die Infrastruktur-Stack kann nur eine Handvoll ausgewählter Unternehmen tatsächlich nutzen.“
Das Unicorn hat sein erstes Modell noch nicht veröffentlicht. Es soll laut Laskin weitgehend textbasiert sein und in Zukunft multimodale Funktionen bieten. Man werde die Mittel aus dieser neuen Finanzierungsrunde nutzen, um die für das Training der neuen Modelle erforderlichen Rechenressourcen zu beschaffen. Das erste Modell soll Anfang nächsten Jahres kommen.