Vibe-Coding-Startups: Bewertungen wuchsen in einem Jahr um 350%, riesige Revenue Multiples

Cognition, Lovable, Replit, Cursor oder Vercel: Das sind aktuell jene Startups, die von Investoren mit sehr viel Geld überhäuft werden. Ihnen gemeinsam: Auf Basis von LLMs erlauben sie die Automatisierung von Coding – bis zum dem Punkt, an dem Nicht-Programmierer mit Hilfe einfacher Text-Prompts Webseiten oder Web-Apps erstellen können. Aktuell erfahren diese Jungfirmen enormen Zuspruch, weswegen kaum eine Woche vergeht, in der nicht ein neues Unicorn oder sogar Dekacorn (Bewertung bei mind. 10 Mrd. Dollar) entsteht.
Kamen Vibe-Coding-Startups im August 2024 zusammen auf eine Bewertung von etwa sieben bis acht Milliarden Dollar, so sind es ein Jahr später bereits mehr als 36 Milliarden Dollar – also ein Wachstum von 350% innerhalb eines Jahres (oder das 4,5-Fache). Zusammen genommen kommen diese Startups, die meistens kaum älter als zwei, drei Jahre sind, auf einen gemeinsamen annualisierten Umsatz (Annualised Recurring Revenue, ARR) von mindestens 800 Millionen Dollar, und das bei einem enorm starken Wachstum.
Investoren zahlen enorme Revenue Multiples
Das enorme Wachstum dieser Unternehmen hat Investoren dazu gebracht, teilweise sehr hohe Bewertungen zu bezahlen – in der Erwartung, dass die Startups in den nächsten Jahre in diese großen Schuhe hineinwachsen können. Gemessen an bekannt gegebenen ARR-Zahlen kauften Investoren Shares bei ARR-Multiples von 14x bis 140x. Hier die Revenue Multiples auf Basis öffentlich zugänglicher Zahlen:
- Devin (Cognition): Bewertung 10,2 B$, ARR 73 M$ → Multiplikator ≈ 139,7x
- Cursor (Anysphere): Bewertung 9 B$, ARR 200 M$ → Multiplikator ≈ 45,0x
- V0 (Vercel): Bewertung 9 B$, ARR 200 M$ → Multiplikator ≈ 45,0x
- Replit: Bewertung 3 B$, ARR 150 M$ → Multiplikator ≈ 20,0x
- Lovable: Bewertung 1,8 B$, ARR 130 M$ → Multiplikator ≈ 13,8x
Company | ARR M$ | Valuation B$ | Total Funding M$ |
LLM Provider | Investors | HQ |
Devin (Cognition) Owner of Windsurf (Ex Codeium) |
73 | 10.2 | 896 | OpenAI, Anthropic | Founders Fund, Lux Capital, 8VC, Elad Gil, Definition Capital, Swish Ventures | San Francisco, CA |
Cursor (Anysphere) |
200 | 9 | 1.100 | OpenAI, Anthropic, Google | Thrive Capital, a16z, OpenAI | San Francisco, CA |
V0 (Vercel) | 200 | 9 | 563 | v0 (own) | Accel, 8VC, Flex Capital, SV Angel, Salesforce Ventures | Covina, CA |
Replit | 150 | 3 | 472 | Anthropic, Google | Prysm Capital, Amex Ventures, Google, YC, Craft, a16z, Coatue, Paul Graham | Foster City, CA |
Lovable | 130 | 1.8 | 222 | Anthropic, OpenAI, Google | Accel, Creandum, byFounders, Hummingbird Ventures | Stockholm, SWE |
Magic | – | 1+ | 466 | LTM-1 (own) | Eric Schmidt, Atlassian, CapitalG, Jane Street, Sequoia, Nat Friedman, Daniel Gross, Elad Gil | San Francisco, CA |
Augment | – | 1 | 252 | Anthropic | Lightspeed Venture Partners, Index Ventures, Innovation Endeavors, Meritech Capital Partners, Sutter Hill Ventures | Palo Alto, CA |
Bolt.new | 40+ | – | 105 | Anthropic | Emergence, GV, Madrona, The Chainsmokers (Mantis), Conviction | San Francisco, CA |
In dem Rennen um Vibe Coding sind natürlich auch die großen LLM-Anbieter mit dabei. OpenAI hat Codex in ChatGPT integriert, Anthropic bietet Claude Code an, bei Google gibt es den Gemini Code Assist. Und natürlich sind die LLMs der großen AI-Anbieter auch in vielen Vibe-Coding-Plattformen integriert – was schon die Frage aufwarf, ob die Startups überhaupt jemals in die Gewinnzone kommen können, da sie ihre Umsätze größtenteils an Anthropic, OpenAI und Co durchreichen.
Bemerkenswert ist diesbezüglich Lovable aus Schweden: Das Team von nur 60 Personen macht einen ARR von 130 Millionen Dollar – also mehr als 2 Millionen Dollar pro Mitarbeiter. Das Multiple, das Investoren bei der letzten Finanzierungsrunde zahlten, liegt bei „nur“ etwa 14x – dementsprechend kann es gut sein, dass die Bewertung von Lovable, die noch bei 1,8 Milliarden Dollar liegt, sehr bald und sehr schneller eher auf 4 bis 5 Milliarden Dollar wächst.
Währenddessen kommen immer neue Vibe-Coding-Plattformen auf den Markt – zuletzt etwa Instance des Wiener Startups Mimo (mehr dazu hier) oder Floot aus dem aktuellen Y Combinator-Batch.
Eigene Coding-Modelle von Vercel und Magic statt Anthropic und Co
Gerade deswegen sind jene Startups interessant, die eigene AI-Modelle trainiert haben. Insbesondere sind das:
- Vercel hat ein eigenes, komposites LLM-Design für v0 entwickelt, weil reine Frontier-Modelle schnell bei Web-Framework-Updates veralten würden und nicht auf Web-App-spezifische Ziele wie schnelle Edits oder automatisches Fehlerbeheben optimiert sind. Zudem würden feinabgestimmte Open-Source-Modelle bei multimodaler Codegenerierung deutlich hinter proprietären Basismodellen liegen, deswegen seien die v0-1.5 und v0-1.0-Modelle sindvoll
- Magic baut ein eigenes, auf ultra‑langem Kontext ausgelegtes LLM für Coding, weil Codequalität und -verständnis dramatisch steigen würden, wenn ein Modell nicht primär „gelerntes“ Wissen, sondern bis zu 100M Tokens an projektbezogenem Kontext (gesamtes Repo, Doku, Libraries) während der Inferenz nutzen kann. Dafür entwickelt Magic eine Architektur (LTM‑2), die gegenüber klassischer Attention massive Kosten‑ und Speicherersparnisse bei sehr langen Kontexten erreichen würde, so das Unternehmen der beiden österreichischen Gründer Eric Steinberger und Sebastian De Ro
Diese eigenen Coding-Modelle sind spannend zu beobachten. Während viele heute sehr bekannte Anbieter wie Lovable oder Cursor stark auf Anthropics LLMs aufbauen und auf deren Pricing und Fähigkeiten angewiesen sind, gehen Vercel und Magic andere Wege. Vercel bietet die v0-Modelle alternativ zu anderen LLMs an, bei Magic ist noch nicht ersichtlich, in welche Richtung es gehen wird. Steinberger und De Ro könnten versuchen, Lovable, Cursor und Co als Kunden zu gewinnen, sofern sie es schaffen, ein Coding-LLM zu bauen, dass Claude Sonnet 4.0 und Co überlegen ist – vor allem preislich.