Challenge

MiniMax: Neues China-LLM bis zu 10x günstiger als Top-Modelle von Anthropic, OpenAI

KI "Made in China". © ChatGPT via Trending Topics
KI "Made in China". © ChatGPT via Trending Topics
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

„Made in China“ als Herausforderung an die KI-Riesen aus dem Silicon Valley: Das chinesische KI-Unternehmen MiniMax hat sein neues Sprachmodell M2 veröffentlicht und als Open Source zur Verfügung gestellt. Das Modell ist speziell für die Entwicklung autonomer KI-Agenten und Programmieraufgaben konzipiert und positioniert sich als deutlich günstigere Alternative zu etablierten westlichen Modellen.

Wie berichtet, versuchen chinesische Unternehmen wie Alibaba, DeepSeek, Moonshot AI, Z.ai oder eben MiniMax, den US-amerikanischen Modellanbietern OpenAI, Anthropic, Google oder Meta zum einen sehr kostengünstige LLMs und zum anderen Open-Source-bzw. Open-Weights-Modelle entgegen zu stellen. MiniMax reiht sich in diese Strategie nun deutlich ein.

Preisgestaltung und Performance

Nach Angaben von MiniMax kostet M2 in der API-Nutzung 0,30 US-Dollar pro Million Input-Tokens und 1,20 US-Dollar pro Million Output-Tokens. Das bedeutet, dass das chinesische Modell 4x bis 10x günstiger ist als die US-amerikanische Konkurrenz.

Zum Vergleich hier die API-Kosten für die Top-Modelle von Google, OpenAI und Anthropic:

  • Anthropic Claude Sonnet 4.5
    • Input: Prompts ≤ 200K tokens $3 / MTok bzw. Prompts > 200K tokens $6 / MTok
    • Output: Prompts ≤ 200K tokens $15 / MTok bzw.  Prompts > 200K tokens $22.50 / MTok
  • OpenAI GPT-5
    • Input: 1,250 $ / 1 Million Tokens
    • Output: 10,000 $ / 1 Million Tokens
  • Google Gemini 2.5 Pro
    • Input: Prompts mit ≤ 200.000 Tokens 1,25 $ / MTok bzw. Prompts mit > 200.000 Tokens 2,50 $ / MTok
    • Output: Prompts mit <= 200.000 Tokens 10,00 $ /MTok bzw.  Prompts mit > 200.000 Tokens 15,00 $ /MTok

Die vollständigen Modellgewichte wurden auf Hugging Face veröffentlicht und können lokal mit SGLang und vLLM eingesetzt werden. Bis zum 7. November bietet MiniMax sowohl die API als auch das zugehörige Agent-Produkt kostenlos an.

Technische Schwerpunkte

MiniMax konzentriert sich bei M2 auf drei Kernbereiche:

  • Programmierung: Das Modell ist für komplette Entwicklungs-Workflows optimiert und in gängigen Entwicklungsumgebungen wie Cursor, Claude Code und Cline einsetzbar
  • Tool-Integration: M2 soll komplexe Aufgabenketten bewältigen und verschiedene Tools wie Shell, Browser, Python-Interpreter und MCP-Werkzeuge koordinieren können
  • Kosteneffizienz: Durch ein optimiertes Design aktivierter Parameter will das Unternehmen ein ausgewogenes Verhältnis zwischen Leistung, Geschwindigkeit und Kosten erreicht haben

Benchmark-Ergebnisse

In der Artificial Analysis Benchmark, die zehn verschiedene Testaufgaben zusammenfasst, platziert sich M2 laut MiniMax unter den Top 5 weltweit. Bei spezifischen Agent-Aufgaben wie Tool-Nutzung und Deep Search soll das Modell nahezu an führende westliche Modelle heranreichen. Im Bereich Programmierung ordnet sich MiniMax selbst hinter den besten internationalen Modellen ein, sieht sich aber im chinesischen Markt an der Spitze.

Hintergrund der Entwicklung

MiniMax begründet die Entwicklung von M2 mit eigenen praktischen Anforderungen. Das Unternehmen setzt intern verschiedene KI-Agenten für Aufgaben wie technische Recherche, Programmierung, Feedback-Verarbeitung und Bewerbermanagement ein. Dabei stellte man fest, dass verfügbare Modelle entweder zu teuer und langsam oder bei niedrigeren Kosten leistungsschwächer waren – ein Dilemma, das das Unternehmen als „unmögliches Dreieck“ aus Performance, Preis und Geschwindigkeit bezeichnet.

Das neue Modell wird sowohl über die MiniMax-Plattform als auch als eigenständiges Agent-Produkt in zwei Modi angeboten: einem schnellen „Lightning Mode“ für einfachere Aufgaben und einem „Pro Mode“ für komplexere, längere Prozesse.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2026

Österreichs größter Startup-Wettbewerb - 12 Top-Investoren mit an Bord

AI Talk

Der führende KI Podcast mit Clemens Wasner & Jakob Steinschaden

Future{hacks}

Zwischen Hype und Realität
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Startup & Scale-up Investment Tracker 2025

Die größten Finanzierungsrunden des Jahres im Überblick

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe
Die 2 Minuten 2 Millionen Investoren. © PULS 4 / Gerry Frank

2 Minuten 2 Millionen | Staffel 12

Die Startups - die Investoren - die Deals - die Hintergründe

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen