LLM

Anthropic launcht Claude Opus 4.7: Teurer als der Vorgänger, schwächer als „Mythos“

Claude by Anthropic. © via Unsplash
Claude by Anthropic. © via Unsplash

Das wirklich stärkste LLM wird weiter unter Verschluss gehalten, aber die aktiven User trotzdem versorgt: Anthropic hat heute sein neuestes Sprachmodell Claude Opus 4.7 allgemein verfügbar gemacht. Das Unternehmen positioniert es als direkten Nachfolger von Opus 4.6 und hebt vor allem Verbesserungen in der Softwareentwicklung, der Bildverarbeitung und der Aufgabentreue hervor. Gleichzeitig räumt Anthropic in seiner Ankündigung auch Schwächen ein.

Wie gut Claude Opus 4.7 tatsächlich in der Praxis ist, wird sich weisen. Weder bei arena.ai noch bei Artificial Analysis gibt es noch Testergebnisse und Benchmarks dazu, um es mit anderen am Markt erhältlichen LLMs zu vergleichen.

Was Anthropic als Stärken bewirbt

Softwareentwicklung und komplexe Aufgaben

Laut Anthropic ist Opus 4.7 besonders bei anspruchsvollen Programmieraufgaben verbessert worden. Das Unternehmen behauptet, Nutzer könnten schwierige Coding-Aufgaben, die bisher enge Aufsicht erforderten, nun mit mehr Vertrauen an das Modell übergeben. Opus 4.7 soll komplexe, langwierige Aufgaben mit größerer Sorgfalt und Konsistenz bearbeiten und seine eigenen Ergebnisse vor der Ausgabe selbst überprüfen.

Verbesserte Bildverarbeitung

Ein weiterer beworbener Fortschritt betrifft die visuelle Wahrnehmung. Opus 4.7 soll Bilder mit einer Auflösung von bis zu 2.576 Pixeln auf der langen Seite verarbeiten können, was laut Anthropic mehr als dreimal so viel ist wie bei früheren Claude-Modellen. Dies soll Anwendungen ermöglichen, die auf feine visuelle Details angewiesen sind, etwa die Analyse komplexer Diagramme oder die Arbeit mit hochauflösenden Screenshots.

Instruktionstreue

Anthropic betont, dass Opus 4.7 Anweisungen deutlich wörtlicher und vollständiger befolgt als sein Vorgänger. Das Unternehmen weist jedoch ausdrücklich darauf hin, dass dies ein zweischneidiges Schwert sein kann: Prompts, die für ältere Modelle geschrieben wurden, können mit Opus 4.7 unerwartete Ergebnisse liefern, weil frühere Modelle Anweisungen lockerer interpretierten oder Teile davon übergingen.

Gedächtnis und Langzeitaufgaben

Das Modell soll besser darin sein, dateisystembasierte Notizen über mehrere Sitzungen hinweg zu nutzen. Laut Anthropic kann es sich wichtige Informationen aus früheren Sitzungen merken und diese für Folgeaufgaben verwenden, sodass weniger Kontext neu eingegeben werden muss.

Eingeräumte Schwächen und Einschränkungen

Anthropic beschreibt das Sicherheitsprofil von Opus 4.7 als dem Vorgänger ähnlich, benennt aber konkrete Bereiche, in denen das Modell schlechter abschneidet. So neigt Opus 4.7 laut Unternehmensangaben stärker dazu, übermäßig detaillierte Schadensminimierungshinweise zu kontrollierten Substanzen zu geben. Das interne Alignment-Assessment stufte das Modell als „weitgehend gut ausgerichtet und vertrauenswürdig, aber nicht vollständig ideal in seinem Verhalten“ ein.

„Largely well-aligned and trustworthy, though not fully ideal in its behavior“ (Anthropics internes Alignment-Assessment zu Opus 4.7)

Anthropic stellt außerdem klar, dass Opus 4.7 nicht das leistungsfähigste Modell im eigenen Portfolio ist. Das Modell Claude Mythos Preview übertrifft Opus 4.7 in der Gesamtleistung und zeigt laut Anthropic auch die niedrigsten Raten an Fehlverhalten in den Bewertungen. Mythos Preview bleibt vorerst in seiner Verfügbarkeit eingeschränkt (mehr dazu hier).

Cybersicherheit: Bewusste Einschränkungen

Im Kontext des unternehmenseigenen Projekts Glasswing, das sich mit KI-Risiken im Bereich Cybersicherheit befasst, hat Anthropic nach eigenen Angaben aktiv versucht, die Cyberfähigkeiten von Opus 4.7 gegenüber Mythos Preview zu reduzieren. Das Modell wird mit automatischen Sicherheitsmechanismen ausgeliefert, die Anfragen mit verbotenen oder hochriskanten Cybersicherheitsanwendungen erkennen und blockieren sollen. Sicherheitsfachleute können sich für ein Verifizierungsprogramm bewerben, um das Modell für legitime Zwecke wie Penetrationstests zu nutzen.

Technische und wirtschaftliche Details

Merkmal Angabe
Verfügbarkeit Claude-Produkte, API, Amazon Bedrock, Google Vertex AI, Microsoft Foundry
Preis (Input) 5 USD pro Million Token
Preis (Output) 25 USD pro Million Token
Max. Bildauflösung 2.576 Pixel (lange Seite), ca. 3,75 Megapixel
API-Bezeichnung claude-opus-4-7

Hinweis zur Migration

Anthropic weist darauf hin, dass der Wechsel von Opus 4.6 auf Opus 4.7 mit einem höheren Token-Verbrauch verbunden sein kann. Ein aktualisierter Tokenizer verarbeitet denselben Text mit schätzungsweise 1,0 bis 1,35-mal mehr Tokens als zuvor. Hinzu kommt, dass das Modell bei höheren Aufwandsstufen mehr Ausgabe-Tokens produziert. Das Unternehmen empfiehlt, den tatsächlichen Mehrverbrauch anhand von realem Datenverkehr zu messen, bevor eine vollständige Migration durchgeführt wird.

Rank My Startup: Erobere die Liga der Top Founder!
Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2026

Österreichs größter Startup-Wettbewerb - Top-Investoren mit an Bord

RankMyStartup.com

Steig' in die Liga der Top Founder auf!
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

2 Minuten 2 Millionen | Staffel 13

Alle Startups | Alle Deals | Alle Hintergründe

AI Talk

Der führende KI Podcast mit Clemens Wasner & Jakob Steinschaden

Future{hacks}

Zwischen Hype und Realität

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

Weiterlesen