GPT-5 soll im August launchen – was wird es können?

xAI hat Grok-4 vorgelegt, Anthropic ist mit Claude 4 durchgestartet – und jetzt steht das neueste AI-Modell von OpenAI kurz vor dem Release. Marktgerüchten zufolge wird der Launch von GPT-5 für den August vorbereitet. Zuletzt wurde der neue ChatGPT Agent gelauncht, der bereits einen Vorgeschmack auf GPT-5 geben könnte. Ebenfalls in der Pipeline von OpenAI könnten ein KI-Modell mit offenen Gewichten sowie ein eigener Browser sein. Vor allem für letzteren wird man wohl GPT-5 abwarten.
Noch gibt es keine genauen Details darüber, was das AI-Modell, das vermutlich die 4er-Serie sowie die Reasoning-Modelle o1, o3 und o4 überholen wird, können soll. Aber zahlreiche Marktgerüchte deuten auf folgende Features und Funktionen hin, die naheliegend sind:
1. Multimodalität
GPT-5 soll Text, Bilder, Audio und Video nativ verarbeiten können („all-in-one“-Modell) und diese Fähigkeiten flexibel kombinieren, sodass Aufgaben wie Bildbeschreibung, Dokumentenanalyse und Sprachbefehle in einer Sitzung möglich sind. Wie schon bei GPT-4.1 bedarf es also keinem separaten Bild- oder Video-Modell wie Dall-E oder Sora mehr.
2. Größere Kontextfenster
Es wird über außerordentlich große Kontextfenster spekuliert – von 1 Million Tokens bis zu 2 Millionen Tokens ist die Rede, was es ermöglichen würde, etwa ganze Bücher oder große Codebasen auf einmal zu analysieren. Damit könnten sehr lange und detailreiche Konversationen ohne Gedächtnisverlust geführt werden.
3. Erweiterte Gedächtnisfunktion
GPT-5 soll Sitzungs- und Langzeitgedächtnis haben, d. h., vergangene Dialoge, Präferenzen und Kontextdetails werden für ein personalisiertes Nutzungserlebnis gespeichert.
4. Verbesserte Reasoning- und Planungsfähigkeiten
Der Fokus liegt auf besserer logischer Schlussfolgerung, mehrstufigem Denken und umfassenderem Problemlösungsvermögen – auch für komplexe Aufgaben.
5. Keine Modell-Verwirrung mehr
Anstelle von mehreren spezialisierten Modellen (z. B. für Schnelligkeit oder komplexe Logik) wird GPT-5 diese Fähigkeiten automatisch auswählen und kombinieren. Das bedeutet, dass der Nutzer nicht mehr selbst das Modell wählen muss. Derzeit kann man ja bei ChatGPT in einem Dropdown-Menü zwischen GPT-4o, GPT-4.1, GPT-4.5, o3, o3-pro, o4-mini, o4-mini-high oder GPT-4.1-mini.
6. Verbesserte Multimodalität
Neben Text und Bildern soll GPT-5 auch mit Videos und Audio noch flexibler und intuitiver umgehen. Es wird gemutmaßt, dass GPT-5 Aufgaben wie Bildgenerierung, Videoanalyse und Spracheingaben in einer Sitzung unterstützt.
7. Erhöhte Personalisierung
GPT-5 könnte sich dauerhaft an Nutzerpräferenzen, Schreibstil und Sitzungsverlauf erinnern, um stärker personalisierte Antworten zu liefern.
8. Performance & Architektur
- Massive Steigerung der Modellparameter wird angenommen (evtl. 3–5 Billionen Parameter) für höhere Präzision, allerdings gibt es hierzu keine offiziellen Zahlen
- Verbesserte Effizienz, schnellere Antwortzeiten und ggf. Wegfall von bisherigen Begrenzungen wie Nachrichtenlimits oder Wartezeiten
9. Sicherheit und Zuverlässigkeit
OpenAI möchte GPT-5 deutlich robuster gegenüber sogenannten Halluzinationen machen und großen Wert auf Sicherheit und Nachvollziehbarkeit legen.
10. Weitere Spekulationen
- Default-Voice-Funktionen, also Sprachinteraktion „out-of-the-box“
- Möglicher realer Zeitbezug in der Wissensaktualisierung und Datenverarbeitung
- Noch stärkere Code-Erstellung und Softwareentwickler-Tools