Meinungen

Wie Startup-Gründer:innen über GPT-5 urteilen

GPT-5-Roboter stellt sich der strengen Jury in Symbolbild. © Trending Topics via ChatGPT 5
GPT-5-Roboter stellt sich der strengen Jury in Symbolbild. © Trending Topics via ChatGPT 5
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

GPT-5 ist gelandet, wenn auch eher unsanft. Während es im Consumer-Bereich bereits einen Rückschlag gab und OpenAI wieder das ältere KI-Modell GPT-4o zurückbrachte, stellt sich auch die Frage, ob GPT-5 im Business-Sektor ein Renner wird. Preislich hat das KI-Unternehmen rund um CEO Sam Altman ja ordentlich vorgelegt und die API-Kosten, die Unternehmen vom Startup bis Corporate für die Nutzung von Input und Output bezahlen, ordentlich abgesenkt.

Wie berichtet, liegen die API-Preise teilweise sehr deutlich unter jenen der Hauptkonkurrenten Anthropic (Claude 4), Google (Gemini 2.5 Pro) oder xAI (Grok 4). Bei Cursor, Perplexity, Lovable, vielen Microsoft-Produkten und künftig auch Apples iOS 26 wird GPT-5 integriert sein. Doch reichen diese günstigen Preise, dass das neue OpenAI-Modell überall integriert wird – und wollen Unternehmen zugunsten von GPT-5 auf die KI-Modelle der Konkurrenz verzichten?

Wir haben bei einer Reihe von österreichischen AI-Tech-Gründern nachgefragt:

„Mit GPT-5 ist es fast schon lustig anzusehen, wie der Release die Gemüter spaltet. Ich verstehe überhaupt nicht, wieso manche Leute den „netten“ GPT-Modellen nachweinen. Wieso sollte ich Sycophancy wollen? Und dass GPT-5 keine AGI ist, kommentiere ich jetzt mal nicht.

Für mich ist GPT-5 genau das, was das interne OpenAI Team seit Monaten immer wieder in Talks durchblicken hat lassen: In einer einzigen Oberfläche vereint eine agentische Struktur mehrerer Capabilities, in der User ganz natürlich ohne viel Wissen interagieren können, während die Komplexität im Hintergrund abgewickelt wird und der Prozess trotzdem verfolgbar bleibt. OpenAI hat von Manus, Claude und Cursor die jeweiligen Stärken gelernt und umgesetzt: die Last vom Nutzer auf das Produkt verlagert und zeitgleich Coding wichtiger gemacht.

Was mich dabei besonders freut, ist, wie Tool-Calling und Memory-Integration immer einfacher werden – für Endnutzer und auch Entwickler:innen. Ich merke, obwohl wir schon alleine wegen unserer Arbeit andauernd alle Modelle und alle AI-Assistant-Produkte nebeneinander testen, wie ich selbst immer stärker ins OpenAI-Ökosystem hineingezogen werde, weil meine persoenlichen kontextbezogene Informationen über Interaktionen hinweg behalten werden und in Echtzeit die richtigen Tools und Integrationen vom Agent ausgewählt werden. Funktioniert alles reibungslos? Sowieso nicht. Sieht man, dass OpenAI liefert? Definitiv.

Wie wir GPT-5 getestet haben, kam bei mir ind er ersten Sekunde kurz der Gedanke, ob OpenAI vielleicht am Ende tatsächlich alles an sich reißen wird – denn das persönliche kontextuelle Wissen, bezogen auf einen einzelnen User, das OpenAI offensichtlich sehr gut aufbaut, kombiniert mit einfachster Usability, ist schwer zu schlagen. Ich habe die Vibe-Coding-Sachen der letzten Tage schon nur noch auf GPT-5 und Replit verlagert, anstelle der anderen vier Tools, die ich normalerweise parallel hatte. Meine automatisierten Follow-ups und CRM-Fragen habe ich von zwei CRM-Tools auf GPT-5 verlagert. Freue mich schon darauf zu sehen, was die anderen Model-Player als Nächstes liefern!“

Daniel Kainrath, CEO und Mitgründer von fonio.ai

„Wir bauen fonio.ai LLM-agnostisch. Wir können daher jederzeit zwischen Modellen und Anbietern wechseln. Das führt dazu, dass wir uns immer über neue Modelle freuen, weil sie unser Produkt passiv besser machen. Aktuell setzen wir auf GPT-4.1 mini, weil es die beste Kombination aus Latenz und Intelligenz bietet. Bei einer Telefon-KI ist nämlich die Latenz entscheidender als reine Intelligenz.

GPT-5 hat in unseren Tests eine Latenz von 1.500–3.000 ms – und das ist nur der LLM-Teil. Damit fonio funktioniert, kommen noch Server, TTS, Voice und Telefonie hinzu. Im Vergleich liegt unsere gesamte Infrastruktur aktuell bei 800–1.500 ms.
Deshalb freuen wir uns zwar über neue Modelle, warten aber noch immer darauf, dass 4.1 mini in der Kombi aus Latenz und Intelligenz überboten wird.“

Matteo Rosoli, CTO und Mitgründer von newsrooms.ai

„GPT‑5 wurde stark gehypt. Diesem Anspruch konnte – und musste – es nicht in vollem Umfang gerecht werden. Trotzdem ist es im Kern ein spürbarer Fortschritt, wenn man es richtig einsetzt. Insofern ist GPT‑5 ein sehr gutes Modell. Es ist keine AGI und sollte auch nicht als solche betrachtet werden, aber im Vergleich zu o3 ist es in vielen Anwendungsfällen schlicht die bessere Version. Besonders im Thinking Mode mit hohem Reasoning‑Aufwand spürt man die Weiterentwicklung deutlich.

Die Non‑Thinking‑Variante von GPT‑5 empfinde ich hingegen als enttäuschend. Hier erhalte ich oft nicht den Qualitätsstandard, den ich von anderen Modellen inzwischen gewohnt bin. Genau deshalb setzen wir bei newsrooms auf unsere AI‑Factory mit Multi‑Modell‑Ansatz – um aus jedem Modell das Optimum herauszuholen.

OpenAI scheint mit dem Pricing von GPT‑5 klar auf eine Verteidigungsstrategie gegen Marktverluste, insbesondere im Coding‑Bereich gegenüber Anthropic, zu setzen. Ob das wirtschaftlich tragfähig ist, bleibt abzuwarten.“

Vlad Gozman, CEO und Gründer von involve.me

„Unser involve.me AI Agent ist wie ein Orchesterleiter – er ist modell-agnostisch und entscheidet in Echtzeit, welches Modell den Job am besten spielt. Manchmal ist das ein großes, komplexes Modell, manchmal ein kleines, schnelles. Entscheidend ist: das richtige Modell für die richtige Aufgabe. Wir haben eigene Tools speziell für unseren Anwendungsfall entwickelt und so optimiert, dass die KI effizient arbeiten kann, wenn sie etwas ausführen soll. Am wichtigsten ist dabei, dass die Modelle präzise Anweisungen befolgen und Tool Calls zuverlässig ausführen.

Aktuell testen wir GPT-5 intensiv und optimieren den System Prompt, bevor wir es für alle Nutzer freigeben. Dabei ist es entscheidend, zwischen GPT-5 in ChatGPT und GPT-5 über die API zu unterscheiden.

Unsere Top-Modelle sind derzeit GPT-4.1, GPT-5, o4-mini, o3 und Claude Sonnet 4. Wir erreichen im Schnitt eine Gesamtdauer von 4,5 Sekunden pro Anfrage, mit einer Latenz von 940 ms und einer reinen Generierungszeit von 1,1 Sekunden, plus etwa 500–800 ms für den kompletten Roundtrip vom Moment wo ein User den Prompt abschickt.

Ein Beispiel: Soll nur der Fragetext geändert werden, nutzen wir lieber ein kleineres Modell, das das in Millisekunden erledigt, statt ein größeres, das Sekunden braucht. So entscheiden wir sogar den Funnel-Typ vorab, basierend auf dem, was ein Nutzer eingibt.“

Dima Rubanov, Mitgründer von FragDasPDF.de, Branding5 & OscarStories

„GPT-5 ist definitiv ein starkes Modell, aber ich persönlich sehe keinen riesigen Sprung zum Vorgänger! Als Tech Entrepreneur habe ich gelernt das Modell zu verwenden, welches am Besten zur Aufgabe passt. Für Code, Recherche, Schreiben oder Agentenarbeit haben Modelle unterschiedliche Stärken.

Deshalb nutzen wir bei Branding5 mehrere Anbieter parallel, weil besonders bei einem komplexen Thema wie Brand & Markenbildung kein einzelnes überall vorne liegt. Und bei FragDasPDF können Nutzer:innen ihr bevorzugtes Modell selbst wählen. Kurz: Wir gehen Richtung Model-Mix statt Einheitslösung. GPT-5 erweitert die Auswahl, ersetzt sie nicht.“

Philip Baldauf, CEO und Mitgründer von Ahoi Kapptn!

„Mein Eindruck: Die Reviews zu GPT-5 sind sehr gemischt – stark in Benchmarks und Reasoning, schwächer in Tonalität/Verlässlichkeit. Viele vermissen die „Persönlichkeit“ älterer Modelle.

Das neue „Auto“-Routing ist für Basis-Nutzer bequem. Für Workflows, die gezielt 4o/4.1/o3-Modelle einsetzen, war der Wegfall der manuellen Auswahl ein Bruch – nicht zufällig hat OpenAI 4o nach Nutzerprotesten bereits wieder sichtbar gemacht.

Persönlich vermute ich auch Kostendruck hinter dem Auto-Ansatz: Routing wirkt oft auf günstigere Modelle. Subjektiv hat die Qualität spürbar gelitten – ich nutze vorerst häufiger Gemini 2.5 Pro, bis OpenAI das nachschärft.“

Patrick Ratheiser, CEO von Leftshift One

„Als RAG-Anbieter setzen wir seit jeher auf faktenbasierte Antworten. Retrieval-Augmented Generation ist dafür essentiell und unverzichtbar – und daran ändert auch GPT-5 nichts. Das bestätigt übrigens auch die Reddit-Community.

Unser Ansatz: Unsere internen KI-Agenten wählen je nach Anfrage automatisch das kosteneffizienteste Modell, um präzise Ergebnisse zu liefern. Wer wissen möchte, wie er seinen Urlaub bucht, braucht keine Antwort im Stil von Rainer Maria Rilke.

Derzeit sehen wir vor allem zwei Punkte:

  1. Verfügbarkeit – bei GPT-4.1 haben unsere Kunden im hohen zweistelligen Millionenbereich 25-mal mehr Tokens über die API als bei GPT-5. Letzteres ist aktuell weder in der Verfügbarkeit noch in den Latenzzeiten unternehmenstauglich.
  2. Abnehmende Modellvielfalt – immer weniger Nutzer wissen, welches Modell für welche Aufgabe optimal ist. In MyGPT gibt es deshalb nur Premium und Standard. Die Auswahl übernimmt unser RAG-Agent – der Nutzer muss es nicht wissen.

Fazit: GPT-5 ist spannend – aber für unsere Kunden zählt, dass sie schnell, zuverlässig und faktenbasiert Antworten erhalten. Genau das liefern wir – unabhängig vom Modell-Hype.“

Alexander Wahler, CEO und Co-Founder von Onlim

„Wir bei Onlim entwickeln komplexe Conversational-AI-Anwendungen für Unternehmenskunden – auf Basis von Agentic AI und Wissensgraphen in unserer Plattform. Mit GPT-5 machen unsere Systeme einen weiteren großen Leistungssprung. Die verbesserten „Reasoning“-Fähigkeiten – also die Fähigkeit, Aufgaben logisch zu analysieren, zu planen und einzelne Schritte sinnvoll zu verknüpfen – bringen deutlich mehr Präzision und sorgen für verlässlichere Ergebnisse. So können wir heute Prozesse abbilden, die früher schlicht zu komplex waren.

Erste Tests im Bereich Steuer- und Finanzfragen haben das bereits eindrucksvoll gezeigt. Für unsere Voice Anwendungen wird GPT5-mini im Hybrid-Einsatz mit anderen Modellen komplexe mehrstufige Aufgaben lösen und trotzdem die Latenz niedrig halten.“

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

Startup & Scale-up Investment Tracker 2025

Die größten Finanzierungsrunden des Jahres im Überblick

Future{hacks}

Zwischen Hype und Realität
#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe
Die 2 Minuten 2 Millionen Investoren. © PULS 4 / Gerry Frank

2 Minuten 2 Millionen | Staffel 12

Die Startups - die Investoren - die Deals - die Hintergründe

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen