Künstliche Intelligenz

OpenAI steckt täglich 700.000 Dollar in Betrieb von ChatGPT

Logo von OpenAI. © Trending Topics
Logo von OpenAI. © Trending Topics
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Das KI-Tool ChatGPT beeindruckt schon seit Monaten mit seiner hohen Leistungsfähigkeit und hat einen echten AI-Hype losgetreten. Doch das hat auch seinen Preis: Laut t3n muss Betreiber OpenAI bis zu 700.000 Dollar pro Tag ausgeben, um das große Sprachmodell (LLM) am Laufen zu halten. Das Marktforschungsunternehmen SemiAnalysis hat diese Zahl ermittelt und führt sie vor allem auf die teuren Server zurück, die nötig sind, um das System zu betreiben.

Deutsche Datenschutzbehörde wird gegen ChatGPT aktiv

GPT-4 könnte OpenAI noch mehr kosten

Tatsächlich könnten die aktuellen Kosten sogar noch höher sein. Denn die Berechnungen von SemiAnalysis basierten auf GPT-3, der Vorgängerversion, die nun die ältere und jetzt kostenlose Version von ChatGPT antreibt. Der Betrieb des neuesten LLM von OpenAI, GPT-4, könnte noch teurer sein. KI-Anwendungen erfordern teure Spezial-Chips, die unglaublich viel Strom verbrauchen. Das ist der Hauptgrund, warum KI-Firmen wie Google und Amazon, aber auch das hinter OpenAI stehende Microsoft massiv in die Entwicklung eigener Chips investieren.

Während Google und Amazon ihre Chips schon im Produktiveinsatz verwenden, entwickelt Microsoft seit 2019 und immer noch an seinem intern als „Athena“ bezeichneten Chip. Inzwischen soll er einigen wenigen Microsoft- und OpenAI-Mitarbeiter:innen zur Verfügung stehen. „Athena könnte, wenn er wettbewerbsfähig ist, die Kosten pro Chip im Vergleich zu Nvidias Angeboten um ein Drittel senken“, meint Dylan Patel, Chefanalyst von SemiAnalysis. Die bislang verwendeten Nvidia-Chips scheint Microsoft indes nicht vollständig ablösen zu wollen. Immerhin haben beide Unternehmen jüngst eine umfangreiche und auf mehrere Jahre angelegte KI-Partnerschaft vereinbart.

Projekt „Magi“: Google baut Search gegen die ChatGPT-Bedrohung radikal um

ChatGPT könnte Grenze der Skalierbarkeit erreicht haben

Generell galt bislang für KI-Modelle, dass ihre Leistungsfähigkeit direkt mit ihrer Größe korreliert. Letztere wiederum korreliert direkt mit den Betriebskosten. OpenAI-Chef Sam Altman glaubt, dass „wir am Ende der Ära“ der „riesigen KI-Modelle“ stehen. Große Sprachmodelle wie ChatGPT hätten aufgrund ihrer enormen Größe einen Punkt erreicht, an dem der Ertrag abnimmt. Mit einer Größe von mehr als einer Billion Parametern könnte OpenAIs neuestes GPT-4-Modell bereits an der Grenze der praktischen Skalierbarkeit angelangt sein. Zu diesem Ergebnis kommt jedenfalls OpenAI in einer eigenen Analyse.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Podcast: Mit den smartesten Köpfen im Gespräch

Der Podcast von Trending Topics

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen