OpenAI steckt täglich 700.000 Dollar in Betrieb von ChatGPT
Das KI-Tool ChatGPT beeindruckt schon seit Monaten mit seiner hohen Leistungsfähigkeit und hat einen echten AI-Hype losgetreten. Doch das hat auch seinen Preis: Laut t3n muss Betreiber OpenAI bis zu 700.000 Dollar pro Tag ausgeben, um das große Sprachmodell (LLM) am Laufen zu halten. Das Marktforschungsunternehmen SemiAnalysis hat diese Zahl ermittelt und führt sie vor allem auf die teuren Server zurück, die nötig sind, um das System zu betreiben.
GPT-4 könnte OpenAI noch mehr kosten
Tatsächlich könnten die aktuellen Kosten sogar noch höher sein. Denn die Berechnungen von SemiAnalysis basierten auf GPT-3, der Vorgängerversion, die nun die ältere und jetzt kostenlose Version von ChatGPT antreibt. Der Betrieb des neuesten LLM von OpenAI, GPT-4, könnte noch teurer sein. KI-Anwendungen erfordern teure Spezial-Chips, die unglaublich viel Strom verbrauchen. Das ist der Hauptgrund, warum KI-Firmen wie Google und Amazon, aber auch das hinter OpenAI stehende Microsoft massiv in die Entwicklung eigener Chips investieren.
Während Google und Amazon ihre Chips schon im Produktiveinsatz verwenden, entwickelt Microsoft seit 2019 und immer noch an seinem intern als „Athena“ bezeichneten Chip. Inzwischen soll er einigen wenigen Microsoft- und OpenAI-Mitarbeiter:innen zur Verfügung stehen. „Athena könnte, wenn er wettbewerbsfähig ist, die Kosten pro Chip im Vergleich zu Nvidias Angeboten um ein Drittel senken“, meint Dylan Patel, Chefanalyst von SemiAnalysis. Die bislang verwendeten Nvidia-Chips scheint Microsoft indes nicht vollständig ablösen zu wollen. Immerhin haben beide Unternehmen jüngst eine umfangreiche und auf mehrere Jahre angelegte KI-Partnerschaft vereinbart.
Projekt „Magi“: Google baut Search gegen die ChatGPT-Bedrohung radikal um
ChatGPT könnte Grenze der Skalierbarkeit erreicht haben
Generell galt bislang für KI-Modelle, dass ihre Leistungsfähigkeit direkt mit ihrer Größe korreliert. Letztere wiederum korreliert direkt mit den Betriebskosten. OpenAI-Chef Sam Altman glaubt, dass „wir am Ende der Ära“ der „riesigen KI-Modelle“ stehen. Große Sprachmodelle wie ChatGPT hätten aufgrund ihrer enormen Größe einen Punkt erreicht, an dem der Ertrag abnimmt. Mit einer Größe von mehr als einer Billion Parametern könnte OpenAIs neuestes GPT-4-Modell bereits an der Grenze der praktischen Skalierbarkeit angelangt sein. Zu diesem Ergebnis kommt jedenfalls OpenAI in einer eigenen Analyse.