ChatGPT verbraucht 17 TWh Strom pro Jahr – KI wird zur Energiefrage
Eine neue Analyse zeigt, wie stark der Energiebedarf moderner KI-Modelle ansteigt.
Mit dem Start von GPT-5.2 rückt nicht nur die Leistungsfähigkeit, sondern auch der massive Stromverbrauch von KI-Systemen in den Fokus.
OpenAI hat kürzlich das neue Modell GPT-5.2 vorgestellt, das als bislang fortschrittlichste künstliche Intelligenz des Unternehmens gilt. Es soll insbesondere die allgemeine Intelligenz, Programmierfähigkeiten sowie das Verständnis langer Kontexte weiter verbessern. Mit dieser Leistungssteigerung gehen jedoch deutlich höhere Kosten einher. Eine aktuelle Analyse von BestBrokers zeigt, dass allein der Stromverbrauch von ChatGPT zur Beantwortung von Nutzeranfragen mittlerweile ein Ausmass erreicht hat, das mit dem Energiebedarf ganzer Staaten vergleichbar ist.
Laut der Untersuchung benötigt eine einzelne ChatGPT-Anfrage durchschnittlich 18,9 Wattstunden Strom. Damit liegt der Energieverbrauch pro Anfrage mehr als 50-mal höher als bei einer klassischen Google-Suche, die rund 0,3 Wattstunden beansprucht. Hochgerechnet auf die globale Nutzung ergibt sich ein enormer Jahresverbrauch.
Die Analyse geht von rund 810 Millionen aktiven wöchentlichen Nutzerinnen und Nutzern aus, die im Schnitt 22 Anfragen pro Woche stellen. Daraus resultiert ein jährlicher Strombedarf von rund 17,23 Terawattstunden. Diese Energiemenge entspricht in etwa dem gesamten Jahresstromverbrauch von Ländern wie Puerto Rico oder Slowenien. Alternativ ausgedrückt: Die für ChatGPT benötigte Energie würde ausreichen, um New York City rund 113 Tage lang mit Strom zu versorgen.
Auf Basis des durchschnittlichen US-amerikanischen Strompreises für gewerbliche Abnehmer von 0,141 US-Dollar pro Kilowattstunde ergeben sich jährliche Stromkosten von etwa 2,42 Milliarden US-Dollar – ausschliesslich für den Betrieb zur Beantwortung von Nutzeranfragen.
Die tägliche Nutzung verdeutlicht die Dimension ebenfalls: Mehr als 2,5 Milliarden Anfragen pro Tag verbrauchen zusammen über 47 Millionen Kilowattstunden Strom. Damit könnte der tägliche Energiebedarf von Millionen Haushalten gedeckt werden. Über ein Jahr betrachtet entspräche der Stromverbrauch von ChatGPT der vollständigen Aufladung von rund 238 Millionen Elektrofahrzeugen mit einer durchschnittlichen Batteriekapazität von 72,4 Kilowattstunden.
Darüber hinaus übersteigt der Energiebedarf von ChatGPT bereits heute den gesamten Stromverbrauch zahlreicher kleinerer Staaten und Regionen, darunter Litauen, Costa Rica, Luxemburg oder die Mongolei. Rein rechnerisch könnte die jährlich benötigte Energie sogar die gesamte USA für rund 34 Stunden oder das Vereinigte Königreich für nahezu 20 Tage mit Strom versorgen.
„Die neuesten Generationen von ChatGPT und anderen KI-Spitzenmodellen liefern beeindruckende Fortschritte bei logischem Denken und generativer Genauigkeit. Gleichzeitig werden ihre Energieanforderungen immer schwieriger zu ignorieren. Trainingsläufe moderner Systeme benötigen inzwischen zig Gigawattstunden, und auch der laufende Betrieb ist energieintensiv. Effizienzsteigerungen existieren zwar, werden jedoch vom rasanten Nutzungswachstum und der zunehmenden Modellgrösse überholt. Ohne mehr Transparenz und strengere Optimierungsstandards droht der Fortschritt der KI erhebliche infrastrukturelle und ökologische Belastungen zu verursachen.“ sagt Alan Goldberg, Datenanalyst und Autor bei BestBrokers
Die Studie macht deutlich, dass der rasante Ausbau leistungsfähiger KI-Systeme nicht nur technologische, sondern auch energiepolitische und wirtschaftliche Fragen aufwirft. Während künstliche Intelligenz zunehmend zum selbstverständlichen Bestandteil des Alltags wird, rückt ihr Stromverbrauch immer stärker in den Mittelpunkt der Debatte um Nachhaltigkeit, Infrastruktur und langfristige Versorgungssicherheit.
Quelle: BestBrokers
Bildquelle: BestBrokers | jackpress/shutterstock.com

