Mit der Einführung von ChatGPT im Jahr 2022 hat die Ära der Künstlichen Intelligenz begonnen. Eine aktuelle Studie von Goldman Sachs hat sich nun angesehen, wie sich dieser Boom auf den Stromverbrauch und damit auch auf die weltweiten CO₂-Emissionen auswirken wird.
Eine ChatGPT-Anfrage kostet mit 2,9 Wattstunden rund zehnmal so viel Energie wie eine Google-Suche mit 0,3 Wattstunden. Zum Vergleich: Eine LED-Glühbirne verbraucht zwischen sechs bis neun Watt pro Stunde. Schon 2025 werden ChatGPT, Google Gemini und ihre Konkurrenten täglich millionenfach genutzt und erhöhen den weltweiten Strombedarf messbar. Aber wir stehen erst am Anfang der KI-Ära. Goldman Sachs Research schätzt in einer aktuellen Studie, dass sich die CO₂-Emissionen der Rechenzentren zwischen 2022 und 2030 mehr als verdoppeln könnten.
Sie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenRechenzentren als Stromfresser
Der höhere Stromverbrauch durch die KI fällt nicht auf Seiten der Nutzer:innen an, sondern in den Rechenzentren der Tech-Konzerne. Über die ganze Welt verteilt stehen tausende Prozessoren, die unsere Anfragen verarbeiten und dabei große Mengen an Energie benötigen.
Energieintensiv sind nicht nur die Anfragen der Nutzer:innen, sondern auch das Training der Sprachmodelle. Damit sie von der Konkurrenz nicht abgehängt werden, verbessern Tech-Konzerne ihre Sprachmodelle laufend durch Training. Mit diesem Vorgang sind wochenlang Tausende Prozessoren beschäftigt. Für ChatGPT-3 wurden schätzungsweise 1,287 Megawattstunden Energie verbraucht. Das würde ausreichen, um einen durchschnittlichen österreichischen Haushalt etwa 322 Jahre mit Strom zu versorgen.
Derzeit machen Rechenzentren etwa ein bis zwei Prozent des weltweiten Energieverbrauchs aus. Bis 2030 könnte dieser Anteil auf 3–4 Prozent steigen, rechnet Goldman Sachs vor. Besonders groß könnte der Anstieg in den USA ausfallen. Dort könnten Rechenzentren bis 2030 acht Prozent des US-Stroms verbrauchen.
KI-Wettrennen lässt CO₂-Emissionen steigen
Der Bedarf an Rechenleistung steigt nicht erst seit dem KI-Boom. Von 2015 bis 2019 verdreifachten sich die Datenmengen, doch der Stromverbrauch der Rechenzentren blieb bei rund 200 Terawattstunden pro Jahr konstant. Das lag vor allem an Effizienzsteigerungen.
Doch der enorme Verbrauch der KI-Modelle lässt sich so nicht mehr ausgleichen. Der Stromverbrauch steigt und damit auch die Emissionen. Aus einem Bericht des Weltwirtschaftsforums geht hervor, dass die Emissionen von Microsoft seit 2020 um fast 30 Prozent gestiegen sind – vor allem wegen des KI-getriebenen Ausbaus der Rechenzentren. Bei Google stiegen die Emissionen bis 2023 um fast 50 Prozent gegenüber 2019, auch hier dürften die hauseigenen KI-Modelle maßgeblich verantwortlich gewesen sein.

Konflikte mit Klimaschutz
Laut Goldman Sachs könnte der gesellschaftliche „Klimakostenfaktor“ von KIs bei 125 bis 140 Milliarden Dollar liegen. Tech-Unternehmen versuchen zwar, den Energieverbrauch zu senken, doch die steigende Nachfrage macht es schwer, die Emissionen insgesamt zu reduzieren.
Goldman Sachs rechnet in seiner Studie mit einem steigenden Gasbedarf und auch Atomkraft könnte zur Anwendung kommen. Ende 2024 wurde etwa angekündigt, dass ein Reaktor im stillgelegten US-Atomkraftwerk Three Mile Island wieder hochgefahren werden soll. Abnehmer sind in dem Fall die Rechenzentren von Microsoft. Doch auch ohne fossile Brennstoffe und Atomkraft wäre ein Wachstum in KI-Branche möglich.
Viele Lösungen am Horizont
Neue Hardware wie spezialisierte Chips können den Energiehunger von KI-Modellen enorm reduzieren. Der Chip-Hersteller Nvidia kann mit seiner neuesten Generation an Chips generative KI 30-mal schneller ausführen – mit nur einem Bruchteil der Energie.
Auch die Software spielt eine große Rolle. Effizientere KI-Architekturen könnten den Energieverbrauch um das 100- bis 1.000-Fache senken. Ein neuer KI-Chatbot aus China hat Anfang des Jahres bereits für Aufruhr in der Techbranche gesorgt, weil die Macher:innen bereits eine solche Effizienzsteigerung erreicht haben.
Zu guter Letzt kann auch der verstärkte Einsatz erneuerbarer Energien wie Solar- und Windkraft den CO₂-Fußabdruck von Rechenzentren deutlich reduzieren. In Kombination mit einer Strategie zur nachhaltigen Nutzung von Rechenleistung lässt sich der positive Effekt erneuerbarer Energien weiter verstärken. Rechenintensive und damit stromfressende KI-Aufgaben könnte man zum Beispiel in Zeiten hoher Verfügbarkeit erneuerbarer Energien planen.
KI weckt Klimahoffnungen
Es gibt jedoch auch die berechtigte Hoffnung, dass KI einen Beitrag zur Bekämpfung der Klimakrise leisten kann. Ein Bericht der US-amerikanischen Unternehmensberatung Boston Consulting Group (BCG) sieht so etwa das Potenzial, dass KI-Anwendungen helfen können, die Treibhausgasemissionen erheblich zu reduzieren. Bis 2030 könnten so fünf bis zehn Prozent Einsparung möglich sein, hieß es in der Studie „How AI Can Speed Climate Action„.
Ob KI am Ende mehr zur Klimakrise beiträgt oder bei ihrer Lösung hilft, hängt von den Entwicklungen der kommenden Jahre ab. Regierungen, Tech-Konzerne und Wissenschaft müssen zusammenarbeiten, um den steigenden Energiebedarf einzudämmen. Gelingt es dann auch, Künstliche Intelligenz gezielt für nachhaltige Innovationen einzusetzen, könnte sie auch eine treibende Kraft für den Klimaschutz werden. (APA/Red)