KI könnte den Energieverbrauch explodieren lassen
Die Digitalisierung bietet viele Möglichkeiten, um Energie zu sparen, heißt es immer wieder. Das ist durchaus richtig. Aber je komplexer die Anwendungen sind, desto höher ist auch ihr eigener Energiebedarf. Eine Analyse zeigt: Künstliche Intelligenz (KI) könnte daher zu einem gegenteiligen Effekt führen – und die Grenzen des bisherigen Energieverbrauchs regelrecht sprengen.
Künstliche Intelligenz (KI) verspricht, industrielle Prozesse effizienter zu gestalten, beim autonomen Fahren den Kraftstoffverbrauch zu senken und im Alltagsleben die Abläufe besser aufeinander abzustimmen. Abgesehen von zunehmendem Komfort und einer großen Zeitersparnis wird künstliche Intelligenz vor allem mit der Möglichkeit zu Energieeinsparungen in Verbindung gebracht. Allerdings: Wer zum Beispiel ChatGPT eine Rechenaufgabe stellt, statt den Taschenrechner zu verwenden, erhöht den Energieverbrauch. Im großen Stil könnte das zum Problem werden.
„Angesichts der wachsenden Nachfrage nach KI-Dienstleistungen ist es sehr wahrscheinlich, dass der Energieverbrauch im Zusammenhang mit KI in den kommenden Jahren erheblich ansteigen wird“, sagt Alex de Vries, Doktorand an der Vrije Universiteit Amsterdam, der eine entsprechende Analyse durchgeführt hat.
Der enorme Energieverbrauch der KI ChatGPT
Seit 2022 hat die generative KI, die Texte, Bilder oder andere Daten erzeugen kann, einen rasanten Aufschwung erlebt, darunter auch ChatGPT von OpenAI. Um diese KI-Tools zu trainieren, müssen die Modelle mit großen Datenmengen gefüttert werden, ein Prozess, der sehr energieintensiv ist. Hugging Face, ein in New York ansässiges KI-Entwicklungsunternehmen, berichtete, dass allein sein mehrsprachiges, textgenerierendes KI-Tool während des Trainings etwa 433 Megawattstunden (MWH) verbrauchte, genug, um 40 durchschnittliche amerikanische Haushalte ein Jahr lang mit Strom zu versorgen.
Und der Energie-Fußabdruck der KI endet nicht mit dem Training. De Vries‘ Analyse zeigt, dass das Tool bei seiner Arbeit – der Generierung von Daten auf der Grundlage von Eingabeaufforderungen – jedes Mal, wenn es einen Text oder ein Bild erstellt, auch eine beträchtliche Menge an Rechenleistung und damit Energie verbraucht. Der Betrieb von ChatGPT könnte zum Beispiel 564 MWh Strom pro Tag kosten.
Je mehr die KI kann, desto häufiger wird sie eingesetzt
Zwar arbeiten Unternehmen auf der ganzen Welt daran, die Effizienz von KI-Hardware und -Software zu verbessern, damit das Tool weniger energieintensiv arbeitet, doch laut de Vries führt eine Steigerung der Maschineneffizienz häufig zu einem höheren Bedarf. Letztendlich führt der technologische Fortschritt zu einem Nettoanstieg des Ressourcenverbrauchs, ein Phänomen, das als Jevons’sches Paradoxon bekannt ist. De Vries fasst zusammen: „Wenn wir diese Werkzeuge effizienter und zugänglicher machen, kann das dazu führen, dass wir mehr Anwendungen zulassen und mehr Menschen sie nutzen.“
Google beispielsweise hat generative KI in den E-Mail-Dienst des Unternehmens integriert und testet den Einsatz von KI in seiner Suchmaschine. Das Unternehmen verarbeitet derzeit bis zu neun Milliarden Suchanfragen pro Tag. Auf der Grundlage dieser Daten schätzt de Vries, dass die Google-Suchmaschine, wenn sie bei jeder Suche KI einsetzt, etwa 29,2 TWh Strom pro Jahr benötigen würde – das entspricht dem jährlichen Stromverbrauch Irlands.
Höhe des Energieverbrauchs durch KI
Praktisch greifbar ist dieses Problem allerdings noch nicht. Denn die Kosten für zusätzliche KI-Server sind hoch. Zudem gibt es Engpässe in der Lieferkette für KI-Server. Dennoch ist klar, dass der Einsatz der KI-Server steigt. Voraussichtlich wird er in den kommenden Jahren weiterhin schnell wachsen. Bis 2027 könnte der weltweite KI-bezogene Stromverbrauch um 85 bis 134 TWh jährlich ansteigen, wenn man die Produktion von KI-Servern zugrunde legt.
Diese Menge ist vergleichbar mit dem jährlichen Stromverbrauch von Ländern wie den Niederlanden, Argentinien und Schweden. Darüber hinaus könnten Verbesserungen bei der KI-Effizienz die Entwickler und Entwicklerinnen in die Lage versetzen, einige Computerchips für die KI-Nutzung umzuwidmen, was den KI-bezogenen Stromverbrauch weiter erhöhen könnte.
Einsatz der KI stärker hinterfragen
Die Lösung sieht natürlich nicht so aus, auf den Einsatz künstlicher Intelligenz zu verzichten. Der Wissenschaftler empfiehlt aber, die Verwendung kritischer zu betrachten – und sie nur dort zu nutzen, wo sie wirklich benötigt wird. Anders gesagt: Rechenaufgaben sollten nach Möglichkeit weiterhin mit dem Taschenrechner bewältigt werden. Im Idealfall ist er sogar mit Solarzellen ausgestattet und versorgt sich weitgehend selbst.
Ein Beitrag von: