Wort der Woche

KI: Stromfresser und CO2-Schleudern

Manche Verfahren der künstlichen Intelligenz sind wahre Stromfresser und CO₂-Schleudern. Die Forscher suchen nun nach ressourcenschonenderen Methoden.

Maschinelles Lernen, eine der wichtigsten Methoden der künstlichen Intelligenz (KI), ist nicht nur extrem datenhungrig, sondern benötigt auch immens viel Energie – vor allem in der Trainingsphase, wenn die künstlichen neuronalen Netzwerke anhand riesiger Mengen von Trainingsdaten gewisse Zusammenhänge lernen. Ein aktuelles Beispiel ist GPT-3 (Generative Pre-trained Transformer 3), ein Sprachalgorithmus mit 175 Mrd. Parametern, der Texte in bisher ungeahnter Qualität produziert: Ein vollständiger Trainingslauf von GPT-3 dauert eineinhalb Wochen, verschlingt dabei 1200 MWh Strom und produziert 550 Tonnen CO₂. Das entspricht dem Jahresstromverbrauch von fast 500 Haushalten bzw. den Emissionen von rund 3000 Flügen Wien–London.

KI gilt neben Cloud Computing, virtueller Realität und Blockchains als einer der großen Treiber für den wachsenden Stromverbrauch im IT-Sektor. Allein das Internet (inklusive Rechenzentren) steht jetzt schon für rund zwei Prozent der weltweiten CO₂-Emissionen – ähnlich viel wie der globale Flugverkehr. Immer mehr KI-Forscher streben daher an, mit Energie möglichst effizient umzugehen.

Eine Forschergruppe um David Patterson (Google und University of California, Berkeley) hat berechnet, dass der Energieverbrauch von KI-Systemen – trotz einer Verdopplung der Rechenleistung alle drei Monate – stark eingebremst und mittelfristig sogar stabilisiert werden könnte: Effizientere Algorithmen senken den Energieverbrauch um das Fünf- bis Zehnfache; spezielle Chips (GPU, TPU) sind um den Faktor zwei bis fünf sparsamer; und die konsequente Nutzung von Datencentern (die viel effizienter arbeiten als lokale Rechner) vermindert den Ressourceneinsatz um den Faktor 1,4 bis zwei (Computer 55, 7, p18; online 29. 6.).

Es kann sogar noch einfacher gehen, den CO₂-Fußabdruck von KI zu verkleinern, wie Forscher um Jesse Dodge (Allen Institute for AI, Seattle) nun durch exakte Messungen gezeigt haben: Wegen der regional und zeitlich unterschiedlichen Zusammensetzung des Strommixes spielen der Standort einer Serverfarm und der Zeitpunkt, wann eine Berechnung durchgeführt wird, eine große Rolle: Wenn man diese klug wählt, können die Emissionen glatt um 40 bis 80 Prozent reduziert werden (arXiv:2206.05229v1; online 10. 6.).

Dies möge als Beispiel dafür dienen, dass man rein durch überlegte Planung die CO₂-Emissionen spürbar vermindern kann.

Der Autor leitete das Forschungsressort der „Presse“ und ist Wissenschaftskommunikator am AIT.

meinung@diepresse.com

www.diepresse.com/wortderwoche

("Die Presse", Print-Ausgabe, 14.08.2022)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.