top of page

Achtung, CO2: Wie klimaschädlich ist die KI wirklich?

Generative KI wie ChatGPT begeistert Millionen Menschen – doch welche Klimakosten stecken dahinter? Werfen wir doch einmal einen Blick darauf, was der CO2-Fußabdruck von Chatbots und anderen generativen KI-Modellen wirklich bedeutet. Wir erklären verständlich den Unterschied zwischen dem energieintensiven Training eines solchen Modells und seiner täglichen Nutzung (Inferenz).


Außerdem betrachten wir konkrete Zahlen zum Stromverbrauch pro KI-Abfrage und vergleichen sie mit Alltagsaktivitäten. Besonders spannend für Österreich: Wie wirkt sich der hohe Anteil an Ökostrom hierzulande auf die Emissionen aus? Wir beleuchten auch die oft unsichtbaren “grauen Emissionen” der nötigen Hardware und fragen: Was tun große Tech-Konzerne, um ihren ökologischen Fußabdruck zu senken?


Abschließend geben wir praktische Tipps für Nutzer*innen, um den eigenen KI-Energieverbrauch zu minimieren, und fassen relevante Aspekte der EU-Regulierung (Stichwort EU AI Act) zur Transparenz des Energieverbrauchs zusammen.


Unterschied zwischen Training und Nutzung

Bevor ein KI-Modell wie ChatGPT überhaupt Antworten geben kann, muss es in einem aufwändigen Prozess trainiert werden. Dieses Training bedeutet, dass das Modell mit riesigen Datenmengen “gefüttert” und seine Milliarden von Parametern angepasst werden – ein einmaliger, aber enorm energiehungriger Vorgang.


Forschungsarbeiten zeigen, dass das Anlernen eines großen Sprachmodells Unmengen an Strom frisst und entsprechend CO2-Emissionen verursacht. So schätzten Google-Forschende z.B., dass allein das Training von OpenAIs Modell GPT-3 rund 1.287 MWh Strom verbrauchte und etwa 552 Tonnen CO₂ ausstieß. Das entspricht dem Jahresverbrauch von 320 österreichischen Familienhaushalten (vier Personen).


Eine oft zitierte Faustregel besagt gar: Die Entwicklung eines einzigen großen KI-Sprachmodells kann so viel CO₂ verursachen wie fünf Autos über ihre gesamte Lebensdauer. Man erkennt: Die “Herstellung” (das Training) generativer KI ist ein CO2-Brocken.


Ist das Modell einmal trainiert, ist es jedoch keineswegs emissionsfrei – nun beginnen die vielen kleinen Häppchen: die Inferenz, sprich die alltägliche Nutzung durch User-Anfragen. Jedes Mal, wenn wir ChatGPT eine Frage stellen oder es Text erzeugen lassen, wird im Hintergrund Rechenleistung in Rechenzentren beansprucht – und das verbraucht ebenfalls Strom.


Zwar ist eine einzelne Antwort viel weniger energieaufwändig als das große Training, aber weil Millionen von Anfragen täglich laufen, summiert sich auch die Nutzung zu einer beträchtlichen Größe. Experten betonen, dass bei populären Modellen die Emissionen der Nutzungsphase innerhalb weniger Wochen oder Monate sogar die des einmaligen Trainings übersteigen können.


Anders gesagt: Training ist der einmalige Initialaufwand, während die laufende Nutzung dauerhaft Energie frisst. Beide zusammen ergeben den gesamten CO2-Fußabdruck eines KI-Systems.


Fazit: Das Training generativer KI-Modelle ist extrem stromintensiv und verursacht schlagartig sehr hohe Emissionen (vergleichbar mit zig Flügen oder dem Lebenszeit-Verbrauch mehrerer Autos). Die Nutzung pro Anfrage verbraucht zwar nur einen winzigen Bruchteil davon, aber weil sie im Alltag millionenfach geschieht, trägt auch sie erheblich zum CO2-Fußabdruck bei.


Zahlen und Alltagsvergleiche

Was bedeutet es nun ganz konkret, wenn wir ChatGPT eine Frage stellen? Wie viel Strom fließt für eine einzige Antwort und wie viel CO₂ entsteht dabei?


Eine Anfrage bei ChatGPT verbraucht den Schätzungen nach etwa 2–3 Wattstunden (Wh) elektrischer Energie. Das klingt verschwindend klein – und tatsächlich entspricht diese Energiemenge grob dem, was eine typische LED-Lampe in 15–20 Minuten leuchtet oder was ein Auto in wenigen zig Metern Fahrt an Sprit verbraucht.


Zum Vergleich: Eine klassische Google-Websuche benötigt rund 0,3 Wh. Eine Unterhaltung mit ChatGPT ist also etwa fünf- bis zehnmal energieintensiver als eine einfache Internet-Suche. Anders formuliert: Zehn ChatGPT-Antworten kommen ungefähr auf den Strombedarf von 100 Google-Suchanfragen.


Klingt dramatisch? Man muss dazu wissen, dass eine einzelne Websuche energetisch gesehen ein absolutes Leichtgewicht ist – wenige Zehntel Wattstunden entsprechen nur einigen Hundertstel Gramm CO₂ unter durchschnittlichen Strommix-Bedingungen. Selbst das “zehnfache” (also ~3 Wh) ist im Haushalt kaum spürbar: Es macht nur etwa 0,00007% des durchschnittlichen täglichen Pro-Kopf-Stromverbrauchs in Europa aus.


Setzen wir es in für Österreicher greifbare Vergleiche um: Eine Tasse Kaffee zuzubereiten erfordert deutlich mehr Energie als eine AI-Abfrage. Allein eine kleine Espressomaschine kann beim Aufheizen und Pumpen einige zig Wattstunden ziehen – grob geschätzt mehr als das Zehnfache einer ChatGPT-Antwort. Auch eine Autofahrt ist um ein Vielfaches klimaschädlicher: Ein durchschnittlicher Benzin-PKW emittiert rund 150 g CO₂ pro Kilometer – dafür könnte man (je nach Stromquelle) Hunderte bis Tausende ChatGPT-Abfragen durchführen.


Sogar manche digitale Aktivitäten, die wir täglich nutzen, liegen über ChatGPT: 90 Minuten Video-Streaming auf Netflix verbrauchen rund 116 Wh – so viel Energie wie 480 ChatGPT-Antworten benötigen würden. Mit solchen Vergleichen wollen wir die KI-Nutzung nicht schönreden, aber einordnen: Eine einzelne KI-Abfrage ist energetisch sehr klein, aber ihre Masse an Anfragen macht den Unterschied.


In Zahlen ausgedrückt verursachen aktuelle große KI-Modelle je nach Rechenzentrum etwa einige Gramm CO₂ pro Prompt. Analysen schätzen ca. 2–4 g CO₂ pro ChatGPT-Frage (inklusive anteiliger Trainingsauswirkungen). Zum Vergleich: Eine einzige Tasse Cappuccino (mit Milch) hat – wenn man Anbau und Transport einrechnet – einen Fußabdruck von ca. 200–300 g CO₂, also gut 100-fach höher.


Ein Kilometer Autofahren schlägt mit etwa 150 g CO₂ zu Buche, ist also rund 50-mal eine ChatGPT-Antwort. Wichtig ist: Solche Werte sind Durchschnittswerte. Der echte Ausstoß pro Anfrage hängt stark davon ab, wie der nötige Strom erzeugt wurde. Und hier kommt Österreichs Strommix ins Spiel.


Grüne Energie in Österreich als Klimavorteil

Österreich hat im internationalen Vergleich eine nahezu vorbildliche Strombilanz: Ein extrem hoher Anteil unseres Stroms stammt aus erneuerbaren Quellen – allen voran Wasserkraft, dazu Wind- und Sonnenenergie. Im Jahr 2023 konnten etwa 87% des österreichischen Stromverbrauchs durch erneuerbare Energien gedeckt werden. Damit liegt Österreich (hinter Luxemburg) an zweiter Stelle in der EU.


Dieser Ökostrom-Anteil bedeutet, dass jede in Österreich verbrauchte Kilowattstunde Strom im Schnitt viel weniger CO₂ verursacht als in Ländern mit Kohlestrom. Warum ist das relevant für KI? Nun, die Rechenzentren, die ChatGPT & Co antreiben, brauchen Strom – je grüner dieser ist, desto geringer der CO₂-Ausstoß pro KI-Abfrage.


Läuft ein Server mit 100% Wasserkraft-Strom, ist die unmittelbare Emission aus dem Nutzungsstrom praktisch null (abgesehen von grauer Vorkette). In Ländern mit Kohle- oder Gaskraftwerken hingegen fällt für dieselbe Rechenaufgabe ein Vielfaches an CO₂ an. Globale Zahlen zeigen das deutlich: Weltweit werden Rechenzentren aktuell noch zu etwa 60% mit fossiler Energie betrieben. In Österreich hingegen stammt der Strom überwiegend aus kohlenstoffarmen Quellen.


Konkret verursacht die Erzeugung von 1 kWh Strom hier nur etwa 100–150 g CO₂ (Schätzung), während es in einem kohlelastigen Land ein Mehrfaches sein kann (600–800 g). Für die KI-Nutzung bedeutet das: Lokaler Strommix zählt. Wenn Sie etwa einen in Österreich betriebenen Cloud-Dienst mit Ökostrom nutzen, ist der CO2-Fußabdruck pro Anfrage wesentlich kleiner als bei einem ähnlichen Dienst in z.B. China oder Polen, wo Kohlekraft dominierter Strom fließt.


In der Praxis operieren Dienste wie ChatGPT allerdings über weltweit verteilte Rechenzentren. Große Anbieter optimieren aber oft die Auslastung und Standortwahl – möglicherweise wird eine Anfrage aus Europa bevorzugt in einem europäischen (tendenziell grüneren) Rechenzentrum bearbeitet. Auch Ökostrom-Zertifikate spielen eine Rolle: Firmen kaufen Grünstrom ein oder kompensieren ihren Verbrauch.


Wer in Österreich KI nutzt, tut dies also zumindest indirekt auf Basis eines sauberen Stromnetzes, was den Klimarucksack pro Nutzung deutlich erleichtert. Würde morgen alle KI-Nutzung von Ökostrom gespeist, wären die direkten CO₂-Emissionen nahe null – ganz anders als in einer fossil betriebenen Welt. Österreichs hoher Erneuerbaren-Anteil verbessert also die Klimabilanz der lokalen KI-Anwendung im Vergleich zu Ländern mit viel Kohlestrom erheblich.


Unsichtbare Kosten: Graue Emissionen der Hardware

Doch es gibt einen weiteren, oft unsichtbaren Klima-Kostenfaktor: die sogenannten “grauen Emissionen”. Damit meint man den CO₂-Ausstoß, der indirekt durch Herstellung und Entsorgung der Hardware anfällt. KI-Modelle laufen auf spezialisierten Hochleistungsrechnern – insbesondere Grafikprozessoren (GPUs) oder speziellen KI-Chips.


Die Produktion dieser Hardware ist äußerst energieintensiv und ressourcenaufwändig. Man muss sich vor Augen führen: Ein modernes Rechenzentrum besteht aus tausenden Chips, die in riesigen Fabriken (vor allem in Asien und den USA) unter Reinraumbedingungen gefertigt wurden. Bei der Chip-Herstellung wird viel Energie verbraucht, häufig aus nicht erneuerbaren Quellen, und es werden Chemikalien und seltene Rohstoffe eingesetzt.


Diese Prozesse erzeugen CO₂-Emissionen, noch bevor der Computer auch nur eine einzige Berechnung durchgeführt hat. Man spricht deshalb von embodied carbon (grauer Energie/CO₂-Gehalt) – Emissionen, die “im Gerät stecken”. Besonders leistungsfähige KI-Prozessoren (GPUs) haben einen höheren Herstellungs-Fußabdruck als einfache Computerchips, da ihre Fertigung komplexer ist und mehr Reinraum-Prozessschritte erfordert.


Hinzu kommt der Rohstoffabbau (etwa für Metalle wie Kupfer, Gold, Seltene Erden in Elektronik) mit oft umweltschädlichen Minen und Chemikalien. Und schließlich verursacht auch der Transport der global verteilten Komponenten weitere Emissionen.


All diese Faktoren addieren sich zu den “unsichtbaren” Emissionen eines KI-Systems. Studien versuchen, dies zu quantifizieren: So hatte das oben erwähnte Modell GPT-3 gemäß einer Abschätzung rund 552 Tonnen CO₂ durch Training im Betrieb verursacht – aber zusätzlich noch einige Prozent obendrauf an Emissionen durch die Herstellung der verwendeten Hardware und Infrastruktur.


Im Schnitt mögen die grauen Emissionen bei KI-Systemen derzeit noch geringer sein als die direkten Stromemissionen, doch sie steigen mit dem aktuellen Hardware-Boom: 2023 wurden weltweit fast 3,85 Millionen neue GPUs an Rechenzentren ausgeliefert – deutlich mehr als im Jahr davor. Jedes dieser Teile trägt einen CO₂-Rucksack vom Werk. Zudem haben KI-Chips oft nur wenige Jahre Einsatzzeit, bevor sie durch neue Generationen ersetzt werden – was Elektronikschrott und wieder neuen Produktionsaufwand bedeutet.


Zusammengefasst: Zum CO2-Fußabdruck von KI zählt nicht nur der Stromhunger, sondern auch die Emissionen aus der Geburt und dem Tod der Maschinen, die die KI möglich machen. Diese grauen Emissionen sind für Nutzer zwar nicht direkt sichtbar, aber sie sind real. Nachhaltigkeits-Expert*innen fordern daher, den gesamten Lebenszyklus der Technologie zu betrachten: von der Mine bis zur Serverhalle und schließlich zum Recyclinghof.


Was tun die Tech-Giganten für die Umwelt?

Die grossen Anbieter von KI-Diensten – von OpenAI über Google bis Microsoft und Meta – stehen vor der Herausforderung, den rasant steigenden Rechenbedarf mit Klimaschutz zu vereinbaren. Rechenzentren haben sich in den letzten Jahren zu echten Stromschluckern entwickelt: Weltweit machen Datenzentren bereits über 1% des Stromverbrauchs aus, Tendenz steigend.


Allein der KI-Boom könnte in den nächsten Jahren einen zweistelligen Prozentsatz zum globalen Anstieg des Stromhungers beitragen. Entsprechend haben die Tech-Konzerne verschiedene Initiativen gestartet, um ihren ökologischen Fußabdruck zu reduzieren.


Ein zentraler Hebel ist die Standortwahl für neue Rechenzentren. Unternehmen bauen ihre Serverfarmen vermehrt dort, wo viel erneuerbare Energie verfügbar (und günstig) ist. So schießen riesige Datacenter etwa im kühlen Skandinavien oder in windigen Regionen der USA aus dem Boden – hier gibt es reichlich Wasserkraft, Windparks oder Solarstrom, mit denen sich die gigantische Stromnachfrage grüner decken lässt. Zudem helfen kühle klimatische Bedingungen, den Aufwand fürs Kühlen der Server zu senken.


Ein Beispiel: In Irland warnt der Netzbetreiber, dass schon 11% des gesamten Stroms ins Dubliner “Data Hub” fließen – bis 2030 könnte es ein Drittel sein. Als Reaktion lehnt Irland neue Rechenzentren teils ab, während Konzerne ausweichen und Rechenzentren an Standorte mit z.B. Überschuss an Grünstrom planen. Facebook (Meta), Google & Co. versuchen also gezielt, ihre Datacenter dort anzusiedeln, wo die Stromversorgung klimafreundlicher und ausreichender ist.


Darüber hinaus haben die großen Cloud-Anbieter ambitionierte Klimaziele verkündet: Microsoft etwa will bis 2030 kohlenstoffnegativ sein (d.h. mehr CO₂ binden als ausstoßen), und Google strebt an, ebenfalls bis 2030 komplett mit 24/7 CO₂-freiem Strom zu laufen. Google betont, bereits jetzt über das Jahr hinweg seinen Stromverbrauch zu 100% durch Zukauf von Ökostrom auszugleichen. Ähnliche Zusagen kommen von Amazon (AWS) und anderen: Viele wollen ihre Rechenzentren mittelfristig nur noch mit erneuerbaren Energien betreiben oder zumindest ihren Netto-Ausstoß auf null kompensieren.


Ein weiterer Ansatz ist Effizienz: Sowohl in der Hardware als auch beim operativen Betrieb suchen die Tech-Giganten nach Wegen, mehr Rechenleistung pro Watt herauszuholen. Spezialprozessoren wie Google’s TPUs (Tensor Processing Units) oder optimierte KI-Beschleuniger von NVIDIA sind darauf ausgelegt, KI-Berechnungen effizienter auszuführen als allgemeine Hardware. So konnte Google z.B. mit cleverem Chip-Design und Auslastungsoptimierung bei seinem Sprachmodell GLaM (2021) den CO₂-Ausstoß auf ein Vierzehntel von GPT-3 senken.


Auch beim Kühlen setzen die Firmen auf Innovation: Google etwa nutzt KI-Steuerung, um die Lüftung und Klimaanlagen in Rechenzentren optimal zu regeln – das sparte teils 30% der Kühl-Energie ein. Microsoft experimentiert mit Flüssigkühlung und sogar dem Absenken von Rechenzentren ins Meer (Projekt Natick), um natürliche Kühlung zu nutzen. Zudem investieren die Cloud-Anbieter in Ausgleichsmaßnahmen wie Wiederaufforstungsprojekte oder den Kauf von CO₂-Zertifikaten, um unvermeidbare Emissionen zu kompensieren.


Manche entwickeln Programme, um die Lebensdauer der Server-Hardware zu verlängern oder Komponenten zu recyceln (Stichwort Circular Centers bei Microsoft). Und last but not least veröffentlichen viele regelmäßig Nachhaltigkeitsberichte, um transparent zu machen, wie sich ihr Energie-Mix und CO₂-Ausstoß entwickeln – oft auch als Antwort auf Druck von Investoren und der Öffentlichkeit.


Dennoch muss man realistisch sein: Trotz aller Bemühungen sind die Emissionen großer Tech-Firmen zuletzt gestiegen, vor allem wegen des rasant wachsenden Cloud- und KI-Geschäfts. So meldete Microsoft 2023 einen deutlichen Emissionanstieg (+23%) seit 2020, was unter anderem auf neue AI-Rechenzentren zurückgeführt wird. Gleiches gilt für andere: Der Wettlauf um die beste KI führt zu immer mehr Rechenleistung – und bislang kann die Effizienz diesen Zuwachs nicht vollständig kompensieren. Die großen Anbieter setzen aber zumindest darauf, diesen Trend durch grüne Energie und technische Innovation abzufedern.


Für Nutzer*innen bedeutet dies: Wenn man Dienste von Unternehmen nutzt, die auf erneuerbaren Strom setzen oder CO₂ kompensieren, hat das indirekt einen positiven Klimaeffekt gegenüber Anbietern, die das nicht tun.


Wie wir den KI-Energieverbrauch senken können

Nicht nur die Konzerne, auch wir als Nutzer*innen haben Einfluss darauf, wie nachhaltig die KI-Revolution ausfällt. Hier sind einige praktische Tipps, wie man durch bewusstes Verhalten den Energieverbrauch und CO₂-Ausstoß seiner KI-Nutzung reduzieren kann – ohne gleich ganz auf hilfreiche Tools wie ChatGPT verzichten zu müssen.


KI überlegt einsetzen, nicht für jede Kleinigkeit

Nur weil KI verfügbar ist, muss man sie nicht für alles benutzen. Setze bewusste Grenzen. Für triviale Aufgaben wie Rechtschreibprüfung, einfache Rechenfragen oder eine schnelle Definition tut es oft auch eine klassische App oder Suchmaschine.


Jedes Mal, wenn wir ChatGPT “anschmeißen”, läuft ein großes Modell auf Servern. Wenn die Antwort auch durch einen simplen Wikipedia-Blick oder Kopfrechnen lösbar ist, spart man sich die KI-Abfrage – und damit Strom. Kurz: KI dort nutzen, wo sie echten Mehrwert bietet, und bei Routineaufgaben ruhig mal den traditionellen Weg gehen.


Anfragen bündeln und gezielt stellen

Vermeide “Plaudern” oder unnötig viele Sessions mit der KI. Besser ist es, Fragen zu sammeln und in einem Rutsch zu stellen, mit einer gut durchdachten Eingabe. Jede neue Anfrage oder jedes Neuladen braucht wieder Energie. Wenn man hingegen in einer Anfrage mehrere Punkte klärt, arbeitet das Modell effizienter.


Auch sollte man versuchen, klar und präzise zu fragen, damit man die gewünschte Antwort auf Anhieb bekommt und nicht in 10 Nachfragen ertrinken muss. Jede zusätzliche Antwort bedeutet zusätzliche Rechenzyklen. Experten raten, Prompts (Eingaben) möglichst eindeutig zu formulieren – ein gut formulierter Auftrag, der direkt zum Ziel führt, spart im Vergleich zu trial-and-error Prompts viel Rechenaufwand.


Kürzere Antworten genügen oft

Wir neigen dazu, ChatGPT um seitenlange Elaborate zu bitten (“Schreibe mir einen ausführlichen Aufsatz über ...”). Dabei gilt: Je länger die Antwort, desto mehr Tokens müssen vom KI-Modell verarbeitet und erzeugt werden – und jede 1000 Tokens etwa verdoppeln den Energieeinsatz gegenüber 500 Tokens. Fürs Klima (und oft auch für die eigene Zeit) ist es sinnvoll, nur die Benötigte Länge anzufordern.


Also lieber “Fass in 3 Sätzen zusammen...” statt “Schreibe einen 30-Seiten-Bericht...”, wenn es nicht wirklich gebraucht wird. Prägnante, fokussierte Antworten verursachen weniger Rechenarbeit als extrem detaillierte Ausführungen. Natürlich soll man sich die Infos holen, die man braucht – aber unnötige Länge kostet eben unnötig Energie.


Komplexität dem Bedarf anpassen

Ähnlich wie bei der Länge gilt auch inhaltlich: Einfache Fragen verbrauchen weniger Ressourcen als hochkomplexe Aufgaben. Man hat herausgefunden, dass bestimmte anspruchsvolle Anfragen (z.B. solche, wo die KI logisches Denken oder viele Schritte durchführen muss) deutlich mehr Rechenoperationen verursachen und bis zu 50-mal mehr CO₂ pro Antwort ausstoßen können als simpel formulierte Fragen.


Überlege also: Brauche ich wirklich die KI, um jetzt tiefschürfende philosophische Essays oder abstrakte Algebra-Lösungen zu generieren? Wenn ja, okay – aber wundere dich nicht über den höheren Energiebedarf. Für einfachere Information lieber einfach fragen, ohne die Aufgabe unnötig zu verkomplizieren.


Kleinere oder lokale KI-Modelle nutzen

Nicht immer muss es das größte, leistungsfähigste (und energiehungrigste) Modell sein. Für viele Zwecke – z.B. Übersetzungen, simple Zusammenfassungen oder Chatbot-Gespräche – reichen manchmal kleinere KI-Modelle aus, die deutlich weniger Rechenleistung benötigen. Einige Anbieter (etwa OpenAI mit verschiedenen GPT-3.5 Varianten, oder open-source Modelle wie LLaMA) bieten abgespeckte Versionen an.


Wenn verfügbar, wähle einen Energiespar-Modus oder eine niedrigere Modellgröße. Auch gibt es die Möglichkeit, gewisse KI-Anwendungen lokal auf dem eigenen Gerät laufen zu lassen (wenn man einen leistungsfähigen PC hat) – das spart die Energie für die Datenübertragung und man kann teils sogar den Strommix selbst bestimmen.


Zwar ist das Thema Modellwahl eher was für fortgeschrittene User, aber die Tendenz ist klar: “So groß wie nötig, so klein wie möglich.” Reserve die ganz großen Modelle für wirklich komplexe Fälle.


Keine Bilder/Videos, wenn Text reicht

Generative KI kann ja nicht nur Texte, sondern auch Bilder (z.B. DALL-E, Midjourney) oder sogar Videos erzeugen. Dabei sollte man sich bewusst sein: Bild- und Video-KI brauchen massiv mehr Rechenpower als Text-KIs. Ein einzelner AI-generierter Schnappschuss kann so viel Strom ziehen wie dutzende Textantworten; ein paar Sekunden Video sogar so viel wie hunderte Bilder.


Für die Umwelt heißt das: Wenn ein Bild nicht wirklich nötig ist, lieber drauf verzichten oder ein vorhandenes nutzen. Beispielsweise für eine interne Präsentation muss man nicht unbedingt ein KI-Bild generieren lassen, wenn eine Beschreibung genügt. Und falls man doch Bilder erzeugen will, sollte man sehr gezielte Prompts verwenden, um nicht zig Iterationen zu brauchen – jeder Durchlauf kostet Energie.


Ergebnisse wiederverwenden und teilen

Ein etwas ungewohnter Tipp: Wenn die KI eine wirklich nützliche Antwort oder erstellten Inhalt geliefert hat – speichere ihn! Statt denselben Prompt später nochmal abzuschicken (und das Modell nochmal alles von vorn rechnen zu lassen), kann man die Ergebnisse aufheben. Erstell dir z.B. eine kleine Bibliothek mit guten KI-Antworten oder Code-Schnipseln, die du häufig brauchst, anstatt immer wieder neu zu generieren.


In einem Team kann man gute KI-Ergebnisse auch kollegial teilen – so sparen alle Beteiligten künftige Rechenzeit. Dieses Prinzip, quasi digitales Recycling von KI-Inhalten, verhindert redundante Rechenarbeit. Jede vermiedene Neu-Anfrage ist direkt Energie gespart.


Als Nutzer*in kann man durch bewusste, effiziente Nutzung durchaus den eigenen KI-bezogenen Stromverbrauch senken. Das fängt bei der Überlegung an, wann und wofür man ChatGPT wirklich braucht, geht über die Art und Weise, wie man fragt (präzise, zielorientiert, nicht unnötig lang), bis hin zur Wahl des passenden Modells und Medienformats.


So holen wir das Beste aus der KI heraus, ohne unnötig Ressourcen zu verschwenden. Und ganz nebenbei schärft diese Achtsamkeit auch unser Bewusstsein dafür, dass selbst die “Cloud” letztlich an physische Naturlimits geknüpft ist.


Transparenz beim Energieverbrauch von KI

Angesichts der steigenden Klimaauswirkungen von KI-Technologien rückt auch die Politik das Thema auf die Agenda. Insbesondere die Europäische Union versucht, in ihrem Rechtsrahmen für KI Nachhaltigkeit und Transparenz zu verankern.


Ein zentrales Instrument dafür ist der kommende EU AI Act – die EU-Verordnung zur Regulierung künstlicher Intelligenz. Diese im August 2024 in Kraft getretene Regelung (die allerdings schrittweise wirksam wird) enthält neben Vorgaben zu Sicherheit und Ethik erstmals Bestimmungen zu Umweltaspekten von KI.


Konkret schreibt der EU AI Act vor, dass Anbieter sogenannter General Purpose AI-Modelle (also z.B. große Sprachmodelle à la GPT-4) Informationen über den Energieverbrauch ihrer Systeme bereitstellen müssen. Das bedeutet: Wer ein solches KI-Modell entwickelt und in der EU anbieten will, muss eine technische Dokumentation führen, die eine Aufschlüsselung des Energieaufwands – etwa für Training und Nutzung – enthält.


Falls exakte Daten nicht verfügbar sind, sollen zumindest Schätzungen anhand der eingesetzten Rechenressourcen angegeben werden. Diese Dokumentation muss auf Verlangen einer neu geschaffenen Behörde (dem “AI Office”) vorgelegt werden können. Für bereits vor 2025 veröffentlichte Modelle gilt eine Übergangsfrist, aber neue Modelle müssen diese Transparenz sofort erfüllen.


Damit will die EU eine größere Transparenz über die oft mysteriösen Energiebedarfe schaffen und Unternehmen dazu anhalten, diese im Blick zu haben. Darüber hinaus betont der EU AI Act in seinen Grundsätzen das Ziel der “Umweltverträglichkeit” von KI-Systemen. Hersteller sollen bei der Entwicklung auch Energieeffizienz berücksichtigen. Zwar sind die Formulierungen hier (noch) relativ allgemein und ohne harte Grenzwerte, aber das Signal ist klar: KI soll nicht ungebremst zum Klimaproblem werden, und Gesetzgeber schaffen Reporting-Pflichten, um notfalls gegensteuern zu können.


Neben dem AI Act gibt es weitere europäische Initiativen: Beispielsweise forderten Abgeordnete des EU-Parlaments, dass große Rechenzentren und Cloud-Anbieter ihre CO₂-Emissionen offenlegen und energieeffiziente Maßnahmen ergreifen. Das fügt sich ins Gesamtbild der EU-Digitalpolitik ein, wo auch Rechenzentren-Standards und ein “Klima-Fußabdruck-Label” für digitale Dienste diskutiert werden. Die EU-Kommission investiert zudem in Forschungsprojekte zu “Green AI” – also wie KI genutzt werden kann, um selbst Energie zu sparen (z.B. in Stromnetzen, Verkehrslenkung) und wie man KI-Algorithmen energieeffizienter machen kann.


Ein wichtiger Aspekt ist auch die Sensibilisierung: Durch die neuen Regeln müssen Anbieter ihren Energieverbrauch dokumentieren und kommunizieren, was auch uns Nutzer*innen zugutekommt. Wir könnten künftig erfahren, ob ein KI-Service z.B. mit Ökostrom betrieben wird oder wie viel CO₂ pro Nutzung anfällt. Solche Transparenz schafft Bewusstsein und kann ein Wettbewerbsvorteil für nachhaltigere KI-Anbieter sein.


Europa geht einen ersten Schritt, um die Öko-Bilanz von KI nicht länger im Dunkeln zu lassen. Der EU AI Act verpflichtet die Player zu mehr Offenlegung beim Energieverbrauch und signalisiert: Effizienz und Klimaverträglichkeit sollen integrale Kriterien für KI-Systeme sein, nicht bloß Nebensache. Langfristig könnte dies dazu beitragen, einen Standard für grüne KI zu setzen – etwa dass ein KI-Modell-Zertifikat auch Angaben zum Energieverbrauch und CO₂-Fußabdruck enthält.


Für uns als Anwender heißt das: Wir bekommen mehr Rechte, zu erfahren, welche Klima-Auswirkungen digitale Dienste haben, und können informiertere Entscheidungen treffen. Generative KI ist eine faszinierende Technologie, aber sie ist nicht “magisch” – sie verbraucht Realwelt-Ressourcen in Form von Strom, Hardware und Kühlung.


Gerade in Österreich mit seinem grünen Strommix stehen die Chancen gut, dass wir KI vergleichsweise klimafreundlich nutzen können, doch global wächst der Energiehunger der Datenzentren rasant. Es liegt an Tech-Unternehmen, Politik und uns Nutzern, dafür zu sorgen, dass die KI-Zukunft nachhaltig gestaltet wird.


Wenn wir die Effizienzpotenziale ausschöpfen, erneuerbare Energien konsequent einsetzen und KI bewusst einsetzen, kann die Technologie ihre Vorteile entfalten, ohne zur Klima-Bürde zu werden. Jede ChatGPT-Anfrage hat zwar einen CO₂-Fußabdruck – doch mit Wissen und Umsicht können wir diesen deutlich verkleinern. Damit KI nicht nur smart, sondern auch “green” wird.

 
 
bottom of page