Immer tiefer dringt künstliche Intelligenz (KI) in den Alltag ein: Sie steuert digitale Assistenten, empfiehlt Produkte im Online-Handel und treibt zahllose neue Anwendungen voran. Doch diese Entwicklung hat eine Schattenseite – die wachsende ökologische Belastung. 2023 verschlangen Rechenzentren 4,4 Prozent des gesamten Stromverbrauchs in den USA. Experten warnen, dass sich dieser Anteil bis 2028 verdreifachen könnte. Mit dem Boom der KI steigt nicht nur der Energiehunger, sondern auch Wasserverbrauch, CO2-Emissionen und der Anfall von Elektroschrott. «Die Nachhaltigkeit steht vor einer ernsten Belastungsprobe», warnt Mahmut Kandemir, Professor für Informatik und Ingenieurwissenschaften an der Pennsylvania State University. Seine Forschung kreist um eine zentrale Frage: Wie lässt sich die enorme Rechenleistung, die moderne künstliche Intelligenz verschlingt, effizienter und umweltfreundlicher gestalten?
c 2024 Wirestock Creators/Shutterstock. No use without permission.
Als Nvidia und OpenAI Anfang September ihre Partnerschaft über bis zu hundert Milliarden Dollar bekannt gaben, war die Schlagzeile deshalb klar: Die Zukunft der künstlichen Intelligenz ist teuer, gross – und energieintensiv. Geplant ist der Bau von Rechenzentren mit einer Kapazität von mindestens zehn Gigawatt – eine Zahl, die selbst Energieexperten aufhorchen lässt. Denn zehn Gigawatt entsprechen ungefähr der Leistung von zehn Kernkraftwerken. Und das nur für die Infrastruktur eines einzigen Unternehmens.
Klimafreundliche Infrastrukturen
Wie aber lässt sich der wachsende Energiehunger der KI zähmen, ohne Engpässe im Netz zu riskieren oder Kostenexplosionen beim Strom auszulösen? Amazon Web Services (AWS), Google und Microsoft haben dazu Strategien entwickelt. Sie investieren massiv in Energieeffizienz und erneuerbare Energien, um den enormen Strombedarf ihrer Cloud- und KI-Infrastruktur zu senken. AWS optimiert den Betrieb seiner Rechenzentren mit effizienten Kühl- und Stromsystemen, misst kontinuierlich den Wirkungsgrad und setzt weltweit auf Wind- und Solarprojekte.
Google gilt als Vorreiter bei nachhaltigen Rechenzentren: Schon seit Jahren deckt das Unternehmen seinen Strombedarf durch erneuerbare Energien und arbeitet daran, rund um die Uhr emissionsfrei zu sein. Technische Innovationen wie verbesserte Hardware und «carbon-aware computing» helfen, Rechenaufgaben in Zeiten mit sauberem Strom zu verlagern. Auch Microsoft treibt mit grossen Lieferverträgen den Ausbau erneuerbarer Energien voran und achtet in seinen Datenzentren besonders auf Wasser- und Energieeffizienz. Alle drei Konzerne verfolgen das Ziel, die wachsende Nachfrage nach KI-Diensten mit möglichst klimafreundlichen Infrastrukturen zu bewältigen.
Studien von Deloitte und der Internationalen Energieagentur (IEA) zeichnen ein dramatisches Bild. Bis 2030, so die Berechnungen, könnte der Stromverbrauch globaler Rechenzentren auf etwa tausend Terawattstunden steigen. Das ist achtzehnmal mehr, als die Schweiz heute insgesamt verbraucht. Ein Ende des Energiehungers ist nicht abzusehen. Für Westeuropa wird bis 2030 ein Anstieg des Stromverbrauchs um 70 Prozent prognostiziert, wenn die Nachfrage nach KI-Leistungen stark wächst, so die Deloitte-Studie.
Der Deloitte-Report spricht davon, dass Rechenzentren in wenigen Jahren bis zu 4 Prozent des weltweiten Stromverbrauchs ausmachen könnten. Ein Teil der Zunahme lässt sich durch Effizienzsteigerungen dämpfen – bessere Chips, optimierte Kühlung, neue Softwarearchitekturen. Doch der Grundtrend bleibt: Je billiger und leistungsfähiger die Technik wird, desto stärker wächst die Nachfrage.
Die Ursachen für den Energiehunger sind vielfältig. Ein modernes Sprachmodell wie GPT-4 oder GPT-5 muss mit Hunderten Milliarden Parametern trainiert werden. Jede einzelne Anpassung erfordert unzählige Rechenoperationen. Während des Trainings laufen Tausende von GPUs über Wochen hinweg unter Volllast.
Doch nicht nur die Chips brauchen Strom. Hinzu kommen Netzwerke, Speicher und vor allem die Kühlung. Serverräume müssen konstant unter 30 Grad bleiben, sonst drohen Ausfälle. Klassische Klimaanlagen stossen hier längst an ihre Grenzen. Flüssigkeitskühlung, Immersionskühlung oder sogar Meerwasserleitungen sind die neuen Werkzeuge im Kampf gegen die Hitze.
Google gilt als Vorreiter in Sachen Effizienz. Bereits 2016 setzte der Konzern auf KI-gestützte Steuerung seiner Rechenzentren, entwickelt von der Schwesterfirma DeepMind. Ergebnis: bis zu 40 Prozent weniger Energie für Kühlung. Hinzu kommen eigene Chip-Designs, die pro Watt bis zu dreimal so viel leisten wie ihre Vorgänger. Das Ziel ist ehrgeizig: bis 2030 eine Versorgung mit 24/7 CO2-freiem Strom.
Amazon Web Services ist der grösste Käufer erneuerbarer Energien weltweit. Mehr als 500 Solar- und Windprojekte sind in Betrieb oder geplant. Gleichzeitig investiert Amazon in Small Modular Reactors (SMRs), also in modulare Kernreaktoren, die in den USA in den kommenden Jahren entstehen sollen.
Wasserkühlung in Lugano
Microsoft verfolgt einen noch radikaleren Kurs. Mit selbst entwickelten Chips will man die Energie pro Rechenschritt drastisch reduzieren. Parallel schliesst Microsoft Stromabnahmeverträge mit künftigen Fusionskraftwerken ab – ein Experiment, das frühestens Ende des Jahrzehnts Erträge bringen könnte, aber den Anspruch signalisiert, die Energiefrage grundlegend anders anzugehen.
Während die USA und China vor allem auf schiere Grösse setzen, versucht Europa, mit strengen Standards dagegenzuhalten. Die EU diskutiert seit längerem über ein Effizienzlabel für Rechenzentren, ähnlich wie bei Haushaltsgeräten. In der Schweiz gibt es mit der Swiss DataCenter Efficiency Association (SDEA) bereits eine Zertifizierung, die CO2-Fussabdruck und Energieeffizienz bewertet. Sie wolle Transparenz darüber schaffen, wie Rechenzentren Energie verbrauchen und ihre Ressourcen effizient einsetzen, heisst es auf der Internetseite der SDEA. Auf diese Weise unterstütze die Vereinigung Rechenzentren dabei, ihre Abläufe nachhaltig und optimal zu gestalten – ein Aspekt, der angesichts der rasanten globalen digitalen Transformation und des damit verbundenen hohen Energieverbrauchs «von besonderer Bedeutung» sei.
Einige Betreiber gelten als Vorbilder. Infomaniak in Genf betreibt ein Data Center mit einem PUE-Wert (Power Usage Effectiveness) unter 1,1 – Weltklasse. Die gesamte Abwärme wird ins städtische Fernwärmenetz eingespeist und beheizt 6000 Minergie-A-Haushalte. In Lugano nutzt das nationale Supercomputing-Zentrum (CSCS) kaltes Seewasser aus dem Luganersee zur Kühlung. Solche Beispiele zeigen, dass Hochleistung und Nachhaltigkeit vereinbar sind, wenn man Standortwahl, Technologie und Infrastruktur richtig plant.
Stabile Energiequellen
Und doch scheint klar: Wenn der Energiebedarf der KI tatsächlich das Niveau ganzer Industrien erreicht, wird die Frage nach stabilen, gross angelegten Quellen unausweichlich. Erneuerbare allein könnten zu volatil sein, um den kontinuierlichen Betrieb globaler Datenfarmen sicherzustellen.
Doch das Grundproblem bleibt bestehen: Die Nachfrage wächst schneller als die Lösungen. Jeder Effizienzgewinn wird von grösserer Nutzung übertroffen. Jedes neue Modell, das mehr kann, zieht exponentiell mehr Rechenleistung – und damit Strom.
Die hundert Milliarden Dollar von Nvidia sind ein Symbol dafür, wie viel Kapital in den kommenden Jahren in den Aufbau einer «zweiten Energie-Infrastruktur» fliessen wird. Nicht mehr nur für Haushalte und Industrie, sondern auch für die Intelligenz der Maschinen. Die Frage lautet nicht mehr, welche Algorithmen denkbar sind, sondern welche Energiequellen ihren Betrieb sichern.

