Einfach, weil's wichtig ist.
Einfach, weil's wichtig ist.
Digitalisierung & Technologie, 01. August 2024
Künstliche Intelligenz (KI) hat sich bereits in kurzer Zeit zu einem neuen technologischen Eckpfeiler entwickelt. KI beschleunigt die Digitalisierung, verbessert und erweitert bestehende Technologien und eröffnet nahezu unbegrenzte Möglichkeiten für neue Entwicklungen. Der Haken: Auch der Energiebedarf ist nahezu unbegrenzt. Wie lässt sich der Energiehunger von KI in Zeiten der globalen Energiewende am klimafreundlichsten stillen?
Über den hohen Energiebedarf von KI-Modellen haben wir bereits berichtet. Seitdem hat sich einerseits viel, andererseits aber auch wenig getan: Während sich die KI-Modelle rasant weiterentwickeln und immer neue Möglichkeiten eröffnen, ist ihr Energiehunger nach wie vor sehr groß. Und da immer neue KI-Anwendungen auf den Markt kommen, wird sich das Energieproblem weiter verschärfen.
Wusstest du, dass die Erzeugung eines Bildes mit einem KI-Tool ungefähr so viel Strom verbraucht, wie in den Akku eines Smartphones passt?
Laut World Economic Forum verdoppelt sich die für den Betrieb von KI-Systemen benötigte Rechenleistung etwa alle 100 Tage. Rechenleistung bedeutet gleichzeitig Energiebedarf. Mittlerweile gibt es verschiedene Studien, die sich mit dem Energieverbrauch von KI beschäftigen. Die Schätzungen sind jedoch schwierig und variieren dementsprechend. So könnte der weltweite Energieverbrauch aktuell dem Jahresverbrauch der Schweiz entsprechen.
Entscheidender ist jedoch das Wachstum: Experten halten eine Verzehnfachung des Energiebedarfs bis 2030 für realistisch. Inwieweit sie dabei die fortschreitende Integration von KI-Funktionen in digitale Systeme wie Smartphones, Office-Anwendungen, Suchmaschinen oder Betriebssysteme bereits berücksichtigt haben, bleibt unklar. Die Experten fordern jedenfalls dringend die Entwicklung nachhaltiger Lösungen, um den erheblichen ökologischen Auswirkungen entgegenzuwirken.
Lösungsansätze gibt es einige. Sie reichen von Bioprozessoren über Unterwasser-Rechenzentren und integrierte Ökokraftwerke bis hin zum Thermodynamic Computing. Sie unterteilen sich in Maßnahmen, die sofort wirksam werden können, und langfristige Entwicklungen, die uns eine nachhaltige KI-Zukunft ermöglichen sollen.
Die Zahl der Rechenzentren wächst seit Jahren. Das Borderstep Institut für Innovation und Nachhaltigkeit schätzt die Zahl in einer Analyse auf etwa 80 Millionen weltweit (PDF) . Durch die zunehmende Digitalisierung und den Hype um KI dürfte die Zahl in den kommenden Jahren weiter steigen. KI-Experte Ralf Herbrich vom Hasso-Plattner-Institut schätzt, dass der Anteil der Rechenzentren am weltweiten Energieverbrauch von heute vier bis fünf Prozent in den nächsten Jahren auf bis zu 30 Prozent hochschnellen könnte.
Angesichts dieser Zahlen wird schnell klar, dass die Verbesserung der Energieeffizienz von Rechenzentren ein starker Hebel wäre. Rechenzentren könnten schnell und direkt Energie einsparen, indem sie ihre Leistung reduzieren, was aber die Antwortgeschwindigkeit von KI-Anwendungen deutlich verlangsamen würde. Realistischer ist eine ganz andere Einsparmöglichkeit: Rechenzentren verbrauchen viel Energie für die Kühlung.
Die Kühlung erfolgt in der Regel über Umluftsysteme, die die entstehende Wärme aufnehmen und an ein Kühlmedium, meist Wasser, abgeben. Es gab daher bereits Versuche, Rechenzentren direkt unter Wasser zu bauen. Derzeit wird in China ein riesiges Unterwasser-Rechenzentrum geplant, das die Rechenleistung von 6 Millionen konventionellen Computern aufbringen soll. Es soll 2025 in Betrieb gehen und durch die natürliche Wasserkühlung jährlich bis zu 122 Megawattstunden Strom einsparen.
Prognose: Wie erfolgreich das Projekt sein wird, hängt sicherlich auch von den Bau- und Unterhaltskosten ab, die sich von denen konventioneller Rechenzentren an Land unterscheiden dürften. Eher ist zu erwarten, dass Unterwasser-Rechenzentren die Ausnahme bleiben und sich vor allem für küstennahe Ballungsräume eignen, in denen ohnehin Platzmangel herrscht.
Die technologische Basis heutiger Computersysteme ist erstaunlich alt. Die sogenannte „Von-Neumann-Architektur“ (VNA) geht auf die Arbeiten des Mathematikers John von Neumann zurück und wurde erstmals 1945 veröffentlicht. Bei dieser Computerarchitektur arbeiten die Grundelemente wie z.B. Prozessoren und Speicher getrennt voneinander, sie müssen also ständig Daten austauschen. Außerdem verarbeiten sie Informationen digital in Form von Bits (0 und 1), führen Berechnungen durch logische Operationen durch und arbeiten deterministisch.
Insbesondere für KI-Anwendungen, die große Datenmengen nutzen, ist der Energieverbrauch dieser klassischen Architektur extrem hoch.
Eine Alternative bietet das Thermodynamische Rechnen. Prozessoren und Speicher arbeiten hier als Einheit und nutzen die Prinzipien der Thermodynamik, also der Wärme- und Energielehre. Statt auf rein logischen Operationen basiert das thermodynamische Computing auf physikalischen Prozessen und Fluktuationen auf molekularer Ebene. Es arbeitet mit Wahrscheinlichkeiten und nicht mit deterministischen Zuständen.
Diese Computerarchitektur hat einige Vorteile in Bezug auf die Energieeffizienz:
Prognose: Thermodynamisches Computing hat das Potenzial, die Energieeffizienz von Computersystemen, insbesondere für KI-Anwendungen, drastisch zu verbessern.
Ein weiterer spannender Ansatz ist das Neuromorphic Computing. Im Gegensatz zum Thermodynamischen Computing ist hier nicht die Physik, sondern das menschliche Gehirn und Nervensystem die Inspirationsquelle. Das Grundprinzip
Neuromorphes Computing versucht, die Struktur und Funktionsweise des menschlichen Gehirns in Hardware nachzubilden. Ziel ist es, Computer zu entwickeln, die ähnlich effizient und anpassungsfähig arbeiten wie biologische neuronale Netze. Auch hier geht es um die Verschmelzung von Rechenprozessen und Informationsspeichern, um den energieintensiven Datentransfer herkömmlicher Rechnerarchitekturen zu überwinden.
Neuromorphe Chips mit künstlichen Synapsen haben in doppelter Hinsicht das menschliche Gehirn zum Vorbild. Zum einen ist das Gehirn ein biologischer Supercomputer mit unvorstellbarer Kapazität. Zum anderen benötigt das Gehirn dafür nur 20 Watt - eine kaum vorstellbare Energieeffizienz.
Prognose: Neuromorphes Computing wird bereits in experimentellen Chips eingesetzt und in einem Forschungsprojekt am Forschungszentrum Jülich intensiv weiterentwickelt.
Die nachhaltige Energieversorgung von Rechenzentren war bisher allenfalls ein untergeordnetes Thema. Mit steigendem Bedarf und gleichzeitig fortschreitender Energiewende ändert sich das Anforderungsprofil für neue Rechenzentren, die für KI-Systeme dringend benötigt werden.
In Mainz, ganz in der Nähe des wichtigen Internetknotens Frankfurt a.M. entsteht daher zur Zeit ein nachhaltiges Rechenzentrum. Betreiber ist mit Kraftwerke Mainz Wiesbaden (KMW) kein Internetunternehmen, sondern ein Energieversorger. Das Rechenzentrum wird zu 100 Prozent mit Ökostrom aus KMW-eigenen Windkraftanlagen versorgt. Zudem wird die Abwärme nicht wie üblich in die Umgebung abgegeben, sondern in das lokale Fernwärmenetz eingespeist.
Allein dieses eine Rechenzentrum wird bis zu 60 MW Abwärme produzieren, mit der zahlreiche Haushalte in der Umgebung beheizt werden können. Zum Vergleich: Im dänischen Esbjerg entsteht derzeit die größte Großwärmepumpe der Welt, die ebenfalls 60 MW Heizenergie erzeugen und damit bis zu 25.000 Haushalte versorgen soll.
Hier liegt eine große Chance für die Zukunft: Wenn alle Rechenzentren ihre Abwärme in Fernwärmenetze einspeisen, verbessert das auch die CO2-Bilanz von KI-Systemen. Gleichzeitig wird die Energiewende maßgeblich unterstützt. Eine intelligente Lösung, oder?
Text: Falk Hedemann
Ihre Meinung
Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: next@ergo.de
Weitere Magazin-Beiträge