Einfach, weil's wichtig ist.
Einfach, weil's wichtig ist.
Digitalisierung & Technologie, 18. November 2024
Der Entwicklung der KI scheinen zumindest funktional kaum Grenzen gesetzt zu sein. Der hohe Energiebedarf ist jedoch besorgniserregend und löst Kontroversen aus. Einige KI-Anbieter denken sogar über den Bau von Atomkraftwerken nach. Neue Technologien könnten das noch verhindern, denn sie wollen den Energieverbrauch von KI-Systemen radikal senken.
Der enorme Ressourcenverbrauch von KI-Systemen ist einer der großen Kritikpunkte an ChatGPT & Co. Besonders beim Training der verschiedenen Large Language Models (LLMs) verbrauchen die auf Hochleistung getrimmten Rechenzentren Unmengen an Strom und durch die Abwärme auch viel Wasser zur Kühlung. Gerade der Stromverbrauch kommt zur Unzeit.
Denn die globale Klimakrise erfordert eine Dekarbonisierung des weltweiten Energiesektors. Doch die Umstellung auf erneuerbare Energien ist ein langfristiger Prozess, der noch einige Jahre in Anspruch nehmen wird. Aktuell ist Strom daher in vielen Ländern ein knappes Gut. Der Boom von KI-Systemen verschärft mit seinem Ressourcenhunger die angespannte Energieversorgung zusätzlich.
Die Internationale Energieagentur (IEA) hat längst Alarm geschlagen: Bereits 2022 verbrauchten Rechenzentren weltweit rund 460 Terawattstunden Strom, obwohl OpenAI ChatGPT erst im November 2022 der Öffentlichkeit zugänglich gemacht hat. Wie sich der Strombedarf seitdem entwickelt hat, lässt sich nur schätzen. Die IEA geht davon aus, dass sich der Energieverbrauch bis 2026 verdoppeln wird.
Die großen KI-Anbieter wie Google oder Microsoft hingegen kennen den hohen Energiebedarf aus eigener Erfahrung und entwickeln eigene Pläne. Da es in den USA beispielsweise in der Data Center Alley bereits zu ersten Engpässen kommt, weil der Ausbau der erneuerbaren Energien nicht mit dem steigenden Bedarf mithalten kann, planen die IT-Giganten den Bau eigener Atomkraftwerke.
Google will Mini-Atomkraftwerke (Small Modular Reactors, SMR) bauen, um trotz des steigenden Energiebedarfs die selbst gesteckten Klimaziele nicht zu gefährden. Konkurrent Microsoft wagt sogar einen Schritt, der dem eigenen Image schaden könnte: Ein Reaktor des stillgelegten Atomkraftwerks „Three Mile Island“ soll wieder hochgefahren werden. Zur Erinnerung: In dieser Anlage spielte sich 1979 der schwerwiegendste Nuklear-Zwischenfall in der kommerziellen Atomwirtschaft der USA ab.
Allein diese beiden Beispiele zeigen, wie wichtig es ist, KI-Systeme nicht ausschließlich immer leistungsfähiger zu machen, sondern vor allem effizienter zu machen.
Und Effizienzpotenziale sind durchaus vorhanden. Zwei Entwicklungen in unterschiedlichen Bereichen geben Anlass zur Hoffnung, dass wir auch in Zukunft KI-Systeme nutzen können, ohne dafür neue Atomkraftwerke bauen zu müssen.
KI-Hardware verbraucht sehr viel Energie, da vereinfacht gesagt ein ständiger Austausch zwischen Verarbeitungs- und Speicherkomponenten stattfindet. Daten werden von einem Speicher zur Verarbeitung an die Recheneinheit übertragen und anschließend wieder zurückgeschickt.
Forscher der University of Minnesota Twin Cities machen diesen Austausch nun mit einer neuen Entwicklung überflüssig. Mit der Computational Random-Access Memory (CRAM) genannten Hardware verschmelzen die zuvor getrennten Komponenten zu einer einzigen. Oder anders ausgedrückt: Die Verarbeitung der Daten findet direkt im Speicher statt.
In wissenschaftlichen Tests erwies sich die CRAM-Technologie als 2.500 mal energieeffizienter und 1.700 mal schneller als ein herkömmliches System mit getrennten Komponenten.
So ist der Stand der Entwicklung: Die Forscher stehen bereits in Kontakt mit führenden Unternehmen der Halbleiterindustrie, um die CRAM-Technologie im großen Maßstab zu entwickeln und marktfähig zu machen. Der Entwicklungsstand ist bereits weit fortgeschritten, denn die Technologie ist das Ergebnis von mehr als 20 Jahren Forschung und interdisziplinärer Zusammenarbeit.
In Sprachmodellen und Anwendungen der Künstlichen Intelligenz verwenden die Algorithmen sehr rechenintensive Gleitkommaoperationen. Diese kennt man bisher auch als Maß für die Leistungsfähigkeit von Supercomputern, die in FLOPS (Floating Point Operations Per Second) angegeben wird. Die Forscher von BitEnergy AI verwenden dagegen in ihrem Algorithmus „Linear-complexity multiplication“ (L-Mul) einfachere ganzzahlige Additionen. Mit diesem mathematischen Verfahren wollen die Forscher in Experimenten eine Energieeinsparung von 95 Prozent erreicht haben.
So ist der Stand der Entwicklung: Die Forschungsarbeit zum L-Mul-Algorithmus wurde bisher nur als Preprint veröffentlicht. Eine reguläre Publikation in einer wissenschaftlichen Fachzeitschrift, die eine fachliche Überprüfung der Ergebnisse voraussetzt, steht noch aus. Zudem wird für die Marktreife noch spezielle Hardware benötigt, die das Potenzial von L-Mul voll ausschöpfen kann.
Der globale Trend zu mehr Nachhaltigkeit wird sich im Zuge des Klimawandels fortsetzen. Daran wird auch der große Hype um künstliche Intelligenz nichts ändern. Im Gegenteil: Die besten KI-Systeme sind nutzlos, wenn das Klima kippt.
Schon heute ist Energie in vielen Ländern knapp, energieintensive Industrien stehen auf dem Prüfstand. Noch haben sie es selbst in der Hand, durch mehr Investitionen in Effizienz zukunftsfähig und gleichzeitig nachhaltig zu werden. So stellt sich die Frage:
Was ließe sich mit den Ressourcen, die für den Bau von Atomkraftwerken eingeplant sind, alles erreichen, wenn sie stattdessen in KI-Effizienztechnologien investiert würden?
Text: Falk Hedemann
Ihre Meinung
Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: next@ergo.de