Ein Zeitalter der Konvergenz von Bits und Atomen hat gerade erst begonnen
„Letztlich werden sich die Kosten für Intelligenz, die Kosten für KI, an die Kosten für Energie angleichen. Wie viel man davon haben kann – also wie verfügbar sie ist – wird durch die Verfügbarkeit von Energie begrenzt sein. Wenn es also um langfristige strategische Investitionen geht, die die USA tätigen sollten, fällt mir nichts Wichtigeres ein als Energie.“
Diese Aussage wurde am 8. Mai 2025 vor dem Energie- und Rohstoffausschuss des US-Senats gemacht – und zwar nicht von einem Energievorstand, sondern von Sam Altman, dem CEO von OpenAI, dem Unternehmen hinter ChatGPT und Wegbereiter des KI-Zeitalters.
Auch wenn Vorhersagen, dass KI „alles verändern“ werde, oft übertrieben wirken, bezweifelt kaum jemand die Bedeutung dieser Technologie. Eines ihrer glaubwürdigsten Versprechen, wie Altman es formulierte, ist die Freisetzung „großer Produktivitätsgewinne“. Und Produktivität ist der Motor für langfristiges Wirtschaftswachstum.
Altman ist bei seiner Einschätzung, dass der großflächige Einsatz von KI zu einem massiven Anstieg des Stromverbrauchs führen wird, keineswegs allein. Dieselbe Schlussfolgerung findet sich in einer wachsenden Zahl von Berichten staatlicher Analysten, Investmentbanken und Medien – darunter etwa die US-Energieaufsichtsbehörde FERC, die Internationale Energieagentur (IEA), Morgan Stanley, Goldman Sachs, die Washington Post und die New York Times. Jeder dieser Berichte erkennt eine unausweichliche Realität an: Die digitale Wirtschaft basiert auf Hardware – und Hardware verbraucht enorm viel Energie.
Der gewaltige Energiehunger der KI sollte nun endgültig mit der Vorstellung aufräumen, wir würden uns von einer „alten“ Wirtschaft der Atome zu einer „neuen“ Wirtschaft der Bits bewegen. Diese Idee – und die Phrase „von Atomen zu Bits“ – stammt ursprünglich von Nicholas Negroponte, Mitbegründer des MIT Media Lab, aus seinem Buch Being Digital, das vor 30 Jahren erschien.
Negroponte sagte viele Effekte der digitalen Revolution treffend voraus, doch mit der Darstellung, „Bits seien gewichtslos, virtuell und erlaubten eine sofortige globale Bewegung“, führte er auf eine falsche Fährte. Denn alle Bits existieren auf physischen Maschinen, die ein reales Gewicht haben – und deren Bau und Betrieb echte Energie benötigen. Die astronomische Menge an erzeugten, übertragenen, verarbeiteten und gespeicherten Bits erfordert Hardware in gewaltigen Dimensionen.
Am deutlichsten zeigt sich das an den neuen Rechenzentren im Giga-Maßstab: Der Bau eines einzigen solchen Zentrums benötigt rund 200.000 Tonnen Beton, 100.000 Tonnen Stahl und 10.000 Meilen Stromkabel – mehr Materialien, als für den Bau eines Wolkenkratzers verwendet werden. (Ganz zu schweigen von den Hunderten Tonnen Siliziumprozessoren, die pro Rechenzentrum mehrere Milliarden Dollar kosten.) Nach der Fertigstellung verbraucht der Betrieb eines einzigen Rechenzentrums täglich so viel Erdgas wie ein Raketenstart von SpaceX. Die Umwandlung dieses Erdgases in Elektronen erfordert natürlich Megatonnen an Maschinen. Würde man den Strom stattdessen vollständig mit Solaranlagen erzeugen, müsste man eine radikale Steigerung beim Materialeinsatz in Kauf nehmen.
Wie viel Material und Energie tatsächlich nötig sein wird, um eine von KI durchdrungene Zukunft zu betreiben, gehört zu den entscheidenden Fragen dieses Jahrzehnts. In Fachkreisen ist längst bekannt, dass der Aufbau und die Erhaltung digitaler Infrastrukturen enorme Mengen an Energie verbrauchen – doch nun muss künstliche Intelligenz in diese Rechnung aufgenommen werden. Die jüngste IEA-Studie zu diesem Thema – ein 300-seitiges Werk mit dem Titel Energy and AI – kommt zu dem Schluss, dass ein einziges großes KI-Rechenzentrum so viel Strom verbraucht wie zwei Millionen Haushalte. Die Stromversorgung der digitalen Infrastrukturen von morgen wird also dem gleichkommen, was heute nötig ist, um Hunderte Millionen zusätzlicher Haushalte stabil zu versorgen.
Doch lassen wir die Prognosen beiseite: Allein im vergangenen Jahr (2024) wurden in den USA bereits nahezu 7.000 Megawatt an neuer Rechenzentrumsleistung gebaut. (Zum Vergleich: New York Citys Stromspitzenverbrauch im Sommer liegt bei etwa 10.000 Megawatt.) Diese Bauleistung war etwa doppelt so hoch wie die von 2023 und mehr als fünfmal so hoch wie der durchschnittliche jährliche Zubau im Jahrzehnt davor – der Ära, in der die Cloud-Infrastruktur überhaupt erst entstand.
Die Billionen-Dollar-Frage lautet: Wie viel wird in den nächsten sechs Jahren noch gebaut?
Die führenden Big-Tech-Konzerne haben für dieses Jahr allein Investitionen von 300 Milliarden US-Dollar in KI-Infrastruktur angekündigt. BlackRock prognostiziert, dass die jährlichen Ausgaben bis 2030 auf 1 Billion US-Dollar ansteigen könnten. Niemand weiß, ob dieser Betrag tatsächlich erreicht wird oder nicht – aber selbst wenn sich die Ausgaben bei 300 bis 400 Milliarden Dollar jährlich stabilisieren, wären die energiepolitischen Konsequenzen enorm:
Für je 100 Milliarden Dollar, die in neue Rechenzentren investiert werden, werden über eine Dekade hinweg etwa weitere 100 Milliarden Dollar für Strom benötigt. Diese Realität ist zweifellos der Hintergrund für Sam Altmans Aussage über die Konvergenz von Energie- und KI-Kosten.
Wie viel Strom KI tatsächlich benötigen wird, hängt von zwei sich überschneidenden Entwicklungen ab:
Dem Wachstum der Nachfrage nach Bits,
und dem Tempo der Effizienzgewinne bei digitaler Hardware.
Einige Analysten winken die Warnungen über den steigenden Strombedarf von KI als übertrieben ab. Sie argumentieren, dass die Energieeffizienz rasant zunimmt und dadurch der Energiehunger gebremst werde. Das ist nur zur Hälfte richtig:
Ja, die Effizienz verbessert sich – aber gerade deshalb wächst die Nachfrage.
Das haben wir schon einmal erlebt:
Das Internet, Smartphones und all die auf ihnen basierenden Geschäftsmodelle wurden durch enorme Effizienzgewinne in der Rechenleistung möglich.
Hätte ein heutiges Smartphone mit dem Energieverbrauch von 1984 gearbeitet, würde es mehr Strom benötigen als ein ganzer Häuserblock.
Ein einziges modernes Rechenzentrum hätte damals den gesamten Stromverbrauch der USA verschlungen.
Es waren exponentielle Effizienzgewinne, die die heutige Welt mit Milliarden von Smartphones und Tausenden von Rechenzentren ermöglicht haben – eine Infrastruktur, die in Summe bereits mehr Strom verbraucht als das Land Japan.
Und bei der Entwicklung von energieeffizienteren KI-Chips und Rechenzentren wird sich die Geschichte nicht nur reimen – sie wird sich wiederholen. Nur diesmal kommt die Effizienz schneller, was bedeutet, dass die Stromnachfrage früher steigen wird.
Der gesellschaftliche Hunger nach Bits – also nach Daten, Information und Rechenleistung – ist der eigentliche Antrieb aller digitalen Entwicklungen. Und er kennt keine natürlichen Grenzen.
Während im Bereich der Atome – etwa bei Häusern, Autos, Lebensmitteln – der Konsum mit steigendem Wohlstand irgendwann an Grenzen stößt,
gilt in der Welt der Bits:
Information kennt keine Obergrenze.
Es gibt keine Grenze dafür, wie viel wir wissen wollen und müssen – über alles in unserer Gesellschaft, unserer Infrastruktur, unseren Maschinen, unseren Körpern und der Natur. Die sinkenden Kosten sowie die steigende Raffinesse und Sensitivität von Sensoren ermöglichen die Datenerfassung mit immer größerer Detailtiefe, in immer höherem Volumen und höherer Frequenz. Der Informationskonsum der Gesellschaft wird weiterhin exponentiell wachsen.
All dies ist nicht das Ergebnis staatlicher Anreize oder Vorgaben. Vielmehr wird es dadurch angetrieben, dass Daten das Leben verbessern können – sei es in den ernsten Bereichen wie Gesundheitswesen oder Lieferketten, oder in vermeintlich trivialen Bereichen wie Reisen und Unterhaltung.
Kurz gesagt: Es geht um die unbegrenzte Nachfrage nach mehr Produktivität in allen Lebensbereichen.
Google veröffentlichte kürzlich eine eigene Einschätzung und Roadmap zu den Auswirkungen von KI und dem Strombedarf für deren Betrieb. Der Konzern betont, dass KI den USA eine einmalige Chance bietet, „eine neue Ära amerikanischer Innovation und wirtschaftlichen Wachstums“ einzuleiten.
Dazu sage ich: Amen.
Wenn KI ihre Versprechen eines Produktivitätsschubs erfüllt, werden die Konsequenzen tektonisch sein.
Schon ein Anstieg des jährlichen Produktivitätswachstums der USA auf den langfristigen Durchschnitt seit 1950 – also über das derzeit in den Regierungsprognosen angenommene schwache Niveau hinaus – würde das BIP der USA im nächsten Jahrzehnt um kumulativ 10 Billionen US-Dollar über die bisherigen Vorhersagen hinaus steigern. Dieses zusätzliche Wachstum könnte viele der angeblich unlösbaren Probleme, nicht zuletzt das Haushaltsdefizit, erheblich entschärfen.
Wenn dies eintritt, wird es einen weiteren, oft übersehenen Effekt geben: Es wird das Wachstum des Energiebedarfs ankurbeln. Wohlhabendere Menschen kaufen größere Häuser, reisen mehr und konsumieren mehr Produkte und Dienstleistungen. Menschen in wirtschaftlich geschwächten Ländern tun genau das Gegenteil.
Damit sind wir zurück bei Altmans These von der Konvergenz von Energie und KI.
Auf einer jüngsten Konferenz sagte ein Nvidia-Manager, dass die Tech-Industrie „alle Optionen auf dem Tisch haben möchte“, denn am Ende des Tages gelte: „Wir brauchen Strom. Wir brauchen einfach Strom.“
Wir erleben das Ende des vergangenen Jahrzehnts, in dem es eine monomane Fixierung auf Wind- und Solarenergie als alleinige Lösung gab.
Künstliche Intelligenz ist das jüngste und dramatischste Beispiel dafür, dass sich die Geschichte reimt.
Analogien sind nie perfekt, aber es ist 150 Jahre her, dass es eine vergleichbare Wende gab – mit dem Aufkommen dessen, was man damals als „künstliche Beleuchtung“ bezeichnete. Glühbirnen erscheinen uns heute nicht mehr als magisch – doch sowohl frühe Glühlampen als auch moderne LEDs erzeugen gewichtlose Photonen. Und dennoch wird heute etwa ein Fünftel des weltweiten Stroms dafür verwendet, diese gewichtslosen Photonen zu erzeugen.
Die IEA (Internationale Energieagentur) schätzt, dass die heutigen globalen Rechenzentren derzeit rund 2 Prozent des weltweiten Stroms verbrauchen – ein Anteil, der sich bis 2030 verdoppeln wird.
Doch da Bits deutlich vielfältiger einsetzbar sind als Photonen, ist es naheliegend, dass der Stromverbrauch für künstliche Intelligenz eines Tages denjenigen für künstliche Beleuchtung übersteigen wird.
Das Zeitalter der Konvergenz von Bits und Atomen hat gerade erst begonnen.
*Mark P. Mills ist beitragender Redakteur des City Journal und Geschäftsführer des National Center for Energy Analytics.
Quelle: https://www.city-journal.org/article/artificial-intelligence-energy-electricity-demand