In den letzten Jahren erweist sich der Markt für Rechenzentren in den USA als enorm dynamisch. Die steigende Nachfrage nach Cloud-Diensten, künstlicher Intelligenz und digitalen Infrastrukturen treibt eine Flut an Anträgen und Vorschlägen für den Bau neuer Datenzentren voran. Doch eine überraschende Realität zeichnet sich immer deutlicher ab: Nur ein Bruchteil dieser geplanten Datenzentren wird letztlich tatsächlich gebaut. Diese Entwicklung stellt Energieversorger und Netzbetreiber vor erhebliche Herausforderungen, die sie nun zunehmend aktiv angehen – ein Prozess, der mit neuen Strategien und Regulierungsansätzen einhergeht. Das Problem der sogenannten „Phantom-Datenzentren“ beruht auf der Tatsache, dass Unternehmer und Entwickler oft mehrere Projekte anmelden, um sich möglichst viele Optionen offenzuhalten.
Der Grund hierfür liegt häufig in der Unsicherheit hinsichtlich Netzanschlüssen, Genehmigungsverfahren und dem Wettbewerb mit anderen Anbietern. Daher werden Anträge auf Netzanschluss vielfach aus spekulativen Gründen gestellt – weit mehr als der effektive Bedarf an Rechenzentren, der am Markt letztlich entstehen wird. Fachleute schätzen, dass die Anzahl dieser Forderungen oft fünf- bis zehnfach höher liegt als die Menge der tatsächlich umgesetzten Datenzentren. Diese Diskrepanz macht es für Versorger sehr kompliziert, die Netzplanung langfristig sinnvoll zu gestalten. Für die Planung von Energieerzeugung, Netzstabilisierung und Kapazitätsbedarf ist eine verlässliche Abschätzung der Lasten unverzichtbar.
Wenn die Anmeldungen unrealistisch aufgebläht sind, entstehen Risiken durch Fehlinvestitionen in Infrastruktur. Gleichzeitig werden Ressourcen durch die Bearbeitung und Prüfung dieser überdimensionierten Anträge gebunden, was zu Verzögerungen und zusätzlichen Kosten für alle Beteiligten führt. Die Prognose zukünftiger Energiebedarfe im Sektor der Datenzentren ist zudem von großer Unsicherheit geprägt. Studien wie die RAND Corporation prognostizieren für das Jahr 2030 eine sehr breite Spannweite – von moderaten bis extremen Werten – für den Stromverbrauch, der durch die künstliche Intelligenz und Cloud-Dienste verursacht wird. Unternehmen wie Schneider Electric betonen, dass diese Werte mit Vorsicht zu interpretieren sind, da reale Entwicklungen häufig hinter herkömmlichen Hochrechnungen zurückbleiben.
Sie nennen Szenarien, die von 16,5 bis 65,3 Gigawatt AI-bedingtem Strombedarf reichen; ein nachhaltiges Wachstum, das die Netzstabilität wahrt, liegt demnach eher bei etwa 33,8 Gigawatt. Die mangelnde Transparenz und Verlässlichkeit der Daten zu geplanten Lasten erschweren den Energieversorgern erheblich die langfristige Kapazitätsplanung. Hinzu kommt, dass Entwickler häufig aus Wettbewerbsgründen Details zu ihren Projekten verschleiern. Der Einsatz von anonymen Gesellschaften und Vertraulichkeitsvereinbarungen sorgt dafür, dass selbst lokale Behörden und Versorger kaum belastbare Informationen erhalten. Dies führt dazu, dass oft nicht festgestellt werden kann, welche Anträge reine Absichtserklärungen oder ernsthafte Vorhaben darstellen.
Konkurrenten wie Microsoft oder Amazon agieren ebenfalls vorsichtig. Diese Konzerne haben in der Vergangenheit bereits mehrere Gigawatt Kapazität beim Netzreservieren zurückgezogen oder Projekte auf Eis gelegt, was weitere Unsicherheit in den Markt bringt. Kleinere Entwickler, die nicht die Ressourcen großer internationaler Akteure haben, neigen sogar stärker dazu, Projekte zu verwerfen, was die Prognosefähigkeit zusätzlich erschwert. Ein weiterer Trend ist, dass viele Datenzentrumskunden angesichts der langen Wartezeiten für Netzanschlüsse vermehrt auf sogenannte „Behind-the-Meter“-Energieerzeugung setzen. Das bedeutet, dass sie eigene Gas- oder andere Kraftwerke direkt vor Ort betreiben oder planen, um den Strombedarf primär autark zu sichern.
Prominente Beispiele hierfür sind Elon Musks xAI-Niederlassung in Memphis, die angeblich auf 35 Gasturbinen zurückgreift, oder auch neu geplante Industrieparks mit umfangreicher eigener Erzeugungskapazität. Dies verlagert die Herausforderungen für die Stromnetze, da solche Anlagen eigene Versorgungslasten erzeugen, die anders zu bewerten und zu kontrollieren sind. Die Versorgungsunternehmen und Verbände reagieren auf diese Lage mit unterschiedlichen Maßnahmen, um den Umgang mit der spekulativen Belastung zu verbessern und die Netzplanung robuster zu gestalten. Manche versuchen, die Interaktionsprozesse zwischen Datenzentren und Netzinfrastruktur zu standardisieren, zum Beispiel durch einheitliche Abläufe und klare Anforderungen an finanzielle Absicherungen für Vorstudien und Anschlussgarantien. Andere fordern von den Entwicklern höhere Anzahlungen und rechtliche Verpflichtungen, um ihre Ernsthaftigkeit besser bewerten zu können.
Es ist zudem zu beobachten, dass einige Versorger um Hilfe bei den staatlichen Regulierungsbehörden ersuchen, um zusätzliche Handhabe bei der Selektion realistischer Projekte zu erhalten. Auch es ist denkbar, dass regenerative Einspeisung und neue Bewertungssysteme für Lasten und Engpässe stärker in die Planungen einbezogen werden müssen. Die Einführung neuer Tarife, die speziell auf große Lasten wie Datenzentren zugeschnitten sind, soll Versorger und Kunden gleichermaßen schützen, indem sie Kosten fair verteilen und bestehende Kunden vor Lastverschiebungen bewahren. Eine zentrale Schwierigkeit bleibt jedoch der Anreizmechanismus. Aktuellen Analysen zufolge ist es für datenintensive Unternehmen oft wirtschaftlicher, mehrere Plätze in Wahrscheinlichkeits- oder Warteschlangen von Netzanschlüssen zu reservieren, als mit Sicherheit nur eine Verbindung anzumelden.
Dies resultiert in einer Art Marktversagen: Die Kosten für eine Platzreservierung sind geringer als das Risiko oder die Kosten, keine rechtzeitige Versorgung zu sichern. Daraus entsteht ein ständiger Wettbewerb um möglichst viele Optionen, die aber nicht alle in reale Lasten und Infrastruktur umgemünzt werden. Diskussionen innerhalb der Branche schlagen daher vor, die Warteschlangensysteme zu harmonisieren und zu standardisieren. Ein national einheitliches Verfahren mit anonymisierten Daten über die Projektreife könnte einen besseren Überblick ermöglichen und Spekulationen reduzieren. Die Erhebung gestaffelter Gebühren und eine konsequente Entfernung nicht realisierbarer Projekte aus den Wartelisten würden den Prozess effizienter gestalten.
Allerdings bleibt auch hier die Gefahr, dass versierte Entwickler Wege finden, Schlupflöcher zu nutzen oder den Wettbewerb untereinander auszuspielen. Beispiele aus Virginia, einem Kernmarkt für Datenzentren, zeigen erste Fortschritte. Dort haben mehrere Versorger neue Großlast-Tarifklassen vorgeschlagen, die hohe Mindestzahlungen für verbrauchte Leistung und entsprechende Sicherheiten vorsehen. Außerdem sind Vorschläge im Umlauf, die die Beteiligung von spezialisierten Subunternehmen für das Management und die Kostenaufteilung der Infrastruktur vorsehen, um die bestehenden Kunden zu schützen. Solche regionalen Modelle könnten Impulse für weitere Anpassungen in anderen wichtigen Rechenzentrums-Hotspots geben.
Die Thematik ist von großer Bedeutung für die Zukunft der digitalen Infrastruktur und die Energiewende gleichermaßen. Die Balance zwischen der Förderung von Innovation und Technologieentwicklung sowie der Sicherung eines stabilen, effizienten Stromnetzes ist komplex. Der Umgang mit spekulativen Datenzentrumsanmeldungen wirkt sich direkt auf Versorgungsqualität, Investitionskosten und ökologische Nachhaltigkeit aus. Damit US-amerikanische Versorger ihre Aufgaben in der Netzplanung und Energieversorgung künftig bewältigen können, sind verstärkte Kooperationen zwischen Industriezweigen, Regulierungsbehörden und Entwicklern nötig. Transparenz, klare Standards und wirtschaftlich durchdachte Anreizsysteme könnten dazu beitragen, die heute noch erheblichen Unsicherheiten zu reduzieren.