Mit dem rasanten Wachstum von Künstlicher Intelligenz und maschinellem Lernen stehen moderne Rechenzentren vor enormen Herausforderungen. Google hat auf dem OCP EMEA Summit 2025 eine Vision vorgestellt, die nicht nur die steigenden Leistungsanforderungen adressiert, sondern auch innovative Lösungen zur Kühlung und Energieversorgung anbietet. Im Zentrum steht der Plan, IT-Racks mit einer Leistung von bis zu 1 Megawatt zu realisieren und gleichzeitig deren thermische Belastung durch fortschrittliche Flüssigkeitskühlung im Griff zu behalten. Dieser Paradigmenwechsel verspricht, die Architektur großer Rechenzentren grundlegend zu verändern und die Grundlage für künftige KI-Infrastrukturen zu legen. Die folgende Analyse beleuchtet die Kernaspekte von Googles neuen Ansätzen, welche die Leistungsfähigkeit, Effizienz und Nachhaltigkeit der Rechenzentren steigern sollen.
Die Herausforderung der Leistungserbringung in modernen Rechenzentren ist enorm gestiegen. Während vor einem Jahrzehnt Racks mit 10 Kilowatt als Standard galten, können aktuelle Systeme bereits auf etwa 100 Kilowatt skalieren. Google prognostiziert, dass bis zum Jahr 2030 AI-Workloads Racks benötigen werden, die eine Leistung von über 500 Kilowatt erbringen. Mit dieser Entwicklung steigt auch die Dichte der eingesetzten Recheneinheiten, sogenannte „xPUs“ – dazu zählen GPUs, TPUs und CPUs –, die immer engmaschiger verbaut werden, um maximale Rechenkapazität auf kompakter Fläche zu ermöglichen. Das bedeutet für die Energieversorgung eine dramatische Steigerung der Anforderungen, da herkömmliche Methoden nicht mehr ausreichen, um stabile und effiziente Leistung zu gewährleisten.
Ein Schlüsselaspekt in Googles Vision ist die Umstellung auf eine neue Spannungsversorgung von +/-400 Volt Gleichstrom (VDC). Schon vor etwa zehn Jahren setzte Google mit der Einführung von 48 VDC innerhalb der Racks Maßstäbe, indem der Energieverlust gegenüber älteren 12-V-Standards erheblich reduziert wurde. Die neue Erhöhung auf +/-400 VDC ermöglicht eine nochmals drastische Erhöhung der Energieeffizienz und Leistungskapazität, wodurch die maximale Rack-Leistung von 100 Kilowatt auf bis zu 1 Megawatt angehoben werden kann. Diese Entwicklung ist nicht nur technischer Natur. Der gewählte Spannungshub baut auf der automobilen Industrie auf, namentlich auf der Lieferkette und Produktionstechnik für Elektrofahrzeuge, was bessere Skalierbarkeit, günstigere Produktionskosten und qualitativ hochwertigen Komponenten mit sich bringt.
Ein prominentes Gemeinschaftsprojekt, genannt Mt. Diablo, vereint die Expertise von Google, Microsoft, Meta und der Open Compute Project (OCP) Community, um einen einheitlichen Standard für elektrische und mechanische Schnittstellen bei 400 VDC zu schaffen. Diese Kooperation fördert die Industrialisierung und Standardisierung, wodurch weitere Anbieter und Betreiber von Rechenzentren von den Vorteilen der höheren Spannung profitieren können. Zudem ermöglicht die sogenannte AC-zu-DC Sidecar Power Rack Architektur die Entkoppelung der Stromversorgungs-Komponenten vom eigentlichen IT-Rack. Dies führt zu einer Effizienzsteigerung von rund drei Prozent und verschafft dem IT-Rack mehr Raum zur Aufnahme zusätzlicher Hardware, was insbesondere bei hochdichten Systemen ein entscheidender Vorteil ist.
Neben der Stromversorgung stellt die Kühlung der Elektronik eine der größten Herausforderungen dar. Die Leistungsaufnahme der einzelnen Chips ist enorm gestiegen. Prozessoren, die früher bei etwa 100 Watt Betriebsleistung lagen, weisen heute Acceleratoren mit mehr als 1000 Watt auf. Das führt zwangsläufig zu einem enormen Wärmestau in den Racks, der durch herkömmliche Luftkühlung nicht mehr in den Griff zu bekommen ist. Die begrenzte Wärmeleitfähigkeit von Luft und die physikalischen Grenzen klassischer Kühlsysteme setzen der weiteren Dichteentwicklung fixe Grenzen.
Wasserbasierte Flüssigkeitskühlung hat sich hier als unverzichtbare Lösung etabliert. Im Vergleich zur Luft bietet Wasser eine etwa 4000-fach höhere Wärmeaufnahme je Volumeneinheit und eine 30-fach bessere Wärmeleitfähigkeit. Google hat bereits im großen Maßstab Flüssigkeitskühlung implementiert, etwa bei mehr als 2000 TPU Pods mit einer beeindruckenden Betriebszeit von 99,999 Prozent uptime über sieben Jahre hinweg. Dabei sind flüssigkeitsgekühlte Server zudem deutlich kompakter als luftgekühlte Systeme, da sperrige Kühlkörper durch sogenannte Kaltplatten ersetzt werden können. Dies ermöglicht eine Verdopplung der Chip-Dichte und eine Vervierfachung der Größe flüssigkeitsgekühlter TPU v3 Supercomputer im Vergleich zur luftgekühlten TPU v2 Generation.
Googles Kühlarchitektur ist unter dem Namen Projekt Deschutes bekannt und nutzt sogenannte In-Row Coolant Distribution Units (CDUs). Diese trennen den Flüssigkeitskreislauf innerhalb der Racks vom Kühlkreislauf der gesamten Anlage. Das erlaubt eine präzise Steuerung der Kühlung und erhöht die Zuverlässigkeit. Die vierte Generation des Deschutes-Projekts ist in Google-Rechenzentren bereits im Einsatz, die fünfte Generation befindet sich in Planung. Die Redundanz beim Pumpen- und Wärmetauscher-Design sorgt für eine extreme Verfügbarkeit und Betriebssicherheit, die seit 2020 bei ebenfalls beeindruckenden 99,999 Prozent liegt.
Der Schritt, die Technologie hinter Project Deschutes nun im Laufe dieses Jahres an die OCP-Community zu übergeben, soll die Akzeptanz und Verbreitung der Flüssigkeitskühlung in der gesamten Rechenzentrumsbranche katalysieren. Google bietet damit detaillierte Spezifikationen, bewährte Designs und praxisnahe Erfahrungswerte, die Herstellern und Betreibern helfen, ähnliche Systeme schnell und zuverlässig zu implementieren. Von der Konstruktion über die Fertigung bis zur Wartung unterstützt die gemeinsame Nutzung dieser Innovation eine zielgerichtete Beschleunigung der Transformation moderner Infrastruktur. Die Notwendigkeit für solche Entwicklungen ist eindeutig. KI-Hardware mit extremen Leistungsanforderungen erfordert eine radikale Weiterentwicklung der bestehenden Energieversorgung und Kühlung.
Das traditionelle Modell, in dem einzelne Racks mit 10 oder 20 Kilowatt Energie betrieben werden, stößt mittlerweile an die Grenzen des Möglichen. Gleichzeitig verlangt der steigende Strombedarf aber auch nach effizienteren Lösungen, um Umwelteinflüsse und Betriebskosten im vertretbaren Rahmen zu halten. Googles neuer Ansatz setzt genau an diesen Stellschrauben an: Die höhere Spannungsebene durch +/-400 VDC erlaubt nicht nur eine Steigerung der Leistungsdichte, sondern reduziert auch Übertragungsverluste signifikant. Die externe Lagerung von Stromversorgungskomponenten in sogenannten Sidecar-Power-Racks schafft zusätzliche Fläche für Compute-Ressourcen im IT-Rack. Die Integration der Flüssigkeitskühlung bis auf Racks-Ebene ermöglicht es, Hitze effektiv zu entfernen und die Komponenten trotz hoher Leistungsaufnahme stabil und effizient zu betreiben.
Darüber hinaus fördert die enge Zusammenarbeit mit anderen Technologie-Giganten und der OCP-Gemeinschaft die Entwicklung von Industriestandards. Die Einbindung bewährter Automobiltechnologie schafft einen Industriezweig mit hoher Stückzahlfertigung und entsprechend hoher Komponentenqualität. Dies verringert nicht nur Produktionskosten, sondern erhöht auch die Zuverlässigkeit in Datenzentrumsumgebungen, die rund um die Uhr höchstmögliche Verfügbarkeit sicherstellen müssen. Der Beitrag von Google zu Open Compute Project, insbesondere das Teilen von Project Deschutes, ist ein wichtiger Impuls für die gesamte Branche. Durch die Weitergabe erprobter Verfahren und Designs können andere Unternehmen von Googles Erfahrung profitieren und selbst schneller in Technologien investieren, die die nächste Generation von KI-Infrastrukturen ermöglichen.
Die Kombination aus elektrischer Innovation und fortschrittlicher Kühltechnik wird zu einem entscheidenden Faktor auf dem Weg zu nachhaltigen und leistungsstarken Rechenzentren. Künftige Datenzentren werden nicht nur in puncto Leistung neue Maßstäbe setzen, sondern auch effizienter und umweltfreundlicher operieren müssen. Die Fähigkeit, Energieverluste zu minimieren, Ressourcen optimal zu verteilen und thermische Herausforderungen zu meistern, entscheidet über den Erfolg der Technologiehersteller und Betreiber. Googles Initiative ist ein wegweisender Schritt in diese Richtung. Zusammenfassend zeigt Googles Plan zur Einführung von 1-Megawatt-Racks mit hochinnovativer Flüssigkeitskühlung, wie technologische Innovationen auf mehreren Ebenen – Stromversorgung, mechanisches Design und thermisches Management – zusammengeführt werden können, um die nächste Generation von KI-Rechenzentren möglich zu machen.
Die enge Verbindung von Industriepartnerschaften und der offenen Bereitstellung von Technologien an die Community stellt sicher, dass diese Veränderungen für alle Akteure zugänglich sind und somit die Leistungsfähigkeit der globalen Rechenzentrumsinfrastruktur nachhaltig gesteigert wird.