Die rasante Entwicklung künstlicher Intelligenz (KI) und maschinellen Lernens hat einen enormen Anstieg des Energiebedarfs in Rechenzentren zur Folge. Insbesondere beim Betrieb von serverbasierten KI-Modellen mit umfangreichen GPU-basierten Beschleunigern steigen die Anforderungen an die Stromversorgung und Kühlung zunehmend an. Vor diesem Hintergrund hat Google auf dem Open Compute Project (OCP) Summit in Dublin aufsehenerregende Pläne vorgestellt: die Entwicklung von IT-Racks, die bis zu 1 Megawatt (MW) Stromlast bewältigen können. Diese Innovation soll durch die Nutzung der Lieferkette aus der Elektrofahrzeugbranche ermöglicht werden und verspricht, die Infrastruktur für KI-Rechenzentren fundamental zu verändern.Traditionell bewegen sich die Leistungsaufnahmen typischer Server-Racks im Bereich von 5 bis etwa 30 Kilowatt (kW).
Doch mit dem Einsatz leistungsstarker GPU-Server, wie dem Nvidia DGX GB200 NVL72 mit rund 120 kW, steigen die Leistungsanforderungen exponentiell. Googles Vision eines 1-MW-Racks markiert einen radikalen Sprung in der Leistungsdichte, der nicht nur die Skalierbarkeit von KI-Anwendungen unterstützt, sondern auch die Raumausnutzung in Rechenzentren optimiert.Der Schlüssel zu dieser Revolution liegt in der Umstellung von der bisher gängigen 48-Volt-Gleichstromverteilung auf ein System mit +/-400 Volt Gleichstrom. Diese Spannungserhöhung ermöglicht nicht nur eine deutlich höhere Energieübertragung innerhalb der Serverräume, sondern erlaubt Google auch, die bewährte Lieferkette und Komponenten der Elektrofahrzeugindustrie zu nutzen. Die Automobilbranche hat in den letzten Jahren massive Fortschritte in der Fertigung hocheffizienter DC-Komponenten für Elektrofahrzeuge gemacht, die Google nun übernimmt, um Skaleneffekte, Kostenvorteile und Qualitätsverbesserungen für Rechenzentren zu erzielen.
Die Implementierung dieser neuen Technologie geht über die reine Stromversorgung hinaus. Google arbeitet gemeinsam mit anderen Hyperscalern wie Meta und Microsoft an einem Projekt namens Mt Diablo, das eine innovative Architektur vorsieht: die Entflechtung der Stromversorgung von den IT-Racks in separate Einheitseinheiten, sogenannte „Sidecar“-Racks, die in derselben Serverzeile positioniert werden. Diese dedizierten AC-zu-DC-Stromversorgungsracks ermöglichen es, den Platz in den IT-Racks für Serverhardware mit hoher Leistungsdichte zu maximieren und gleichzeitig die Stromversorgung in effizienter Weise zentral zu steuern.Langfristig erkundet Google zudem die direkte Verteilung von noch höherer Gleichspannung innerhalb der Rechenzentren und bis zu den Server-Racks, was zukünftig noch größere Leistungsdichten und verbesserte Effizienz verspricht. Diese Initiative spiegelt die Innovationskraft Googles wider, die bestehende Grenzen der Rechenzentrumsinfrastruktur neu zu definieren und gleichzeitig eine robuste und nachhaltige Grundlage für die ständig steigenden Anforderungen an KI-Berechnungen zu schaffen.
Neben der Stromversorgung spielt die Kühlung eine entscheidende Rolle bei der Verarbeitung von Hochleistungs-IT-Komponenten. Google entwickelt die fünfte Generation seiner Kühlsysteme, basierend auf flüssigkeitsgekühlten in-Rack-Systemen, welche schon in früheren Generationen bei den Tensor Processing Units (TPUs) eingesetzt wurden. Diese Kühltechnologie, bekannt als Project Deschutes, setzt auf redundante Pumpen und Wärmetauscher, um eine extrem hohe Verfügbarkeit von 99,999 Prozent zu gewährleisten – ein entscheidender Faktor für den Dauerbetrieb in modernen Rechenzentren.Die direkte Kühlung der Hochleistungsprozessoren wird durch den Einsatz flexibler Schläuche zu Kaltplatten erreicht, die direkt auf den Chips angebracht sind. Dieses Konzept, das aus Hochleistungsrechenzentren abgeleitet wurde, ermöglicht eine effizientere Wärmeabfuhr, was wiederum die Leistung der Hardwarekomponenten optimiert und deren Lebensdauer verlängert.
Google plant, das Design dieser innovativen Kühlsysteme im Laufe des Jahres der Open Compute Project Gemeinschaft als Standard zur Verfügung zu stellen, um eine breitere Adaption von Flüssigkühlungstechnologien zu fördern.Ein weiteres entscheidendes Element der Googleschen Innovationen ist die nachhaltige Energieversorgung der Rechenzentren. Während viele Rechenzentren weltweit große Mengen fossiler Energie verbrauchen, setzt Google verstärkt auf erneuerbare Energien und erforscht Technologien wie Geothermie, um die CO2-Bilanz weiter zu verbessern. Die hohen Leistungsanforderungen moderner Serverracks können so mit einer umweltfreundlichen Infrastruktur kombiniert werden, was langfristig auch die Betriebskosten senkt.Die Umstellung auf hohe Gleichspannungsströme in Rechenzentren ist auch technischer Natur eine Herausforderung, insbesondere im Hinblick auf Sicherheitsaspekte und Zuverlässigkeit.
Hohe Ströme und Spannungen erfordern robuste Schutzmechanismen und präzise Steuerungstechnik, um den 24/7-Betrieb sicherzustellen. Googles Ansatz, die Stromversorgung zu entkoppeln und zentral zu verwalten, erlaubt es, diese Herausforderungen besser zu managen und gleichzeitig erhöhte Effizienz und Skalierbarkeit zu bieten.Darüber hinaus ist die Einbindung von Technologien aus der Elektrofahrzeugindustrie ein Paradebeispiel für bereichsübergreifende Innovation. Die Automobilbranche hat in Sachen Leistungselektronik, Batteriemanagement und Hochvoltkomponenten enorme Fortschritte gemacht, um die anspruchsvollen Anforderungen von Elektroautos zu erfüllen. Diese Fortschritte nutzen nun Rechenzentren, die ähnliche technologische Anforderungen an Energieeffizienz und Zuverlässigkeit haben.
Google reagiert mit diesen Neuerungen auf das unaufhaltsame Wachstum der KI-Branche und deren exponentiell wachsenden Hardwarebedarf. Nur durch dramatische Effizienzsteigerungen bei der Energieverteilung und Kühlung können Rechenzentren in Zukunft auch komplexe Modelle verarbeiten, ohne dabei unvertretbare Kosten oder ökologische Schäden zu verursachen. Die Verlagerung hin zu großen 1-MW-Racks dürfte den Grundstein für die nächste Generation von KI-Infrastrukturen legen und die Grenzen des Machbaren in Bezug auf Rechenleistung und Energieverbrauch neu definieren.Es bleibt spannend, wie schnell andere große Cloud-Anbieter und Hyperscaler Googles Ansätze adaptieren werden. Projekte wie Mt Diablo, die gemeinsame Entwicklung von Architekturstandards und die Öffnung der Designs im Rahmen des Open Compute Projects schaffen die Grundlagen für eine weitreichende Transformation der Rechenzentrumsbranche.
Dies ist ein entscheidender Schritt hin zu skalierbaren, energieeffizienten und nachhaltigen Systemen, die den steigenden Anforderungen der kommenden Jahre gerecht werden.Zusammenfassend lässt sich festhalten, dass die Umstellung auf ein Hochvolt-Gleichstromnetz, kombiniert mit Fortschritten in Kühlung und Systemarchitektur, Google einen klaren Wettbewerbsvorteil verschafft. Indem das Unternehmen auf die bewährten Technologien der Elektrofahrzeugbranche zurückgreift, gelingt es ihm, leistungsfähige und dennoch wirtschaftliche Rechenzentrumskonzepte zu entwickeln, die die wachsenden Herausforderungen der KI-Ära bewältigen. Die bevorstehende Veröffentlichung der Spezifikationen im Rahmen des OCP wird mit Sicherheit einen Impuls für Innovationen und die Verbreitung dieser Technologien in der gesamten IT-Branche setzen.