Die rasante Entwicklung im Bereich Künstliche Intelligenz (KI) hat die Nachfrage nach leistungsfähigen Grafikprozessoren (GPUs) enorm gesteigert. Während Nvidia traditionell die Spitzenposition im Markt für KI-Hardware, speziell bei Profi-Grafikkarten, innehat, versucht Intel mit einer unkonventionellen Strategie, zunehmend Marktanteile zu gewinnen. Statt sich auf einzelne, teure High-End-GPUs zu konzentrieren, setzt Intel auf die Kombination mehrerer günstiger GPUs, um eine vergleichbare Rechenleistung zu erzielen. Dieses Konzept wird unter dem Namen „Project Battlematrix“ bekannt und könnte die Art und Weise, wie KI-Inferenz-Workstations konzipiert werden, grundlegend verändern. Intel hat vor kurzem die neuen Arc Pro B60-Grafikkarten vorgestellt, die auf den ersten Blick nicht mit der absoluten Spitzenklasse von Nvidia mithalten können.
Die Leistungsdaten der B60 liegen zwischen den Nvidia RTX 4000 Ada und 4500 Ada Generation GPUs, welche im Bereich von 1.250 bis 2.400 US-Dollar angesiedelt sind. Die Intel B60 hingegen wird für etwa 500 US-Dollar pro Karte erwartet. Zum Vergleich: Nvidia's RTX Pro 6000 Workstation-Karten, welche für anspruchsvolle KI-Inferenzaufgaben maßgeblich sind, kosten etwa 8.
500 US-Dollar und bieten eine bis zu fünfmal höhere INT8-Rechenleistung sowie eine deutlich größere Speicherkapazität und -bandbreite. Diese enorme Preis- und Leistungslücke wirkt auf den ersten Blick abschreckend, doch Intel verfolgt einen anderen Ansatz: Statt einer einzigen, äußerst teuren GPU baut Intel sogenannte „Stacking“-Systeme mit mehreren günstigen B60-Karten. Gerade das Stapeln von bis zu acht B60 GPUs in einem einzigen System ermöglicht laut Intel eine Gesamtleistung von etwa 1,5 Peta-Operationen pro Sekunde (INT8) und stolze 192 GB Videospeicher. Dies schafft ein Leistungsspektrum, das zumindest hinsichtlich der Speicherressourcen und der Rechenkapazität in der Nähe von High-End-Nvidia-Workstations liegt – zu einem Bruchteil der Kosten. Neben dem Preis ist auch der Stromverbrauch ein wichtiger Faktor.
Die Intel B60-Karten verbrauchen zwischen 120 und 200 Watt, während Nvidia-Karten in der Spitze zwischen 300 und 600 Watt benötigen. Dieses niedrigere Leistungsprofil ist besonders relevant für Unternehmen, die viele GPUs in einem einzigen Rack unterbringen wollen, da die Gesamtstromaufnahme und das Wärmemanagement entscheidend für Betriebskosten und Infrastruktur sind. Allerdings muss beachtet werden, dass die B60-Karten weniger energieeffizient sind, wenn man die Rechenleistung pro Watt vergleicht. Somit ist klar: Der niedrigere Stromverbrauch pro GPU kann durch den Bedarf vieler Karten für eine vergleichbare Leistung teilweise aufgehoben werden. Das sogenannte Project Battlematrix fordert herkömmliche Beschränkungen von Einzel-GPU-Systemen heraus und könnte besonders für Unternehmen attraktiv sein, die mit begrenztem Budget arbeiten, aber dennoch auf leistungsfähige KI-Inferenzkapazitäten angewiesen sind.
Im Idealfall könnte ein acht-GPU-System von Intel gerade mal etwa 4.000 US-Dollar kosten, während eine vergleichbare Nvidia-Konfiguration allein für die nötigen GPUs mehr als doppelt so viel ausgibt. Für Unternehmen mit ambitionierten Workloads und eingeschränkter Hardware-Investition öffnet sich somit ein interessanter Markt. Ein weiterer bedeutender Vorteil mehrerer einfacher GPUs im System ist die Möglichkeit, unterschiedliche Workloads parallel von verschiedenen Nutzern oder Anwendungen auf dedizierten Grafikkarten laufen zu lassen. Gerade in Forschungslabors oder Entwicklungsteams ist dies eine willkommene Ergänzung, da Ressourcen partitioniert und effizienter genutzt werden können.
Intel arbeitet hier an der Integration von SR-IOV (Single Root I/O Virtualization), um aus einer physischen GPU mehrere virtuelle GPUs zu machen. Dies erleichtert das Management und das Bereitstellen dedizierter Ressourcen in einer virtualisierten Umgebung erheblich. Im Vergleich dazu bietet Nvidia ebenfalls Technologien wie Multi-Instance GPU (MIG), mit denen große GPUs in kleinere Partitionen zerlegt werden können, doch dies erfolgt oft unter Zuhilfenahme zusätzlicher Lizenzen, was die Kosten weiter in die Höhe treibt. Intel punktet hier also erneut mit einer tendenziell kostengünstigeren Lösung, die auf Offenheit und Einfachheit basiert. Was die Software betrifft, hat Intel in den letzten Jahren erhebliche Fortschritte gezeigt, auch wenn Nvidia in Sachen Framework-Support und Ökosystem immer noch die Nase vorn hat.
Intel verpflichtet sich mit dem B60-Launch, die Software-Infrastruktur auszubauen. Dazu gehören vorgefertigte Container-Umgebungen, die ein schnelles und reibungsloses Deployment von KI-Frameworks ermöglichen. Beispiele hierfür sind vorgefertigte Container für beliebte Modelle und Plattformen wie vLLM oder Llama.cpp, was Entwicklern eine enorme Arbeitserleichterung bietet. Speziell bei Inferenz-Workloads zeigen sich interessante Aspekte, die für Intel's Ansatz sprechen.
Derartiges Computing wird oft durch Speicherbandbreiten-Limitierungen ausgebremst und profitiert daher weniger von reinem Rohdurchsatz oder sparsamer Rechenprecision. Die fehlende native 4-bit-Datentypunterstützung auf den B60-Karten sollte die Einsatzfähigkeit für viele quantisierte Modelle daher nicht wesentlich einschränken. Zudem kommt, dass viele Modelle, die auf 4-bit-Gewichtungen zurückgreifen, in der Praxis trotzdem auf höheren Präzisionsebenen für die Aktivierungen rechnen – ein Bereich, in dem Intels GPUs kompatibel und nutzbar sind. Die Frage nach der Zukunft des GPU-Marktes für KI-Kunden bleibt spannend. Nvidia behält mit seiner High-End-Architektur die Spitzenposition, doch der Preisdruck steigt.
Intels Strategie, auf günstige Hardware und Systemdesigns mit mehreren GPUs zu setzen, ist ein klarer Schritt in Richtung Demokratisierung von KI-Hardware. Gerade für kleinere Unternehmen, Hochschulen oder mittelständische Betriebe, die nicht bereit sind, mehrere Zehntausende Dollar für einzelne GPUs auszugeben, bietet sich damit eine realistische Alternative. Langfristig werden sich die Leistungsbilanz, die Effizienz und das Ökosystem entscheidend dafür auswirken, ob Intels Lösung breite Akzeptanz findet. Die Herausforderung besteht darin, die Komplexität bei Multi-GPU-Setups zu reduzieren und Stabilität sowie Durchsatz für verschiedene Anwendungen sicherzustellen. Erfreulicherweise hat Intel bei der Software in letzter Zeit große Fortschritte erzielt und zeigt klare Ambitionen, den Bereich weiter auszubauen und die Nutzerfreundlichkeit zu erhöhen.
Für all jene, die KI-Inferenzlösungen suchen, bei denen das Budget eine zentrale Rolle spielt, ist „Project Battlematrix“ von Intel eine Erwähnung wert. Die Überlegung, mehrere günstige GPUs statt weniger teurer Pro-Karten zu verbauen, könnte ein Wendepunkt in der Hardwarestrategie sein. Es wird spannend sein zu beobachten, wie sich dieser Ansatz auf den gesamten GPU-Markt auswirkt und inwiefern auch andere Anbieter mit ähnlichen Konzepten nachziehen. Abschließend lässt sich sagen, dass Intel mit dem Stapeln günstiger, aber dennoch leistungsfähiger GPUs eine ernstzunehmende Alternative für viele KI-Anwendungen bieten möchte. Diese Strategie kann Kosten erheblich senken, Mehrfachnutzer-Szenarien erleichtern und die Zugangshürde zu KI-Workstations nachhaltig reduzieren.
Während Nvidia nach wie vor mit Innovationen im Premiumsegment punktet, zeigt Intel, dass Performance nicht zwangsläufig mit hohem Preis einhergehen muss. Gerade der Trend zur Parallelisierung und zur Nutzung von günstigeren Hardwarekomponenten könnte in Zukunft den Marktwettbewerb beleben und damit einen positiven Impuls für die gesamte KI-Branche senden.