Die rasante Entwicklung von Künstlicher Intelligenz hat zu einem Wettlauf der Technologieunternehmen geführt, die modernste Hardwarelösungen bieten, um das enorme Rechenpotenzial von KI-Anwendungen zu bedienen. Insbesondere AMD hat in letzter Zeit mit seinen neuesten Grafikkartenserien MI350X, MI400 UALoE72 und der angekündigten MI500 UAL256 für Aufsehen gesorgt. Diese Innovationen markieren nicht nur einen technologischen Fortschritt, sondern verschieben auch die Karten im Wettbewerb mit Branchenriesen wie NVIDIA. Die Produkte spiegeln AMDs Entschlossenheit wider, durch verbesserte Leistung, flexible Architektur und Integrationsfähigkeit eine wichtige Rolle im schnell wachsenden KI-Markt einzunehmen. Der MI350X und MI355X sind zentrale Vertreter der neuen CDNA4-Architektur, deren Fokus verstärkt auf KI-Workloads liegt.
AMD hat zwei Varianten mit unterschiedlichen Leistungs- und Kühlkonzepten entwickelt, um auf verschiedene Anforderungen im Rechenzentrum und bei der KI-Inferenz zu reagieren. Während der MI350X als luftgekühltes Modell mit einer Leistungsaufnahme von 1.000 Watt daherkommt, bietet der MI355X mit 1.400 Watt sowohl Luft- als auch Flüssigkeitskühlung an. Trotz des höheren Energieverbrauchs ist die Leistungssteigerung des MI355X im Vergleich zum MI350X näher bei 10 Prozent, wobei in realen Einsatzszenarien durch Power-Limitierungen oft geringere reale Leistungsunterschiede zu erwarten sind.
Ein wesentlicher Vorteil dieser Grafikkarten liegt in ihrer Spezialisierung auf Precision-Formate, die für KI schnellere Rechenoperationen ohne große Genauigkeitsverluste ermöglichen. Insbesondere die Unterstützung von BF16, FP8 und FP4 Formaten sowie das innovative Handling von FP6 mit unterschiedlichen physikalischen Schaltungen zeigen AMDs Bemühen, möglichst effiziente Rechenleistung für Training und Inferenz von Sprachmodellen und anderen KI-Anwendungen anzubieten. Während der MI355X bei FP6 theoretisch überlegen ist, muss seine tatsächliche Performance noch in der Praxis validiert werden. Im Vergleich zu NVIDIA, insbesondere zu ihrer Blackwell-Architektur und den HGX-Serverlösungen, zeigen die AMD-GPUs bei bestimmten Spezifikationen Stärken, etwa im Bereich des verfügbaren HBM-Speichers. Mit bis zu 288 Gigabyte HBM steht beim MI350/355 wesentlich mehr dichter Speicher pro GPU zur Verfügung als bei den NVIDIA Entsprechungen, was vor allem bei Single-Node-Inferenzanwendungen von Bedeutung ist.
Auf der anderen Seite bewegen sich Nvidia-Systeme oft in der Leistungsspitze, vor allem wenn es um die Skalierung auf große GPU-Anzahlen und Hochleistungsnetzwerke geht. Ein kritischer Unterschied zwischen den Plattformen ist die Art der Skalierung in größeren Rechenzentren. Während AMDs MI355X in einem sogenannten Rack-System bis zu 128 GPUs ansprechen kann, handelt es sich dabei eher um ein loses Bündel von Servern ohne kohärente Skalierung über alle GPUs hinweg. Nvidia bietet dagegen mit dem GB200 NVL72 und verwandten Produkten echte Rack-Scale-Architekturen, bei denen zwischen bis zu 72 GPUs schnelle Kommunikation mit Bandbreiten bis zu 900 Gigabyte pro Sekunde möglich ist. Diese Bandbreiten sind für die Verarbeitung großer KI-Modelle und deren komplexe Parallelisierung entscheidend.
AMD hat zudem eine eigene Version des sogenannten UALink-Protokolls über Ethernet adaptiert, das jedoch nicht das echte NVLink-Äquivalent von NVIDIA ist. Vielmehr handelt es sich um ein Marketing-Neubenennung des bereits etablierten Infinity Fabric Over Ethernet (IFoE), was in der Praxis dennoch eine praxisnahe Netzwerkflexibilität bietet, jedoch mit gewissen technischen Einschränkungen. Die Verwendung von Broadcom Tomahawk 6 Ethernet-Switches für die Vermaschung zeigt dabei auch AMDs pragmatische Hardware-Strategie in der Gegenwart, um bis 2026 wettbewerbsfähige Rack-Lösungen bereitstellen zu können. Der MI400, welcher mit UALoE72 konzipiert ist, wird als echte Rack-Scale-Lösung gefeiert, die in Konkurrenz zu NVIDIAs VR200 NVL144 treten kann, jedoch frühestens im zweiten Halbjahr 2026 in relevanter Marktbreite erwartet wird. Mit der bevorstehenden MI500 UAL256 plant AMD wiederum eine deutliche Erweiterung auf 256 logische GPU-Chips, welche die Skalierbarkeit auf neue Höhen bringen soll.
Die Herausforderung bleibt, diese Leistungsschübe mit Robustheit und Software-Support zu flankieren, der noch verbessert werden muss. Im Bereich der Softwareplattform investiert AMD zudem stark in die Verbesserung des ROCm-Stacks, der Grundlage aller AMD-basierten HPC- und KI-Anwendungen. Die jüngste Version ROCm 7 bringt erhebliche Fortschritte in der Inferenzleistung und bietet eine Integration von Open-Source-Frameworks. Die Unterstützung von PyTorch ist dabei zentral, und AMD hat begonnen, eine stetige automatische Integration (Continuous Integration, CI) von GPU-spezifischen Anpassungen umzusetzen. Dies steht im direkten Wettbewerb zu NVIDIA, die ebenfalls erst verzögert Open-Source-CI-Maßnahmen für ihre neuesten GPUs implementieren.
Der kontinuierliche Ausbau der Softwarekompatibilität ist essenziell, um Entwickler anzuziehen, die von der Hardware maximal profitieren wollen. Neben der reinen Hardware- und Softwareentwicklung hat AMD mit der Integration eigener Highspeed-Netzwerkadapter und der Entwicklung eines Entwickler-Cloud-Angebots reagiert, um den Zugang zu AMD-GPUs gerade in der Neocloud- und Hyperscaler-Szene zu erleichtern. Der Markt für GPU-Mietservices ist bislang von NVIDIA dominiert, und AMD baut durch Mietprogramme und langfristige Zusammenarbeit mit Cloud-Providern ein Ökosystem auf, um hier besser Fuß zu fassen. Dies soll zum einen Engpässe abbauen und zum anderen helfen, GPU-Mietpreise wettbewerbsfähig zu gestalten, wodurch Endanwender von besserem Preis-Leistungs-Verhältnis profitieren. Während AMD bei der Unterstützung großer KI-Trainingsmodelle und dem Hochskalieren auf mehrere GPUs hinter NVIDIA zurückbleibt, punktet das Unternehmen bei kleineren bis mittleren Modellen und hat damit eine Nische gefunden.
Große Forschungszentren und Hyperscaler wie AWS, Meta und OpenAI haben ihre Erkentnisse und teilweise erste Investitionen in AMD-GPUs bekannt gegeben. Oracle plant sogar, seine Kapazitäten massiv mit den MI355X GPUs auszubauen. Allerdings bleiben einige wichtige Marktteilnehmer wie Microsoft vorerst zurückhaltend. Ein kritischer Aspekt bleibt die Ingenieurskultur und Vergütung bei AMD. Dort werden AI-Ingenieure traditionell unter Marktniveau bezahlt, was AMD vor Herausforderungen stellt, Top-Talente langfristig zu binden.
AMDs Management hat sich der Problematik angenommen, und es laufen Bemühungen, die Gehaltsstrukturen wettbewerbsfähiger zu machen und so den Innovationsdruck mit der nötigen Expertise nachhaltig zu unterstützen. Ein weiterer Punkt ist die Architektur der Chips selbst. AMD hat das Chiplet-Design des MI300 überarbeitet, um die Kommunikation zwischen einzelnen Chiplets effizienter zu gestalten. Als Basis dient weiterhin TSMCs SoIC-Hybrid-Bonding-Prozess, der hochdichte Integration ermöglicht. Mit der Umstellung von N5 auf den neueren N3P-Fertigungsprozess verspricht AMD zudem eine höhere Transistordichte und bessere Energieeffizienz.
Allerdings sind der komplexe Aufbau und die Produktionsausbeute technische Herausforderungen, an denen AMD intensiv arbeitet. AMD weist mit der CDNA4-Architektur eine klare Verschiebung von klassischen HPC-Workloads hin zu KI-lastigen Anwendungen auf. Die Reduktion der Compute Units zugunsten größerer lokaler Speicherblöcke pro Compute Unit und einer verdoppelten Matrixkerndurchsatzrate zeigen diesen Fokus deutlich. Dennoch fehlen gegenüber NVIDIA einige moderne Features wie asynchrone Ausführung und spezialisierte Datenübertragungsbeschleuniger, die bei künftigen Generationen nachgerüstet werden müssen, um im Rennen um beste Effizienz bestehen zu können. Die nächsten Jahre werden für AMD entscheidend sein, um die technologischen Grundlagen weiter auszubauen und sowohl Hard- als auch Software-Ökosysteme so zu stärken, dass sie die vielseitigen Anforderungen von KI-Forschung, kommerziellen Anwendungen und Mietlösungen bedienen können.
Die steigenden Investitionen in Neoclouds und Entwicklerangebote, gepaart mit verbesserten Hardwarelösungen auf Basis des MI400 und MI500, zeigen den klaren Willen, Marktanteile zu gewinnen. Letztlich steht AMD vor der Herausforderung, die Balance zwischen Leistung, Skalierbarkeit, Preis und Softwareunterstützung zu finden, um nicht nur für kleine und mittlere KI-Anwendungen attraktiv zu bleiben, sondern auch für großskalige KI-Infrastrukturen eine echte Alternative zu bieten. Die Innovationen rund um MI350X, MI400 UALoE72 und MI500 UAL256 signalisieren, dass AMD auf einem guten Weg ist, sich in der KI-Landschaft nachhaltig zu positionieren.