Im hektischen und schnelllebigen Bereich der Künstlichen Intelligenz hat sich kürzlich ein bemerkenswertes Ereignis zugetragen, das nicht nur die Entwicklungen in der Chip-Branche, sondern auch die internationalen Handelsregelungen und deren Auswirkungen auf die Technologieunternehmen beleuchtet. Andrew Feldman, CEO von Cerebras Systems, hat sich in einer überraschenden Wendung mit Nvidia, einem der weltweit führenden Hersteller von Grafikprozessoren, hinter die Kulissen einer gemeinsamen Position hinsichtlich der US-Handelspolitik gestellt. Die beiden Kontrahenten im Halbleitermarkt, die sich sonst oft als Rivalen betrachten, teilen nun die Ansicht, dass die vom US-Handelsministerium eingeführten sogenannten AI Diffusion Rules nicht zielführend sind und eher mehr Schaden als Nutzen anrichten könnten. Die Regelungen, die unter der vorherigen Administration in den letzten Tagen von Joe Bidens erster Amtszeit beschlossen wurden, sollen den Export von amerikanischen GPUs und KI-Beschleunigern außerhalb der USA und einiger verbündeter Länder streng regulieren. Das Ziel dabei ist es, den Zugang zu Hochleistungs-KI-Hardware vor allem für Länder wie China zu erschweren und so mögliche sicherheitspolitische Risiken zu minimieren.
Diese restriktiven Exportbeschränkungen sollen verhindern, dass solche leistungsfähigen Chips über Drittstaaten in Länder gelangen, die offiziell durch Sanktionen und Handelsbeschränkungen belegt sind. Doch obwohl der Ansatz aus sicherheitspolitischer Sicht nachvollziehbar scheint, haben sich viele Unternehmen aus dem Halbleiter- und Technologieumfeld gegen die Diffusionsregel ausgesprochen. Besonders langfristige Planungssicherheit und der Zugang zu globalen Märkten werden durch derartige strikte Vorgaben erschwert. Feldman wies darauf hin, dass es äußerst selten sei, dass Unternehmen wie Nvidia, Oracle, Google, Amazon, Microsoft und eben auch Cerebras auf einen gemeinsamen Nenner kämen. Die Tatsache, dass alle großen Player der Branche übereinstimmend die eigens erlassenen Regeln als „schlechte Politik“ kritisieren, spricht Bände über die Tragweite der Thematik.
Im Kern fordern sie eine maßvollere, besser durchdachte Regelung, die es ermöglicht, US-Technologieexporte in verbündete Staaten zu ermöglichen und gleichzeitig sicherzustellen, dass die Ausrüstung nicht in die falschen Hände gerät. Feldman betont, dass strikte Kontrollen und echte Sanktionen gegen Unternehmen, die wissentlich oder fahrlässig ihre Hardware in unerwünschten Märkten verkaufen, eine bessere Lösung darstellen würden als pauschale Verbote und Quotenregelungen. Dabei zeigt er auch Verständnis für die Herausforderungen der US-Regierung, eine Balance zwischen Schutz nationaler Interessen und der Förderung der globalen Wettbewerbsfähigkeit amerikanischer Unternehmen zu finden. Cerebras Systems selbst hat sich dank ihrer innovativen Chipherstellung mit sogenannten „dinner-plate-sized“ Chips in der KI-Branche einen Namen gemacht. Diese extrem großen Wafer-SCALE-Accelerators bieten enorme Leistungsfähigkeit im Bereich der KI-Inferenz, sprich der schnellen Verarbeitung von KI-Anwendungen, weswegen sie von fortschrittlichen Unternehmen wie Meta, IBM und anderen geschätzt werden.
Trotz der taktisch klugen Produktion bei Auftragsfertigern wie TSMC, die keine Komponenten aus China verwenden, bleibt das Unternehmen von den Unsicherheiten und Mehrkosten einer möglichst diversifizierten weltweiten Lieferkette nicht unberührt. Feldman verdeutlicht, wie wichtig es für erfolgreiche Produktionsprozesse ist, Vorlaufzeiten und stabile Kostenstrukturen zu haben, damit die Chips zu wettbewerbsfähigen Preisen angeboten werden können. Denn die hochwertige Technologie von Cerebras ist im Vergleich zu herkömmlichen GPU-basierten Lösungen zwar schneller, aber auch teurer. Diese Preisgestaltung, insbesondere bei der Abwicklung großer Transformermodelle, birgt Risiken, wird aber durch die Vorteile in Geschwindigkeit und Effizienz ausgeglichen. Ein großer Meilenstein für das Unternehmen ist die strategische Zusammenarbeit mit IBM, die Cerebras Chips unter der Marke Watson-X AI Gateway als Teil der KI-Infrastruktur verwenden wird.
IBM baut somit sein Portfolio an Cloud-basierten KI-Diensten aus und lässt dabei eine bedeutende Rolle den innovativen Wafer-SCALE-Beschleunigern von Cerebras zukommen. Die Partnerschaft ist nicht etwa eine großflächige Hardwareinstallation bei IBM-rechenzentren, sondern eine geschickte Integration, bei der IBM eine gemeinsame API-Schnittstelle sowie eine Abrechnungsplattform bereitstellt, während die eigentlichen KI-Inferenzaufgaben über Cerebras-eigene Rechenzentren abgewickelt werden. Parallel sichert sich Cerebras mit Meta einen weiteren prestigeträchtigen Kunden. Meta hat offiziell bestätigt, dass Teile ihres neuen Llama 4 Scout KI-Dienstes auf der Hardware von Cerebras laufen werden. Dieser Schritt erhöht nicht nur die Reichweite der Technologie, sondern diversifiziert auch die Kundenbasis, die bislang stark vom AI-Cloud-Anbieter G42 aus den Vereinigten Arabischen Emiraten abhängig war.
G42 machte 2024 fast 87 Prozent der Einnahmen von Cerebras aus. Da sich die AI Diffusion Rules weiterhin auf den Handel mit dem Nahen Osten auswirken, hat G42 unter anderem eine US-amerikanische Tochtergesellschaft gegründet, um mögliche Einschränkungen zu umgehen. Auf lange Sicht wirkt sich die Dynamik rund um die Exportkontrollen auf die gesamte KI-Infrastrukturszene aus und bringt zugleich Chancen und Herausforderungen. Die potenzielle Kürzung des Gesamtmarktes durch Exportquoten könnte das Wachstum hemmen und die globale Führungsrolle amerikanischer Technologieunternehmen gefährden. Andererseits drängen mit großen Investitionen und innovativen Lösungen wie denen von Cerebras neue Anbieter auch in Bereiche vor, die bislang von GPU-Architekturen dominiert wurden.