OpenAI gehört zu den einflussreichsten Unternehmen im Bereich der Künstlichen Intelligenz (KI) und hat die AI-Landschaft in den letzten Jahren maßgeblich geprägt. Doch hinter dem Erfolg verbirgt sich eine komplexe Geschichte, die offenlegt, wie schwer es für ein Unternehmen ist, sich dauerhaft den Zwängen des Kapitalismus zu entziehen – insbesondere wenn es als Non-Profit gegründet wurde. Der ursprüngliche Anspruch von OpenAI lautete, eine Superintelligenz zu schaffen, die sicher, transparent und dem Wohle aller Menschen dient. Dieses Ziel spiegelte sich maßgeblich in der Entscheidung wider, OpenAI als gemeinnützige Organisation zu gründen. Man wollte verhindern, dass finanzielle Interessen die ethische und soziale Verantwortung überlagern könnten.
Doch je stärker die KI-Technologie wuchs und immer mehr Kapital benötigt wurde, desto schwerer fiel es, diese ursprünglichen Idealvorstellungen einzuhalten. Die Gründung von OpenAI im Jahr 2015 erfolgte mit einem klaren Ziel: Die Entwicklung Künstlicher Allgemeiner Intelligenz (AGI), also einer KI, die menschliche Intelligenz in ihrer ganzen Bandbreite erreicht oder übertrifft, und dies auf eine Art und Weise, die Sicherheit und Transparenz an erste Stelle setzt. Die Gründer wie Sam Altman, Greg Brockman und Ilya Sutskever wollten damit eine Alternative schaffen zu anderen Branchenakteuren, die vorrangig profitgetrieben agierten. Eine Non-Profit-Struktur sollte sicherstellen, dass finanzielle Renditen nicht über ethische Prinzipien siegen. Diese Struktur ermöglichte es, Geld anzunehmen, ohne dabei Investorenerwartungen bedienen zu müssen, was bei kapitalistischen Unternehmen gesetzlich verankert ist.
Doch das Wachstum von OpenAI brachte pragmatische Herausforderungen mit sich. Künstliche Intelligenz, besonders auf Spitzenniveau, ist ein kapitalintensives Feld. Die Durchführung großer Trainingsprozesse benötigt immense Rechenressourcen – sprich: teure Hardware, Strom und technologische Infrastruktur. Ein Non-Profit wie OpenAI benötigte eine solche Finanzierung, die möglicherweise nur von Investoren zu bekommen war, die einen finanziellen Rückfluss erwarteten. Das brachte die Organisation vor eine Zerreißprobe zwischen Mission und Kapitalbedarf.
2019 wurde deshalb eine hybride Struktur ins Leben gerufen: die Gründung einer „capped-profit“ Tochterfirma. Diese Mischform ermöglichte es Kapital einzusammeln mit dem Versprechen, dass Investoren zwar Gewinne erzielen, diese aber begrenzt sind. Grundsätzlich sollte die gemeinnützige Muttergesellschaft die Kontrolle behalten und somit die Mission sichern. Microsoft stieg als bedeutender Investor ein und unterstützte OpenAI mit Milliardeninvestitionen. Dies war ein bedeutender Schritt, um mit Größen wie Google und DeepMind konkurrieren zu können.
Allerdings war diese Struktur weder in der Wirtschaft noch im juristischen Sinne unkompliziert. Konkret bedeutete das, dass OpenAI zwar theoretisch unter der Kontrolle der Non-Profit blieb, praktisch die Gewinnorientierung und die Kapitalgewinne jedoch immer mehr an Bedeutung gewannen. Die Spannungen innerhalb des Unternehmens wurden durch diese widersprüchlichen Interessen sichtbar. Im Jahr 2023 kam es zu einer öffentlichen Krise, als der Non-Profit-Beirat Sam Altman als CEO entließ. Die Gründe lagen in divergierenden Vorstellungen zwischen den Sicherheitsinteressen der Non-Profit-Verantwortlichen und der Geschäftsorientierung der Führungsebene.
Die Nachricht sorgte weltweit für Schlagzeilen und zeigte, wie schwer es ist, zwischen bahnbrechender Technologieentwicklung und ethischer Kontrolle einen Kompromiss zu finden. Im Nachgang wurde zudem deutlich, dass Sam Altman und seine Führungskräfte einen Wandel beschleunigten, der die ursprüngliche Reinheit der Non-Profit-Struktur weiter aushebelte. So wurde 2024 offiziell angekündigt, die Non-Profit-Struktur zugunsten einer Public Benefit Corporation (PBC) aufzugeben – ein Kapitalunternehmen, das soziale Ziele verfolgt, aber dennoch rein wirtschaftliche Interessen wahrt. Dies geschah im Austausch gegen weitere Investitionsmittel, unter anderem durch SoftBank, die den Wandel zu einer gewinnorientierten Firma forderten. Der juristische Streit um diese Umwandlung ist ein weiteres Kapitel, das die Schattenseiten dieser Entwicklung verdeutlicht.
Elon Musk, der zwar einst einer der Gründer war, meldete sich später als kritischer Beobachter und sogar Kläger zu Wort. Er sah den Wandel von OpenAI als Verrat an der ursprünglichen Mission und versuchte, per Gerichtsbeschluss die Umwandlung zu stoppen. Musk argumentierte, dass OpenAI durch diesen Schritt mit Wettbewerbsinformationen gegenüber eigenen KI-Projekten unzulässige Vorteile erlange. Diese Auseinandersetzung illustriert nicht nur persönliche Rivalitäten, sondern vor allem den fundamentalen Konflikt zwischen idealistischen Zielen und den wirtschaftlichen Realitäten im Sektor. OpenAI selbst verteidigt seine Position, betont aber eine Weiterführung der ursprünglichen Mission mit einem moderneren Unternehmensmodell.
Die Umwandlung in eine Public Benefit Corporation soll es dem Unternehmen ermöglichen, in einem Umfeld mit mehreren starken internationalen Konkurrenten bestehen zu können, ohne dabei vollständig auf soziale Verantwortlichkeit zu verzichten. Offiziell bleibt die gemeinnützige Muttergesellschaft weiterhin als Kontrollorgan bestehen, wenn auch mit reduziertem Einfluss in der Praxis. Kritiker sehen dies allerdings als kosmetische Maßnahme an, da die Macht im operativen Geschäft klar bei den profitgetriebenen Akteuren liegt. Ausblickend zeigt die Entwicklung von OpenAI exemplarisch die Probleme, die entstehen, wenn technologische Innovationen auf kapitalistische Rahmenbedingungen treffen. Der Wunsch, KI sicher, kontrolliert und zugunsten der ganzen Menschheit zu entwickeln, kollidiert mit den Anforderungen nach Rekapitalisierung, Wachstum und Wettbewerbsfähigkeit.
Die anfänglichen Schutzmechanismen in der Unternehmensstruktur erweisen sich als unzureichend, wenn es darum geht, den Einfluss finanzstarker Investoren zu begrenzen. Für die Branche insgesamt stellt sich daher eine bedeutende Herausforderung: Wie können Firmen, die an vorderster Front der KI-Forschung stehen, verantwortungsvoll agieren, ohne den finanziellen Druck zu ignorieren? Die OpenAI-Geschichte zeigt, dass einfache Lösungen, wie Non-Profit-Modelle, keinen dauerhaften Schutz bieten. Vielmehr bedarf es vermutlich einer neuen Form der Regulierung, die transparent, unabhängig und wirksam durchsetzbar ist – und die darüber hinaus Anreize schafft, verantwortungsbewusst zu handeln. Die Verflechtung von Technologie, Kapital und Ethik wird für die KI einer der zentralen Diskussionspunkte sein. OpenAI steht dabei im Fokus, nicht nur wegen seiner technologischen Erfolge, sondern auch wegen seiner Rolle als Symbol einer gescheiterten oder gerade erst erkämpften Balance.