OpenAI, der milliardenschwere Entwickler von ChatGPT, sorgte Anfang Mai 2025 für Aufsehen, als es seine lang geplante Umstrukturierung plötzlich zurückzog. Der Schritt kam unerwartet, denn das Unternehmen hatte über mehr als ein Jahr hinweg eine umfassende Neuordnung seiner Organisationsstruktur vorbereitet und immer wieder in der Öffentlichkeit diskutiert. Ziel war es, den Profitzweig von der non-profit Muttergesellschaft loszulösen und so den Zielkonflikt zwischen gemeinnützigem Auftrag und kommerziellen Interessen zu entschärfen. Doch mit der abrupten Kehrtwende scheint OpenAI zwar einen Konflikt gelöst, aber möglicherweise einen neuen geschaffen zu haben. Anstatt die Probleme grundlegend auszuräumen, verschiebt das Unternehmen die ungelösten Fragen nur auf später – eine Situation, die Kritiker als „neue Gefahrenquelle“ einstufen.
Die ursprüngliche Idee der geplanten Umstrukturierung von OpenAI sah vor, die gewinnorientierte Tochtergesellschaft von der gemeinnützigen Muttergesellschaft zu trennen. OpenAI möchte sicherstellen, dass die Entwicklung von Künstlicher Intelligenz der Menschheit insgesamt nützt und nicht allein nach wirtschaftlichen Gesichtspunkten ausgerichtet wird. Doch die finanziellen Anforderungen für die ehrgeizigen KI-Projekte sind gigantisch: Bis zur Realisierung der sogenannten Allgemeinen Künstlichen Intelligenz (AGI), die menschenähnliche Intelligenz erlangen soll, sprechen Geschäftsführer Sam Altman von Kosten in Billionenhöhe. Kapitalgeber erwarten im Gegenzug Renditen und Kontrolle, was den Einfluss der gemeinnützigen Seite schwächen könnte – genau dieser Spannungsbogen führte zur anfänglichen Entscheidung, die Unternehmensstruktur zu trennen. Die Reaktion von Regulierungsbehörden, Konkurrenzfirmen sowie KI-Sicherheitsexperten war jedoch kritisch und zum Teil heftig.
Besonders umstritten war die geplante Abkapselung der gewinnorientierten Einheit vom Non-Profit. Elon Musk etwa, ein früherer Mitbegründer und Kritiker von OpenAI, reagierte mit einer Klage gegen die Umstrukturierung. Die negative öffentliche Resonanz und die juristischen Herausforderungen haben das Unternehmen offensichtlich zu einem Rückzieher bewegt. Am 5. Mai 2025 kündigte OpenAI an, von der Idee der vollständigen Trennung abzugehen.
Stattdessen wird die gewinnorientierte Einheit künftig als Public Benefit Corporation geführt und bleibt unter der Kontrolle der Non-Profit-Mutter. Auf den ersten Blick klingt das wie ein Kompromiss: OpenAI versucht, kommerzielle Investitionen zu ermöglichen, ohne die gemeinnützige Mission zu gefährden. Doch Experten bemängeln, dass die neue Struktur die Probleme eher verschiebt statt wirklich löst. Die Frage, wie viel Einfluss die Non-Profit-Mutter tatsächlich auf die operativen Entscheidungen der Public Benefit Corporation hat, bleibt unklar. OpenAI kündigte zwar ein Gremium philanthropischer Berater an, deren tatsächliche Befugnisse sind jedoch ungewiss.
Vergleichbar wird die Situation mit den inszenierten Kontrollgremien großer Tech-Konzerne wie Meta, deren sogenannte „Oversight Boards“ in der Vergangenheit kaum echte Macht ausübten. Darüber hinaus bestehen Bedenken hinsichtlich der zukünftigen Kapitalisierung des Unternehmens. Um die Entwicklung von AGI zu finanzieren, sind sehr hohe Investitionen notwendig. Altman bestätigte auf der Pressekonferenz eine noch laufende Finanzierungsrunde mit SoftBank im Wert von 40 Milliarden Dollar, die ursprünglich an eine Änderung zur vollständigen Gewinnorientierung geknüpft war. Doch weitere Investoren werden von der neuen hybriden Struktur wahrscheinlich kritisch beäugen, wie sie sich langfristig auf Eigentumsrechte und Kontrolle auswirkt.
Ein wichtiger Punkt ist die Frage, ob die Non-Profit-Einheit mit sogenannten Supervoting-Aktien ausgestattet ist, die ihr eine überlegene Stimmrechtskontrolle sichern. Andernfalls besteht die Gefahr, dass mit zunehmenden Finanzierungsrunden die gemeinnützige Kontrollinstanz verwässert wird und letztlich die kommerziellen Interessen dominieren. Diese Unklarheit nährt Sorgen über den langfristigen Erhalt der ursprünglichen Mission. In der Kernfrage zeigt sich ein tieferer struktureller Konflikt in der OpenAI-Geschichte: Es geht um das Spannungsfeld zwischen moralischer Verpflichtung zur Menschheit und wirtschaftlicher Notwendigkeit. KI-Entwicklung gehört zu den kostspieligsten Unternehmungen der heutigen Zeit, aber künftige Durchbrüche können potenziell gewaltigen gesellschaftlichen Nutzen stiften – oder enorme Risiken erzeugen.
Dieses Zwiespalt gehört zu den größten Herausforderungen bei der Governance von KI-Firmen. OpenAI versucht beim Spagat zwischen Innovation und Verantwortung eine Vorreiterrolle einzunehmen, doch mit der jüngsten Entscheidung ist klar, dass diese Balance äußerst fragil bleibt. Aus regulatorischer Perspektive wird weiterhin großes Augenmerk darauf liegen, wie OpenAI seine Kontroll- und Governance-Strukturen ausgestaltet. Das kalifornische und das delawareische Justizministerium, die ebenfalls in die Entscheidung eingebunden waren, spielen eine wichtige Rolle für den rechtlichen Rahmen der Organisation. Ihre abschließende Zustimmung wird für zukünftige Finanzierungsschritte und Expansion von OpenAI entscheidend sein.
Zugleich sind Vertreter der Öffentlichkeit, Wissenschaft und Politik gefordert, die Entwicklung kritisch zu begleiten, um sicherzustellen, dass technologische Macht nicht einseitig kapitalgesteuerten Interessen unterliegt. Im weiteren Verlauf könnte die Situation eskalieren, wenn OpenAI tiefere Finanzierungsquellen erschließt, bei denen Kontrollrechte mehr Gewicht haben. Damit bestünde die Gefahr, dass die Non-Profit-Mutter auf dem Papier zwar oberste Instanz bleibt, aber in der Praxis kaum Einfluss auf strategische Entscheidungen hat. Die Konsequenzen wären einerseits eine zunehmende Kommerzialisierung der KI-Produkte, andererseits eine Schwächung von Sicherheitsvorkehrungen im Umgang mit potenziell disruptiven Technologien. Für Kunden und Nutzer von OpenAI-Diensten wie ChatGPT ist die Entwicklung ebenfalls von Bedeutung.
Kommerzielle Interessen könnten etwa zu einer Verschärfung von Monetarisierungsmodellen führen, etwa durch kostenpflichtige Premiumangebote oder die verstärkte Nutzung von Nutzerdaten für Werbezwecke. Gleichzeitig steigen die Erwartungen in der Öffentlichkeit, dass KI-Systeme verantwortungsvoll, transparent und nachvollziehbar arbeiten. OpenAI steht daher unter enormem Druck, sowohl wirtschaftlich erfolgreich zu sein als auch ethische Standards hochzuhalten. Das Beispiel OpenAI zeigt damit exemplarisch die Herausforderungen moderner KI-Unternehmen, die nicht allein im technologischen Fortschritt liegen, sondern ebenso in der richtigen Gestaltung von Unternehmensstrukturen und Governance. Die am 5.
Mai verkündete Abkehr von der geplanten Trennung kann als Schritt zurück interpretiert werden, der Zeit kaufen soll, um komplexe Fragen der Verantwortung und Kontrolle besser zu regeln. Gleichzeitig verbleibt das Risiko, dass ungelöste Interessenkonflikte längerfristig zu Problemen führen – vor allem wenn Finanzierungszwänge und Profitdruck zunehmen. Kritiker mahnen deshalb an, dass nachhaltige Lösungen nur mit klaren und transparenten Kontrollmechanismen möglich sind. Dazu zählen feste Stimmrechtsanteile, transparente Berichtspflichten sowie unabhängige Kontrollorgane mit echten Entscheidungsbefugnissen. Nur so lässt sich sicherstellen, dass OpenAI seiner ambitionierten Mission gerecht bleibt und die Entwicklung der KI zum Wohl der gesamten Menschheit erfolgt.
In Zeiten rasanter technologischer Veränderungen sind solche Fragen wichtiger denn je. Die jüngste Umstrukturierung von OpenAI ist daher ein milder Hinweis darauf, wie schwierig dieser Weg ist – und wie viel Weitblick und Sorgfalt noch erforderlich sein werden, um die Balance von Profit und Gemeinwohl nachhaltig zu sichern.