Die rasante Entwicklung von Künstlicher Intelligenz und insbesondere von Sprachmodellen hat die Welt der Technologie in den letzten Jahren massiv beeinflusst. Große Sprachmodelle (LLMs) wie die Llama-Serie oder Mistral haben neue Maßstäbe gesetzt, um natürliche Sprache zu verstehen und zu generieren. Doch trotz ihrer Leistungsfähigkeit bringen diese Modelle große Herausforderungen mit sich: Sie sind äußerst speicher- und rechenintensiv, was zu hohen Betriebskosten und begrenzter Anwendbarkeit führt. Hier setzt ein innovatives Unternehmen aus Spanien an, das mit seiner speziellen Kompressionstechnologie nicht nur Kosten senkt, sondern auch eine neue Richtung für die Anwendung von KI-Modellen aufzeigt. Multiverse Computing hat in einer jüngsten Finanzierungsrunde beeindruckende 189 Millionen Euro eingesammelt, um seine Kompressionstechnologie namens CompactifAI weiterzuentwickeln und zu vermarkten.
Das Besondere an CompactifAI ist seine Fähigkeit, Modelle um bis zu 95 Prozent zu komprimieren, ohne dabei Leistungseinbußen in Kauf nehmen zu müssen. Damit minimiert Multiverse Computing die typischen Anforderungen an Speicher und Rechenleistung für große Sprachmodelle drastisch. Diese Kompression basiert auf einem innovativen Ansatz, der aus der Quanteninformatik stammt – konkret auf sogenannte Tensornetzwerke. Dabei handelt es sich um eine effiziente mathematische Struktur, die komplexe Datenmengen auf neuartige Weise zusammenfasst und darstellt. Anders als echte Quantencomputer können diese Tensornetzwerke auf herkömmlichen Computern ausgeführt werden, bieten aber dennoch Vorteile, die zuvor nur mit Quantencomputern assoziiert wurden.
Diese Technologie macht aus herkömmlichen LLMs „schlanke“ Versionen, die weniger Energie verbrauchen und gleichzeitig schneller arbeiten. Laut Multiverse Computing sind ihre komprimierten Modelle bis zu zwölf Mal schneller als die unkomprimierten Originale. Daraus ergeben sich enorme Vorteile im Betrieb, da sowohl die Kosten für das sogenannte Inferenz-Computing als auch der ökologische Fußabdruck signifikant gesenkt werden. So reduziert sich beispielsweise der Preis für die Nutzung eines komprimierten Llama 4 Scout Modells von 14 Cent auf nur noch 10 Cent pro Million verarbeitete Tokens auf Amazon Web Services. Ein weiterer großer Vorteil der Technologie ist die enorme Flexibilität bei der Anwendungsumgebung.
Die komprimierten Modelle sind derart effizient, dass sie auf verschiedensten Geräten lauffähig sind – von leistungsfähigen Servern bis hin zu alltäglichen Endgeräten wie Smartphones, Autos oder sogar dem populären Raspberry Pi. Diese Miniaturisierung der Sprachmodelle eröffnet zahlreiche neue Möglichkeiten für den praktischen Einsatz von KI, etwa in der Industrieautomatisierung, in mobilen Anwendungen oder im Bereich der vernetzten Fahrzeuge. KI-Anwendungen, die bisher aufgrund von Hardwareanforderungen eingeschränkt waren, könnten so künftig breitflächig realisiert werden. Multiverse Computing wurde von Experten gegründet, die sowohl in der Forschung als auch in der Wirtschaft tief verwurzelt sind. Der CTO Román Orús ist Professor am Donostia International Physics Center und bekannt für seine Arbeit auf dem Gebiet der Tensornetzwerke.
Er bringt damit fundiertes wissenschaftliches Know-how in das Startup ein. Unterstützung erhält er vom CEO Enrique Lizaso Olmos, der seine Kompetenzen aus der Finanzwelt mitbringt, nachdem er eine Karriere im Bankwesen und als Professor hatte. Diese Kombination aus wissenschaftlicher Expertise und praktischem Wirtschaftssinn stellt eine solide Grundlage für das schnelle Wachstum und die erfolgreiche Kapitalbeschaffung des Unternehmens dar. Mit den aktuell gesammelten Finanzierungsmitteln von 189 Millionen Euro – was ungefähr 215 Millionen US-Dollar entspricht – unterstreicht der Markt das Zukunftspotential der CompactifAI-Technologie. Die Serie-B-Finanzierung wurde von Bullhound Capital angeführt, einem bekannten Investmentfonds, der bereits in erfolgreiche Tech-Unternehmen wie Spotify und Revolut investiert hat.
Auch weitere namhafte Player wie HP Tech Ventures, Forgepoint Capital und Santander Climate VC beteiligten sich an der Runde. Das deutet darauf hin, dass viele Investoren großes Vertrauen in die disruptive Kraft der Technologie und deren kommerzielle Perspektiven setzen. Das Portfolio von Multiverse Computing umfasst derzeit eine Reihe komprimierter LLMs, darunter Varianten der Llama 4 Scout, Llama 3.3 70B, Llama 3.1 8B und Mistral Small 3.
1. Das Unternehmen plant zudem, bald auch das Modell DeepSeek R1 in einer slim-Version anzubieten und arbeitet kontinuierlich an weiteren open source- und reasoning-Modellen. Besonders hervorzuheben ist, dass die Kompressionstechnologie ausschließlich auf öffentlich verfügbare Modelle angewendet wird, proprietäre Sprachmodelle von Marktführern wie OpenAI werden aktuell nicht unterstützt. Dies spiegelt die strategische Ausrichtung der Firma wider, sich auf den Open Source-Bereich zu fokussieren und in diesem Umfeld echte Mehrwerte zu schaffen. Die großflächige Akzeptanz der Technologie wird durch die mittlerweile schon 100 Kunden des Unternehmens verdeutlicht.
Zu den Kunden zählen große Namen wie Iberdrola, Bosch oder die Bank of Canada, die unterschiedliche Anwendungsfälle abdecken. Diese frühen Partnerschaften zeigen, dass CompactifAI bereits in der Praxis funktioniert und Mehrwerte erzielt – sei es in der Energiebranche, bei Industrie- und Automobilherstellern oder im Finanzsektor. Neben den rein technischen und wirtschaftlichen Vorteilen spielt auch das Thema Nachhaltigkeit eine wichtige Rolle. Die Reduktion von Rechenleistung führt unmittelbar zu einem geringeren Energiebedarf, was gerade im Kontext des steigenden globalen Energieverbrauchs von Rechenzentren für KI-Systeme von großer Bedeutung ist. Unternehmen wie Multiverse Computing tragen somit dazu bei, die ökologische Bilanz moderner KI-Systeme zu verbessern und nachhaltige Technologien im Bereich der künstlichen Intelligenz zu verbreiten.
In der Welt der Künstlichen Intelligenz durchläuft der Trend zur Komprimierung von Modellen eine entscheidende Phase. Die Grenzen bisheriger Hardware- und Kostenbarrieren werden durch Technologien wie CompactifAI neu definiert. Multiverse Computings Ansatz hebt sich von klassischen Methoden ab, indem er quanteninspirierte Techniken mit realen Anwendungen kombiniert und damit einen Schub für die praktische Nutzbarkeit großer Sprachmodelle bietet. Darüber hinaus dürfte die zunehmende Verfügbarkeit kleiner, effizienter LLMs auch die Innovationskraft in angrenzenden Feldern fördern. So können Entwickler und Unternehmen nun KI-Anwendungen in Bereiche bringen, die zuvor aufgrund der Ressourcenanforderungen unerreichbar schienen.
Beispielsweise kann durch die Ausführung von KI auf Edge-Geräten die Reaktionszeit verkürzt und Datenschutzrisiken durch weniger Cloud-Übertragung vermindert werden. Zusammenfassend lässt sich sagen, dass Multiverse Computing mit seiner CompactifAI-Technologie eine der spannendsten Entwicklungen im Bereich der KI-Kompression darstellt. Die Technologie verspricht eine signifikante Senkung der Betriebskosten und eine Erweiterung der Einsatzmöglichkeiten großer Sprachmodelle. Durch die Verbindung von Quantenforschung und praktischer Softwareentwicklung gelingt es dem Unternehmen, einen echten Innovationsvorsprung zu schaffen. Die finanzielle Unterstützung durch bedeutende Investoren und die wachsende Zahl von Kunden bestätigen den hohen Wert und das Zukunftspotential der Technologie.
Für Unternehmen, Forscher und Technikbegeisterte im KI-Bereich bietet CompactifAI eine vielversprechende Lösung, die den Wandel hin zu ressourcenschonenderen und vielseitigeren Sprachmodellen vorantreibt. Angesichts der steigenden Bedeutung von Künstlicher Intelligenz in nahezu allen Wirtschafts- und Gesellschaftsbereichen wird diese Technologie einen wichtigen Beitrag leisten, KI zugänglicher, bezahlbarer und nachhaltiger zu gestalten.