Steuern und Kryptowährungen

Die bittere Lektion der Künstlichen Intelligenz: Warum Computer besser als menschliches Wissen lernen

Steuern und Kryptowährungen
The Bitter Lesson (2019)

Die Entwicklung der Künstlichen Intelligenz zeigt seit Jahrzehnten, dass der nachhaltige Fortschritt vor allem durch die Nutzung von Rechenleistung gelingt. Die bittere Lektion beleuchtet, warum das Vertrauen auf generelle Methoden wie Suche und Lernen langfristig erfolgreicher ist als die Einbindung menschlicher Voreinstellungen und Erkenntnisse.

Die Geschichte der Künstlichen Intelligenz ist geprägt von einem wiederkehrenden Muster, das als die „bittere Lektion“ bekannt ist. Diese Erkenntnis, festgehalten von Rich Sutton im Jahr 2019, hält fest, dass trotz zahlreicher Fortschritte, die mit menschlichem Wissen erzielt wurden, es am Ende stets die rein auf Rechenleistung basierenden, allgemeinen Methoden sind, die den größten Erfolg bringen. Dies ist vor allem auf das kontinuierliche exponentielle Wachstum der Rechenkapazität zurückzuführen, das sogenannte Moore’sche Gesetz und seine heutige Erweiterung, welche die immer günstigere Verfügbarkeit von Rechenressourcen beschreibt. Der Wandel hin zur dominierenden Nutzung von Suche und Lernen als zentrale Methoden für maschinelle Intelligenz ist nicht nur technisch, sondern auch psychologisch eine Herausforderung für viele Forscher gewesen und wird deshalb als bitter empfunden. Doch gerade das macht die Lektion so wertvoll für die Zukunft der KI-Forschung.

In den Anfangsjahren von KI-Forschungen war die gängige Annahme, dass das Einbringen menschlichen Expertenwissens der Schlüssel zum Erfolg ist. Forscher versuchten, hochspezifisches Wissen über bestimmte Domänen in ihre Systeme zu kodieren, um die Lösungen effizienter und intelligenter erscheinen zu lassen. Diese Herangehensweise hatte durchaus Erfolg auf kurzen Zeitskalen, denn die menschlichen Einsichten halfen dabei, Leistungsschübe zu erzielen. Allerdings erwiesen sich diese spezialisierten, wissensbasierten Systeme langfristig als Hemmnis, wenn es galt, mit der wachsenden Rechenleistung Schritt zu halten. Denn jede fest programmierte Regel oder Annahme begrenzte die Flexibilität des Systems.

Die komplementären Ansätze aus Lernen und Suche, die mit steigender Rechenleistung bessere Resultate liefern konnten, wurden dadurch oft blockiert. Ein eindrückliches Beispiel liefert die Entwicklung im Bereich des Computer-Schachs. Während viele Forscher sich darauf konzentrierten, das menschliche Denken und die Strategien der Großmeister in Algorithmen abzubilden, gelang es einem rein auf Suche basierenden System, Deep Blue, im Jahr 1997 den damaligen Weltmeister Kasparov zu schlagen. Die Methode war vergleichsweise simpel: sie setzte auf eine massive Vergrößerung der Rechenkapazität und der Fähigkeit, Millionen von möglichen Spielzügen tiefgreifend zu analysieren. Obwohl dieser Erfolg auf deutliche Art und Weise zeigte, wie mächtig reine Rechenressourcen in Verbindung mit Suchalgorithmen sein können, stießen die Verfechter der menschlich inspirierten Modelle zunächst auf taube Ohren.

Sie wollten nicht an die Überlegenheit eines scheinbar „schweren“ Brute-Force-Ansatzes glauben, der nicht den menschlichen Geist und dessen Intuition widerspiegelte. Diese Haltung verdeutlicht die emotionale Komponente der bitteren Lektion, die neben technischen Aspekten oft eine Rolle spielt. Die Geschichte wiederholte sich später im Bereich des Go-Spiels, das durch seine immense Komplexität eine noch größere Herausforderung darstellte. Jahrzehntelang konzentrierten sich Forscher darauf, das in Go weit verbreitete menschliche Wissen und strategische Muster umzusetzen. Erst der Übergang zu selbstlernenden Systemen, die durch selbstständiges Spiel und Milliarden von Rechenschritten ihr Wissen vermehrten, katapultierte Computerprogramme wie AlphaGo an die Spitze.

Diese Systeme nutzten Suchstrategien kombiniert mit tiefem Lernen, wodurch sie Muster erkannten und Entscheidungen trafen, die über das menschliche Verständnis hinausgingen. Die Lektion war erneut bitter, denn die ursprünglich hoch geschätzten menschlichen Einsichten erwiesen sich als nicht zukunftsträchtig in der Ära der Rechenkapazitätssteigerungen. Im Bereich der Sprach- und Spracherkennung lässt sich dieselbe Entwicklung nachvollziehen. In den 1970er Jahren waren Systeme weitgehend auf menschliches linguistisches Wissen angewiesen, das in Form von Regeln über Wörter, Phoneme oder die Funktionsweise des menschlichen Vokaltrakts modelliert wurde. Diese Systeme waren in ihrer Leistungsfähigkeit begrenzt.

Gegen Ende der 20. Jahrhunderts gewannen statistische Verfahren wie die Hidden-Markov-Modelle an Bedeutung, welche durch intensivere Berechnung statische Wahrscheinlichkeiten nutzen konnten, um Sprache besser zu erkennen. Dieser Paradigmenwechsel führte über mehrere Jahrzehnte dazu, dass statistische und computationelle Ansätze dominanter wurden. Heute sind es überwiegend neuronale Netze des Deep Learnings, welche durch riesige Datenmengen und Rechenkapazität Sprachverständnis deutlich verbessern, ohne dabei direkt menschliches Wissen zu kodieren. Statt explizitem Expertenwissen setzen diese Systeme auf allgemeine Lernverfahren, die durch Erfahrung und Statistik ihre eigene Repräsentation von Sprache erzeugen.

Ein ähnlicher Wandel vollzog sich im Computersehen, der Computer Vision. Frühe Ansätze versuchten, explizite Merkmale wie Kanten, geometrische Strukturen oder standardisierte Bildmerkmale (SIFT-Features) zu erkennen, die den menschlichen Umgang mit visuellen Informationen widerspiegeln sollten. Diese Verfahren waren oft komplex und von Hand konstruiert, konnten aber nie mit der Flexibilität und Präzision moderner neuronaler Netze mithalten. Mit dem Aufkommen des Convolutional Neural Networks (CNN) und anderen tiefen Lernarchitekturen trat ein Wandel ein, bei dem nur noch sehr generelle architektonische Prinzipien verwendet werden, während die Mustererkennung komplett durch selbst angeeignete Repräsentationen stattfindet. Der Fokus auf Meta-Methoden ermöglicht es den Modellen, die schier unendliche Komplexität visueller Daten selbst zu erfassen, anstatt sie durch vorgegebene Regeln zu simplifizieren.

Die bittere Lektion birgt eine wertvolle Erkenntnis für die Zukunft der KI-Forschung und deren Anwendungen: Die Komplexität der realen Welt übersteigt oftmals die Kapazität, sie durch menschliche Konzepte oder fest programmierte Modelle zu erfassen. Stattdessen ist es entscheidend, Methoden zu entwickeln, die mit skalierender Rechenleistung lernen und suchen können, um sich die Welt aktiv zu erschließen, anstatt ihre Strukturen vorzugeben. Das bedeutet, den Fokus weg von direkt implementiertem Wissen hin zu verallgemeinerbaren Lernprozessen zu verlagern. Dieser Paradigmenwechsel erfordert auch ein neues Mindset unter Forschern und Entwicklern. Es ist verlockend, bekannte menschliche Denkweisen in Algorithmen einzubauen, um scheinbar schneller und zielgerichteter zu besseren Leistungen zu gelangen.

Doch diese Fixierung hat oft nur kurzfristigen Gewinn und langfristigen Stillstand zur Folge. Die bittere Lektion mahnt dazu, sich von dieser Komfortzone zu lösen und stattdessen auf die Skalierbarkeit und allgemeine Anwendbarkeit von Algorithmen zu setzen. So entstehen Systeme, die nicht nur in einem eng definierten Bereich wirken, sondern flexibel, selbstlernend und anpassungsfähig sind. Darüber hinaus zeigt die Lektion die grenzenlose Komplexität des menschlichen Verstandes und der Welt, die sich nicht leicht in einfache Modelle und Regeln fassen lässt. Die Welt besteht aus unzähligen Variablen, von Räumen, Objekten, Agenten bis hin zu symmetrischen und asymmetrischen Beziehungen.

Alle Versuche, diese mit simplen, vorgefertigten Konzepten abzubilden, sind zum Scheitern verurteilt, da immer mehr Ausnahmefälle und neue Herausforderungen auftauchen. Stattdessen muss eine Art Meta-Struktur entwickelt werden, die solche Komplexitäten flexibel erkennt und verarbeitet. Diese Struktur zeichnet sich durch Lern- und Suchmechanismen aus, die sich mit wachsender Rechenleistung zunehmend verfeinern. In praktischer Hinsicht bedeutet das, dass heutige und zukünftige KI-Systeme darauf ausgelegt sein sollten, ihren eigenen Entdeckungsprozess abzubilden. Sie sollen nicht bloß das Wissen enthalten, das Menschen bereits gesammelt haben, sondern vielmehr Werkzeuge besitzen, mit denen sie neues Wissen eigenständig erschließen können.

Dies erlaubt eine kontinuierliche Anpassung an unbekannte Situationen, während die Abhängigkeit von menschlicher Vorprogrammierung reduziert wird. Die bitteren Lektionen der Vergangenheit zeigen damit nicht nur, was in den letzten Jahrzehnten gut oder schlecht funktioniert hat, sondern liefern auch eine Blaupause für die Ausrichtung künftiger Forschung. Die langfristige Verbesserung von KI-Systemen wird weiterhin stark von der Ausnutzung der verfügbaren Rechenleistung abhängen, unterstützt durch allgemeine, skalierbare Methoden wie Suche und Lernen. Hierin liegt der wahre Fortschritt und das größte Potenzial für die weitere Entwicklung intelligenter Maschinen. Künstliche Intelligenz wird somit mehr und mehr zu einem Spiegelbild unserer Fähigkeit, Technologien so zu gestalten, dass sie sich selbst verbessern können, statt auf unsere begrenzten Vorstellungen festgelegt zu sein.

Die bittere Lektion fordert uns auf, uns von der Idee zu verabschieden, Intelligenz auf die Weise menschlichen Denkens abzubilden, und stattdessen offene, flexible Prozesse zu entwickeln, die selbstständig wachsen und lernen. Nur so können wir die Zukunft gestalten, in der Maschinen nicht nur Werkzeuge bleiben, sondern eigenständige, kreative Problemlöser werden.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
Steve Albini Proposal Letter to Nirvana for in Utero
Samstag, 05. Juli 2025. Steve Albini und Nirvana: Hinter den Kulissen von In Utero und dem legendären Produzentenangebot

Eine tiefgehende Untersuchung des Angebotsbriefes von Steve Albini an Nirvana zur Produktion ihres bahnbrechenden Albums In Utero und seine Bedeutung für die Musikindustrie und Fans weltweit.

A Brain-Dead Woman Is Being Kept on Machines to Gestate a Fetus
Samstag, 05. Juli 2025. Maschinelle Lebenserhaltung einer hirntoten Frau zur Austragung eines Fötus: Ethische, rechtliche und medizinische Herausforderungen

Die maschinelle Aufrechterhaltung des Lebens einer hirntoten schwangeren Frau wirft komplexe ethische, rechtliche und medizinische Fragen auf. Die aktuelle Debatte in den USA verdeutlicht die Spannungsfelder zwischen individuellen Rechten, gesetzlichen Rahmenbedingungen und medizinischer Verantwortung.

The Day You Became a Better Writer
Samstag, 05. Juli 2025. Der Tag, an dem du ein besserer Schriftsteller wurdest – Mit einfachen Techniken zum Erfolg

Entdecke die wichtigsten Prinzipien des klaren und überzeugenden Schreibens, die deinen Schreibstil sofort verbessern und dich zum besseren Autoren machen. Lerne warum Einfachheit der Schlüssel ist und wie du mit präzisen Worten deine Leser fesselst.

Nearly Half of the Buildings in Manhattan Could Not Be Built Today (2016)
Samstag, 05. Juli 2025. Fast die Hälfte der Gebäude in Manhattan könnte heute nicht mehr gebaut werden – Ein Blick auf die komplexen Auswirkungen der New Yorker Bauvorschriften

Die Bauvorschriften Manhattans sind über ein Jahrhundert alt und haben die Entwicklung der Stadt maßgeblich geprägt. Dabei ist fast die Hälfte der bestehenden Gebäude heute nicht mehr nach aktuellen Regeln genehmigungsfähig.

1 Top Cryptocurrency to Buy Before It Soars 2,700%, According to Cathie Wood
Samstag, 05. Juli 2025. Die Kryptowährung mit dem höchsten Wachstumspotenzial: Cathie Woods Prognose für Bitcoin bis 2030

Cathie Wood, eine der bekanntesten Investorinnen der Welt, setzt große Hoffnungen auf Bitcoin als digitale Wertanlage. Ihre Prognosen zeigen ein enormes langfristiges Wachstumspotenzial, das Krypto-Investoren nicht ignorieren dürfen.

Mprocs – run multiple commands in parallel
Samstag, 05. Juli 2025. Effizientes Arbeiten mit Mprocs: Mehrere Befehle Parallel Ausführen und Steuern

Entdecken Sie, wie Mprocs als leistungsfähiges Tool Entwicklern dabei hilft, mehrere Befehle parallel auszuführen und deren Ausgaben effizient zu steuern, um den Entwicklungsprozess zu optimieren und die Produktivität zu steigern.

GenAI's Adoption Puzzle
Samstag, 05. Juli 2025. Das Rätsel der GenAI-Adoption: Warum nutzen nicht alle Künstliche Intelligenz täglich?

Die Einführung generativer KI-Technologien verändert die digitale Landschaft grundlegend. Trotz beeindruckender Nutzerzahlen stellt sich die Frage, warum nur wenige Menschen diese Innovation täglich nutzen und welche Faktoren das Nutzerverhalten beeinflussen.