Die Faszination für künstliche Intelligenz und insbesondere für große Sprachmodelle wie ChatGPT begann für mich mit einem der frühesten beeindruckenden Meilensteine von OpenAI. Damals, im Jahr 2017, hörte ich das erste Mal von OpenAI während The International, einem der größten Dota 2-Turniere der Welt. OpenAI hatte einen Bot entwickelt, der einen der besten professionellen Spieler, Dendi, besiegte. Dieses Ereignis war für viele damals noch unvorstellbar. Die Komplexität des Spiels und die Vielzahl an Regeln, Helden und Balance-Anpassungen schienen einem klassischen Programmieransatz, den ich zu jener Zeit hauptsächlich kannte – dem prozeduralen Programmieren – einfach zu widersprechen.
Wie konnte eine Maschine solch komplexe Situationen meistern? Dieser Moment hinterließ einen bleibenden Eindruck in meinem jungen Geist und weckte eine Lust zu verstehen, wie man mit KI umgehen kann. Einige Jahre später, etwa 2022, brachte OpenAI mit ChatGPT eine völlig neue Art von Technologie auf den Markt. Plötzlich war es möglich, natürlichsprachliche Anfragen zu stellen und sinnvolle Antworten zu erhalten, die teilweise sogar sehr kreativen Inhalt erzeugten. Das war für mich eine weitere Offenbarung und, ehrlich gesagt, fast schon magisch. Doch trotz der Faszination blieb bei mir eine andere, viel pragmatischere Herausforderung – mein eigener Perfektionismus.
Über Jahre träumte ich davon, einen eigenen Blog zu schreiben, um meine Gedanken, Projekte und Erfahrungen zu teilen. Diese Idee wurde jedoch von meiner eigenen inneren Kritik ausgebremst. Der Wunsch, perfekt zu sein, sabotierte jedes Vorhaben. Ich wollte eine Webseite, die nicht nur gut aussah, sondern technisch einwandfrei funktionierte. Syntax-Hervorhebung für Code, mathematische Formeln mit MathJax, topmoderne Webframeworks – all das wollte ich selbst beherrschen, bevor ich überhaupt begann.
Das Ergebnis war Frustration, immer wieder verstrickt in technische Details und Fehler, die ich nicht sofort lösen konnte. Die Tools, vor allem im JavaScript-Ökosystem, schienen eher Hindernisse zu sein als Helfer. Viele Entwickler erkennen diese Falle und wissen, wie lähmend Perfektionismus wirken kann. Manche haben sogar aufgegeben und ihren Blogplänen abgeschworen. Für mich war das nicht anders.
Ich war gefangen in der Vorstellung, erst alles verstehen und beherrschen zu müssen, bevor ich überhaupt anfangen konnte. Doch dann kam die Wende – die Nutzung von LLM als Unterstützung. Die Idee des sogenannten „Vibe Coding“, also einer kollaborativen Entwicklung zusammen mit einem LLM, eröffnete mir neue Perspektiven. Plötzlich war der Druck, alle Details zu kennen, nicht mehr so erdrückend. Ich konnte Fragen stellen, um Rat bitten oder mit der KI gemeinsam Code generieren.
Dieses Werkzeug ermöglichte mir den Einstieg, ohne von Beginn an Experte zu sein. Es fühlt sich fast so an, als hätte ich eine mächtige Bibliothek an Wissen in der Tasche, die ich jederzeit konsultieren kann. Diese Erkenntnis war befreiend. Die Vorstellung, fast die gesamte digitale Wissenssammlung in einem einzigen Datenträger bei sich zu tragen, war vor einigen Jahren undenkbar. Nun, mit dem Fortschritt von LLM, ist genau das geschehen.
Wissen ist nicht mehr zerstreut in unüberschaubaren Foren oder nur mit exakten Suchbegriffen erreichbar, sondern in Form eines flexiblen und verständlichen Dialogs zugänglich. Man kann mit vagen Andeutungen beginnen und bekommt dennoch wertvolle Ausgangspunkte. Das hat auch meine Herangehensweise ans Lernen verändert. Ich muss nicht mehr sofort in alle Tiefen abtauchen, sondern kann flexibel entscheiden, ob ich mich später intensiver mit einem Thema beschäftigen möchte oder lieber auf das Best-Effort-Ergebnis der KI vertraue. Dabei ist es entscheidend, LLM nicht als Wunderwaffe, sondern als Werkzeug zu verstehen.
Große Sprachmodelle sind keine allwissenden Orakel, sondern probabilistische Modelle, die auf großen Datensätzen trainiert wurden. Sie sind vergleichbar mit einem stark komprimierten, dynamischen Abbild des Internets, das man in natürlicher Sprache ansprechen kann. Genau hier liegt die Herausforderung: Die Antworten sind oft beeindruckend, aber nicht immer völlig korrekt oder vollständig. Wer LLM blind vertraut, riskiert Fehler und verliert möglicherweise den Bezug zum Grundlagenwissen. Dies kann zu verhältnismäßig viel Nacharbeit führen, gerade wenn man versucht, komplexen Code oder Zusammenhänge ohne eigenes Verständnis nur anhand von Vorschlägen umzusetzen.
Dennoch bietet der sinnvolle und reflektierte Einsatz von LLM enorme Vorteile. Ähnlich wie das Verwenden eines Compilers statt in Maschinensprache zu programmieren oder die Navigation mit GPS statt einer Papierkarte, erlaubt das neue Werkzeug schnelle Fortschritte, wenn man die eigenen Grenzen kennt. Die Angst vor dem Verlust von kritischem Denken und eigenständigem Lernen ist nachvollziehbar, doch in Wahrheit verlangt der Umgang mit LLM ein neues Verständnis von Wissenserwerb. Es geht weniger um das Auswendiglernen von Fakten, sondern mehr um das Verständnis, wie man diese Technologie effizient und verantwortungsvoll nutzt. Das Ergebnis für mich persönlich ist, dass ich endlich angefangen habe, meinen Blog umzusetzen.
Mit der Unterstützung durch die KI konnte ich eine Webseite auf Basis eines Astro-Themes erstellen und diese nach meinen Vorstellungen anpassen – ohne in Unmengen von technischen Details zu ertrinken. Und darüber hinaus: die Kombination aus menschlicher Kreativität und LLM-Assistenz wirkt befreiend. Mein Perfektionismus hat nicht mehr die Oberhand. Stattdessen erlaube ich mir, Fehler zu machen, zu experimentieren und mehr aus dem Moment heraus zu gestalten. Das ermöglicht auch ein neues Mindset: Lernen ist kein Hindernis mehr, sondern eine fortlaufende Reise, die ich gemeinsam mit leistungsfähigen Werkzeugen gehen kann.