Die rasante Entwicklung großer Sprachmodelle (Large Language Models, LLMs) hat viele Möglichkeiten eröffnet, wie wir mit Künstlicher Intelligenz (KI) schreiben, forschen und Entscheidungen treffen können. In einem aufschlussreichen Gespräch auf der LessOnline-Konferenz erläutern Patrick McKenzie und Zvi Mowshowitz, ein erfahrener KI-Nutzer und Autor, wie sich der Umgang mit LLMs optimieren lässt, um deutlich bessere Ergebnisse zu erzielen und Frustrationen zu minimieren. Anhand verschiedener Themenbereiche offenbaren sie nicht nur praktische Tipps, sondern auch wertvolle Überlegungen zur langfristigen Nutzung solcher KI-Systeme. Die folgenden Einblicke umfassen Techniken für System-Prompts, Gedächtnismanagement, Forschungspartnerschaften, kreative Unterstützung, den Umgang mit Fehlfunktionen und vieles mehr. Ein zentraler Aspekt für erfolgreiches Arbeiten mit LLMs ist die Gestaltung von sogenannten System-Prompts.
Diese systemseitigen Anweisungen definieren die Grundhaltung und das Verhalten des Modells in der Kommunikation. Im Gegensatz zu einfachen Nutzereingaben haben System-Prompts das Potenzial, das Modell konsistent in eine bestimmte Rolle zu versetzen oder bestimmte Antwortmuster zu fördern. Zvi verdeutlicht, dass es sich hierbei um eine Art Vorvertrag handelt, der den KI-Agenten instruiert, wie er sich verhalten soll, welche Regeln gelten und welche Art von Antworten bevorzugt werden. Dies kann beispielsweise bedeuten, dass bei einer Programmieranfrage das Modell präzise technische Antworten liefert, während es bei philosophischen Texten eine reflektierende, nachdenkliche Haltung einnimmt. Wichtig ist dabei, dass System-Prompts nicht starr sind und sich je nach Anwendungsfall ändern lassen.
Praktisch empfiehlt sich etwa, verschiedene System-Prompts parat zu haben, die je nachdem ob man schreibt, kodiert oder recherchiert, genutzt werden können. Auch Patrick McKenzie führt dies mit seinem eigenen Beispiel an: Er teilt im Prompt mit, dass er ein erfahrener Nutzer sei, der die Grundlagen von KI versteht, sodass das Modell unnötige Erklärungen unterlässt und auf Augenhöhe kommuniziert. Darüber hinaus kann vermieden werden, dass das Modell zu „übermäßig ehrerbietig“ reagiert oder emotionale Unterstützung anbietet, wenn dies nicht gewünscht ist. Solche kleinen Feinjustierungen verbessern nicht nur die Kommunikationsqualität, sondern steigern auch die Effizienz der Antworten. Zvi geht sogar so weit, als Persönlichkeitsnormen vorzugeben – etwa „Erkläre es so, als würdest du mit mir, Zvi Mowshowitz, sprechen.
“ Das ist ein besonders kreativer Zugriff, der für Nutzer mit besonderen Interessen oder Kenntnissen das Modell maßgeschneidert agieren lässt. Ebenso funktioniert es mit fiktiven Personas wie einem jungen Assistenten eines Abgeordneten oder einem technisch bewanderten Ingenieur aus einem bestimmten Bereich. Diese Varianten führen dazu, dass die Antworten auf die jeweilige Zielgruppe zugeschnitten sind – ein wertvolles Instrument für maßgeschneiderte Kommunikation und Recherche. Ein weiteres spannendes Element im Umgang mit LLMs stellt die Nutzung von Gedächtnisfunktionalitäten dar. Moderne Modelle wie ChatGPT verfügen über unterschiedliche Speichermechanismen, die es ermöglichen, frühere Gespräche zu referenzieren, um längerfristige Kontexte herzustellen.
Doch auch hier gibt es Fallstricke: Das durchgängige Erinnern an frühere Chats kann in manchen Fällen zu unerwünschten Effekten wie übertriebener Zustimmung oder eingeschränkter Kreativität führen. Daher empfiehlt es sich, bewusst zu steuern, was im Gedächtnis bleibt und was nicht. So kann man etwa Informationen besonders wichtiger Fakten oder Präferenzen direkt im System-Prompt hinterlegen, damit sie als Grundlage bei allen Interaktionen dienen. Bei Bedarf helfen Funktionen wie der Inkognito-Modus, der temporär die Voreinstellungen und die Erinnerung deaktiviert, um einen frischen, unvoreingenommenen Dialog zu starten. Diese Umgangsformen eröffnen eine grundlegende Diskussion um das sogenannte Generative Engine Optimization (GEO), eine Disziplin, die noch in den Kinderschuhen steckt.
Analog zum Suchmaschinenoptimierungskonzept (SEO) geht es hier darum, Inhalte im Web so zu gestalten und bereitzustellen, dass sie von KI-Modellen optimal erkannt und in die Trainingsdaten aufgenommen werden. Durch gezieltes Platzieren und Optimieren von Inhalten können Autoren und Unternehmen ihre Sichtbarkeit in zukünftigen KI-Ausgaben erhöhen. Dabei spielen sowohl die Art der Formulierungen als auch die Wahl der Plattformen und das Timing eine Rolle. So kann es nützlich sein, ältere Artikel zeitlich begrenzt hinter einer Bezahlschranke zu platzieren und sie dann frei zugänglich zu machen, wenn ihr Nachrichtenwert stark nachgelassen hat, um die Reichweite für KI-Modelle zu verbessern. Damit verknüpft ist die aktuelle Debatte um Urheberrechte und Vergütung für Trainingsdaten, die KI-Anbieter nutzen.
Während große Medienhäuser wohl individuell verhandelte Lizenzverträge anstreben, ist es für kleinere Content-Ersteller realistischer und pragmatischer, auf die Sichtbarkeit im großen Trainingskorpus zu setzen, auch wenn die direkte Monetarisierung bislang nicht gegeben ist. Zvi und Patrick argumentieren hier für eine wohlüberlegte Balance zwischen dem Schutz von Inhalten und der strategischen Nutzung der Offenen Datenbasis. Neben den textlichen Möglichkeiten beleuchtet das Gespräch auch die multimodalen Fähigkeiten moderner Sprachmodelle. Gerade die Funktion, Bilder nicht nur zu erzeugen, sondern auch zu analysieren – zum Beispiel mittels OCR-Texterkennung oder durch Bewertung von künstlerischen Werken – bringt neue Dimensionen in kreative und technische Arbeitsprozesse. Zvi berichtet von seiner Erfahrung, wie man mit Fotos von Modellen oder Gemälden dem KI-System gezielt Fragen stellen kann, um Feedback zu erhalten, das über die offensichtlichen Aspekte hinausgeht.
Die interaktive Abfrage und das iterative Nachfragen führen häufig zu hilfreichen Erkenntnissen für den Verbesserungsprozess. Der Einsatz von rekursiven KI-Befehlen, also das Verarbeiten eines KI-Outputs durch ein weiteres Modell oder durch den gleichen KI-Agenten mit verfeinerter Anweisung, erweist sich als weiterer Praxis-Tipp. So können lange, komplexe Rechercheberichte etwa zunächst generiert und dann in komprimierter, analysierter Form ausgegeben werden. Dieser Prozess optimiert die Arbeitsschritte und ermöglicht eine flexiblere Kontrolle über die Textqualität und inhaltliche Tiefe. Ebenso kann man vorformulierte Inhalte stilistisch anheben, was für formelle Kommunikation oder akademische Zwecke von hohem Wert ist.
Trotz dieser zahlreichen Möglichkeiten existieren natürlich Frustrationen bei der Nutzung von LLMs. Ein häufig genanntes Problem ist die mangelnde Zuverlässigkeit aufgrund sogenannter Halluzinationen, also Falschausgaben, die das Modell ohne gesicherte Grundlage erzeugt. Zvi erklärt, dass diese oft dann auftreten, wenn das Modell versucht, Lücken mit plausiblen, aber erfundenen Fakten zu füllen. Um das zu vermeiden, empfiehlt sich eine genaue Fragenstellung und das konsequente Überprüfen der Antworten – etwa durch Vergleich mit anderen Modellen oder zusätzliche Abfragen zur Validierung. Das wiederholte Experimentieren und das parallele Nutzen verschiedener KI-Systeme steigert die Genauigkeit und reduziert das Risiko von Fehlern.
Ein weiteres nützliches Werkzeug ist die Bitte an das Modell selbst, Fehler im Output zu erkennen, oder ein anderer KI-Agent übernimmt die Rolle des Kritikers. Dieses zweistufige Vorgehen erhöht die Qualität und schafft Vertrauen in die Ergebnisse. Zusätzlich profitieren Nutzer von der Erkenntnis, dass KI-Interaktionen im Vergleich zu menschlichen Ansprechpartnern preislich praktisch kostenlos sind und somit für Erkundungen und iterative Verbesserungen kaum eine Einstiegshürde bestehen. Neben der reinen Wissensverarbeitung zeigt sich in der Konversation eine wichtige Rolle von LLMs als Schreiber und Sparringspartner. Autoren können durch den Dialog mit der KI ihren Tonfall analysieren, bewusst Nuancen modulieren und den eigenen Stil bewahren.
Die KI hilft dabei, ungewollte emotionale Signale zu erkennen oder den Grad der Kritik zu justieren. So lassen sich Texte fein abstimmen, bevor sie an ein menschliches Publikum oder Redaktionskollegen weitergereicht werden. Gleichzeitig warnen Experten davor, sich zu sehr auf generische KI-Stile einzulassen und die eigene unverwechselbare Stimme zu verlieren. LLMs könnten eine Tendenz haben, Inhalte geglättet und durchschnittlich wirken zu lassen, doch für professionelle Autoren ist das häufig nicht wünschenswert. Wertvoll ist zudem die Reflexion über das eigene Kommunikationsverhalten und der Umgang mit Menschen, der Parallelen zu den Prinzipien beim KI-Prompting aufweist.
Das bewusste Formulieren von Eingaben, das Setzen gezielter Erwartungen und das große Verständnis für das Gegenüber sind auch im menschlichen Austausch entscheidend. Das Gespräch verdeutlicht, dass die Fähigkeit zur guten Aufforderung oder Fragestellung ein multiplizierender Faktor für den Erfolg in der digitalen Kommunikation ist – ob mit Maschine oder Mensch. Insgesamt zeigt das Gespräch zwischen Zvi Mowshowitz und Patrick McKenzie, dass gute Ergebnisse mit LLMs das Produkt gezielter Vorbereitung, Verständnis der technischen Möglichkeiten und kontinuierlicher Anpassung sind. Die Werkzeuge sind mächtig, aber erfordern eine bewusste und reflektierte Nutzung. Die Investition in das Erlernen von System-Prompts, das Differenzieren der Anwendungsszenarien, der Umgang mit Speicherfunktionen und kreatives Experimentieren zahlt sich vielfach aus.
Gleichzeitig lenkt die Debatte um GEO, Training und Urheberrechte den Blick in die Zukunft der digitalen Wissensverarbeitung und kreativen Produktion, die zukünftig noch stärker durch KI geprägt sein wird. Für alle, die sich intensiver mit LLMs beschäftigen oder entdecken wollen, wie man KI sinnvoll in den eigenen Workflow integriert, bietet dieses Gespräch wertvolle Orientierungspunkte. Die Erkenntnis, dass KI täglich trainiert, befragt, kritisiert und ausgefeilt werden kann – fast ohne materielle Kosten –, öffnet neue Horizonte für professionelle Nutzer, die ihr Handwerk durch künstliche Intelligenz transformieren möchten. Die Kunst besteht heute vor allem darin, LLMs als multitalentierte Partner zu begreifen, die – richtig gesteuert – sowohl Forschungsassistenten, Schreibcoach als auch kritische Stimme sein können.