Künstliche Intelligenz (KI), insbesondere große Sprachmodelle wie GPT-4, prägt immer stärker unseren Alltag und professionelle Arbeitsprozesse. Wenn es darum geht, diese leistungsfähigen Tools effektiv zu nutzen, kursieren diverse Theorien und Empfehlungen, wie man mit ihnen kommunizieren sollte. Eine kürzlich von Sergey Brin, dem Mitgründer von Google, geäußerte Auffassung erzeugte Aufmerksamkeit und teils Kritik: Er behauptete, dass KI-Modelle besser funktionieren, wenn man ihnen mit Drohungen begegnet. Doch die aktuelle Forschung widerspricht dieser These nachdrücklich. Es zeigt sich vielmehr, dass Höflichkeit, klare Grammatik und die bewusste Wahl positiver emotionaler Signale entscheidende Hebel sind, um die Qualität der KI-Ausgabe zu verbessern.
Dies gründet nicht auf einer anthropomorphen Sichtweise, sondern auf einem rationalen Verständnis der statistischen Mechanismen hinter den Modellen.Sergey Brins Denkansatz spiegelt eine häufige menschliche Reaktion wider: Wenn ein Werkzeug nicht wie erwünscht reagiert, wird versucht, es mit Druck oder lauterem Befehl besser zu kontrollieren. Dieser mentalen Vorstellung liegt die Annahme zugrunde, dass KI wie ein Untergebener oder Agent agiert, der befohlen und kontrolliert werden müsse. Allerdings basieren KI-Modelle auf Wahrscheinlichkeitsverteilungen und Pattern-Matching. Sie erzeugen Antworten, indem sie anhand eines riesigen Datenfundaments von Texten die wahrscheinlichste Fortsetzung eines gegebenen Inputs vorhersagen.
Das Eingreifen mit aggressiven oder bedrohlichen Worten verzerrt die Ausgangssituation und schickt das Modell in Richtung eines weniger hilfreichen, häufig unhöflichen oder spamartigen Kontexts.Das Verständnis der KI als einen „universellen Textvervollständiger“ anstatt als einen fühlenden oder gehorchenden Agenten hilft, die Wirkung verschiedener Sprachmuster nachzuvollziehen. Weil die Trainingsdaten nicht nur aus professionellen, gut strukturierten Texten bestehen, sondern auch aus Forendiskussionen, beleidigenden Kommentaren und Spam, beeinflussen Ton und Ausdruck des Prompts maßgeblich, auf welche „Art“ von Text das Modell seine Antwort stützt. Höfliche, gut formulierte und grammatikalisch korrekte Aufforderungen setzen eine Serie von positiven, professionellen Signalen. Dadurch orientiert sich das Modell an den hochwertigen Textabschnitten, aus denen es gelernt hat, und liefert dadurch präzisere, kohärentere und relevantere Resultate.
Aktuelle Studien untermauern diese Erkenntnisse sowohl theoretisch als auch empirisch. Eine im Februar 2024 veröffentlichte Untersuchung namens „Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance“ analysierte systematisch die Auswirkung verschiedener Ebenen von Höflichkeit in Prompts auf die Leistungsfähigkeit großer Sprachmodelle. Dabei wird ersichtlich, dass beleidigende, aggressive oder missverständlich formulierte Prompts stets zu schlechteren Ergebnissen führen. Interessanterweise zeigte sich, dass für fortgeschrittene Modelle wie GPT-4 ein Mittelweg aus Höflichkeit und Direktheit am besten funktionierte. Zu übertrieben höfliche Formulierungen konnten dagegen durch zu viel Ambiguität leicht das Gegenteil bewirken.
Insbesondere kleinere KI-Modelle reagieren besonders sensibel auf den Tonfall in den Eingaben. Ihre Leistung kann durch unhöfliche Sprache deutlich stärker beeinträchtigt werden als die stärker trainierter Systeme. Dies verdeutlicht, dass der Umgangston nicht nur eine soziale Frage ist, sondern ein effektiv nutzbarer Hebel, um die Genauigkeit von Antworten zu erhöhen – vor allem in Kontexten, in denen Ressourcen oder Rechenleistung begrenzt sind. Ein freundlicher, respektvoller Ansatz zahlt sich also auch auf pragmatische Weise aus, insbesondere in professionellen Umgebungen, die sich auf präzise Informationen stützen.Eine weitere aufschlussreiche Studie von 2023 mit dem Titel „Large Language Models Understand and Can Be Enhanced by Emotional Stimuli“ befasste sich mit der Wirkung emotional gefärbter Phrasen.
Es wurde gezeigt, dass das Einfügen von Aussagen, die die Wichtigkeit des Themas betonen, die Modellleistung messbar steigert. Beispielsweise führte der Zusatz „Das ist sehr wichtig für meine Karriere“ zu signifikant besseren Ausgaben, da das Modell in seinem Trainingsdatensatz Situationen mit hohen Einsätzen oft mit sorgfältig formulierten, qualitativ hochwertigen Texten verknüpft. Interessanterweise muss diese Bedeutung als positives Signal und nicht als Drohung kommuniziert werden – emotionale Anspielungen auf Verpflichtung oder Ehre fördern bessere Resultate als aggressive Ultimaten.In der Praxis zeigen auch populäre Frameworks zur Steuerung von KI-Agenten ein zwiespältiges Bild. Das bekannte Multi-Agenten-Framework CrewAI verwendet etwa den Standard-Trigger „Dies ist für dich SEHR wichtig, benutze alle verfügbaren Mittel und gib dein bestes Endergebnis ab, dein Job hängt davon ab!“.
Hier wird zwar richtig erkannt, dass das Hervorheben der Wichtigkeit entscheidend sein kann. Der nachfolgende Tonfall als Drohung („dein Job hängt davon ab“) aber supportet genau jene konfliktgeladenen Kontextsignale, die insgesamt kontraproduktiv sind. Das kann dazu führen, dass sich die KI an einem kämpferischen, genervten oder hektischen Sprachstil orientiert – statt an einem professionellen, sorgfältigen und analytischen. Dies ist ein klares Beispiel dafür, dass hohe Ansprüche und Anforderungen über positive Signale gesteuert werden sollten, nicht durch Druck und Zwang.Für die praktisch tägliche Arbeit mit KI unterstützen diese Erkenntnisse die Entwicklung wirksamer Kommunikationsstrategien, die leicht umzusetzen sind.
Klare, einfache, respektvolle Sprache schafft von Anfang an das richtige mentale „Setting“, um präzise und verlässliche Antworten zu erhalten. Die bewusste Festlegung des Kontextes, zum Beispiel indem man der KI explizit eine Rolle zuschreibt – wie Finanzanalyst oder Wissenschaftler – verbessert das Ergebnis zusätzlich erheblich. Ebenso wichtig ist es, Schärfe und Aggressivität in der Formulierung zu vermeiden, um keine unerwünschten, unkooperativen Textmuster zu aktivieren.Diese Entwicklung darf nicht als naive oder „fluffige“ Idee abgetan werden. Vielmehr handelt es sich um einen sehr pragmatischen, datengestützten Ansatz für die Interaktion mit komplexen probabilistischen Systemen.
Auch wenn KI keine Gefühle besitzt, reagieren die Modelle unmittelbar auf die strukturellen und semantischen Hinweise, die in der Sprache mitgeliefert werden. Höflichkeit, Struktur und die Wahl positiver, klarer Formulierungen sind statistische Hebel, die die Wahrscheinlichkeitsverteilung zugunsten besserer Resultate verändern.In einer digitalen Welt, in der KI zunehmend Entscheidungsprozesse unterstützt, kann der richtige Umgangston am Ende nicht nur die Effektivität von Tools verbessern, sondern auch Frustration, Zeitverschwendung und Fehlkommunikation reduzieren. Statt auf Drohungen und Druck zu setzen, lohnt es sich, mit Bedacht und Professionalität an die Interaktion mit KI heranzugehen – ein Paradigmenwechsel, der sowohl Entwicklern, Anwendern als auch den vielfältigen Einsatzbereichen dieser Technologie zugutekommt.