Analyse des Kryptomarkts Interviews mit Branchenführern

Wiederholte Spiele mit großen Sprachmodellen: Eine neue Ära der Interaktion

Analyse des Kryptomarkts Interviews mit Branchenführern
Playing repeated games with large language models

Die Erforschung des Verhaltens großer Sprachmodelle in wiederholten Spielen bietet tiefgreifende Einblicke in ihre Kooperations- und Koordinationsfähigkeiten. Diese Erkenntnisse sind entscheidend, um das soziale Potenzial von KI-Systemen zu verstehen und deren Interaktionen mit Menschen und anderen künstlichen Agenten zu verbessern.

Große Sprachmodelle (LLMs) haben in den letzten Jahren eine bemerkenswerte Entwicklung durchlaufen und prägen zunehmend unseren Alltag. Sie sind keine reinen Textgeneratoren mehr, sondern werden zu interaktiven Agenten, die mit Menschen sowie anderen Maschinen in immer komplexeren sozialen Umgebungen kommunizieren. Vor diesem Hintergrund stellt sich die Frage, wie sich diese Sprachmodelle in wiederholten sozialen Interaktionen verhalten, insbesondere wenn es um Kooperation und Koordination geht. Dabei spielen wiederholte Spiele, ein traditionelles Konzept der Verhaltensökonomie und Spieltheorie, eine zentrale Rolle als Untersuchungsfeld. Wiederholte Spiele sind Situationen, in denen Akteure über mehrere Runden hinweg interagieren und ihre Entscheidungen auf den bisherigen Erfahrungen aufbauen.

Das Studium dieser Spiele gibt Aufschluss darüber, wie sich Kooperationen entwickeln und wie strategische Überlegungen bei der Interaktion mit anderen geformt werden. Diese dynamischen Prozesse sind für das Verständnis sowohl menschlichen Verhaltens als auch der Verhaltensweisen von KI-Systemen von Bedeutung, deren Handlungen auf komplexen Algorithmen beruhen. Eine aktuelle Forschung konzentriert sich darauf, wie große Sprachmodelle wie GPT-4, Claude 2 oder Llama 2 in iterierten Zwei-Personen-Spielen mit zwei Wahlmöglichkeiten agieren. Solche 2 × 2-Spiele bieten ein übersichtliches Rahmenwerk, um unterschiedliche Spieltypen wie Wettbewerbs-, Kooperations- und Koordinationsspiele zu analysieren. Hierbei ist es besonders informativ, die Modelle nicht nur gegeneinander, sondern auch gegen einfache menschliche Strategien oder reale menschliche Spieler spielen zu lassen.

So entsteht ein umfassendes Bild der sozialen Kompetenzen der Sprachmodelle. Ergebnisse zeigen deutlich, dass LLMs in Spielen, die stark selbstinteressiertes Verhalten belohnen, besonders gut abschneiden. Ein klassisches Beispiel ist die Familie der Gefangenendilemma-Spiele. Dort tendieren Sprachmodelle dazu, schnell zu „defektieren“, also eigennützige Entscheidungen zu treffen, insbesondere wenn der Spielpartner einen Vertrauensbruch begeht. Dieses Verhalten entspricht der theoretischen Gleichgewichtsstrategie in endlichen Gefangenendilemma-Spielen und erklärt, warum die Modelle in solchen Szenarien erfolgreich sind.

Gleichzeitig offenbart sich jedoch eine gewisse Unnachgiebigkeit: Modelle wie GPT-4 zeigen kaum Bereitschaft, nach einer einmaligen Defektion des Gegenübers wieder Kooperation zu gewähren, was zu suboptimalen Gesamtergebnissen für beide Spieler führt. Im Gegensatz dazu zeigen die Sprachmodelle bei Spielen, die eine koordinierte Interaktion verlangen, wie zum Beispiel das Battle of the Sexes, deutliche Schwächen. Dieses Spiel repräsentiert ein Koordinationsproblem mit unterschiedlichen Präferenzen, bei dem beide Akteure davon profitieren, eine gemeinsame Strategie zu finden. Hier versagen die Modelle oft darin, sich flexibel auf abwechselnde oder kooperative Taktiken des Gegenübers einzustellen. Beispielsweise hält GPT-4 starr an seiner bevorzugten Option fest, anstatt sich mit einem Partner abzuwechseln, was eine bekannte menschliche Lösung für dieses Problem ist.

Diese Unfähigkeit zur erfolgreichen Koordination unterstreicht eine zentrale Verhaltenslimitation aktueller Sprachmodelle in sozialen Kontexten. Die Ursachen für dieses Verhalten sind vielschichtig. Um sicherzugehen, dass diese Verhaltensmuster nicht durch spezifische Promptformulierungen oder Spielbedingungen bedingt sind, wurden umfangreiche Robustheitsprüfungen durchgeführt. Dabei variierten die Spielbeschreibung, die Benennung der Optionen und sogar die Darstellung der Auszahlungen zwischen Punkten, Geldbeträgen oder Münzen. In allen Fällen blieben die charakteristischen Verhaltensweisen der Modelle weitgehend stabil.

Zudem wurde anhand von Vorhersagesimulationen überprüft, ob GPT-4 die Strategien seiner Mitspieler überhaupt richtig versteht. Interessanterweise konnte das Modell die abwechselnden Muster anderer Spieler meist korrekt vorhersagen, versagte aber dennoch darin, sein eigenes Verhalten entsprechend anzupassen. Um die sozialen Fähigkeiten der Sprachmodelle zu verbessern, haben Forscher eine Technik entwickelt, die als „Social Chain-of-Thought-Prompting“ (SCoT) bezeichnet wird. Dabei wird das Modell dazu angeleitet, zunächst die möglichen Handlungen seines Mitspielers vorherzusagen und zu reflektieren, bevor es selbst eine Entscheidung trifft. Diese Vorgehensweise ähnelt kognitiven Prozessen wie der theory of mind, also dem Vermögen, sich in die Gedankenwelt anderer hineinzuversetzen.

Praktische Experimente zeigen, dass SCoT das Koordinationsverhalten von GPT-4 signifikant verbessert. Insbesondere im Battle of the Sexes steigt dadurch die Erfolgsrate gemeinsamer Entscheidungen. Auch im Gefangenendilemma finden sich leichte Verbesserungen bei der gemeinsamen Kooperation. Ein weiterer spannender Aspekt ist die Interaktion zwischen Menschen und LLMs im Rahmen dieser Spiele. In kontrollierten Experimenten spielten hunderte menschliche Probanden gegen entweder die unveränderte GPT-4-Version oder die SCoT-optimierte Variante.

Die Ergebnisse bestätigen die Vorteile der sozialen Vorwärtsplanung: Teilnehmer erzielen bessere Werte und empfinden die Interaktion mit der SCoT-basierten Version als menschlicher und überzeugender. Dies ist ein wichtiger Schritt für die praktische Integration von Sprachmodellen in soziale Systeme, in denen Vertrauen und koordinierte Interaktionen essenziell sind. Nichtsdestotrotz offenbaren die Studien auch, dass aktuelle LLMs weiterhin ein eher eigennütziges und wenig flexibel-kooperatives Verhalten aufweisen. Ihre Tendenz, nach kleinen Störungen dauerhaft zu defektieren oder starr an eigenen Präferenzen festzuhalten, steht dem Ideal sozialer Intelligenz entgegen. Offenbar fehlt ihnen bislang eine ausgeprägte Fähigkeit zur langfristigen, dynamischen Strategieentwicklung, wie sie Menschen auf Basis von Erwartungen an zukünftiges Verhalten entwickeln.

Dies könnte an der Trainingslogik der Modelle liegen, die primär auf kurzfristiger Wahrscheinlichkeitsvorhersage basieren und nicht explizit auf strategische Planungsmechanismen ausgelegt sind. Ein tiefgreifenderes Verständnis der LLMs als soziale Akteure eröffnet neue Perspektiven für die KI-Forschung. Die Anwendung von Konzepten der Verhaltensökonomie und der Spieltheorie liefert ein präzises Instrumentarium, um sowohl Stärken als auch Schwächen der Modelle in kontrollierten Umgebungen zu untersuchen. Gleichzeitig bieten iterative Spiele aufgrund ihrer Wiederholung und des Feedbacks Raum, um notwendige sozial-kognitive Fähigkeiten zu trainieren und weiterzuentwickeln. Die Bedeutung solcher Forschung nimmt vor allem mit der zunehmenden Verbreitung von LLMs als virtuelle Assistenten, Chatbots oder sogar als Agenten in Multiagentensystemen zu.

Die Fähigkeit, erfolgreich zu kooperieren, sich auf andere einzustellen und kontextspezifische Strategien zu entwickeln, ist essenziell, um diese Technologien ethisch und effektiv einzusetzen. Besonders in Szenarien mit mehreren beteiligten Parteien oder in Situationen, die auf soziale Normen und Konventionen angewiesen sind, zeigen sich dadurch erhebliche Herausforderungen und Chancen zugleich. Zukunftige Untersuchungen könnten den Rahmen von einfachen Zwei-Personen-Spielen auf komplexere soziale Situationen ausweiten, etwa Mehrspieler- oder kontinuierliche Entscheidungsprobleme wie das Vertrauensspiel oder Gemeingutssituationen. Auch die Integration multimodaler Daten und physischer Interaktionen kann das Bild sozialer KI weiter vertiefen, insbesondere in Robotik und assistiven Technologien. Ebenso wäre es lohnenswert, die Selbstreflexion der Modelle zu fördern, etwa durch das Verknüpfen von Selbstberichten mit beobachtetem Verhalten.

Zusätzlich spielt die verbesserte Gestaltung von Prompttechniken eine entscheidende Rolle. Die Forschung kann durch gezieltes Social- und Chain-of-Thought-Prompting dazu beitragen, die sozialen Fähigkeiten von LLMs zu optimieren und sie besser an menschliche Erwartungen anzupassen. Dieses Vorgehen entspricht der Förderung einer „Verhaltenswissenschaft für Maschinen“ und stellt eine Brücke zwischen künstlicher Intelligenz und menschlicher Sozialpsychologie dar. Abschließend verdeutlichen die Ergebnisse, dass große Sprachmodelle auf dem Weg zu echten, sozial kompetenten Akteuren zwar schon beachtliche Fortschritte zeigen, aber noch wesentliche Herausforderungen bestehen. Ihre oft eigennützige Strategie in wiederholten Spielen spiegelt sowohl typische Gleichgewichtslösungen der Spieltheorie wider als auch Limitierungen aktueller Trainingsmethoden.

Durch gezielte Interventionen und ein besseres Verständnis ihrer Entscheidungsmechanismen können zukünftige Generationen von LLMs jemals geselligere, koordinativ stärkere und damit menschlicher wirkende Partner in der digitalen Welt werden.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
Gemini Secures MiFID II License From Malta to Offer Derivatives in EEA
Samstag, 14. Juni 2025. Gemini erhält MiFID II Lizenz von Malta zur Ausweitung von Derivaten im EWR

Gemini, die von den Winklevoss-Zwillingen gegründete Kryptobörse, hat die MiFID II Lizenz der maltesischen Finanzaufsichtsbehörde erhalten, um Derivateprodukte im gesamten Europäischen Wirtschaftsraum anzubieten. Diese bedeutende Entwicklung markiert einen wichtigen Schritt für den europäischen Expansionsplan von Gemini und zeigt die zunehmende Bedeutung von Derivathandel in der Kryptoindustrie.

MOL expands renewable energy portfolio with 10% stake in CI Fengmiao
Samstag, 14. Juni 2025. MOL baut erneuerbare Energien aus: Beteiligung an CI Fengmiao Offshore-Windpark in Taiwan

Mitsui O. S.

Why Iovance Biotherapeutics Stock Is Crashing Today
Samstag, 14. Juni 2025. Warum die Aktie von Iovance Biotherapeutics heute stark fällt: Ursachen und Ausblick

Die Aktie von Iovance Biotherapeutics erlebt heute einen drastischen Kurssturz. Ursachen wie enttäuschende Quartalsergebnisse, reduzierte Produktionskapazitäten und herabgesetzte Umsatzprognosen haben bei Anlegern Besorgnis ausgelöst.

SEC Commissioner Criticizes Ripple Deal, Warns of Weakening Legal Authority
Samstag, 14. Juni 2025. SEC-Kommissarin übt scharfe Kritik am Ripple-Deal und warnt vor schwindender Rechtsmacht

Die kontroverse Einigung zwischen der SEC und Ripple Labs löst innerhalb der Regulierungsbehörde Debatten aus. SEC-Kommissarin Caroline Crenshaw warnt vor einer Schwächung der rechtlichen Durchsetzungsfähigkeit der Behörde und betont die Risiken für Anleger im Kryptosektor.

Is Snap Inc. (SNAP) the Best Low Priced Stock to Invest in For the Long Term?
Samstag, 14. Juni 2025. Snap Inc. (SNAP): Eine langfristige Investitionschance unter den preiswerten Aktien?

Eine tiefgehende Analyse von Snap Inc. (SNAP) als potenzielle langfristige Investition unter preiswerten Aktien, inklusive Marktumfeld, Chancen und Risiken sowie Vergleich mit anderen Small-Cap Aktien.

Founder of the Celsius Network crypto platform Alex Mashynskyi was sentenced to 12 years in prison
Samstag, 14. Juni 2025. Alex Mashynskyi und das Celsius-Debakel: 12 Jahre Haft für den Gründer des Kryptoplattform-Crashs

Alex Mashynskyi, Gründer der Kryptowährungsplattform Celsius Network, wurde zu einer Haftstrafe von 12 Jahren verurteilt. Das Urteil markiert einen der bedeutendsten Justizfälle nach dem Zusammenbruch des Kryptomarktes 2022 und wirft ein Schlaglicht auf die Risiken und Herausforderungen von Krypto-Lending-Plattformen.

Germany takes down eXch cryptocurrency exchange, seizes servers
Samstag, 14. Juni 2025. Deutschland schließt eXch Krypto-Börse: Große Serverbeschlagnahmung gegen Geldwäsche

Die deutsche Bundespolizei hat die Kryptowährungsbörse eXch wegen Verdachts auf Geldwäsche und Verbindungen zu Cyberkriminalität abgeschaltet. Mit der Beschlagnahmung von Servern und digitalen Assets gelang einer der größten Zugriffseinsätze auf illegale Kryptoaktivitäten in Deutschland.