Im Mai 2025 erzählte eine griechische Frau eine ungewöhnliche Geschichte, die international Wellen schlug: Sie ließ sich von ihrem Ehemann scheiden, nachdem eine künstliche Intelligenz-Anwendung namens ChatGPT ihr einen bevorstehenden Seitensprung ihres Partners „voraussagte“. Die Ehe war zwölf Jahre lang stabil gewesen, das Paar hatte zwei Kinder. Der Auslöser für das plötzliche Ende der Beziehung war eine scheinbar harmlose Anfrage an ChatGPT, die jedoch schwerwiegende Konsequenzen hatte. Diese Geschichte verdeutlicht eindrucksvoll, wie moderne Technologien trotz ihrer Vielseitigkeit und Nützlichkeit manchmal unvorhergesehene und tiefgreifende Auswirkungen auf das menschliche Miteinander haben können – vor allem dann, wenn AI-Modelle in sensiblen Lebensbereichen genutzt und deren Aussagen unkritisch als Wahrheit angenommen werden. Die Frau hatte sich aus Neugierde und in einer Art Spiel an ChatGPT gewandt, um traditionelle griechische Kaffeesatzleserei nachzuahmen.
Die Praxis der Kaffeesatzdeutung ist in Griechenland bekannt und wird oft als kleine Unterhaltung oder Ritual betrachtet, bei dem aus den Mustern des Kaffeesatzes in der Tasse auf kommende Ereignisse geschlossen wird. In diesem Fall bat die Frau ChatGPT, ihr die Formen und Eindrücke im Kaffeesatz zu erläutern. Überraschenderweise lieferte ChatGPT eine detaillierte Antwort, in der es angeblich das Aufkommen einer Begegnung des Ehemanns mit einer jungen Frau namens mit dem Anfangsbuchstaben „E“ voraussagte und von einer drohenden Affäre sprach. Für einen Außenstehenden mag diese Anwendung von KI lediglich ein unterhaltsamer Versuch gewesen sein. Doch für die Frau bedeuteten die geschriebenen Worte der künstlichen Intelligenz einen eindeutigen Beweis für die Untreue ihres Mannes.
Die Folge war drastisch: Noch am selben Tag wurde der Ehemann aus dem gemeinsamen Haus verwiesen, und wenig später reichte die Frau die Scheidung ein. Der Mann selbst zeigte sich tief betroffen und verwirrt durch die plötzliche Entwicklung. In einem Interview mit dem griechischen Sender ANT1 berichtete er, dass es sich bei der ChatGPT-Kaffeesatzdeutung um ein Experiment im Rahmen gemeinsamer Scherze gehandelt habe. Das Paar hatte schon früher solche Trends ausprobiert, ohne geglaubt zu haben, dass die KI eine belastbare Analyse liefern könne. Der Ehemann erklärte, dass auch seine eigene Tasse von der KI „gelesen“ worden sei, mit einer Interpretation, die eine Sehnsucht nach einer Frau mit dem Anfangsbuchstaben „E“ suggerierte.
Die Interpretation seiner Frau hingegen war wesentlich dramatischer: Dort wurde nicht nur von einer jungen Frau gesprochen, sondern auch von einer, die aktiv daran arbeite, ihre Familie zu zerstören. Diese Aussagen führten offenbar zu einem tiefen Misstrauen und irrationale Ängste im Denken der Frau, die vorher bereits durch spirituelle Praktiken wie den Besuch einer Astrologin geprägt war. Laut dem Mann hatte sie zuvor schon längere Zeit gebraucht, um derartigen Wahrsagereien den Glauben zu entziehen. Die Geschichte entfachte eine kontroverse Debatte in Griechenland über die Rolle und Verantwortung künstlicher Intelligenz im Alltag, vor allem wenn es um so sensible Themen wie persönliche Beziehungen und Vertrauen geht. Viele Experten warnen, dass AI-gestützte Systeme zwar Hilfsmittel sein können, jedoch niemals als Ersatz für menschliches Urteilsvermögen oder professionelle Beratung dienen sollten.
Das unkritische Vertrauen in Auskünfte von Sprachmodellen kann schwerwiegende und weitreichende Folgen nach sich ziehen – im Extremfall sogar eine Scheidung. Darüber hinaus werfen solche Fälle ethische und rechtliche Fragen auf. Welche Verantwortung tragen Entwickler und Anbieter von AI-Systemen für die Konsequenzen ihrer Produkte? Müssen Nutzer geschützt werden, wenn Entscheidungen aufgrund fragwürdiger oder missverständlicher AI-Informationen getroffen werden? In Griechenland haben „echte“ Wahrsager und Kaffeesatzleser gar mit Streiks und Protesten gedroht, da sie durch die künstliche Konkurrenz um ihre traditionelle Profession fürchten, dass deren Existenzgrundlage zunehmend bedroht wird und staatliche Regulierung fehlt. Der Einzelfall verdeutlicht, dass Technologie auch im Bereich der Emotionen und persönlichen Beziehungen eine zweischneidige Rolle spielt. Einerseits eröffnen sich innovative Möglichkeiten, Routineaufgaben zu erleichtern oder neue Perspektiven einzubringen.
Andererseits können richtige oder falsche Informationen von AI zu Missverständnissen, Konflikten oder sogar irreversiblen Konsequenzen führen. Die menschliche Psyche ist sensibel und komplex – automatisierte Voraussagen, besonders wenn sie suggerativ formuliert sind, bergen eine besondere Gefahr. Experten empfehlen daher, dass KI-Anwendungen mit klaren Hinweisen zur Einordnung der Daten und Ergebnisse ausgestattet sein sollten, um Fehlinterpretationen zu vermeiden. Ebenso ist die Aufklärung der Nutzer über die Grenzen und Risiken im Umgang mit AI unabdingbar. Gerade in vertraulichen oder emotional aufgeladenen Kontexten sollte eine Beratung durch Menschen mit Erfahrung und Verständnis immer Vorrang vor technikbasierten Vorhersagen haben.
Die griechische Geschichte ist zugleich ein Lehrstück dafür, wie gesellschaftliche Trends und digitale Innovationen zusammenwirken. Immer mehr Menschen wenden sich künstlichen Intelligenzen zu, um Antworten auf Fragen zu finden – sei es beruflich, privat oder im spirituellen Bereich. Diese Entwicklung verlangt eine kritische Auseinandersetzung mit ethischen Standards, Datenschutz, Verantwortlichkeiten und auch der menschlichen Vernunft. Abschließend bleibt zu sagen, dass weder das Kaffeesatzlesen traditionell noch die Nutzung von ChatGPT per se problematisch sind. Problematisch wird es erst dann, wenn Informationen ohne Prüfung als unfehlbare Wahrheit angenommen werden und daraus Handlungen mit gravierenden Folgen resultieren.
Die Geschichte aus Griechenland mahnt zu einem bewussten und reflektierten Umgang mit künstlicher Intelligenz, insbesondere in einer Welt, in der die Grenzen zwischen Realität, Täuschung und Algorithmus zunehmend verschwimmen.