Die Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht. Besonders ChatGPT von OpenAI hat sich als eines der führenden Sprachmodelle etabliert und begeistert Nutzer weltweit mit seinen vielfältigen Einsatzmöglichkeiten. Doch mit einer im April 2025 eingeführten Funktion namens „Gedächtnis-Dossier“ hat das Tool für Diskussionen und Unsicherheiten gesorgt. Dieses neue Feature ermöglicht es ChatGPT, auf alle bisherigen Gespräche eines Nutzers zuzugreifen und diese Informationen zu nutzen, um zukünftige Antworten personalisierter und kontextbezogener zu gestalten. Trotz der offensichtlichen Vorteile gibt es zahlreiche Gründe, warum viele Anwender diese Neuerung kritisch sehen.
In den folgenden Abschnitten soll näher erläutert werden, warum das Gedächtnis-Dossier bei bestimmten Nutzergruppen auf Ablehnung stößt und welche Konsequenzen sich daraus ergeben. Zunächst einmal ist es wichtig zu verstehen, was genau das Gedächtnis-Dossier bei ChatGPT tut. Im Gegensatz zur bisherigen Version, in der das Modell nach jeder Sitzung quasi einen „Reset“ erhielt und sich nicht an frühere Chats erinnerte, werden nun sämtliche Unterhaltungen im Hintergrund analysiert und in einer Art zusammenfassendem Profil gespeichert. Dieses Profil fungiert als konstanter Kontext bei künftigen Interaktionen. So kann ChatGPT sich beispielsweise an persönliche Interessen, Vorlieben oder auch vergangene Fragestellungen erinnern und darauf eingehen, ohne dass diese erneut explizit genannt werden müssen.
Aus Sicht vieler Nutzer erscheint dies als eine intuitive Funktion, denn es ist verständlich, dass man von einem KI-System erwartet, dass es wie ein echter Gesprächspartner „mitdenkt“ und vergessene Details nicht ständig wiederholt werden müssen. Doch genau hier liegen die ersten Probleme. Für viele Power-User, die ihre Unterhaltungen mit ChatGPT bewusst steuern und präzise steuern wollen, führt das Gedächtnis-Dossier zu einer gravierenden Einschränkung der Kontrolle. Bislang konnte man bei ChatGPT-Chats den Kontext ganz gezielt steuern, da alte Konversationen nicht automatisch berücksichtigt wurden. Nun sieht sich der Nutzer mit einem „unsichtbaren“ Einfluss konfrontiert, da vergangene Gespräche und deren Inhalte ständig und automatisch in die aktuelle Sitzung einfließen, ohne dass er das immer direkt nachvollziehen kann.
Dies führt häufig zu unerwarteten Antworten oder Einflüssen, die den eigentlichen Zweck des aktuellen Chats stören. So berichten Anwender beispielsweise von einer absurd wirkenden Vermischung persönlicher Hobbys mit beruflichen Anfragen, was die Qualität und Zielgerichtetheit der Antwort erheblich beeinträchtigen kann. Ein konkretes Beispiel, das diese Problematik illustriert, stammt von Simon Willison, der in einem Blogbeitrag seine Frustration über das neue Feature schildert. Er hatte ChatGPT gebeten, ein Bild seines Hundes in einem Pelikankostüm zu bearbeiten. In der generierten Antwort tauchte unerwartet ein Hinweis auf „Half Moon Bay“ auf – eine Ortsangabe, die nicht Teil der Anfrage war, sondern aus früheren Unterhaltungen stammte.
Dieses Beispiel zeigt, wie der vermeintlich hilfreiche Kontext aus der Vergangenheit eigene Ideen oder Details ungewollt einbringt. Für erfahrene Nutzer, die sehr genau wissen wollen, wie das KI-Modell auf ihre Eingaben reagiert, ist die mangelnde Transparenz ein großes Manko. Der Einfluss der Vergangenheit auf aktuelle Ergebnisse wird als unangenehme Einschränkung der kontextuellen Steuerbarkeit empfunden. Darüber hinaus stellt die Neuerung erhebliche Anforderungen an das Datenschutzbewusstsein der Nutzer. Indem sämtliche Gespräche inklusive persönlicher Präferenzen, regionaler Bezüge und technischer Interessen gespeichert und ausgewertet werden, baut ChatGPT ein äußerst detailliertes Profil seiner Anwender auf.
Zwar erfolgt diese Speicherung nur bei Nutzern mit kostenpflichtigem Plus- oder Pro-Abo, doch ist die Fülle der gesammelten Informationen beeindruckend. So werden beispielsweise technische Präferenzen zu Programmiersprachen und Entwicklungswerkzeugen, Umweltthemen, kulinarische Interessen sowie lokalbezogene Daten wie der Wohnort extrahiert und in einer zusammengefassten Form im Gedächtnis behalten. Dieses Profil wird bei jeder neuen Konversation als Kontext verwendet und beeinflusst damit direkt die Qualität und Relevanz der Antworten. Die Frage nach der Datensicherheit, der Kontrolle über diese gespeicherten Informationen und der Möglichkeit des gezielten Ausschlusses bestimmter Inhalte wird damit stärker in den Fokus gerückt. Die mangelnde Kontrolle über das Gedächtnis wird dabei von vielen Nutzern als der kritischste Aspekt angesehen.
Während vorher schon eine Option bestand, bestimmte Notizen oder Erinnerungen manuell zu löschen oder anzupassen, ist das mit dem neuen Gedächtnis-Dossier nicht mehr möglich. Der Nutzer kann das Feature entweder komplett deaktivieren oder – als Notlösung – einzelne Chats „archivieren“, um sie vom Gedächtnis auszuschließen. Dieser Lösungsansatz wirkt für Vielnutzer wenig praktikabel und ist unbefriedigend, wenn man die Absicht verfolgt, eine fein granulare Steuerung zu behalten. So wünschen sich Nutzer vielmehr eine Art Projektsystem, bei dem der Verlauf kontextbezogen gruppiert wird und sich die Memory-Funktion nur auf einzelne Projekte oder Themenbereiche erstreckt. Dies würde eine bessere Trennung der verschiedenen Nutzungsszenarien ermöglichen, beispielsweise das Führen einer Chat-Historie zum Lernen einer Fremdsprache, ohne dass dies die Ergebnisse in kreativen oder technischen Anfragen beeinflusst.
Vonseiten des Anbieters OpenAI gibt es erste Versuche, mit Hilfe von „Custom Instructions“ und „Projekten“ eine gewisse Anpassbarkeit herzustellen. Diese Funktionen erlauben es, die Persönlichkeit der KI in bestimmten Kontexten gezielt zu steuern oder vorgegebene Dokumente einzubinden. Allerdings ersetzen diese nur bedingt die klare Trennung oder selektive Nutzung des Gedächtnisses über längere Zeiträume. Nutzer wie Simon Willison schlagen daher vor, Memory-Funktionalitäten entweder projektbezogen oder mit feinsteuerbaren Ein- und Ausschaltoptionen anzubieten, um eine Balance zwischen Komfort, Privatsphäre und Kontrolle zu finden. Ein weiterer Punkt, der bei ChatGPT-Anwendern die Kritik an der neuen Gedächtnisfunktion verstärkt, liegt in der undurchsichtigen Umsetzung und fehlenden Dokumentation.
Viele Nutzer berichten, dass sie nur schwer herausfinden können, welche Informationen genau gespeichert werden, wie sie diese einsehen können und ob die gespeicherten Daten komplett oder nur teilweise verwendet werden. Die Existenz eines fortwährenden systemseitigen Übertrags wichtiger Details aus früheren Gesprächen in Form eines erweiterten Prompts gilt als eine Art „Black Box“. Diese Vorgehensweise erschwert es, die Ursachen für bestimmte Antworten oder Fehler transparent zu machen und untergräbt so das Vertrauen in die KI-Anwendung. In Nutzerforen und Diskussionen werden wiederholt transparente Kommunikationsmaßnahmen und erweiterte Nutzereinstellungen gefordert, um den Umgang mit gespeicherten Daten nachvollziehbarer und steuerbarer zu gestalten. Auch aus wissenschaftlicher und ethischer Perspektive ergibt sich eine spannende Debatte.
Das Gedächtnis-Dossier kann als Schritt hin zu einer personalisierteren, „menschlicheren“ KI interpretiert werden, die ihre Nutzer besser versteht und ihnen maßgeschneiderte Hilfe anbietet. Zugleich wirft es fundamentale Fragen zur Privatsphäre, Datenhoheit und informierten Einwilligung auf. Wie viel Datenhoheit soll ein KI-System haben? Wie viel Algorithmus muss ein Nutzer dem System vertrauen, ohne die Kontrolle zu verlieren? Und wie kann das Gleichgewicht zwischen Komfort und سایbersecurity geschützt werden? Diese Fragen sind in der aktuellen Diskussion zentral und verdeutlichen, wie wichtig transparent gestaltete Nutzerrechte und Kontrollmöglichkeiten sind, um die Akzeptanz solcher Features zu gewährleisten. Zusammenfassend lässt sich sagen, dass ChatGPTs neues Gedächtnis-Dossier zwar das Potenzial besitzt, die Nutzererfahrung zu verbessern und das Tool deutlich intuitiver und effektiver zu machen. Gleichzeitig schafft es jedoch Herausforderungen in Bezug auf Nutzungssteuerung, Datenschutz und Transparenz.
Viele erfahrene Anwender empfinden die fehlende Kontrolle über die aufgenommenen Informationen als hinderlich, insbesondere wenn vergangene, wenig relevante oder verspielte Unterhaltungen die Ergebnisse beeinträchtigen. Die Folge ist eine gewisse Unsicherheit darüber, wie genau das Modell arbeitet und welche Inhalte in der Historie tatsächlich eine Rolle spielen. Um die Bedenken der Nutzer abzubauen und das volle Potenzial des Gedächtnis-Features auszuschöpfen, wäre es wünschenswert, wenn OpenAI zusätzliche Optionen für eine detaillierte Steuerung anbietet. Eine projektbezogene Speicherfunktion, die Möglichkeit zum selektiven Bearbeiten und Löschen von gespeicherten Inhalten sowie transparente Einsicht in das eigene Profil könnten die Nutzerfreundlichkeit und das Vertrauen in das System enorm erhöhen. Darüber hinaus sollten klare und einfach zugängliche Informationen zum Umgang mit gespeicherten Daten sowie Austauschmöglichkeiten mit dem Support an erster Stelle stehen.
Letztlich steht die Entwicklung der KI in einem Spannungsfeld zwischen Innovation und Nutzerinteressen. Das Gedächtnis-Dossier markiert einen wichtigen Schritt in Richtung einer fortschreitenden Personalisierung, doch zeigt gleichzeitig, wie komplex die Frage nach Kontrolle und Datenschutz in der Praxis ist. Nutzer, Entwickler und Anbieter befinden sich in einem dynamischen Dialogprozess, der in den kommenden Monaten und Jahren noch viele Veränderungen mit sich bringen dürfte. Für den verantwortungsvollen und erfolgreichen Einsatz von KI-Technologien wird es entscheidend sein, diese Balance zu finden und die Bedürfnisse aller Beteiligten zu respektieren.