Die Diagnostik von Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) bei Erwachsenen stellt Fachkräfte vor besondere Herausforderungen. Die Diagnosestellung beruht häufig auf umfassenden Interviews und subjektiven Selbstberichten, wobei objektive neuropsychologische Tests und Validitätsindikatoren ergänzend zum Einsatz kommen. In den letzten Jahren ist jedoch ein besorgniserregender Trend erkennbar: Immer mehr Studierende und andere Personen zeigen ein Interesse daran, ADHS-Symptome zu simulieren, um von den damit verbundenen Vorteilen zu profitieren – sei es durch Nachteilsausgleiche im Studium, den Zugang zu Medikamenten oder andere akademische und soziale Annehmlichkeiten. Die Verfügbarkeit umfangreicher Informationen im Internet erleichtert das gezielte Erlernen solcher Täuschungsstrategien erheblich und gefährdet somit die Zuverlässigkeit der Diagnostik. Eine aktuelle Studie aus den Niederlanden setzt sich genau mit dieser Problematik auseinander und untersucht erstmals empirisch, inwieweit ein KI-gestütztes Coaching, generiert durch den beliebten Chatbot ChatGPT-4, Studenten dabei unterstützt, eine ADHS-Diagnose erfolgreich vorzutäuschen.
Hierbei wurden zwei unterschiedliche Coaching-Methoden verglichen: ein klassisches Symptom-Coaching, das hauptsächlich auf der Vermittlung von diagnostischen Kriterien des DSM-5 basiert, und ein innovatives, von ChatGPT erzeugtes Informationsblatt, das neben Symptomen auch strategische Hinweise zum Verhalten und der Vermeidung von Enttarnung liefert. Die Studie rekrutierte 125 Psychologiestudierende, wobei nach Ausschlusskriterien 110 Teilnehmer verbleiben. Diese wurden in drei Gruppen unterteilt: eine Kontrollgruppe ohne Täuschungsaufgabe, eine Gruppe mit klassischem Symptom-Coaching und eine weitere mit KI-generiertem Coaching. Anschließend absolvierten alle Teilnehmer eine standardisierte neuropsychologische Testbatterie, die sowohl Selbstberichte zu ADHS-Symptomen als auch objektive Leistungsmessungen und Validitätsindikatoren enthielt. Die Ergebnisse zeigten, dass beide Täuschungsgruppen erwartungsgemäß höhere Symptome und schlechtere kognitive Leistungen aufwiesen als die Kontrollgruppe.
Spannend war jedoch der Vergleich der beiden Coaching-Gruppen untereinander: Die mit KI-coachenden Teilnehmern präsentierten ihre Symptome und funktionellen Einschränkungen deutlich nuancierter und vermieden extrem übertriebene oder offensichtlich inszenierte Defizite. Ihre Testergebnisse zeigten weniger starkes Leistungsversagen, welches sonst sehr typisch und auffällig für simulierte ADHS-Befunde ist. Damit wurde die Sensitivität der gängigen Symptom- und Leistungsgültigkeitstests zur Erkennung unglaubwürdiger Angaben in der KI-Gruppe spürbar reduziert. Anders ausgedrückt: Das KI-Coaching hat die Täuschungsversuche realistischer, glaubwürdiger und damit schwerer entlarvbar gemacht. Die durch ChatGPT erzeugte Coaching-Information war inhaltlich gut strukturiert und verständlich verfasst.
Sie enthielt nicht nur eine Übersicht über die ADHS-Diagnoseziele und typische Symptome, sondern ging explizit auf die diagnostisch angewandten Instrumente, typische Verhaltensweisen Betroffener und besonders relevante Bereiche kognitiver Schwächen ein. Zusätzlich gab die KI detaillierte Anleitungen, wie man auf Tests reagiert, um erbrachte Leistungen plausibel erscheinen zu lassen und trotz Symptombeschreibung nicht zu extrem zu agieren. Die Betonung lag auf Konsistenz und subtiler Darstellung statt auf Übertreibung oder auffälliger Schlechtleistung, die sofort Verdacht erregen würde. Wichtig zu beachten ist, dass die Forschungsgruppe ChatGPT bereits mit Kenntnissen über die verwendeten Diagnoseinstrumente fütterte, was vermutlich zu einer effektiveren und zielgerichteteren Coachingqualität beitrug. Ohne solche Vorkenntnisse würde die Fülle an generierten Informationen womöglich überfordernd wirken.
Dies legt nahe, dass vor allem Personen mit Interesse und Basiswissen die KI verschärft für die Vorbereitung auf eine Täuschung nutzen können. Dies stellt eine ernstzunehmende Gefahr für die Testintegrität dar, insbesondere wenn Testinhalte oder Vorgehensweisen öffentlich detailliert kommuniziert werden. Bereits vor dieser Studie wurde in der Fachliteratur vor den Risiken von Online-Informationen und inzwischen auch von KI-Tools gewarnt, da sie die Möglichkeiten zum digitalen „Symptom-Coaching“ erheblich erweitern. Die hier vorliegenden empirischen Daten untermauern diese Einschätzung eindrücklich: KI-basierte Unterstützung kann herkömmliches Coaching in puncto Wirksamkeit übertreffen und die Maskierung von Fehldiagnosen einfacher machen als bisher angenommen. Dies wirkt sich direkt auf die psychodiagnostische Praxis aus und zwingt Fachleute zum Umdenken hinsichtlich Test-Security und methodischer Robustheit.
Eine der wichtigsten Herausforderungen wird es sein, diagnostische Verfahren zu entwickeln oder anzupassen, die auch gegen solche hochentwickelten Täuschungsversuche effektiver sind. Dies könnte etwa durch die Entwicklung neuer Validitätsindizes, vermehrten Einbezug von Fremdbeurteilungen, oder den Einsatz fortschrittlicher digitaler Analyseverfahren geschehen. Zudem sollte die Sensibilisierung von Klinikerinnen und Kliniker für die Gefahr von KI-gestütztem Vortäuschen intensiviert werden, um Erfahrungen in der Praxis systematisch zu sammeln und zu reflektieren. Die Studie weist jedoch auch Limitationen auf, die für die Interpretation der Ergebnisse relevant sind. So war die Stichprobe mit Studierenden relativ homogen und behandelte keine reale Patientengruppe mit klinisch bestätigter ADHS.
Die angewandte Testbatterie umfasste ausgewählte, wenn auch häufig genutzte Instrumente, deren Generalisierbarkeit auf andere Testverfahren noch unklar bleibt. Außerdem könnte neuere oder kostenpflichtige ChatGPT-Versionen mit erweiterten Funktionen künftig noch differenziertere Coaching-Ergebnisse produzieren, was den Handlungsdruck auf Fachleute weiter erhöhen wird. Insgesamt verdeutlichen diese Erkenntnisse, dass Künstliche Intelligenz tiefgreifende Auswirkungen auf die psychologische Diagnostik hat, deren Tragweite gerade erst erforscht wird. Die Einbindung KI-gestützter Tools sollte daher immer auch kritisch hinsichtlich ethischer, forensischer und medizinischer Implikationen bewertet werden. Forschung und praktische Diagnostik müssen eng zusammenarbeiten, um neue Risiken zu antizipieren und Gegenstrategien wirksam zu implementieren.