Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat in vielen Bereichen unseres Lebens Einzug gehalten – auch im Rekrutierungsprozess. Immer mehr Unternehmen setzen auf remote geführte Vorstellungsgespräche, um Talente weltweit zu finden. Leider nutzen manche Bewerber inzwischen KI-Tools, um ihre Antworten in Echtzeit zu generieren, die eigene Stimme zu verändern oder sogar ihr Gesicht zu manipulieren. Diese wachsende Herausforderung erfordert von Personalentscheidern neue Ansätze, um Authentizität zu gewährleisten und Manipulationen zu erkennen. Doch wie kann man den Einsatz von KI während Interviews effektiv aufdecken und unterbinden? Im Folgenden werden verschiedenste Methoden und Maßnahmen erläutert, mit denen Unternehmen KI-Manipulationen begegnen können, um faire Auswahlprozesse sicherzustellen.
Ein erster wichtiger Schritt ist die transparente Kommunikation vor dem Interview. Bewerber sollten über die existierenden Anti-Cheat-Vorkehrungen zumindest informiert werden, ohne jedoch zu viel preiszugeben. Diese Art von Abschreckung senkt die Anzahl der unehrlichen Bewerbungen und reduziert gleichzeitig den Aufwand für Recruiting-Teams. Neben der Kommunikation spielt die gezielte Beobachtung der Umgebung eine zentrale Rolle. Bereits zu Beginn des Gesprächs kann der Kandidat gebeten werden, mit der Webcam den Raum zu zeigen, in dem er sich befindet.
Auf diese Weise lassen sich mögliche verborgene Geräte entdecken, die verwendet werden könnten, um Antworten von einer KI abzurufen. Außerdem geben Details der Umgebung Rückschlüsse darauf, ob jemand alleine wohnt oder ob sich unbemerkt Helfer oder technische Geräte im Raum befinden. Das Teilen des Bildschirms wird zunehmend zur Standardvorgehensweise bei virtuellen Interviews. Dabei sollte der gesamte Bildschirm und nicht nur ein einzelnes Programm oder Fenster sichtbar gemacht werden. Ein vollständiger Bildschirm-Stream erhöht die Wahrscheinlichkeit, versteckte Anwendungen aufzudecken, mit denen ein Bewerber sich Unterstützung holt.
Durch einen Blick auf die geöffneten Browser-Tabs können Repräsentanten auch rasch auf auffällige Namen wie etwa „ChatGPT“, „KI-Helfer“ oder ähnliche Hinweise aufmerksam werden. Neben der Softwareüberwachung lohnt sich die genaue Beobachtung des Kandidaten. Gerade kleine Details wie das Tragen von unauffälligen Ohrhörern oder speziellen Brillen mit Videoeinblendungen (wie etwa die Ray-Ban Meta-Brille) können Hinweise auf unerlaubte Hilfsmittel darstellen. Fragen Sie den Bewerber, ob Sie kurz die Ohren zeigen können und beobachten Sie dabei aufmerksam bewegte Gesichtszüge, um Verdachtsmomente von Deepfake-Technologien herauszufiltern. Bewegungen wie das Winken mit der Hand vor dem Gesicht bringen in Kombination mit einer Rückwinke-Reaktion oft Unstimmigkeiten ans Licht, die maschinell generierte Gesichter verraten.
Auch wenn diese Methoden effektiv sind, stoßen sie bei längeren Interviews am heimischen Arbeitsplatz häufig an Grenzen. Es ist kaum kontrollierbar, ob nach einer gewissen Zeit eine zweite Person mit einem weiteren Gerät hinzugezogen wird, um Antworten zu liefern. Deshalb bieten sich alternative Intervieworte an. Die Durchführung in neutralen, öffentlichen Umgebungen wie Cafés, Bibliotheken oder sogar Sportstadien sorgt für eine natürliche Beobachtungssituation, die technische Manipulationen erschwert. Hier spielt auch der Einsatz von lokalen Invigilatoren eine wichtige Rolle – Personen, die als Aufsicht während des Gesprächs fungieren, den Kandidaten beobachten, ihn identifizieren und auf Auffälligkeiten achten.
Plattformen wie Fiverr oder Upwork ermöglichen das schnelle Engagement solcher unabhängigen Beobachter mit Erfahrung in der Betrugserkennung. Um eine noch höhere Sicherheit zu gewährleisten, kombiniert man diesen Invigilator idealerweise mit einem eigenen Mitarbeiter, der ebenfalls diskret vor Ort mitfiebert und für zusätzliche Kontrolle sorgt. So lässt sich das Risiko von Komplizenschaften und Korruption minimieren. Ein weiterer, sehr wirkungsvoller Ansatz besteht darin, Fragen einzubauen, die selbst für hochentwickelte KI-Systeme nur schwer authentisch beantwortbar sind. Beispielsweise können persönliche, emotionale oder ungewöhnliche Fragen gestellt werden, wie „Wie fühlt es sich an, die Hand eines geliebten Menschen zu halten?“ oder nach Präferenzen bei sehr speziellen Produkten gefragt werden.
Zusätzlich fordert man den Kandidaten idealerweise dazu auf, den eigenen Denkprozess offen und nachvollziehbar zu erklären – etwa, indem er jeden einzelnen Schritt einer Antwort erläutert oder in eigenen Worten reflektiert. Maschinen sind nicht in der Lage, solche subjektiven und körperbezogenen Erfahrungen glaubhaft darzustellen oder spontan menschliche Empathie auszudrücken. Auch kleine technische Tricks können die Wahrscheinlichkeit des Erkennens erhöhen. Beispielsweise kann man darum bitten, dass der Bewerber während des Interviews einen großen Spiegel hinter sich positioniert. Reflektionen können helfen, verdeckte Geräte oder unnatürliche Manipulationen zu enttarnen.
Die Forschung arbeitet kontinuierlich an wirksamen Methoden, um KI-Manipulationen bei Interviews zu entlarven. So haben Studien wie die von Voight-Kampff et al. neue Erkenntnisse gewonnen, die dabei helfen, Mensch und Maschine zu unterscheiden. Insgesamt bedarf es einer Kombination aus proaktiver Prävention, technischer Kontrolle und psychologischer Einschätzung, um die Herausforderungen moderner KI gezielt zu adressieren. Zusammengefasst bedeutet dies: Unternehmen sollten transparente Anti-Betrugs-Richtlinien kommunizieren, die räumliche Umgebung der Kandidaten genau unter die Lupe nehmen, Bildschirm- und Geräteüberwachung durchführen sowie ortsunabhängige und öffentliche Interviewsettings fördern.
Eingespielte lokale Aufsichtspersonen erhöhen die Verlässlichkeit und die Wahl passender Fragestellungen definiert den Grad der Authentizität. Das Ziel liegt darin, ein faires, sicheres und zugleich menschliches Interviewerlebnis zu gestalten, das Talente aus der ganzen Welt willkommen heißt, ohne digitale Manipulationen zu erlauben. Nur so kann eine New-Work-Zukunft entstehen, in der Technologie Chancen eröffnet und nicht das Vertrauen untergräbt.