Die Integration von generativer Künstlicher Intelligenz (KI), insbesondere großer Sprachmodelle (LLMs), im Bereich des Recruitings revolutioniert den Einstellungsprozess. Unternehmen setzen immer häufiger auf Algorithmen, um Bewerberinnen und Bewerber zu sichten und herauszufiltern. Dies soll einerseits Effizienz steigern, andererseits auch objektivere Entscheidungen gewährleisten. Doch eine aktuelle Studie von Sugat Chaturvedi und Rochana Chaturvedi wirft ein kritisch nötiges Licht auf die mitunter versteckte Problematik von Geschlechterbias in diesen Technologien. Der Titel ihrer Untersuchung „Who Gets the Callback? Generative AI and Gender Bias“ bringt das zentrale Anliegen zum Ausdruck: Welche Bewerberinnen und Bewerber erhalten eigentlich die Einladung zum Vorstellungsgespräch, wenn ein KI-System die Vorauswahl trifft? Die Antwort ist nach wie vor nicht geschlechtsneutral.
Die Autoren haben anhand von 332.044 realen Stellenanzeigen analysiert, wie verschiedene Open-Source-LLMs auf männliche und weibliche Kandidaten reagieren, wenn ihnen gleich qualifizierte Bewerbungen gegenübergestellt werden. Ein zentrales Ergebnis ihrer Untersuchung ist, dass viele der getesteten Modelle zu Gunsten von männlichen Bewerbern entscheiden, besonders in Berufen mit höheren Gehältern. Diese Beobachtung spiegelt die tief verwurzelten sozialen und wirtschaftlichen Ungleichheiten wider, die bisher im Arbeitsmarkt bestehen. Es zeigt sich, dass die Algorithmen weder frei von historischen Verzerrungen sind, noch unabhängig agieren, sondern bestehende Stereotype reproduzieren und sogar verstärken.
Die Wissenschaftler haben die Stellenanzeigen zudem nach der Standard Occupational Classification systematisch klassifiziert. Hierbei ergaben sich klare Muster: In sogenannten Männerdomänen, also Berufen, die überwiegend von Männern ausgeübt werden, erhalten Frauen signifikant weniger Chancen auf einen Vorstellungstermin, während in beruflichen Feldern mit höherem Frauenanteil die Rückrufquoten für weibliche Kandidatinnen höher sind. Dies illustriert weiterhin die sogenannte berufliche Segregation, die in der Gesellschaft vorherrscht und sich auch algorithmisch reproduziert. Eine Analyse der sprachlichen Merkmale der Stellenanzeigen zeigt auf, dass prononciert stereotype Sprachmuster das Verhalten der Modelle mitbestimmen. Zum Beispiel führen Begrifflichkeiten, die traditionell als maskulin wahrgenommen werden, tendenziell zu männlicheren Modi in den Rückmeldungen der KI-Systeme, während weiblich konnotierte Begriffe ihre weiblichen Favoriten begünstigen.
Die Studie spricht damit eine wichtige Erkenntnis aus: Die Art und Weise, wie Stellenanzeigen formuliert sind, beeinflusst maßgeblich, wie generative KI-Bewerbungsassistenten Kandidaten bewerten. Es ist also nicht nur die reine Qualifikation, sondern auch die sprachliche Gestaltung, die Bias fördert oder verringert. Ein weiteres faszinierendes Experiment im Rahmen der Studie betrifft das Einbringen von Persönlichkeitselementen in die KI-Modelle. Indem die Experten sogenannte Big Five Persönlichkeitseigenschaften wie Verträglichkeit (Agreeableness) unterschiedlich stark akzentuieren oder gar historische Figuren simulieren, konnten sie das Antwortverhalten der Modelle steuern und modifizieren. Auffällig war, dass weniger verträgliche, also kritischere oder weniger empathische Personas dazu führten, dass die Geschlechterstereotype in den Empfehlungen geringfügig abnahmen.
Dieses Ergebnis legt nahe, dass ein Agreeableness-Bias – eine Tendenz zu Nachgiebigkeit und Harmoniestreben – in den aktuellen Modellen steckt. Für den Bereich Recruiting bedeutet diese Entdeckung, dass das Verhalten der KI stark durch ihre „Persönlichkeit“, sprich die zugrundeliegenden Trainingsdaten und Algorithmen beeinflusst ist und das Potenzial besteht, durch gezielte Anpassungen zumindest einen Teil der Verzerrungen zu minimieren. Die Implikationen dieser Forschung sind weitreichend. Unternehmen, die KI-basierte Systeme für die Personalauswahl einsetzen, laufen Gefahr, ungewollt Diskriminierung zu perpetuieren, was dem Anspruch auf Chancengleichheit und Diversity widerspricht. Gerade, weil KI viele Prozesse automatisiert und Entscheidungswege verkürzt, besteht die Gefahr einer verstärkten Opportunitätsungleichheit, wenn diese Bias unentdeckt bleiben.
Daher ist es geboten, KI-Anwendungen im Recruiting nicht nur auf technische Fehlerfreiheit hin zu überprüfen, sondern auch systematisch auf gesellschaftliche Fairnesskriterien und Schutz vor Diskriminierung. Dazu gehört die transparente Offenlegung von Trainingsdaten, regelmäßige Bias-Audits und eine Einbindung interdisziplinärer Teams in die Entwicklung. Ein weiterer Punkt ist die Sensibilisierung für die Bedeutung von Sprache in Stellenanzeigen. Personalverantwortliche sollten darauf achten, genderneutrale und inklusive Formulierungen zu verwenden, da dies nicht nur die tatsächliche Ansprache von Talenten verbessert, sondern auch die KI-Modelle auf eine geschlechtergerechtere Entscheidungsbasis stellt. Es zeigt sich, dass Technologie hier kein Allheilmittel darstellt, sondern vielmehr ein Spiegel der Gesellschaft ist, der bestehende Unzulänglichkeiten abbildet.
Ein bewusster Umgang mit den eingesetzten Systemen ermöglicht aber auch eine gezielte Steuerung hin zu mehr Fairness. Schließlich werfen die Ergebnisse die Frage auf, ob es nicht noch stärker personalisierte KI-Systeme braucht, die die Werte und Diversity-Ziele eines Unternehmens besser widerspiegeln. So könnte ein Recruiting-Algorithmus, der auf die individuelle Unternehmenskultur und ethische Leitlinien ausgelegt ist, diskriminierende Mechanismen gezielt ausbrem- sen und Chancen gerechter verteilen. Zusammenfassend verdeutlicht die Studie von Chaturvedi et al., dass generative KI beim Einstellungsprozess keineswegs geschlechtsneutral agiert.
Vielmehr reproduzieren und verstärken ihre Empfehlungen häufig tief verwurzelte strukturelle Ungleichheiten und Stereotype. Die Erkenntnisse fordern daher ein Umdenken sowohl bei der Entwicklung als auch beim Einsatz von KI-Systemen im Personalbereich. Nur durch bewusste Maßnahmen, Transparenz und interdisziplinäre Zusammenarbeit können Bias in KI abgebaut und eine inklusive Arbeitswelt gefördert werden, die Talent jenseits von Geschlechtergrenzen anerkennt. Die Herausforderung besteht darin, Technologien zum Fortschritt einer faireren Gesellschaft einzusetzen, statt sie unreflektiert vorhandene Vorurteile exponieren zu lassen. Der Blick auf die Rolle der generativen KI im Recruiting macht klar, dass technologische Innovationen nie losgelöst von gesellschaftlichen Kontexten zu betrachten sind.
Die Zukunft der Arbeit hängt somit maßgeblich davon ab, wie erfolgreich wir lernen, Künstliche Intelligenz verantwortungsbewusst und gerecht zu gestalten.