KI im Bewerbungsprozess: Chancen, Risiken und Empfehlungen

Passende Arbeitshilfen
1. Chancen: Effizienz, Transparenz und Inklusion
- Der Einsatz von KI im Bewerbungsprozess kann Bewerbungsverfahren effizienter, nachvollziehbarer und durch dokumentierte Prozesse transparenter gestalten. Diese Faktoren können zu gerechteren Verfahren führen – vorausgesetzt, die Systeme sind diskriminierungssensibel konzipiert und nachvollziehbar ausgestaltet.
- Um Potenziale wie Effizienz oder Fairness optimal zu nutzen, sollten die konkreten Ziele und Anforderungen vor dem Einsatz der KI definiert werden. Dabei sind einerseits generelle Aspekte von Arbeitsverhältnissen zu beachten (z. B. Wertschätzung, Gewinnung möglichst vieler geeigneter Bewerbender, Zeitersparnis, Klärung von Erwartungshaltungen), andererseits spezifische Anforderungen einzelner Stellen (z. B. IT-Affinität, soziale Kompetenzen, barrierefreie Zugänge).
- KI im Bewerbungsprozess kann insbesondere dann förderlich für Personen mit spezifischen Bedürfnissen sein, wenn die Systeme entsprechend barrierefrei und inklusiv gestaltet wurden. Studien belegen denn auch, dass Organisationen mit klarer Diversitätsstrategie innovationsstärker, resilienter und wirtschaftlich erfolgreicher sind (ZHAW, 2022).
- Viele Stellenbeschreibungen enthalten Anforderungen, die kaum durch eine einzelne Person vollständig erfüllt werden können. Diese Anforderungen sollten überprüft werden, da bestimmte Kompetenzen durch Digitalisierung oder KI unterstützt oder ersetzt werden können – z. B. bei Übersetzungen, organisatorischen Abläufen oder Präsenzanforderungen.
- Ein weiterer Nutzen liegt in der internen Weiterbildung: Der Einsatz von KI fordert HR-Teams heraus, eigene Prozesse, Werte und Kompetenzen zu hinterfragen und weiterzuentwickeln.
2. Risiken bei KI im Bewerbungsprozess: Ineffizienz, Intransparenz und Diskriminierung
- Mehr Bewerbungsunterlagen und -verfahren führen nicht automatisch zu besseren Ergebnissen. Bewerbungsfluten können HR-Teams überfordern und Bewerbende abschrecken.
- Resultate von KI-Systemen sind bei komplexen Modellen schwer oder nicht nachvollziehbar. Zudem besteht das Risiko sogenannter "Halluzinationen" – also sachlich unzutreffender Inhalte, die dennoch überzeugend erscheinen und zu Fehlentscheiden führen können.
- Technische Barrieren können insbesondere Personen ausschliessen, die weniger IT-affin sind.
- In Arbeitsbeziehungen spielen persönliche Verhältnisse eine grosse Rolle, die von Maschinen nur schwer eingeschätzt werden können.
- Bewerbende können sich nicht wertgeschätzt fühlen, wenn sie mit Avataren kommunizieren oder automatisiert vorselektiert werden.
- Ungeeignete Algorithmen können zu Fehlentscheidungen führen.
- Diskriminierende Trainingsdaten führen häufig zu diskriminierenden Ergebnissen.
I. Verantwortung wahrnehmen
Der Einsatz von KI entbindet Arbeitgeber*innen nicht von ihren rechtlichen und ethischen Verantwortlichkeiten. Auch wenn KI-gestützte Systeme eingesetzt werden, verbleibt die Verantwortung für diskriminierungsfreie, faire und rechtskonforme Bewerbungsverfahren stets bei den Verantwortlichen.
Dabei ist im Einzelfall zu prüfen, ob sektorspezifische, internationale oder ausländische Rechtsgrundlagen Anwendung finden. So können z. B. besondere Vorschriften für den öffentlichen Dienst oder international tätige Unternehmen gelten.
1. Schweizer Rechtsgrundlagen
- Die Bundesverfassung garantiert Diskriminierungsfreiheit.
- Das Gleichstellungsgesetz schützt die Gleichstellung von Mann und Frau im Erwerbsleben – auch vor automatisierten Benachteiligungen.
- Laut EDÖB (2023) ist das Datenschutzgesetz auch auf KI-Anwendungen anwendbar, soweit diese Personendaten verarbeiten. Es verpflichtet Unternehmen, Daten ausschliesslich rechtmässig, verhältnismässig und zweckgebunden zu bearbeiten. Unrechtmässige Datensammlungen sind zu vermeiden, Bestimmungen über Persönlichkeitsprofile zu beachten. Besonders schützenswerte Daten – etwa zur ethnischen Herkunft oder Gesundheit – unterliegen erhöhtem Schutz. Bewerbende haben Anspruch auf Information über automatisierte Entscheide, Korrektur ihrer Daten sowie auf menschliche Überprüfung.
- Zudem verpflichtet das Obligationenrecht zur Wahrung der Persönlichkeit der Arbeitnehmenden – auch im digitalen Rekrutierungsverfahren.
2. Internationales Recht
- Die EMRK schützt vor Diskriminierung – auch bei digitalen Verfahren.
- Die Europarats-Konvention über KI (2024) fordert menschenrechtliche Bewertungen und Kontrollmechanismen (nicht von allen Staaten ratifiziert).
- Der EU AI Act stuft Systeme zur Personalauswahl als Hochrisiko-KI ein. Er verlangt u. a. Dokumentation, Transparenz, Risikoanalysen, menschliche Kontrolle und CE-Kennzeichnung. Auch Schweizer Unternehmen müssen diese Anforderungen erfüllen, wenn ihre Systeme in der EU eingesetzt oder deren Ergebnisse dort verwendet werden.
II. Empfehlungen
- Rechtliche Orientierung: Unternehmen sollten sich frühzeitig mit den rechtlichen Rahmenbedingungen befassen. Eine Orientierung an den Vorgaben des EU-Rechts ist ratsam – auch im Hinblick auf internationale Geschäftsbeziehungen und künftige Anpassungen des Schweizer Rechts.
- Ziele und Prozesse prüfen: Vor dem Einsatz von KI ist zu klären, welche konkreten Ziele erreicht werden sollen. Diese Reflexion eröffnet auch die Möglichkeit, bestehende Prozesse sowie Anforderungen in Stelleninseraten kritisch zu hinterfragen.
- Zwischenmenschliche Verfahren stärken: Trotz Digitalisierung bleibt der persönliche Kontakt entscheidend. Wertschätzung, Gespräche und transparente Kommunikation stärken Vertrauen und fördern langfristige Bindung.
- Interne Weiterbildung: HR-Teams sollten in der Anwendung und Bewertung von KI im Bewerbungsprozess geschult sein. Fehlerfreundliche Testformate helfen, Kompetenzen praxisnah aufzubauen.
- KI-Entscheide menschlich überprüfen: Jede Entscheidung, die auf KI-Resultaten basiert, muss von einer verantwortlichen Person überprüft und – wenn nötig – korrigiert werden.
- Personendaten anonymisieren oder pseudonymisieren: Die frühzeitige Anonymisierung oder Pseudonymisierung von Personendaten reduziert Risiken und schützt sensible Informationen.
Seminar-Empfehlungen
III. Praxisleitfaden
Merksatz: KI-Systeme dienen den Menschen und den Unternehmenszielen. Die Verantwortlichen nutzen die KI fair, nachvollziehbar und kontrolliert.
Checkliste: KI im Bewerbungsprozess verantwortungsvoll einsetzen
| Massnahme | Ziel |
| Rechtsgrundlagen prüfen | Rechtskonformität gewährleisten |
| Bewerbende transparent informieren | Vertrauen und Klarheit schaffen |
| Mitarbeitende schulen & motivierende Formate nutzen | Weiterbildung, Sensibilisierung für Fairness und Vielfalt |
| Ethische Kriterien wahren & Entscheidungen offenlegen | Qualität sichern und Benachteiligung vermeiden |
| je nach Position: Wahlmöglichkeiten im Prozess anbieten | Technische Barrieren abbauen |
| je nach Position: Bewerbungsgespräche digital gestalten | Digitale Kompetenzen erfassen |
| individuelle Budgets für digitale Hilfsmittel prüfen | Digitale Kompetenzen fördern |
| KI-Entscheide menschlich überprüfen | Verantwortung wahren, Fehlentscheide vermeiden |
| Personendaten anonymisieren oder pseudonymisieren | Datenschutz verbessern und Diskriminierung vorbeugen |
| Technische Dokumentation & Nachvollziehbarkeit sicherstellen | Transparenz, Kontrolle, rechtliche Absicherung |
| Systeme auf systematische Benachteiligung testen | Diskriminierung erkennen und vermeiden |
| Feedbackmöglichkeiten für Bewerbende schaffen | Vertrauen stärken, Verfahren verbessern |
| Interne Verantwortlichkeiten klar benennen (Governance) | Zurechenbarkeit und Compliance gewährleisten |
Beispielfragen für Interviews
- Welche Erfahrungen haben Sie mit dem Einsatz von KI im Arbeitskontext gemacht?
- Wie setzen Sie KI konkret zur Unterstützung Ihrer Aufgaben ein?
- Wie nutzen Sie KI, um persönliche Schwächen zu kompensieren?
- In welchen Unternehmensbereichen könnte KI die Effizienz und Zielerreichung unterstützen?
Ausgewählte Quellen & Studien
- Zürcher Hochschule für Angewandte Wissenschaften, Diversität & Inklusion als Wettbewerbsvorteil, Studie im Auftrag von Swiss Diversity,
School of Management and Law (2022) - AlgorithmWatch (2025). FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation: https://www.algorithmwatch.org/en/project/findhr/