Mensch oder Maschine: Der Computer sagt „Nein“ – Überlegungen für Arbeitgeber, die KI-Technologie bei Einstellungs- und anderen Personalprozessen einsetzen | Denton

Home » Mensch oder Maschine: Der Computer sagt „Nein“ – Überlegungen für Arbeitgeber, die KI-Technologie bei Einstellungs- und anderen Personalprozessen einsetzen | Denton

Organisationen verwenden zunehmend Algorithmen und automatisierte Entscheidungsfindung, um ihnen zu helfen, Entscheidungen über Menschen zu treffen, aber wie weit ist dies ein Schritt in die richtige Richtung?

Viele Arbeitgeber integrieren jetzt Algorithmen und automatisierte Entscheidungsfindung in Einstellungs- und andere Personalprozesse. Die London School of Economics and Political Science berichtete kürzlich, dass mehr als 60 % der Unternehmen infolge von COVID-19 neue digitale Technologien und Managementpraktiken eingeführt haben. Unsere eigene KI-Umfrage von Dentons hat ergeben, dass 60 % der Unternehmen heute KI einsetzen oder testen.

Während der Einsatz dieser KI-Tools einem Unternehmen Vorteile wie Geschwindigkeit und Kosteneinsparungen bietet, sollten Arbeitgeber sich der rechtlichen Auswirkungen bewusst sein, die eine übermäßige Abhängigkeit von KI ohne angemessenes Verständnis der vorhandenen rechtlichen Risiken und Kontrollen mit sich bringt.

Berücksichtigung des Datenschutzrechts

Die britische DSGVO (wie sie für das Vereinigte Königreich nach dem Brexit gilt) sieht vor, dass Daten „rechtmäßig, fair und transparent“ verarbeitet werden sollten. Die Komplexität der Erklärung von KI-Entscheidungsprozessen stellt eine Herausforderung dar. Hier ist jedoch die Klarheit der Logik (wenn nicht technische Details) am wichtigsten. Es werden auch Technologien entwickelt, die zu mehr Klarheit beitragen sollen.

Darüber hinaus müssen Unternehmen sicherstellen, dass die Verarbeitung von Mitarbeiterdaten keine unangemessen nachteiligen Auswirkungen auf den Einzelnen hat. Dies wäre eine „unfaire“ Behandlung. Es würde wahrscheinlich auch bedeuten, dass sie sich nicht auf „berechtigte Interessen“ als Rechtsgrundlage für die Verarbeitung berufen könnten (und eine andere Grundlage für die Verarbeitung erforderlich wäre).

Wenn Organisationen Algorithmen verwenden, um Daten besonderer Kategorien (z. B. Gesundheit, Rasse und Religion) zu verarbeiten, erfordert dies einen größeren Schutz. Höchstwahrscheinlich ist eine ausdrückliche Zustimmung erforderlich, es sei denn, die Verwendung erfolgt in einer Weise, die zur Einhaltung arbeitsrechtlicher Anforderungen erforderlich ist. Diese Umstände dürften in der Praxis begrenzt sein, und es ist schwierig, sich in einem Beschäftigungskontext auf die Einwilligung zu berufen (siehe unten). Daher sollte die Verwendung spezieller Kategoriedaten zur Unterstützung von KI sehr sorgfältig abgewogen werden.

Darüber hinaus gibt es Regelungen zur „automatisierten Entscheidungsfindung“. Die UK GDPR verbietet ausdrücklich „einzigartig automatisierte Entscheidungsfindung mit ähnlicher rechtlicher oder erheblicher Wirkung“, es sei denn:

  • Sie haben die ausdrückliche Zustimmung der Person;
  • die Entscheidung ist für den Abschluss oder die Erfüllung eines Vertrags erforderlich; Woher
  • es ist durch das Recht der EU oder der Mitgliedstaaten zugelassen.

Als erstes Kriterium gilt hier, ob das Ergebnis der AI-Entscheidung eine „erhebliche rechtliche oder ähnliche Wirkung“ hat. Nicht alle KI-Entscheidungen erfüllen diese Anforderung. Es wird jedoch viele im Beschäftigungskontext geben, die Folgendes können: Kandidaten-Screening-Tools; Tools zur Beurteilung der Rolleneignung usw.

Die Gründe für die Zulassung dieser Tätigkeit legen eine hohe Messlatte für Arbeitgeber fest. Die Einwilligung scheint in einem Beschäftigungskontext am relevantesten zu sein, aber es besteht die Gefahr, dass das Machtungleichgewicht zwischen einem Stellenbewerber und einem potenziellen Arbeitgeber dazu führen kann, dass die Einwilligung nicht als freiwillig erteilt (und damit als ungültig) angesehen wird. Wenn die Einwilligung als Grundlage für die Verarbeitung herangezogen wird, sollten Organisationen auch bedenken, dass Einzelpersonen das Recht haben, die Einwilligung jederzeit unbeschadet zu verweigern oder zu widerrufen (in der Praxis bedeutet dies, dass sie das Recht haben könnten, zu einem Prozess überzugehen die keine Automatisierung beinhaltet).

Was für einen Vertragsabschluss „erforderlich“ ist, kann schwer zu ermitteln sein. In den Leitlinien des Information Commissioner’s Office heißt es, dass die Verarbeitung ein gezielter und verhältnismäßiger Schritt sein muss, der integraler Bestandteil der Erbringung der vertraglich vereinbarten Dienstleistung oder der Durchführung der angeforderten Maßnahme ist. Diese Ausnahme gilt nicht, wenn ein anderer menschlicher Entscheidungsprozess verfügbar war.

Daher ist ein gezielter Einsatz dieser Technologie in diesen wichtigen Entscheidungsprozessen – die eine menschliche Entscheidung eher unterstützen als ersetzen – erforderlich, um zu vermeiden, auf einige DSGVO-Hürden zu stoßen.

Vor der Einführung von Algorithmen und automatisierter Entscheidungsfindung als Teil eines Prozesses sollten Organisationen eine Datenschutz-Folgenabschätzung erstellen (DSFA), um Datenschutzrisiken zu analysieren, zu identifizieren und zu minimieren, um die Einhaltung der britischen DSGVO sicherzustellen.

Überprüfung des Gleichstellungsgesetzes 2010

Algorithmen werden von Menschen geschaffen und sind daher von Natur aus anfällig für bestimmte Vorurteile. Eine erhebliche Besorgnis könnte entstehen, wenn der Algorithmus versehentlich zu einer Diskriminierung führt, die gegen das Gleichbehandlungsgesetz verstößt.

Beispielsweise könnte ein automatisiertes Rekrutierungssystem diskriminieren, wenn es:

  • bevorzugt ein Geschlecht gegenüber einem anderen (einschließlich einer stärkeren Bewertung der von männlichen Kandidaten häufiger verwendeten Sprache als der von Frauen häufiger verwendeten Sprache);
  • misst der Dienstzeit in früheren Funktionen ein unverhältnismäßiges Gewicht gegenüber Erfahrung/Fähigkeiten bei, was zu Risiken der Altersdiskriminierung führen könnte; Woher
  • erkennt ausländische Qualifikationen nicht auf die gleiche Weise an wie solche aus dem Vereinigten Königreich (was einen Arbeitgeber Klagen wegen Rassendiskriminierung aussetzen könnte).

Jeder automatisierte Entscheidungsprozess, der keinen Schutz vor Diskriminierung aufgrund einer Behinderung und angemessene Anpassungen bietet, könnte den Arbeitgeber ebenfalls gefährden. Es gibt Beispiele von Menschen, deren Behinderung ihre Fähigkeit beeinträchtigt, Multiple-Choice-Tests zufriedenstellend zu beantworten, obwohl sie die Frage mit Freitext beantworten können. Ein automatisierter Prozess, der keine Flexibilität beinhaltet (einschließlich geeigneter Auslöser für menschliche Kontrollen), könnte zu Gleichstellungsproblemen führen.

Ein robustes KI-Tool kann Rekrutierungskandidaten empfehlen, die eine Organisation überraschen. Wir wissen, dass gemischte Teams gut funktionieren, aber das spiegelt sich nicht immer in Einstellungsentscheidungen wider. Diversität und eine Reihe von Persönlichkeitstypen können bestehende (oft unbewusste) Präferenzen in Bezug auf den Teamzusammenhalt herausfordern. Dies könnte dazu führen, dass sich Personalvermittler fragen, ob das KI-Tool einen Fehler gemacht hat und geändert/storniert werden muss, oder ob es stattdessen eine potenzielle Verzerrung im menschlichen Entscheidungsprozess aufgedeckt hat, die bis jetzt unkontrolliert geblieben ist.

Überlegungen für Arbeitgeber

Vorurteile und Diskriminierungen können leider in KI-Tools gefunden werden, die oft unbeabsichtigt von den Menschen stammen, die sie programmieren, oder von inhärenten Vorurteilen in den Datensätzen, die zum „Trainieren“ der Technologie verwendet werden.

Trotzdem kann KI auch die Lösung (oder zumindest ein nützlicher Teil davon) sein, um zu gerechteren Entscheidungen zu gelangen. Mit der Weiterentwicklung der Technologie können Algorithmen so programmiert werden, dass sie Diskriminierung und Voreingenommenheit bei der Entscheidungsfindung erkennen und hoffentlich reduzieren. Und vielleicht sollten wir bereit sein, einige überraschende Ergebnisse der KI zu akzeptieren, die tatsächlich nicht identifizierte Vorurteile im menschlichen Entscheidungsprozess korrigieren (1:0 menschlicher Roboter).