Neuer Ethikbeirat: Wenn Computer Bewerber auswählen

Künstliche Intelligenz ist mittlerweile zu allerlei in der Lage. Sie kann Autos steuern und medizinische Diagnosen stellen. Sie kann theoretisch auch Personalentscheidungen in Unternehmen treffen. Wer wird eingestellt? Wer wird zum Chef befördert? Solche Analysen einer Maschine zu überlassen klingt für Bewerber zuweilen gruselig, für Personalmanager dagegen oft verlockend. Manche – Bewerber wie Chefs – glauben sogar, der Computer könnte Personalentscheidungen viel neutraler treffen als ein vorurteilbeladener Mensch. Aber, wie es so oft ist mit selbst lernenden Maschinen, die Krux steckt im Detail: Entscheidet der Computer wirklich vorurteilsfrei? Oder lernt er aus den vorurteilbeladenen Entscheidungen, die vor ihm die menschlichen Personalverantwortlichen getroffen haben? Welche Daten braucht der Computer, und sind Mitarbeiterdaten nicht viel zu schützenswert? Schließlich: Sind die Systeme überhaupt wissenschaftlich in Ordnung oder die Eintrittskarte ins Reich der Scharlatanerie?

Weil all diese Fragen so kniffelig sind, gibt es seit kurzem einen so genannten „Ethikbeirat HR-Tech“. Darin sitzen Wissenschaftler, Gewerkschafter und (Personal-)Manager aus Unternehmen. Unter den Gründungsmitgliedern sind bekannte Namen wie Brigitte Zypries, frühere Justiz- und Wirtschaftsministerin und heute Schirmherrin des Start-up-Verbands, Reiner Hoffmann, Chef des Deutschen Gewerkschaftsbundes, Elke Eller, Personalvorstand des Reisekonzerns TUI, oder Bernd Irlenbusch, bekannter Wirtschaftsethik-Professor aus Köln.

Vergangene Woche hat der Beirat einen Entwurf für Richtlinien zum verantwortungsvollen Umgang mit KI in der Personalarbeit vorgestellt, an denen sich Betriebe künftig freiwillig entlanghangeln können. Bei Nichtbeachtung drohen zwar keine Konsequenzen, das Gremium verspricht sich aber mehr Transparenz und weniger Unsicherheit. Das Regelwerk umfasst zehn Punkte und ist noch in der Konsultationsphase, will heißen: Bis September haben alle Interessierten die Möglichkeit, die Richtlinien zu kommentieren und den Beirat aufzufordern, sie weiterzuentwickeln.

„Es geht hier um Menschen“

„Wenn es um das autonome Fahren geht, diskutieren wir ethische Fragen schon lange“, sagt Elke Eller während der Vorstellung des Entwurfs. Oft werde die Frage diskutiert, ob selbstfahrende Autos eher für die Oma bremsen sollten oder für die Frau mit Kinderwagen. Natürlich hat die Personalabteilung in der Regel nicht mit Entscheidungen über Leben und Tod zu tun, und doch: „Es geht hier um Menschen“, sagt Eller. Um ihren Beruf, ihr Einkommen, ihren Lebensunterhalt, manchmal auch: um einen guten Teil ihres Lebensinhaltes. „Da ist Orientierung nötig.“

Grob steht in den Richtlinien, dass KI in der Personalarbeit immer mit einem transparenten Ziel eingesetzt werden soll, dass die Systeme empirisch evaluiert sein müssen und dass die letzte Entscheidung am Ende immer der Mensch treffen sollte. Zudem sollte, wer KI-Lösungen in der Personalarbeit einsetzt, ihre Logik verstehen und erklären können. Organisationen, die KI-Lösungen nutzen, sollen ferner für die Ergebnisse haften. Mit personenbezogenen Daten ist, den Grundsätzen zufolge, sparsam umzugehen, sie sind nur zu einem im Vorfeld definierten Zweck zu verwenden. Alle Betroffenen sollen über die KI-Nutzung informiert werden. Die Daten müssen von hoher Qualität sein, systembedingte Diskriminierungen sind auszuschließen, und die KI muss stetig überprüft werden.

Der heikelste Punkt ist schließlich: Für die Nutzung von KI-Lösungen dürfen dem Regelwerk zufolge keine Daten erhoben und verwendet werden, welche der willentlichen Steuerung der Betroffenen grundsätzlich entzogen sind. In der Fachsprache spricht man von einer Verletzung der „Subjektqualität“, wenn KI-Instrumente den Menschen zum Objekt machen. Die neuen Richtlinien verurteilen damit pauschal alle Systeme, die auf Sprach-, Stimm- oder Mimikanalysen beruhen, Methoden, die die Gesichtszüge vermessen oder mit dem Hautwiderstand arbeiten – nach der Art von Lügendetektoren. All das unterliege nicht der willentlichen Steuerung des Menschen.

Kann der Mensch noch willentlich steuern, was da gemessen wird?

Delikat ist das deshalb, weil insbesondere Sprach- und Stimmanalysen in der deutschen Personalmanagerwelt einige Berühmtheit erlangt haben: Ein Aachener Unternehmen namens „Precire“ wirbt erfolgreich damit, mit Hilfe von KI aus etwa 15 Minuten langen Sprachproben, in denen Bewerber über Belanglosigkeit……………………………..

►► Um den vollständigen Text zu lesen, folgen Sie bitte dem Link…..

Lesen Sie auch:  Wir kümmern uns um Ihre Nachwuchskräfte

Quelle: Neuer Ethikbeirat: Wenn Computer Bewerber auswählen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.