Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Fundstücke

KI in Führungsrollen – effizient aber unsozial?

Ole Wintermann
Zum Kurator'innen-Profil
Ole WintermannSamstag, 15.10.2022

Algorithmen werden aus Kostengründen immer häufiger eingesetzt, um die teure Arbeit von Führungskräften teilweise zu ersetzen. Bewertungen der Arbeitsleistungen und Lebensläufen bis hin zur Entscheidung, wer als nächstes entlassen wird, sind inzwischen selbstverständliche Aufgaben, die der Algorithmus übernimmt.

Was aber ist, wenn eine weiterreichende künstliche Intelligenz (KI) nicht nur mechanistisch Entscheidungen trifft, sondern aus dem eigenen Lernen heraus Bewertungen durchführt? Über die Verzerrung von Bewertungen aufgrund des geschlechtlichen oder migrantischen Hintergrunds des Beschäftigten wurde in den letzten Jahren bereits viel geschrieben. 

Wie reagiert der KI-Mechanismus aber über diese Bias-Fragen hinaus betrachtet auf Notfälle wie den Ausfall der Kinderbetreuung, wie verständnisvoll reagiert er auf den ineffizienten Beschäftigten in dessen Einarbeitungszeit, wie geht die KI mit Fragen nach Gehaltssteigerungen um? 

Letztlich ist schon jetzt offensichtlich, dass der Einsatz von KI in Führungsrollen der Arbeitgeberin Kosten spart und den Profit steigert: Was aber haben die Beschäftigten davon? Können Beschäftigte künftig noch die Arbeitgeberin wie bisher auch für Fehlverhalten rechtlich belangen? Das Machtungleichgewicht verschiebt sich weiter zugunsten der Arbeitgeberin. Wollen wir das?

KI in Führungsrollen – effizient aber unsozial?

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Kommentare 3
  1. Silvio Andrae
    Silvio Andrae · vor 2 Jahren

    Noch ein bisschen Geduld. In 2023 soll der Artificial Intelligence Act (AIA) vom europäischen Gesetzgeber veröffentlicht werden. In den Art. 6-51 AIA werden die Hoch-Risiko-KI-Systeme reguliert. Daraus resultieren eine Vielzahl von Anforderungen. Unter anderem sollen menschliche Entscheider stets in der Lage sein, das Ergebnis eines solchen Hoch-Risiko-KI-Systems zu „überschreiben“ oder auch die Anwendung zu beenden. Das regel- und datenbasierte Modell soll also niemals die letzte Entscheidung treffen
    können. Die genannten Anwendungsbeispiele würden beispielsweise als solche Hoch-Risiko-Systeme charakterisiert werden.
    Mit Hinblick auf Antidiskriminierung versteht sich der AI als eine stärkende Maßnahme in Bezug auf den Nichtdiskriminierungsgrundsatz gemäß der Charta der Grundrechte der EU. Mit dem AIA stehen vor allem die Technologien im Vordergrund. In einem Interview antwortete die US-Mathematikerin Cathy O’Neil auf die Frage, ob es einen guten Algorithmus geben kann: „Das kommt auf den jeweiligen Kontext an. Bei Einstellungen bin ich optimistisch, aber wenn wir die interessierenden Ergebnisse […] und – was am wichtigsten ist – den Begriff der Fairness sowie die Schwellenwerte nicht gut definieren, dann könnten wir am Ende wirklich bedeutungslose Regeln haben, die zu sehr oroblematischen algorithmischen Einstellungssystemen führen." Eine wirksame Regulierung sollte sich daher auf die Ergebnisse und nicht auf technische Verfahren konzentrieren.

    1. Ole Wintermann
      Ole Wintermann · vor 2 Jahren

      Danke für diesen sehr wichtigen Hinweis und die Beschreibung des gesetzlichen Kontextes. Die Frage wird dann ja irgendwann sein, ob es einen Zeitpunkt gibt, ab dem die involvierten Menschen nicht tatsächlich die Entscheidungen durch einen Algorithmus treffen lassen *wollen*, da ihnen die menschlichen Entscheidungslogiken zu willkürlich erscheinen?

    2. Silvio Andrae
      Silvio Andrae · vor 2 Jahren

      @Ole Wintermann Das ist in der Tat ein sehr guter Punkt. Er betrifft das Thema "Reduktion". Dazu möchte ich gern das Buch "Against Reduction: Designing a Human Future with Machines" (MIT Press) empfehlen. Das Autorenteam argumentiert: Wir müssen uns einem Teil der Reduktion um uns herum widersetzen und alles in unserer Macht Stehende tun, um auf umfassendere Lösungen zu drängen. Das Buch hilft einige der komplexen Systeme zu erkennen.

      https://directory.doab...

Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.