Denken

Verbesserung der KI: Warum neue Technologien die Vielfalt berücksichtigen müssen

Vielfalt in der KI

Stellen Sie sich vor, jemand, der zu Unrecht wegen eines Verbrechens verurteilt wurde, würde gebeten, den Algorithmus zu entwerfen, mit dem die Polizei Verbrecher verurteilt. Stellen Sie sich vor, ein junger Mensch, der gerade erst in die USA eingewandert ist, würde gebeten, den Algorithmus zu entwerfen, der für die Zulassung an amerikanischen Spitzenuniversitäten verwendet wird. Stellen Sie sich vor, Bevölkerungsgruppen, die seit jeher von der Nutzung Ihrer Produkte ausgeschlossen sind, würden gebeten, Ihre Produkte zu entwickeln. Die Wahrscheinlichkeit, dass die Ergebnisse dieser Algorithmen die gleichen sind wie heute, ist gering bis nicht vorhanden. Das ist in vielerlei Hinsicht das, was KI und maschinelles Lernen bieten - aber anstatt Systeme zu haben, die die Vielfalt der Perspektiven und Meinungen berücksichtigen, können wir, wenn wir nicht wachsam sind, mit Systemen enden, die im besten Fall bestehende Vorurteile verstärken und im schlimmsten Fall aktiv ganz neue Vorurteile schaffen.

Die Auswirkungen von Vorurteilen bei KI und maschinellem Lernen

Unsere Gesellschaft hat es geschafft, sich trotz der unzähligen Probleme im Zusammenhang mit der Vielfalt stetig weiterzuentwickeln, und einige mögen argumentieren, dass der langsame Fortschritt in Verbindung mit den vielen Vorteilen, die die KI bietet, gut genug ist. Da bin ich natürlich anderer Meinung. Es gibt zwar mehr als genug moralische und ethische Gründe für Vielfalt, aber die wichtigste Tatsache ist, dass DEI nicht nur für Diversity, Equity und Inclusion steht, sondern meiner Meinung nach auch für Diversity Equals Income. Jedes Mal, wenn ein Unternehmen einen Algorithmus verwendet, der einen Nutzer verprellt, einen Ausreißer benachteiligt, um einem Modell zu entsprechen, die Vielfalt bei Einstellungsentscheidungen einschränkt oder auf eine Art und Weise arbeitet, die blind für die Vielfalt ist, anstatt sie zu fördern, werden Dollars auf dem Tisch liegen gelassen - Dollars, die sich nur wenige Unternehmen leisten können.

Das erste Mal, dass mir die potenziell negative Wechselwirkung zwischen Technologie und Rasse bewusst wurde, war in den späten 90er und frühen 2000er Jahren, als ich - und viele meiner schwarzen Freunde - feststellen mussten, dass wir von der Gesichtserkennungssoftware von Facebook nicht richtig identifiziert werden konnten. Wir lernten bald, dass es darauf ankam, wer im Raum war und die Programmierung vornahm. Die Programmierer, von denen die meisten nicht wie wir aussahen, trainierten die Maschinen auf Gesichter, die wie ihre und nicht wie unsere aussahen, und ließen diejenigen von uns mit dunklerem Teint als Rätsel zurück, die von den Computeraugen nicht erkannt werden konnten. Man sollte meinen, dass die Dinge im Laufe der Jahre besser geworden wären, aber eine 2018 vom National Institute of Standards and Technology (NIST) durchgeführte Studie ergab, dass einige Gesichtserkennungsalgorithmen bei Afroamerikanern eine bis zu 100-mal höhere Fehlerquote aufweisen als bei Weißen.

Leider ist diese Verzerrung nicht nur in visuellen Daten zu finden. In einer Studie des National Bureau of Economic Research aus dem Jahr 2019 wurde festgestellt, dass die von Kreditbewertungsunternehmen verwendeten Algorithmen dazu neigen, die Kreditwürdigkeit afroamerikanischer und hispanischer Kreditnehmer zu unterschätzen. Diese Algorithmen gaben diesen Kreditnehmern routinemäßig niedrigere Kreditscores und höhere Zinssätze.

Die Bedeutung von Vielfalt für den Unternehmenserfolg

Was hat das mit Vielfalt zu tun? Die KI hat auch für die Personalabteilung ein neues Zeitalter eingeläutet. Überall auf der Welt setzen Unternehmen KI ein, um Lebensläufe potenzieller Bewerber zu prüfen. Das Problem dabei ist, dass KI-gestützte Einstellungssysteme Frauen und Minderheiten diskriminieren können. In einer Studie der Universität Cambridge wurde festgestellt, dass ein von Amazon entwickeltes KI-gestütztes Einstellungsprogramm Lebensläufe, die Wörter wie "Frauen", "weiblich" und "Geschlecht" enthielten, zurückstufte, was dazu führte, dass Bewerber mit weiblich klingenden Namen seltener zu einem Vorstellungsgespräch eingeladen wurden.

Es gab zwei Probleme, die beide miteinander verbunden und schwer zu lösen sind und die angegangen werden müssen. Erstens war in all diesen Situationen der Trainingssatz fehlerhaft. Wenn ein System auf der Grundlage von voreingenommenen Informationen trainiert wird, wird es ein voreingenommenes Ergebnis erzeugen und weitergeben. Im Fall des Rekrutierungstools wurde es anhand von Lebensläufen trainiert, die dem Unternehmen über einen Zeitraum von 10 Jahren vorgelegt wurden und von denen die meisten von männlichen Bewerbern stammten (die zum Teil aufgrund der systembedingten Voreingenommenheit der HR-Mitarbeiter ausgewählt wurden). Zweitens schätzten oder berücksichtigten die für diese Systeme Verantwortlichen die Vielfalt nicht genug, um sie tatsächlich im System zu kodieren.

Die Rolle der Vielfalt in der KI-Entwicklung

Wie ein Kind, das lernt, was richtig und falsch ist oder wie es sich verhalten soll, muss auch eine KI unterrichtet werden. Um ihr beizubringen, wie sie mit den unzähligen verschiedenen Situationen umzugehen hat, die ihr begegnen können, müssen Unternehmen die KI mit Beispielen aus der Vergangenheit konfrontieren, die zeigen, was richtig und was falsch ist (oder Erfolg und Misserfolg). Diese Beispiele aus der Vergangenheit können Voreingenommenheit gegenüber Frauen, Einwanderern, Menschen mit körperlichen oder neurologischen Beeinträchtigungen sowie rassischen und ethnischen Gruppen hervorrufen. Da die Komplexität der KI-Berechnungen so hoch ist, dass es sich praktisch um eine Blackbox handelt, kann man derzeit am besten überprüfen, ob ein System voreingenommen ist, indem man sowohl den Input als auch den Output testet. Entscheidend ist, dass die in das System eingespeisten Daten auf jegliche Art von Stichprobenverzerrung in Bezug auf bestimmte Merkmale, geografische Gegebenheiten oder demografische Marker sowie auf unerwünschte Korrelationen bei den Ergebnissen des Algorithmus geprüft werden. Das Problem ist, dass dieser zusätzliche Schritt zwar relativ einfach, aber zeitaufwändig ist, und Zeit ist Geld. Daher ist die Frage berechtigt: Ist das genug?

In unserem gesellschaftlichen Diskurs wird allgemein davon ausgegangen, dass es angesichts der verschiedenen systemischen Strukturen, die in unserer Gesellschaft eine Rolle spielen, nicht ausreicht, einfach nur farbenblind zu sein (zum Beispiel). Um ein gewisses Maß an Gerechtigkeit zu erreichen, ist "Color Bravery" - mit anderen Worten, eine proaktivere Haltung gegenüber rassischen Ungleichheiten - erforderlich. Wenn es also in anderen Kreisen unzureichend ist, einfach nur farbenblind zu sein, warum sollte es dann in diesem Kreis ausreichen, unvoreingenommen zu sein? Wie ich immer wieder gesagt habe, sind Vielfalt, Gleichberechtigung und Einbeziehung wichtig, aber nicht nur, weil es moralisch oder humanistisch richtig ist, sondern weil in der Wirtschaft (wie ich bereits sagte) Vielfalt gleich Einkommen ist.

Um nur einige Beispiele zu nennen:

  • Eine Studie des Center for American Progress aus dem Jahr 2009 ergab, dass Unternehmen mit einer größeren Rassen- und Geschlechtervielfalt mit größerer Wahrscheinlichkeit auch höhere Gewinne erzielen.
  • Eine Studie des Peterson Institute for International Economics aus dem Jahr 2016 ergab, dass Unternehmen mit mehr weiblichen Führungskräften profitabler sind.
  • Eine Studie der Boston Consulting Group aus dem Jahr 2018 ergab, dass Unternehmen mit einer größeren rassischen und geschlechtlichen Vielfalt in den Vorständen profitabler sind.

Studien haben gezeigt, dass vielfältige Teams ein breiteres Spektrum an Perspektiven und Erfahrungen einbringen können, was zu kreativeren Problemlösungen und besseren Entscheidungen führt. Sie können einen vielfältigen Kundenstamm besser verstehen und bedienen und sind attraktiver für Spitzenkräfte, was zu höherer Produktivität und Innovation führen kann. KI bietet Unternehmen die Möglichkeit, nicht nur sicherzustellen, dass ihre Einstellungspraktiken unvoreingenommen sind, sondern auch, dass ihre Mitarbeiter über die notwendige Vielfalt verfügen, um die besten Waren und Dienstleistungen für ihre immer vielfältigeren Kunden zu produzieren.

Die Unternehmen, die sich ausschließlich auf KI verlassen, um Lebensläufe zu prüfen, Bewerbungen für Schulen zu sichten oder Entscheidungen über Kredite usw. zu treffen, machen einen schweren Fehler. Sie verwechseln den Hammer mit dem Schreiner und das Auto mit dem Fahrer. Dies ist einem Problem sehr ähnlich, auf das ich gelegentlich stoße, wenn ich Workshops zu Produktideen leite. Die Kunden legen sich so sehr auf die genauen Regeln und Verfahren einer Übung fest, die ich entwickelt habe, um ihre Kreativität freizusetzen, dass sie buchstäblich ausrasten, wenn ich die Regeln über den Haufen werfe und beginne, die Ideen einzufangen, die aus ihnen heraussprudeln. Oft wollen sie lieber den Mund halten und riskieren, ihre Idee zu verlieren, als die gut ausgearbeiteten Regeln der Übung zu opfern - das heißt, bis ich sie daran erinnere, dass die Übung nur ein Werkzeug ist, und dass es wirklich auf die Idee ankommt.

KI ist lediglich ein Werkzeug. Ja, sie ist ein mächtiges Werkzeug, aber sie ist immer noch nur ein Werkzeug - eines von vielen Werkzeugen, die uns als Geschäftsleute, Mitglieder der Gesellschaft und Menschen zur Verfügung stehen. Wir müssen daran denken, dass das Ziel weiterhin darin bestehen muss, ein vielfältigeres, gerechteres und integrativeres Geschäftsumfeld zu schaffen, damit wir bessere Produkte, Dienstleistungen und Erfahrungen für unsere Verbraucher entwickeln können. Wenn wir das nicht tun, lassen wir Geld auf dem Tisch liegen, wir lassen unsere Verbraucher unzufrieden zurück, wir lassen unsere Unternehmen ohne die besten Talente zurück und wir überlassen uns dem ersten Wettbewerber, der schlau genug ist, aus unserem blinden Fleck Kapital zu schlagen.

Die klügsten Unternehmen, mit denen ich zusammengearbeitet habe, sind diejenigen, die zuerst ihre Ziele definieren und dann die Werkzeuge finden, um diese Ziele zu erreichen - und nicht andersherum. Marshall McLuhan sagte einmal: "Wir formen unsere Werkzeuge, und danach formen unsere Werkzeuge uns". Dies ist eine Situation, in der wir nicht zulassen können und dürfen, dass unsere Werkzeuge uns formen, wenn wir hoffen, eine vielfältigere Zukunft zu erreichen, ganz zu schweigen von einer profitableren für unsere Unternehmen.

 

 

Cerrone Lundy ist Direktor bei Vivaldi. Er arbeitet mit Organisationen zusammen, um deren Kundenbedürfnisse besser zu verstehen und Produkte, Dienstleistungen, Erfahrungen und mehr zu entwickeln.