In Kundenkommunikation und -services wächst Künstliche Intelligenz. Das wirft Fragen nach dem diskriminierungsfreien Umgang mit dieser Technologie auf. Pegasystems benennt die fünf wichtigsten Schritte bei der Entwicklung sozial gerechter Algorithmen.
Den Kern gesellschaftlicher Konflikte und Ungerechtigkeiten kann Künstliche Intelligenz nicht verschwinden lassen. Aber die Technologie kann dazu beitragen, Diskriminierung zu vermeiden und gesellschaftlichen Werten wie Vielfalt, Inklusion oder Geschlechtergerechtigkeit Gewicht zu verleihen. Künstliche Intelligenz ist für Unternehmen ein wertvolles Werkzeug, Compliance- und Governance-Vorgaben umzusetzen. Pegasystems, Anbieter von Software für Vertrieb, Marketing, Service und Operations, hat fünf wichtige Punkte identifiziert, die es bei der Umsetzung sozial gerechter Modelle für Machine-Learning und Künstliche Intelligenz zu beachten gilt.
- Klare Ziele vorgeben
Bei der Entwicklung von Algorithmen müssen die Ziele widerspruchsfrei, eindeutig, kurz und verständlich formuliert werden. Alle Beteiligten bewegen sich dabei im Spannungsfeld von natürlicher und mathematischer Sprache. In einer optimalen Arbeitsteilung fungiert der Data Scientist als Bindeglied zwischen den Businessfunktionen und der Softwareentwicklung. Er kümmert sich um die Modellierung und die Algorithmen, während sich das Business auf die Vorgaben und der Entwickler auf die Software konzentrieren.
- Die richtigen Daten nutzen
Eine große und repräsentative Datenbasis ist eine wichtige Voraussetzung für die Genauigkeit eines Modells. Je mehr und bessere Daten vorliegen, desto zielgenauer kann ein Algorithmus trainiert werden. Dabei muss stets ein Kompromiss zwischen der angestrebten Genauigkeit und den Kosten und Möglichkeiten bei der Trainingsdatenbeschaffung gefunden werden. Einen teilweisen Ausweg aus diesem Konflikt bieten lernende Algorithmen, die ihre Fähigkeiten auf Basis von sukzessiv eingehenden Echtzeitdaten trainieren.
- Die passende Abstraktion wählen
Künstliche Intelligenz nutzt Algorithmen aus der Statistik, um Aussagen zu tätigen. Entspricht die Verteilung der Merkmale in der Stichprobe nicht der wahren Verteilung der Merkmale in der Grundgesamtheit oder dem Nutzungskontext, liegt eine Verzerrung vor. Das Modell muss dann stärker abstrahieren, die Repräsentativität der Aussage ist dadurch einschränkt und die Zielvorgaben lassen sich nur bedingt erfüllen.
- Merkmale richtig gewichten
Bei der operativen Umsetzung von Vorgaben wie etwa dem Entgelttransparenzgesetz oder gerechteren Geschlechteranteilen im Recruiting sind viele Faktoren zu gewichten. Will beispielsweise die Personalabteilung die Abschlussnoten einer amerikanischen Bewerberin und eines finnischen Bewerbers fair bewerten, müssten sie vergleichbar sein. Liegen die Daten dafür nicht oder nur eingeschränkt vor, muss der Algorithmus abstrahieren. Das führt zu Einbußen bei der Qualität und Eignung des Modells und letztlich auch bei der Fairness im Einzelfall.
- Selbstverstärkende Prozesse minimieren
Die Vorschlagsquote weiblicher Künstler liegt auf Streaming-Portalen bei rund 25 Prozent. Diese geringe Präsenz führt dazu, dass sie weiter niedrig bleibt. Solche selbstverstärkenden Prozesse kennt die Künstliche Intelligenz als Überanpassung. Data Scientists erkennen die Überanpassung durch Analyse der verwendeten Modelle und Daten und minimieren sie durch eine Komplexitätsreduzierung der Modelle oder eine Anpassung der Merkmale. Voraussetzung dafür ist die Formulierung einer entsprechenden Zielvorgabe.
„Die klassischen Algorithmen zeigen Defizite auf und helfen dabei, gesellschaftlich gewünschte Lösungen zu ihrer Beseitigung umzusetzen“, erklärt Florian Lauck-Wunderlich, Project Delivery Leader bei Pegasystems. „Für die Lösung von komplexen Problemen, bei denen unterschiedliche Ziele abgeglichen und gedankliche Transfers zu anderen Modellen und Ansätzen gezogen werden müssen, reicht das nicht. Hier ist eine starke Künstliche Intelligenz nötig. Daran wird gerade intensiv geforscht.“ jf