• Sonja Stirnimann

Künstliche Intelligenz: (Digitale) Bias – automatisiert verurteilt!

Aktualisiert: 4. Nov 2019

Wir lassen uns im privaten und geschäftlichen Alltag beeinflussen. Von Stereotypen, Vorurteilen und Diskriminierungen. Bewusst und unbewusst. Analog und digital. Hilft uns die Künstliche Intelligenz?

Situationen lesen können entscheidet über Sieg oder Niederlage


Können Sie das Green lesen wie Nordirlands Golfprofi Rory McIlroy? Professionell macht er uns vor – zu Letzt im Rahmen des Omega European Masters in Crans-Montana vor wenigen Tagen, wie das geht. Perspektiven wechseln, in dem er sich die Ausgangslage von verschiedenen physischen Standorten betrachtet. Er antizipiert, welche Linie sein Golfball rollen wird, bevor er mit einem schönen dumpfen «clack» ins Loch fällt.


Rory Mcllroy hat das Turnier als geteilter Zweitplatzierter beendet. Ein anderer hat das Green besser lesen können. Glücklicher Sieger des European Masters in Crans-Montana 2019 ist Sebastian Soderberg.


Wir sind alle nicht Rory Mcllroy oder Sebastian Soderberg und die wenigsten von uns Profisportler in einer anderen Disziplin. Trotzdem können wir von ihnen allen lernen. Eine Ausgangslage objektiv analysieren zu können ist wesentlich. Match entscheidend. Diese Objektivität kommt uns täglich mehrmals abhanden – im privaten wie beruflichen Umfeld.


Biased: Wie (ver)urteilen wir Menschen?


Im Umfeld der Wirtschaftsprüfung und Beratung gross geworden liegt die Antwort auf der Hand: «es kommt darauf an». Ja, und ist die Krux. Es kommt darauf an, wie wir

a) sozialisiert wurden,

b) geprägt sind und

c) reflektiert unterwegs sind


Zudem spielt die aktuelle physische und psychische Verfassung eine wesentliche Rolle. Ein Schlafmanko wirkt sich gemäss Studien genauso «biasfördernd» und «urteilsmindernd» an wie ein erhöhter Alkoholpegel. Die objektive Urteilsfähigkeit wird massiv eingeschränkt.


Wir sind bewusst oder unbewusst befangen. Dies in unterschiedlichen Ausprägungen. Die drei wichtigsten Faktoren der Befangenheit umfassen

- Stereotypen

- Vorurteile

- Diskriminierung


Stereotypen sind die überzogenen Meinungen, Bilder oder verzerrten Wahrnehmungen von Tatsachen über Menschen oder Gruppierungen von Menschen. Selbstverständlich positiv wie negativ.


Vorurteile wiederum sind Meinungen, (Vor-)Beurteilungen oder Haltungen gegenüber Menschen oder einer Gruppierung von Menschen.


Die Diskriminierung ist ein Verhalten, bei dem Menschen aufgrund ihrer (Gruppen)zugehörigkeit ungleich behandelt werden im Vergleich zu anderen. Oft beginnt dieses Verhalten basierend auf Stereotypen oder Vorurteilen.


Diese kurze Übersicht nur als Basis, mehr dazu an anderer Stelle. Ich bin aufgrund meiner Expertentätigkeit im Bereich Integrität, Non-Compliance & Wirtschaftskriminalität täglich mit dieser Thematik beschäftigt und bin mir über die Brisanz sehr bewusst. Denn die Kernfrage, die sich daraus ergibt, heisst:


Wie kriegen wir unsere menschliche Befangenheit soweit in den Griff, dass sie keinen Schaden anrichtet?

Eine der Antworten könnte heissen: Wenn wir Menschen so befangen sind, könnten wir doch diese menschliche Eigenschaft technisch durch künstliche Intelligenz in den Griff kriegen. Schauen wir das mal genauer an.


Künstliche Intelligenz lernt aus Big Data


Die künstliche Intelligenz lernt aus Daten. Grossen Datenmengen. Diese Daten widerspiegeln oft das Verhalten von Menschen in beliebigen Situationen in der Vergangenheit. Wenn die Datenbasis menschliche Verhaltensmuster reflektieren, sagt dies viel über die Fütterung der künstlichen Intelligenz. Sprechen wir von automatisierter Befangenheit?


Gehen wir davon aus, dass sich diese Algorithmen im Sinne von maschinellem Lernen «Machine Learning» basierend auf grosser Datenmenge («Big Data») die Auswahlkriterien für ihre Analysen aneignen. Die Grundlage ist Abbild oder Muster menschlichen Verhaltens – Daten in grosser Menge. Die Maschine zieht ihre Rückschlüsse aus diesen Mustern. Sie kann diese nicht werten.


Algorithmus: Zu Risiken und Nebenwirkungen

Es gibt bereits viele Beispiele, von diskriminierenden Resultaten von Algorithmen. Stark vereinfacht skizziert an einer Fallstudie im Bereich Rekrutierung sieht das folgendermassen aus:


Das Unternehmen sucht eine Führungskraft für den Bereich Vertrieb. Die historischen Daten, die der Maschine zur Verfügung stehen gehen die gesamte Unternehmenshistorie zurück im Bereich Vertrieb. Es gab bisher keine weibliche Führungskraft im Vertrieb. Ebenso keine Führungskraft mit Schweizer Nationalität. Was lernt die Maschine? Dass diese beiden Eigenschaften nicht zum Muster oder Rekrutierungsverhalten des Unternehmens gehören.


Schuld ist nicht die Maschine. Sie zieht die Schlüsse aus Big Data. Ich bin überzeugt, in der heutigen Zeit sind solche Stereotypen, Vorurteile und Diskriminierungen auch von menschlicher Intelligenz nicht gewollt. Die Maschine zeigt solche – sehr oft unbewussten Bias – nicht von sich aus auf und hebt die Hand.


Digitale Integrität menschlicher und künstlicher Intelligenz


Wir können uns optimal ergänzen, die menschliche und künstliche Intelligenz. Wenn wir wollen. Dazu bedarf es das Verständnis der Möglichkeiten, Risiken und Nebenwirkungen. Ebenso wie eine Moral, die auch die ethischen Komponenten – aus analoger und digitaler Sicht berücksichtigt.


Darauf aufbauend wird die #digitaleIntegrität von Mensch und Maschine im Sinne von: wie setzen wir die Moral in unseren Handlungen digital und analog um - weiter stark an Bedeutung gewinnen.


« Eine Maschine hat keinen kategorischen Imperativ. »


In dem Sinne: Beginnen wir doch unsere persönlichen digitalen Assistenten so zu programmieren, dass sie unsere unbewussten Befangenheiten nicht übernehmen.

Und wenn Sie etwas wirklich lesen wollen können wie Rory Mcllroy: Laufen Sie sinnbildlich um die Ausgangslage und lassen Sie sich vom flachen Green nicht blenden. Den einen oder anderen Hügel könnten Sie ansonsten übersehen.


Ihre

Sonja Stirnimann


PS: ich überlege mir gerade wie ich sicherstelle, wie ich meinem persönlichen digitalen Assistenten beibringen soll, dass ich froh bin, wenn er meine Vorurteile was der Musikgeschmack betrifft ernst nimmt, nicht aber diejenigen Bias, welche meine professionelle Unabhängigkeit gefährden. Es könnte eine Herausforderung werden – ich bleibe dran…




0 Ansichten

© 2020 Sonja Stirnimann

Impressum