Künstliche Intelligenzen werden immer bedeutender in unserem Alltag, egal ob in Suchmaschinen, Apps oder in der Wissenschaft. Die Algorithmen, die dabei zum Einsatz kommen, können allerdings unter Umständen diskriminierend handeln, so der Informatiker Thomas Schmid.
Thomas Schmid, Informatiker an der Universität Leipzig, erklärte jüngst in einem Interview mit dem Mitteldeutschen Rundfunk Sachsen, dass leistungsfähige Algorithmen heute mit lernenden Systemen arbeiten. Heißt: Sie handeln nach den Vorgaben und Daten, die ihre Schöpfer in das System einspeisen. Wenn diese Basisdaten dann bereits ein Ungleichgewicht enthalten, leitet der Algorithmus laut Schmid automatisch eine Ungleichbehandlung daraus ab.
Der Informatiker gab beispielsweise an, dass in vielen Datenbanken für Gesichtserkennung Bilder von Männern mit heller Hautfarbe dominieren würden. Zur Entwicklung nehme man die Daten, die vorliegen, wenn es keine Regelung für eine Gleichverteilung gibt. Daraus könnten sich dann jedoch verschiedene Schwierigkeiten ableiten. Dunkelhäutige und weibliche Gesichter seien laut Schmid besonders stark von Schwierigkeiten bei der Gesichtserkennung betroffen. Wer also etwa sein Smartphone per Gesichtserkennung entsperren will, kann durch solche „diskriminierenden“ Algorithmen schnell Probleme bekommen. Noch schlimmer sei es, wenn „durch eine nicht ausgewogene Gesichtserkennung in der Strafverfolgung bestimmte Personen besser und andere schlechter erkannt werden“, so Schmid.
Eine Diskriminierung von Frauen beträfe die Hälfte der Bevölkerung, wie der KI-Experte weiter ausführt. Bei einem Pilotprojekt des Konzerns Amazon habe sich beispielsweise gezeigt, dass das dort entwickelte System Frauen im Gesamtranking niedriger einordnete und damit die Wahrscheinlichkeit für sie sank, eingestellt zu werden. Das Datensystem habe dabei das Ungleichgewicht abgebildet, das in der Personalabteilung bereits vorherrschte. Andere Gruppen wie etwa Homosexuelle, People of Color oder religiöse Minderheiten könnten jedoch ebenfalls von einer solchen Ungleichbehandlung betroffen sein.
Um dieses Problem zu lösen, seien allerdings nicht nur Informatiker notwendig. Thomas Schmid fordert gegenüber dem MDR, dass auch andere Akteure gefragt sind, die Gesetze, Verordnungen oder einen Algorithmen-TÜV schaffen könnten.
Bildquelle:
- intelligenz: © sdecoret - stock.adobe.com