Selbstlernende Systeme gerechter gestalten

05.10.2020 Fairness ist in der Informatik zum Thema geworden. Mascha Kurpicz-Briki, Professorin in der Forschungsgruppe Data Science and Engineering an der Berner Fachhochschule in Biel, erklärt, warum es wichtig ist, selbstlernende Systeme von Diskriminierung zu befreien.

Mascha Kurpicz-Briki, Ethik und Fairness sind Ihnen wichtig. Welchen Stellenwert haben diese Themen in der digitalen Welt?

MaschaKurpicz-Briki: Fairness in der Informatik ist in den letzten drei bis fünf Jahren auf die Agenda gerückt. Dies nachdem die Medien über Fälle von Diskriminierung berichtet haben. Wir wissen heute, dass gebräuchliche Algorithmen Personen nach Geschlecht, Herkunft, Alter und sozioökonomischem Status diskriminieren können.

Gibt es dazu Beispiele?

Da gab es zum Beispiel eineRekrutierungssoftware, die Frauen für technische Berufe automatisch vom Bewerbungsprozess ausschloss. Das System stützte sich auf Daten der letzten zehn Jahre, und weil die meisten Bewerber männlich gewesen waren, zog die Software den Schluss, dass Frauen nicht in Frage kommen für solcheBerufsfelder; der Systemfehler wurde erst spät entdeckt. Unangenehm aufgefallen ist auch ein Fotodienst, der bei asiatischen Gesichtern verlangte, die Leute sollten die Augen öffnen. Die Software war mit dem kaukasischen Typ als Norm programmiert.

Wie können Diskriminierungen ausgebügelt werden?

Mit der Sensibilisierung der Programmgestaltenden tun wir den ersten Schritt. Hinter jedem Algorithmus steht ein Mensch. Die Sache ist kompliziert, weil viele Faktoren mitspielen: d ie Technologie – Texte, Bilder, Symbole, audiovisuelleKomponenten und vieles mehr – und verschiedene Arten der Diskriminierung in allen erdenklichen Kombinationen. Fürjedes neue System müssen vor der Programmierung mögliche Diskriminierungsfallen identifiziert werden. Bestehende Systeme müssen auch unter die Lupe genommen werden.

Mehr erfahren