Bias bei künstlicher Intelligenz

Mit der Verbreitung von Anwendungen der künstlichen Intelligenz (KI) treten auch deren Schwächen ins Zentrum der öffentlichen Diskussion. Eine davon wird als «Bias» bezeichnet, das die «Voreingenommenheit» eines KI­Modells beschreibt. Neben ethischen und gesellschaftspolitischen Fragen ergeben sich daraus konkrete Gefahren, weshalb es zu erkennen, verstehen und die daraus resultierenden negativen Folgen zu beheben gilt.

Unsere Empfehlungen für den öffentlichen Sektor

  1. Bias erkennen
    Verwaltungen sollten ein Bewusstsein für die Existenz von Bias in KI­Anwendungen entwickeln und ihre Anwendungen stets auf den Prüfstand stellen. Vor allem in einer immer diverser werden Gesellschaft ist hierbei die Einbeziehung unterschiedlicher Personengruppen wichtig,   um idealerweise der Entstehung von Bias vorzu­beugen.
  2. Bias verstehen
    Sofern Bias erkannt wurde, bedarf es eines Risk­Assessments. Liegen erhebliche Gefahren für die Anbietenden oder Nutzenden vor, emp­fiehlt es sich, die Trainingsdaten auf Verzerrun­gen zu überprüfen.
  3. Bias beheben
    Sobald die Fehlerquelle ermittelt wurde, sollte die entsprechende KI­Anwendung mit neuen Daten verbessert werden. Wichtig ist dabei auch das kontinuierliche Feedback der Nutzenden (beispielsweise nach dem Prinzip «Human in the Loop»).

Kontakt