Verzerrungen bei Künstlicher Intelligenz (KI) erkennen und reduzieren

15.07.2022 Verzerrungen («Bias») sind eine Hauptursache für unfaire und diskriminierende Entscheidungen bei der Nutzung von KI-Systemen. Ein Forschungsprojekt unter der Leitung von Eduard Klein entwickelte und validierte ein Framework zur Identifikation und Verringerung von Bias, das auf einer Fachkonferenz mit dem Best Paper Award ausgezeichnet wurde.

Bias verschiedenster Kategorien existiert in zahlreichen KI-Systemen, da diese Verzerrungen bei Entwicklerinnen und Betreibern mehr oder weniger unbewusst in die Systeme übertragen werden. So wurde beispielsweise der Suchmaschine von Google vorgeworfen, beim Suchbegriff «CEO» mehr männliche als weibliche Suchergebnisse anzuzeigen. Auf Basis einer umfangreichen Literaturrecherche wurde ein bewusstseinsschaffendes (also ein die Nutzer*innen sensibilisierendes) Framework entwickelt, mit welchem Bias identifiziert und verringert werden kann. In einem ganzheitlichen Ansatz wird der gesamte Lebenszyklus – von Systemdesign über Implementierung bis hin zum Betrieb – berücksichtigt.

Das vorgeschlagene Framework wurde erfolgreich im Kontext zweier praxisrelevanter KI-Projekte validiert: dem Chatbot einer Schweizer Versicherungsanstalt sowie im Smart Animal Health Projekt des Schweizer Bundesamtes für Landwirtschaft. Das Forschungsteam konnte zudem nachweisen, dass ein Checklisten-basiertes Vorgehen eine aussagekräftige Visualisierung der Validierungsergebnisse ermöglicht.

Die Projektergebnisse wurden auf einer Fachkonferenz mit einem Best Paper Award ausgezeichnet und im «International Journal on Advances in Software» publiziert.

Mehr erfahren