Blog

Orlando Scarpa

Jul 24, 2023

Fairness von KI sicherstellen
Fairness von KI sicherstellen
Fairness von KI sicherstellen

Als Mitglied in unserem Data-Science-Team habe ich Freude daran, das Potenzial von KI auszuloten und gleichzeitig für verantwortungsvolle Modelle zu sorgen. Heute möchte ich über die wichtigen Aspekte von Diversity, Diskriminierungsfreiheit und Fairness im Bereich KI sprechen.

Da KI in immer mehr Gebieten zum Einsatz kommt, ist es unerlässlich sicherzustellen, dass KI-Modelle ihre Entscheidungen unabhängig von sensiblen Faktoren wie Ethnizität, Gender oder Religion treffen.

Die meisten KI-Modelle werden mithilfe von großen Datensätzen trainiert, um die Muster und Verhaltensweisen zu erlernen, die sie später reproduzieren sollen. Dies birgt das offensichtliche Risiko, dass in den Trainingsdaten vorhandene menschliche Vorurteile von den Modellen übernommen werden.

Trainingsdaten sind jedoch nicht die einzige Quelle von Vorurteilen. Auch die Entwickler der Modelle könnten unbewusst ihre Überzeugungen in ihre Produkte einfließen lassen. Deshalb ist es wichtig, die Schritte zu identifizieren, die nötig sind, um Fairness in KI-Modellen zu fördern und den Weg für eine integrativere Zukunft zu bahnen.

Vorurteile abbauen: über irrelevante Trainingsdaten hinaus

 Eine naive, aber dennoch notwendige Maßnahme, Vorurteile zu verhindern, besteht darin, alle irrelevanten und möglicherweise diskriminierenden Informationen zu entfernen. In den meisten Fällen braucht ein Modell nichts über das Geschlecht einer Person zu wissen, ebenso wenig wie über ihre Herkunft oder Religion. Reicht es also bereits, diese Variablen zu entfernen, um zu garantieren, dass kein diskriminierendes Verhalten aus diesen Faktoren erlernt wird?

Sensible Informationen aus Trainingsdaten zu entfernen, ist durchaus wichtig, doch das allein wird nicht reichen. Der Hauptgrund dafür ist, was wir als „Proxy-Variablen“ oder Stellvertreter-Variablen bezeichnen. Einfach ausgedrückt ist ein Proxy eine Variable, die indirekt Informationen aus einer anderen Variable enthält. Um ein Beispiel zum Thema dieses Blogbeitrags zu nennen: Ein Modell könnte ethnische oder wirtschaftliche Informationen aus den Daten herauslesen, indem es sich an der Wohnanschrift einer Person orientiert und identifiziert, ob es sich dabei um eine „gute“ oder eine „schlechte“ Gegend handelt. Es versteht sich von selbst, dass Derartiges unbedingt verhindert werden muss.

Fairness von Modellen bewerten: ein schrittweises Verfahren

 Um die Fairness unserer Modelle zu bewerten, empfehle ich eine bestimmte Vorgehensweise:

1. Prüfen Sie durch verschiedene statistische Verfahren, ob zwischen dem Output unserer Modelle und den aus dem Input herausgefilterten sensiblen Informationen ein Zusammenhang besteht. Damit wird getestet, ob das Modell unfaires Verhalten zeigt.

2. Wurde ein signifikanter statistischer Zusammenhang gefunden, besteht der nächste Schritt darin, die Quelle dieses Vorurteils ausfindig zu machen, d. h. welche Input-Variablen des Modells als Proxy fungieren.

3. Sobald die Proxys identifiziert wurden, werden sie aus den Trainingsdaten entfernt und das Modell wird neu trainiert. Dieser Prozess ist so oft zu wiederholen, bis das Modell kein Vorurteil mehr liefert.

Das Ziel ist echte Fairness: Finden und entfernen Sie die zugrundeliegenden Quellen von Vorurteilen.

 Das oben beschriebene Verfahren ist eine wirksame Maßnahme, die Übernahme von Vorurteilen aus Trainingsdaten oder den Überzeugungen von Entwicklern zu verhindern. Um echte Fairness zu erreichen, müssen Organisationen jedoch über statistische Analysen hinausgehen und die den Vorurteilen zugrunde liegenden Quellen entfernen. Aus diesem Grund ist eine Investition in Forschung und Transparenz notwendig. Dabei geht es darum, die gesellschaftlichen Auswirkungen von Geschäftsprozessen und der KIs, die sie beeinflussen, zu verstehen.

Ein gemeinsames Vorgehen, das diverse Stakeholder und von der KI betroffenen Gemeinschaften mit einbezieht, kann wertvolle Erkenntnisse und Perspektiven liefern, um faire und gerechte Modelle zu entwickeln. Nur dann können wir das volle Potenzial von KI ausschöpfen, uns das Leben durch sie erleichtern und gleichzeitig die Werte Diversity, Diskriminierungsfreiheit und Fairness wahren.

Das volle Potenzial von KI ausschöpfen

Fairness in unserer zunehmend von KI gesteuerten Welt sicherzustellen, ist von größter Wichtigkeit. Indem wir uns gezielt auf Diversity, Diskriminierungsfreiheit und Fairness konzentrieren, können wir das Risiko von Vorurteilen und Diskriminierung in den Entscheidungen von KI-Modellen minimieren.

Irrelevante Inhalte und Proxys zu erkennen und zu entfernen, sind notwendige Schritte, echte Fairness jedoch erfordert eine umfassende Vorgehensweise. Organisationen müssen in Forschung und Transparenz investieren, um ein Verständnis für die gesellschaftlichen Auswirkungen von KI zu erlangen. Darüber hinaus ist es wesentlich, diverse Stakeholder und von KI-Technologien betroffene Gemeinschaften mit einzubeziehen, um faire und gerechte Modelle zu entwickeln.  

Nur wenn wir die Werte Diversity, Diskriminierungsfreiheit und Fairness wahren, wird es uns gelingen, das Potenzial von KI voll auszuschöpfen, uns das Leben zu erleichtern und den Weg für eine integrativere Zukunft zu bahnen. Unser Ziel muss eine verantwortungsvolle KI-Entwicklung sein, die diese Prinzipien bewahrt und ein faires und gerechtes technologisches Umfeld sicherstellt.

 

Laden Sie unser eBook „Versicherungsbetrugsreport 2022".

 

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.