Blog
Zorgen voor eerlijkheid in AI: Diversiteit, non-discriminatie en transparantie
Jul 24, 2023
Orlando Scarpa
Als lid van ons Data Science-team vind ik het heerlijk om het potentieel van AI te verkennen en er tegelijkertijd voor te zorgen dat onze modellen verantwoord zijn. Vandaag ga ik het hebben over de cruciale aspecten van diversiteit, non-discriminatie en eerlijkheid in AI.
Met het toenemende gebruik van AI in verschillende domeinen is het van cruciaal belang om ervoor te zorgen dat AI-modellen beslissingen nemen die onafhankelijk zijn van gevoelige factoren zoals etniciteit, geslacht en religie.
Omdat de meeste AI-modellen afhankelijk zijn van grote hoeveelheden gegevens om de patronen en gedragingen te leren die ze moeten reproduceren, zijn er duidelijke risico's verbonden aan menselijke vooroordelen in de trainingsgegevens die door de modellen kunnen worden weerspiegeld.
Trainingsgegevens zijn echter niet de enige bron van vooroordelen, aangezien de ingenieurs die modellen ontwikkelen ook onbewust hun cognitieve vooroordelen kunnen laten weerspiegelen in hun producten. Daarom is het cruciaal om de stappen te onderzoeken die nodig zijn om eerlijkheid in AI-modellen te bevorderen en een meer inclusieve toekomst te creëren.
Vooroordelen verwijderen: Verder dan irrelevante inputs
Een naïeve, maar nog steeds noodzakelijke benadering om vooroordelen te voorkomen, is het simpelweg verwijderen van irrelevante en mogelijk discriminerende inputs. In de overgrote meerderheid van de gevallen hoeft een model het geslacht, de etniciteit of de religie van een individu niet te kennen, dus is het verwijderen van deze variabelen voldoende om te garanderen dat het model niet discrimineert op basis van deze factoren?
Hoewel het verwijderen van gevoelige informatie uit de inputs noodzakelijk is, is het niet genoeg. De belangrijkste reden hiervoor is wat we "proxyvariabelen" noemen. Eenvoudig gezegd is een proxyvariabele een variabele die indirect informatie codeert die aanwezig is in een andere variabele. Om een voorbeeld te geven dat relevant is voor het onderwerp van deze blogpost: een model zou etnische of economische informatie kunnen oppikken in de gegevens door te kijken naar het adres van een individu, door te identificeren of ze in een zogenaamde "goede" of "slechte" buurt wonen. Het spreekt voor zich dat dit koste wat het kost moet worden voorkomen.
Modeleerlijkheid beoordelen: Een stapsgewijs proces
Om de eerlijkheid van onze modellen te beoordelen, adviseer ik om een vast proces te volgen:
1. Gebruik een combinatie van verschillende statistische methoden om te bepalen of er een verband is tussen de output van onze modellen en alle gevoelige informatie die uit de inputs is verwijderd. Dit is om te controleren of het model zich oneerlijk gedraagt.
2. Als er een statistisch significante associatie wordt gevonden, is de volgende stap het identificeren van de bron van deze vooringenomenheid, d.w.z. uitzoeken welke van de inputvariabelen van het model zich gedraagt als een proxy.
3. Zodra de proxy's zijn gevonden, worden ze verwijderd uit de inputs, wordt het model opnieuw getraind en wordt het proces herhaald totdat er geen vooringenomenheid meer kan worden gevonden in de outputs van het model.
Streef naar echte eerlijkheid: identificeer en elimineer de onderliggende bronnen van vooroordelen.
Hoewel het bovengenoemde proces een goede aanpak is om het reproduceren van trainingsgegevens of vooringenomenheid van ontwikkelaars te voorkomen, moeten organisaties, om echte eerlijkheid te bereiken, verder gaan dan statistische analyse en proberen de onderliggende bronnen van vooringenomenheid te elimineren. Daarom is het nodig om te investeren in onderzoek en transparantie om de maatschappelijke impact van bedrijfsprocessen en van de AI's die deze beïnvloeden te begrijpen.
Een gezamenlijke aanpak met diverse belanghebbenden en gemeenschappen die te maken hebben met AI, kan waardevolle inzichten en perspectieven opleveren om eerlijke en rechtvaardige modellen te creëren. Alleen dan kunnen we het volledige potentieel van AI realiseren om ons leven te verbeteren en tegelijkertijd de waarden van diversiteit, non-discriminatie en eerlijkheid hoog houden.
Het volledige potentieel van AI realiseren
Het waarborgen van eerlijkheid in artificiële intelligentie is van het grootste belang in onze steeds meer door AI aangestuurde wereld. Door aandacht te besteden aan diversiteit, non-discriminatie en eerlijkheid kunnen we de risico's van vooroordelen en discriminatie in AI-modelbeslissingen beperken.
Hoewel het verwijderen van irrelevante inputs en het identificeren van proxy's noodzakelijke stappen zijn, vereist het bereiken van echte eerlijkheid een allesomvattende aanpak. Organisaties moeten investeren in onderzoek, transparantie en begrip van de maatschappelijke impact van AI. Daarnaast is het cruciaal om samen te werken met diverse belanghebbenden en gemeenschappen die te maken krijgen met AI-technologieën om eerlijke en rechtvaardige modellen te creëren.
Alleen door de waarden van diversiteit, non-discriminatie en eerlijkheid hoog te houden, kunnen we het potentieel van AI volledig benutten om levens te verbeteren en een meer inclusieve toekomst te creëren. Laten we streven naar een verantwoorde AI-ontwikkeling die deze principes naleeft en een eerlijk en rechtvaardig technologisch landschap garandeert.
Download ons eBook “Verzekeringsfraude Rapport 2022”