close
Share with your friends

Het kan voorkomen dat AI-systemen onbedoeld en ongewenst discrimineren.  Hoe werkt dit en hoe kunt u dit voorkomen?

Als gezegd wordt dat AI-systemen discrimineren, gaat het veelal om een ongelijke behandeling van een beschermde groep in de dataset van het zelflerende algoritme. Deze groep voldoet aan een ‘beschermd kenmerk’ op basis waarvan de groepen onderscheiden kan worden, zoals iemands geslacht. Op basis van de uitkomsten van het algoritme kan de ene groep in het systeem onbedoeld ongelijk behandeld worden ten opzichte van de andere groep.

Het is belangrijk om je hier als organisatie bewust van te zijn en er op te anticiperen, omdat dit ethische gevolgen kan hebben. Er zijn verschillende manieren om hiermee om te gaan.

Oplossing 1: Kenmerken ‘ont-kennen’

Als een groep ongelijk behandeld wordt op basis van een beschermd kenmerk, kan het een strategische overweging zijn om juist over dit beschermde kenmerk geen informatie te verzamelen. Het algoritme krijgt dan geen toegang tot het beschermde kenmerk, oftewel het systeem ‘kent’ dit kenmerk – in dit geval iemands geslacht – niet en kan er dus niet op selecteren.

Dit is echter een naïeve benadering. Door metingen uit te sluiten, kunnen ongelijkheden in uitkomsten tussen groepen op basis van het beschermde kenmerk niet meer gemeten worden, terwijl die ongelijkheid wel kan bestaan én voor de buitenwereld zichtbaar kan zijn. Zeker voor de groep die nadeel ondervindt.

Een tweede probleem is dat het vaak simpelweg niet werkt. Algoritmes werken met proxy’s. Dat zijn combinaties van kenmerken in de dataset, die samen kenmerken voorspellen die níet in de dataset zitten. Ze hebben dus een indirect voorspellende waarde. Zo kan een proxy als vervanger van een beschermd kenmerk dienen en daarmee alsnog groepen onbedoeld ongelijk behandelen. 

Oplossing 2: Bevooroordeeldheid voorkomen

Een andere manier om met een discriminerend algoritme om te gaan, is door af te wegen of de data een goede afspiegeling is van de omgeving waarin het algoritme zijn taak uitvoert. Als niet zeker is of dat zo is, zijn er algoritmische methodes, ‘debiasing algoritmes’, om bevooroordeeldheid richting een specifieke beschermde groep te voorkomen in de leerfase van het algoritme.

Het algoritme kan daarmee echter een causaal belangrijke voorspeller negeren. Het kan zijn dat er wél een relevant verschil bestaat tussen groepen: de gemeten ongelijkheid. Dit dwingt organisaties om lastige keuzes te maken en posities in te nemen over maatschappelijk gevoelige onderwerpen. Accepteren we de ongelijkheid als gegeven omdat de proxy een té essentiële rol speelt om haar te negeren? Of voeren we toch debiasing-methodes uit om niet bij te dragen aan stigmatisering? Of doen we meer onderzoek naar de dataset zelf? 

Oplossing 3: Selectiebias aanpakken

Bovenstaande stipt een van de grootste risico’s van het gebruik van AI-toepassingen aan: het representativiteitsprobleem van data. Dit vindt zijn oorsprong in selectiebias, het meest voorkomende technische probleem bij AI. Als zelflerende systemen gevoed worden met selectieve, bevooroordeelde data, geven zij alleen de patronen terug die in die data gevonden worden. Met alle (ethische) gevolgen van dien. Om de algoritmes goed te laten werken, is de aanwezigheid van juiste hoeveelheden én kwalitatief goede data als eerste basisstap daarom essentieel.

Beheers uw algoritmes

Mogelijk heeft u in AI geïnvesteerd of staat u op het punt dat te doen.  Maar hoe haalt u álles eruit wat erin zit?  Hoe plukt u de vruchten van uw AI-investeringen? 

In het paper 'Beheers uw algoritmes' geven we inzicht in de randvoorwaarden en specifiek op de kritieke succesfactor: de kwaliteit van AI-toepassingen. Het gaat in op de vraag wát kwaliteit is, welke belangrijke rol de data daarin speelt en hoe de kwaliteit van AI-toepassingen concreet bijdraagt aan een optimaal resultaat van uw AI-investering. En laat zien hoe deze randvoorwaarden het best georganiseerd kunnen worden. 

Contact

Voor meer informatie over onze AI-services, kunt u contact opnemen met Frank van Praat, senior manager Trusted Analytics of Alexander Boer, manager Trusted Analytics.