Belangrijke beslissingen worden steeds vaker niet door mensen, maar door algoritmes genomen. Ze bepalen bijvoorbeeld wie als fraudeur wordt aangemerkt, of welke sollicitant een uitnodiging krijgt voor een gesprek. Toch zijn deze systemen verre van objectief. Hoe zorgen we ervoor dat ze eerlijk zijn en geen discriminatie veroorzaken? Die vraag staat centraal in het PhD-onderzoek van Hilde Weerts, die cum laude promoveerde aan de TU/e.

Om te beoordelen hoe eerlijk een algoritme is, worden zogeheten kwantitatieve fairness metrics gebruikt – meetinstrumenten die in cijfers uitdrukken of het systeem bepaalde groepen bevoordeelt of benadeelt. Er zijn verschillende manieren om dat te doen. “Met group fairness metrics kijk je bijvoorbeeld naar het selectiepercentage van mannen en vrouwen in de voorspellingen, en wat het verschil daartussen is. Hoe dichter die bij elkaar liggen, hoe eerlijker het model, is het idee”, legt Weerts uit. “Maar in sommige gevallen is het juist belangrijk dat het vals-negatieve percentage gelijk is: dus de kans dat iemand ten onrechte niet geselecteerd wordt, terwijl die persoon wél geschikt was voor de baan.” De cruciale vraag is dan ook: waarom kies je voor het ene meetinstrument en niet voor het andere?

“De manier waarop de wereld is ingericht, hoe data worden verzameld en welke keuzes mensen maken bij het trainen van een model, beïnvloeden allemaal de uitkomst. Wie eerlijkere en betere resultaten wil bereiken, moet met al deze factoren rekening houden – en dat vereist zorgvuldigheid en kritisch denkwerk”, concludeert ze. Eerlijke algoritmes beginnen dus niet bij techniek, maar bij inzicht, reflectie en de bereidheid om moeilijke vragen te stellen – en dat is misschien wel de grootste uitdaging van allemaal.

Lees het hele verhaal op de site van de Cursor, het onafhankelijke nieuwsmedium van de TUe.

Cover proefschrift Hilde Weerts
Deel via: