Het is mogelijk om een selectie-algoritme representatiever keuzes te laten maken. Dat stelt het Centraal Planbureau in het onderzoek Rechtvaardige Algoritmes dat 5 juli verscheen. Het is dan nodig dat van tevoren goed wordt nagedacht over de verhoudingen waarin verschillende groepen in de selectie worden opgenomen. Maar de onderzoekers waarschuwen ook: algoritmes zijn mensenwerk en kunnen daardoor nooit helemaal objectief zijn.
Over het onderzoek
Deze publicatie is een verrijking van de bestaande richtlijnen om de risico’s van selectie-algoritmes te ondervangen. Algoritmes worden steeds vaker gebruikt, maar hun inzet is nooit neutraal of objectief. Dit komt bijvoorbeeld door de keuze voor welke doel zo’n algoritme ontwikkeld wordt. Of, bij een voorspellende selectie-algoritme, de keuze welke uitkomst en input data het voorspellende algoritme gebruikt. Deze data reflecteert gewenst én ongewenst gedrag van mensen, waardoor het risico bestaat dat deze algoritmes ongewenst gedrag versterken. De laatste tijd zijn er in Nederland helaas meerdere voorbeelden geweest waarin dit gebeurd lijkt te zijn. Zo worden mensen met een migratieachtergrond minder vaak geselecteerd voor de studie geneeskunde als de loting gewogen wordt naar eindcijfer.
Een aantal bevindingen uit het onderzoek
- In het onderzoek is gekeken naar de toelating tot de studie geneeskunde. Een data-gedreven model is effectiever dan een loting: het aantal studenten dat binnen 6 jaar afstudeert ligt op deze manier 10% hoger dan bij loting
- Het onderzoek laat zien dat het kan: algoritmes gebruiken voor representatieve selectie
- Dat vraagt wel keuzes: zorg je dat er aandacht is voor de achtergrond van iemand of kijk je bijvoorbeeld naar gender? En wat is de gewenste mate van representativiteit?