Een artikel in the Guardian vermeldt dat er artificiële intelligentie bestaat die op basis van een foto met 81 procent zekerheid kan inschatten wat de seksuele voorkeur is. De conclusie die the Guardian trekt is dat deze zogenaamde ‘gaydar’ ingezet kan worden in opsporing van homoseksualiteit. Dat klinkt angstaanjagend. Maar het probleem is niet dat AI daar daadwerkelijk toe in staat is. Het probleem is dat journalisten die aanname niet kritisch bevragen en daarmee bijdragen aan de mystificatie van artificiële intelligentie. In de media wordt AI al snel als ‘beter’ of ‘slimmer’ dan de mens beschreven, terwijl het vaak genuanceerder ligt.
De blogserie ‘DO worry, be happy!’ verschijnt op waag.org en gaat over nieuwe ontwikkelingen. Aan de hand van actualiteiten bevraagt Waag Society experts uit het veld van technologie, innovatie en ethiek over waarom we ons zorgen moeten maken over de toekomst van technologie in onze samenleving. Om deze blogserie af te trappen stelden we een aantal vragen aan Marleen Stikker, directeur van Waag Society.
Wat is het probleem?
The Guardian heeft de claims van de wetenschappers zonder enige kritische analyse overgenomen en draagt bij aan het beeld dat artificiële intelligentie supermacht heeft. Het is exemplarisch hoe de media bericht over de claims van technologie. De ‘claim’ dat software homoseksualiteit kan detecteren klopt niet en bij nadere analyse van het onderzoek blijkt dat de dataset die gebruikt is al ‘voorgekookt’ was. Zelflerende machines reproduceren stereotypes en vooroordelen van haar makers. Of zoals Gregor Mattson zegt in zijn uiterst intelligente kritiek op het Guardian artikel: ‘Machine learning is het witwassen van vooroordelen.’
Lerende machines worden gevoed door datasets: in dit geval de profielfoto’s van blanke mannen die openlijk voor hun seksualiteit uitkomen, op zoek zijn naar een partner en zijn ingeschreven op een online datingsite. Noch objectief noch representatief dus. Daar gaat het artikel in haar ‘angst voor AI’ totaal aan voorbij.
Waarom moeten wij ons hier zorgen over maken?
Het is zorgwekkend dat de claim over deze slimme machine niet gefalsificeerd wordt door wetenschap en journalistiek. Kritische notie over bias in machine learning wordt niet toegepast op deze publicatie en the Guardian neemt dit klakkeloos over. Dit doet lijken dat AI inderdaad slimmer dan mensen wordt, terwijl het alleen beter is het reproduceren van stereotypes en vooroordelen. Machines zijn vervolgens beter in herkennen van diezelfde stereotypes. Wij mensen zien meer nuances. Dat zou de titel van het artikel moeten zijn. Om nog maar te zwijgen over het feit dat het begrip seksualiteit wordt teruggebracht naar twee categorieën en het 19e-eeuws denken waarin je kaaklijn definieert of je op mannen valt of niet. Dit terwijl we juist een emancipatiegolf beleven waar plek is voor meer vormen van seksualiteit. De systemen richten we nu in om cultureel terug te gaan naar de 19e eeuw, terwijl we als mensen eindelijk in staat zijn buiten deze beperkte categorieën te denken.
Hoe gaat het in de toekomst?
Hier gaan we nog veel meer van zien. Vormen van artificiële intelligentie die bevooroordeeld zijn door training en data waar het mee gevoed wordt. De bias en vooronderstellingen zijn van de onderzoekers en degene die het onderzoek financieren. We moeten onszelf afvragen: met welke intenties is het onderzoek opgezet en met welke uitkomsten is de opdrachtgever tevreden? Het blijven cruciale vragen. Je ziet dat de wereld wordt gereduceerd tot categorieën die de machine kan leren. Vervolgens wordt de machine geportretteerd als ‘beter’ of ‘slimmer’ dan de mens, terwijl hij juist nuances mist. Alle grijze zones verdwijnen. De machine is immers beperkt tot het uitspuwen van de rommel die haar programmeur erin stopt. Het aanbrengen van de categorie definieert de uitkomst. Het vraagstuk rond AI en gezichtsherkenning gaat hierbij ook steeds urgenter worden. James Vincent gaat daar in zijn artikel op the Verge nog dieper op in.
Hoe kunnen we concreet invloed uitoefenen?
Misschien triviaal, maar ik krijg altijd veel energie van initiatieven die de machine voor de gek houden. In de traditie van ‘suiker in de tank’. Laten we een applicatie maken waarbij je vijf varianten van je eigen gezicht kan genereren, met ieder een iets andere verhouding van neus, ogen, kaaklijn. Als je een profielfoto op sociale media uploadt kan deze app dan automatisch vijf varianten van jouw foto in doorlopende carrousel laten gaan. Door de databases te vullen met fake informatie voorkom je dat je als persoon in een stereotype categorie wordt geplaatst en hiernaar wordt beoordeeld.
Een meer structurele aanpak is het vergroten van de kennis over de bias van zelflerende systemen. Ik pleit daarbij ook voor een algoritme autoriteit, zodat claims en bias kunnen worden beoordeeld. Artificiële intelligentie moet daarbij expliciet laten zien hoe er getraind wordt, door wie en vanuit welke waarden en financiële belangen dit gebeurt. Alleen dan kunnen we technologie echt controleren en de baas blijven.
Dit artikel verscheen eerder op de website van Waag Society.
Reacties 2
Ik zag dit op tv bij, volgens mij, RTL Late Night of een soortgelijk babbelprogramma en stond er van te kijken dat iedereen daar aan tafel maar gewoon aannam dat dit waar was! Want ik geloofde er al geen snars van. De journalistiek mag zich echt wel even wat kritischer opstellen bij dit soort claims.
Heb je het wel gelezen? Het is veel erger dan ‘het kan niet’. Er kan van alles wel. De consequenties daarvan zijn heftig. Dat de macht van een elitair groepje ‘deciders’ daarmee nog veel groter wordt dan we al dachten, bijvoorbeeld. Dát is het probleem.
Reacties worden eerst goedgekeurd door de redactie.