Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
uva.nl

Als je in Google genderneutraal zoekt, bijvoorbeeld op het woord ‘mens’ of ‘persoon’, domineren mannen in de zoekresultaten die je te zien krijgt. Dit werkt vooroordelen met betrekking tot mannen en vrouwen in de hand, zelfs zodanig dat het invloed kan hebben op de beslissingen van mensen bij de werving en selectie van nieuw personeel. Dit blijkt uit nieuw onderzoek van psychologen van de Universiteit van Amsterdam (UvA) en New York University (NYU), dat op woensdag 13 juli is gepubliceerd in het wetenschappelijke tijdschrift 'Proceedings of the National Academy of Sciences' (PNAS). Het is een van de meest recente studies die aan het licht brengt hoe kunstmatige intelligentie (AI) onze percepties en handelingen kan veranderen.

Afbeelding: Freepik

‘Er zijn steeds meer zorgen dat de algoritmen achter moderne AI-systemen discriminerende resultaten produceren, vermoedelijk omdat ze worden getraind op basis van data waarin maatschappelijke vooroordelen zijn ingebakken’, vertelt Madalina Vlasceanu, postdoc aan NYU en eerste auteur van de nieuwe studie. ‘Dit kan leiden tot een toename in plaats van een afname van bestaande ongelijkheden.’ Samen met David Amodio, hoogleraar Sociale psychologie aan de UvA, ging Vlasceanu na of de mate van genderongelijkheid in een samenleving samenhangt met vooroordelen in algoritmische output (internetzoekresultaten) en – als dat het geval is – of blootstelling aan dergelijke output mensen kan beïnvloeden om in overeenstemming met deze vooroordelen te handelen.

Verschillen tussen landen

De onderzoekers keken eerst of het woord ‘persoon’, dat net zo goed naar een man als een vrouw kan verwijzen, vaker wordt verondersteld betrekking te hebben op een man. Hiertoe deden ze Google image searches op het woord ‘persoon’ in 37 landen, in de dominante lokale taal van het betreffende land. Het aandeel mannelijke afbeeldingen dat uit de zoekopdrachten kwam, was hoger in landen met een grotere genderongelijkheid dan in landen met weinig tot geen genderongelijkheid, uitgaande van de rangschikking van de Global Gender Gap Index. Amodio: ‘Algoritmische gendervooroordelen lijken dus samen te hangen met maatschappelijke genderongelijkheid. Toen we onze studie drie maanden later herhaalden met een steekproef in 52 landen, zagen we dat opnieuw bevestigd.’

Wie is de peruker?

Vlasceanu en Amodio voerden vervolgens een reeks experimenten uit om te onderzoeken of blootstelling aan de zoekmachineresultaten met gendervooroordelen de percepties en het handelen van mensen kunnen beïnvloeden. De bijna 400 deelnemers aan de experimenten werd verteld dat ze Google image-zoekresultaten te zien kregen van vier beroepen die ze waarschijnlijk niet kenden: chandler (kaarsenmaker), drapenier (lakenmaker), peruker (pruikenmaker) en lapidaris (iemand die met steen werkt). Voordat ze de afbeeldingen te zien kregen, moesten ze eerst prototypische oordelen geven over elk beroep (zoals: ‘Wie is er waarschijnlijker een peruker, een man of een vrouw?’). Zowel de vrouwelijke als de mannelijke deelnemers dachten dat alle vier de beroepen eerder beoefend zouden worden door een man dan door een vrouw.

De afbeeldingen die zij daarna te zien kregen van elk beroep, waren qua man-vrouw-samenstelling zo gekozen dat ze representatief waren voor landen met hoge scores voor genderongelijkheid (ongeveer 90% mannen versus 10% vrouwen in bijvoorbeeld Hongarije en Turkije) óf landen met lage scores voor genderongelijkheid (ongeveer 50% mannen tegenover 50% vrouwen in bijvoorbeeld IJsland en Finland). Op die manier konden de onderzoekers de resultaten van internetzoekopdrachten uit verschillende landen nabootsen. Na het zien van de afbeeldingen wijzigden de deelnemers die de resultaten met weinig tot geen gendervooroordelen hadden gezien, hun ‘mannelijke’ vooringenomenheid ten opzichte van hun eerdere beoordeling. De deelnemers die de afbeeldingen met een hoge mate van genderongelijkheid hadden gezien, behielden daarentegen hun vooringenomenheid, waarmee hun perceptie van mannelijke prototypen versterkt werd.

Ethisch AI-model

Tot slot moesten de deelnemers aangeven hoe waarschijnlijk het zou zijn dat een man of een vrouw aangenomen zou worden voor elk van de beroepen (‘Welk type persoon – man of vrouw – heeft de meeste kans om te worden aangenomen als peruker?’). Daarnaast moesten zij na het zien van afbeeldingen van twee kandidaten – een vrouw en een man – zelf een keuze maken wie ze zouden aannemen (‘Kies een van deze twee kandidaten voor een baan als peruker’). Ook hier leidde blootstelling aan afbeeldingen met een gelijke representatie van mannen en vrouwen tot meer gelijkwaardige beoordelingen en was de kans groter dat werd gekozen voor een vrouwelijke sollicitant. Vooroordelen op basis van internetzoekopdrachten werken dus ook door op keuzes bij de werving en selectie van nieuw personeel en daarmee op het in stand houden en zelfs versterken van sociale ongelijkheid tussen mannen en vrouwen.

‘Onze bevindingen maken duidelijk dat we een ethisch AI-model nodig hebben dat menselijke psychologie combineert met computationele en sociologische benaderingen om de vorming, werking en beperking van algoritmische vooroordelen aan te kunnen pakken’, vertelt Amodio tot besluit.

Publicatiegegevens

Madalina Vlasceanu en David M. Amodio: ‘Propagation of Societal Gender Inequality by Internet Search Algorithms’, in: Proceedings of the National Academy of Sciences (12 juli 2022). https://doi.org/10.1073/pnas.2204529119