Spiegelbeelden

Reflecteren over Vooroordelen in Technologie

Welke aannames heb je over mensen die hun hond in hun bed laten slapen? Of over mensen die liever bruisend water drinken? Wie zie je als je je die persoon voorstelt?

Het kan zijn dat sommige ideeën die je hebt, gebaseerd zijn op onbewuste vooroordelen. Hoewel het misschien een 'neutrale' technologie lijkt, kent AI ook vooroordelen.

In deze Data Detox-gids bekijken we een aantal voorbeelden van redenen dat AI misschien niet zo'n objectief hulpmiddel is als mensen denken. We voeren een reeks zelfreflecties uit om ons vermogen om vooroordelen te herkennen te vergroten en zo de maatschappij ... en onszelf een spiegel voor te houden.

Op naar de andere kant van de spiegel!


AI begrijpelijk maken

AI begrijpen hoeft geen hogere wiskunde te zijn. Sommige mensen praten over AI alsof het magie is, maar ‘artificiële intelligentie’ (kunstmatige intelligentie) is gewoon een machine.

Wist je dat? AI is niet slechts één ding. Simpel gezegd: AI-tools zijn computerprogramma’s waarin een heleboel gegevens zijn ingevoerd waarmee ze voorspellingen doen. AI verwijst naar een verscheidenheid aan tools die ontworpen zijn om patronen te herkennen, problemen op te lossen en beslissingen te nemen met een veel grotere snelheid en op een veel grotere schaal dan mensen dat kunnen.

Maar zoals dat bij elke tool het geval is, is AI door mensen ontworpen en geprogrammeerd. De mensen die deze machines creëren, maken ook de regels waar die machines zich aan moeten houden: “Doe dit, maar doe niet dat”. Wanneer je weet dat AI-tools geautomatiseerde systemen zijn met hun eigen, door mensen gemaakte, beperkingen, kan je met meer vertrouwen over de mogelijkheden en nadelen van AI te praten.

Als mensen over AI praten, kan het over veel verschillende dingen gaan. Bekijk enkele voorbeelden van AI-tools die heel populair zijn (klik of tik op de onderstaande kaarten voor meer informatie):

Tekstgeneratie-tools

Tekstgeneratie-tools

Tekstgeneratie-tools creëren content op basis van bepaalde trefwoorden (of ‘prompts’) die jij bepaalt. Ze worden getraind op grote hoeveelheden tekst van het internet, van verschillende mate van kwaliteit.

Deze worden ook wel ‘grote taalmodellen’ of in het Engels ‘large language models’ (LLMs) genoemd. Ze kunnen ook naar hun specifieke productnaam worden genoemd, zoals ChatGPT of zelfs worden aangeduid met meer informele termen, zoals ‘chatbots’ of ‘AI-assistenten’.

Hoewel deze tools erom bekend staan dat ze staaltjes van menselijke intelligentie kunnen leveren, zoals het behalen van hoge cijfers voor examens (1), kunnen ze ook ‘hallucineren’. Dat betekent dat ze ook teksten genereren die onjuist zijn (2).

Beeldgeneratie-tools

Beeldgeneratie-tools

Beeldgeneratie-tools maken foto’s of video’s op basis van bepaalde trefwoorden die jij invoert.

Deze worden vaak tekst-naar-afbeelding-modellen genoemd, of worden zelfs naar hun specifieke productnamen genoemd, zoals DALL-E of Stable Diffusion.

Deze tools kunnen ongelooflijk geloofwaardige afbeeldingen en video’s maken, maar staan er ook om bekend dat ze de wereld reduceren tot stereotypen (3) en dat ze gebruikt kunnen worden voor seksuele uitbuiting (‘sextortion’) en intimidatie (4).

Aanbevelingssystemen

Aanbevelingssystemen

Aanbevelingssystemen laten content zien waarvan ze ‘voorspellen’ dat de kans groot is dat je erop klikt of een interactie mee zult hebben. Deze systemen werken op de achtergrond van zoekmachines, sociale media feeds en 'automatisch afspelen' op YouTube.

Deze systemen worden ook wel algoritmen genoemd.

Deze tools kunnen je meer aanbieden over de onderwerpen waarin je al geïnteresseerd bent, maar kunnen je ook terecht laten komen in gevaarlijke konijnenholen (5). Aanbevelingssystemen worden gebruikt bij belangrijke beslissingen, zoals het aannemen van personeel, toelating tot universiteiten, het verlenen van hypotheken en andere aspecten van het dagelijks leven (6).

Lees meer over deze populaire soorten AI: (1) “Hier is een lijst met moeilijke examens die ChatGPT en GPT-4 hebben gehaald”, (2) “Onderzoekers op het gebied van desinformatie waarschuwen voor AI chatbots”, (3) “Hoe AI de wereld reduceert tot stereotypen”, (4) “FBI zegt dat artificiële intelligentie wordt gebruikt voor ‘sextortion’ en intimidatie”, (5) “De ‘For You’-feed van TikTok dreigt kinderen en jongeren naar schadelijke content voor de geestelijke gezondheid te lokken”, (6) “Cathy O’Neil over de ongebreidelde kracht van algoritmen”.

De zwakke plekken van AI blootleggen

Nu we enkele populaire AI-tools hebben bekeken, gaan we dieper in op hoe chatbots werken. Dit zijn tools die tekst genereren.

AI wordt door mensen ontworpen en getraind met datasets (gegevensverzamelingen). De mensen die het bouwen, hebben net als jij bepaalde overtuigingen, meningen en ervaringen die hun keuzes bepalen, of ze zich dit nu realiseren of niet. De engineers en bedrijven die AI bouwen en trainen, vinden bepaalde informatie of doelen misschien belangrijker dan andere. Afhankelijk van de datasets die ze geven aan de AI-tools tijdens het bouwen, zoals algoritmes of chatbots, kunnen die machines bevooroordeelde resultaten opleveren. Daarom kan AI onnauwkeurige gegevens produceren, verkeerde aannames genereren of dezelfde slechte beslissingen nemen als een persoon.

Chatbots krijgen zoveel data ingevoerd dat ze computercode kunnen schrijven en glansrijk examens kunnen halen, maar ze presenteren ook dingen die niet altijd waar zijn als feiten. Ze kunnen ook teksten genereren die vooroordelen herhalen die al bestonden in hun trainingsgegevens of in de hoofden van programmeurs die hen hebben getraind.

Terwijl sommige deskundigen geloven dat tekstgenerators uit zichzelf 'slimmer' worden, zeggen anderen dat ze de woorden die ze herhalen, niet echt begrijpen. Hier staan enkele redenen waarom je wellicht eens moet nadenken over de vooroordelen achter de dingen die chatbots je vertellen:

  • Sommige data(en) waarmee ze zijn getraind, kunnen persoonlijk zijn, auteursrechtelijk beschermd of zonder toestemming zijn gebruikt.
  • Afhankelijk van de datasets kunnen ze vol zitten met haatzaaiende uitlatingen(en), complottheorieën(en), of informatie die gewoonweg onjuist(en) is.
  • De data kan bevooroordeeld zijn ten opzichte van bepaalde personen, geslachten, culturen, religies, beroepen of omstandigheden.

Wist je dat? AI-tools worden getraind met data die ook zaken in zijn geheel weglaten. Als er weinig of geen informatie over een groep mensen, taal of cultuur in de trainingsdata staat, kan de tool geen antwoorden over hen genereren. Een belangrijk onderzoek uit 2018 van Joy Buolamwini, genaamd “Gender Shades”(en) liet zien hoe wijdverbreide gezichtsherkenningssystemen moeite hadden om de gezichten van mensen van kleur te herkennen, met name die van zwarte vrouwen.

Zet vooroordelen in de schijnwerpers

Nu we enkelen zwakke punten in AI-datasets, die door mensen zoals wij worden samengesteld, hebben benoemd, is het tijd om naar onszelf te kijken. Hoe kan de manier waarop ons menselijk brein werkt de vooroordelen in AI onthullen?

Stel je het volgende scenario voor: je ziet een nieuwsbericht over een onderwerp dat je interesseert en nog voordat je erop klikt, kun je je al voorstellen wat erin staat. Dat komt niet doordat we allemaal waarzeggers zijn, maar doordat we vooraf gevormde ideeën hebben over bepaalde onderwerpen. Misschien houd je soms vooroordelen in stand door te generaliseren of door te snel conclusies te trekken:

  • Overgeneraliseren betekent dat men overhaaste oordelen velt op basis van onvoldoende informatie.
  • Overhaast conclusies trekken betekent het trekken van conclusies met weinig of geen bewijs.

Als je één van deze dingen hebt gedaan, ben je niet de enige! Deze denkpatronen zijn niet ongewoon. Het is belangrijk om je ervan bewust te worden en concrete stappen te ondernemen om ervoor te zorgen dat je ze onder controle houdt.

Probeer het zelf! Denk eens terug aan een eerder voorbeeld: mensen die hun hond in hun bed laten slapen. Stel je voor wie die mensen in het algemeen zijn. Wat hebben mensen die dat doen met elkaar gemeen?

  • Waar wonen mensen die dat doen meestal?
  • Hoeveel geld verdienen mensen die dat doen meestal?
  • Hoe schoon of rommelig zijn hun huizen meestal?

Als je je bepaalde kenmerken of gedragingen kunt voorstellen van mensen die hun 'buitenschoenen' in huis dragen, heb je wellicht te veel gegeneraliseerd of te snel conclusies over hen getrokken.

Als je niet hebt gegeneraliseerd en beseft dat een gewoonte niet per se andere aspecten van hun leven definieert, is dat geweldig! Maar wacht even! Voordat je denkt dat je boven vooroordelen staat, lees dan even mee tot het einde, want er valt nog veel meer te ontdekken.

Er zijn soorten vooroordelen die dieper geworteld zijn in individuen, organisaties, culturen en samenlevingen. Belicht ze door na te denken over de volgende vragen:

  • Hoe verwacht je dat anderen zich presenteren, ze zich onder andere gedragen, kleden en spreken?
  • Zijn er groepen die meer risico's lopen, meer gestraft worden of meer gestigmatiseerd worden vanwege hun uiterlijk of de manier waarop ze zich gedragen, kleden of spreken?

De vooroordelen waar je zojuist over hebt nagedacht, zijn vaak gebaseerd op aannames, houdingen en stereotypen die al heel lang deel uitmaken van culturen en die je besluitvorming op onbewuste wijze kunnen beïnvloeden. Daarom worden ze ook wel impliciete vooroordelen genoemd. Ze zitten vaak diepgeworteld in je denkwijze, zijn moeilijk te herkennen en zijn lastig om onder ogen te zien.

Veelvoorkomende impliciete vooroordelen zijn:

  • Gendervooroordelen: de neiging om op basis van vooroordelen of stereotypen conclusies te trekken over mensen van een ander geslacht.
  • Raciale- en/of etnische vooroordelen: de neiging om conclusies te trekken over mensen op basis van hun huidskleur, culturele achtergrond en/of etniciteit.

Probeer het zelf! Harvard beschikt over een grote bibliotheek met impliciete vooroordelen-testen die je gratis online(en) kunt uitproberen om te zien hoe goed je het doet en op welke gebieden je nog kunt verbeteren.

Met veel impliciete vooroordelen kan het een hele toer lijken om die overtuigingen alleen al te identificeren. Het is onwaarschijnlijk dat het van de ene op de andere dag lukt, maar waarom zou je er niet nu mee beginnen?

Alles is uitvergroot

Nu je de veelvoorkomende voorbeelden van deze denkpatronen en impliciete vooroordelen hebt gezien, denk je eens in hoe ze er op veel grotere schaal uit zouden zien. Denkpatronen en impliciete vooroordelen zoals deze kunnen niet alleen individuen, maar ook hele groepen mensen raken, vooral wanneer ze 'hardgecodeerd' in computersystemen terechtkomen.

Probeer het zelf! Met behulp van de gratis Perchance.org-software, een tekst-naar-afbeelding-generator, geeft de prompt 'mooie vrouw' de volgende resultaten:

Zes AI-gegenereerde afbeeldingen van blanke vrouwen met blauwe ogen en golvend bruin haar, die laag uitgesneden tanktops met spaghettibandjes dragen AI-afbeeldingen gegenereerd op Perchance.org op 13 augustus 2024

Als de tool zes afbeeldingen van 'mooie vrouwen' heeft gemaakt, waarom zien ze er dan allemaal bijna identiek uit?

Probeer het zelf eens. Verschillen jouw resultaten?

Er zijn grotere studies over dit onderwerp uitgevoerd, met vergelijkbare resultaten. Je kunt hier meer lezen over een dergelijke studie en beeldgrafieken bekijken: “ Mensen zijn bevooroordeeld. Generatieve AI is nog erger”(en).

AI-tools zijn niet neutraal of onbevooroordeeld. Ze worden beheerd en gebouwd door mensen, met hun eigen motivaties. Zelfs AI-tools met 'open' in hun naam zijn niet per se transparant over hoe ze werken en zijn mogelijk geprogrammeerd met ingebouwde vooroordelen.

Tip: Ondervraag AI. Stel kritische vragen over hoe AI-modellen worden gebouwd en getraind om inzicht te krijgen in hoe AI deel uitmaakt van een groter systeem. Je kunt bijvoorbeeld vragen:

  • Wie zijn de eigenaars van de bedrijven die AI-modellen creëren?
  • Hoe maken de bedrijven winst?
  • Welke machtssystemen worden er door de bedrijven gecreëerd of onderhouden?
  • Wie profiteren er het meest van de AI-tools?
  • Wie lopen er het grootste risico op schade door deze AI-systemen?

De antwoorden op deze vragen zijn misschien moeilijk of onmogelijk te vinden. Dat zegt op zichzelf al genoeg.

Omdat technologie door mensen wordt ontwikkeld en informatie ingevoerd krijgt door middel van data (dat ook door mensen wordt verzameld en gelabeld), kunnen we technologie zien als een afspiegeling van de problemen die al bestaan in de maatschappij. En we kunnen erop rekenen dat AI-gestuurde tools machtsongelijkheid versterken en vooroordelen systematiseren en in stand houden, maar dan wel sneller dan ooit tevoren.

Zoals je hebt geleerd zijn gebrekkige denkpatronen volkomen normaal en heeft iedereen ze op de een of andere manier. Wanneer je vandaag de feiten onder ogen ziet, kan het je helpen voorkomen dat je morgen fouten maakt en kan het je helpen fouten in de systemen, zoals AI, te identificeren.


Geschreven door Safa Ghnaim in de zomer van 2024. Met dank aan Christy Lange en Louise Hisayasu voor hun bewerkingen, opmerkingen en herzieningen.

Deze gids is ontwikkeld door Tactical Tech in samenwerking met het Goethe Institut Brazilië.

Laatst bijgewerkt op: 23-8-2024