De bittere waarheid over AI: ook kunstmatige intelligentie heeft vooroordelen

Illustratie door Tactical Tech, met visuele elementen van Yiorgos Bagakis en Alessandro Cripsta. Gebruikt met toestemming.

Dit artikel is geschreven door Safa Ghnaim in samenwerking met het Goethe-Institut Brazilië en oorspronkelijk gepubliceerd op DataDetoxKit.org. Een herziene versie is opnieuw gepubliceerd als onderdeel van een samenwerkingsovereenkomst met Global Voices. 

Hoewel kunstmatige intelligentie (AI) vaak wordt gezien als ‘neutrale technologie’, is dat beeld misleidend. Ook AI kent vooroordelen. AI wordt ontwikkeld door mensen en getraind op datasets. Net als jij en ik, hebben de mensen die deze technologie bouwen hun eigen overtuigingen, meningen en ervaringen. Die invloeden werken door in de keuzes die zij maken, of ze zich daar nu bewust van zijn of niet. Ontwikkelaars en bedrijven die AI-systemen ontwerpen, hechten mogelijk meer waarde aan bepaalde informatie of doelen dan aan andere. Afhankelijk van de datasets waarmee zij AI ‘voeden’, bijvoorbeeld algoritmes of chatbots, kunnen deze systemen bevooroordeelde uitkomsten opleveren. Hierdoor kan AI onjuiste gegevens genereren, foutieve aannames doen of dezelfde verkeerde beslissingen nemen als mensen.

AI is geen magie: machines die geprogrammeerd zijn door mensen dragen hun gebreken met zich mee

Sommigen praten over AI alsof het een wonder is, maar in feite is het gewoon een machine. Simpel gezegd zijn AI-tools computerprogramma’s die gevuld zijn met enorme hoeveelheden data, om ze te helpen voorspellingen te doen. ‘AI’ is een verzamelnaam voor allerlei tools die ontworpen zijn om patronen te herkennen, problemen op te lossen en beslissingen te nemen, vaak veel sneller en op grotere schaal dan mensen dat kunnen.

Maar zoals elke tool is AI door mensen ontworpen en geprogrammeerd. Zij geven de machine regels mee: ‘Doe dit, maar doe dat niet.’ Door te begrijpen dat AI automatische systemen zijn met beperkingen door menselijke invloeden, kun je met meer vertrouwen praten over wat AI wel en niet kan.

Wanneer mensen het over AI hebben, kunnen ze het over heel verschillende dingen hebben. Hieronder vind je een paar veelgebruikte AI-toepassingen en hun gebreken:

Tekstgeneratoren creëren content op basis van kernwoorden of ‘prompts’ die jij opgeeft. Ze zijn getraind op grote hoeveelheden tekst van het internet, van wisselende kwaliteit. Je kent ze misschien als large language models (LLMs), of onder namen als ChatGPT, of informeler als chatbots of AI-assistenten. Hoewel deze tools soms indrukwekkende prestaties leveren die door mensen lijken gemaakt, zoals het halen van examens, staan ze ook bekend om hun ‘hallucinaties’: ze genereren ook informatie die niet klopt.

Beeldgeneratoren maken afbeeldingen of video’s op basis van kernwoorden die jij invoert. Je kunt ze kennen als tekst-naar-beeld-modellen, of zelfs met specifieke productnamen als DALL-E of Stable Diffusion. Deze tools kunnen ongelooflijk realistische beelden en video’s genereren, maar staan er ook om bekend dat ze de wereld reduceren tot clichés en stereotypen. Ze kunnen zelfs worden misbruikt voor sextortion of intimidatie.

Aanbevelingssystemen laten je content zien waarvan ze ‘voorspellen’ dat je er waarschijnlijk op zult klikken of er iets mee zult doen. Deze systemen werken op de achtergrond van zoekmachines, sociale media en autoplay-functies op YouTube. Ze worden ook wel algoritmes genoemd. Ze geven je vaak meer van wat je al leuk vindt, maar er zijn ook gevaarlijke valkuilen. Zulke systemen worden bovendien ingezet bij belangrijke beslissingen, zoals sollicitaties, toelating tot universiteiten, hypotheekaanvragen, en andere aspecten van het dagelijks leven.

Hoewel sommige experts beweren dat AI-tools, zoals chatbots, vanzelf ‘slimmer’ worden, zeggen anderen dat ze vol fouten zitten. Hier zijn enkele redenen waarom je zou willen nadenken over de vooroordelen die achter AI schuilgaan:

  • Sommige data waarmee AI getraind wordt, kan persoonlijk, auteursrechtelijk beschermd of zonder toestemming gebruikt zijn.
  • Sommige datasets bevatten haatdragende taal, complottheorieën of simpelweg foutieve informatie.
  • De gegevens kunnen bevooroordeeld zijn tegen bepaalde mensen, genders, culturen, religies, beroepen of situaties.

AI-tools worden ook getraind met data die bepaalde dingen helemaal weglaten. Als er bij het trainen van AI weinig tot niets bekend is over een bepaalde bevolkingsgroep, taal of cultuur, kan het hier ook geen inhoud over genereren. Een belangrijk onderzoek uit 2018, Gender Shades van Joy Buolamwini, liet zien hoe gezichtsherkenningssystemen moeite hadden met het herkennen van mensen van kleur, vooral zwarte vrouwen. Deze gebrekkige systemen werden op dat moment al ingezet door de politie in de Verenigde Staten.

Maak vooroordelen zichtbaar om verspreiding ervan te voorkomen

Nu je weet dat AI door mensen wordt gebouwd, en dus menselijke gebreken kan weerspiegelen, is het tijd om ook naar onszelf te kijken. Hoe kan de manier waarop onze eigen hersenen werken meer inzicht geven over de vooroordelen van AI?

Er bestaan vooroordelen die diep verankerd zijn in individuen, organisaties en samenlevingen. Belicht ze door over deze vragen na te denken:

  • Wat verwacht jij van anderen in hoe zij zich presenteren, gedragen, kleden of spreken?
  • Zijn er groepen mensen die meer risico lopen op straf, afwijzing of stigmatisering vanwege hun uiterlijk, gedrag of taalgebruik?

De antwoorden op deze vragen laten vaak impliciete vooroordelen zien: aannames, houdingen en stereotypen die al heel lang deel uitmaken van culturen, en die ongemerkt je besluitvorming beïnvloeden. Omdat ze onbewust zijn, worden ze ‘impliciete vooroordelen’ genoemd. Ze zitten vaak ingesleten in je manier van denken, zijn moeilijk te herkennen en lastig te erkennen.

Veelvoorkomende impliciete vooroordelen zijn onder meer:

  • Gender bias: de neiging om snel onbewust conclusies te trekken over mensen op basis van hun geslacht.
  • Raciale en/of etnische bias: de neiging om snel conclusies te trekken over mensen op basis van huidskleur, cultuur en/-of etnische achtergrond.

Harvard heeft een enorme verzameling gratis online testen waarmee je jouw eigen impliciete vooroordelen kunt ontdekken en waar je aan kan werken. Heb je veel impliciete vooroordelen, dan kan het een hele zoektocht zijn, alleen al om ze te herkennen. Het gebeurt zelden van de ene op de andere dag. Maar ergens moet je beginnen, dus waarom niet nu?

Alles wordt door AI uitvergroot

Nu je hebt gezien hoe zulke denkpatronen werken, stel je dan voor wat er gebeurt als die op grote schaal worden toegepast. Wanneer impliciete vooroordelen en gedachtenpatronen worden ingebouwd in technologie, kunnen ze hele bevolkingsgroepen beïnvloeden, en dat gebeurt razendsnel.

Gebruik je bijvoorbeeld een gratis tekst-naar-beeld-tool zoals Perchance.org en typ je in ‘mooie vrouw’, dan krijg je het volgende te zien:

AI-beelden gegenereerd op Perchance.org op 13 augustus 2024. Afbeeldingen geleverd door Tactical Tech.

Als de tool zes afbeeldingen van ‘mooie vrouwen’ heeft gecreëerd, waarom zien ze er dan allemaal bijna hetzelfde uit?

Probeer het zelf eens: krijg jij andere resultaten?

Er zijn grotere onderzoeken naar dit onderwerp gedaan, met vergelijkbare resultaten. Zie bijvoorbeeld het onderzoek ‘Humans are biased. Generative AI is even worse.‘, compleet met infographics.

AI-tools zijn niet neutraal of onbevooroordeeld. Ze zijn ontworpen door mensen met hun eigen belangen. Zelfs tools die zich ‘open’ noemen, zijn niet altijd transparant over hoe ze werken en bevatten vaak ingebouwde vooroordelen.

Stel jezelf kritische vragen over de bouw en training van AI-modellen om een idee te krijgen van hoe AI deel uitmaakt van een groter systeem:

  • Wie is de eigenaar van de bedrijven achter deze AI-technologie?
  • Hoe verdienen de bedrijven hieraan?
  • Welke machtsstructuren worden door deze bedrijven ondersteund of in stand gehouden?
  • Wie profiteert er het meest van deze AI-tools?
  • Wie loopt er juist risico door deze systemen?

Als de antwoorden op deze vragen moeilijk of onmogelijk te vinden zijn, zegt dat op zichzelf al veel.

Aangezien technologie gebouwd wordt door mensen en geïnformeerd wordt door gegevens (die ook verzameld en gelabeld worden door mensen), kunnen we technologie zien als een weerspiegeling van de problemen die al bestaan in de samenleving. We kunnen ervan uitgaan dat AI bestaande machtsverhoudingen en structurele vooroordelen versterkt, maar dan sneller en op grotere schaal dan ooit tevoren.

Zoals je hebt geleerd, zijn gebrekkige denkpatronen volkomen normaal en iedereen heeft ze in zekere mate. Door nu al bewust stil te staan bij je eigen denkpatronen, kun je in de toekomst beter fouten voorkomen én sneller herkennen waar systemen zoals AI tekortschieten.

Start een discussie

Auteurs graag inloggen »

Regels

  • Alle reacties worden beoordeeld door een moderator. Verzend je reactie maar één keer, anders kan deze als spam worden gemarkeerd.
  • Wees respectvol tegen elkaar. Reacties met hatelijke opmerkingen, obsceniteiten en persoonlijke aanvallen worden niet goedgekeurd.