Volg je het? Hoe technologie ‘informatiechaos’ kan verergeren

Two pink birds with strings of emails beneath them. Image by Liz Carrigan and Safa, with visual elements from Alessandro Cripsta, used with permission.

Afbeelding door Liz Carrigan en Safa, met visuele elementen van Alessandro Cripsta, met toestemming gebruikt.

Dit artikel is geschreven door Safa voor de serie ‘Digitized Divides‘, oorspronkelijk gepubliceerd op tacticaltech.org [en – alle links]. Een bewerkte versie hiervan is opnieuw onder een samenwerkingsovereenkomst gepubliceerd door Global Voices.

Voor mensen die tot traditioneel gemarginaliseerde gemeenschappen behoren, zijn sociale media een belangrijk instrument voor informatie en verbinding. Jongeren krijgen toegang tot belangrijke gemeenschappen waartoe ze in het echte leven misschien geen toegang hebben, zoals LHBTQ+-vriendelijke ruimtes. Zoals één tiener zegt: “Mijn hele leven ben ik onophoudelijk gepest. Maar online vind ik het makkelijker om vrienden te maken… Zonder zou ik hier vandaag niet zijn.” Onderzoekers laten echter weten dat sociale media ‘zowel het beste als het slechtste’ is dat de transgendergemeenschap is overkomen, waarbij haatzaaierij en verbaal geweld tragische gevolgen hebben in het echte leven. “Uit tot nu toe uitgevoerd onderzoek blijkt dat bij ervaringen op sociale media het mes aan twee kanten kan snijden voor LHBTQ+-jongeren. Ze kunnen hen beschermen tegen of juist het risico laten lopen op het vergroten van psychische problemen en middelenmisbruik.” 

In januari 2025 kondigde Mark Zuckerberg aan dat Meta (inclusief Facebook en Instagram) hun programma voor factchecken door derden zou beëindigen ten gunste van het ‘communitiy notes’-model op X (voorheen Twitter). Meta's besluit omvatte het beëindigen van beleid dat LHBTQ+-gebruikers beschermt. Misinformatie is een aanhoudend probleem op sociale media platformen, versterkt en aangewakkerd door het ontwerp van de apps, waarbij de meeste kliks en likes de meeste beloningen opleveren, of het nu gaat om aandacht of om geld. Uit onderzoek is gebleken dat “de 15% meest trouwe Facebookgebruikers verantwoordelijk waren voor 37% van de onjuiste krantenkoppen die in het onderzoek werden gedeeld. Dit suggereert dat een relatief klein aantal mensen een buitensporige impact kan hebben op het informatie-ecosysteem.”

De belofte van Meta om hun programma voor factchecken door derden te verwijderen, heeft bij journalisten, mensenrechtenorganisaties en onderzoekers de alarmbellen doen rinkelen. De Hoge Commissaris voor de mensenrechten van de VN, Volker Türk, reageerde als volgt: “Het toestaan van haatzaaiende taal en schadelijke content online heeft gevolgen in de echte wereld.” Meta wordt ervan beschuldigd betrokken te zijn geweest bij de genocide op de Rohingya in Myanmar of dit zelfs te hebben aangewakkerd. Ook zou het bedrijf etnisch geweld in Kenia, Ethiopië, en Nigeria hebben aangewakkerd, wat deels door de wijdverbreide misinformatie op het platform zou komen.

“We hebben bewijs uit verschillende bronnen dat haatzaaiende uitlatingen, verdeeldheid zaaiende politieke uitlatingen en misinformatie op Facebook samenlevingen over de hele wereld beïnvloeden”, aldus een gelekt intern Facebook-rapport uit 2019. “We hebben ook overtuigend bewijs dat onze belangrijkste productmechanismen, zoals viraliteit, aanbevelingen en optimalisatie voor betrokkenheid, een belangrijke rol spelen bij het succes van dit soort uitingen op het platform.” Het International Fact-Checking Network reageerde kort na Zuckerbergs aankondiging in 2025 in een open brief op het beëindigen van het negen jaar durende programma voor factchecken door derden van Meta, met de verklaring dat het een stap achteruit is voor degenen die een internet willen dat prioriteit geeft aan nauwkeurige en betrouwbare informatie.”

Onverifieerbare berichten, ongeordende feeds

De algoritmes achter sociale media platformen bepalen welke informatie prioriteit krijgt, wordt herhaald en wordt aanbevolen aan mensen in hun feeds en zoekresultaten. Maar ondanks diverse rapporten, onderzoeken en veranderend gebruikersgedrag hebben de bedrijven zelf niet veel gedaan om hun gebruikersinterfaceontwerpen aan te passen aan de modernere manieren van interactie en het zinvol factchecken door gebruikers mogelijk te maken.

Zelfs wanneer mediakanalen correcties publiceren op onjuiste informatie en ongefundeerde beweringen die ze in stand houden, is dat niet voldoende om de schade te herstellen. Zoals First Draft News het beschrijft: “Het is heel, heel moeilijk om misinformatie uit je brein te krijgen.” Wanneer onjuiste informatie online of in het nieuws wordt gepubliceerd en begint te circuleren, is de ‘schade’ zogezegd al aangericht, ook al is de informatie binnen enkele minuten of uren weer verwijderd. Correcties en verduidelijkende opmerkingen krijgen zelden zoveel aandacht als het oorspronkelijke stuk onjuiste informatie. En zelfs als ze worden opgemerkt, worden ze niet altijd door de lezer in zich opgenomen.

Algoritmes zijn zo wijdverbreid dat ze op het eerste gezicht triviaal lijken, maar ze zijn in werkelijkheid ontzettend belangrijk. Bekende gevallen, zoals de vader die er via een algoritme achter kwam dat zijn dochter zwanger was, en een andere vader die in zijn Facebook Year in Review de dood van zijn dochter ‘vierde’, laten zien hoe de makers, ontwikkelaars en ontwerpers van algoritmisch samengestelde content rekening zouden moeten houden met de ergste scenario's. Grensgevallen zijn weliswaar zeldzaam, maar ze zijn wel van belang en rechtvaardigen inspectie en aanpak.

Terwijl het publiek zich nog verder laat verdiepen in materie, zijn er talloze rapporten en onderzoeken die hebben aangetoond hoe aanbevelingsalgoritmen op sociale media het publiek kunnen radicaliseren op basis van de content die zij prioriteit geven en aanbieden. “Met name morele verontwaardiging is waarschijnlijk de krachtigste vorm van online content.” Uit een onderzoek uit 2021 bleek dat TikTok-kijkers van transfobische video's door het algoritme van TikTok naar gewelddadige, extreemrechtse content werden geleid, inclusief racistische, vrouwenhatende en discriminerende berichten. “Ons onderzoek suggereert dat transfobie een vooroordeel kan zijn dat leidt tot verdere radicalisering van extreemrechts.” YouTube werd ook ooit wel de ‘radicaliseringsmachine’ genoemd en lijkt nog steeds te worstelen met zijn aanbevelingsalgoritmes. Een voorbeeld is het recente rapport over YouTube Kids, dat jonge kijkers meeneemt in eetstoornisverhalen. In de aanloop naar de Duitse verkiezingen in 2025 ontdekten onderzoekers dat de feeds van sociale media op verschillende platformen, maar vooral op TikTok, rechts georiënteerd zijn.

Een erosie van de geloofwaardigheid

Mensen zoeken steeds vaker op andere manieren naar informatie, buiten de traditionele nieuwsmedia om. Uit een rapport uit 2019 bleek dat tieners het meeste nieuws tot zich namen via sociale media. Een artikel uit 2022 legde uit hoe veel tieners vaker TikTok dan Google gebruiken om informatie te vinden. In datzelfde jaar werd er onderzoek gedaan naar hoe volwassenen onder de 30 jaar bijna net zoveel vertrouwen hebben in informatie van sociale media als in nationale nieuwsbronnen. Uit een rapport dat betrekking had op meerdere landen uit 2023, bleek dat minder dan de helft (40 procent) van alle respondenten “het grootste deel van de tijd vertrouwen heeft in het nieuws.” Onderzoekers waarschuwden dat de ontwikkeling van informatiechaos ertoe kan leiden dat overheden steeds meer controle over informatie krijgen. Ze voegden daaraan toe dat “toegang tot zeer geconcentreerde technologieën een nog belangrijker onderdeel van soft power wordt voor grootmachten om hun invloed te consolideren.”

Bij de verkiezingen in Indonesië in 2024 stond het gebruik van door AI gegenereerde digitale avatars centraal, vooral om de aandacht van jonge kiezers te trekken. Voormalig kandidaat en huidige president Prabowo Subianto gebruikte een schattige digitale avatar, gemaakt door generatieve AI, op sociale media platformen zoals TikTok. Hij wist zijn publieke imago volledig te veranderen en het presidentschap te winnen, wat de aandacht afleidde van beschuldigingen tegen hem van ernstige mensenrechtenschendingen. Generatieve AI, waaronder chatbots als ChatGPT, speelt ook een belangrijke rol in de informatiechaos, omdat de teksten en afbeeldingen die ze produceren zo realistisch en overtuigend zijn.

Zelfs ogenschijnlijk onschuldige content op spampagina's zoals ‘Shrimp Jesus‘ kan gevolgen hebben in de echte wereld, zoals vertrouwensbreuk, oplichting en datalekken door tussenpersonen die deze informatie terugkoppelen naar systemen, waardoor de digitale invloed toeneemt. Bovendien kan de output van generatieve AI sterk onder controle gehouden worden. “Geautomatiseerde systemen hebben overheden in staat gesteld om preciezere en subtielere vormen van online censuur uit te voeren”, aldus een rapport van Freedom House uit 2023. “Verspreiders van desinformatie maken gebruik van door AI gegenereerde afbeeldingen, audio en tekst, waardoor de waarheid gemakkelijker te verdraaien en moeilijker te onderscheiden is.”

Zoals in deze reeks herhaaldelijk is benadrukt, is technologie niet goed of slecht; het hangt af van het doel waarvoor het wordt gebruikt. “Technologie erft de politiek van haar auteurs, maar bijna alle technologie kan worden ingezet op manieren die deze kaders overstijgen.” Deze verschillende gebruiksscenario's en vergelijkingen kunnen nuttig zijn bij het bespreken van specifieke tools en methoden, maar alleen op een oppervlakkig niveau, bijvoorbeeld met betrekking tot de digitale avatars die in dit artikel werden genoemd.

Een belangrijk voorbeeld komt uit Venezuela, waar het medialandschap bol staat van door AI gegenereerde pro-regeringsboodschappen en waar journalisten met gevangenisstraf worden bedreigd. Als reactie hierop zijn journalisten gebruik gaan maken van digitale avatars om hun identiteit te beschermen en hun privacy te waarborgen. Dit is zeker een verhaal over veerkracht, maar het past binnen een grotere en meer duistere context van macht en straf. Hoewel elk afzonderlijk instrument zowel voor- als nadelen kan laten zien in zijn gebruiksscenario's, blijkt bij uitzoomen en kijken naar het grotere geheel dat machtssystemen en -structuren mensen in gevaar brengen en dat de afwegingen van technologie simpelweg niet symmetrisch zijn.

Er kunnen twee waarheden tegelijk bestaan en het feit dat technologie wordt gebruikt om krachten te bundelen en eveneens mensen te schaden en te onderdrukken, is veelzeggend.

Start een discussie

Auteurs graag inloggen »

Regels

  • Alle reacties worden beoordeeld door een moderator. Verzend je reactie maar één keer, anders kan deze als spam worden gemarkeerd.
  • Wees respectvol tegen elkaar. Reacties met hatelijke opmerkingen, obsceniteiten en persoonlijke aanvallen worden niet goedgekeurd.