Dit artikel is geschreven door Farieha Aziz, mede-oprichter van de belangenbehartigingsgroep voor digitale rechten, Bolo Bhi.
In Pakistan wordt social media gebruikt voor regionale en lokale politiek. We hebben buitenlandse fake news-campagnes (Engels – alle links) op Twitter gezien en zware overheidsdruk op platforms om het moderatiebeleid aan te passen aan hun eigen agenda. Dit werd ondersteund door onderdrukkende nieuwe regels die gericht zijn op meningsuiting, en zelfs blokkeringen op platforms, waartoe de toegang alleen wordt hersteld als er aan de regels wordt voldaan. Er zijn zelfs gevallen geweest waarin politici, activisten en journalisten werden blootgesteld aan georganiseerde campagnes die hun sociale media-activiteiten markeerden wegens vermeende inbreuken op de regels van de platforms, wat er toe kan leiden dat hun accounts worden opgeschort of gesloten. Dit alles komt boven op de pesterijen en druk waarmee journalisten, activisten, academici, organisatoren en deelnemers aan vrouwenmarsen en religieuze minderheden in Pakistan al jarenlang te maken hebben. Deze intimidatie wordt nu online versterkt door hashtags, maar wordt nog steeds ondersteund door zeer reële geweldsrisico's. In de touwtrekkerij tussen overheden en platforms worden de belangen van gebruikers vaak buiten beschouwing gelaten.
Elke keer dat bedrijven een middenweg bereiken met overheden om hun diensten operationeel te houden en tegelijkertijd hun acties te verhullen in het belang van gebruikers delen ze een slag toe aan lokale belangenbehartigingsinspanningen. Deze zijn gericht op het creëren van een op rechten gebaseerd discours dat bedrijven en overheden verantwoording laat afleggen. De populariteit van een platform in elke regio is afhankelijk van het aantal gebruikers. Om een rechtsgebied aan te spreken als investeringsmarkt zijn de cijfers ook van belang. Gebruikers van platforms voeren deze functie uit, waarvan zowel platforms als overheden profiteren. Maar als het gaat om wat wel of niet beschikbaar is voor weergave op een platform, welke inhoud wordt verwijderd, op welke gronden, via welk proces en welk verhaal beschikbaar is voor gebruikers, zijn dit beslissingen die ofwel eenzijdig worden genomen door een bedrijf of de overheid, of gezamenlijk tussen overheden en platforms. Gebruikers worden door bedrijven of overheden niet als primaire belanghebbenden beschouwd als het gaat om besluitvorming.
Het maatschappelijk middenveld in Pakistan strijdt al jaren tegen onderdrukkende wetten en regeringsmaatregelen die het spreken beperken. Maar nu is de manier waarop bedrijven hun gemeenschapsnormen opstellen en handhaven evenzeer een reden tot bezorgdheid als de wetten en mechanismen die regeringen toepassen om spraak te beperken. Of het nu gaat om gebruikers die klagen over de gemeenschapsnormen of regels van platforms of het proces van het accepteren van “juridische verzoeken” van overheden om inhoud te verwijderen of accounts op te schorten – het heeft een aanzienlijke impact op de expressie. Wat deze mechanismen voor het modereren van inhoud inhouden, inclusief hoe beslissingen worden genomen en de vraag wie beslist, maar ook of deze beslissingen in de eerste plaats genomen zouden moeten worden, vereist veel meer aandacht. Maar ondanks het enorme belang van de beslissingen over platforms, blijft er een enorm tekort aan transparantie bestaan.
Tijdens de RightsCon-top van 2015 riepen maatschappelijke organisaties op tot uitgebreide transparantieverslagen van platforms. De verklaring luidde:
…Without greater qualification of the data published and clarity on the process companies follow to determine whether a request is legal or is made by a legitimate legal entity, and how the determination to ultimately restrict content or hand over user data is made, the report’s usefulness to users, researchers, journalists, and advocates is limited.
…Zonder betere kwalificatie van de gepubliceerde gegevens en duidelijkheid over het proces dat bedrijven volgen om te bepalen of een verzoek legaal is of wordt gedaan door een legitieme juridische entiteit, en hoe wordt besloten om uiteindelijk de inhoud te beperken of gebruikersgegevens over te dragen, is het nut van het rapport voor gebruikers, onderzoekers, journalisten en advocaten is beperkt.
Om transparantie zinvol en bruikbaar te maken, moeten rapporten meer bevatten dan alleen cijfers en categorieën. In 2020 zijn we hier niet dichter bij.
Terwijl bedrijven markten over de hele wereld betreden en daardoor verschillende juridische jurisdicties, legt de toepasbaarheid van lokale wetten en de naleving ervan allerlei beperkingen op aan meningsuiting. Wat eerder bedreigingen voor een grenzeloos internet waren, is tegenwoordig een realiteit. Dit is het tijdperk van internet met grenzen.
Overheidsverzoeken worden doorgaans afzonderlijk gecategoriseerd in transparantieverslagen. Echter, als de aard van de inhoud van accounts die in de verzoeken worden geïdentificeerd in strijd zijn met de regels van een bedrijf, worden ze vaak opgenomen in secties van de rapporten die betrekking hebben op de eigen acties van een bedrijf om zo de regels door te drukken. Er wordt hierbij geen rekening gehouden met de middelen die de overheid in vergelijking met particulieren tot haar beschikking heeft om inhoud te controleren en te rapporteren. Tenzij alle overheidsverzoeken afzonderlijk worden gecategoriseerd, ondanks het feit dat ze onder de voorwaarden van servicemoderatie vallen, zal er geen manier zijn om het aantal verzoeken van regeringen en regelgevers te bepalen. Dit is een indicatie van hun prioriteiten en een manier om ze ter verantwoording te roepen voor de manier waarop ze hun macht uitoefenen.
Waar speelt de eindgebruiker een rol in het eindspel van de bedrijven om hun platforms draaiend te houden en de pogingen van overheden om er maximale controle over uit te oefenen? In Pakistan lijkt het erop dat de onlangs herziene en goedgekeurde ― maar niet verbeterde ― regels voor het verwijderen en blokkeren van onwettige inhoud (procedure, toezicht en waarborgen), 2020, dit dilemma alleen maar zullen verergeren. Aan de kaak gesteld door lokale digitale rechtengroepen en buitenlandse platforms via de Asia Internet Coalition (AIC), vereiste de eerdere versie van de regels platforms om inhoud binnen korte tijdsbestekken te verwijderen en te beperken. Het niet naleven zou leiden tot boetes en een verbod op diensten. In de zomer publiceerde de toezichthouder kennisgevingen op grond van artikel 37 van de Prevention of Electronic Crimes Act 2016 en blokkeerde verschillende apps zoals Bigo, TikTok, Skout, SayHi, Tagged, Grindr en Tinder, waartoe de toegang alleen werd hersteld wanneer bedrijven ermee instemden hun inhoud aan te passen aan de hand van het moderatiebeleid naar lokale versie, goedgekeurd door de Pakistan Telecommunications Authority. Nieuwsberichten suggereerden dat er niet veel is veranderd aan de regels – een openbare versie werd pas op 18 november 2020 beschikbaar gesteld.
Gevangen tussen grensoverschrijdend gedrag van de overheid en zakelijke compliance, lopen gebruikers dubbel gevaar. De ervaring met navigatieplatforms wordt voor hen steeds omslachtiger. Ze worden ofwel volledig van platforms verdreven of gedwongen om als stille toeschouwers te blijven in plaats van actieve deelnemers. Behalve voor degenen die zich bezighouden met manipulatie, desinformatie en misbruik, verliezen platforms snel hun aantrekkingskracht, met name voor journalisten en mensenrechtenverdedigers. Dit moet verholpen worden door middelen in te zetten om de problemen van gebruikers te begrijpen en te verhelpen in plaats van regeringen nog meer te faciliteren.
Dit artikel is ontwikkeld als onderdeel van een serie artikelen van het Wikimedia/Yale Law School Initiative on Intermediaries and Information om perspectieven vast te leggen over de wereldwijde impact van beslissingen over inhoudsmoderatie van online platforms. Je kunt alle artikelen in de serie lezen op hun blog of op hun Twitter-feed @YaleISP_WIII.