Abonneer Log in

Online content moderation, een helse job

De focus bij online content moderation ligt op de privacy van consumenten, maar de massa getraumatiseerde arbeiders die de consumptie-ervaring van het internet mogelijk maken blijven zelf onzichtbaar.

Op 11 mei maakte de Europese Commissie een nieuw wetsvoorstel bekend om online kindermisbruik beter op te sporen en te vervolgen. In het jaar 2021 werden immers ongeveer 85 miljoen foto's en video's van kindermisbruik wereldwijd verspreid op het internet. Dat zijn onwezenlijke aantallen. Momenteel controleren internetbedrijven echter zelf hun platformen op vrijwillige basis. Het resultaat is een zeer onevenwichtige en moeilijke doorstroom van informatie naar de autoriteiten. 95% van alle meldingen komen van slechts één bedrijf.

De Commissie stelt onder meer voor om internetbedrijven te verplichten hun eigen platformen te screenen voor verboden materiaal. Bedrijven die niet voldoen aan deze verplichting, zouden monsterboetes opgelegd krijgen van ettelijke miljoenen euro's. De Commissie en consumentenorganisaties voorspellen slechts één mogelijk nadeel: gevaren voor de privacy van internetgebruikers. Internetbedrijven worden immers verplicht om alle communicatie op hun platform te controleren, zelfs de versleutelde boodschappen. Vooraleer het voorstel uitgewerkt wordt, moet er dus nog grondig nagedacht worden over de impact van zo'n invasief maar goedbedoeld toezicht op consumenten.

Alle pogingen om content moderation volledig te automatiseren, zijn tot nog toe gefaald.

In heel deze discussie is echter één opvallende afwezige: de zogenaamde 'content moderatoren'. Dit zijn de arbeiders die het screeningswerk uiteindelijk moeten uitvoeren. Wij internetgebruikers, die zorgeloos content consumeren van Twitter, Facebook of SamPol, staan zelden stil bij deze onzichtbare werkkrachten. Velen denken dat algoritmes en artificiële intelligentie verboden foto's, fake news of haatberichten opsporen en verwijderen, maar dat is een illusie. Een algoritme kan zelf moeilijk het verschil herkennen tussen een poedelnaakte babyfoto of kinderporno. Daar is mensenwerk voor nodig. Alle pogingen om content moderation volledig te automatiseren, zijn tot nog toe gefaald. Amazonbaas Jeff Bezos spreekt in deze casus over 'artificiële artificiële intelligentie'. Content moderation lijkt automatisch te verlopen, maar is in werkelijkheid mensenwerk. Dit zijn vaak kansarme, jonge arbeiders die over de hele wereld werken voor onderaannemers van de bekende internetgiganten, zoals Meta en YouTube. Hun arbeidsvoorwaarden zijn slecht en ze ondertekenen vaak geheimhoudingscontracten waarin ze beloven niemand te vertellen voor wie ze eigenlijk werken of wat hun job precies inhoudt. Content moderation is een van die onzichtbare sectoren van de schaduweconomie die het internet draaiende houdt.

Het lot van content moderatoren is de laatste jaren zowat enkel onder de aandacht gekomen om de psychologische gruwel van hun werk te belichten. Het is verre van ongewoon voor content moderatoren om na 6 maanden te stoppen en de rest van hun leven afhankelijk te zijn van psychologische begeleiding. Velen lijden aan posttraumatisch stresssyndroom en hebben professionele behandeling nodig. Ze kijken dag in dag uit naar ziekmakende content zoals onthoofdingsvideo's van ISIS, dierenmishandeling, oorlogsbeelden of kinderporno. De Duitse arbeidssocioloog, Moritz Altenried, vat het probleem krachtig samen in zijn boek The Digital Factory: 'werknemers lijden aan depressie, slaapstoornissen en zelfs affectieve en seksuele problemen, terwijl sommige, jongere arbeiders zo paranoïde worden, na het zien van ontzettend veel kinderporno, dat ze niet meer in staat zijn hun kinderen alleen achter te laten bij anderen.' (p. 153)

Werknemers in content moderation lijden aan depressie, slaapstoornissen, en zelfs affectieve en seksuele problemen.

Momenteel werken ongeveer 100.000 mensen wereldwijd in content moderation. Dit aantal zal enorm stijgen wanneer het voorstel van de Commissie aanvaard wordt. De grote internetplatformen moeten dan immers alle dataverkeer op hun websites volledig controleren op verboden content. De Commissie verwacht eigenlijk dat steeds meer mensen hun beroep maken van het zoeken naar een paar naalden in een online vuilnisbelt van gore en gewelddadige foto's en video's. Dat in de aankondiging van het wetsvoorstel hierover niets vermeld wordt, is dan ook triest. De focus ligt op de privacy van consumenten, maar de massa getraumatiseerde arbeiders die de consumptie-ervaring van het internet mogelijk maken, blijven zelf onzichtbaar.

Ik heb zelf geen magische oplossingen voor het probleem van content moderation en ik begrijp dat er iets moet gedaan worden aan online kindermisbruik. Zolang het onmogelijk is om via échte artificiële intelligentie content moderation volledig te automatiseren, is het moeilijk te zien hoe menselijke schaduwarbeid afgeschaft zou kunnen worden.

Toch zijn er een paar lessen te trekken uit deze situatie.

Ten eerste moeten internetbedrijven transparanter zijn over schaduwarbeid. In plaats van arbeiders te verbergen achter een scherm van schijnautomatisering, moeten ze open communiceren over het zware onderhoudswerk van hun platformen.

Ten tweede moeten instanties zoals de EU af van hun bijziende focus op consumentenbescherming. Hoewel de EU veel werk verricht in het beschermen van internetconsumenten – denk maar aan de GDPR-wetgeving – loopt zij achter in de regulering van algoritmes in de werksfeer. Hier komt stilaan verandering in met bijvoorbeeld nieuwe wetgeving over platformarbeid, maar het blijft moeilijk het beeld af te schudden van een EU die vooral de belangen van kapitaalkrachtige, consumerende middenklassers verdedigt en voor de onderkant van de arbeidsmarkt een race to the bottom organiseert.

Tot slot moeten wij internetgebruikers ook nadenken over onze verantwoordelijkheden. Het internet is een publieke ruimte waar wij dagelijks meerdere uren vertoeven. Desalniettemin gedragen wij ons nog vaak als louter passieve consumenten. We willen met zo weinig mogelijk moeite zo goed mogelijk geëntertaind worden. In de analoge publieke ruimte zou zoiets ondenkbaar zijn. Als iemand zijn oud vuil op straat gooit, spreek je die aan of meld je dit aan de wijkagent. Je vraagt niet aan de gemeente om achteraf extra vuilniswagens op te sturen. Hetzelfde zou kunnen gelden in de online publieke ruimte: in plaats van meer content moderatoren te eisen om achteraf online bagger op te kuisen, is er ook actief online burgerschap vereist om internetplatformen te onderhouden. Wie van het internet een aangename en welkome omgeving wil maken, moet daar ook zelf aan bijdragen. Op die manier bouwen we aan een meer democratische en inclusieve publieke ruimte online.

Abonneer je op Samenleving & Politiek

abo
 

SAMPOL STEUN

50€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*
MEEST GEKOZEN

SAMPOL COMPLEET

40€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
 

SAMPOL KORTING

30€/jaar (-25j en +65j)

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
 

SAMPOL ONLINE

30€/jaar

  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief

Het magazine verschijnt 10 keer per jaar; niet in juli en augustus.
Proefnummer? Factuur? Contacteer ons via info@sampol.be of op 09 267 35 31.
Het abonnementsgeld gaat jaarlijks automatisch van je rekening. Het abonnement kan je op elk moment opzeggen. Lees de Algemene voorwaarden.

Je betaalt liever via overschrijving?

*Ontdek onze SamPol draagtas.