• Zeger van Ingen

Hate speech en borderline content - Een te grote kluif voor Youtube alleen

Online hate speech is hard op weg het meest besproken thema voor internetregulering in 2019 te worden. Na Duitsland in 2017 wordt deze week ook in Frankrijk een wetsvoorstel voor het bestrijden van online hate speech besproken. En onder aanhoudende internationale druk heeft YouTube afgelopen maand zelf aangegeven haar beleidsregels op dit gebied aan te scherpen. Deze ontwikkelingen vormen een logische volgende stap in de Europese oorlogscampagne tegen Big Tech-bedrijven die zich naast privacy- en mededingingsregels nu steeds meer geconfronteerd zien met anti-hate speech regels.


Aanpakken van online hate speech is op zich een nobel streven. Niet alleen is het een wijdverbreid en groeiend fenomeen, ook wordt steeds meer duidelijk hoe groot de impact is op de offline wereld. Dit Duitse onderzoek laat zien hoe sociale media een katalysator kunnen vormen tussen online hate speech en geweldsmisdrijven. Binnen de EU wordt over het algemeen gekozen voor zelfregulering op dit gebied. Sociaal-mediabedrijven worden ook verondersteld zelf de beste oplossing voor dit probleem te kunnen vinden. Het feit dat Facebook, YouTube en Twitter sinds februari van dit jaar bijna driekwart van de gerapporteerde hate speech binnen 24 uur verwijderen, lijkt wat dat betreft een stap in de goede richting. Maar ik vraag mij af of de nadruk niet te veel ligt op removal rates van gerapporteerde hate speech en te weinig op adequate controle van die meldingen. Moeten we de verantwoordelijkheid voor online vrijheid van meningsuiting wel volledig bij die bedrijven neerleggen?


Naar YouTube wordt iedere minuut 400 uur aan videomateriaal geüpload, veel te veel om door mensen te worden gecontroleerd op hate speech. Een door YouTube ontwikkeld algoritme moet dus helpen die content te detecteren. Maar er is geen transparantie over de werking en herkomst van die algoritmes. Ook is niet duidelijk hoeveel berichten er ten onrechte gefilterd worden. Wat we wel weten is dat in de industrie 90% precisie wordt gezien als een goede score. Laten we er dus voor het gemak van uitgaan dat 10% van de verwijderde berichten ten onrechte wordt verwijderd. Moeten we als samenleving tevreden zijn met een botte bijl-aanpak op een belangrijk gebied als de vrijheid van meningsuiting?


Helaas blijft het trouwens niet bij een foutmarge van 10%. De nieuwe YouTube policy richt zich steeds meer op het bestrijden van wat YouTube “borderline content” noemt. Met borderline wordt dan bedoeld: content die dicht bij de grens van de ‘Community Guidelines’ komt. Die guidelines zijn verre van duidelijk, waren oorspronkelijk geschreven voor websites, en zijn nu dus ook van toepassing op YouTube-filmpjes. In hoofdstuk 3.2 worden reviewers die algoritmes trainen, geadviseerd om websites die mogelijk haat verspreiden of mensen misinformeren een lage rating te geven, met als gevolg dat die filmpjes niet meer in de recommended feed verschijnen. Daar komt nu dus content bij die dicht bij die grens van mogelijk komt. Maar wat is dicht bij de grens? De precieze definitie van ‘borderline content’ blijft een raadsel. YouTube komt niet verder dan de volgende vage omschrijving:


“We bepalen niet wat borderline is in onze beleidsregels. We gebruiken menselijke beoordelaars en experts uit de hele VS om de machine learning systemen te trainen die de aanbevelingen maken.”


Op het gebied van online hate speech is hiermee een groeiend grijs gebied aan het ontstaan, iets wat zich slecht verhoudt tot het grote belang dat gemoeid is met de vrijheid van meningsuiting. Vooral in het licht van de steeds belangrijkere rol die sociale media spelen bij die vrije meningsuiting is dit problematisch. Steeds meer stemmen gaan namelijk op om platforms als YouTube als nutsbedrijf te kwalificeren. In mijn volgende blog ga ik verder in op dat vraagstuk en de problematische werking van de detectie-algoritmes voor hate speech.


#hatespeech