top of page
  • Foto van schrijverAnnemijn Witkam

De Facebook Filterbubbel

Bijgewerkt op: 5 okt. 2020

Met het zicht op de volgende Amerikaanse presidentsverkiezingen in 2020 liet topman van Twitter, Jack Dorsey, onlangs in een serie Tweets weten dat het plaatsen van politieke advertenties zal worden ingeperkt. Mark Zuckerberg - de CEO van Facebook - wil ook zijn steentje bijdragen aan een eerlijkere verkiezing en sprak recentelijk studenten van Georgetown University toe met zijn nieuwe plannen voor Facebook. Deze zullen onder andere inhouden dat Facebook geavanceerde kunstmatige intelligentie technieken gaat toepassen om nepaccounts te kunnen detecteren en meer zal investeren in de beveiliging van zijn platform. Hiermee hoopt hij de presidentsverkiezingen van 2020 beter te beveiligen tegen buitenlandse interventie. Hoewel hij stappen zet in de goede richting, is het nog maar zeer de vraag of hiermee alle gevaren van de verspreiding van nepnieuws op Facebook zijn opgelost.


Buitenlandse interventie

Sinds Donald Trump de huidige Amerikaanse president is, zijn er meerdere aanwijzingen geweest die erop wijzen dat hij banden heeft met andere landen. Deze banden houden onder andere in dat in ruil voor financiële steun, de niet-Amerikanen zouden bijdragen aan Trumps campagne door het verspreiden van desinformatie. Zo verscheen het nieuwsbericht dat een groep mensen in een klein dorp in Macedonië meer dan 100 pro-Trump websites beheren, waarmee zij door middel van het verspreiden van nepnieuws grote omzetten genereren. Doordat zij nepaccounts beheren in het buitenland vallen de nepnieuwsberichten niet direct terug te leiden naar de president zelf.


In het licht van dit schandaal lijken de maatregelen tegen interventie van het buitenland die Zuckerberg benoemde in zijn speech, een goede eerste stap naar eerlijkere verkiezingen. Waar Twitter echter de spijker op de kop tikt, lijkt de Facebook-CEO de kern van het probleem te missen. Dit is namelijk dat Facebook het mogelijk maakt nepnieuwsberichten te verspreiden in politieke advertenties. Zoals ex-Cambridge Analytica werknemer, Brittany Kaiser, ook betoogt zijn hier niet per definitie buitenlandse banden voor nodig.


Gevaar voor de democratie

Zuckerberg bepleit zelf dat Facebook politieke advertenties niet controleert op feiten, omdat hij vindt dat mensen zelf moeten kunnen oordelen over wat politici zeggen. Volgens hem moet de vrijheid van meningsuiting niet te ver worden ondermijnd, aangezien dat niet past in een democratische samenleving.


Kaiser is het niet eens met deze visie en zal dan ook met een grote vinger naar Facebook wijzen als schuldige voor ondemocratische politieke verkiezingen in 2020 als Zuckerberg de verspreiding van onwaarheden blijft toestaan. Zij stelt terecht dat politici als Trump gebaat zijn bij een dergelijk “hands off”-beleid, waarbij politici niet worden tegengehouden als zij leugens verspreiden in hun politieke advertenties. Zeer recentelijk circuleerde een door Trump gesponsorde aanvalsadvertentie richting Joe Biden op sociale mediaplatforms. Deze advertentie stond vol met onnauwkeurigheden en onjuistheden over het werk van Bidens zoon in Oekraïne. CNN etiketteerde de advertentie als onacceptabel en liet deze daarom niet toe op hun nieuwsplatform. Indien de zogenaamde democratische moraalridder Zuckerberg zijn eigen argumentatie zou volgen, zou deze advertentie echter onder de vrijheid van meningsuiting vallen en derhalve redelijkerwijs al miljoenen views hebben.


Wetenschappers buigen zich al langer over de toenemende effectiviteit van het verspreiden van nepnieuws op sociale media. Wat volgens socioloog Zeynep Tufekci deze verspreiding zo gevaarlijk maakt, is dat Facebook door middel van algoritmes filterbubbels creëert waarin gebruikers zeer gepersonaliseerde informatie toegezonden krijgen. Doordat de informatie die gebruikers krijgen past binnen hun oorspronkelijke denkbeeld, zijn zij eerder geneigd deze te geloven - ook al is het niet gebaseerd op waarheid. Dit komt door cognitieve dissonantie, een theorie opgesteld door communicatiewetenschapper L. Festinger in zijn werk, ‘A Theory of Cognitive Dissonance’. Deze theorie verklaart dat iemand die tegenstrijdige gedachten ervaart, alles eraan doet om deze tegenstrijdigheid te verhelpen. Als een individu dus nepnieuwsberichten ontvangt die zijn initiële gedachtegang bevestigen, zal hij door cognitieve dissonantie geneigd zijn deze te geloven. Het onderscheiden van feit en fabel lijkt hiermee een onmogelijke taak voor Facebookgebruikers. In mijn visie een nog groter gevaar voor de democratie.


Alternatieve oplossing

Zuckerberg heeft wel een punt als we zijn beleidskeuze analyseren in het licht van het soort platform. CNN is immers van oudsher een nieuwsplatform en functioneert als maatschappelijke spreekbuis voor alles wat er in de wereld gebeurt. Ten behoeve van de kwaliteit van het nieuws moet het platform wel gecontroleerd worden op feiten. Facebook is daarentegen van origine een sociaal mediaplatform, waar onder andere discussie over bepaalde onderwerpen moet worden bevorderd. Deze discussie wordt echter verhinderd wanneer gebruikers vastzitten in hun fictieve wereld gecreëerd door filterbubbels.


Wellicht is een alternatieve oplossing dat er nieuwe wetgeving komt die grote sociale mediabedrijven forceren hun algoritmes neutraler en minder doelgericht te maken. Hiermee maken de bedrijven het enigszins makkelijker voor het publiek om onderscheid te maken tussen desinformatie en waarheden. Twitter zette zelf al een stap in de goede richting. Zal Facebook uiteindelijk ook volgen of zijn extra wetten noodzakelijk? Ik wacht met spanning af.

bottom of page