Voor het eerst is in de Verenigde Staten grootschalig onderzoek gedaan naar de vraag of algoritmen in sociale media de politieke tegenstellingen vergroten. Conservatieve Amerikanen krijgen andere politieke berichten dan progressieve, zo blijkt. Maar de mens is niet zo maar een passieve ontvanger van informatie.
Wanneer het gaat over ‘polarisatie in sociale media’, wordt nogal eens aangenomen dat die schade aanricht. Heel anders klonk ooit de Amerikaanse journalist Nick Bilton, die stelde dat techno-paniek van alle tijden is, maar nog niet resulteerde in een ramp.
De boekdrukkunst heeft geen staten vernietigd. De locomotief verstikte geen passagiers door zijn snelheid van maar liefst 30 kilometer per uur. En televisie heeft het menselijk brein niet doen smelten. Samenlevingen, schreef Bilton, hebben juist de neiging zich altijd weer verrassend aan te passen aan nieuwe technologie.
Wat gaat het deze keer worden? Amerikaanse onderzoekers van dertien universiteiten keken voor een grootschalig onderzoek naar politieke polarisatie in sociale media voor het eerst in de enorme ‘zwarte doos van algoritmen’ van Meta, het moederbedrijf van Facebook en Instagram. Wat ze donderdag bekendmaakten viel niet tegen.
De cijfers zijn duizelingwekkend. Meta verstrekte gegevens over 208 miljoen Facebook-accounts: alle volwassen gebruikers over wie Meta zelf al had gemeten wat hun politieke voorkeur was. Deze week publiceren de wetenschappelijke tijdschriften Nature en Science de resultaten van de eerste vier onderzoeken uit deze Facebook and Instagram Election Study. Er volgen nog acht deelonderzoeken.
De vraag wat we hieruit moeten opmaken is daarom alleen voorlopig te beantwoorden. Sommige bevindingen zijn niettemin tamelijk verrassend. Of zoals een van de onderzoekers (die zonder controle van Meta konden werken) het op de online persconferentie voorzichtig formuleerde: ‘Ik denk dat dit nieuw is, en tegen-intuïtief’.
Hoe ontwrichtend zijn sociale media? De vraag is of ze voor gebruikers een nieuwe werkelijkheid creëren of dat ze weerspiegelen en misschien ook nog uitvergroten wat er al gaande was in een samenleving.
Belanden we op sociale media in filterbubbels en echokamers van gelijkgestemden, doordat algoritmen ons geven wat we graag zien? Of lopen we mensen die anders leven en denken allang ook in het échte leven mis, sinds oude plaatsen van samenkomst zoals kerk of vereniging er minder toe doen?
De onderzoeksperiode: vijf maanden rond de Amerikaanse presidentsverkiezingen van 2020. Aanleiding: de aanhoudende beschuldiging dat sociale media in het immens gepolariseerde Amerika verantwoordelijk zijn voor de verspreiding van nepnieuws. Zolang wij meer dan twee politieke partijen hebben, is voorzichtigheid overigens geboden bij vergelijkingen met Nederland.
Over de auteur
Margriet Oostveen schrijft voor de Volkskrant over sociale wetenschappen, geschiedenis en maatschappij. Eerder trok ze tien jaar als columnist door Nederland.
De eerste stevige uitkomst luidt dat algoritmen ‘extreem invloedrijk’ zijn als het gaat om wat gebruikers precies te zien krijgen. Conservatieve Amerikanen krijgen significant andere politieke berichten dan progressieve. Dit is in lijn met eerder onderzoek, maar dat kon nooit zo ver onder de motorkap van Facebook komen als nu.
Er zijn al eerder voorstellen gedaan om de algoritmen aan te passen, bijvoorbeeld door alleen een chronologische tijdlijn in te stellen. Dit hebben de onderzoekers nu in een experiment getest bij gebruikers die daar vooraf toestemming voor gaven. Hierdoor daalde bijvoorbeeld de desinformatie die ze ontvingen substantieel. Maar de chronologische tijdlijn had nauwelijks invloed op hun politieke opvattingen. Hun standpunten veranderden niet.
Dan was er de vraag hóe anders precies conservatieve en progressieve Amerikanen hun nieuws consumeren. Het blijkt niet alleen te gaan om twee gescheiden rijstroken op de snelweg van de nieuwsconsumptie: de verhoudingen zijn scheef. Conservatieve Amerikanen kregen rond de verkiezingen veel meer berichten te zien die exclusief voor hen waren bedoeld dan progressieve Amerikanen – zie het alsof hun rijstrook een stuk breder was.
Volgens de onderzoekers komt dit doordat groepen en pagina’s op Facebook de meeste eenzijdige politieke berichten delen en die blijken in meerderheid van conservatieve snit. Wie zulke pagina’s bezoekt, krijgt ze dankzij het algoritme vervolgens ook nog vaker te zien.
Ook het overgrote deel van politiek nieuws dat door het factcheckprogramma van Meta al van het label ‘fake’ was voorzien, kwam zo meer terecht bij conservatieve Facebook-gebruikers.
De wetenschappers onderzochten ook of het zou helpen om de ‘deel’-knop van Facebook buiten werking te stellen zodat berichten minder snel worden verspreid, ofwel ‘viraal’ gaan. Dit leidde tot een aanzienlijke daling van politiek nieuws uit onbetrouwbare bronnen en halveerde de hoeveelheid politieke content. Maar opnieuw had het verwijderen van de deelfunctie geen effect op politieke polarisatie of op politieke voorkeur.
Dan tot slot de echokamers, ofwel plaatsen waar uitsluitend de eigen denkbeelden worden bevestigd. Algoritmen kunnen die versterken. De oude aanname was dat dit zou leiden tot polarisatie, omdat mensen in echokamers geen mensen met een andere mening tegenkomen en daar dus van zouden vervreemden. Meerdere onderzoekers plaatsten hier al kanttekeningen bij. Dit onderzoek geeft ze gelijk.
Ten eerste blijken er nauwelijks afgesloten echokamers te vinden: de berichten die de gemiddelde Facebook-gebruiker ontvangt, bestaan maar voor ongeveer de helft uit berichten van bronnen met dezelfde opvattingen. Slechts bij 20 procent van de gebruikers loopt dat percentage terug tot een kwart.
De onderzoekers verminderden de bronnen met gelijke opvattingen in een experiment met eenderde bij Facebookgebruikers die daar toestemming voor hadden gegeven. Het gevolg was dat zij relatief veel andere opvattingen aantroffen.
Vaak is aangenomen dat dit politieke standpunten zou nuanceren. Maar weer had dit geen effect, ook niet op het geloof in desinformatie.
Polarisatie is en blijft een feit. Maar of algoritmen de grote aanstichter zijn? ‘Het is belangrijk te onthouden dat mensen meer dan passieve ontvangers’ van hun informatie zijn, reageerde onderzoeker Brendan Nyhan vrijdag in The Atlantic. ‘Algoritmen zijn krachtig, maar mensen ook.’
Source: Volkskrant