Home

Mega-onderzoek van 208 miljoen Facebook-accounts in Amerika brengt politieke polarisatie in beeld

Het grootste onderzoek naar polarisatie in sociale media tot dusver, waarvoor data van ruim 200 miljoen Facebook-accounts in Amerika door moederbedrijf Meta zijn gedeeld, bevestigt dat gebruikers met verschillende politieke opvattingen daar vooral politieke informatie van gelijkgestemden te zien krijgen. Dat dit invloed op hun politieke meningsvorming zou hebben, is niet aangetoond.

Dit blijkt uit de US 2020 Facebook and Instagram Election Study. Nature en Science publiceren donderdag artikelen met de eerste resultaten van onafhankelijke onderzoekers die zijn verbonden aan dertien Amerikaanse universiteiten. Het onderzoek biedt voor het eerst inzicht in de enorme 'zwarte doos van algoritmen' van Meta, stelt Science.

Over de auteur
Margriet Oostveen schrijft voor de Volkskrant over sociale wetenschappen, geschiedenis en maatschappij. Eerder trok ze tien jaar als columnist door Nederland.

Niet eerder konden onderzoekers zo diepgaand vergelijken wat gebruikers van sociale media via algoritmen aan politieke berichten in hun tijdlijn ontvangen, plus wat ze daadwerkelijk bekijken en of ze deze berichten liken, becommentariëren of delen.

‘Dit is een onderzoek dat qua schaal zijn weerga niet kent’, reageert Rens Vliegenthart, hoogleraar strategische communicatie aan de Wageningen Universiteit. ‘Het laat zien dat we echt een stap verder komen in onderzoek naar de impact van socialemediagebruik als socialemediaplatformen bereid zijn hun data te delen.’

Meta, extra terughoudend met het verspreiden van data sinds in het Cambridge Analytica-schandaal bekend werd dat het bedrijf gegevens van gebruikers inzette om politieke advertenties te verkopen, werkt mee omdat sociale media steeds meer onder vuur liggen als verspreiders van nepnieuws.

‘We moeten beter begrijpen of sociale media onze maatschappij meer polariseren, of dat het scheidslijnen reflecteert die er al zijn’, stelt het bedrijf.

‘Een indrukwekkend en opmerkelijk onderzoek’, zegt Petter Törnberg, rekenkundig onderzoeker van politieke polarisatie in sociale media aan de Universiteit van Amsterdam. ‘En het biedt een sprankje hoop.’ Twitter sloot namelijk juist alle kanalen voor wetenschappelijk onderzoek na de overname door Elon Musk. ‘Op universiteiten leidde dit tot een debat over het einde van socialemediadata. Maar dit onderzoek biedt voldoende academische vrijheid: de onderzoekers controleerden het proces en Meta kon de resultaten niet afvlakken of censureren.’

De onderzoeksperiode liep van 1 september 2020 tot 1 februari 2021 en omvat verkiezingsdag, de bestorming van het Capitool door Trump-supporters en de inauguratie van president Biden. Het totale aantal volwassen Facebookgebruikers in Amerika bedroeg in deze periode 231 miljoen.

De onderzoekers filterden hieruit alle 208 miljoen gebruikers bij wie Meta een politieke ideologie heeft gemeten en geclassificeerd. Daardoor konden ze vaststellen dat deze gebruikers rond de presidentsverkiezingen van 2020 de meeste politieke informatie ontvingen van bronnen met dezelfde politieke voorkeur.

In een onderzoek naar het bestaan van ‘ideologische segregatie’ tussen conservatieve en progressieve Facebookgebruikers bleek dat conservatieve gebruikers op Facebook meer geïsoleerd waren van andere opvattingen dan progressieve. Ook zagen zij meer misinformatie.

Dit bleek uit een analyse van de verspreiding van 35.000 unieke websites en 640.000 URL’s (webadressen) die Facebook in deze periode classificeerde als ‘politiek nieuws’ en die meer dan honderd keer werden gedeeld. De onderzoekers volgden hoe deze URL’s zich via algoritmen bewogen tussen de genoemde 208 miljoen accounts. Ze onderzochten hoe vaak de URL’s ontvangen, gezien en geliked, becommentarieerd of verder verspreid werden door gebruikers. De onderzoekers kregen uit privacyoverwegingen geen toegang tot data op individueel niveau.

De topvijf van meest bezochte websites voor politiek nieuws waren in deze periode, van hoog naar laag, die van CNN, Daily Wire, Fox News, The New York Times en NBC News. Maar de URL’s die het meest werden bekeken, bleken daar vaak helemaal niet vandaan te komen.

Het vaakst bekeken (113.276.405 keer) was een artikel over stembiljetten van Trump-stemmers die in Pennsylvania bij het afval zouden zijn gevonden, afkomstig van het ultraconservatieve PJ Media, dat meermalen is betrapt op het verspreiden van misinformatie, zoals de claim dat het Google-algoritme linkse media bevoordeelde. Het artikel speelde een rol in Trumps valse beschuldiging dat de verkiezingen waren ‘gemanipuleerd’.

De onderzoekers zagen ook dat ideologische segregatie het sterkst is rond pagina’s en groepen op Facebook. Pagina’s en groepen hebben het voordeel dat je daar gemakkelijk berichten die bij je denkbeelden passen kunt verspreiden onder gelijkgestemden. Ze hebben dus vaak een ‘ideologisch consistente inhoud’, in de woorden van de onderzoekers.

Met name conservatieve Amerikanen blijken pagina’s en groepen zo in te zetten. Ofschoon er zowel eenstemmige progressieve als conservatieve domeinen en URL’s zijn, zijn de conservatieve ver in de meerderheid. Ook zijn aan conservatieve zijde meer berichten te vinden die Meta zelf labelt als ‘onwaar’.

‘De onderzoekers hebben binnen het ecosysteem van nieuwsverspreiding een hoek gevonden die uitsluitend door conservatieven wordt gebruikt en waar de meeste misinformatie te vinden is’, zegt Petter Törnberg. ‘Dit voegt meer bewijs toe aan wat we al zagen: we spreken wel over ‘politieke polarisatie in sociale media’, maar als je naar de cijfers kijkt, dan vind je die bijna uitsluitend aan de uiterste rechterzijde van het politieke spectrum.’

Volgens Törnberg moeten we daarom misschien zelfs niet meer spreken over sociale media die ‘polarisatie zouden stimuleren’, maar over sociale media ‘als een platform waar ultrarechtse elementen radicalisering aanjagen’.

‘Interessant is dat de artikelen gebaseerd zijn op dezelfde dataverzameling, maar duidelijk van toon verschillen’, zegt Rens Vliegenthart. Het artikel in Nature over echokamers (situaties die uitsluitend eigen denkbeelden bevestigen) is positiever dan dat in Science over ideologische segregatie.

Zelfs binnen een context als de Verenigde Staten en met een onderzoeksopzet waarin expliciet gezocht wordt naar tegenstellingen tussen Democraten en Republikeinen, zegt Vliegenthart, wordt in Nature geen duidelijk bewijs gevonden voor het bestaan van echokamers.

In echokamers ontbreekt ieder tegengeluid. Maar de onderzochte Facebookgebruikers ontvingen weliswaar minder, maar toch wel wat berichten over andere denkbeelden. Vliegenthart: ‘Ook bleek dit alles maar beperkt van invloed op hun politieke houding en op polarisatie.’

Toen de onderzoekers het algoritme veranderden, zodat een chronologische tijdlijn ontstond bij Facebookgebruikers die daar toestemming voor hadden gegeven, had dat geen invloed op hun denkbeelden. Volgens Petter Törnberg laat dit zien ‘dat de dynamiek van polarisatie ingewikkelder is dan de simpele metafoor van de echokamer suggereert’.

Om u deze content te kunnen laten zien, hebben wij uw toestemming nodig om cookies te plaatsen. Open uw cookie-instellingen om te kiezen welke cookies u wilt accepteren. Voor een optimale gebruikservaring van onze site selecteert u "Accepteer alles". U kunt ook alleen de sociale content aanzetten: vink hiervoor "Cookies accepteren van sociale media" aan.

U bent niet ingelogd

Tip hier onze journalisten

Op alle verhalen van de Volkskrant rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden

Source: Volkskrant

Previous

Next