Home

Het echokamer-algoritme van Facebook werkt wel degelijk polarisatie in de hand

Moederbedrijf Meta miskent het feit dat Facebook-gebruikers jarenlang gevoed zijn met partijdige informatie, en dat die opstapeling tot ingegraven posities heeft geleid.

Eindelijk is de zwarte doos van Facebook een beetje geopend. Middels vier grote wetenschappelijke onderzoeken hebben buitenstaanders voor het eerst een kijkje onder de motorkap gekregen van een van de sociale media die er de afgelopen jaren van werden beschuldigd de maatschappij nodeloos te verdelen. De resultaten werden afgelopen week in de gerenommeerde wetenschapsbladen Nature en Science gepubliceerd.

Dat alleen al is een stap vooruit. Jarenlang hebben bedrijven als Meta, eigenaar van Facebook en Instagram, zich tegen de roep om transparantie verzet. Daardoor was onduidelijk welke algoritmen zij inzetten om hun gebruikers te verleiden zo veel mogelijk tijd op hun website door te brengen – om hun vervolgens zo veel mogelijk advertenties te kunnen voorschotelen. Door dat gebrek aan inzicht was lang onduidelijk wat voor effect ze met hun informatie- en desinformatievoorziening hebben op het democratische discours.

In het Volkskrant Commentaar wordt het standpunt van de krant verwoord. Het komt tot stand na een discussie tussen de commentatoren en de hoofdredactie.

De resultaten stemmen niet positief. Facebook- en Instagram-gebruikers blijken, zoals vermoed, veel in zogeheten progressieve en conservatieve echokamers te vertoeven, waar zij vooral geluiden horen die hun bestaande overtuigingen bevestigen. Ook blijken ze enorme hoeveelheden desinformatie voorgeschoteld te krijgen, vooral via de Pages en Groepen.

Met name conservatieve gebruikers krijgen op die manier veel leugens te lezen, waar ze hartgrondig in gaan geloven. Het meest gedeelde artikel dat ruim 200 miljoen gebruikers in 2020 te zien kregen (het onderzoek is verricht rond de Amerikaanse verkiezingen van dat jaar) was een stuk over medewerkers van een stemlokaal die zouden hebben gesjoemeld om Joe Biden te laten winnen. Dit onware verhaal was een van de onwaarheden die het kamp-Trump rondbazuinde om de verkiezingsuitslag te diskwalificeren.

Meta omarmde desalniettemin de resultaten van het onderzoek, omdat eruit zou blijken dat de politieke en polariserende invloed van het platform beperkt is. ‘De experimentele studies laten zien dat er weinig bewijs is dat Meta’s platformen alleen tot schadelijke polarisatie leiden, of significant effect hebben op politieke overtuigingen of gedrag’, schreef het bedrijf in een verklaring.

Dat leidde Meta af uit het feit dat gebruikers niet van politieke mening veranderen als het algoritme wordt aangepast. Krijg je je berichten in chronologische volgorde, en met meer berichten uit de ‘andere’ wereld in plaats van volgens het huidige echokamer-algoritme, dan blijken gebruikers toch niet op een andere partij te gaan stemmen.

Dat is een merkwaardig criterium. Fanatieke Feyenoord-supporters worden ook niet ineens fan van Ajax als ze een keertje in de Arena zijn gaan zitten. Meta miskent het feit dat gebruikers al jaren gevoed zijn met partijdige informatie, en dat die opstapeling tot ingegraven posities heeft geleid.

Wat wel klopt is dat sociale media niet de enige factor zijn die daaraan hebben bijgedragen. Ook politici en sommige analoge media, zoals in de VS Fox News, zijn belangrijke verspreiders van desinformatie.

Maar zolang er platformen zijn die op geen enkele manier willen meewerken aan onderzoek naar hun maatschappelijke rol (Twitter, tegenwoordig X, heeft schijt aan de buitenwacht: wetenschappelijke toegang tot de data is geschrapt, en vragen van journalisten worden beantwoord met een poep-emoji), kunnen we vaststellen dat polarisatie misschien niet alléén hun schuld is, maar dat ze nog lang geen deel zijn van de oplossing.

Source: Volkskrant

Previous

Next