We weten allemaal dat er algoritmes zijn die bepalen wat jij op sociale media te zien krijgt. Maar hoe die algoritmes dat precies beslissen, weet vrijwel niemand. De Groene Amsterdammer, Pointer en de NOS zochten het uit.
We weten allemaal dat er algoritmes zijn die bepalen wat jij op sociale media te zien krijgt. Maar hoe die algoritmes dat precies beslissen, weet vrijwel niemand. De Groene Amsterdammer, Pointer en de NOS zochten het uit.
Politieke partijen en politici voeren steeds actiever campagne op sociale media. Maar sociale mediaplatforms zijn niet transparant over de algoritmes die bepalen welke berichten bovenaan iemands tijdlijn komen te staan, en welke juist niet. Hoeveel invloed hebben ze daarmee op het publieke, politieke debat? Pointer, de NOS en De Groene Amsterdammer besloten dit te onderzoeken door 7477 Instagram-posts van politici onder de loep te nemen.
Uit de analyse blijkt dat selfies voorrang krijgen, terwijl berichten met veel tekst juist lager op de tijdlijn belanden. “Facebook (het moederbedrijf van Instagram) laat op de tijdlijn vooral zien wat goed is voor zichzelf, en niet voor de gebruikers”, stelt Nicolas Kayser-Bril van Algorithm Watch. Zo kan het zijn dat door de voorkeur te geven aan foto’s met gezichten in beeld, het voor politici lastiger wordt om complexe, politieke boodschappen te communiceren.
Esther Crabbendam, van Bits of Freedom, ziet dat er gevaar schuilt in deze tendens: “Het grootste gevaar is dat het publieke debat wordt gedomineerd door een paar Amerikaanse technologiebedrijven. Zij hebben niet als doel om ons een gezond debat voor te schotelen, maar om data over ons te verzamelen om geld mee te verdienen.” Zowel Crabbendam als Kayser-Bril geloven dat meer transparantie over het algoritme op korte termijn kan bijdragen aan een gezondere online politieke campagne.
Lees het hele verhaal hier.
De NOS, Pointer en de Groene Amsterdammer verzamelden samen met de Duitse non-profitorganisatie Algorithm Watch en 675 lezers 7.477 Instagram-berichten van 124 Nederlandse politici en lijsttrekkers met een groot bereik op Instagram. Van elk van deze berichten stelden zij vast op welke plek op de tijdlijn ze te zien waren.
In dit onderzoek is AI niet alleen een middel geweest, maar voornamelijk het onderzoeksonderwerp zelf. De journalisten riepen daarvoor ook de hulp in van de lezers. Die moesten twee dingen doen: een aantal politici volgen op Instagram en een zogeheten browser-plugin installeren. Met dat laatste programma werd de nodige foto’s en metadata van Instagram verzameld voor analyse.
De verzamelde foto’s in het onderzoek werden met Google Vision van een label voorzien. Daarmee wordt elke foto ingedeeld in een categorie, zoals gezichten, natuurlandschappen, dieren of tekst.
Na een eerste analyse en bewerking van de complete verzamelde data door Algorithm Watch, analyseerden de vier partners de data handmatig om conclusies te trekken en artikelen te schrijven.Wat we weten, is dat sociale media zijn gebaseerd op Reinforcement Learning. De gebruiker verschaft Instagram continu nieuwe data in de vorm van likes, shares en reacties. Op basis van deze continue stroom aan informatie leren algoritmes gaandeweg bij. Deze informatie wordt onder andere gebruikt om te bepalen van wat er wordt getoond op je tijdlijn.
(Meer over Reinforcement Learning lees je hier).
Een belangrijke kanttekening bij de bevindingen van de journalisten, is dat op basis hiervan niet kan worden bepaald of foto’s met selfies door de algoritmes van Instagram zélf meer bereik genereren, of dat dit komt doordat gebruikers selfies vaker en sneller liken dan bijvoorbeeld posts die veel tekst bevatten. Kortom, is dit de invloed van het platform zelf of van de gebruiker? Opnieuw lopen we aan tegen een gebrek aan transparantie, waardoor deze vraag niet beantwoord kan worden.
Over de algoritmes achter sociale media bestaan brede maatschappelijke zorgen. Het gebruik van Reinforcement Learning zorgt voor verregaande personalisatie van het berichtaanbod. Arjen Lubach omschreef dit fenomeen al eens als de ‘fabeltjesfuik’: mensen die video’s over complottheorieën keken, kregen steeds meer van dit soort video’s voorgeschoteld, waardoor ze nog meer video’s gingen bekijken. Zo kan een gebruiker ongemerkt in een filterbubbel komen en daardoor steeds eenzijdigere berichtgeving tot zich nemen.
Een andere grote zorg betreft de privacy van de gebruiker. Want de algoritmes van socialemediaplatforms (in dit geval moederbedrijf Facebook, sinds 2021 Meta genoemd) verzamelen enorme hoeveelheden informatie over haar gebruikers.
Juist daarom is het essentieel dat we als journalist in staat zijn om AI kritisch te bevragen en onderzoeken. Pointer, de NOS en De Groene Amsterdammer zetten voorzichtige eerste stappen in die richting.
project van Hogeschool Utrecht
gemaakt door Wilfred Hoogendoorn
contactinformatie
Heb je ideeën of voorbeelden voor deze website of wil je samenwerken?
Neem contact op via
journalistiek-en-ai @journalismlab.nl
Ik wil..