De algoritmes werken altijd voor het bedrijf

De klokkenluider die Facebook al weken stevig doet zweten, maakte haar identiteit bekend op de Amerikaanse tv. Ze verweet haar ex-werkgever ‘keer op keer’ winstbejag boven het algemeen belang te stellen. Vijf vragen over de onthullingen.

1. Wat kwam er eerder al naar buiten?

Al wekenlang moet Facebook door het stof voor een artikelenreeks van de Amerikaanse krant The Wall Street Journal, genaamd The Facebook Files. Vooral dat Facebook al twee jaar wist dat Instagram slecht is voor het zelfbeeld van tieners zorgde wereldwijd voor beroering. “Voor een op de drie tienermeisjes met een negatief zelfbeeld maken wij de problemen erger”, zo citeerde de Amerikaanse krant uit een presentatie over het onderzoek dat Instagram (eigendom van Facebook) daar zelf naar deed.

Zelf beweert Facebook dat de manier waarop zijn interne studie naar buiten kwam “simpelweg niet juist is”. Tegelijkertijd stopte het bedrijf wel zijn plannen in de koelkast om een kinderversie van de app te maken.

Er waren nog andere berichten die minder weerklank kregen. Bekende personen of politici zouden meer mogen op het platform dan andere mensen. Ook zou het bedrijf bitter weinig gedaan hebben toen duidelijk werd dat zijn platformen gebruikt werden voor mensensmokkel. Het was pas nadat Apple — als gevolg van een onderzoek van de Britse openbare omroep BBC — ermee dreigde alle Facebook-apps uit zijn appstore te verwijderen dat het bedrijf echt actie ondernam.

2. Wie is de klokkenluider?

Sinds zondagavond weet Zuckerberg wie verantwoordelijk is voor deze mediastorm, namelijk Frances Haugen (37). De computerwetenschapster uit Iowa maakte haar identiteit bekend tijdens het tv-programma 60 Minutes op de zender CBS.

Twee jaar werkte Haugen bij Facebook voor ze in mei gedesillusioneerd opstapte, zij het niet zonder eerst duizenden interne documenten gekopieerd te hebben. Ze werkte als productmanager voor de cel die zich onder meer bezighield met het bestrijden van desinformatie in het kader van de Amerikaanse presidentsverkiezingen in 2020.Volgens de Harvard-alumna werd die cel na de verkiezingen opgedoekt en de resultaten ervan vergeten. Daardoor zouden verspreiders van valse informatie vrij spel gekregen hebben. Haugen legt de link met de bestorming van het Capitool door Trump-supporters — een link die een Facebook-topman “belachelijk” noemt. Het bedrijf ontkent dat er niets meer gedaan wordt met de beslissingen die Haugens cel ooit nam.

Haugen verwijt haar ex-werkgever vooral winst hoger in te schatten dan het algemeen belang. “Wat ik keer op keer zag bij Facebook is dat er een belangenconflict opdook tussen wat goed was voor de gemeenschap en wat goed was voor Facebook”, zei ze. “Keer op keer koos Facebook voor zijn eigen belangen.” Facebook weerlegt deze claims. “Onze teams proberen elke dag de balans te vinden tussen miljarden mensen de mogelijkheid bieden zich uit te drukken en de noodzaak ons platform veilig te houden”, klinkt het.

“We blijven belangrijke verbeteringen doorvoeren om de verspreiding van desinformatie en schadelijke content tegen te gaan. De suggestie dat we schadelijke content aanmoedigen en niets doen, is gewoonweg niet waar.”

3. Wat moeten Facebook-gebruikers onthouden van Haugens relaas?

Dat u vooral nooit mag denken dat berichten lukraak op uw Facebook-tijdlijn belanden. Dat zit zo: Facebook kiest er eerst en vooral voor om berichten te tonen die betrokkenheid opleveren en mensen langer op het platform houden. Logisch, want daar leeft het platform van en dit zorgt voor meer reclame-inkomsten.

“Maar Facebooks eigen onderzoek toont dat inhoud die haatdragend, verdelend of polariserend is en mensen gemakkelijker aanzet tot woede: mensen op stang jagen is gemakkelijker dan andere emoties bij hen op te wekken”, zegt Haugen. “Facebook heeft ingezien dat als ze het algoritme veiliger maken, mensen minder tijd op de site doorbrengen, op minder advertenties klikken en het minder geld oplevert.”

Voor alle duidelijkheid: ook schattige kattenfilmpjes doen het nog erg goed. “Platformen willen vooral dat berichten een emotie bij ons opwekken, of deze nu positief of negatief is”, zegt Michaël Opgenhaffen, professor digitale media en journalistiek (KU Leuven). “Wat ze willen vermijden, is dat enkel neutrale of droge berichten verschijnen.”

Eigenlijk bevestigt Haugen wat we al langer weten: de algoritmes achter sociale media blijven een beetje een onbekende en werken in de eerste plaats voor het bedrijf, niet voor de gebruikers. Daar zijn we volgens Pieter Ballon, professor communicatiewetenschappen (VUB) en medewetenschappelijk directeur van het Kenniscentrum voor Data en Maatschappij, allemaal slachtoffer van. “Eerst en vooral op individueel niveau: we weten dat sociale media verslavend kunnen zijn en tot een negatief zelfbeeld kunnen leiden”, zegt hij. “Maar ook maatschappelijk betalen we een hoge kost. Het is mede door dit soort algoritmes dat de publieke opinie al enkele keren tot op de rand van de afgrond geduwd is: denk aan de bestormers van het Capitool of aan wat antivaxers kunnen zeggen op sociale media.”

4. Hoe zit het bij andere sociale media?

De klokkenluider heeft jaren ervaring in de sector: eerder werkte ze volgens haar website voor Google, Yelp en Pinterest. Toch noemde ze de situatie bij Facebook “een stuk erger dan wat ik voordien zag”. Is dat zo? Volgens technologiesocioloog Ben Caudron draaien “alle sociale media op hetzelfde uitgangsprincipe”. “Dat is: activiteit op het platform zoveel mogelijk aan de gang houden door interactie te stimuleren en goed te monitoren wélke activiteit leidt tot interactie.”

“Ook Haugen is er — volgens mij correct — niet van overtuigd dat Zuckerberg een duivel is die erop uit is het zelfbeeld van jonge meisjes te vernietigen”, zegt Opgenhaffen. “Maar ik kan me inbeelden dat er bij Facebook, puur door de schaalgrootte van het bedrijf, een andere bedrijfscultuur heerst. Ik sprak ooit met de Belgische oprichter van het vroegere Netlog. Die vertelde hoe hij merkte dat er meer mensen naar zijn platform trokken als hij wat aan de knoppen draaide. Ik kan me voorstellen dat er zo na verloop van tijd een dwangmatigheid ontstaat waarbij iedereen probeert het maximaal mogelijke eruit te halen, zonder stil te staan bij de gevolgen.”

5. Wat zijn de gevolgen van de lekken?

Stilaan tekent zich een patroon af: net als tijdens het Cambridge Analytica-schandaal moet Facebook door een klokkenluider wereldwijd door het stof. Vorige week al moest het bedrijf zich verantwoorden voor de Amerikaanse Senaat. Komende dinsdag zal ook Haugen daar getuigen.

Geen enkele van de experts gelooft echter dat Haugens onthullingen ervoor zullen zorgen dat gebruikers Facebook zullen afzweren. De vraag is vooral: leidt dit tot meer politieke regulering? Volgens Ballon en Opgenhaffen is dat onvermijdelijk. Zij wijzen er bijvoorbeeld op dat de Europese Commissie momenteel de laatste hand legt aan wetgeving voor sociale mediaplatformen. Caudron zegt te vrezen dat deze wetgeving niet zal ingaan op de essentie, “verzekeren dat wij zelf eigenaar worden van onze data en dat platformen meer inzage geven in de werking van hun algoritme”.

“Ik maak graag de vergelijking met sigarettenfabrikanten”, zegt Ballon. “Zij wisten al lang dat sigaretten voor kanker zorgden bij rokers. Toch duurde het decennia eer de overheid ingreep. Facebook bestaat nog geen twintig jaar en toch kwam er al veel informatie naar buiten. Ik verwacht de komende jaren wel enkele ingrepen van de politiek.”

GORDTS, P. De algoritmes werken altijd voor het bedrijf. De Morgen, 5 oktober 2021, 4.
E-mail Print kopieer
Copyright © 2024 Pelckmans maakt een deel uit van Pelckmans uitgevers
mens en samenleving logo