I et kort øyeblikk viste Facebook at de kan bedre. Det er ikke i nærheten av nok

Morten Langfeldt Dahlback i Faktisk faktasjekker innhold på sosiale medier.

Morten Langfeldt Dahlback i Faktisk faktasjekker innhold på sosiale medier.Nicolai Delebekk/

Debatt:

«Og konklusjonen vår er klar: det største problemet med Facebook er ikke overivrige sensursystemer.», skriver Morten Langfeldt Dahlback i Faktisk.no.

Morten Langfeldt DahlbackAVDELINGSLEDER, FAKTISK INNSIKT

PUBLISERT Fredag 12. november 2021 – 09:06 SIST OPPDATERT Fredag 12. november 2021 – 10:03

«For at vi skal ha et velfungerende , må vi ha en offentlig samtale vi kan stole på», skriver kulturminister Anette Trettebergstuen (Ap) i Medier24. Ministeren er kritisk til Facebook, som fjerner innhold fra redaktørstyrte medier. Det er ingen tvil om at det er både kritikkverdig og dypt problematisk.

DEBATT:

Facebook kan ikke gjemme seg lenger

I Faktisk.no følger vi fortløpende med på hvordan feilinformasjon, konspirasjonsteorier og annet tvilsomt innhold spres på Facebook. Og konklusjonen vår er klar: det største problemet med Facebook er ikke overivrige sensursystemer.

Det er spøkelset i maskinen – algoritmen – som utgjør den største utfordringen for demokratiske samfunn og den største trusselen mot en opplyst og faktabasert offentlig samtale.

Den har Facebook endret før, med det resultatet at troverdige nyheter og kilder fikk større plass. Dessverre var endringen altfor kortvarig.

«Meningsfullt» – ifølge Facebook

Facebooks algoritme er en forretningshemmelighet. Men gjennom Wall Street Journals serie om «Facebook Files» og dokumentene som ble lekket av den tidligere Facebook-ansatte Frances Haugen, vet vi at den bygger på en rangeringsmodell som kalles MSI, en forkortelse for Meaningful Social Interactions (MSI).

Kort forklart: jo mer sannsynlig det er at du vil utføre en «meningsfull sosial samhandling» med et innlegg, desto høyere opp i nyhetsstrømmen din kommer det. Den modellen ble innført for at brukerne skulle tilbringe mer tid på plattformen, og legge igjen flere kommentarer og reaksjoner.

I sin tur gir det mer data til Facebook, noe som lar dem tjene mer penger på reklame.

Hva Facebook legger i «meningsfulle» er ikke godt å si. Lekkede interne rapporter tyder på at innføringen av MSI førte til at brukerne engasjerte seg mer – men det var raserifremkallende og annet negativt innhold som drev utviklingen.

Og ikke nok med det: reaksjoner som «sinnafjes» ble tillagt mer vekt enn andre typer reaksjoner.

Sinne: en vinneroppskrift

At Facebook belønner hissig innhold, påvirker også de som er avhengige av å bruke for å nå sitt publikum. Wall Street Journal siterer en intern rapport der polske vedgår overfor Facebook at de har tilspisset budskapet og politikken de står for – ikke fordi de har endret mening, men fordi plattformen belønner tilspissing som sådan.

Faktum er at en av de viktigste kanalene vi bruker for å nå ut til lesere eller velgere belønner budskap som vekker frykt, sinne eller avsky mer enn de belønner faktaorienterte og nøkterne artikler og innlegg.

For å si det på en måte som kan få mer enn tretti delinger: under Facebooks definisjon av meningsfull sosial samhandling, er det som gjør deg sintere og dummere mer meningsfullt enn det som gjør deg roligere og smartere.

Det er vanskelig å se for seg at det ikke fører til at vi som forsøker å nå lesere eller velgere gjennom Facebook, legger an en mer forenklende eller sintere tone.

Slettet innlegg sett 36 millioner ganger

Og uansett hva vi gjør, har måten Facebook er skrudd sammen på, . Facebooks siste rapport om det mest sette innholdet på plattformen har et innlegg som ble fjernet fordi det brøt med retningslinjene på 20. plass, med nesten 36 millioner visninger.

Og ikke nok med det: på 15. plass over Facebook-sidene med flest visninger, finner vi det konspiratoriske mediet Epoch Times. Epoch Times, som er knyttet til den forfulgte Falun Gong-bevegelsen, har lenge publisert feilinformasjon og konspirasjonsteorier, blant annet om og .

Løskrutt fra medieministeren

Er det sjokkerende at denne typen innhold vinner fram på Facebook? Absolutt ikke. New York Times-journalisten Kevin Roose har lenge dokumentert på at innhold fra sterkt høyreorienterte og uetterrettelige kilder systematisk sanker flest reaksjoner, kommentarer og delinger på Facebook.

Da vi i Faktisk.no gjorde det samme eksperimentet i i et par måneder, så vi raskt at det samme gjelder her. Facebooks algoritme belønner innhold som skaper sinne. Hege Storhaug, den kjente islamkritikeren i organisasjonen Human Rights Service, har for eksempel jevnlig flere innlegg blant de ti mest engasjerende det siste døgnet.

Ikke minst har vi sett hvordan et nettverk av nasjonalistiske, islamkritiske og konspirasjonsteoretiske grupper hjelper alternative medier som Document, Resett og Rights med å gå viralt i Norge.

Løfter fram feilinformasjon

De samme mekanismene som løfter fram sint innhold, hjelper også feilinformasjon med å spre seg.

I mars 2020 så vi at villedende råd fra en «italiensk lege» om hvordan man kunne unngå å bli syk med covid-19 spredde seg som ild i tørt gress bare noen få uker inn i pandemien. Et av rådene var at varm drikke kunne ta knekken på .

Senere så vi hvordan den amerikanske konspirasjonsfilmen «Plandemic» krysset Atlanterhavet på bare noen få timer, og ble delt i kommentarfelt og Facebook-grupper her i Norge.

Filmen, som blant annet hevder at «eliten» har satt i gang pandemien for å tjene penger på vaksiner, ble etter hvert bannlyst fra Facebook.

Faktasjekk positivt, men ikke nok

Det betyr ikke at Facebook ikke løfter en eneste finger. De har forsøkt å fjerne innlegg som benekter at vaksiner virker mot covid-19. De fjernet en betydelig andel av gruppene som var viet til å fremme det konspiratoriske og ytterliggående QAnon-miljøet, selv om både engelskspråklige og norske grupper slapp gjennom filteret.

I tillegg har Facebook et samarbeid med faktasjekkere over hele verden, inkludert oss i Faktisk.no. Det gir oss tilgang på verktøy, og lar oss merke feilinformasjon vi har faktasjekket, slik at Facebooks brukere kan se om innhold de kommer over har blitt ettergått av uavhengige faktasjekkere. I noen tilfeller kan det begrense spredningen dette innholdet får.

Kulturministeren: Sammen kan vi stille krav til tech-gigantene

Og for ordens skyld: Facebook betaler faktasjekkere, inkludert oss, for at vi gjør denne jobben.

Vi mener enn så lenge at det er riktig å være med på et slikt samarbeid. For vår del betyr at vi kan nå ut til nordmenn som normalt ikke ser faktasjekkene våre. Det utgjør en forskjell, tror vi, at faktasjekker som korrigerer feilinformasjon om smitteverntiltak eller viktige samfunnsforhold også kan finne veien til Facebook-brukere som i liten grad oppsøker redaktørstyrte medier.

Samtidig er det problematiske sider ved å samarbeide med Facebook. For eksempel er det en risiko for at Facebook bruker faktasjekk-samarbeidet til å skjerme seg mot kritikk. Vi har også sett eksempler på at Facebook har fjernet faktasjekkeres merking av klimarelatert feilinformasjon, noe som sår tvil om hele faktasjekksamarbeidet.

Algoritmen bør endres

Men det viktigste er at et slikt samarbeid er utilstrekkelig. Problemene med Facebook er altfor omfattende til at noen faktasjekkere kan løse dem. Det er altfor mye innhold som legges ut på plattformen til at vi, eller våre kolleger i andre land, kan holde følge med hva som er sant og hva som er oppspinn.

For å virkelig begrense mengden feilinformasjon på plattformen, må Facebook selv endre hva slags innhold som belønnes av algoritmen.

Og det vet vi ikke bare at de kan – vi vet at det virker. Det ble nemlig gjort som et nødtiltak like etter det amerikanske presidentvalget i 2020. Da valgte Facebook å gi større vekt til «autoritative nyhetskilder» for å begrense spredningen av feilinformasjon om valget. Resultatet var at anerkjente, redaktørstyrte medier fikk større spredning.

Det er antakelig åpenbart for alle som har sett gjennom nyhetsfeeden de siste månedene at endringen var kortvarig. Men det viktige er at det er mulig å gjøre en slik endring.

Hvis Facebook ønsker å bidra til et velfungerende demokrati, kan ikke algoritmene hule ut den opplyste offentligheten ved å belønne dem som sprer sinne, frykt og feilinformasjon. De har allerede vist oss at en annen algoritme er mulig.

Nå er det på tide å gjøre den virkelig – for godt.

Du vil kanskje også like

Mer fra forfatter

+ There are no comments

Add yours

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.