top of page

Digital solidaritet

Sosiale medier er et sted du kan vise frem øyeblikk du gjerne vil dele med andre, som bursdager, en vellykket dessert eller et stykke godt utført arbeid. Du bestemmer innholdet og på få sekunder er det offentliggjort. Men når hvem som helst kan laste opp hva som helst, hva er det da som stopper at selvmord, massakrer og overgrep dukker opp i feeden din?


Jo, det som står mellom deg og dypt forstyrrende innhold er personer som på fulltid, 8-9 timer om dagen, 5-7 dager i uka sitter og ser på dem for deg før de fjerner bildene manuelt. I mars 2020 inngikk Facebook et forlik med en gruppe såkalte innholdsmoderatorer. To av dem uttalte seg offentlig, og en av dem fortalte om utvikling av posttraumatisk stress (PTS) etter å ha sett videoer av voldtekter, drap og dyremishandling daglig i 9 måneder.


Hva er posttraumatisk stress egentlig? Tidligere ansatte forteller om mareritt, søvnproblemer og at de ble mer aggressive. En hadde slitt med selvmordstanker noen år tidligere, men hadde heldigvis lagt det bak seg. Etter å ha sett selvmordsvideoer på jobb, ble han redd for å gå inn i høye bygninger fordi han ikke var sikker på at han ikke ville prøve å hoppe ut fra toppen.


Som tidligere tillitsvalgt og etter 20 år i arbeidslivet, har jeg erfart hvordan de færreste sier fra om kritikkverdige forhold, men noen gjør det, og blant disse igjen er det få som har sterk nok rygg eller en tilstrekkelig dokumentert sak til å gå til rettslige skritt. Derfor er det gode grunner til å anta at det nevnte forliket bare er toppen av isfjellet når det gjelder utvikling av traumer etter å ha jobbet med såkalt innholdsmoderasjon. Å kalle det en drittjobb, er vel så passende, i mine øyne.


I forliket hverken innrømmer eller avviser Facebook ansvar for de ansattes traumer. Ansatte kan få 1 000 USD og ved PTS 50 000 USD. Om det er lett eller vanskelig, om bevisbyrden ligger på de tidligere ansatte og om det må være 99% eller 50% sannsynligvis, vites ikke. Det er ikke bare i USA det har kommet frem historier om traumer for innholdsmoderatorer. En anonym kilde på Filippinene opplyste at han tilbrakte opp til 9 timer om dagen med arbeidsoppgaver som å måtte avgjøre om kjønnsorganer til barn ble befølt med vilje eller tilfeldig, og om et knivstikk mot en hals var å anse som dødelig eller ikke. Han hadde selv begynt å oppsøke sider med overgrepsbilder og bestialitet, noe han ikke hadde gjort tidligere.


Chris Gray, gikk til sak mot Facebook i Irland og forteller her med sine egne ord om sin tidligere arbeidshverdag. Han forteller om å ha blitt kalt inn på teppet etter å ha slettet en video fra den etniske rensningen av rohingyaer i Myanmar. Han hadde sett noen tråkke på brystet til en baby med lukkede øyne. Hvordan kunne han fastslå at babyen faktisk hadde dødd? Det var forventet at han hadde gransket detaljer som blod, rykninger osv. i denne høyst forstyrrende videoen. Han argumenterte for at babyen ikke hadde vist noen bevegelser, og avgjørelsen hans ble godkjent. Etterpå slo det ham hvordan han hadde vært mer bekymret for å miste jobben, enn for den grusomme skjebnen til et uskyldig barn.


Foreløpig er det tidligere ansatte i land med godt utstyrt rettsvesen, men langt fra det arbeidstakervernet vi har i Norge, som har gått til sak. Der hvor vi har høy grad av medbestemmelse, og et godt organisert arbeidsliv, finner vi ikke innholdsmoderatorer. Det tror jeg ikke er tilfeldig.


Ok, så er det en drittjobb, men noen må vel gjøre den? Tja, må de det? En teknologioptimist vil peke på at KI vil ta seg av jobben etter hvert. Med maskinlæring burde mennesker kunne slippe disse belastende arbeidsoppgavene etter hvert? Fremdeles klarer ikke KI å se forskjell på ulv og hund, eller små hundeansikter og muffins. Når det gjelder bildet av den stakkars jenta i Vietnam, tenker de fleste av oss på krigens grusomheter, og ikke seksuelle overgrep mot barn. Det har med ganske kompleks mønstergjenkjenning, samt kontekst og referanser å gjøre.


Noen må uansett lære opp og etter hvert revidere algoritmenes valg. Maskinlæring består av gjentakende sammenlikning av fasit og ikke-fasit. Å ha en database med filmer med overgrep og drap som maskinene skal lære fra, kan fort rammes av forbud mot å sitte på slikt materiale. I en høring i Kongressen 10. april i 2018 opplyste Mark Zuckerberg at de ville ansette rundt 20 000 moderatorer for å jobbe med sikkerhet og vurdering av innhold på Facebook. På direkte spørsmål fra Elizabeth Dwoskin i The Washington Post, svarte Mark Zuckerberg i april 2019 at det alltid ville være bruk for mennesker i jobben. Chris Gray, tidligere ansatt hos en underleverandør for Facebook, anslo i mai 2019 at det fremdeles var 40 000 innholdsmoderatorer på verdensbasis. Finner du tall på hvor mange det er nå, så gi meg gjerne beskjed, det er ikke lett å finne ut.


Rett skal være rett, den samme problemstillingen er til stede i blant annet YouTube og Twitter. For å være ærlig, vet jeg ikke hvordan ståa er nå. Men hva med at vi krever svar da? Enten som enkeltpersoner eller i kraft av fellesskap, som fagforeninger, annonsører som kjøper reklameplass på disse stedene? Gjør som meg og send en e-post til Facebook press@fb.com du også, da vel. Jeg spurte om hvordan de forbereder og ivaretar ansatte, og om de ser hen til for eksempel politiet, hvor det er folk som ser på forferdelige filmer som en del av sin arbeidshverdag, men som har en grunnutdanning i bunn og et apparat til rådighet. Jeg venter fremdeles på svar, men skal dele det når det kommer.


Jeg kan akseptere at man gjør feil, dersom man lærer av dem. Jeg mener også at vi bør belønne åpenhet og straffe hemmelighold. Arbeidskontraktene til Facebooks og deres underleverandører har vært vanskelige å få innsyn inn, men tidligere ansatte har fortalt at de har forpliktet seg til å ikke fortelle hvem de jobber for og å ikke snakke med andre om jobben. Elementer av dette er til stede også i norsk arbeidsrett, og en del av arbeidsgivers styringsrett. Men hvor likheten stopper, vet vi ikke. I denne sammenheng har det ført til at mange som har fått traumer ikke har turt å betro seg til folk de har stolt på og dermed blitt hindret i å bearbeide problemene sine. Har du ikke fast ansettelse og trenger pengene, vil du i mindre grad ta opp problemer på jobben. Ifølge denne artikkelen i Business Post må nå nyansatte som skal moderere innhold for Facebook signere på at de er klar over at arbeidsoppgavene kan påvirke deres mentale helse. Er dette for å forberede og å ta vare på de ansatte, eller for å unngå juridisk ansvar senere? Det får du bedømme selv.


Nylig hørte jeg om aktivistene i Sleeping Giants, som fikk annonsører til å si opp avtalene med reklameplass på det høyreorienterte nettstedet Breitbart. Metoden deres var å gjøre store selskaper som Kellogg's oppmerksomme på innholdet på nettstedet. Nettstedet publiserte blant annet artikler hvor de sammenliknet feminisme med kreft og hevdet at grunnen til at det er få kvinner i teknologibransjen er fordi de ikke er flinke nok. Selskapene som annonserte hadde ikke oversikt over dette, sannsynligvis fordi de kjøpte reklameplass basert på antall personer nådd på nettsidene, og ikke innholdet der. Med mer kunnskap kan vi ta bedre valg.


Vi kan stille teknologiganter som overlater de mest belastende jobbene til de mest sårbare i verden, til ansvar. Med mer kunnskap og åpenhet, og forbrukere som er villige til å stille spørsmål og endre atferd, kan vi bedre arbeidsforholdene for de som må gjøre de belastende jobbene.


De som lider i verden for at vi skal få billige produkter, er så usynlige og så mange. Vi hadde så vidt fått øynene opp for menneskene som syr klærne våre for luselønn og i lokaler som raser sammen og begraver dem. Alt for mye tyder på at prisen for å moderere skadelig innhold på sosiale medier er for høy, og det er de mest sårbare som betaler den. Det kan være lett å bli overveldet og trett av alle som fortjener vår oppmerksomhet. Men vår oppmerksomhet hjelper, og ikke minst våre handlinger. Still spørsmål og krev svar, eller bruk det eneste språket markedet forstår: slutt å bruke eller kjøpe produktet.


30 visninger0 kommentarer

Siste innlegg

Se alle
bottom of page