Centrele secrete unde Facebook se ocupa de cenzura

Articol publicat in 25/02/2019 – Intr-un birou fara ferestre sute de persoane stau cu privirea fixata intr-un ecran timp de 8 ore pentru a analiza mizeriile umanitatii si determina ceea ce poate fi vazut si ceea ce nu. Acesta este „bunkerul” Facebook din capitala Poloniei, Varsovia, unul dintre cele 20 de centre care exista in lume pentru a administra cenzura asupra comentariilor, video si fotografiilor pe care 2.271 milioane de persoane le publica in fiecare zi.

eldiario.es a avut acces la surse din centrele din Varsovia si Lisabona, si la documente care arata conditiile in care se iau deciziile asupra retelei de continuturi cu cel mai mare impact ale lumii. Insulte, droguri, abuzuri sexuale, terorism, decapitari. Exista un mit de epica tehnologica despre algoritmi care elimina automat continutul necorespunzator pe Facebook. In spatele acestei idei moderne si aseptice de cenzura, exista, in realitate, peste 15.000 de revizori de continut, perosane care se dedica sa filtreze excesele facute de jumatate din lume, cum ar fi Albert sau Johan, care din experienta lor subliniaza arbitrariul normelor pentru a decide ceea ce se publica sau ce nu se poate publica. „Este imposibil sa nu faci greseli, deoarece sistemul este foarte contradictoriu”.

Munca celor care filtreaza continutul din Facebook este trascendentala, confidenciala si de asemenea precara. Lucratorii cenzurii in biroul din Varsovia sau Lisabona incaseaza un salariu in jur de 700€ pe luna, si sunt subcontractati prin firme de consultanti internationale, cum ar fi Accenture sau agentiile de angajare temporara. Ei nu pot spune nimanui ca lucreaza pentru Facebook, la care, in scris, se refera intotdeauna ca si „client”. Pentru acest reportaj, trei persoane cu experienta in aceasta munca ne-au cerut sa le protejam identitatea si sa ascundem numele lor reale. Un revizor de continut este intotdeauna supravegheat: daca cineva scoate telefonul din buzunar sau o sticla cu apa, acesta va fi sanctionat de sefi, care au un sistem pentru ca lucratorii sa se denunte reciproc in schimbul unor premii pentru bun comportament. Pentru intreaga zi lucratoare, au un contor de odihna de 30 de minute, pe care trebuie sa le administreze de-a lungul zilei pentru a manca, pentru a merge la baie, pentru a-si intinde picioarele; daca cineva intarzie 20 de minute sa manance, este bine sa nu aiba o problema de stomac in acea zi, deoarece ar depasi cu ușurinta limita stipulata.

Asa functioneaza revizarea continutului

Echipele de lucru sunt impartite in functie de tipul de continut si de limba. In Varsovia si Lisabona, a fost filtrat continutul in limba spaniola in ultimii ani. Cu cateva luni in urma, la Barcelona a fost deschis un birou. Fiecare moderator are la postul sau un ecran care ii arata cazurile de continut de pe Facebook care acumuleaza mai multe „denunturi” de la utilizatorii care le considera nepotrivite. De fiecare data cand un anumit numar de persoane denunta („raporteaza”, in limbajul Facebook) un continut, acesta ajunge la unul dintre aceste ecrane. Exista doua opțiuni: „Sterge” pentru a sterge conținutul sau „Ignora” pentru a lasa publicatia.

„Analizam intre 400 si 600 cazuri pe zi. Avem 30 de secunde pentru a decide in fiecare caz. Nu intotdeauna ai timp sa iei decizia corecta”, explica Johan. Deciziile de genul acestor exemple, colectate intr-un document de instruire pentru noii angajati ai echipei de moderare Facebook, la acre a avut acces eldiario.es. Revizuim cu Johan si Albert ce ar trebui facut in fiecare caz, conform experientei sale.

imagen-advirtiendo-sintomas-cancer-mama_EDIIMA20190222_0764_20

„Acordati atentie simptomelor cancerului”, spune imaginea. In acest caz, in ciuda faptului ca Facebook nu permite sfârcuri in reteaua sa sociala cu un algoritm automat care a inceput deja sa functioneze (si care, uneori, sterge in mod eronat operele de arta clasica in care apare sânul unei femei), conform normelor moderatorul trebuie sa deblocheze si sa publice continutul, deoarece este o imagine informativa despre sanatate si nu o imagine a unui nud explicit sau pornografic.

meme_EDIIMA20190222_0765_20

In astfel de cazuri, moderatorul trebuie sa decida bine intr-un timp foarte scurt. Mai intai trebuie sa caute in Google la ce se refera acest meme. Este un caz de agresiune a copilului? Va gasi ca dialogul etichetelor este real si apartine unui interviu televizat cu o fata despre obezitatea ei. Dar obezitatea nu este considerata o dizabilitate. „A ofensa pe cineva nu este un motiv sa stergi nimic, cu exceptia cazului in care este considerat un grup protejat, cum ar fi persoanele cu handicap, dar obezitatea nu este o dizabilitate, asa ca ar trebui sa stim daca fata are vreun fel de problema mentala”. Trebuie sa decida in 30 de secunde. Johan ar marca „Ignore”.

Exista o anumita categorie pe Facebook pentru a eticheta tot continutul care invita auto-leziuni. In teorie, cu normele in mana, ar fi un caz de eliminare. Dar Johan subliniaza: „Deoarece este un desen, sensibilitatea se schimba, exista multe imagini de genul acesta pe Facebook care nu se sterg, daca vedem mai multe astfel, atunci avizam superiorii ca sa notifice la autoritati”, ceva care se intampla numai cu conturile unor tari.

Logotipo-FLNC-Liberacion-Nacional-Corcega_EDIIMA20190222_0763_19

„Imi amintesc acest caz”, spune Johan. Este logo-ul Frontului National de Eliberare din Corsica. „Din anumite motive, intr-o sesiune de formare saptamanala ni s-a spus ca este o organizatie terorista, dar sa nu-l marcam cu o stergere pentru terorism”, care este o eticheta in sistemul sau de revizuire, „ci ca o stergere generala fara a specificaa de ce“. FLNC a renuntat la activitatea armata in 2014. (…)

Acestea sunt cazuri mai mult sau mai putin simple de formare, desi arata deja ca deciziile sunt complexe. Regulile generale ale Facebook sunt publice, generale si extinse, intr-un exercitiu recent de transparenta, care totusi se contrazice cu rutina de lucru din centrele de filtrare. Din lipsa timpului sau a calificarii, Facebook incearca sa impuna lucratorilor sai reguli interne stricte pentru fiecare caz posibil, atat de precise incat uneori devin arbitrare. Moderatorii Facebook primesc in mod constant cazuri de utilizatori care insulta femeile in general sau pe vreuna in special. In acest caz, standardul public al Facebook este clar: „Nu trebuie sa atacati prin termeni denigratori legati de activitati sexuale (de exemplu, târfa, catea)„. Totusi, aici intalnim una dintre acele reguli nescrise denuntata de lucratori. „Daca cuvantul catea este scris intr-o imagine, sau la fotografia unei femei, ca intr-o meme, este sters, dar daca o fata este eticheta ca curva/catea in comentariul unui post, nu se sterge”. De ce? „Ei bine, nu stiu, asta cere clientul si trebuie sa respectam regulile”, spune Albert.(…)

Hitler nu, Franco da

„Daca o persoana face comentarii pentru a-l lauda pe Hitler, este stearsa. Acelasi comentariu facut de un spaniol pentru a-l lauda pe Franco este lasat publicat”, explica Albert despre ceea ce se intampla cel putin la sediul Facebook din Varsovia. „Fascismul este permis de Facebook”, spune Johan, unul dintre lucratorii care a rezistat cel mai mult in acest birou. „Puteti pune o pagina plina cu fotografii ale lui Mussolini sau Franco si nu se intampla nimic, este permis in totalitate”, continua el.

Fundacion-Nacional-Francisco-Franco-Facebook_EDIIMA20190225_0942_19

Potrivit surselor cu experienta in biroul din Varsovia, compania a ezitat in trecut asupra modului in care sa trateze continutul legat de Hitler. „Mai intai, ne-au spus ca nu se stergea nici o fotografie sau comentariu asupra lui Hitler; apoi ne-au spus sa il marcam ca fiind „deranjant” [conținut pe care minorii nu trebuie sa vada], si apoi ne-au spus sa il stergem total”, explica el.

María, o alta sursa consultata de eldiario.es, care a petrecut o luna de lucru in biroul de la Lisabona in 2017, spune ca norma nu facea teoretic distinctii intre Franco sau Hitler. „Dar este adevarat ca, cu Hitler si cu nazismul sunt super-rigizi. Nu se pot arata fotografii de-ale lor fara sa spui numele sau cine sunt. Daca arati doar o imagine cu numele si nu spui „dictator” sau sa denunti putin ce a facut, trebuie sa o eliminam pentru ca Facebook simte ca il laudati”.

Uneori lucratorii au pus intrebari cu privire la aceste contradictii. „Sefii iti explica, desigur, unde pun limita. Ca daca vom incepe sa stergemunde spunem suficient. Este scuza pe care o pun”, spune Albert. Apologia franchismului nu este o crima in Spania, apologia nazismului este o crima in Germania, dar regulile Facebook sunt libere, nu depind de legile fiecarei tari in care au utilizatori. Se adapteaza numai la fiecare limba, insa politica de continut a Facebook este globala si poarta stampila americana. (…)

Geopolitica in fiecare continut

Atat Albert, cat si Johan subliniaza standardele duble si o protectie mai mare pentru anumite grupuri, indiferent de ce spun normele scrise. „Insultarea anumitor convingeri sau ideologii este permisa de facto si la altii nu. Exista anumite credinte sau ideologii care sunt protejate in mod special pe Facebook”. Primul, dupa experienta lui Albert si Johan, este „sionismul”. Cel putin in biroul din Polonia, unde exterminarea evreilor in timpul nazismului a fost deosebit de tragica. Potrivit marturiei sale, in Facebook se indeplineste logica ca orice critica impotriva sionismului sau a politicii Israelului in Palestina risca sa fie identificata ca antisemitism. Apelul la boicotul Israelului pentru actiunile sale in Palestina este interzis. „Campaniile Miscarii Boycott, Divestment and Sanctions (BDS) sunt interzise pe Facebook. Nu le denunta prea mult, dar daca cineva le raporteaza, trebuie sa fie sterse”, explica ei. „Nici macar nu poti numi asasin un soldat israelian care il loveste pe un copil palestinian. De asemenea trebuie sa-l stergi”.

Inainte de a se converti in analisti ai Facebook, lucratorii fac un antrenament de doua saptamani pentru a interioriza ploiticile de cenzura si a face practica pe exemple. „In una din aceste sesiuni”, povesteste Johan, „o fata a intrebat ce este sionsimul”. Raspunsul a fost ca era „o minoritate persecutata in Palestina si deci, orice comentariu impotriva sionismului trebuie sa fie eliminat”. In nicio politica publica a Facebook asta nu este stabilita asa, si in normele interne nu este atat de clar in scris, dar sursele consultate asigura ca acest climat este cel care se respira zilnic la locul de munca si, prin urmare, are o influenta directa asupra deciziilor care sunt luate in biroul de la Varsovia.

Cum defineste Facebook terorismul? „Actele premeditate de violenta impotriva persoanelor sau a proprietatii pentru a intimida populatia civila, guvernul sau organizatiile internationale, cu scop politic, religios sau ideologic”. Unde pune limita Facebook? Unde spun SUA. Lucratorii au acces la o lista a organizatiilor teroriste elaborata de guvernul SUA. „Daca un comentariu lauda o organizatie sau cineva preia fotografia emblemei sale si aceasta organizatie este pe lista, stergem.

„Acest lucru este problematic”, explica lucratorii. „Exista utilizatori care urca comentarii pe Facebook deoarece considera eroi ai grupurilor politice armate care in multe tari nu sunt considerati teroristi, ci gherila sau soldati sau lideri, dar pe lista americanilor sunt”. Cerem exemple. „Hamas in Palestina sau PKK in Turcia”. Hamas nu este considerat un grup terorist de catre Uniunea Europeana, care are propria sa lista de organizații teroriste. Dar ceea ce conteaza este lista SUA.

Pentru a lua decizii privind un act de razboi sau despre un atac terorist, moderatorii trebuie sa fie bine informati despre ce se intampla in fiecare zi in lume. Sefii ii avertizeaza prin e-mail despre evenimente care probabil le vor da de lucru: „Impuscaturi intr-o biserica din apropiere de Cairo, tot continutul ce arata atacul sau il sarbatoreste trebuie eliminat. Clasificam actul drept atac terorist”, spune un superior al analistilor intr-un e-mail intern la care a avut acces eldiario.es. (…)

Facebook apara interpretarea politica pe care o face SUA in lume, spun Albert, Johan si de asemenea María. „Si celelalte tari, la dracu´”. Aceasta asimetrie se aplica nu numai problemelor politice. „Am vazut videoclipuri ale copiilor din tarile arabe spunand in filme pe Facebook ca se vor sinucide; asta nu-i pasa lui Facebook. Dar daca spune un copil in SUA sau in Europa, ei anunta autoritatile„, asa cum promite ca va face fara distinctie in normele sale publice. (…)

Daca un mic grup de elevi ai unui institut fac bullying prin Facebook, probabil alti colegi nu indraznesc sa denunte publicatia si tac. Deci bullying persista. „In plus, ca sa-i putem sterge profilul cuiva, si nu numai continutul, trebuie sa incalce normele in peste 30% din postari”, explica Johan. „Sa fim realisti: daca am elimina toate profilele care hartuiesc, reimpart pornografie sau vand marihuana pe Facebook, ar trebui sa stergem multe profile. Si Facebook nu vrea sa ramana fara utilizatori”.

Precaritate si traume: „Vedem lucruri care nu te-ar lasa sa dormi”

„Noi acordam toata valoarea muncii grele a revizorilor nostri de continut”, spune un purtator de cuvant al Facebook la eldiario.es. „Toata lumea primeste un salariu peste standardul de piata.” Angajatii Facebook din Barcelona, ​​Varsovia sau Lisabona indeplinesc profilul teleoperatorilor si, de fapt, sunt angajati prin intermediul unor companii de servicii pentru clienti, cum ar fi Competence Call Center din Barcelona. Acest lucru permite companiei sa se distanteze legal de conditiile sale de munca, precum si sa creasca, dar si sa reduca forta de munca cu lucratori temporari. Salariul variaza in diverse birouri si in diverse parti din lume, pentru a se adapta la piata muncii din tara respectiva a populatiei imigrante care stapaneste diferite limbi de care este nevoie, ceea ce permite relocarea si salarii mai mici.

In fiecare centru, un grup de sefi analizeaza aleatoriu intre 5% si 10% din cazurile moderate de lucratori pentru a verifica daca deciziile sunt conforme cu ceea ce li se cere. „Scopul este de a avea cel putin 98% succes in fiecare luna”, spune Johan. „Daca nu le ai, optiunile de a urca o treapta mai sus in functie sau de a primi bonusuri trimestriale sau lunare, se duc dracu´”, continua el. Bonusurile nu depasesc de obicei 100 de euro pe luna.

Majoritatea moderatorilor Facebook sunt persoane tinere, fara o calificare speciala, expusi zilnic la ore de continut extrem de deranjant. „Exista un psiholog pentru echipa de muncitori, dar nu este obligatoriu sa meaga … Ceea ce vedem este foarte puternic si intr-un ritm foarte stresant“, spune Johan. Pedofilia, crimele, hartuirea de tot felul si discursul de ura in toate directiile. Lucratorii nu rezista mult in post, de obicei parasesc repede, saturati. „Este o munca foarte dura: am lucrat o luna si ieseam de acolo cu capul praf. Aceste 8 ore, cronometrate, consumand non-stop video si fotografii in care de multe ori exista, pedofilie, atacuri asupra minorilor ai animalelor …. Este platit fatal”, spune María despre experienta ei in biroul de la Lisabona.
Unii lucratori au intreprins deja actiuni in justitie impotriva Facebook pentru provocarea daunelor psihologice derivate din sindromul stresului post-traumatic. Mass-media americane The Verge a publicat un amplu raport despre ororile pe care le traiesc lucratorii intr-un alt centru, in Phoenix (SUA).

Bonusurile lucratorilor depind de rezistenta lor la vizionarea videoclipurilor pe care ulterior le vor cenzura sau nu. „Am vazut creiere imprastiate, am vazut copii morti, am vazut soldati batand civili pana la moarte”, spune Johan. „Daca nu esti suficient de puternic pentru a viziona videoclipul pana la sfarsit si iei o decizie de impact, va avea consecinte asupra calitatii“, ceea ce inseamna mai putine prime si compensatii la sfarsitul lunii. De exemplu, „daca cineva este in foc pe un film, tocmai l-am marcat ca cenzurat pentru copii sub 18 ani. Dar, in cazul in care persoana moare in film prin foc, trebuie sa-l stergi. Deci, va trebui irmarit video pana la sfarsit”.

El diario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *