​Automatizare și materialele ilegale: ne putem baza pe roboți pentru a lua decizii pentru noi?

Deși automatizarea este necesară pentru manipularea cantității uriașe de materiale distribuite pe internet, aceasta poate avea un impact negativ major asupra respectării drepturilor omului și a funcționării societății.

Celor mai mulți dintre noi ne place să discutăm idei și păreri despre subiecte stupide, dar și serioase, să împărtășim momentele fericite, dar și pe cele mai puțin fericite și să ne jucăm pe internet. Și este ceva grozav. Cu toții ne dorim să fim liberi să învățăm despre lucruri noi, să luăm legătura cu prietenii noștri și să ajungem la oameni noi. Împărtășim în continuu fotografii, videoclipuri și idei. În fiecare minute sunt distribuite pe Snapchat 527.760 de fotografii, sunt urmărite 4.146.600 de videoclipuri pe YouTube, dunt distribuite 456.000 de tweet-uri și sunt distribuite pe Instagram 46.740 de fotografii. Știți câte minute avem într-o zi? 1440.

Materialele distribuite sunt de natură diferită. Unele sunt videoclipuri făcute acasă, iar legea nu are nicio problemă cu ele. Există însă materiale care încalcă clar legea, cum ar fi pornografia infantilă sau instigarea la violență. Iar între materialele legale și ilegale există un al treilea grup, cel de materiale pe care unii le consideră dăunătoare, în timp ce alții nu au nicio problemă cu ele. Deși nu este ilegal, unii părinți ar dori să evite accesul copiilor până în 12 ani la pornografie. Nu este ușor de definit și să nu mai vorbim de categorizat ceea ce este dăunător și pentru cine. Depinde de cultură, vârstă, circumstanțe și atât de mulți alți factori.

Deoarece o cantitate mare de materiale de pe internet este găzduită de platforme online, acestea trebuie să se bazeze pe instrumente automatizate pentru a identifica și aborda diferite categorii de materiale ilegale sau potențial dăunătoare. Cele mai mari dintre acestea, cum ar fi Facebook și Google, folosesc cu preponderență tehnologii de monitorizare și filtrare pentru identificarea și eliminarea de materiale. Suntem noi de acord cu eliminarea materialelor ce conțin abuzuri asupra copiilor? Cu siguranță. Suntem noi de acord cu prevenirea răspândirii videoclipurilor de recrutare ale ISIS? Absolut.

UE, împreună cu unele state membre, au presat continuu platformele online în legătură cu eliminarea rapidă a materialelor ilegale sau potențial dăunătoare, cum ar fi discursul prin care se instigă la ură online sau terorismul, adesea sub amenințarea cu aplicarea de amenzi în cazurile în care nu se acționează suficient de repede. Pentru a răspunde acestor cerințe, companiile trebuie să se bazeze pe instrumente automatizate pentru a filtra materialele care nu ar trebui să ajungă online.

Deși automatizarea este necesară pentru manipularea cantității uriașe de materiale distribuite pe internet, aceasta poate avea un impact negativ major asupra respectării drepturilor omului și a funcționării societății.

1. Incapacitatea măsurilor automatizate de a evalua în funcție de context are impact asupra libertății de exprimare

Roboții care iau aceste decizii nu au capacitatea de a înțelege o varietate de diferențe lingvistice sau culturale. Tehnologiile de recunoaștere a materialelor nu sunt în măsură de a evalua cu exactitate contextul în care au fost realizate anumite materiale. Chiar și în cazuri simple, iau uneori decizii în mod evident greșite. În 2017 vedeta pop Ariana Grande și-a difuzat concertul caritabil „One Love Manchester” pe canalul său YouTube. Difuzarea a fost întreruptă prompt de filtrul la încărcare al YouTube, care a identificat greșit materialul ca reprezentând o încălcare a propriului drept de autor al lui Grande. În alte situații, mai grave, aceleași instrumente au eliminat mii de videoclipuri de pe YouTube, videoclipuri care ar fi putut servi drept probe ale atrocităților comise împotriva civililor din Siria, putând pune în pericol orice viitoare anchetă a crimelor de război care ar fi putut trage la răspundere criminali de război. Datorită incapacității lor de a aprecia în funcție de context, sau, cu alte cuvinte, de a înțelege semnificațiile și intențiile reale ale utilizatorilor, acestea semnalizează și elimină materiale complet legitime. Astfel, jurnaliștii, activiștii, comedienii, artiștii, precum și oricare dintre noi, cei care ne împărtășim opiniile, videoclipurile sau imaginile online, riscăm să fim cenzurați, deoarece companiile de internet se bazează pe aceste instrumente deficitare.

2. Soluția magică

La aceste tehnologii se face uneori referire ca fiind exemple de „inteligență artificială”, un termen care sugerează a fi vorba despre o formă de inteligență supraumană. Cu toate acestea, așa ceva nu există încă și nici va exista foarte curând. Termenul face de fapt referire la modele statistice avansate, care au fost construite pentru a recunoaște tipate, dar care nu au de fapt „înțelegere” sau „inteligență”. Tehnologiile de recunoaștere a materialelor nu pot înțelege sensul sau intenția celor care le distribuie pe acestea sau efectul pe care ele îl au asupra celorlalți. Ele nu fac decât să examineze anumite materiale de natură vizuală, verbală sau audio, conform unor tipare care corespund cu ceea ce au fost instruite să identifice drept „discurs prin care se instigă la ură” sau „cu caracter terorist”. Cum nu există date perfecte de instruire, lipsite de ambiguitate, capacitatea lor de a recunoaște aceste tipare este, în mod inerent, limitată la ceea ce au fost instruite să recunoască. Deși pot atinge niveluri foarte ridicate de precizie în identificarea tiparelor consecvente și lipsite de ambiguitate, capacitatea lor de a automatiza sarcina foarte sensibilă de a judeca dacă ceva constituie sau nu discurs prin care se instigă la ură va fi întotdeauna extrem de limitată.

Este de înțeles că guvernele vor să le arate cetățenilor că fac ceva pentru a-i proteja de terorism, discursuri prin care se instigă ură, abuzuri asupra copiilor și încălcări ale drepturilor de autor. Iar companiile preferă să prezinte politicienilor care caută cu disperare soluții simple aceste tehnologii de automatizare drept soluția magică. Trebuie să ținem însă cont de faptul că nimic automatizat nu va rezolva problemele adânc înrădăcinate în societatea noastră. Putem folosi aceste instrumente pentru a reduce povara care atârnă asupra platformelor, însă avem nevoie de garanții care să ne asigure că nu ne sacrificăm drepturile și libertățile din cauza deficienței acestora.

Așadar, cine ar trebui să decidă ce vedem online? Urmărește-ne și vei afla din următorul articol al acestei serii.

Autori: Eliška Pírková de la Access Now & Eva Simon de la Liberties