Automatika i ilegalni sadržaj: možemo li se osloniti na strojeve da donose odluke u naše ime?

Automatika je nužna za upravljanje ogromnom količinom sadržaja koji korisnici dijele, ali radi pogreške koje mogu imati dalekosežne posljedice za naša prava i dobrobit društva.

Većina nas voli na internetu raspravljati o idejama i mišljenjima koje imamo o smiješnim i ozbiljnim pitanjima, dijeliti sretne i tužne trenutke i igrati se. I to je odlična stvar. Svi želimo imati slobodu učenja o novim stvarima, biti u kontaktu s prijateljima i stupati u kontakt s novim ljudima. Svake minute neprekidno dijelimo fotografije, videe i ideje. Svake minute na Snapchatu podijelimo 527.760 fotografija, pogledamo 4,146.600 YouTube videa, podijelimo 456.000 tvitova i objavimo oko 46.740 fotografija na Instagramu. Znate li koliko minuta ima u jednom danu? 1440.

Te su informacije različite prirode. Neke su kućni videi i zakon nema ništa s njima. No, ima i sadržaja koji jasno krši zakon, kao što je dječja pornografija ili poticanje na nasilje. A između legalnog i ilegalnog sadržaja postoji i treća skupina, koju neki ljudi smatraju štetnom, dok drugi s njom nemaju problem. Iako se ne radi o nečem ilegalnom, neki roditelji žele izbjeći da njihova djeca dobiju pristup pornografiji prije 12 godine. Nije jednostavno definirati, a kamoli kategorizirati što je štetno i za koga. To ovisi o kulturi, godinama, okolnostima i mnogim drugim faktorima.

S obzirom na to da se velika količina internet sadržaja nalazi na online platformama, one se trebaju oslanjati na automatizirane alate kako bi pronašle i borile se protiv različitih kategorija ilegalnog i potencijalno štetnog sadržaja. Dominantni igrači kao što su Facebook i Google za identifikaciju i uklanjanje sadržaja koriste tehnologije za monitoriranje i filtriranje. Slažemo li se oko uklanjanja materijala koji prikazuje zlostavljanje djece? Zasigurno. Slažemo li se oko toga da treba spriječiti širenje ISIS-ovih videa za regrutaciju? Apsolutno.

EU, u suradnji s nekim državama članicama, konstantno pritišće online platforme da brzo uklone ilegalni ili potencijalno štetni sadržaj, kao što je online govor mržnje ili terorizam, i to često pod prijetnjom kazni ako ne reagiraju dovoljno brzo. Kako bi ispunile te zahtjeve, tehnološke kompanije moraju se oslanjati na automatizirane alate kako bi filtrirale informacije koje ne bi trebale ići online.

No, iako je automatika nužna za upravljanje ogromnim količinama sadržaja koje korisnici dijele, ona radi pogreške koje mogu imati dalekosežne posljedice za vaša prava i dobrobit društva.

1. Kontekstualna sljepoća automatiziranih mjera ušutkava legitiman govor

Automatizirani alati za donošenje odluka nemaju razumijevanja za lingvističke i kulturalne razlike. Tehnologije za prepoznavanje sadržaja ne mogu točno procijeniti kontekst izražavanja. Čak i u izravnim slučajevima oni nalaze lažne podudarnosti. Pop zvijezda Ariana Grande je 2017. godine na internetu, na svom YouTube kanalu, uživo prenosila svoj dobrotvorni koncert 'One Love Manchester'. YouTubeov filter za uploadanje brzo je ugasio streaming zato što ga je označio kao kršenje njezinih vlastitih autorskih prava. Mnogo ozbiljnije, isti automatizirani alati uklonili su tisuće videa na YouTubeu koji su mogli poslužiti kao dokazi zločina počinjenih nad civilima u Siriji te su tako potencijalno ugrozili svaku buduću istragu ratnih zločina koja bi mogla dovesti zločince pred lice pravde. Zbog njihove kontekstualne sljepoće ili, drugim riječima, nemogućnosti da shvate stvarno značenje ili namjere korisnika, oni označuju i uklanjaju sadržaj koji je potpuno legitiman. To znači da se novinari, aktivisti, komičari, umjetnici, kao i svatko od nas tko dijeli svoja mišljenja, videe ili fotografije na internetu, suočava s rizikom cenzure zato što se internet kompanije oslanjaju na alate koji ne rade dobro.

2. Oni nisu magično rješenje

Te tehnologije ponekad se opisuje kao 'umjetnu inteligenciju', što je pojam koji označava nadljudsku računalnu inteligenciju. Međutim, tako nešto ne postoji, niti je na horizontu. Umjesto toga, taj se termin odnosi na napredne statističke modele koji su obučeni za prepoznavanje obrazaca, ali bez stvarnog 'razumijevanja' ili 'inteligencije'. Tehnologije za prepoznavanje sadržaja ne mogu razumjeti značenje ili namjeru onih koji dijele objavu na društvenim mrežama ili učinak koji ona ima na druge. Oni samo skeniraju sadržaj u potrazi za određenim obrascima kao što su vizualni, verbalni ili audio dokumenti, a koji odgovaraju onome za što su ih obučili da identificiraju kao 'govor mržnje' ili 'teroristički sadržaj'. Ne postoje savršeni, nedvosmisleni podaci za obuku pa je tako njihova sposobnost prepoznavanja tih obrazaca inherentno ograničena na ono što su obučeni prepoznati. Iako mogu postići vrlo visoke razine točnosti u identifikaciji nedvosmislenih, konzistentnih obrazaca, njihova će mogućnost automatiziranja vrlo osjetljive zadaće da prosuđuju sadrži li nešto govor mržnje uvijek biti temeljno ograničena.

Razumljivo, vlade žele pokazati građanima da rade nešto ne bi li nas učinile sigurnima od terorizma, govora mržnje, zlostavljanja djece ili kršenja autorskih prava. A kompanije su vrlo sretne kada svoje automatizirane tehnologije mogu prodati kao magično rješenje političarima koji očajnički traže jednostavan odgovor. No, moramo imati na umu da automatika neće riješiti probleme koji su duboko ukorijenjeni u naše društvo. Možemo ih koristiti kao alat za smanjivanje tereta koji snose platforme, ali trebamo mjere zaštite kako bi se osiguralo da ne žrtvujemo našu ljudsku slobodu zbog loše obučenih automatiziranih alata.

Tko bi trebao odlučivati što vidimo online? Pratite nas kako biste pročitati drugi članak iz ovog serijala.

Autorice: Eliška Pírková iz Access Now i Eva Simon iz Libertiesa