Tech & Rights

Automatiseerimine ja illegaalne sisu: kas võime loota masinatele, et nad meie eest otsuseid teeks?

Kuigi automatiseerimine on vajalik kasutajate poolt jagatud suure hulga sisu käsitlemiseks, teeb see vigu, mil võivad olla kaugeleulatuvad tagajärjed sinu õiguste ja ühiskonna heaolu jaoks.

by LibertiesEU

Enamikule meist meeldib arutada oma ideede ja arvamuste üle tobedatel ja tõsistel teemadel, jagada õnnelikke ja kurbi hetki ning mängida koos internetis. Ja see on suurepärane. Tahame kõik olla vabad õppima uusi asju, võtta ühendust oma sõpradega ja suhelda uute inimestega. Igal minutil jagame pidevalt fotosid, videosid ja ideesid. Snapchatis jagame 527 760 fotot, vaatame 4 146 600 YouTube’i videot, jagame 456 000 säutsu, ning umbes 46 740 fotot postitatakse Instagramis – igas minutis. Kas tead mitu minutit on ühes päevas? 1440.

Need infokillud on loomult erinevad. Mõned neist on koduvideod, ning seadusel ei ole nendega mingit pistmist. Kuid on ka sisu, mis selgelt seadust rikub, näiteks lapsporno, või vägivallale õhutamine. Ja seadusliku ning illegaalse sisu vahel on kolmas grupp, mis mõne inimese arvates on kahjulik, samas kui teisel pole sellega probleemi. Kuigi see ei ole illegaalne, soovivad mõned vanemad vältida seda, et nende lastel on 12aastaselt juurdepääs pornograafiale. Ei ole lihtne defineerida ning veel vähem kategoriseerida seda, mis on kahjulik ning kellele. See sõltub kultuurist, vanusest, olukorrast ja paljudest muudest teguritest.

Kuna suur hulk interneti-sisust on majutatud võrguplatvormidel, peavad need sõltuma automatiseeritud vahenditest, et leida ja lahendada erinevaid ebaseadusliku või potentsiaalselt kahjuliku sisu kategooriaid. Iseäranis sellised domineerivad jõud nagu Facebook ja Google on kasutanud sisu tuvastamiseks ja eemaldamiseks seire ja filtreerimistehnoloogiaid. Kas oleme ühel meelel laste kuritarvitamise materjalide eemaldamise suhtes? Kindlasti. Kas oleme ühel meelel ISISe värbamisvideote levitamise takistamise suhtes? Täiesti.

Euroopa Liit, koos mõnede liikmesriikidega, on pidevalt survestanud internetiplatvorme kiiresti kõrvaldama ebaseaduslikku või potentsiaalselt kahjulikku sisu, nagu näiteks online vaenukõnet või terrorismi, sageli trahvidega ähvardades, kui nad ei tegutse piisavalt kiiresti. Nende nõudmiste täitmiseks peavad tehnoloogiaettevõtted tuginema automatiseeritud vahenditele, et filtreerida välja teave, mis internetti minna ei tohiks.

Kuigi automatiseerimine on vajalik kasutajate poolt jagatava tohutu hulga sisu käsitlemiseks, teeb se vigu, mil võivad olla kaugeleulatuvad tagajärjed sinu õiguste ja ühiskonna heaolu jaoks.

1 Automatiseeritud meetmete kontekstuaalne pimedus vaigistab õiguspärast sõnavabadust

Automatiseeritud otsustusvahenditel puudub arusaam keelelistest või kultuurilistest erinevustest. Sisutuvastustehnoloogiad ei suuda väljendite konteksti täpselt hinnata. Isegi lihtsatel juhtudel annavad nad valesid vasteid. 2017. aastal voogas popstaar Ariana Grande oma YouTube’i kanali kaudu oma heategevuskontserti „One Love Manchester“. YouTube’i üleslaadimisfilter pani voo kohe kinni, kuna märkis ekslikult Grande kontserdi tema enda autoriõiguse rikkumisena. Tõsisemal teemal – samad automatiseeritud vahendid eemaldasid tuhandeid YouTube’i videosid, mis võivad olla tõendiks tsiviilelanike vastu Süürias toime pandud õudustest, potentsiaalselt ohustades tulevasi sõjakuritegude uurimisi, mis võivad sõjakurjategijaid kohtu ette tuua. Oma kontekstuaalse pimeduse tõttu, või teisisõnu suutmatuse tõttu mõista kasutajate tegelikku tähendust ja kavatsusi, märgivad ja eemaldavad nad sisu, mis on täiesti seaduslik. Seega ähvardab ajakirjanikke, aktiviste, koomikuid, kunstnikke, ja kõiki meid, kes jagame oma arvamusi ja videosid või fotosid internetis, oht olla tsenseeritud, sest internetiettevõtted tuginevad nendele halvasti töötavatele tööriistadele.

2 Need ei ole hõbekuul

Seda tehnoloogiat kirjeldatakse mõnikord kui „tehisintellekti“, see termin tekitab ettekujutuse üliinimlikust arvutuslikust intelligentsusest. Kuid midagi sellist ei eksisteeri, ega ole ka silmapiiril. Selle asemel viitab see termin edasijõudnud statistilistele mudelitele, mida on õpetatud mustreid ära tundma, kuid millel puudub tegelik „arusaam“ või „intelligentsus“. Sisutuvastustehnoloogiad ei suuda mõista nende tähendust ega kavatsust, kes jagavad postitust sotsiaalmeedias või selle mõju teistele. Nad vaid otsivad sisu läbi, et leida teatud mustreid, nagu näiteks visuaalseid, verbaalseid või helifaile, mis vastavad sellele, mida neid on õpetatud identifitseerima kui „vaenukõnet“ või „terroristlikku sisu“. Ei ole olemas täiuslikku, üheselt mõistetavaid koolitusandmeid, seega nende võime neid mustreid ära tunda on olemuslikult piiratud sellega, mida neid on õpetatud ära tundma. Kuigi nad suudavad täpselt ära tunda üheselt mõistetavaid järjepidevaid mustreid, on nende võime automatiseerida väga tundlikku ülesannet otsustada, kas miski kujutab endast vaenukõnet, alati põhimõtteliselt piiratud.

Arusaadavalt tahavad valitsused näidata oma kodanikele, et nad teevad midagi, mis hoiab meid terrorismi, vaenukõne, laste kuritarvitamise või autoriõiguse rikkumise eest. Ja ettevõtted müüvad väga hea meelega oma automatiseerimistehnoloogiat kui „hõbekuuli“ lahendust poliitikutele, kes meeleheitlikult lihtsat lahendust taga ajavad. Kuid me peame meeles pidama, et ükski automaatika ei lahenda me ühiskonnas sügavalt juurdunud probleeme. Võime neid kasutada vahendina, et vähendada platvormide koormust, kuid vajame kaitsemeetmeid, mis tagavad, et me ei ohverda oma inimõiguste vabadust halvasti õpetatud automatiseeritud vahendite tõttu.

Kes siis peaks otsustama mida me internetis näeme? Püsi ootel, et lugeda selle seeria järgmist osa.


Autorid: Eliška Pírková Access Now'st ja Eva Simon Libertiesest

artificial intelligence