Neteisėtas turinys ir automatizavimas: ar programos iš tiesų gali už mus priimti teisingus sprendimus?

Automatizavimas yra būtinas, norint tvarkyti vartotojų skleidžiamo turinio masę, tačiau programos irgi klysta - o jų klaidos gali skaudžiai atsiliepti mūsų teisėms ir visuomenės gerovei.

Dauguma žmonių mėgsta internetu diskutuoti rimtomis ir kvailomis temomis, dalintis džiugiomis ar liūdnomis akimirkomis, kartu žaisti. Ir tai yra puiku. Visi norime laisvės domėtis naujais dalykais, susisiekti su draugais ir užmegzti ryšį su naujais žmonėmis. Kiekvieną sekundę mes dalinamės nuotraukomis, vaizdo įrašais ir idėjomis. Kas minutę programėlėje „Snapchat“ pasidalinama 527,760 nuotraukų, „YouTube“ peržiūrima 4,146,600 vaizdo klipų, „Twitter“ paskelbiama 456,000 žinučių, o į „Instagram“ įkeliama apie 46,740 nuotraukų. Smalsu, kiek minučių dienoje? 1,440.

Visos šios informacijos dalelės yra skirtingo pobūdžio. Kai kurios jų – namų vaizdo įrašai, kurių įstatymai neliečia. Tačiau yra ir aiškiai su teise prasilenkiančio turinio – pavyzdžiui, vaikų pornografijos ar smurto kurstymo. Tarp teisėto ir nelegalaus turinio yra įsispraudus trečia grupė, kurią vieni keikia, o kiti priima kaip visai natūralų elementą. Tokia informacija įstatymų nepažeidžia, tačiau, pavyzdžiui, kai kurie tėvai tikrai nenorėtų, kad pornografija būtų pasiekiama nuo 12 metų amžiaus. Sunku apibrėžti (o juo labiau klasifikuoti), kas kenksminga ir kam. Tai priklauso nuo kultūros, amžiaus, aplinkybių ir daugelio kitų veiksnių.

Kadangi didelė dalis interneto turinio talpinama internetinėse platformose, šioms tenka pasikliauti automatizuotomis priemonėmis neteisėtam ar galimai žalingam turiniu nustatyti ir tvarkyti. Stebėjimo ir filtravimo technologijas turinio atpažinimui ir šalinimui ypač mėgsta naudoti didieji rinkos žaidėjai, kaip antai „Facebook“ ir „Google“. Ar visi sutinka, kad reiktų šalinti vaikų išnaudojimą? Be abejo. Ar reiktų drausti ISIS skelbti naujų narių paieškas? 100 proc. taip.

Europos Sąjunga kartu su keliomis valstybėmis narėmis jau ilgą laiką stūmė internetines platformas greitai šalinti neteisėtą ar potencialiai žalingą turinį (pavyzdžiui, neapykantos skatinimą ar terorizmą), dažnai grasindamos baudomis už vangumą. Siekdamos įgyvendinti šiuos reikalavimus, technologijų įmonėms tenka naudoti automatizuotas priemones internetui netinkamos informacijos filtravimui.

Automatizavimas reikalingas, norint suvaldyti milijonų vartotojų siunčiamą turinio masę. Deja, šios programos daro klaidų, kurios gali gerokai atsiliepti jūsų teisėms ir visuomenės gerovei.

1. Negebėjimas įvertinti konteksto tildo teisėtą saviraišką

Automatizuotos sprendimų priėmimo priemonės nesupranta kalbinių ar kultūrinių skirtumų. Turinio vertinimo programos nemoka tiksliai įvertinti frazių konteksto. Net gana paprastais atvejais jos gali kažką ne taip suprasti. 2017 m. popžvaigždė Ariana Grande savo „YouTube“ kanale gyvai transliavo savo labdaros koncertą „One Love Manchester“. Deja, įkėlimo filtras srautą greitai užraukė nusprendęs, kad dainininkė pažeidžia savo pačios autorių teises. O jei kiek rimčiau, tai tie patys automatiniai filtrai pašalino tūkstančius „YouTube“ vaizdo įrašų, kurie galėtų būti įkalčiais nagrinėjant prieš Sirijos civilius įvykdytus žiaurumus, kas kenktų bet kokiam šių karo nusikaltimų tyrimui ateityje. Dėl negalėjimo suprasti tikrosios vartotojų minties ir ketinimų, filtrai žymi ir šalina visiškai teisėtą turinį. Vadinasi, žurnalistams, aktyvistams, komikams, menininkams ir šiaip mums visiems, kurie internete dalijasi savo nuomone, vaizdo įrašais, ar nuotraukomis, rimtai gresia cenzūra dėl šių prastai veikiančių priemonių.

2. Taip paprastai šios sudėtingos problemos neišspręsi

Šios technologijos kartais įvardijamos kaip „dirbtinis intelektas“, kas mintyse iškart asocijuojama su nežmogiškais analizės gebėjimais. Tačiau nieko panašaus dar nėra – ir ilgai nebus. Šis terminas iš tiesų taikomas pažangiems statistikos konstruktams, kurie neturi tikros „nuovokos“ ar „intelekto“, tačiau yra išmokyti atpažinti tam tikrus modelius. Turinio atpažinimo technologijos negali suprasti socialiniuose tinkluose žinutėmis besidalijančių asmenų minties, ketinimų, ar poveikio kitiems. Šios programos tik palygina turinį su tam tikrais modeliais, kaip vaizdo, frazių, ar garso failai, pagal nurodytus „neapykantos kalbos“ ar „teroristinio turinio“ kriterijus. Nėra tobulų, nedviprasmiškų programų mokymų duomenų, tad jų gebėjimas atpažinti šiuos modelius iš esmės apsiriboja tuo, ką jie yra išmokyti atpažinti. Nors galima pasiekti iš tiesų labai aukštą tikslumo lygį nustatant nedviprasmiškus, nuoseklius modelius, labai jautraus turinio – pavyzdžiui, dėl neapykantos kurstymo – vertinimo galimybės iš principo visados bus ribotos.

Mes suprantame, kad vyriausybės nori piliečiams rodyti, kad imasi veiksmų apsaugoti juos nuo terorizmo, neapykantos kurstymo, vaikų išnaudojimo ar autorių teisių pažeidimų. Ir įmonės labai džiaugiasi, kad programų automatizavimą galima parduoti kaip lengvą sprendimą politikams, ieškantiems paprasto atsakymo į komplikuotą problemą. Tačiau reikia nepamiršti, kad automatizacija neišspręs giliai mūsų visuomenėje įsišaknijusių problemų. Tai gali būti priemonė platformų apkrovimui palengvinti, tačiau reikia apsaugos priemonių, kurios užtikrintų, kad netinkamai apmokyti automatizuoti įrankiai nepriverstų mūsų atsisakyti dalies savo žmogaus teisių.

Tai kas gi turėtų spręsti, ką galima rasti internete? Atsakymas į tai – kitoje ciklo dalyje.

Autorės: Eliška Pírková iš "Access Now" ir Eva Simon iš "Liberties"