Tech & Rights

Automatizace a nelegální obsah: Můžeme se spolehnout na stroje, které za nás rozhodují?

I když je automatizace nezbytná pro zpracování velkého množství obsahu sdíleného uživateli, dělá chyby, které mohou mít dalekosáhlýt dopad na vaše práva a blahobyt společnosti.

by LibertiesEU

Většina z nás ráda diskutuje o nápadech a názorech na hloupé i vážné otázky, sdílí šťastné i smutné chvíle a hraje si na internetu. A je to skvělé. Všichni chceme mít svobodu učit se o nových věcech, dostat se do kontaktu s našimi přáteli a oslovit nové lidi. Každou minutu neustále sdílíme fotografie, videa a nápady. Ve službě Snapchat sdílíme 527 760 fotek, sledujeme 4 146 600 videí na YouTube, sdílíme 456 000 tweetů a na Instagramu je zveřejněno 46 000 fotografií - každou minutu. Víte, kolik minut uběhne za jeden den? 1440.

Tyto informace se svou povahou liší. Některé z nich jsou domácí videa a zákon s nimi nemá nic společného. Existuje však obsah, který jasně porušuje zákon, jako je dětská pornografie nebo podněcování k násilí. A mezi legálním a nezákonným obsahem existuje třetí skupina, kterou někteří lidé považují za škodlivou, zatímco jiní s ní mají problém i když není nezákonná, ale někteří rodiče by chtěli zabránit tomu, aby jejich 12tileté děti získaly přístup k pornografii. Není snadné definovat a už vůbec ne kategorizovat, co je škodlivé a pro koho. Závisí to na kultuře, věku, okolnostech a mnoha dalších faktorech.

Protože velké množství internetového obsahu je hostitelem online platforem, musí se při vyhledávání a řešení různých kategorií nezákonného nebo potenciálně škodlivého obsahu spoléhat na automatizované nástroje. Dominantní hráči, jako je Facebook nebo Google, používají zejména technologie sledování a filtrování k identifikaci a odstranění obsahu. Shodneme se na odstranění materiálů zneužívajících děti? Rozhodně. Shodneme se na zabránění šíření videí náboru ISIS? Absolutně.

EU, společně s některými členskými státy neustále vyvíjí tlak na online platformy, aby rychle odstranila nezákonný nebo potenciálně škodlivý obsah, jako jsou nenávistné projevy online nebo terorismus, často pod hrozbou pokut, pokud nebudou jednat dostatečně rychle. Aby bylo možné těmto požadavkům vyhovět, musí se technologické společnosti spoléhat na automatizované nástroje k odfiltrování informací, které by neměly být přístupné online.

I když je automatizace nezbytná pro zpracování velkého množství obsahu sdíleného uživateli, dělá chyby, které mohou být dalekosáhlé pro vaše práva a dobro společnosti.

1. Kontextová slepota automatizovaných opatření umlčuje legitimní projevy

Automatizované nástroje rozhodování postrádají pochopení jazykových nebo kulturních rozdílů. Technologie rozpoznávání obsahu nejsou schopny přesně posoudit kontext výrazů. I v přímých případech dělají falešné závěry. V roce 2017 popová hvězda Ariana Grande streamovala svůj benefiční koncert „One Love Manchester“ prostřednictvím svého YouTube kanálu. Stream byl okamžitě ukončen filtrem pro nahrávání na YouTube, který nesprávně označil její show za porušení jejích autorských práv. Ještě závažnější je, že stejné automatizované nástroje odstranily tisíce videí na YouTube, které by mohly sloužit jako důkaz zvěrstev spáchaných na civilistech v Sýrii, což potenciálně ohrožuje jakékoli budoucí vyšetřování válečných zločinů, které by mohlo postavit válečné zločince před soud. Kvůli jejich kontextuální slepotě nebo jinými slovy neschopnosti porozumět skutečnému smyslu a záměrům uživatelů označují a odstraňují obsah, který je zcela legitimní. Novináři, aktivisté, komici, umělci, jakož i kdokoli z nás, kteří sdílejí naše názory a videa nebo obrázky online, tedy mohou být cenzurováni, protože internetové společnosti se spoléhají na tyto špatně fungující nástroje.

2. Nejsou stříbrná kulka

Tyto technologie jsou někdy označovány za „umělou inteligenci“, což je pojem, který vyvolává představy o nadlidské počítačové inteligenci. Nic z toho však neexistuje, ani není na obzoru. Namísto toho tento termín odkazuje na pokročilé statistické modely, které byly vytvořeny k rozpoznávání vzorců, ale bez skutečného „porozumění“ nebo „inteligence“. Technologie rozpoznávání obsahu nemohou porozumět smyslu nebo záměru těch, kteří sdílejí příspěvek na sociálních médiích, ani jejich vlivu na ostatní. Pouze kontrolují obsah podle určitých vzorců, jako jsou vizuální, verbální nebo zvukové soubory, které odpovídají tomu, na co byli naprogramováni, aby identifikovali „nenávistné projevy“ nebo „teroristický obsah“. Neexistují žádná dokonalá, jednoznačná data pro toto programování, a proto je jejich schopnost rozpoznat tyto vzorce neodmyslitelně omezena na to, na co byli nastaveni, aby rozpoznali. Přestože mohou dosáhnout velmi vysoké úrovně přesnosti při identifikaci jednoznačných a konzistentních vzorců, jejich schopnost automatizovaně postuzovat velmi citlivý úkol, zda něco představuje nenávistné projevy, bude vždy zásadně omezena.

Pochopitelně, vlády chtějí ukázat svým občanům, že dělají něco pro to, aby je chránili před terorismem, nenávistnými výroky, zneužíváním dětí nebo porušováním autorských práv. Společnosti jsou velmi rády, že své automatizační technologie prodávají jako stříbrnou kulku politikům, kteří zoufale hledají jednoduchou odpověď. Musíme však mít na paměti, že žádná automatizace nevyřeší problémy hluboce zakořeněné v naší společnosti. Můžeme je použít jako nástroj ke snížení zátěže platforem, ale potřebujeme ochranná opatření, která zajistí, že nebudeme obětovat naši svobodu v oblasti lidských práv kvůli špatně nastaveným automatizovaným nástrojům.

Kdo by tedy měl rozhodnout o tom, co uvidíme online? Sledujte pokračování této série.

Autoři: Eliška Pírková z Access Now & Eva Simon z Liberties