Kdo by měl rozhodnout, co uvidíme online?

Online platformy hodnotí a moderují obsah, aniž by nám daly vědět, jak a proč to dělají. Existuje naléhavá potřeba transparentnosti postupů a politik těchto online platforem.
Naše životy jsou úzce spjaty s technologií. Jedním zřejmým příkladem je to, jak prohlížíme, čteme a komunikujeme online. V tomto článku diskutujeme o dvou metodách, které společnosti používají k poskytování obsahu: hodnocení a moderování.

Hodnocení obsahu

Platformy používají automatizovaná opatření pro hodnocení a moderování obsahu, který nahráváme. Když vyhledáváte kočičí videa v rámci prokrastinace v práci, váš výsledek vyhledávání nenabízí každé kočičí video online. Výsledek závisí na vaší poloze, nastavení jazyka, nedávných vyhledáváních a veškerých datech, které o vás vyhledávací nástroj zná.

Služby spravují a hodnotí obsah a předpovídají naše osobní preference a chování online. Tímto způsobem ovlivňují nejen náš přístup k informacím, ale také to, jak utváříme naše názory a účastníme se veřejného diskurzu. Předpovídáním našich preferencí je také formují a pomalu mění naše online chování.

Rozhodují o tom, co čteme a sledujeme. Je to jako být na výletě v cizí zemi, kde mluví jazkem země pouze průvodce. A průvodce si vybere, co uvidíte a s kým budete mluvit. Podobně rozhodují i tyto online služby o tom, co uvidíte. Zesílením a kvantifikací popularity určitých typů senzačního obsahu, který zvyšuje zapojení, doprovázeného často nepředvídatelnými vedlejšími účinky algoritmické personalizace, se hodnocení obsahu stalo komoditou, z níž platformy profitují. Navíc to může vést k manipulaci s vaší svobodným utvářením názoru. Svoboda utváření názoru je však absolutním právem, což znamená, že do této svobody nesmí být za žádných okolností zasaženo a žádná demokratická společnost to nemůže přijmout.

Automatizovaný kurátor našeho obsahu určuje, jaký typ informací dostáváme a kolik času trávíme prohlížením platformy. Většina z nás nemá dostatek informací o tom, jak algoritmy doporučení vytvářejí hierarchizaci obsahu na internetu. Někteří lidé ani nevědí, že nšjaké pořadí existuje. Smysluplná průhlednost v mechanismech kurace je předpokladem pro umožnění uživatelské agendy nad nástroji, které pomáhají utvářet naše informační prostředí. Potřebujeme vědět, kdy jsme podrobeni automatizovanému rozhodování, a máme právo nejen na vysvětlení, ale také na protest. Abychom znovu získali naši kontrolu a povědomí o kuraci obsahu, potřebujeme, aby online platformy implementovaly smysluplné požadavky na transparentnost. Důkladná transparentnost a vysvětlitelnost automatizovaných opatření jsou předpoklady pro uplatnění našeho práva na svobodu slova, abychom se mohli účinně odvolat proti nepřiměřeným omezením obsahu.

Moderování obsahu

Online platformy pomáhají poskytovat informace a moderují je, ale dělají to také proto, že zákonodárci EU a vnitrostátní zákonodárci jim ukládají stále větší odpovědnost za policejní obsah nahraný uživateli, často pod hrozbou vysokých pokut. Podle evropského právního rámce jsou platformy povinny neprodleně, jakmile jsou si vědomy jeho existence, odstranit nezákonný obsah, jako je materiál zneužívající děti nebo teroristický obsah. Všichni souhlasíme s tím, že přístup k nezákonnému obsahu by měl být zakázán. V některých případech je však nezákonnost určitého obsahu velmi obtížně posouditelná a vyžaduje řádné právní posouzení. Například video může být buď porušením autorských práv, nebo může být volně nahrádno, pokud bude použito jako parodie.

Určit hranici mezi nelegálním a legálním může být náročné. Problém spočívá v tom, že online platformy se spoléhají na automatizované nástroje rozhodování jako na konečné řešení tohoto velmi složitého úkolu vzhledem k rozsahu správy online obsahu. Aby se vyhnuli odpovědnosti, používají platformy automatizaci k odfiltrování případného nezákonného obsahu. K automatizaci řízení však potřebujeme záruky a zásahy člověka. Nemůžeme se výhradně spoléhat na tyto nástroje.

Jaké záruky potřebujeme?

Moderování obsahu je bezpochyby nesmírně náročný úkol. Každý den musí online platformy dělat těžká rozhodnutí a rozhodovat, které části obsahu zůstanou online a jak je najdeme. Automatizovaný rozhodovací proces nikdy nevyřeší sociální problémy, nenávistné projevy nebo dezinformace, nemluvě o terorismu. Nevyřeší, protože nemůže. Zatímco automatizace může dobře fungovat pro online obsah, který je zjevně nezákonný bez ohledu na jeho kontext, jako je materiál týkající se zneužívání dětí, nadále selhává v jakékoli oblasti, která není jasně černá nebo bílá. Žádné nástroje nás nezachrání před sociálními problémy a žádný z nich by neměl mít poslední slovo v otázkách ochrany svobody projevu nebo vašeho soukromého života.

V současné době online platformy hodnotí a moderují obsah, aniž by nám daly vědět, jak a proč to dělají. Existuje naléhavá potřeba transparentnosti postupů a politik těchto online platforem. Musí zveřejnit informace o tom, jak respektují naši svobodu projevu a jaké mechanismy hloubkové kontroly zavedly. Musí být transparentní, pokud jde o jejich každodenní fungování, jejich rozhodovací proces a provádění, jakož i o posouzení dopadů a další politiky, které mají dopad na naše základní lidská práva.

Kromě transparentnosti potřebujeme také řádně propracované mechanismy podávání stížností a možnost zásahu člověka, kdykoli existuje automatizovaný rozhodovací proces. Bez lidí, bez přístupných a transparentních mechanismů odvolání nebo bez toho, aby lidé odpovídali za politiku, nemůže existovat účinný prostředek nápravy. Pokud existuje možnost, že byl obsah odstraněn nesprávně, musí to zkontrolovat skutečná osoba, která se může rozhodnout, zda byl obsah legální nebo ne. A vždy bychom měli mít právo obrátit se s případem na soudce, který je jedinou osobou, která je právně způsobilá, aby učinila konečné rozhodnutí ve všech záležitostech, které by mohly ohrozit naše právo na svobodu projevu.

Autorky: Eliška Pírková z Access Now & Eva Simon z Liberties