Кой трябва да решава какво гледаме онлайн?

Онлайн платформите класифицират и модерират съдържанието, без да ни информират как, и защо го правят. Затова техните практики и политики ​трябва да бъдат прозрачни.

Животът ни е тясно свързан с технологиите. Всички ние прекарваме голяма част от времето си онлайн, за да сърфираме, четем и общуваме. В тази статия разглеждаме два метода, които компаниите използват, за да ти предоставят съдържание: класифициране и модериране.

Класифициране на съдържанието

Платформите използват автоматизирани устройства, за да класифицират и модерират съдържанието, което качваме. Ако търсиш видеоклипове с котки, докато скучаеш на работното си място, резултатът от търсенето няма да ти покаже всички, които са качени онлайн. Той зависи от локацията ти, езиковите настройки, какво си търсил наскоро и всички данни, които търсачката знае за теб.

Тези, които предоставят услугите, се стремят да предвидят нашите лични предпочитания и онлайн поведение. В зависимост от това те сортират и класифицират съдържанието. По този начин влияят не само върху достъпа ни до информация, но и върху начина, по който формираме мненията си, и участваме в публичните дискусии. Те не просто предугаждат нашите предпочитания, но също така ги формират и така постепенно променят онлайн поведението ни.

Те решават какво четем и гледаме. Представи си, че си в чужда държава и само екскурзоводът говори местния език. Тогава той решава какво ще видиш и с кого ще си общуваш. По същия начин тези, които предоставят онлайн услугите, решават какво ще гледаме. Те преценяват, а понякога увеличават популярността на определени видове сензационно съдържание, за да ни направят още по-ангажирани. Това е съпроводено с често непредвидимите странични ефекти от алгоритмичната персонализация. Ето как платформите се възползват от класифицирането на съдържанието. Нещо повече, свободата ти да формираш собствено мнение може да бъде манипулирана. Всички ние имаме това право, което означава, че никаква намеса в тази свобода не е разрешена от закона и не може да бъде приета от нито едно демократично общество.

Автоматизираното сортиране на съдържанието определя какъв тип информация получаваме и колко време прекарваме, сърфирайки в дадена платформа. Повечето от нас нямат достатъчно информация за това как препоръчителните алгоритми формират йерархията на съдържанието в интернет. Някои хора дори не знаят, че подобно класифициране съществува. Трябва да има прозрачност при работата на системите за преценка, за да се даде по-голяма представителност на потребителите. Тогава те, а не автоматизираните устройства, ще формират информационната среда, в която живеем. Трябва да знаем кога сме зависими от автоматизирано вземане на решения, защото имаме право не само на обяснение, но и на възражение срещу него. За да бъдем информирани и да сме способни да влияем върху преценката на съдържанието, работата на онлайн платформите трябва да отговаря на адекватни изисквания за прозрачност. Това, заедно с яснотата при прилагането на автоматизираните инструменти, е предпоставка за упражняване на правото ни на свобода на словото, защото ще ни даде възможност за ефективно обжалване при ненужно ограничаване на съдържание.

Модериране на съдържанието

Да, онлайн платформите преценяват и модерират, за да могат да ни предоставят информация. Понякога го правят, защото законодателството на ЕС и националните органи поставят все по-големи изисквания пред тях. В повечето случаи те са тези, които носят отговорност за каченото от потребителите съдържание, и често са заплашвани от големи глоби. Според европейската правна рамка те са задължени, след като узнаят за съществуването му, бързо да премахват незаконно съдържание, като например материали, свързани с насилие над деца или тероризъм. Вероятно си съгласен с нас, че достъпът до незаконно съдържание трябва да бъде забранен. В някои случаи обаче е много трудно да се прецени дали то е законно, или не. Тогава се изисква правна оценка. Например качването на даден видеоклип може да нарушава авторските права, но законът не ти забранява да го качиш, ако го използваш като пародия.

Определянето на това кое е законно и кое не може да се окаже огромно предизвикателство. Нещата са сложни, тъй като онлайн платформите разчитат на автоматизирани устройства, които вземат крайното решение. Те прибягват до тях, защото са затруднени от огромното количество онлайн съдържание, с което трябва да се справят. За да избегнат евентуална отговорност, те използват автоматизирани системи, които филтрират съдържание, което би могло да се определи като незаконно. Нуждаем се обаче от предпазни мерки и човешка намеса, за да контролираме автоматизацията. Не можем да разчитаме само на тези устройства.

Какви предпазни мерки са необходими?

Без съмнение модерирането на съдържанието е изключително предизвикателна задача. Всеки ден онлайн платформите трябва да правят труден избор и да решават кое да остане онлайн и как да го намерим. Автоматизираното вземане на решения никога няма да реши социалните проблеми, свързани с речта на омраза и дезинформацията, а да не говорим за тероризма. Това няма как да стане, защото не е по силите на тези машинки. Автоматизацията се справя много добре, когато онлайн съдържанието очевидно е незаконно, независимо от неговия контекст, като например материали за злоупотреба с деца. Тя обаче винаги ще се проваля, ако нещата не са съвсем черни или бели. Не съществуват устройства, които могат да ни спасят от социалните проблеми. Те не трябва да имат последната дума, когато става въпрос за защита на свободата на словото или на личния ни живот.

В момента онлайн платформите класифицират и модерират съдържанието, без да ни казват как, и защо го правят. Съществува належаща нужда от прозрачност на практиките и политиките им. Трябва да бъдем информирани, за да знаем как те зачитат нашата свобода на словото и какви механизми за надлежна проверка използват. Необходима е прозрачност по отношение на ежедневната им работа, процеса на вземане на решения и прилагането им, както и по въпросите, свързани с оценките на въздействието, и другите политики, които оказват влияние върху основните ни човешки права.

Освен от прозрачност, ние също така се нуждаем от правилно разработени механизми за подаване на жалби и човешка намеса, когато процесът на вземане на решения е автоматизиран. За да има ефективно средство за защита, са необходими хора и достъпни, и прозрачни механизми за обжалване. Друго изискване е отговорността за политиките да бъде поета от конкретни лица. След като има вероятност съдържание да бъде неправилно премахнато, случаят трябва да се провери от човек, който може да реши дали то е законно, или не. Дори тогава трябва да имаме право да отнесем въпроса пред съда, защото според закона той е единственият, който може да вземе окончателното решение, когато правото ни на свобода на словото може да е компрометирано.

Автори: Елишка Пиркова, анализатор в Access Now, и Ева Симон, която се занимава със застъпничество в Liberties