Tech & Rights

Автоматизацията и незаконното онлайн съдържание: Можем ли да разчитаме на машините, които вземат решения, засягащи всички нас?

Автоматизацията е необходима при боравенето с огромното количество съдържание, споделяно от потребителите. Тя обаче прави грешки, които могат да имат сериозни последици за твоите права и благополучието на обществото.

by LibertiesEU

Повечето от нас обичат да обсъждат идеите и мненията си по въпроси, които понякога са маловажни, а понякога сериозни, да споделят щастливи, и тъжни моменти, и да играят с приятели в интернет. Страхотно е, нали! Всички искаме да сме свободни да научаваме за новостите, да се свързваме с близките си и да създаваме контакти с нови хора. Всяка минута споделяме снимки, видеоклипове и идеи. Правим го непрекъснато. Ще ти кажа какво се случва само за една минута. В Снапчат споделяме 527 760 снимки, гледаме 4 146 600 видеоклипове в YouTube, публикуваме 456 000 послания в Туитър и около 46 740 снимки в Instagram. Знаеш ли колко минути има в едно денонощие? 1440.

Тези кратки информационни послания са различни по своята същност. Те могат да бъдат домашни видеоклипове и законът не се занимава с тях. Има обаче такива, които очевидно го нарушават, като например детската порнография и подбуждането към насилие. Съществува и трета група, която е някъде по средата между законното, и незаконното съдържание. Някои хора я намират за вредна, докато други нямат проблем с нея. Дори когато не е незаконно, родителите могат да решат, че 12-годишното им дете не бива да има достъп до порнография. Не е лесно да се определи, а камо ли да се категоризира, кое е вредно и за кого. Всичко зависи от културата, възрастта, обстоятелствата и много други фактори.

Тъй като голяма част от интернет съдържанието се хоства от онлайн платформи, те трябва да разчитат на автоматизирани устройства за намиране и справяне с различните категории незаконно или потенциално вредно съдържание. По-точно казано, основните играчи като Facebook и Google използват технологии за наблюдение и филтриране, които идентифицират, и премахват съдържанието. Съгласен ли си с нас, че качването на материали, свързани с насилие над деца, трябва да бъде блокирано? Разбира се, че да. Искаме ли да спрем разпространението на видеоклипове за набиране на бойци за Ислямска държава? Безусловно да.

ЕС, заедно с някои държави членки, постоянно упражнява натиск върху онлайн платформите бързо да премахват незаконно или потенциално вредно съдържание, каквито например са онлайн реч на омраза и свързаното с тероризъм. Те често са заплашвани с глоби, ако не действат достатъчно експедитивно. За да изпълнят тези изисквания, технологичните компании разчитат на автоматизирани устройства, които филтрират информацията, която не трябва да бъде качена онлайн.

Автоматизацията е необходима за справянето с огромното количество съдържание, споделяно от потребителите. Тя обаче прави грешки, които могат да имат сериозни последици за твоите права и благополучието на обществото.

1. Контекстуалната слепота на автоматизираните устройства - бариера пред законната реч

На автоматизираните устройства за вземане на решения им липсва разбиране на езиковите и културните различия. Технологиите за разпознаване на съдържание не могат точно да преценят контекста на речта. Дори когато случаят е ясен, те правят неверни аналогии. През 2017 г. поп звездата Ариана Гранде излъчи своя бенефисен концерт „One Love Manchester” чрез канала си в YouTube. Филтърът, проверяващ качваното в YouTube съдържание, незабавно спря стрийминга. Той неправилно определи шоуто на Гранде като нарушение на собствените й авторски права. Ще спомена и други подобни грешки, които могат да имат сериозни последици. Същите автоматизирани устройства свалиха хиляди видеоклипове от YouTube, въпреки че те можеха да послужат като доказателства за зверствата, извършени срещу цивилни в Сирия. Това вероятно ще затрудни евентуални бъдещи разследвания на военните престъпления и изправянето на престъпниците пред съда. Заради контекстуалната си слепота или, казано с други думи, неспособността си да разберат истинския смисъл и намеренията на потребителите, те подават сигнал, и премахват съдържание, което е напълно законно. По този начин журналисти, активисти, комици, артисти, както и всички, които споделят мнението си, видеоклипове или снимки онлайн, рискуват да бъдат цензурирани, защото интернет компаниите разчитат на тези лошо работещи машини.

2. Те не са магическа пръчка

Тези технологии понякога се определят като "изкуствен интелект" - термин, който ни кара да мислим, че те притежават свръхчовешка компютърна интелигентност. Истината е, че подобно нещо не съществува и няма изгледи да го видим в близкото бъдеще. Понятието всъщност служи за описване на усъвършенствани статистически модели, обучени да разпознават шаблони, без на практика да проявяват „разбиране“ или „интелект“. Технологиите за разпознаване на съдържание не могат да разберат смисъла или намерението на тези, които споделят материали в социалните медии, нито какъв ще е ефектът от тях. Те просто сканират съдържанието за определени модели, например на визуални, словесни или аудио файлове, които съответстват на това, което са обучени да идентифицират като „реч на омраза“ или „терористично съдържание“. Използваните при тяхното моделиране образци не са перфектни и ясни, защото такива не съществуват. Затова заложената в тях способност да разпознават е в определени граници. Те могат да постигнат доста високи нива на точност при идентифициране на недвусмислени, последователни модели. Възможностите им обаче за много прецизно автоматизирано преценяване дали нещо представлява реч на омраза, или не винаги ще бъдат крайно ограничени.

Разбираемо е правителствата да искат да покажат на гражданите, че правят нещо, за да ни защитят от тероризъм, реч на омраза, насилие над деца и нарушения на авторските права. Компаниите са много щастливи да продават автоматизираните си технологии и ги представят като магическа пръчка. Политиците, които отчаяно търсят прост отговор, са готови да им повярват. Трябва обаче да имаме предвид, че не съществува автоматизирана система, която може да реши вкоренените дълбоко в обществото ни проблеми. Тези технологии могат да се използват като инструмент за намаляване на бремето върху платформите, но трябва да има предпазни мерки, гарантиращи, че гражданските свободи и правата на човека няма да бъдат пожертвани заради лошо обучени автоматизирани устройства.

В крайна сметка, кой трябва да решава какво гледаме онлайн? Посещавай редовно сайта ни, за да прочетеш следващата статия от тази поредица.

Автори: Елишка Пиркова, анализатор в Access Now, и Ева Симон, която се занимава със застъпничество в Liberties


artificial intelligence