​Kto powinien decydować o tym, co możemy zobaczyć w sieci?

Platformy internetowe mają prawo do pozycjonowania i moderowania publikowanych treści bez konieczności informowania nas o tym, w jaki sposób i dlaczego to robią. Należy jak najszybciej sprecyzować wymagania dotyczące przejrzystości ich praktyk.

Nasze życie jest ściśle powiązane z technologią. Najlepszym dowodem na to jest fakt, że wyszukujemy informacji, czytamy i komunikujemy się ze sobą za pomocą Internetu. W tym artykule omówimy dwie metody stosowane przez firmy podczas dostarczania treści: pozycjonowanie i moderowanie.

Pozycjonowanie treści

Platformy używają zautomatyzowanych systemów do pozycjonowania i moderowania przesyłanych treści. Kiedy szukasz filmików o kotach podczas przerwy w pracy, wśród proponowanych pozycji nie pokazują się wszystkie filmiki o kotach, jakie istnieją w sieci. Wynik zależy od Twojej lokalizacji, ustawień języka, ostatnich wyszukiwań i wszystkich danych, jakie posiada na Twój temat wyszukiwarka.

Platformy selekcjonują i pozycjonują treść, jednocześnie przewidując nasze osobiste preferencje i zachowania w sieci. W ten sposób wpływają nie tylko na nasz dostęp do informacji, ale także na sposób, w jaki kształtujemy nasze opinie i uczestniczymy w dyskursie publicznym. Przewidując nasze preferencje, zaczynają je kształtować i powoli zmieniają nasze zachowania w sieci.

Decydują o tym, co czytamy i oglądamy. To jak przebywanie w obcym kraju w ramach wycieczki, podczas której tylko przewodnik mówi w danym języku. To przewodnik decyduje o tym, co zobaczysz i z kim porozmawiasz. Podobnie dzięki tym usługom platformy decydują o tym, co oglądamy w sieci. Dzięki zwiększeniu popularności niektórych rodzajów sensacyjnych treści, czemu towarzyszą często nieprzewidywalne skutki uboczne personalizacji algorytmicznej, pozycjonowanie treści stało się towarem, z którego bardzo chętnie korzystają platformy internetowe. Może to prowadzić do manipulacji Twoją swobodą formułowania opinii. Ta swoboda jest jednak prawem absolutnym, co oznacza, że ingerencja w tę wolność jest zabroniona przez prawo i nie może być zaakceptowana przez żadne społeczeństwo demokratyczne.

Automatyczna selekcja treści określa, jaki rodzaj informacji otrzymujemy i ile czasu spędzamy na przeglądaniu danej strony. Większość z nas nie ma wystarczających informacji na temat tego, w jaki sposób algorytmy rekomendacji hierarchizują treści dostępne w Internecie. Niektórzy nawet nie wiedzą, że istnieje coś takiego, jak pozycjonowanie. Przejrzystość mechanizmów selekcji jest warunkiem wstępnym umożliwiającym użytkownikom kontrolę nad narzędziami, które pomagają kształtować nasz krajobraz informacyjny. Musimy wiedzieć, kiedy podlegamy zautomatyzowanemu podejmowaniu decyzji i mamy prawo nie tylko do wyjaśnień, ale również do sprzeciwu. Aby odzyskać kontrolę i świadomość w zakresie doboru treści, potrzebujemy jasnych wytycznych w kwestii przejrzystości, które powinny zostać wdrożone przez platformy internetowe. Przejrzystość i możliwość wyjaśnienia decyzji zautomatyzowanych środków to warunki wstępne do korzystania z naszego prawa do wolności słowa, które pozwolą nam skutecznie odwoływać się od nieuzasadnionych ograniczeń treści.

Moderacja treści

Podczas dostarczania treści platformy internetowe dokonują selekcji i moderacji. Robią to również dlatego, że unijni i krajowi ustawodawcy nakładają na nich coraz większą odpowiedzialność za treści przesyłane przez użytkowników, za które często grożą wysokie kary. Zgodnie z europejskimi przepisami platformy są zobowiązane do usuwania nielegalnych treści, takich jak materiały przedstawiające wykorzystywanie dzieci lub treści terrorystyczne, gdy tylko dowiedzą się o ich istnieniu. Wszyscy zgadzamy się, że dostęp do nielegalnych treści powinien być zabroniony. Jednak w niektórych przypadkach zdiagnozowanie niezgodności treści z prawem jest bardzo trudne i wymaga odpowiedniej oceny prawnej. Film wideo może stanowić naruszenie praw autorskich, ale jeśli zostanie użyty w formie parodii będzie to zgodne z prawem.

Granica między nielegalną a legalną treścią może być bardzo trudna do wytyczenia. Problem polega na tym, że ze względu na skalę zarządzania treściami online platformy internetowe polegają na zautomatyzowanych narzędziach decyzyjnych jako ostatecznym rozwiązaniu tego bardzo złożonego zadania. Aby uniknąć odpowiedzialności, platformy używają automatycznych filtrów, które mają blokować wszelkie potencjalnie nielegalne treści. Potrzebujemy jednak lepszych zabezpieczeń i interwencji człowieka, aby kontrolować te automatyczne narzędzia. Nie możemy polegać wyłącznie na botach.

Jakich zabezpieczeń potrzebujemy?

Bez wątpienia moderacja treści jest niezwykle trudnym zadaniem. Każdego dnia platformy internetowe muszą dokonywać trudnych wyborów i decydować, które treści trafią do sieci i jak je znaleźć. Automatyczne podejmowanie decyzji nigdy nie rozwiąże społecznych problemów związanych z mową nienawiści lub dezinformacją, nie wspominając o terroryzmie. Nie zrobi tego, ponieważ nie może. Chociaż automatyzacja może dobrze działać w przypadku treści internetowych, które są nielegalne niezależnie od ich kontekstu, takich jak materiały przedstawiające wykorzystywanie dzieci, system zawodzi w obszarach, które nie są tylko czarno-białe. Żadne narzędzie nie uchroni nas przed problemami społecznymi i żadne z nich nie powinno mieć decydującego wpływu na ochronę wolności słowa lub życia prywatnego.

Na obecnym etapie platformy internetowe mają prawo do pozycjonowania i moderowania publikowanych treści bez konieczności informowania nas o tym, w jaki sposób i dlaczego to robią. Należy jak najszybciej sprecyzować wymagania dotyczące przejrzystości praktyk i polityk tych platform internetowych. Platformy muszą ujawnić informacje o tym, jak szanują naszą wolność słowa i jakie mechanizmy należytej staranności wdrożyły. Muszą być przejrzyste w kwestii codziennego funkcjonowania, procesu decyzyjnego i wdrażania, a także ocen skutków i innych polityk, które mają wpływ na nasze podstawowe prawa człowieka.

Oprócz przejrzystości potrzebujemy również odpowiednio opracowanych mechanizmów rozpatrywania skarg i interwencji człowieka w przypadku zautomatyzowanego procesu decyzyjnego. Bez ludzi, bez dostępnych i przejrzystych mechanizmów odwoławczych i bez odpowiedzialności osób za konkretne polityki, nie znajdziemy skutecznego rozwiązania. Jeśli istnieje prawdopodobieństwo, że treść została błędnie usunięta, musi to sprawdzić prawdziwa osoba, która zdecyduje, czy rzeczywiście dana treść była sprzeczna z prawem, czy nie. Zawsze powinniśmy mieć prawo do zaskarżenia decyzji do sądu, który jest jedyną instytucją posiadającą kwalifikacje do podjęcia ostatecznej decyzji w każdej sprawie, która może narazić nasze prawo do wolności słowa.

Autorki: Eliška Pírková z Access Now & Eva Simon z Liberties