Co jest złego w monitorowaniu i filtrowaniu treści zamieszczanych przez użytkowników w serwisach internetowych?

Aby chronić dzieci przed dostępem do szkodliwych treści w internecie i walczyć z naruszeniem praw autorskich, Unia Europejska chce zmusić serwisy internetowe do stosowania odpowiedniego oprogramowania filtrującego.

Parlament Europejski wkrótce zagłosuje nad dwoma aktami prawnymi. Jednym z nich jest dyrektywa w sprawie praw autorskich na Jednolitym Rynku Cyfrowym, a drugim dyrektywa o audiowizualnych usługach medialnych. Nowe przepisy na zawsze zmienią oblicze internetu.

Ochrona dzieci i walka z naruszeniem praw autorskich to uzasadnione powody ograniczania wolności słowa. Ważne jednak, aby osiągnąć właściwą równowagę pomiędzy prawami będącymi przedmiotem zainteresowania, a mianowicie prawem autorskim i ochroną dzieci oraz swobodą wypowiedzi. Wszelkie ograniczenia wolności wypowiedzi muszą być proporcjonalne. Zwykle próbujemy pogodzić prawo do wolność słowa z innymi interesami pozostawiając rozstrzygnięcie tej kwestii sędziom (a czasem władzy), którzy wydają wytyczne i rozwiązują problematyczne sprawy sądowe, jedną po drugiej.

Teraz UE zamierza nieproporcjonalnie ograniczyć naszą wolność słowa i doprowadzić do sytuacji, w której to prywatne firmy będą decydować o tym, co można, a czego nie można publikować w internecie.

Eksperci sprzeciwiają się propozycji

Projekt dyrektywy w sprawie praw autorskich wprowadziłby nowe obowiązki dla wszystkich podmiotów świadczących usługi społeczeństwa informacyjnego, które udostępniają i przechowują treści tworzone przez użytkowników. Nowe wymogi zobowiązałyby serwisy internetowe do podejmowania środków zapobiegających naruszaniu praw autorskich. Jako możliwy sposób wypełnienia tego obowiązku, w projekcie dyrektywy wymienia się technologie rozpoznające treści. W praktyce oznacza to obowiązek monitorowania i filtrowania treści zamieszczanych przez użytkowników w internecie. Ta nowa zasada miałaby zastosowanie do wszystkich podmiotów świadczących usługi społeczeństwa informacyjnego, takich jak platformy służące do udostępniania filmów wideo (YouTube), platformy blogowe (Twitter, Tumblr), platformy mediów społecznościowych (Facebook), a nawet platformy do udostępniania dokumentów (Dropbox) i platformy takie jak eBay i Etsy.

Kilku ekspertów (tutaj, tutaj, tu i tu) oraz kilka organizacji działających na rzecz praw człowieka i praw cyfrowych z całej Europy stwierdziło, że projekt jest sprzeczny z obowiązującymi przepisami UE i powoduje niepewność prawną. Co więcej, narusza prawa podstawowe, takie jak wolność słowa, wolność informacji oraz prawo do prywatności i jest sprzeczny z wcześniejszymi orzeczeniami Trybunału Sprawiedliwości Unii Europejskiej.

Organizacje zajmujące się prawami człowieka często twierdzą, że filtrowanie treści narusza wolność słowa i wolność dostępu do informacji, a stały monitoring aktywności użytkowników narusza prawo do prywatności.

Ingerencja w prawa człowieka

Poprzez filtrowanie treści tworzy się środowisko, w którym ludzie nie mają dostępu do pewnych informacji. Filtrowanie to rodzaj automatycznej cenzury prewencyjnej w imię ochrony określonych wartości. Wartości te mogą obejmować społeczny,moralny obowiązek ochrony dzieci. Zapobiega to dostępowi do tak zwanej szkodliwej zawartości. Takie wartości można dostrzec w ideologii komunistycznej, na przykład w Chinach. Wspólną cechą tych przypadków jest to, że prywatne firmy lub państwo tworzą algorytmiczne systemy ochrony nieskończonych ilości wartości.

Ale prawa autorskie to coś innego. Istnieją obiektywne kryteria, które służą właścicielom takich praw do ochrony ich dzieł. Jednak poziom ochrony różni się w zależności od życzeń twórcy. Są autorzy, którzy dobrowolnie udostępniają swoje utwory, a inni udzielają pozwolenia tylko wtedy, gdy im zapłacisz. Korzystanie z dzieł chronionych prawami autorskimi do parodii może być legalne lub niezgodne z prawem, w zależności od przepisów obowiązujących w danym kraju europejskim.

Mamy do czynienia z ingerowaniem w prawa podstawowe. Z jednej strony mamy wolność słowa i prawo dostępu do informacji, a z drugiej strony chcemy chronić twórców i ich dzieła. Branża twórcza nie może funkcjonować bez odpowiedniej ochrony praw autorskich. Jest to ważne również dla gospodarki i rozwoju technologii informatycznych. W tym przypadku między zagrożeniami, czyli prawami autorskimi i prawami podstawowymi, nie zostaje jednak zachowana wystarczająca równowaga. Dzieje się tak, ponieważ prawa autorskie są już odpowiednio chronione w inny sposób niż filtrowanie - sposób, który jest znacznie mniej inwazyjny. Dobrym przykładem jest dyrektywa w sprawie handlu elektronicznego. Ogranicza ona odpowiedzialność za naruszenia praw autorskich do tych przypadków, w których dostawcy usług posiadają rzeczywistą wiedzę na temat naruszenia lub do przypadków, w których dowiadują się o takim naruszeniu, ale nie usuwają ani nie wyłączają dostępu do danych treści. Zgodnie z projektem dyrektywy o prawie autorskim, dostawcy usług internetowych ponoszą odpowiedzialność za wszystko, co przepuszczają ich filtry, nawet bez ich faktycznej wiedzy. W związku z tym, nowe przepisy stworzyłyby niepewność prawną dla dostawców usług internetowych, ponieważ nie wiedzieliby którego aktu prawnego powinni przestrzegać.

"Szkodliwe treści"

Przyjmując szerszą perspektywę, możemy łatwo zauważyć, że proponowane rozwiązanie korzystania z oprogramowania filtrującego w celu uniknięcia naruszenia praw autorskich, wpisuje się w unijny trend. Oprócz projektu dyrektywy o prawie autorskim, zaproponowano nową wersję dyrektywy o audiowizualnych usługach medialnych, która również wymaga rozwiązań filtrujących. Proponowana dyrektywa wymagałaby, aby prywatne platformy, służące do udostępniania filmów wideo, stosowały mechanizm filtrowania w imię ochrony nieletnich.

Podczas gdy ochrona nieletnich jest pożądanym celem, istnieją dwa podstawowe problemy z tym związane. Po pierwsze, trudno jest określić, co można uznać za "szkodliwą treść". Może być trudno wyznaczyć granicę między tzw. miękką pornografią a ważnym materiałem edukacyjnym na temat seksu. Ta sama treść może być szkodliwa dla przeciętnego 10-latka, ale bardzo przydatna dla 10-latka, który jest ofiarą molestowania seksualnego. Po drugie, platformy służące do udostępniania filmów wideo nie mają wystarczającej wiedzy, ani tylu pracowników, aby prawidłowo klasyfikować publikowaną treść.

Obowiązkowe filtrowanie wymagałoby od firm prywatnych rozwiązywania trudnych problemów związanych z prawami podstawowymi. Dyrektywa o prawie autorskim wymagałaby od spółek rozróżnienia między ochroną wolności słowa a naruszeniem praw autorskich, podczas gdy dyrektywa o audiowizualnych usługach medialnych wymagałaby rozgraniczenia wolności słowa od szkodliwych treści.

Zrzucanie odpowiedzialności

Dzięki takiemu rozwiązaniu, Komisja stara się rozwiązać problem naruszeń praw autorskich oraz szkodliwych i nienawistnych treści zamieszczanych w internecie, poprzez zrzucenie całej odpowiedzialności na firmy internetowe, wyszukiwarki, platformy do udostępniania filmów wideo i media społecznościowe. Tym spółkom brakuje jednak zasobów i odpowiedniej wiedzy, aby rozwiązywać problemy związane z prawami podstawowymi.

Nie chodzi tylko o ich doświadczenie w tej dziedzinie - jest to również sprzeczne z naturą biznesu. Dla takich firm ochrona praw podstawowych nie ma pierwszorzędnego znaczenia. Jeśli chodzi o wybór między interesami a ochroną wolności słowa, firmy mają silną motywację do wyboru tych pierwszych, a mianowicie do usuwania treści, jeśli istnieje jakiekolwiek ryzyko, że mogą być za nie prawnie odpowiedzialne.

Sprawowanie kontroli nad publikowanymi treściami sprawia, że wolność słowa i wolność informacji są poważnie zagrożone, ponieważ takie rozwiązanie utrudnia korzystanie z tych praw. Nie będzie nawet możliwości publicznej debaty wokół pewnych treści, ponieważ nigdy nie zostaną one ujawnione. Firmy będą kontrolować wszystkie dostępne informacje. Zobowiązywanie firm do podejmowania decyzji dotyczących publikowanych treści jest nie tylko dużym obciążeniem dla sektora komercyjnego, ale jest również wysoce nieprzejrzyste, co jest nieodpowiednim sposobem regulowania tak ważnych kwestii przez demokratyczne państwa. Problemem jest także brak przejrzystości, ponieważ oznacza brak odpowiedzialności - jednostki nie wiedzą, czyją decyzję powinny zakwestionować, gdy zamieszczona przez nich treść zostanie zablokowana lub usunięta.

Dlaczego więc UE zmienia zasady? Przede wszystkim Unia z przyjemnością zrzuca całą odpowiedzialność na duże firmy, które dysponują środkami finansowymi na rozwiązywanie problemów, opracowywanie oprogramowania i, w razie potrzeby, płacenie grzywny. Po drugie, UE stara się, aby branża twórcza stała się bardziej zrównoważona. Firmy internetowe, tak samo jak właściciele praw autorskich, kierują się swoim interesem i gdzieś w tym wszystkim interesy użytkownika nie są już tak ważne. Uważamy, że UE powinna skupić się również na użytkownikach i chronić wolność słowa, wolność informacji i prawo do prywatność.