Tecnología y Derechos

Vuelven los filtros de contenido y seguimos totalmente en contra

¿Te suenan los filtros de contenido de Internet? ¿Te acuerdas del debate sobre la Directiva de copyright que cuestionaba, entre otros, los filtros de contenido obligatorios para proteger la obra creativa de los titulares de derechos? Pues han vuelto.

por Eva Simon
Youtube2

Liberties y varias organizaciones de derechos fundamentales y digitales sostienen que el filtrado masivo crea un entorno en el que se acaba bloqueando el acceso a cierta información. El filtrado es un tipo de censura automatizada y preventiva que se hace en nombre de la protección de unos valores específicos, como los derechos de autor, la protección de los niños de contenidos nocivos o el bloqueo del discurso de odio para proteger a los grupos vulnerables de nuestra sociedad.

Sin embargo, el filtrado de contenidos obligatorio conlleva varios problemas. Aquí destacamos los dos más importantes.

Deficiencias de los filtros de carga

Los filtros de contenidos son herramientas automatizadas de toma de decisiones creadas para el reconocimiento y bloqueo de contenidos. Bloquean contenidos en base a un algoritmo. Sin embargo, no son capaces de identificar diferencias lingüísticas o culturales ni evaluar con precisión el contexto de las expresiones. Sus programas son demasiado básicos, por lo que en ocasiones bloquean vídeos por motivos erróneos.

Estas herramientas automatizadas están programadas para reconocer patrones y modelos. Escanean archivos visuales y de audio y bloquean el contenido si identifican una coincidencia con otros contenidos, como derechos de autor, contenidos relacionados con abuso sexual infantil o terrorismo. Aunque pueden alcanzar gran precisión, no idenfican contextos ni el impacto que el contenido pueda tener sobre su audiencia.

Evidentemente, todos queremos que nuestros gobiernos nos protejan de actividades ilegales, ya sean los discursos de odio o el contenido terrorista en internet; sin embargo, el software de reconocimiento automático de contenidos no resolverá ningún problema de nuestra sociedad. La automatización se utilizará y debe utilizarse. Pero no de forma obligatoria y no sin una revisión humana.

Privatización de la aplicación de la ley

El otro problema de estos filtros obligatorios es que requieren que las empresas privadas resuelvan problemas complejos de derechos fundamentales, por ejemplo, que distingan entre la libertad de expresión protegida y la violación de los derechos de autor, entre los contenidos nocivos, la desinformación o el contenido terrorista.

Esta solución traslada la responsabilidad de resolver los problemas de nuestras sociedades a empresas de internet (plataformas de intercambio de videos, buscadores de contenido o redes sociales), pero estas carecen de los recursos y el conocimiento necesario para resolverlos.

Y ya no se trata solo de su experiencia en este ámbito, sino que además va en contra de su modelo de negocio. Para estas empresas, la protección de los derechos fundamentales no es una prioridad. Si tienen que elegir entre sus intereses comerciales y la protección de la libertad de expresión, se inclinan claramente hacia lo primero: bloquear cualquier contenido que pueda entrañar el más mínimo riesgo de ser multadas.

El hecho de que estas empresas sean las encargadas de supervisar el contenido pone en grave peligro la libertad de expresión y la de información, pues dificulta el ejercicio y la aplicación del derecho a la libertad de expresión.

No queremos sacrificar nuestros derechos fundamentales por una falsa seguridad. Los filtros de contenido obligatorios son evitables si queremos evitar la supresión de la libertad de acceso a la información y de expresar nuestra opinión libremente.