Vuelven los filtros de contenido y seguimos totalmente en contra

¿Te suenan los filtros de contenido de Internet? ¿Te acuerdas del debate sobre la Directiva de copyright que cuestionaba, entre otros, los filtros de contenido obligatorios para proteger la obra creativa de los titulares de derechos? Pues han vuelto.

Liberties y varias organizaciones de derechos fundamentales y digitales sostienen que el filtradomasivo crea un entorno en el que se acaba bloqueando el acceso a ciertainformación. El filtrado es un tipo de censura automatizada ypreventiva que se hace en nombre de la protección de unos valores específicos, como los derechos de autor, la protección de los niños de contenidos nocivos o el bloqueo del discurso de odio paraproteger a los grupos vulnerables de nuestra sociedad.

Sin embargo, el filtrado de contenidos obligatorio conlleva varios problemas. Aquí destacamos los dos más importantes.

Debes aceptar las cookies de terceros para poder ver este contenido.

Deficiencias de los filtros decarga

Los filtros de contenidos sonherramientas automatizadas de toma de decisiones creadas para elreconocimiento y bloqueo de contenidos. Bloquean contenidos en base a un algoritmo. Sin embargo, no son capaces de identificar diferencias lingüísticas o culturales ni evaluar conprecisión el contexto de las expresiones. Sus programas son demasiado básicos, por lo que en ocasiones bloquean vídeos por motivos erróneos.

Estas herramientas automatizadas están programadas para reconocer patrones ymodelos. Escanean archivos visuales y de audio y bloquean elcontenido si identifican una coincidencia con otros contenidos, como derechos de autor, contenidos relacionados con abuso sexual infantil o terrorismo. Aunque pueden alcanzar gran precisión, no idenfican contextos ni el impactoque el contenido pueda tener sobre su audiencia.

Evidentemente, todos queremos que nuestrosgobiernos nos protejan de actividades ilegales, ya sean losdiscursos de odio o el contenido terrorista en internet; sin embargo,el software de reconocimiento automático de contenidos no resolveráningún problema de nuestra sociedad. La automatización se utilizaráy debe utilizarse. Pero no de forma obligatoria y no sin una revisiónhumana.

Privatización de la aplicación de la ley

El otro problema de estos filtros obligatorios es que requieren que las empresas privadasresuelvan problemas complejos de derechos fundamentales, por ejemplo,que distingan entre la libertad de expresión protegida y laviolación de los derechos de autor, entre los contenidos nocivos, la desinformación o el contenido terrorista.

Esta solución traslada la responsabilidad de resolver los problemas de nuestras sociedades a empresas de internet (plataformas de intercambio de videos, buscadores de contenido o redes sociales), pero estas carecen de los recursos y el conocimiento necesario pararesolverlos.

Y ya no se trata solo de suexperiencia en este ámbito, sino que además va en contra de sumodelo de negocio. Para estas empresas, la protección de losderechos fundamentales no es una prioridad. Si tienen que elegir entre sus intereses comerciales y la protección dela libertad de expresión, se inclinan claramente hacia lo primero: bloquear cualquier contenido que pueda entrañar el más mínimo riesgo de ser multadas.

El hecho de que estas empresas sean las encargadas de supervisar el contenido pone en grave peligro la libertad de expresióny la de información, pues dificulta elejercicio y la aplicación del derecho a la libertad de expresión.

No queremos sacrificar nuestrosderechos fundamentales por una falsa seguridad. Los filtros de contenido obligatorios son evitables si queremos evitar la supresión de la libertadde acceso a la información y de expresar nuestra opinión libremente.