Automatización y contenido ilegal: ¿podemos confiar en que las máquinas tomen decisiones por nosotros?

Si bien la automatización es necesaria para gestionar la gran cantidad de contenido que suben los usuarios a internet, también comete errores que pueden tener graves consecuencias sobre los derechos y el bienestar de la sociedad.

A la mayoría de nosotros nos gusta discutir nuestras ideas y opiniones, tanto sobre temas serios como sobre otros más banales, compartir momentos felices y tristes, o jugar con otros en Internet. Y está genial. Todos queremos gozar de libertad para aprender cosas nuevas, ponernos en contacto con nuestros amigos, y llegar a nuevas personas. Compartimos información sin cesar: fotos, vídeos e ideas. Cada minuto compartimos 527.760 fotos en Snapchat, vemos 4.146.600 videos de YouTube, compartimos 456.000 tuits y se publican cerca de 46.740 fotos en Instagram. ¿Sabes cuántos minutos hay en un día? 1440.

Estas piezas de información son de naturaleza distinta. Algunos son videos caseros, y la ley no tiene nada que ver con ellos. Pero hay contenidos que claramente violan la ley, como la pornografía infantil o la incitación a la violencia. Y entre el contenido legal y el ilegal, existe un tercer grupo, que algunas personas consideran dañino, mientras que otras no. Aunque no es ilegal, algunos progenitores quieren evitar que sus hijos tengan acceso a pornografía a la edad de 12 años. No es fácil definir y mucho menos categorizar qué es nocivo y para quién. Depende de la cultura, la edad, las circunstancias y muchos otros factores.

Debido a que una gran cantidad de contenido de internet está alojado en plataformas en línea, encontrar y abordar las distintas categorías de contenido ilegal o potencialmente nocivo se hace con herramientas automatizadas. En concreto, los plataformas principales como Facebook y Google, han estado utilizando tecnologías de supervisión y filtrado para la identificación y eliminación de contenido. ¿Estamos de acuerdo en que este tipo de contenido de abuso infantil debe ser eliminado? Por supuesto. ¿Estamos de acuerdo en tratar de evitar la difusión de los videos de reclutamiento de ISIS? Absolutamente.

La UE, junto con algunos Estados miembros, ha estado presionando continuamente a las plataformas en línea para que eliminen rápidamente contenido ilegal o potencialmente nocivo, como el discurso de odio o el terrorismo, a menudo bajo la amenaza de multas si no actúan con la suficiente rapidez. Para satisfacer estas demandas, las empresas de tecnología dependen de herramientas automatizadas para filtrar la información que no debería publicarse.

Si bien la automatización es necesaria para gestionar la gran cantidad de contenido que suben los usuarios a internet, también comete errores que pueden tener graves consecuencias sobre los derechos y el bienestar de la sociedad.

1 La ceguera contextual de las medidas automáticas silencia el discurso legítimo

Las herramientas automatizados de toma de decisiones no comprenden las diferencias lingüísticas o culturales. Las tecnologías de reconocimiento de contenidos son incapaces de evaluar con precisión el contexto de las expresiones. Se equivocan incluso en casos sencillos. En 2017, la estrella del pop Ariana Grande transmitió su concierto benéfico 'One Love Manchester' a través de su canal de YouTube. La transmisión fue rápidamente bloqueada por el filtro de contenidos de YouTube, que erróneamente categorizó el espectáculo de Grande como una violación de sus propios derechos de autor. Pero lo que resulta aún más grave es que esas mismas herramientas automatizadas eliminaron también miles de vídeos de YouTube que podrían servir como pruebas de las atrocidades cometidas contra civiles en Siria, dificultando así una futura investigación de crímenes de guerra que pudiera llevar a los criminales de guerra ante la justicia. Debido a su ceguera contextual o, en otras palabras, a su incapacidad de comprender el significado real y las intenciones de los usuarios, marcan y eliminan contenidos que son completamente legítimos. De este modo los periodistas, activistas, humoristas, artistas, o cualquiera de nosotros que comparta opiniones y vídeos o imágenes en línea, corremos el riesgo de ser censurados debido a estas herramientas tan poco eficaces de las que dependen las plataformas de internet.

2 No son una bala de plata

Estas tecnologías son denominadas a veces como "inteligencia artificial", un término que evoca nociones de inteligencia computacional sobrehumana. Sin embargo, nada de eso existe, ni está siquiera en el horizonte. En cambio, a lo que este término se refiere es a modelos estadísticos avanzados programados para reconocer patrones, pero sin ninguna "comprensión" o "inteligencia" real. Las tecnologías de reconocimiento de contenido no pueden entender el significado o la intención de quienes comparten un mensaje en llas redes sociales o el efecto que tiene en los demás. Se limitan a escanear el contenido en busca de ciertos patrones como archivos visuales, verbales o de audio, que correspondan a lo que están programados para identificar como "discurso de odio" o "contenido terrorista". No existen datos perfectos e inequívocos para estos programas, por lo que su capacidad para reconocer estos patrones está intrínsecamente limitada a lo que han sido eprogramados. Aunque pueden alcanzar niveles muy altos de precisión en la identificación de patrones inequívocos y coherentes, su capacidad para automatizar la delicada tarea de juzgar si algo constituye una incitación al odio siempre será fundamentalmente limitada.

Es comprensible que los gobiernos quieran mostrar a sus ciudadanos que están haciendo cosas para luchar contra el terrorismo, la incitación al odio, el abuso infantil y la violación de derechos de autor. Y las plataformas están encantadas de vender sus tecnologías de automatización como una solución de bala de plata a los políticos que buscan desesperadamente una respuesta simple. Pero debemos tener en cuenta que ninguna automatización resolverá los problemas profundamente arraigados en nuestra sociedad. Podemos usarlas como una herramienta para disminuir la carga de las plataformas, pero necesitamos garantías que aseguren que no sacrificamos nuestra libertad de derechos humanos debido a herramientas automatizadas mal programadas.

Entonces, ¿quién debería decidir lo que vemos en internet? Mantente pendiente de la próxima entrega de esta serie.

Autoras: Eliška Pírková de Access Now & Eva Simon de Liberties