Qui devrait décider des contenus que l'on peut voir en ligne ?

Les plateformes en ligne hiérarchisent et modèrent les contenus que nous partageons, et sans nous informer des raisons pour lesquelles elles font ni de la manière dont elles le font. Il est grand temps que ces entreprises fassent preuve de transparence.

Nos vies son intimement liées aux technologies. La façon dont nous naviguons, lisons et communiquons en ligne, en est un très bon exemple. Dans cet article, nous discutons de deux méthodes que les entreprises utilisent pour vous offrir des contenus : la classification et la modération.

La classification et la "curation" des contenus

Les plateformes utilisent des mesures automatisées pour classifier les contenus que nous publions en ligne et les modérer. Quand vous recherchez ces vidéos de chats pendant vos petits moments de répits au travail, les résultats de votre recherche n'afficheront pas toutes les vidéos de chat qui sont en ligne. Les résultats dépendant de votre localisation, vos paramètres de langues, vos récentes recherches et tous les données vous concernant que votre moteur de recherche possède.

Les plateformes conservent et classifient les contenus tout en prédisant nos préférences personnelles et comportements en ligne. De cette façon, ils influencent non seulement notre accès à l'information mais aussi la façon dont nous formons nos opinions et participons au débat public. En prédisant nos préférences, ces entreprises peuvent aussi les influencer et les former, et changer lentement nos comportements en ligne.

Ces plateformes décident ce que nous lisons et regardons. C'est comme quand on est dans voyage de groupe dans un pays étranger où seul le guide parle la langue du pays... Et le guide peut donc choisir ce que vous visitez et avec qui vous parlez. De la même façon, ces services en ligne décident de ce que vous voyez. En amplifiant et quantifiant la popularité de certains types de contenus sensationnels qui stimulent l'engagement, accompagnés par les effets secondaires souvent imprévisibles de la personnalisation algorithmique, la classification des contenus est devenue un produit de base duquel les plateformes tirent des bénéfices. De plus, ce peut conduire à une manipulation de votre liberté à vous faire une opinion. Pourtant, la liberté de former une opinion est une droit absolu, ce qui veut dire qu'aucune interférence avec ce droit n'est autorisée dans la loi, et ne peut être acceptée dans aucune société démocratique.

La curation automatisée de contenus (pratique qui consiste à sélectionner, éditer et partager les contenus les plus pertinents) détermine le type d'informations que l'on reçoit et combien de temps nous passons à faire des recherches sur la plateforme. La plupart d'entre nous ne disposons pas des informations suffisantes pour comprendre comment les algorithmes de recommandation fonctionnent et forment la hiérarchisation de nos contenus sur Internet. Certaines personnes ne savent même pas que cette classification existe. La transparence effective autour des mécanismes de curation des contenus est une condition préalable en vue de permettre la capacité des utilisateur.trice.s à comprendre et utiliser les outils qui aident à façonner notre paysage informationnel. Nous devons savoir quand nous faisons l'objet de décisions automatisées, et nous avons non seulement le droit à des explications, mais aussi à nous opposer à ces décisions et pratiques. Afin de regagner notre pouvoir/contrôle et nos connaissances quant à la curation du contenu, il faut que les plateformes de partage de contenus en ligne mettent en place des critères en matière de transparence. Une solide transparence et des informations quant aux décisions automatisées : voilà les conditions préalables à l'exercice de nos droits et notamment de la liberté d'expression. C'est aussi ce qui, par extension, pourra nous permettre de faire appel, et ce de manière effective, des restrictions de contenus injustifiées.

La modération des contenus

Les plateformes en ligne hiérarchisent et modèrent les contenus afin de diffuser et servir des informations, mais elles le font aussi parce que l'UE et les législateurs au niveau national leur imposent de plus en plus de responsabilités en matière de contrôle de contenus publiés par les usager.e.s, ce qui s'accompagne généralement de menaces et amendes très lourdes, en cas de non respect des mesures. En vertu du cadre juridique européen, les plateformes sont tenues de retirer promptement les contenus illégaux, comme les contenus à caractère pédopornographique ou d'apologie du terrorisme, lorsqu'elles prennent connaissance de leur existence. Nous sommes tou.te.s d'accord pour dire l'accès à des contenus illégaux doit être interdit. Toutefois, dans certains cas, l'illégalité du contenu est très difficile à déterminer et requiert une évaluation digne de ce nom. Par exemple, une vidéo peut constituer une atteinte aux droits d'auteur mais pourrait être publiée librement s'il s'agit d'une parodie.

La frontière entre ce qui est légal et illégal peut être floue. Ce qui est délicat ici, c'est que les plateformes en ligne s'appuient sur des outils prenant des décisions de façon automatisée, ce qui représente pour eux une solution ultime à cette très difficile mission, rendue plus difficile encore à cause de l'échelle et du nombre pharaonique de contenus à gérer. Mais nous avons besoin de garde-fous et d'intervention humaine sur l'automatisation des contrôles. Nous ne pouvons pas uniquement nous reposer sur ces outils.

De quelles garanties avons-nous besoin ?

Sans nul doute, la modération des contenus publiés en ligne représente une tâche complexe. Tous les jours, les plateformes en ligne doivent faire des choix difficiles et décider quel type de contenus reste en ligne et décider de la manière dont les usagers peuvent y accéder. Le processus de prise de décision automatisée me résoudra jamais les problèmes liés aux discours de haine, à la désinformation et au terrorisme. Ces outils ne le peuvent tout simplement pas. Si l'automatisation peut bien fonctionner pour des contenus qui sont illégaux et ce indépendamment du contexte, comme c'est le cas des contenus pédopornographiques, elle continue d'être inefficace dans de nombreux domaines où l'illégalité n'est pas si simple à évaluer, là où ce n'est ni tout blanc ni tout noir. Aucun outil ne pourra nous sauver des problèmes sociaux, et aucun outil ne devrait avoir le dernier mot quant à la protection de la liberté d'expression ou au respect de votre vie privée.

En l'état actuel des choses, les plateformes en ligne classifient et modèrent les contenus sans nous expliquer comment ni pourquoi elles le font. Il y a donc un besoin urgent de transparence autour des pratiques et politiques de ces entreprises. Elles doivent nous informer sur la manière dont elles entendent respecter notre liberté d'expression et sur les mécanismes de diligence raisonnable qu'elles ont mis en place. Elles doivent être transparentes sur leur fonctionnement quotidien, leur processus décisionnel et l'exécution des décision, ainsi que sur l'impact des évaluations et autres politiques ayant un impact sur nos droits fondamentaux.

Au-delà de la transparence, nous avons aussi besoin de mécanismes de plaintes élaborés adéquatement et d'interventions humaines lorsqu'il y a un processus de prise de décision automatisée. Sans personnes, sans mécanismes de recours accessibles et transparents et sans personnes n'ayant à rendre de compte quant aux politiques suivies, il ne peut y avoir de recours efficace. S'il s'avère qu'un contenu a été retiré injustement et sans que cela soit justifié, alors cela doit faire l'objet d'une évaluation par une personne réelle, qui peut décider de la légalité ou de l'illégalité du contenu. Et nous devrions toujours avoir le droit de porter l'affaire devant un.e juge, qui est la personne juridiquement compétente pour rendre une décision finale sur toute question impliquant une restriction ou le non-respect de notre liberté d'expression.

Auteures : Eliška Pírková de l'ONG Access Now & Eva Simon de Liberties