Wie zou moeten beslissen over wat we zien op het internet?

Online platforms rangschikken en modereren content zonder ons te laten weten hoe en waarom ze het doen. Er is een dringende behoefte aan transparantie wanneer het gaat over de praktijken en het beleid van deze online platforms.

Ons leven is nauw verweven met technologie. Een voor de hand liggend voorbeeld is hoe we online browsen, lezen en communiceren. In dit artikel bespreken we twee methoden die bedrijven gebruiken om je content te leveren: sorteren en modereren.

Content sorteren

Platforms gebruiken geautomatiseerde maatregelen voor het sorteren en modereren van content die we uploaden. Wanneer je tijdens pauze op het werk naar kattenvideo's zoekt, laat je zoekmachine niet alle kattenvideo's online zien. Het resultaat is afhankelijk van je locatie, je taalinstellingen, je recente zoekopdrachten en alle gegevens die de zoekmachine van je weet.

Platforms beheren en rangschikken content terwijl ze onze persoonlijke voorkeuren en online gedrag voorspellen. Op deze manier beïnvloeden ze niet alleen onze toegang tot informatie, maar ook hoe we onze meningen vormen en deelnemen aan openbare gesprekken. Door onze voorkeuren te voorspellen, vormen ze deze ook en veranderen ze langzaam ons online gedrag.

Ze bepalen wat we lezen en bekijken. Het is alsof je tijdens een tour in het buitenland bent, waar alleen de gids de taal spreekt. En de gids mag kiezen wat je ziet en met wie je praat. Op dezelfde manier bepalen deze online services wat u ziet. Door het vergroten en kwantificeren van de populariteit van bepaalde soorten sensationele content, naast de bijwerkingen van algoritmische personalisatie, is het sorteren van content een handelswaar geworden waarvan de platforms profiteren. Bovendien kan dit leiden tot manipulatie van je vrijheid om een mening te vormen. De vrijheid om een mening te vormen is echter een absoluut recht, wat betekent dat geen enkele aantasting van deze vrijheid wettelijk is toegestaan en door geen enkele democratische samenleving kan worden aanvaard.

De geautomatiseerde samenstelling van onze content bepaalt welk type informatie we ontvangen en hoeveel tijd we doorbrengen op het platform. De meesten van ons hebben onvoldoende informatie over hoe aanbevelingsalgoritmen de rangorde van content op het internet vormen. Sommige mensen weten niet eens dat er een hierarchie bestaat. De transparantie in hoe content wordt gemodereerd is een voorwaarde om gebruikers inzicht te geven in het gebruik van hulpmiddelen in de zee van informatie online. We moeten weten wanneer we worden onderworpen aan geautomatiseerde besluitvorming en we hebben het recht om niet alleen een verklaring te geven, maar ook om bezwaar te maken. Om inzicht en bewustzijn te herwinnen, hebben we zinvolle transparantievereisten nodig die door online platforms worden geïmplementeerd. Robuuste transparantie en verklaarbaarheid van geautomatiseerde maatregelen zijn voorwaarden om ons recht op vrijheid van meningsuiting uit te oefenen, zodat we effectief in beroep kunnen gaan tegen ongepaste contentbeperkingen.

Content modereren

Online platforms rangschikken en moderen om ons informatie te leveren, maar ze doen dit ook omdat EU- en nationale wetgevers hen steeds meer verantwoordelijkheid opleggen om door gebruikers geüploade content te controleren, vaak onder zware boetes. Volgens het Europese wettelijke kader zijn platforms verplicht om snel illegale content, zoals materiaal voor kindermishandeling of terroristische content, te verwijderen zodra ze zich bewust zijn van het bestaan ervan. We zijn het er allemaal over eens dat toegang tot illegale content verboden moet zijn. In sommige gevallen is de illegaliteit van een deel van de content echter zeer moeilijk te beoordelen en vereist een behoorlijke juridische evaluatie. Avideo kan bijvoorbeeld een schending van het auteursrecht zijn of kan gratis opnieuw worden gedownload als het als parodie wordt gebruikt.

De grens tussen illegaal en legaal kan een uitdaging zijn. Het lastige deel is dat online platforms afhankelijk zijn van geautomatiseerde besluitvormingstools als een ultieme oplossing voor deze zeer complexe taak vanwege de omvang van het beheer van online content. Om verantwoordelijkheid te vermijden, gebruiken platforms automatisering om mogelijk illegale content te filteren. Maar we hebben waarborgen en menselijke tussenkomst nodig om de automatisering te beheersen. We kunnen niet uitsluitend op deze tools vertrouwen.

Welke waarborgen hebben we nodig?

Moderatie van content is zonder twijfel een uiterst uitdagende taak. Elke dag moeten online platforms moeilijke keuzes maken en beslissen welke content online blijft en hoe we deze content vinden. Het geautomatiseerde besluitvormingsproces zal nooit de sociale problemen van haatzaaien of desinformatie oplossen, om nog maar te zwijgen van de kwestie van terrorisme. Ze zullen dat niet doen omdat ze dat niet kunnen. Hoewel automatisering goed kan werken voor online content die duidelijk illegaal is, ongeacht de context, zoals materiaal voor kindermishandeling, blijft het falen op elk gebied dat niet strikt zwart-wit is. Geen enkel hulpmiddel zal ons van sociale problemen redden, en geen van hen zou het laatste woord moeten hebben over de bescherming van de vrijheid van meningsuiting of je privéleven.

Opt dit moment rangschikken en beheren online platforms content zonder ons te laten weten hoe en waarom ze het doen. Er is een dringende behoefte aan transparantie over de praktijken en het beleid van deze online platforms. Ze moeten informatie vrijgeven over hoe ze onze vrijheid van meningsuiting respecteren en welke voorzorgsmaatregelen ze hebben geïmplementeerd. Ze moeten transparant zijn over hun dagelijkse activiteiten, hun besluitvormingsproces en implementatie, evenals over hun effectbeoordelingen en ander beleid dat van invloed is op onze fundamentele mensenrechten.

Naast transparantie hebben we ook goed uitgewerkte klachtenmechanismen en menselijk ingrijpen nodig wanneer er een geautomatiseerd besluitvormingsproces is. Zonder mensen, zonder toegankelijke en transparante beroepsmechanismen of zonder dat mensen verantwoordelijk zijn voor beleid, kan er geen effectieve remedie zijn. Als de kans bestaat dat content onjuist is verwijderd, moet dit worden gecontroleerd door een echte persoon die kan beslissen of de content legaal is of niet. En we moeten altijd het recht hebben om de zaak voor een rechter te brengen, die de enige wettelijk gekwalificeerde persoon is om de definitieve beslissing te nemen over elke kwestie die ons recht op vrije meningsuiting in gevaar kan brengen.