Automatisering en illegale content: kunnen we machines vertrouwen met het maken van beslissingen?

Hoewel automatisering noodzakelijk is voor het verwerken van een enorme hoeveelheid content die door gebruikers wordt gedeeld, maakt het fouten die een grote impact kunnen maken op je rechten en het welzijn van de samenleving.

De meesten van ons bespreken graag onze ideeën en meningen over gekke en serieuze kwesties op het internet, waar we ook gelukkige en droevige momenten delen en spelen met elkaar. En het is geweldig. We willen allemaal vrij zijn om over nieuwe dingen te leren, contact met onze vrienden op te nemen en nieuwe mensen te bereiken. Elke minuut delen we continu foto's, video's en ideeën. Op Snapchat delen we 527.760 foto's, we kijken 4.146.600 YouTube-video's, we delen 456.000 tweets en er worden ongeveer 46.440 foto's op Instagram geplaatst - elke minuut. Weet je hoeveel minuten we op een dag hebben? 1440.

Deze stukjes informatie zijn verschillend van aard. Sommigen van hen zijn homevideo's waar de wet niks mee te maken heeft. Maar er is content die duidelijk in strijd is met de wet, zoals kinderpornografie of het aanzetten tot geweld. En tussen legale en illegale content is er een derde groep, die sommige mensen schadelijk vinden, terwijl anderen er niet direct een probleem mee hebben. Sommige ouders willen hun kinderen vermijden om toegang te krijgen tot pornografie op de leeftijd van 12 jaar, bijvoorbeeld. Deze content is niet eenvoudig te definiëren en het is moeilijk om te categoriseren wat schadelijk is en voor wie. Het hangt af van cultuur, leeftijd, omstandigheden en zoveel andere factoren.

Omdat een grote hoeveelheid content op het internet wordt gehost door online platforms, moeten ze vertrouwen op geautomatiseerde hulpmiddelen om verschillende categorieën illegale of potentieel schadelijke content te vinden en aan te pakken. Vooral dominante spelers zoals Facebook en Google hebben monitoring- en filtertechnologieën gebruikt voor identificatie en verwijdering van content. Zijn we het eens over het verwijderen van materialen voor kindermisbruik? Zeker. Zijn we het eens over het voorkomen van verspreiding van ISIS-wervingsvideo's? Absoluut.

De EU heeft, samen met sommige lidstaten, voortdurend op online platforms aangedrongen om snel illegale of potentieel schadelijke inhoud, zoals online haatzaaiende uitingen of terrorisme, te verwijderen, vaak onder de dreiging van boetes als ze niet snel genoeg handelen. Om aan deze eisen te voldoen, moeten technologiebedrijven vertrouwen op geautomatiseerde tools om informatie weg te filteren die niet online zou moeten gaan.

Hoewel automatisering noodzakelijk is voor het verwerken van een enorme hoeveelheid content die door gebruikers wordt gedeeld, maakt het fouten die vergaand kunnen zijn voor je rechten en het welzijn van de samenleving.

1. Contextuele blindheid van geautomatiseerde maatregelen legt legitieme meningsuiting het zwijgen op

Geautomatiseerde besluitvormingstools hebben een gebrek aan inzicht in taalkundige of culturele verschillen. Herkenningstechnologieën kunnen de context van uitingen niet nauwkeurig inschatten. Zelfs in eenvoudige gevallen komen ze tot verkeerde conclusies. In 2017 streamde de popster Ariana Grande haar benefietconcert 'One Love Manchester' via haar YouTube-kanaal. De stream werd onmiddellijk stilgelegd door het uploadfilter van YouTube, dat Grande's show ten onrechte markeerde als een schending van haar eigen auteursrecht. Maar er zijn ook serieuzere gevallen: met dezelfde geautomatiseerde tools zijn duizenden YouTube-video's verwijderd die kunnen dienen als bewijs van wreedheden die zijn begaan tegen burgers in Syrië, waardoor mogelijk toekomstig onderzoek naar oorlogsmisdaden in gevaar zou kunnen komen. Vanwege de contextuele blindheid of anders gezegd het onvermogen om de werkelijke betekenis en bedoelingen van gebruikers te begrijpen, markeren en verwijderen deze technologieën content die volledig legitiem is. Journalisten, activisten, cabaretiers, artiesten en iedereen die onze meningen en video's of foto's online deelt, loopt dus het risico gecensureerd te worden omdat internetbedrijven vertrouwen op deze slecht werkende tools.

2. Ze zijn geen zilveren kogel

Deze technologieën worden soms beschreven als 'kunstmatige intelligentie', een term die noties van bovenmenselijke computationele intelligentie oproept. Niets dergelijks bestaat echter, noch ligt zo'n uitvinding in de nabije toekomst. In plaats daarvan verwijst deze term naar geavanceerde statistische modellen die zijn getraind om patronen te herkennen, maar zonder echt 'begrip' of 'intelligentie'. Technologieën voor de herkenning van content kunnen de betekenis of intentie van degenen die een bericht op sociale media delen of het effect ervan op anderen niet begrijpen. Ze scannen de content alleen op bepaalde patronen, zoals visuele, verbale of audiobestanden, die overeenkomen met wat ze zijn getraind om te identificeren als 'haatdragende taal' of 'terroristische content'. Er zijn geen perfecte, ondubbelzinnige trainingsgegevens, en dus is hun vermogen om deze patronen te herkennen inherent beperkt tot wat ze zijn getraind om te herkennen. Hoewel ze een zeer hoge mate van nauwkeurigheid kunnen bereiken bij het identificeren van ondubbelzinnige, consistente patronen, zal hun vermogen om de zeer gevoelige taak van het beoordelen of iets haatzaaiende spraak is, altijd fundamenteel beperkt te zijn.

Het is begrijpelijk dat regeringen hun burgers willen laten zien dat ze iets doen om ons te beschermen tegen terrorisme, haatzaaien, kindermishandeling of inbreuk op het auteursrecht. En bedrijven zijn erg blij om hun automatiseringstechnologieën te verkopen als een oplossing voor politici die wanhopig op zoek zijn naar een eenvoudig antwoord. Maar we moeten niet vergeten dat geen enkele automatisering de diepgewortelde problemen in onze samenleving kan oplossen. We kunnen ze gebruiken als een hulpmiddel om de last op platforms te verminderen, maar we hebben waarborgen nodig die ervoor zorgen dat we onze mensenrechtenvrijheid niet opofferen vanwege slecht getrainde technologie.

Dus wie moet beslissen wat we online zien? Blijf kijken voor de volgende aflevering van deze serie.

Auteurs: Eliška Pírková van Access Now & Eva Simon van Liberties