Vem bör besluta vad vi får och inte får se på nätet?

Plattformar på nätet utvärderar och reglerar vårt innehåll utan att tala om för oss hur och varför. Det finns ett akut behöv av insyn i deras arbetssätt och policy.

Våra moderna liv är tätt sammanflätade med teknologi. Ett uppenbart exempel är hur vi söker och läser information samt kommunicerar via internet. I den här artikeln kommer vi att diskutera två metoder som företag använder för att leverera ditt innehåll: utvärdering och reglering.

Utvärdering av innehåll

Plattformar använder automatiserade verktyg för att utvärdera och reglera innehåll som vi laddar upp. När du söker efter det där kattvideoklippet under en lugnare stund på jobbet kommer din sökning inte att visa dig varje enskilt kattvideoklipp som existerar på internet. Träffarna påverkas av var du befinner dig, dina språkinställningar, dina senaste sökningar och alla de uppgifter som sökmotorn har om dig.

Tjänster kurerar och utvärderar innehåll samtidigt som de försöker förutse dina personliga preferenser och ditt beteende på nätet. På så sätt påverkar de inte bara din tillgång till information men också hur du bildar dina åsikter och kan delta i det offentliga samtalet. Genom att förutse våra preferenser bidrar de även till att forma dem och långsamt förändra vårt beteende.

De beslutar vad vi får och inte får läsa eller se. Det är som att befinna sig i ett främmande land på en guidad resa där enbart guiden talar det lokala språket. Och guiden är den som får bestämma vad du får se och vem du får prata med. På samma sätt beslutar dessa nättjänster vilket innehåll du får ta del av. Genom att amplifiera och kvantifiera populariteten hos vissa typer av sensationellt innehåll som ökar användarnas deltagande, i kombination med de ofta oförutsägbara bieffekterna av algoritmer, har utvärdering av innehåll blivit en handelsvara som plattformarna kan dra nytta av. Detta kan även leda till att din frihet att bilda din egen åsikt påverkas. Men friheten att bilda sin egen åsikt är en absolut rättighet, vilket innebär att det i ett demokratiskt samhälle aldrig någonsin kan vara lagligt tillåtet eller acceptabelt att kränka den.

Automatiserad kurering av det innehåll vi laddar upp avgör vilken sorts information vi mottar och hur mycket tid vi spenderar på plattformen. De flesta av oss har inte tillräckligt mycket information om hur rekommendationsalgoritmer organiserar innehåll på nätet i hierarkier. Vissa vet inte ens om att sådan utvärdering sker. Meningsfull insyn i sådana kureringsmekanismer är en förutsättning för att användare ska ha makt över de verktyg som bidrar till att forma informationslandskapet. Vi behöver veta när vi utsätts för automatiserat beslutsfattande och vi har rätt till inte bara en förklaring utan även en möjlighet att överklaga. För att vi ska kunna återta makten och bygga upp en medvetenhet om innehållskurering måste krav om meningsfull insyn införas av nätplattformar. Robust insyn och förklaringar av automatiserade åtgärder är en grundförutsättning för att vi ska kunna nyttja vår rätt till yttrandefrihet, så att vi på ett effektivt sätt kan bestrida onödiga begränsningar av vårt innehåll.

Reglering av innehåll

Plattformar på nätet kurerar och reglerar innehåll för att underlätta spridningen av information, men också för att EU och nationella lagstiftare ålagt dem allt större ansvarsskyldighet när det kommer till användargenererat innehåll, ofta med hot om kraftiga böter. Enligt det europeiska regelverket har plattformar en skyldighet att snabbt avlägsna olovligt innehåll, så som övergrepp mot barn eller terrorismrelaterat innehåll, så snart man uppmärksammats på dess existens. Vi är alla ense om att olovligt innehåll bör förbjudas. Men i vissa fall kan det vara svårt att avgöra huruvida en viss uppladdning innehåller olovligt innehåll eller inte och det kan krävas en regelrätt juridisk utredning. Till exempel skulle ett videoklipp kunna utgöra en kränkning av upphovsrätten – eller en helt lovlig uppladdning om innehållet används för att parodiera något annat.

Skiljelinjen mellan lovligt och olovligt innehåll kan vara hårfin. Det svåra är att plattformar på nätet förlitar sig på automatiserade verktyg som fattar beslut åt dem som en enkel lösning på denna komplexa uppgift för att på ett lätt sätt kunna hantera den stora mängden innehåll. Och för att undvika att behöva ta ansvar använder plattformar automatisering för att filtrera bort allt innehåll som möjligen kan vara olovligt. Men vi behöver skyddsåtgärder och mänskliga ingripanden som kontrollerar automatiseringen. Vi kan inte enbart förlita oss på verktygen.

Vilka skyddsåtgärder behövs?

Reglering av innehåll är utan tvekan en extremt utmanande uppgift. Varje dag måste nätplattformar fatta svåra beslut och avgöra vilket innehåll som får publiceras och hur vi kan tillgå det. Den automatiserade beslutsprocessen kommer aldrig att lösa sociala problem så som hatpropaganda och desinformation, för att inte tala om terrorismfrågan. Det kan den inte. Medan automatiserade processer kan fungera väl för nätinnehåll som uppenbarligen är olovligt oavsett sammanhanget, så som barnpornografi, fortsätter de att vara bristfälliga inom områden där allt inte är lika svart på vitt. Inga verktyg i världen kan lösa våra sociala problem åt oss, och de bör inte ha sista ordet när det kommer till skydd av yttrandefriheten eller vårt privatliv.

Som det ser ut nu så utvärderar och reglerar nätplattformar vårt innehåll utan att tala om för oss att och hur de gör det. Det finns ett akut behov av insyn i hur detta fungerar. Plattformarna måste delge oss information om hur de arbetar för att respektera yttrandefriheten och vilka aktsamhetsmekanismer man har implementerat. De måste erbjuda insyn i sina arbetssätt, i beslutsfattande och implementering samt i konsekvensanalyser och annan policy som påverkar våra grundläggande mänskliga rättigheter.

Utöver insyn krävs också lämpliga klagomålsmekanismer och möjlighet till mänskligt ingripande i de automatiserade processerna. Utan människors inblandning, utan tillgång till en transparent mekanism för överklagan och utan människor som bär ansvaret för företagens policy finns inga effektiva åtgärder. Och om det finns en risk att innehåll avlägsnats trots att det inte borde måste detta kontrolleras av en riktig person som kan besluta huruvida innehållet var lovligt eller inte. Och vi bör alltid ha rätt att föra frågan inför en domare, som är den enda personen som är juridiskt kvalificerad att fatta ett slutgiltigt beslut i frågor som har att göra med kränkningar av vår rätt till yttrandefrihet.

Artikelförfattare: Eliška Pírková från Access Now & Eva Simon från Liberties