Automatisering och olovligt innehåll – kan vi förlita oss på maskiner som fattar våra beslut åt oss?

Automatisering må vara nödvändigt för att hantera en stor mängd användargenererat innehåll, men kan leda till misstag med allvarliga konsekvenser för dina rättigheter och samhällets välmående.

De flesta av oss tycker om att diskutera våra idéer och åsikter om allt från skämtsamma till mer allvarliga frågor, dela våra lyckliga och sorgliga minnen och ha roligt tillsammans på nätet. Det är något positivt. Vi vill alla vara fria att lära oss om nya ämnen, hålla kontakten med vänner och höra av oss till främlingar. Varje sekund delas nya bilder, videoklipp och idéer via nätet. Under en enda minut hinner vi i genomsnitt dela 527 760 bilder på SnapChat, se 4 146 600 videoklipp på YouTube, skicka 456 000 tweets och lägga upp 46 740 bilder på Instagram. Vet du hur många minutter det går på en dag? 1 440.

Typen av information som laddas upp varierar. I en del av fallen handlar det om videoklipp vi spelat in själva, och det är inte lagens uppgift att gå in och peta i dem. Men det förekommer även innehåll som tydligt bryter mot lagen, såsom barnpornografi eller uppvigling till våld. Och någonstans mellan lagligt och olagligt innehåll finns en tredje kategori, som vissa anser skadlig medan andra anser ofarlig. Sådant innehåll är inte olagligt, men många föräldrar skulle t ex ändå vilja undvika att deras barn får tillgång till porr vid tolv års ålder. Det är inte alltid helt lätt att definiera och kategorisera vad som är skadligt och för vem. Det beror på en mängd faktorer – såväl kulturella som ålders- och omständighetsrelaterade, osv.

Eftersom en stor andel av innehållet på nätet ligger på olika plattformar måste dessa förlita sig på automatiserade verktyg för att identifiera och hantera olika sorters olagligt och potentiellt skadligt innehåll. Särskilt stora parter så som Facebook och Google har använt sig av bevakande och filtrerande teknologier för att identifiera och avlägsna innehåll. Är vi alla ense om att man bör avlägsna material som utgör övergrepp mot barn? Självklart är vi det. Är vi alla ense om att vi bör förhindra IS från att sprida sina rekryteringsvideor på nätet? Självklart är vi det.

EU har tillsammans med vissa av sina medlemsländer kontinuerligt satt press på nätplattformar för att dessa snabbt ska avlägsna olagligt eller potentiellt skadligt innehåll, så som hat- och terrorpropaganda, ofta med hot om böter om plattformarna inte agerar snabbt nog. För att uppfylla dessa krav måste techföretagen förlita sig på automatiserade verktyg som filtrerar bort information som inte hör hemma på nätet.

Automatisering må vara nödvändigt för hantering av stora mängder användargenererat innehåll, men kan leda till misstag med allvarliga konsekvenser för dina rättigheter och samhällets välmående.

1. De automatiserade verktygens bristande förmåga att läsa in sammanhang riskerar att tysta legitima uttryck

Verktyg som bygger på automatiserat beslutsfattande har en bristande förmåga att tolka språkliga och kulturella variationer. Teknologier som utformats för att identifiera olika typer av innehåll kan inte tolka in och utvärdera uttryckets sammanhang på ett korrekt sätt. Även i relativt tydliga fall gör de ofta fel. År 2017 strömmade popstjärnan Ariana Grande sin välgörenhetskonsert 'One Love Manchester' via sin YouTube-kanal. Men strömmandet stängdes snabbt ned av YouTube:s uppladdningsfilter, som av misstag identifierade Grandes konsert som ett brott mot hennes egen upphovsrätt. I ett fall av allvarligare natur avlägsnade samma automatiserade verktyg tusentals YouTube-klipp som utgjorde bevis på grymma övergrepp mot civilbefolkningen i Syrien, och äventyrade på så sätt en eventuell framtida utredning av krigsbrott. På grund av verktygets bristande förmåga att läsa in sammanhang, det vill säga dess oförmåga att tolka och förstå vad användaren faktiskt menar och avser, avlägsnar verktyget innehåll som är helt lagligt. På så sätt riskerar journalister, aktivister, komiker, artister eller vem som helst som önskar dela med sig av sina åsikter, videoklipp och bilder att censureras på grund av att nätföretagen förlitar sig på dessa bristfälliga verktyg.

2. De innebär inte en enkel lösning

Dessa teknologier beskrivs ibland som "artificiell intelligens", ett begrepp som för tanken till övermänsklig beräkningsintelligens. Men något sådant existerar inte, och finns heller inte att skönja vid horisonten. Istället hänvisar begreppet till avancerade statistiska modeller som utformats för att kunna känna igen mönster, helt utan både "förståelse" och "intelligens". Teknologier som utvecklats för att känna igen och identifiera innehåll kan inte uttolka betydelsen eller avsikterna bakom ett inlägg på sociala medier eller den effekt som detta har på andra. De kan enbart skanna av innehåll i jakt på vissa särskilda mönster – visuella, verbala eller i form av ljud – som överensstämmer med vad de lärt sig känna igen som hat- eller terrorpropaganda. Det finns ingen perfekt, otvetydig data att utgå ifrån när man bygger dessa modeller, så deras förmåga att känna igen liknande mönster är per definition begränsad. De må kunna känna igen otvetydiga, konsekventa mönster med mycket stor noggrannhet, men deras förmåga att automatisera den mycket känsliga uppgiften att bedöma huruvida någonting utgör hatpropaganda kommer alltid att vara begränsad.

Regeringar vill, helt förståeligt, kunna visa sina medborgare att de vidtar åtgärder för att skydda oss från terrorism, hatpropaganda, barnmisshandel och brott mot upphovsrätten. Och företag säljer med glädje in sina automatiserade teknologier som en enkel lösning hos politiker som söker ett enkelt svar. Men vi måste ha i åtanke att all automatisering i världen inte kan lösa de problem som är djupt rotade i vårt samhälle. Vi kan använda dem som verktyg för att lätta bördan för plattformar, men vi behöver säkerhetsåtgärder som ser till att vi inte offrar våra mänskliga friheter i utbyte mot dåligt utformade automatiserade verktyg.

Så vem bör besluta vad vi får ta del av och inte på nätet? Håll utkik efter nästa del i artikelserien.


Artikelförfattare: Eliška Pírková från Access Now & Eva Simon från Liberties