Automazione e contenuti illegali: possiamo fidarci delle macchine che decidono per noi?

Mentre l'automazione è necessaria per gestire ed elaborare l'enorme quantità di contenuti condivisi in rete dagli utenti di Internet, le macchine commettono errori e questo può danneggiare seriamente i vostri diritti e il benessere della società.

La maggior parte di noi ama discutere le proprie idee e opinioni su questioni sciocche e serie, condividere momenti felici e tristi e giocare insieme su internet. Ed è una grande cosa. Tutti noi vogliamo essere liberi di imparare cose nuove, di entrare in contatto con i nostri amici e di conoscere nuove persone. Ogni minuto condividiamo continuamente foto, video e idee. Su Snapchat, condividiamo 527.760 foto, guardiamo 4.146.600 video su YouTube, condividiamo 456.000 tweet e circa 46.740 foto vengono pubblicate su Instagram - ogni singolo minuto. Sapete quanti minuti raggiungiamo in un giorno? 1440.

Queste informazioni sono di natura diversa. Alcune sono home video, e la legge non ha nulla a che fare con esse. Ma ci sono contenuti che violano chiaramente la legge, come la pornografia infantile, o l'incitamento alla violenza. E tra contenuti legali e illegali, c'è un terzo gruppo, che alcuni trovano dannoso e altri no. Sebbene non sia illegale, alcuni genitori vorrebbero evitare che i loro figli abbiano accesso alla pornografia all'età di 12 anni. Non è facile definire e tanto meno categorizzare cosa sia dannoso e per chi. Dipende dalla cultura, dall'età, dalle circostanze e da molti altri fattori.

Poiché una grande quantità di contenuti Internet è ospitata da piattaforme online, devono affidarsi a strumenti automatizzati per trovare e affrontare diverse categorie di contenuti illegali o potenzialmente dannosi. In particolare, gli attori dominanti come Facebook e Google hanno utilizzato tecnologie di monitoraggio e di filtraggio per l'identificazione e la rimozione dei contenuti. Siamo d'accordo sulla rimozione di materiale pedopornografico? Certamente. Siamo d'accordo nell'impedire la diffusione dei video di reclutamento ISIS? Assolutamente sì.

L'UE, insieme ad alcuni Stati membri, ha continuato a spingere le piattaforme online per rimuovere rapidamente i contenuti illegali o potenzialmente dannosi, come i discorsi di odio online o il terrorismo, spesso sotto minaccia di multe se non agiscono abbastanza velocemente. Per soddisfare queste richieste, le aziende tecnologiche devono affidarsi a strumenti automatizzati per filtrare le informazioni che non dovrebbero andare online.

L'automazione è necessaria per gestire una grande quantità di contenuti condivisi dagli utenti, ma commette errori che possono essere di vasta portata per i vostri diritti e per il benessere della società.

1 La cecità contestuale delle misure automatiche mette a tacere il discorso legittimo

Gli strumenti decisionali automatizzati non sono in grado di comprendere le differenze linguistiche o culturali. Le tecnologie di riconoscimento dei contenuti non sono in grado di valutare con precisione il contesto delle espressioni. Anche nei casi più semplici, creano false corrispondenze. Nel 2017, la pop star Ariana Grande ha trasmesso in streaming il suo concerto di beneficenza "One Love Manchester" sul suo canale YouTube. Lo streaming è stato prontamente interrotto dal filtro di upload di YouTube, che ha erroneamente segnalato lo spettacolo di Grande come una violazione del suo stesso copyright. Su una nota più seria, gli stessi strumenti automatizzati hanno rimosso migliaia di video di YouTube che potrebbero servire come prova di atrocità commesse contro i civili in Siria, mettendo potenzialmente a rischio ogni futura indagine su crimini di guerra che potrebbe portare i criminali di guerra alla giustizia. A causa della loro cecità contestuale o, in altre parole, dell'incapacità di comprendere il reale significato e le reali intenzioni degli utenti, segnalano e rimuovono contenuti completamente legittimi. Così, giornalisti, attivisti, comici, artisti, così come chiunque di noi condivida le proprie opinioni e video o immagini online rischia di essere censurato perché le compagnie di internet si affidano a questi strumenti di lavoro scadenti.

2 Non sono un proiettile d'argento

Queste tecnologie sono talvolta descritte come "intelligenza artificiale", un termine che evoca nozioni di intelligenza computazionale sovrumana. Tuttavia, non esiste nulla del genere, né è all'orizzonte. Invece questo termine si riferisce a modelli statistici avanzati che sono stati addestrati a riconoscere i modelli, ma senza una vera e propria "comprensione" o "intelligenza". Le tecnologie di riconoscimento dei contenuti non sono in grado di comprendere il significato o l'intenzione di chi condivide un post sui social media o l'effetto che esso ha sugli altri. Si limitano a scansionare il contenuto alla ricerca di determinati modelli, come file visivi, verbali o audio, che corrispondono a ciò che sono stati addestrati a identificare come "discorso di odio" o "contenuto terroristico". Non esistono dati di addestramento perfetti e inequivocabili, e quindi la loro capacità di riconoscere questi modelli è intrinsecamente limitata a ciò che sono stati addestrati a riconoscere. Sebbene possano raggiungere livelli molto elevati di accuratezza nell'identificare modelli univoci e coerenti, la loro capacità di automatizzare il compito molto delicato di giudicare se qualcosa costituisce un discorso sull'odio sarà sempre fondamentalmente limitata.

Comprensibilmente, i governi vogliono mostrare ai loro cittadini che stanno facendo qualcosa per tenerci al sicuro dal terrorismo, dai discorsi di odio, dagli abusi sui bambini o dalla violazione del copyright. E le aziende sono molto felici di vendere le loro tecnologie di automazione come una soluzione a pallottole d'argento ai politici che cercano disperatamente una risposta semplice. Ma dobbiamo tenere presente che nessuna automazione risolverà i problemi profondamente radicati nella nostra società. Possiamo usarle come strumento per ridurre il carico sulle piattaforme, ma abbiamo bisogno di salvaguardie che garantiscano che non sacrifichiamo la nostra libertà in materia di diritti umani, a causa di strumenti automatizzati mal addestrati.

Quindi chi dovrebbe decidere cosa vedere online? Restate sintonizzati per la prossima puntata di questa serie.

Autori: Eliška Pírková da Access Now & Eva Simon da Liberties