Technologie e Diritti

Chi dovrebbe decidere cosa vediamo online?

Le piattaforme online classificano e moderano i contenuti senza che noi sappiamo con quali criteri. C'è un urgente bisogno di trasparenza nelle pratiche e nelle politiche di queste piattaforme online.

by LibertiesEU

Le nostre vite sono strettamente interconnesse con la tecnologia. Un esempio evidente è il modo in cui navighiamo, leggiamo e comunichiamo online. In questo articolo esaminiamo due metodi che le piattaforme utilizzano per fornirci contenuti: la valutazione e la moderazione.

Ordinamento del contenuto

Le piattaforme utilizzano misure automatizzate per classificare e moderare i contenuti che carichiamo. Quando cercate quei video di gatti durante le pause al lavoro, il risultato della vostra ricerca non offrirà tutti i video di gatti online: dipenderà dalla vostra posizione, dalle impostazioni della lingua, dalle vostre ricerche recenti e da tutti i dati che il motore di ricerca conosce su di voi.

Questi servizi ordinano e classificano i contenuti prevedendo al contempo le nostre preferenze personali e il comportamento online. In questo modo, non solo influenzano il nostro accesso alle informazioni, ma anche il modo in cui ci formiamo le nostre opinioni e partecipiamo al dibattito pubblico. Prevedendo le nostre preferenze, le modellano e modificano progressivamente il nostro comportamento online.

Sono loro a decidere cosa leggiamo e cosa vediamo. È come visitare un paese straniero in un tour in cui solo la guida parla la lingua e decide cosa vedi e con chi puoi parlare. Anche queste piattaforme online decidono, in modo simile, ciò che si vede. Amplificando e quantificando la popolarità di alcuni tipi di contenuti sensazionalistici che incoraggiano un coinvolgimento, accompagnati dagli effetti collaterali spesso imprevedibili della personalizzazione algoritmica, la classificazione dei contenuti è diventata una merce da cui le piattaforme traggono vantaggio. Inoltre, questo può portare alla manipolazione della vostra libertà di opinione. Tuttavia, la libertà di formarsi un'opinione è un diritto assoluto, il che significa che nessuna interferenza con questa libertà è consentita dalla legge e non può essere accettata da nessuna società democratica.

La gestione automatizzata dei nostri contenuti determina il tipo di informazioni che riceviamo e il tempo che passiamo a navigare sulla piattaforma. La maggior parte di noi non dispone di informazioni sufficienti su come i contenuti siano privilegiati dagli algoritmi di raccomandazione su Internet. Alcuni non sanno nemmeno che esiste una classificazione. È necessaria una notevole trasparenza in questi meccanismi di valutazione, come condizione preliminare per garantire una scelta informata dell'utente sugli strumenti che formano il nostro panorama informativo. Dobbiamo sapere quando siamo esposti a processi decisionali automatizzati, e abbiamo il diritto sia di avere una spiegazione che di poterci opporre. Per riacquistare la consapevolezza della nostra agenzia e della valutazione dei contenuti, abbiamo bisogno di requisiti di trasparenza significativi da applicare sulle piattaforme online. Una solida trasparenza e l'informazione sulle misure automatizzate sono condizioni preliminari per l'esercizio del nostro diritto alla libertà di espressione, per poter fare ricorso efficacemente contro le restrizioni illegittime dei contenuti.

Moderazione del contenuto

Le piattaforme online ordinano e moderano i contenuti non solo per facilitarne la consegna, ma anche perché la legislazione nazionale e dell'Unione Europea impongono loro una crescente responsabilità nel monitorare i contenuti caricati dagli utenti, spesso sotto la minaccia di multe significative. In base al quadro giuridico europeo, le piattaforme sono obbligate a rimuovere tempestivamente i contenuti illegali (ad es. abusi sui minori o contenuti terroristici) non appena vengono a conoscenza della loro esistenza. Siamo tutti d'accordo che l'accesso a contenuti illegali deve essere proibito. Tuttavia, in alcuni casi l'illegalità dei contenuti è molto difficile da valutare e richiede un'adeguata valutazione legale. Ad esempio, un video musicale può essere in violazione del diritto d'autore, o può essere una parodia che non dovrebbe avere problemi legali.

La linea sottile tra legale e illegale è talvolta complessa. È complicato perché le piattaforme online, a causa della scala di contenuti che devono gestire, si affidano a strumenti automatizzati per classificarli e, per evitare conseguenze legali indesiderate, utilizzano strumenti di automazione che filtrano ogni possibile contenuto illegale. Ma, per controllare l'automazione, abbiamo bisogno di protezioni e di interventi umani, non possiamo affidarci esclusivamente a questi strumenti.

Di quali protezioni abbiamo bisogno?

Certamente, la moderazione dei contenuti è un compito estremamente difficile. Ogni giorno le piattaforme online devono prendere decisioni difficili e decidere quali contenuti possono rimanere pubblicati e come li troviamo. I processi decisionali automatizzati non risolveranno mai problemi sociali come i discorsi di odio o la disinformazione, per non parlare della questione del terrorismo. Non possono. Anche se l'automazione può funzionare bene per i contenuti che sono chiaramente illegali, indipendentemente dal loro contesto, come ad esempio i contenuti pedopornografici, essa fallisce comunque in qualsiasi area in cui la valutazione non è strettamente in bianco e nero. Nessuno strumento ci salverà dai problemi sociali, e nessuno dovrebbe avere l'ultima parola sulla tutela della libertà di espressione o della privacy.

Oggi le piattaforme online classificano e moderano i contenuti senza dirci su quali basi lo fanno, quindi c'è un urgente bisogno di trasparenza nelle loro pratiche e politiche. Devono informarci su come rispettano la nostra libertà di espressione e sui meccanismi adeguatamente efficaci che hanno messo in atto. Devono essere trasparenti nel loro funzionamento quotidiano, nel processo decisionale e nell'attuazione, così come nelle loro valutazioni d'impatto e nelle altre politiche che hanno un impatto sui nostri diritti umani fondamentali.

Oltre alla trasparenza, abbiamo bisogno di meccanismi di reclamo adeguatamente sviluppati e di un intervento umano per accompagnare in ogni momento qualsiasi processo decisionale automatizzato. Senza persone, senza meccanismi di ricorso accessibili e trasparenti, o senza che le persone siano ritenute responsabili delle politiche attuate, non ci può essere un rimedio efficace. Se esiste la possibilità che il contenuto sia stato rimosso in modo improprio, deve essere verificato da una persona reale che può decidere se il contenuto è legale o meno. E, naturalmente, il diritto di adire un giudice dovrebbe sempre esistere, in quanto è l'unica persona che ha la capacità giuridica di prendere la decisione finale su qualsiasi questione che possa compromettere il nostro diritto alla libertà di espressione.

Autori: Eliška Pírková da Access Now & Eva Simon da Liberties

Donate to liberties

Your contribution matters

As a watchdog organisation, Liberties reminds politicians that respect for human rights is non-negotiable. We're determined to keep championing your civil liberties, will you stand with us? Every donation, big or small, counts.

We’re grateful to all our supporters

Your contributions help us in the following ways

► Liberties remains independent
► It provides a stable income, enabling us to plan long-term
► We decide our mission, so we can focus on the causes that matter
► It makes us stronger and more impactful

Your contribution matters

As a watchdog organisation, Liberties reminds politicians that respect for human rights is non-negotiable. We're determined to keep championing your civil liberties, will you stand with us? Every donation, big or small, counts.

Subscribe to stay in

the loop

Why should I?

You will get the latest reports before everyone else!

You can follow what we are doing for your right!

You will know about our achivements!

Show me a sample!