Technologie e Diritti

Regolamento sull’IA: situazione attuale e future possibilità

I governi e le aziende usano l'intelligenza artificiale per prendere decisioni che possono avere un impatto significativo sulle nostre vite. Per proteggere noi stessi e per una tecnologia senza manipolazioni e pregiudizi, l'IA deve essere regolata.

di Jascha Galaski

Perche l’IA rappresenta un problema emergente a livello globale?

L’industria dell’intelligenza artificiale (IA) sta crescendo ad una velocità inarrestabile. I paesi di tutto il mondo sono in competizione per vincere la “corsa all’IA”. Il presidente russo Vladimir Putin crede che la nazione che ne uscirà vincitrice sarà "il dominatore del mondo". Le aziende stanno investendo miliardi di dollari per assicurarsi la più grande quota di mercato. Le simulazioni mostrano che entro il 2030 circa il 70% delle aziende avrà adottato qualche tipo di tecnologia IA. La ragione è semplice. Sia che si tratti di modellare il cambiamento climatico, di selezionare i candidati al lavoro o di prevedere se qualcuno commetterà un crimine, l’IA può sostituire gli umani e prendere decisioni in modo più veloce e meno costoso.

Eppure, i sistemi di IA stanno minacciando i nostri diritti fondamentali. Per esempio, gli algoritmi che moderano i contenuti sulle piattaforme di social media possono limitare ingiustamente la libertà di parola e influenzare il dibattito pubblico. Le tecnologie di sorveglianza biometrica di massa violano il nostro diritto alla privacy e scoraggiano la partecipazione democratica. Gli algoritmi si basano su serie massicce di dati personali, la cui raccolta, elaborazione e archiviazione spesso violano i nostri diritti sulla protezione dei dati. I pregudizi algoritmici possono perpetuare le strutture di disuguaglianza esistenti nelle nostre società e portare alla discriminazione e all’allienazione delle minoranze. Un esempio di questo è costituito dagli algoritmi di reclutamento, che spesso preferiscono gli uomini alle donne e gli uomini bianchi alle persone di colore, perché i dati con cui sono alimentati dicono che i “candidati di successo” tendono ad essere uomini bianchi.

Questi problemi sono aggravati dalla complessità dell'IA. Non abbiamo ancora una chiara comprensione dei possibili rischi che i sistemi di IA possono rappresentare per le nostre società. Una ricercatrice dell'Università di California, Jenna Burrell, ha identificato tre tipi di opacità dei sistema di IA. Quelli che sono intenzionalmente tenuti opachi, perché le aziende o gli stati vogliono tenerli segreti. Quelli che derivano dall'analfabetismo tecnico, perché sono troppo complicati per essere compresi dalla società in generale. E quelli che nascono dalle caratteristiche complesse degli algoritmi di apprendimento automatico. In altre parole, quelli che nemmeno i programmatori capiscono o afferrano completamente.

Per prevenire e proteggersi da queste minacce, l’IA deve essere regolata. I legislatori di tutto il mondo fino ad oggi non sono riusciti a fare i disegni di legge che regolino specificamente l’uso dell’IA. Questo permette alle aziende di sviluppare sistemi che possono causare danni alle persone al fine di ottenere un profitto. Alcuni di questi sistemi esistono già e vengono utilizzati. A causa della mancanza di trasparenza da parte delle autorità, spesso non ne sappiamo nulla. Le forze di polizia di tutta l’UE utilizzano tecnologie di riconoscimento facciale e sistemi di polizia predittiva. Come abbiamo spiegato in un altro articolo, questi sistemi sono destinati a contenere pregiudizi e quindi a perpetuare la discriminazione e la disuguaglianza.

In questo articolo vediamo perché abbiamo bisogno di un regolamento sull'IA, quale tipo di regolamento esiste già, cosa dovrebbe contenere un regolamento sull'IA e da cosa dipende il futuro del regolamento sull'IA.

Perché abbiamo bisogno di un regolamento sull'IA?

Abbiamo bisogno di regolamentare l'IA per due motivi. In primo luogo, perché i governi e le aziende usano l'IA per prendere decisioni che possono avere un impatto significativo sulle nostre vite. Per esempio, gli algoritmi che calcolano il rendimento scolastico possono avere un effetto devastante. Nel Regno Unito, il Segretario di Stato per l'Istruzione ha usato un algoritmo per determinare il voto finale degli esami degli studenti in tutto il paese. Il risultato: quasi il 40% degli studenti ha ricevuto voti più bassi rispetto ai voti precedentemente assegnati dai loro insegnanti. Inoltre, l'algoritmo non solo era impreciso, ma ha anche favorito gli studenti delle scuole private rispetto a quelli delle scuole pubbliche. L'IA ha anche mostrato i suoi limiti nel settore privato. In un altro caso, una carta di credito introdotta dal gigante tecnologico Apple offriva limiti di credito più bassi per le donne che per gli uomini. I sistemi di IA che calcolano la probabilità di recidiva e determinano la lunghezza delle pene detentive per le persone accusate possono anche alterare significativamente la vita di una persona. Senza regole adeguate, è più probabile che i sistemi siano imprecisi e distorti, poiché le aziende sono meno incentivate a investire in protezioni e a garantire la qualità e l'equità dei loro dati.

In secondo luogo, perché ogni volta che qualcuno prende una decisione che ci riguarda, deve rendere conto a noi. La legge sui diritti umani stabilisce degli standard minimi di trattamento che tutti possono aspettarsi. Dà a tutti il diritto a un rimedio quando quegli standard non sono rispettati e si subisce un danno. Si suppone che i governi si assicurino che questi standard siano rispettati e che chiunque li violi sia ritenuto responsabile, di solito attraverso il diritto amministrativo, civile o penale. Questo significa che tutti, comprese le aziende e i governi, devono seguire certe regole quando prendono decisioni. Quando qualcuno infrange le regole concordate e danneggia un’altro, deve essere ritenuto responsabile. Tuttavia, ci sono già segni che le aziende dietro l'IA possono sfuggire alla responsabilità per i problemi che causano. Per esempio, quando nel 2018 un'auto a guida autonoma di Uber ha ucciso un pedone, all'inizio non era chiaro chi sarebbe stato responsabile: il produttore dell'auto, Uber o la persona nell'auto? Nonostante gli investigatori abbiano scoperto che l'auto aveva problemi di sicurezza (non ha tenuto conto dei pedoni che attraversavano la strada in posti diversi dalle strisce pedonali), Uber è stata trovata "non penalmente responsabile". Invece, è stata la persona al volante ad essere accusata di omicidio colposo, perché stava guardando un episodio di un programma televisivo.

Cosa sappiamo dei regolamenti regionali e nazionali esistenti?

Come accennato in precedenza, attualmente non esiste una legislazione specificamente progettata per regolare l'uso dell'IA. Piuttosto, i sistemi IA sono regolati da altri regolamenti esistenti. Queste includono la protezione dei dati, la protezione dei consumatori e le leggi sulla concorrenza del mercato. Sono stati anche approvati disegni di legge per regolamentare alcuni specifici sistemi di IA. A New York, le aziende potrebbero presto dover rivelare quando usano algoritmi per scegliere i loro dipendenti. Diverse città negli Stati Uniti hanno già vietato l'uso di tecnologie di riconoscimento facciale. Nell'UE, il previsto Digital Services Act avrà un impatto significativo sull'uso da parte delle piattaforme online di algoritmi che classificano e moderano i contenuti online, prevedono le nostre preferenze personali e alla fine decidono cosa leggere e guardare - chiamati anche algoritmi di moderazione dei contenuti.

I governi nazionali e municipali hanno iniziato ad adottare strategie e a lavorare su nuove leggi per diversi anni, ma nessuna legislazione è stata ancora approvata. La Cina, per esempio, ha sviluppato nel 2017 una strategia per diventare un leader globale nell'IA entro il 2030. Negli Stati Uniti, la Casa Bianca ha pubblicato dieci principi per la regolamentazione dell'IA. Questi includono la promozione di "applicazioni IA sicure, solide e affidabili", la partecipazione pubblica e l'integrità scientifica. Organismi internazionali che consigliano i governi, come l'OCSE o il World Economic Forum, hanno sviluppato linee guida etiche. Il Consiglio d'Europa ha istituito un comitato per sviluppare un quadro giuridico per l'IA.


Tuttavia, la proposta più ambiziosa finora viene dall'UE. Il 21 aprile 2021, la Commissione UE ha presentato una proposta per una nuova legge sull'IA. La bozza suggerisce di bandire l'uso dell'IA per alcuni scopi considerati "inaccettabili". Questi includono le tecnologie di riconoscimento facciale, i sistemi IA utilizzati per classificare le persone in base alla loro "affidabilità", e i sistemi che manipolano le persone o sfruttano le vulnerabilità di gruppi specifici, per esempio un giocattolo che utilizza l'assistenza vocale per manipolare i bambini a fare qualcosa di pericoloso. La proposta ha un approccio basato sul rischio: maggiore è il rischio di un dato uso dell'IA per le nostre libertà, più obblighi di trasparenza ha l'autorità o l'azienda su come funziona l'algoritmo e per riferire ai regolatori su come è stato usato.. Mentre questo suona come se la Commissione europea fosse seriamente intenzionata a regolare i sistemi di IA dannosi, la proposta sta in realtà mettendo il business davanti ai diritti fondamentali. La Commissione ama affermare di aver proibito la tecnologia di riconoscimento facciale, ma la proposta offre scappatoie che permettono alle aziende e alle autorità di usarla. Inoltre, gli obblighi di trasparenza per i sistemi ad alto rischio hanno un difetto significativo: il compito di verificare se l'IA è rischiosa è lasciato alle stesse aziende che creano questi sistemi. Poiché queste sono aziende a scopo di lucro con un interesse acquisito nel vedere i loro prodotti sul mercato, è probabile che minimizzino i rischi.

Cosa dovrebbe contenere il regolamento sull'IA?

Un regolamento sull'IA efficace che protegge i diritti dovrebbe, come minimo, contenere le seguenti garanzie. In primo luogo, deve proibire le tecnologie che violano i nostri diritti fondamentali, come la sorveglianza biometrica di massa o i sistemi di polizia predittiva. Il divieto non deve includere eccezioni che permettano alle aziende o alle autorità pubbliche di usarle "a certe condizioni".

In secondo luogo, ci devono essere regole chiare che stabiliscano esattamente ciò che le aziende devono rendere pubblico sui loro prodotti. Le aziende devono fornire una descrizione dettagliata del sistema IA stesso. Dalle informazioni sui dati che utilizza, il processo di sviluppo, lo scopo del sistema e dove e da chi viene usato. È anche fondamentale che le persone esposte all'IA abbiano informazioni su di essa, per esempio nel caso di algoritmi di reclutamento. I sistemi che possono avere un impatto significativo sulla vita delle persone dovrebbero essere sottoposti a un controllo aggiuntivo e essere elencati in un database accessibile al pubblico. Questo renderebbe più facile per ricercatori e giornalisti controllare se le aziende e i governi stanno proteggendo adeguatamente le nostre libertà.

Aiutaci a combattere per i tuoi diritti Fai una donazione
In terzo luogo, gli individui e le organizzazioni che proteggono i consumatori devono essere in grado di ritenere i governi e le aziende responsabili quando ci sono problemi. Le regole sulla responsabilità esistenti dovrebbero essere adattate per riconoscere che le decisioni sono prese da un algoritmo e non dall'utente. Questo potrebbe significare che l'azienda che sviluppa l'algoritmo ha l'obbligo di controllare i dati su cui gli algoritmi sono addestrati e le decisioni che gli algoritmi prendono in modo da poter correggere i problemi.

In quarto luogo, le nuove regole devono garantire che ci sia un organismo di regolamentazione per controllare che le aziende e le autorità rispettino correttamente le regole. Questo cane da guardia deve essere indipendente e avere le risorse e i poteri necessari per fare il suo lavoro.

Infine, un regolamento sull'IA dovrebbe anche includere garanzie per proteggere i più vulnerabili. Dovrebbe istituire un sistema che permetta alle persone che sono state danneggiate dai sistemi di IA di presentare un reclamo e ottenere un risarcimento. E i lavoratori dovrebbero avere il diritto di agire contro i sistemi IA invasivi usati dal loro datore di lavoro senza paura di ritorsioni.

Da cosa dipende il futuro del regolamento sull'IA?

Quando l'UE crea regole sull'IA, probabilmente finirà per stabilire lo standard per il resto del mondo a causa di tutte le aziende che lavorano e hanno sede nell'UE. Ha quindi una grande responsabilità di farlo bene, perché queste regole influenzeranno il modo in cui i sistemi di IA sono usati nelle parti meno democratiche del mondo. Per esempio, gli algoritmi che pretendono di prevedere l'orientamento sessuale di una persona possono portare alla morte di persone in paesi dove essere gay è ancora legalmente punibile con la morte.

Spetta ora ai politici e ai leader dell'UE sviluppare regole che migliorino la nostra qualità di vita e promuovano l'uguaglianza. I negoziatori dell'UE possono essere tentati ad adottare sistemi di IA perché credono che risparmieranno denaro o perché stimoleranno l'economia. Ma prendere scorciatoie nei servizi pubblici o usare l'IA dove non ha alcun beneficio sociale finirà per danneggiare il nostro stile di vita e le libertà che apprezziamo. La domanda che l'UE deve porsi è come le nostre società possono usare l'IA per realizzare i nostri diritti e le nostre libertà.