Technologies et droits

​Réglementation de l’Intelligence artificielle : où en sommes-nous ?

Les gouvernements et entreprises ont recours à l’intelligence artificielle pour prendre des décisions qui peuvent avoir un impact significatif sur nos vies. L’IA doit être réglementée pour que notre protection soit assurée. Voici comment.

by Jascha Galaski

Pourquoi l'IA représente-t-elle aujourd'hui un enjeu majeur dans le monde ?

Le secteur de l’Intelligence artificielle (IA) connaît une croissance fulgurante. Les nations du monde entier se lancent dans la « course à l’IA ». Le président russe Vladimir Poutine pense que le pays qui remportera cette compétition deviendra le « maître du jeu » au niveau mondial. Des entreprises investissent des milliards de dollars pour obtenir la plus grande part de marché possible. Des simulations montrent que d’ici à 2030, près de 70% des entreprises auront adapté une forme de technologie basée sur l’IA. La raison est simple. Que ce soit pour mesurer les effets du réchauffement climatique, sélectionner des candidats pour un poste ou prédire si une personne va ou non commettre une infraction, l’IA peut remplacer des êtres humains et prendre des décisions plus rapidement, et à moindre coût.

Pourtant, l’IA menace nos droits fondamentaux. Par exemple, les algorithmes qui modèrent les contenus publiés sur les réseaux sociaux peuvent restreindre la liberté d’expression de manière inégale et influencer le débat public. Les technologies de surveillance biométrique de masse portent atteinte à notre droit à la vie privée et découragent la participation démocratique. Les algorithmes reposent sur d’énormes ensembles de données, dont le traitement et la conservation viole généralement nos droits à la protection des données personnelles. Des biais algorithmiques peuvent faire perdurer certaines inégalités systémiques dans nos sociétés et entraîner des discriminations et exclusions à l’encontre des minorités. Cela est le cas des algorithmes utilisés pour le recrutement sur le marché du travail. Ces derniers tendent à sélectionner des hommes plus que des femmes et des personnes blanches plus que des personnes noires, car les données qui alimentent ces algorithmes leur indiquent que les « bons candidats » sont souvent les hommes blancs.

Ces défis sont exacerbés par le fait que l’IA est extrêmement complexe. Nous ne comprenons toujours pas de manière precise quells sont les risques que les systèmes d’IA font peser sur nos sociétés. Jenna Burrel, chercheuse de l’Université de Californie, a distingué trois formes d’opacité dans les systèmes d’IA. Ceux qui sont conçus pour être opaques (intentionnellement), car les États ou entreprises veulent garder des données secrètes. Ceux dont l’opacité résulte d’un manque de connaissances techniques, car ils sont trop complexes pour être compris par le grand public. Et ceux dont la complexité provient des caractéristiques complexes des algorithmes d’apprentissage automatique. En d’autres termes, des systèmes dont les programmeurs eux-mêmes n’arrivent pas à saisir la complexité.

Pour prévenir ces dangers et nous en protéger, l’IA doit être réglementée. Les législateurs à travers le monde entier ne sont pas parvenus à proposer et adopter des lois qui réglementent de manière précise les utilisations de l’IA. Cela permet à des entreprises à but lucratif de développer des systèmes à même de porter préjudices aux individus. Certains de ces systèmes existent déjà et sont utilisés. En raison du manque de transparence des autorités, la plupart du temps nous n’avons même pas connaissance de ces systèmes. Dans les pays de l’UE, les forces de police déploient des systèmes reposant sur les technologies de reconnaissance faciale et de prévision policière. Comme nous l’avons expliqué dans un précédent article, ces systèmes sont forcément biaisés, et perpétuent donc des discriminations et inégalités.

Dans cet article, nous discuterons des raisons pour lesquelles nous avons besoin de l’IA, des types de réglementations existantes, et de ce qu’elles devraient inclure. Nous verrons aussi de quoi dépend le futur de l’IA.

Pourquoi est-il nécessaire de mettre en place un réglementation autour de l’IA ?

Nous devons réglementer l’IA pour deux raisons. D’abord, parce que les gouvernements et entreprises utilisent l’IA pour prendre des décisions qui peuvent avoir un impact très important sur nos vies. Par exemple, les algorithmes qui calculent les performances scolaires peuvent avoir des effets dévastateurs. Au Royaume-Uni, le Secrétaire d’État à l’éducation a utilisé un algorithme pour déterminer les notes aux examens finaux des élèves à travers le pays.

Résultat : près de 40% des élèves ont reçu des notes inférieures à celles reçues antérieurement et données par leurs enseignants. En outre, l’algorithme était non seulement imprécis mais favorisait également les élèves des écoles privées par rapport à ceux des écoles publiques.

L’IA a aussi montré ses limites dans le secteur privé. Dans un cas, une carte de crédit mise en place par Apple offrait des limites de crédit plus basses pour les femmes que pour les hommes. Les systèmes d’IA qui calculent les probabilités de récidive et détermine la durée des peines de prison des personnes prévenues, peuvent aussi affecter de manière significative la vie des individus. Sans réglementations dignes de ce nom, les systèmes sont davantage susceptibles d’être imprécis et biaisés car les entreprises sont moins enclines à investir dans des mesures de sécurité et assurer la qualité et la nature non biaisée de leurs données.

Ensuite de cela, la réglementation est indispensable car lorsque une personne ou entité prend une décision qui nous concerne et affecte, elle doit nous rendre des comptes. Les lois relatives aux droits humains établissent des normes minimales de traitement que tout le monde peut exercer. Cela donne à chacun le droit de recours quand ces normes ne sont pas respectées, et qu’un préjudice vous est porté. Les gouvernements sont censés garantir que ces normes sont donc respectées et que toute personne ou entité qui porterait atteinte à ces dernières doit rendre des comptes (généralement en vertu de lois civiles, administratives ou pénales).

Cela signifie que toute personne, entreprise ou gouvernement doit suivre certaines règles à l’heure de prendre des décisions. Quand les règles ne sont pas respectées, alors les droits d’une autre personne peuvent être violés et les personnes responsables de cette violation doivent en répondre. Mais l’on voit déjà que des entreprises utilisant l’IA échappent à leurs responsabilités à cet égard. Par exemple, quand en 2018, une voiture autonome de Uber a écrasé et tué un piéton, il n’était pas clair qui était responsable. Le constructeur, Uber ou la personne se trouvant dans la voiture ? Bien que les enquêteurs aient montré que la voiture présentait des défaillances sécuritaires (et ne prenait pas en compte les piétons qui ne respectent pas le code), Uber a été déclaré « non responsable pénalement ». Au lieu de cela, c’est la personne se trouvant derrière le volant qui s’est vue accusée d’homicide par négligence, car elle assistait à une émission télévisée au moment de l’accident.

Que savons-nous des réglementation nationales et regionales en vigeur ?

Comme nous l’avons déjà mentionné plus haut, il n’existe pour l’heure aucune législation conçue pour réglementer l’utilisation de l’IA. Au contraire, les systèmes d’IA sont régulés par d’autres réglementations existantes mais non spécifiques. Cela inclut les lois sur la protection des données, la protection des consommateurs et la concurrence des marchés.

Des projets de lois ont aussi été adoptés pour réglementés certains systèmes d’IA spécifiques. À New York, les entreprises devront bientôt indiquer quand elles utilisent des algorithmes pour recruter des employés. Plusieurs villes des États-Unis ont déjà interdit le recours aux technologies de reconnaissance faciale. En UE, la proposition de loi sur les services numériques aura un impact significatif sur l’utilisation des algorithmes par les plateformes en ligne qui hiérarchisent et modèrent les contenus en ligne, prédisent nos préférences personnelles et détermine les contenus que nous lisons ou regardons (connus sous le nom d’algorithmes de modération des contenus).

Les gouvernements nationaux et locaux ont commencé à adopter des stratégies et à travailler sur de nouvelles lois depuis plusieurs années, mais aucune législation n’a été adoptée à ce jour. La Chine a par exemple développé une stratégie en 2017 pour devenir le leader mondial de l’IA en 2030. Aux États-Unis, la Maison blanche a publié 10 principes pour la réglementation de l’IA. Cela comprend la promotion d’ « applications d’IA fiables, robustes et de confiance ». la participation du public et l’intégrité scientifique. Les organes internationaux qui donnent des conseils aux gouvernements, comme l’OCDE ou le FMI, ont développé des directrices éthiques. Le Conseil de l’Europe a créé un Comité dont la mission est d’aider à développer un cadre juridique autour de l’IA.

Cependant, la proposition la plus ambitieuse vient de l’UE. Le 21 avril 2021, la Commission européenne a mis en avant une proposition de loi relative à l’IA. Le projet de texte suggère de rendre illégale l’utilisation de l’IA à certaines fins jugées « inacceptables ». Cela inclut les technologies de reconnaissance faciale, les systèmes d’IA utilisés à des fins de classement social qui classe les gens en fonction de leur fiabilité, et les systèmes qui manipulent les personnes ou exploitent les vulnérabilités de certains groupes (comme les jouets qui utilisent une assistance vocale pour manipuler des enfants et les amener à faire des choses dangereuses).

La proposition suit une approche fondée sur l’analyse des risques : plus le danger que l’IA fait peser sur nos libertés est grand, plus les autorités ou entreprises sont tenues d’être transparentes sur le fonctionnement de l’algorithme et d’indiquer à des régulateurs comment ce dernier est utilisé. Si cela laisse penser que la Commission européenne souhaite sérieusement réglementer les systèmes d’IA dangereux, la proposition de loi place tout de même les entreprises avant les droits fondamentaux. La Commission se plaît à affirmer qu’elle a interdit les technologies de reconnaissance faciale, mais la proposition contient des flous qui permettent aux entreprises et autorités d’y avoir recours. En outre, les obligations de transparence pour les systèmes qui comportent des risques élevés contiennent un défaut de taille : cette tâche qui consiste à déterminer si le système est dangereux ou non incombe à l’entreprise qui a créé le système.

Que devrait contenir la réglementation relative à l’IA ?

Une réglementation sur l’IA efficace et qui protège les droits doit, au minimum contenir les garde-fous suivants. Premièrement, elle doit interdire les technologies qui portent atteinte aux droits fondamentaux, comme les systèmes de surveillance biométrique de masse ou de prévision policière. L’interdiction ne doit pas contenir d’exceptions qui autorisent les entreprises ou autorités publiques à utiliser ces systèmes « sous certaines conditions ».

Deuxièmement, il est nécessaire de prévoir des règles claires qui établir de manière précise ce que les entreprises doivent rendre public en ce qui concerne leurs produits. Les entreprises doivent fournir une description détaillée du système d’IA utilisé. Cela comprend des informations relatives aux données utilisées, le processus de développement, les objectifs du système mais aussi le lieu où ce dernier est utilisé et les personnes qui l’utilisent. Il est aussi essentiel que les individus exposés à ces systèmes soient informés de cela, comme par exemple quand des algorithmes sont utilisés lors d’une phase de recrutement. Les systèmes qui peuvent avoir un impact significative sur la vie des individus doivent faire l’objet d’un contrôle renforcé et se présenter dans une base de donnée accessible publiquement. Cela permettrait aux journalistes et chercheurs de s’assurer plus facilement que ls entreprises et gouvernements protègent de manière effective nos libertés.

Help us fight for your rights. Donate

Troisièmement, les personnes et organisations qui protègent les consommateurs doivent pouvoir amener les gouvernements et entreprises à rendre des comptes en cas d’abus ou de disfonctionnements. Il est nécessaire d’adapter les règles sur la responsabilité pour reconnaître que les décisions sont prises par un algorithme et non pas un utilisateur. L’entreprise qui développe l’algorithme pourrait avoir l’obligation de vérifier les données qui alimentent l’algorithme ainsi que les décisions que ce dernier prend, afin de corriger les problèmes.

Quatrièmement, les nouvelles réglementations doivent garantir qu’un régulateur vérifie que les entreprises et autorités respectent bien les règles. Ce régulateur/contrôleur doit être indépendant et disposer des ressources et moyens nécessaire à l’accomplissement de ses missions.

Enfin, la réglementation sur l’IA doit aussi intégrer des garde-fous en vue de protéger les plus vulnérables. Elle devrait mettre en place un système qui permette aux personnes affectées par des systèmes d’IA de déposer des réclamations et plaintes et d’obtenir des compensations. Et les travailleurs devraient avoir le droit de poursuivre leur employeur pour toute utilisation invasive d’un système d’IA, sans craindre des représailles.

De quoi dépend le futur de la réglementation sur l’IA ?

Quand l’UE créera des règles relatives à l’IA, elle finira sans doute par établir les normes pour le reste du monde car de très nombreuses entreprises travaillent en Europe et/ou y sont basées. L’UE a donce une grande responsabilité et doit proposer une réglementation efficace et respectueuse des droits, car ces règles affecteront le fonctionnement des systèmes d’IA dans d’autres régions du monde moins démocratiques. Par exemple, les algorithmes qui prétendent déterminer l’orientation sexuelle des individus peuvent conduire à la mort de personnes dans certains pays où l’homosexualité est encore légalement passible de mort.

Il revient à présent aux législateurs et dirigeant.e.s de l’UE de développer des règles qui amélioreront notre qualité de vie et promouvront l’égalité. Les négociateurs de l’UE sont tentés d’adopter l’IA pour les économies qu’elle permet de réaliser ou parce qu’elle permet de stimuler l’économie. Mais « prendre des raccourcis » avec les services publics ou utiliser l’IA lorsque cela ne représente pas d’avantages pour la société finir par endommager notre mode de vie et nos libertés. L’UE doit davantage réfléchir aux façons dont nos sociétés peuvent utiliser l’IA pour donner vie à nos droits et libertés et les protéger.

Donate to liberties

Your contribution matters

As a watchdog organisation, Liberties reminds politicians that respect for human rights is non-negotiable. We're determined to keep championing your civil liberties, will you stand with us? Every donation, big or small, counts.

We’re grateful to all our supporters

Your contributions help us in the following ways

► Liberties remains independent
► It provides a stable income, enabling us to plan long-term
► We decide our mission, so we can focus on the causes that matter
► It makes us stronger and more impactful

Your contribution matters

As a watchdog organisation, Liberties reminds politicians that respect for human rights is non-negotiable. We're determined to keep championing your civil liberties, will you stand with us? Every donation, big or small, counts.

Subscribe to stay in

the loop

Why should I?

You will get the latest reports before everyone else!

You can follow what we are doing for your right!

You will know about our achivements!

Show me a sample!