Nowe technologie i prawa człowieka

AI regulacje i przepisy: jak jest teraz i jakie są perspektywy na przyszłość

Rządy i korporacje wykorzystują sztuczną inteligencję w procesach decyzyjnych, które mogą mieć znaczący wpływ na nasze życie. AI (z ang. artificial intelligence) musi podlegać pod konkretne przepisy, aby uniknąć manipulacji i stronniczości. Jak?

by Jascha Galaski

Czemu AI jest rosnącym problemem na całym świecie?

Przemysł sztucznej inteligencji (AI) rozwija się w niewiarygodnym tempie. Narody na całym świecie prześcigają się z coraz nowymi wynalazkami, aby wygrać „wyścig AI”. Prezydent Rosji Władimir Putin uważa, że naród, który zdobędzie to zwycięstwo, stanie się „władcą całego świata”. Firmy inwestują miliardy dolarów, aby zapewnić sobie największe udziały na rynku. Symulacje pokazują, że do 2030 roku już około 70 procent firm będzie stosowało jakiś wariant technologii AI. Powód jest prosty. Niezależnie od tego czy AI wykorzystywana jest do modelowania zmian klimatycznych, rekrutacji kandydatów do pracy czy do przewidywania prawdopodobieństwa popełnienia przestępstwa - sztuczna inteligencja nie tylko może zastąpić człowieka, ale podejmie wszystkie te decyzje szybciej i taniej.

A jednak systemy sztucznej inteligencji stanowią zagrożenie dla praw podstawowych. Dajmy na przykład platformy mediów społecznościowych, gdzie działania algorytmów moderujących treści mogą niesłusznie ograniczać wolność słowa, a tym samym wywierać wpływ na debatę publiczną. Technologie stosowane do masowego nadzoru biometrycznego naruszają nasze prawo do prywatności i zniechęcają do uczestnictwa w demokracji. Algorytmy działają w oparciu o potężne ilości danych osobowych - ich zbieranie, przetwarzanie i przechowywanie często łamią nasze prawo do ochrony danych osobowych. Błędy w działaniu algorytmów i tendencyjność wyników mogą utrwalić istniejące już w naszych społeczeństwach nierówności i prowadzić do dalszej alienacji i dyskryminacji grup mniejszościowych. Świetnym przykładem tego typu stronniczości mogą być algorytmy wykorzystywane w procesie zatrudnienia, które najczęściej faworyzują mężczyzn nad kobietami, zwłaszcza jeśli mają biały kolor skóry. Dzieje się tak dlatego, że dane, którymi karmione są algorytmy sugerują im, że "najlepszymi kandydatami" są często biali mężczyźni.

Wyzwania te spotęgowane są jedynie faktem, że sztuczna inteligencja jest skomplikowana i złożona. Nadal nie zdajemy sobie w pełni sprawy ze wszystkich możliwych zagrożeń, które AI może spowodować w naszych społeczeństwach. Jenna Burrell, badaczka z Uniwersytetu Kalifornijskiego, rozróżniła trzy typy nieprzejrzystości systemów AI. Te, które są celowo niejasne, ponieważ firmy lub państwa chcą utrzymać je w tajemnicy. Te, które wynikają z analfabetyzmu technicznego, czyli są zwyczajnie zbyt skomplikowane, aby mogły być zrozumiane przez opinię publiczną. Oraz te, które wynikają ze złożonej charakterystyki procesu uczenia się algorytmów i technologii. Innymi słowy, te, których nawet programiści tak naprawdę nie rozumieją.

Aby zapobiegać i chronić nas przed tymi zagrożeniami, sztuczna inteligencja musi zostać objęta konkretnymi regulacjami. Ustawodawcy na całym świecie nadal nie stworzyli jeszcze przepisów, które konkretnie regulowałyby wykorzystanie sztucznej inteligencji. A to pozostawia firmom nastawionym na zysk wolną drogę do opracowywania systemów, które mogą działać ze szkodą dla obywateli. Niektóre z tych technologii już istnieją i są używane. Po prostu z powodu braku transparentności ze strony władz często nawet o tym nie wiemy. Siły policyjne w całej UE wdrażają technologie rozpoznawania twarzy i predykcyjne systemy policyjne. Jak wyjaśniamy w innym artykule, systemy te są nieuchronnie stronnicze, a tym samym utrwalają dyskryminację i nierówność.

W tym artykule omówimy, dlaczego potrzebujemy przepisów regulujących AI, jaki rodzaj regulacji AI istnieje aktualnie, co powinny zawierać i obejmować te przepisy i w końcu - od czego zależy przyszłość regulacji AI.

Czemu AI musi podlegać przepisom i regulacjom?

Musimy nadzorować użycie sztucznej inteligencji z dwóch powodów. Po pierwsze dlatego, że rządy i firmy wykorzystują sztuczną inteligencję do podejmowania decyzji, które mogą mieć znaczący wpływ na nasze życie. Na przykład algorytmy obliczające wyniki w szkole mogą mieć druzgocący efekt. W Wielkiej Brytanii Sekretarz Stanu ds. Edukacji użył algorytmu do określenia końcowej oceny uczniów w całym kraju. Wynik: prawie 40 proc. uczniów otrzymało niższe oceny niż oceny wystawiane wcześniej przez ich nauczycieli. Ponadto algorytm był nie tylko niedokładny, ale także faworyzował uczniów szkół prywatnych nad publicznymi. Sztuczna inteligencja wykazała również swoje ograniczenia w sektorze prywatnym. W jednym przypadku karta kredytowa wprowadzona przez giganta technologicznego Apple oferowała niższe limity kredytowe dla kobiet, niż dla mężczyzn. Systemy sztucznej inteligencji, które obliczają prawdopodobieństwo recydywy i określają długość wyroków więzienia dla oskarżonych, mogą również znacząco zmienić życie danej osoby. Bez odpowiednich zasad i kontroli istnieje zdecydowanie większe prawdopodobieństwo, że systemy będą niedokładne i stronnicze - firmy mają wtedy mniejszą motywację do inwestowania w środki bezpieczeństwa i zapewnienie jakości i bezstronnego charakteru swoich danych.

Po drugie, ponieważ za każdym razem, gdy ktoś podejmuje decyzję, która nas dotyczy, musi brać za nią odpowiedzialność . Prawa człowieka określają minimalne standardy traktowania, których każdy może oczekiwać. Dają również każdemu prawo do środka zaradczego, gdy te standardy nie są spełnione, i tym samym spotyka go krzywda. Rządy powinny upewnić się, że standardy te są przestrzegane i że każdy, kto je łamie, jest pociągany do odpowiedzialności – zwykle poprzez egzekwowanie prawa administracyjnego, cywilnego lub karnego. Oznacza to, że wszyscy, w tym korporacje i rządy, muszą przestrzegać pewnych zasad podczas podejmowania decyzji. Kiedy ludzie nie przestrzegają uzgodnionych standardów i w ten sposób działają z krzywdą dla kogoś, sprawca musi za to odpowiedzieć. Niestety mnożą się już przykłady, że firmy stojące za sztuczną inteligencją mogą jednak uciec od odpowiedzialności za swoje czyny i problemy, które tworzą. Na przykład, kiedy w 2018 roku autonomiczny samochód Ubera zabił pieszego, początkowo nie było jasne, kto za to odpowie. Czy był to producent samochodu, Uber czy osoba za kierownicą? Chociaż śledczy stwierdzili, że samochód miał problemy z bezpieczeństwem (nie potraktował przechodzącego w niedozwolonym, ciemnym miejscu pieszego jako przeszkodę), korporacja Uber został uznany za „nieponoszącego odpowiedzialności karnej”. Natomiast osoba za kierownicą usłyszała zarzuty nieumyślnego spowodowania śmierci, ponieważ w trakcie zderzenia oglądała odcinek popularnego programu telewizyjnego.

Ile wiemy o obecnych państwowych i regionalnych przepisach w tej kwestii?

Jak wspomniano wcześniej, obecnie nie istnieją jeszcze konkretne przepisy regulujące wykorzystanie i zastosowanie sztucznej inteligencji. Systemy sztucznej inteligencji aktualnie podlegają pod inne obowiązujące przepisy i standardy. Między innymi mowa tu o przepisach dotyczących ochrony danych, ochrony konsumentów i zasad uczciwej konkurencji rynkowej. Przyjęto również ustawy regulujące niektóre konkretne systemy sztucznej inteligencji. W Nowym Jorku firmy wkrótce mogą zostać zmuszone do ujawnienia informacji, czy korzystają z algorytmów w procesach rekrutacyjnych. Kilka miast w USA wprowadziło już zakaz stosowania technologii rozpoznawania twarzy. W UE trwają prace nad projektem Aktu o rynkach cyfrowych, który będzie miał znaczący wpływ na sposoby wykorzystania algorytmów przez platformy internetowe i media społecznościowe. Algorytmy te obecnie służą do klasyfikacji i kontroli publikowanych treści online, tym samym mają za zadanie przewidywać nasze osobiste preferencje i ostatecznie decydują o tym, co czytamy i oglądamy online – znane są również jako algorytmy moderacji treści.

Rządy krajowe i lokalne już kilka lat temu rozpoczęły prace nad nowymi strategiami działań i ustawami, jednak nie uchwalono dotychczas żadnej z tych legislacji. Na przykład Chiny opracowały w 2017 r. strategię, aby w 2030 r. stać się światowym liderem w dziedzinie sztucznej inteligencji. W Stanach Zjednoczonych z kolei Biały Dom ogłosił dziesięć zasad regulujących AI. Obejmują one promowanie „niezawodnych, solidnych i godnych zaufania aplikacji sztucznej inteligencji”, udziału społeczeństwa i rzetelności naukowej. Organy międzynarodowe, których zadaniem jest konsultowanie i doradzanie rządom, takie jak OECD czy Światowe Forum Ekonomiczne, opracowały wytyczne w kwestii etyki stosowania technologii AI. Rada Europy utworzyła Komitet, który ma swoimi działaniami wesprzeć opracowanie ram prawnych dotyczących sztucznej inteligencji.

Jednak najambitniejsza jak dotąd propozycja pochodzi z UE. 21 kwietnia 2021 r. Komisja Europejska przedstawiła projekt nowej ustawy o sztucznej inteligencji. Projekt proponuje, aby zdelegalizować używanie sztucznej inteligencji do pewnych celów ocenianych jako „niedopuszczalne”. Należą do nich technologie rozpoznawania twarzy, systemy sztucznej inteligencji wykorzystywane do oceny wiarygodności społecznej oraz systemy manipulujące ludźmi lub wykorzystujące słabości określonych grup – na przykład zabawka, która poprzez nagrane komunikaty głosowe manipuluje dzieci i nakłania je do niebezpiecznych działań. We wniosku przyjęto podejście oparte na ocenie ryzyka: im większe ryzyko, jakie określone wykorzystanie sztucznej inteligencji stwarza dla naszych wolności, tym więcej obowiązków nakłada się na organ lub firmę w zakresie przejrzystości działania algorytmu i zgłaszania organom regulacyjnym sposobu jego wykorzystania. Choć pozornie może się w takim razie wydawać, że Komisja Europejska traktuje z wystarczającą powagą kwestię regulacji szkodliwego działania systemów sztucznej inteligencji, to w rzeczywistości wniosek przedkłada interesy i biznes ponad prawa podstawowe. Komisja lubi podkreślać, że zabroniła używania technologii rozpoznawania twarzy, jednak wniosek przez nią wydany zawiera niestety potężne luki, które pozwalają korporacjom i władzom nadal z niej korzystać. Co więcej, przymus przejrzystości działania systemów wysokiego ryzyka ma poważną wadę: nadzorowanie, czy sztuczna inteligencja wyrządza szkodę lub stwarza ryzyko, pozostawiono tym samym firmom, które tworzą systemy sztucznej inteligencji. A ponieważ firmy nastawione na zysk są w pierwszej kolejności zainteresowane wypuszczeniem swoich produktów na rynek, prawdopodobnie będą starały się umniejszać ryzyko, które AI może ze sobą nieść.

Co powinno zostać zawarte w przepisach AI?

Aby powstał skuteczny i faktycznie chroniący prawa zbiór przepisów i regulacji użytkowania AI, musi on uwzględnić co najmniej poniższe zabezpieczenia. Po pierwsze, musi zakazać użycia technologii, które naruszają nasze prawa podstawowe, takich jak masowy nadzór biometryczny czy predyktywne systemy policyjne. Zakaz nie powinien uwzględniać wyjątków, które pozwoliłby korporacjom lub władzom publicznym na korzystanie z technologii „pod pewnymi warunkami”.

Po drugie, muszą istnieć jasne zasady określające jakie dokładnie informacje na temat produktów i stosowanych technologii muszą być upubliczniane przez firmy. Przedsiębiorstwa powinny mieć obowiązek przedstawienia szczegółowego opisu samego systemu AI, z którego korzystają. Obejmowałoby to informacje o wykorzystywanych danych, strategii rozwoju i wprowadzaniu ulepszeń, celu systemów oraz o tym przez kogo i w jakich okolicznościach te systemy są faktycznie stosowane. Kluczowe jest również to, aby osoby narażone na działanie sztucznej inteligencji były o tym informowane, na przykład w przypadku stosowania algorytmów zatrudniania. Systemy, które mogą mieć znaczący wpływ na życie ludzi, powinny zostać poddane dodatkowej kontroli i znaleźć się w publicznie dostępnej bazie danych. Zdecydowanie ułatwiłoby to naukowcom i dziennikarzom kontrolę i sprawdzenie, czy firmy i jednostki rządowe w dostatecznym stopniu zapewniają ochronę naszych praw i wolności.

Help us fight for your rights. Donate
Po trzecie, osoby i organizacje chroniące konsumentów muszą być w stanie pociągać do odpowiedzialności rządy i korporacje w przypadku wystąpienia problemów i naruszeń. Istniejące przepisy dotyczące odpowiedzialności należy zaadaptować do sytuacji, w której faktycznym decydentem jest algorytm, a nie użytkownik. Może to oznaczać nałożenie na firmę, która opracowała algorytm, obowiązku sprawdzenia danych, na podstawie których algorytmy są szkolone, oraz przymusu weryfikacji decyzji podejmowanych przez algorytmy w celu rozwiązania problemów.

Po czwarte, nowe przepisy muszą zapewnić, że istnieje organ kontroli, który będzie sprawdzał, czy firmy i władze rzeczywiście przestrzegają zasad. Ta jednostka nadzoru powinna być niezależna oraz mieć wystarczające zasoby i uprawnienia potrzebne do wykonywania swojej pracy.

Wreszcie rozporządzenie w sprawie sztucznej inteligencji powinno również zawierać zabezpieczenia mające na celu ochronę osób najbardziej podatnych na zagrożenia. Powinno się utworzyć system, który umożliwi osobom w jakikolwiek sposób poszkodowanym przez AI złożenie skargi i otrzymanie odszkodowania za poniesioną krzywdę. A pracownicy powinni mieć prawo do podejmowania działań przeciwko inwazyjnym systemom sztucznej inteligencji używanym przez ich pracodawcę bez obawy przed odwetem ze strony pracodawcy.

Od czego zależy przyszłość regulacji sztucznej inteligencji?

Kiedy UE uchwali przepisy dotyczące sztucznej inteligencji, prawdopodobnie ustali ona tym samym standardy dla reszty świata ze względu na wszystkie firmy, które działają i mają siedzibę w UE. Tym samym, Unia Europejska bierze na siebie dużą odpowiedzialność i musi wykonać swoje zadanie solidnie, ponieważ przepisy te wpłyną na sposób korzystania z systemów AI również w mniej demokratycznych częściach świata. Na przykład algorytmy, które twierdzą, że są w stanie przewidzieć orientację seksualną danej osoby, mogą wydawać jednocześnie wyrok śmierci w krajach, w których bycie gejem jest nadal prawnie karane egzekucją.

Teraz zadaniem decydentów i przywódców UE jest opracowanie zasad, które poprawią jakość naszego życia i będą działać w ochronie równości. Zastosowanie AI może być kuszące dla wielu negocjatorów UE, ponieważ wierzą oni, że sztuczna inteligencja może przynieść oszczędności w wielu sektorach lub pobudzić gospodarkę. Jeśli jednak będziemy iść na skróty w usługach publicznych lub zaczniemy korzystać z AI tam, gdzie nie przynosi ona korzyści społecznych, doprowadzi to do zniszczenia naszego stylu życia i cenionych przez nas wolności. UE musi sobie zadać pytanie, w jaki sposób nasze społeczeństwa mogą z korzyścią stosować sztuczną inteligencję, tak aby przede wszystkim chronić i dbać o nasze prawa i wolności.

Liberties o AI w mediach:

Reuters: Money, mimicry and mind control: Big Tech slams ethics brakes on AI

France24: EU unveils AI rules to temper Big Brother fears


Donate to liberties

Your contribution matters

As a watchdog organisation, Liberties reminds politicians that respect for human rights is non-negotiable. We're determined to keep championing your civil liberties, will you stand with us? Every donation, big or small, counts.

We’re grateful to all our supporters

Your contributions help us in the following ways

► Liberties remains independent
► It provides a stable income, enabling us to plan long-term
► We decide our mission, so we can focus on the causes that matter
► It makes us stronger and more impactful

Your contribution matters

As a watchdog organisation, Liberties reminds politicians that respect for human rights is non-negotiable. We're determined to keep championing your civil liberties, will you stand with us? Every donation, big or small, counts.

Subscribe to stay in

the loop

Why should I?

You will get the latest reports before everyone else!

You can follow what we are doing for your right!

You will know about our achivements!

Show me a sample!