Nowe technologie i prawa człowieka

​System rozpoznawania twarzy stanowi zagrożenie dla praworządnych obywateli

W całej Europie stosowanie systemu rozpoznawania twarzy staje się coraz bardziej powszechne. Osobami, które najwięcej na tym tracą wcale nie są przestępcy, ale praworządni obywatele.

prez Jonathan Day

Uśmiechnij się. Jesteś w ukrytej kamerze.

Na stacji kolejowej Südkreuz na Berlińczyków czeka niemal orwellowska niespodzianka. Rząd testuje tam nowy system rozpoznawania twarzy. To najnowszy przykład wykorzystania tej, szeroko stosowanej już na całym świecie, technologii w Europie.

Jednak pomimo powszechnego stosowania tej technologii, system rozpoznawania twarzy działa w legalnej szarej strefie. Ponieważ pojawia się coraz więcej skarg dotyczących masowej inwigilacji, sądy coraz częściej stają po stronie praw człowieka i ograniczają stosowanie takich taktyk policyjnych, jak system rozpoznawania twarzy.

Ostatnia taka decyzja została podjęta w tym miesiącu przez Europejski Trybunał Praw Człowieka, który orzekł, że system masowego nadzoru w Wielkiej Brytanii narusza prawa podstawowe.

Nic nowego

System rozpoznawania twarzy wykorzystuje kamery o wysokiej rozdzielczości do przechwytywania twarzy przechodniów w miejscach publicznych, a następnie wykonuje zdjęcia i porównuje je z obrazami z baz danych - np. zdjęciami wykonanymi podczas aresztowań. Następnie system dodaje do baz danych nowe obrazy, niezależnie od tego, czy dana osoba została dopasowana do istniejącego zdjęcia.

Właściwie system rozpoznawania twarzy sięga lat 60. Jeden z najwcześniejszych systemów, opracowany przez Bell Labs w Stanach Zjednoczonych, wykorzystywał do rozpoznawania twarzy takie cechy, jak wysunięte ucho czy długość nosa. Pierwszy zautomatyzowany system został wdrożony w 1973 roku, ale był wyjątkowo niewiarygodny: wszystko, co musiał zrobić podejrzany to założyć okulary, a współczynnik powodzenia spadał z 75 proc. do mniej niż 3 proc.

Nowsze systemy są znacznie bardziej dokładne, ale funkcjonują w coraz mniej przejrzysty sposób, ponieważ zarówno rządy, jak i firmy opracowują własne zastrzeżone systemy. Jednak nawet jeśli współczynnik powodzenia wyniesie powyżej 97 proc., jak twierdzi np. Facebook, nadal każdego dnia będzie produkować wyjątkowo wysoką liczbę fałszywie dodatnich wyników - tysiące, a nie setki - jeśli system jest używany w.ruchliwych miejscach publicznych.

Pamiętaj, że za każdym razem, gdy system znajdzie dopasowanie, policja musi poświęcić czas i zasoby, aby sprawdzić, czy tym razem nie jest to w rzeczywistości fałszywy alarm (uwaga spoiler: prawie na pewno jest). Policja bierze to na siebie, ale i tak powinniśmy się tym przejmować. Każda minuta, którą poświęcają na tropienie fałszywych trafień, sprawia, że każdy z nas jest mniej bezpieczny.

Jak dobrze działają obecne systemy?

Stosowanie systemu rozpoznawania twarzy staje się w Europie coraz bardziej powszechne. Używano go np. podczas finału Ligi Mistrzów w 2017 r. w Walii, gdzie odnotowano aż 2297 fałszywych wyników - system uznał, że prawie 3 tys. osób było podejrzanych o terroryzm, ale tak naprawdę byli to po prostu pijani kibice piłki nożnej. Budzili postrach, pewnie, ale nie byli terrorystami.

Również w Wielkiej Brytanii policja w Południowej Walii używała systemu rozpoznawania twarzy od maja 2017 do marca 2018 r. Jak poszło? System zidentyfikował 2685 osób jako podejrzanych o terroryzm, ale 2451 zidentyfikowano błędnie. To oszałamiający wskaźnik niepowodzenia.

Wróćmy do Berlina, gdzie w ciągu tego roku intensywnie używano systemu rozpoznawania twarzy. Podczas jedynej przeprowadzonej próby systemu na stacji Südkreuz, 300 ochotników zgłosiło swoje zdjęcia i zgodziło się przejść przez stację. System całkowicie przeoczył kilku ochotników, a odsetek wyników fałszywie dodatnich wyniósł 0,3 proc. Mało? Nie.

Jak powiedziała Kerstin Demuth, rzeczniczka grupy Digitalcourage zajmującej się ochroną danych, "Osobiście uważam, że to katastrofalny rezultat." I ma rację. Wyobraź sobie duży węzeł komunikacyjny, przez który każdego dnia przejeżdża 100 tys. osób. Odsetek wynoszący 3 proc. przekłada się na 300 fałszywych wyników każdego dnia.

I robi się coraz gorzej. O ile technologia ta jest wykorzystywana jako uzupełnienie obecnych praktyk policyjnych - *chrząknięcie* profilowania rasowego *chrząknięcie* - szczególnie kłopotliwe jest to, że technologia rozpoznawania twarzy działa jeszcze gorzej, kiedy ma do czynienia z osobami o ciemniejszym kolorze skóry. Ale pomimo błędów, system rozpoznawania twarzy jest wdrażany przez organy ścigania na całym świecie, a to tylko kwestia czasu, zanim bez naszej wiedzy znajdziemy się w bazach danych. W rzeczywistości, badanie przeprowadzone przez Georgetown Law School w Stanach Zjednoczonych w 2016 r. wykazało, że nawet połowa dorosłych Amerykanów jest już w bazie danych rozpoznawania twarzy.

Dlaczego to dla Ciebie istotne

Dlaczego miałbyś się tym przejmować? Dlaczego miałoby Cię to obchodzić? Prywatność jest podstawowym prawem każdego człowieka i nikt nie powinien jej nigdy poświęcać bez uzasadnionej przyczyny lub zgody. System rozpoznawania twarzy zdecydowanie narusza naszą prywatność, a my nawet o tym nie wiemy. I prawdopodobnie nie jest to nawet zgodne z prawem.

Bezpieczeństwo jest ważne. To jeden z powodów, dla których łączyliśmy się we wspólnoty. Ale generalnie, podejrzany system nadzoru nie czyni nas bezpieczniejszymi. W rzeczywistości jesteśmy coraz mniej bezpieczni. Wszystkie te fałszywe alarmy zmuszają organy ścigania do poświęcenia cennego czasu i zasobów na polowanie na pijanych kibiców Realu Madryt na obrzeżach Cardiff. Istnieje wiele lepszych alternatyw dla systemu masowego nadzoru.

Jeśli sprzeciwiasz się niekontrolowanemu stosowaniu systemu rozpoznawania twarzy, nie jesteś sam. Protesty przeciwko jego użyciu odbyły się już w wielu europejskich miastach - ostatnio 30 tys. osób wzięło udział w demonstracji w Monachium - ponieważ ludzie dbają o swoją prywatność, szczególnie gdy zagraża jej taki wybrakowany system. Wielki Brat nie puka do drzwi - właśnie wygodnie rozgaszcza się u siebie w domu.

Aby dołączyć do innych, którzy sprzeciwiają się masowej inwigilacji i atakom na naszą prywatność, udostępnij nasze wideo i poproś znajomych, aby zrobili to samo.