Organizacje praw człowieka apelują do UE o zakaz biometrycznej inwigilacji przez AI

artykul

Ważą się losy pierwszego unijnego dokumentu dotyczącego sztucznej inteligencji i jej wykorzystania. Organizacje praw człowieka chcą, by PE podtrzymał zakaz stosowania systemów biometrycznych.

Akt o AI w Parlamencie Europejskim

Akt o AI to rozporządzenie, które w sposób kompleksowy ma uregulować kwestie sztucznej inteligencji na płaszczyźnie normatywnej.  Zakłada ono między innymi podział AI na tzw. poziomy ryzyka, jakie technologia ta może rodzić dla podstawowych praw i wolności. W ramach podziału wyróżnia się systemy "niedopuszczalnego ryzyka", systemy "wysokiego ryzyka" (np. narzędzia do analizy CV w celu klasyfkacji kandydatów w toku rekrutacji) oraz systemy, które nie zostały "zakazane ani przypisane do kategorii wysokiego ryzyka".

W ramach prac komisji IMCO i LIBE europosłowie rozszerzyli klasyfikację obszarów wysokiego ryzyka o szkody dla zdrowia ludzi, bezpieczeństwa, praw podstawowych oraz środowiska. Do listy wysokiego ryzyka dodali również systemy sztucznej inteligencji, które mogą wpływać na wyborców w kampaniach politycznych. Co również istotne, komisje wypracowały kompromis, zgodnie z którym regulacja miała m.in. zakazywać biometrycznej inwigilacji. Użycie takiej technologii mogłoby być tylko w wyjątkowych sytuacjach dopuszczone przez sąd. Okazuje się jednak, że podczas sesji PE, europosłowie muszą pochylić się nad poprawką zaproponowaną przez członków Europejskiej Partii Ludowej, którzy chcą umożliwić stosowanie inwigilacji biometrycznej w „wyjątkowych sytuacjach” rządom krajów członkowskich – także na mocy decyzji administracyjnej, czyli - jak alarmują organizacje pozarządowe - bez konieczności uzyskania zgody sądu.

Wątpliwości organizacji praw człowieka w kontekście wykorzystywania AI w procesie identyfikacji biometrycznej

Wskazuje się, że systemy wykorzystujące zdalną identyfikację biometryczną (RBI – remote biometric identification) nadają się do rozpoznawania i śledzenia konkretnych osób w przestrzeni publicznej, np. na ulicach, dworcach, lotniskach, w centrach handlowych. Ich sprawne działanie wymaga zgromadzenia jak największej ilości danych, co w praktyce oznacza nie tylko wykorzystywanie danych osób podejrzanych, ale wszystkich obywateli, bowiem tylko wówczas system jest zdolny rozpoznawać określone wzorce w ludzkich zachowaniach. Jednocześnie podkreśla się, że systemy rozpoznawania twarzy, jak każde narzędzie oparte na sztucznej inteligencji (AI), popełniają błędy. Błąd w takim przypadku oznacza jednak niesłuszne oskarżenie danej osoby o poważne przestępstwo czy akt terroryzmu.

Dlaczego identyfikacja biometryczna wzbudza takie zaniepokojenie?

Jak wskazuje Fundacja Panoptykon (organizacja pozarządowa  której celem jest ochrona podstawowych wolności wobec zagrożeń związanych z rozwojem współczesnych technik), algorytmiczny monitoring narusza prawa obywatelskie. Wśród zarzutów pojawia się między innymi naruszenie zasady niedyskryminacji. Fundacja podaje, że wykrywanie „nietypowych zdarzeń” oznacza, że przestrzeń i przebywające w niej osoby będą bez przerwy monitorowane - ich wizerunek, cechy fizjonomii, zachowanie, pozycja ciała, gesty.  Wszystko to będzie poddane analizie. Na ryzyko z tym związane narażone są przede wszystkim osoby, które spędzają w tej przestrzeni najwięcej czasu, np. osoby bezdomne, ubogie, osoby z niepełnosprawnością (o ironio – w końcu mówimy o paraolimpiadzie). Ponadto, według przeprowadzonych  badań (Face Recognition Vendor Test (FRVT), Part 3: Demographic Effects) czynniki takie jak pochodzenie czy kolor skóry również wpływają na wskaźnik fałszywych wskazań pozytywnych, zwiększając go od 10 do nawet 100 razy. Pokrzywdzone są także kobiety, w przypadku których wskaźnik false positives jest od 2 do 5 razy większy niż w przypadku mężczyzn. Jak wskazuje Fundacja, istnieją także dowody na to, że użycie systemów algorytmicznych do zwalczania przestępczości kończy się nadmiarowymi interwencjami policji, strukturalną dyskryminacją i nadmierną kryminalizacją mniejszości etnicznych i religijnych. W ten sposób naruszona zostaje więc zasada niedyskryminacji – jedna z najważniejszych dla współczesnego systemu ochrony praw człowieka.

Fundacja obawia się także, że wprowadzenie szerokiego marginesu zastosowania modelu identyfikacji opartej na AI sprawi, że w Europie dojdzie do sytuacji znanych nam chociązby z Indii czy Chin. Panoptyon przywołuje w tym miejscu kazus hinduskiej policji, która zakupiła kamery z systemem rozpoznawania twarzy w celu poszukiwania zaginionych dzieci. Jak przyznał jednak premier Narendra Modi, obecnie kamery są wykorzystywane do filmowania protestów i identyfikacji osób podejrzewanych „o naruszenie porządku”. Podobnie rzecz się ma w Państwie Środka. Zdaniem Fundacji, najbardziej uderzający przypadek materializacji zagrożeń związanych ze stosowaniem systemów rozpoznawania twarzy mogliśmy obserwować podczas długotrwałych protestów w Hongkongu, gdzie zastosowano tysiące kamer, które dziś służą do rozpoznawania uczestników antyrządowych protestów. Niestety również w Polsce pojawiły się doniesienia o wykorzystywaniu kamer wyposażonych w funkcje rozpoznawania twarzy przez ABW - wskazuje Panoptykon.

Postulat większej ochrony praw człowieka

W związku z nadchodzącym głosowaniem, postuluje się by PE wyraził
   

a) poparcie dla kompromisu, jaki wypracowały komisje IMCO i LIBE,
b) poparcie dla innych potrzebnych poprawek. Chodzi m.in. o:

- wydłużenie listy zakazanych zastosowań AI (np. o wykorzystanie biometrii w polityce migracyjnej),
- szersze prawo do wyjaśnienia dla osób poddanych działaniu AI,
- umożliwienie organizacjom społecznym występowania w interesie publicznym i w imieniu osób, których prawa zostały naruszone.

Warto również odnotować, że dotychczas 38 organizacji społecznych z całej Europy podpisało list otwarty, w którym postulują powszechny zakaz stosowania monitoringu automatycznie. Głosowanie nad Aktem o AI odbędzie się na posiedzeniu, wyznaczonym w dniach 12 - 15 czerwca. 

 

Czytam więcej artykułów w: Sztuczna Inteligencja

 

Źródło:

- Czy europosłowie i europosłanki zagłosują przeciwko biometrycznej inwigilacji? , https://panoptykon.org/glosowanie-ai-act-biometria
- Igrzyska w Paryżu: monitoring na dopingu , https://panoptykon.org/paryz-igrzyska-olimpijskie-2024
- Patrick Grother, Mei Ngan, Kayee Hanaoka, Face Recognition Vendor Test (FRVT). Part 3: Demographic Effects, 2019, https://doi.org/10.6028/NIST.IR.8280

 

Treści publikowane w serwisie internetowym PlanetaPrawo.pl mają charakter informacyjno-edukacyjny. Nie stanowią one porad prawnych i nie zastępują profesjonalnej pomocy prawnej. Administrator nie ponosi odpowiedzialności za jakiekolwiek skutki związane z ich wykorzystywaniem. Wszelkie prawa zastrzeżone – powołując się na publikację podaj źródło. Wykorzystywanie zawartości serwisu internetowego PlanetaPrawo.pl jako danych treningowych AI jest zabronione.

Korzystając z naszych usług akceptujesz postanowienia Regulaminu oraz Polityki prywatności. Strona wykorzystuje pliki cookie. Możesz zarządzać plikami cookie poprzez modyfikację ustawień przeglądarki, z której korzystasz.

Przechodzę dalej