PE podjął decyzję w sprawie AI Act

artykul

AI Act to pierwszy dokument na szczeblu unijnym, który w sposób kompleksowy ma regulować najważniejsze kwestie dotyczące sztucznej inteligencji. Mimo wzmożonej aktywności organizacji społecznych, nie udało się przyjąć zmian zwiększających ochronę przed negatywnymi konsekwencjami wykorzystania AI. Mimo to przyjęta przez PE wersja ustawy odpowiada postulatom wypracowanym podczas prac komisji IMCO i LIBE.

AI Act z manadatem negocjacyjnym

Ustawa o sztucznej inteligencji (AI Act) to pierwsza na świecie kompleksowa regulacja prawna dotycząca zarządzania ryzykiem związanym ze sztuczną inteligencją oraz promowania zastosowań AI (zgodnych z wartościami UE), właczając w to takie kwestie jak nadzór nad ludźmi, prawo do prywatności czy niedyskryminację. AI Act przyjmuje logikę opartą na analizie ryzyka: pewne systemy AI mają być zakazane, inne traktowane jako wysokiego ryzyka i poddane specjalnym wymogom prawnym i technicznym (w tym ocenie ryzyka dla praw podstawowych ludzi). W przypadku popularnych chatbotów czy tzw. generatywnej AI wprowadza się z kolei obowiązek informowania ludzi o tym, że mają do czynienia z „produktem” wygenerowanym przez AI.

W środę w południe posłowie PE zagłosowali nad projektem mandatu negocjacyjnego, przygotowanego przez komisje ds. rynku wewnętrznego (IMCO) i wolności obywatelskich (LIBE). Proponowane przez komisje IMCO i LIBE przepisy uzupełniono o kilka postulatów. Posłowie zaapelowali bowiem m.in. o rozszerzenie listy zakazanych praktyk AI o zdalne systemy identyfikacji biometrycznej "w czasie rzeczywistym", systemy predykcji kryminalnej czy systemy rozpoznawania emocji oraz zastosowania wysokiego ryzyka (w systemach rekomendacji i wpływania na wyborców). Dodano również szczegółowe przepisy dotyczące przejrzystości i bezpieczeństwa w odniesieniu do modeli fundamentalnych i generatywnych systemów sztucznej inteligencji (takich jak ChatGPT).

Unijna ustawa o sztucznej inteligencji w świetle podstawowych praw człowieka

Przyjmując AI Act posłowie PE nie zdecydowali się na wprowadzenie całkowitego zakazu tzw.  inwigilacji biometrycznej w przestrzeni publicznej ani na przyznanie prawa do uzyskania wyjaśnienia osobom poszkodowanym decyzją podjętą z udziałem AI, niezależnie od kategorii systemu. Były to jedne z głównych postulatów wysuwanych przez organizacje społeczne. Należy jednak podkreślić, że unijna ustawa o sztucznej inteligencji zawiera  szereg przepisów, które zapewnią skuteczną ochronę obywateli UE przed największymi zagrożeniami związanymi z wykorzystywaniem systemów opartych na AI. Przede wszystkim głosując nad AI Act europosłowie utrzymali wersję zakazującą predykcji kryminalnej. Oznacza to brak możliwości posługiwania się algorytmami AI w ocenie, jakie jest ryzyko, że dana osoba popełni przestępstwo. Ponadto organy ścigania, służby graniczne, pracodawcy i instytucje oświatowe nie będą mogły korzystać z  systemów opartych na rozpoznawaniu emocji. Zakazana będzie również biometryczna kategoryzacja osób, czyli profilowanie na podstawie cech wyglądu czy sposobu poruszania się.

Unijna ustawa o sztucznej inteligencji ogranicza także stosowanie tzw. inwigilacji biometrycznej w czasie rzeczywistym. W toku prac nad projektem ustawy, tuż przed głosowaniem w PE, pojawił się również postulat Europejskiej Partii Ludowej dotyczący przyjęcia poprawki umożliwiającej rządom wprowadzanie inwigilacji biometrycznej w czasie rzeczywistym. Takiej koncepcji nie poparli europosłowie, podobnie zresztą jak forsowanej przez organizacje społeczne koncepcji całkowitego zakazu stosowania tego typu systemów. W rezultacie inwigilacja biometryczna będzie dopuszczalna – ale jedynie w wyjątkowych sytuacjach i za zgodą sądu.

>>Czytam więcej artykułów w: Sztuczna Inteligencja

Definicja AI i systemy wysokiego ryzyka także uległy zmianom

Przyjęta wersja AI Act zawiera definicję, którą zwykło sie już postrzegać jako bardziej precyzyjną i odporną na zmiany technologiczne. Pojęcie "sztuczna inteligencja” ma być używane w celu określenia programu komputerowego, który np. zamiast wykonywać listę dokładnych instrukcji wykorzystuje zaawansowane modele statystyczne do tego, żeby rozwiązać zadanie. Ponadto przyjęto również przepisy dedykowane tzw. modelom podstawowym (takim jak np. GPT czy Bard), które, aby móc funkcjonować w Europie, będą musiały być  tworzone i działać zgodnie z naszym prawem m.in. w zakresie prywatności, zakazu dyskryminacji czy praw autorskich.

Szczególne uznanie należy się również przepisom zwiększającym kontrolę nad systemami AI wysokiego ryzyka. Podmioty wykorzystujące takie systemy będą musiały dokonać oceny ich działania pod kątem wpływu na prawa podstawowe. Oparte na AI systemy wysokiego ryzyka stosowane przez  administrację publiczną i wielkie platformy oraz systemy wykorzystywane w więcej niż jednym kraju będą  rejestrowane w unijnej bazie prowadzonej przez Komisję Europejską. Pozostałe systemy wysokiego ryzyka będą rejestrowane w krajowych bazach. Z kolei krajowe organy nadzorcze ds. AI będą mogły dokonywać niezapowiedzianych kontroli.

Warto również podkreślić, że przyjęte przepisy zakładają, iż osoby, których prawa zostaną naruszone decyzją wydaną z wykorzystaniem AI, będą mogły wnieść skargę do krajowego organu ds. AI, a  także zaskarżyć decyzję (lub bezczynność) takiego organu do sądu. W przypadku systemów wysokiego ryzyka – osoby te będą mogły uzyskać szczegółowe wyjaśnienie decyzji w swojej sprawie. Niestety prawo do wyjaśnienia decyzji podjętej z udziałem AI ograniczone będzie wyłącznie do działania systemów wysokiego ryzyka, zatem nie będzie przysługiwało w przypadku pozostałych modeli i programów AI.

Jakich zmian w AI Act domagają się organizacje społeczne?

Choć przyjęta przez PE wersja ustawy o sztucznej inteligencji zasługuje na pozytywną ocenę, to pozostaje jeszcze szereg słusznych postulatów, których wprowadzenie w formie konkretnych przepisów zwiększyłoby bezpieczeństwo obywateli. Przed głosowaniem w PE organizacje postulowały bowiem m.in. o:

- większe zaangażowanie organizacji społecznych w ochronę ludzi (apelowano o przyznanie organizacjom możliwości reprezentowania osób, które zostały pokrzywdzone decyzjami podjętymi z udziałem sztucznej inteligencji oraz prawa do występowania przeciwko systemom AI także przed tym, jak wyrządzą realne szkody).
- prawo do każdorazowego wyjaśnienia decyzji podjętej przy pomocy AI (także w przypadku systemów innych niż systemy wysokiego ryzyka).
- pełny zakaz inwigilacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej.
- obowiązek rejestrowania wszystkich systemów wysokiego ryzyka w unijnej bazie.

Czas na negocjacje trójstronne

Głosowaniu w Parlamencie Europejskim było niezbędnym elementem przystąpienia do negocjacji trójstronnych, w których udział wezmą Komisja Europejska, Parlament i Rada Unii Europejskiej. Dopiero w efekcie tych negocjacji poznamy ostateczną treść AI Act.

 

 

Źródło:

- Artificial Intelligence Act: press conference 14/6 at 13.30 CEST with President and co-rapporteurs, https://www.europarl.europa.eu/news/pl/press-room/
- Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa, https://panoptykon.org/akt-o-uslugach-cyfrowych-po-glosowaniu-w-europarlamencie

 

Treści publikowane w serwisie internetowym PlanetaPrawo.pl mają charakter informacyjno-edukacyjny. Nie stanowią one porad prawnych i nie zastępują profesjonalnej pomocy prawnej. Administrator nie ponosi odpowiedzialności za jakiekolwiek skutki związane z ich wykorzystywaniem. Wszelkie prawa zastrzeżone – powołując się na publikację podaj źródło. Wykorzystywanie zawartości serwisu internetowego PlanetaPrawo.pl jako danych treningowych AI jest zabronione.

Korzystając z naszych usług akceptujesz postanowienia Regulaminu oraz Polityki prywatności. Strona wykorzystuje pliki cookie. Możesz zarządzać plikami cookie poprzez modyfikację ustawień przeglądarki, z której korzystasz.

Przechodzę dalej