UE ogranicza zastosowanie sztucznej inteligencji (AI)

artykul

Na forum UE trwają prace nad unijną regulacją sztucznej inteligencji. Swoje poprawki do AI Act przyjęły już komisje IMCO i LIBE. Zakładają one m.in. ograniczenie zastosowania sztucznej inteligencji w określonych obszarach.

Lista zakazanych zastosowań AI

Europosłowie zasiadający w komisjach handlu międzynarodowego (IMCO – Internal Market Committee) i wolności obywatelskich (LIBE – Civil Liberties Committee) rozszerzyli listę zakazanych zastosowań sztucznej inteligencji. W porównaniu z pierwszą wersją aktu o sztucznej inteligencji (AI Act), zdecydowanie poszerzono ramy niedozwolonego wykorzystania AI, bowiem od teraz wykorzystanie sztucznej inteligencji będzie niemożliwe w celu:

-    biometrycznej identyfikacji osób w czasie rzeczywistym w miejscach dostępnych publicznie;
-   biometrycznej identyfikacji osób ex post (następcza) – ograniczenie nie dotyczy organów ścigania w przypadkach najpoważniejszych przestępstw i pod warunkiem uzyskania zgody sądu;
-   biometrycznej kategoryzacji osób na podstawie wrażliwych cech, indywidualnych i grupowych,  takich jak płeć, rasa, pochodzenie etniczne, narodowość i obywatelstwo, wyznanie czy poglądy polityczne;
-  tzw. predykcji kryminalnej - chodzi o systemy umożliwiające profilowanie potencjalnych sprawców przestępstw, wykorzystujące dane o zachowaniach, cechach czy dane geolokalizacyjne;

Niedopuszczlane będzie również korzystanie z systemów rozpoznawania emocji, używanych m.in. w pracy, szkolnictwie migracji czy w celach związanych ze zwalczaniem przestępczości. Zakazane mają być też aplikacje oparte na masowym pozyskiwaniu danych z Internetu czy kamer monitoringu wizyjnego, które - zdaniem europosłów - naruszają prawa człowieka i prawo do prywatności.

Czym jest AI Act?

AI Act, czyli "unijna ustawa o sztucznej inteligencji", to rozporządzenie, które w sposób kompleksowy ma uregulować kwestie sztucznej inteligencji na płaszczyźnie normatywnej.  Zakłada ono między innymi podział AI na tzw. poziomy ryzyka, jakie technologia ta może rodzić dla podstawowych praw i wolności. W ramach podziału wyróżnia się systemy "niedopuszczalnego ryzyka", systemy "wysokiego ryzyka" (np. narzędzia do analizy CV w celu klasyfkacji kandydatów w toku rekrutacji) oraz systemy, które nie zostały "zakazane ani przypisane do kategorii wysokiego ryzyka".

W ramach prac komisji europosłowie rozszerzyli klasyfikację obszarów wysokiego ryzyka o szkody dla zdrowia ludzi, bezpieczeństwa, praw podstawowych oraz środowiska. Do listy wysokiego ryzyka dodali również systemy sztucznej inteligencji, które mogą wpływać na wyborców w kampaniach politycznych.

Teraz projektem zajmie się PE podczas czerwcowej sesji w dniach 12 - 15 czerwca. Następnym krokiem będą negocjacje trójstronne, w ramach których wspólny, ostateczny już tekst rozporządzenia ustalą między sobą Parlament Europejski, Rada Unii Europejskiej oraz Komisja Europejska.

 

 

Czytam więcej artykułów w: Sztuczna Inteligencja

 

Źródło:

- AI Act: a step closer to the first rules on Artificial Intelligence, https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

- What is the EU AI Act?, https://artificialintelligenceact.eu/

 

Treści publikowane w serwisie internetowym PlanetaPrawo.pl mają charakter informacyjno-edukacyjny. Nie stanowią one porad prawnych i nie zastępują profesjonalnej pomocy prawnej. Administrator nie ponosi odpowiedzialności za jakiekolwiek skutki związane z ich wykorzystywaniem. Wszelkie prawa zastrzeżone – powołując się na publikację podaj źródło. Wykorzystywanie zawartości serwisu internetowego PlanetaPrawo.pl jako danych treningowych AI jest zabronione.

 

Korzystając z naszych usług akceptujesz postanowienia Regulaminu oraz Polityki prywatności. Strona wykorzystuje pliki cookie. Możesz zarządzać plikami cookie poprzez modyfikację ustawień przeglądarki, z której korzystasz.

Przechodzę dalej