Sztuczna inteligencja w administracji publicznej

Sztuczna inteligencja w administracji publicznej

Źródło grafiki: https://pixabay.com/illustrations/face-human-polygons-network-4776910/

AI w urzędach przestała być utopijną wizją przyszłości. Przedmiotem debaty staje się natomiast model wdrażania sztucznej inteligencji w administracji.

Jak sztuczna inteligencja zmienia administrację publiczną

Do 2023 roku co najmniej 80 proc. podmiotów realizujących zadania publiczne będzie korzystać z  AI (np. inteligentne systemy wsparcia decyzji, chatboty czy rozszerzone bazy wiedzy). Oznacza to, że sztuczna inteligencja staje się składową procesów administracyjnych, co generuje konieczność umiejętnego i odpowiedzialnego wykorzystywania dostępnych narzędzi przez samych urzędników. W Polsce kierunki rozwoju AI określa „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020” , przyjęta uchwałą Rady Ministrów nr 196 z dnia 28 grudnia 2020 r. Obecnie trwają jednak prace nad aktualizacją strategii w postaci dokumentu pt. „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” . Projektowany dokument zakłada m.in. poprawę jakości usług publicznych, skrócenie czasu obsługi spraw i odciążenie urzędników w ich codziennej pracy.

Choć rozwój sztucznej inteligencji zdecydowanie wyprzedził stworzenie właściwych ram prawnych dla jej funkcjonowania, to wspomnieć należy, że dziś stosowanie systemów sztucznej inteligencji w administracji publicznej regulują dwa akty normatywne: unijne rozporządzenie o sztucznej inteligencji (AI Act) oraz ogólne rozporządzenie o ochronie danych (RODO). Powyższe określają między innymi, jakie zastosowania AI są całkowicie zakazane, kiedy system AI wymaga szczególnych zabezpieczeń oraz jakie prawa przysługują obywatelom wobec zautomatyzowanych decyzji.

Ryzyko wynikające z zastosowania AI w administracji

Wskazuje się, że systemy AI coraz częściej podejmują lub wspierają decyzje wpływające na życie ludzi: od rekomendacji kredytowych, przez selekcję kandydatów do pracy, po ocenę wniosków o świadczenia publiczne. Trudno przy tym ukryć fakt, że część z tych zastosowań wiąże się bezośrednio z poważnym ryzykiem dyskryminacji, manipulacji lub naruszenia prywatności

Narzędzia AI "przydatne" w administracji publicznej zaliczane są do systemów wysokiego ryzyka. Do systemów sztucznej inteligencji wysokiego ryzyka zalicza się bowiem te zastosowania, które mogą istotnie wpływać na zdrowie, bezpieczeństwo lub prawa podstawowe obywateli. Chodzi przede wszystkim o sytuacje, w których błąd systemu lub jego niewłaściwe użycie może realnie zaważyć na czyimś życiu, dostępie do usług albo przebiegu kariery.

Do systemów wysokiego ryzyka zaliczamy:

• systemy AI wykorzystywane jako element bezpieczeństwa w infrastrukturze krytycznej, na przykład w transporcie, gdzie awaria może skutkować wypadkami i zagrożeniem dla życia,
• rozwiązania, które wpływają na dostęp do nauki, takie jak systemy automatycznego oceniania egzaminów czy selekcji kandydatów na studia,
• komponenty bezpieczeństwa produktów medycznych i innych wyrobów, w których AI wspiera wykonywanie wrażliwych procedur, na przykład w chirurgii,
• narzędzia używane przy rekrutacji, ocenie pracowników i decyzjach kadrowych, w tym oprogramowanie do filtrowania i sortowania CV, 
• systemy służące do oceny zdolności kredytowej lub przyznawania kluczowych usług, jeżeli od ich wyniku zależy dostęp do ważnych świadczeń finansowych lub publicznych,
• rozwiązania wykorzystujące zdalną identyfikację biometryczną, rozpoznawanie emocji oraz kategoryzację biometryczną, w tym systemy umożliwiające identyfikację osoby na podstawie nagrań wideo,
• systemy używane w działalności organów ścigania, które mogą wpływać na prawa i wolności jednostki, na przykład narzędzia wspierające ocenę wiarygodności dowodów,
• zastosowania w obszarze migracji, azylu i ochrony granic, w tym narzędzia wspierające rozpatrywanie wniosków wizowych i pobytowych,
• systemy wspierające pracę sądów oraz procesy demokratyczne, na przykład narzędzia pomagające przygotowywać projekty orzeczeń lub materiały decyzyjne.

Należy podkreślić, że stosowanie powyższych systemów nie jest zakazane. Jednak AI Act przewiduje znacznie surowsze wymagania przed ich wdrożeniem i w trakcie ich eksploatacji. Obejmują one między innymi: konieczność przeprowadzenia oceny i ograniczania ryzyk, stosowanie wysokiej jakości danych, aby zmniejszyć ryzyko dyskryminacji, prowadzenie rejestrów działania systemu, przygotowanie szczegółowej dokumentacji technicznej, przekazanie jasnych informacji podmiotowi wdrażającemu, zapewnienie realnego nadzoru człowieka oraz wysoki poziom odporności, bezpieczeństwa i dokładności systemu.

W jakim stopniu sztuczna inteligencja może zastąpić urzędników?

Możliwości zastosowania sztucznej inteligencji zdają się być szerokie. W obszarze administracji publicznej system AI może więc przygotować projekt decyzji administracyjnej czy wstępną ocenę sprawy, na podstawie której urzędnik dokona dalszych czynności.. Dlatego też wydaje się niezbędne, aby zakres czynności dokonywanych przez sztuczną inteligencji został należycie udokumentowany oraz byl wiadomy stronie w  postępowaniu administracyjnym. Systemy AI powinny być zatem wykorzystywane przede wszystkim do czynności pomocniczych, takich jak wstępna analiza dokumentów, klasyfikacja pism, porządkowanie spraw czy streszczanie obszernych materiałów. Jednkaże wyniki działania sztucznej inteligencji wymagają każdorazowo merytorycznej weryfikacji przez wykwalifikowanego urzędnika. 

Jak sami urzędnicy postrzegają sztuczną inteligencję?

Na koniec warto zwrócić uwagę na wyniki badań zespołu badawczego NASK, który opracował raport pt. "AI w e-administracji". W badaniu wzięli udział pracownicy urzędów centralnych i samorządowych ze wszystkich regionów Polski. Jego celem było poznanie opinii pracowników sektora publicznego na temat wyzwań związanych z wdrażaniem sztucznej inteligencji oraz wskazanie rozwiązań, które mogą wspierać procesy administracyjne. 

Z raportu wynika, że aż 46% badanych przyznaje, że w ciągu ostatnich sześciu miesięcy korzystało z narzędzi generatywnej sztucznej inteligencji (GenAI) w celach zawodowych. Główną korzyścią dostrzeganą przez urzędników jest automatyzacja rutynowych zadań (81%). Za największe przeszkody uznano natomiast brak regulacji prawnych (73%), niejasne regulacje (73%) oraz brak wewnętrznych procedur dotyczących wykorzystania AI w urzędach (70%). Warto również podkreślić, że choć pracownicy urzędów liczą na pomoc AI w redagowaniu pism (62%) czy wyszukiwaniu informacji (72%), zdecydowana większość (91%) sprzeciwia się zastępowaniu człowieka przez algorytmy przy podejmowaniu decyzji dotyczących ludzi.

Analiza przedstawionych danych pokazuje więc rosnącą świadomość zagrożeń wynikającą z niewłaściwego zastosowania czy błędnego działania systemu, a także poczucie odpowiedzialności za wyniki, bezpośrednio wpływające na szeroko rozumiane "ludzkie życie".

Źródło:

Przewodnik po Sztucznej Inteligencji dla Administracji Publicznej, https://ai.gov.pl/aktualnosci/przewodnik-dla-administracji-publicznej

Raport AI w e-administracji, https://ai.gov.pl/aktualnosci/AI-w-e-administracji-perspektywa-urzednika

_____________________________________

Treści publikowane w serwisie internetowym PlanetaPrawo.pl mają charakter informacyjno-edukacyjny. Nie stanowią one porad prawnych i nie zastępują profesjonalnej pomocy prawnej. Administrator oraz autorzy treści nie ponoszą odpowiedzialności za jakiekolwiek skutki związane z ich wykorzystywaniem. Wszelkie prawa zastrzeżone – powołując się na publikację podaj źródło. Wykorzystywanie zawartości serwisu internetowego PlanetaPrawo.pl jako danych treningowych AI jest zabronione. 

PlanetaPrawo.pl - przepisy, praktyczne komentarze, orzecznictwo, marketing prawniczy

Polub nas na Facebooku, obserwuj nas na Twitterze oraz Instagramie

 
>>Powrót do artykułów w: Prawo w praktyce

Korzystając z naszych usług akceptujesz postanowienia Regulaminu oraz Polityki prywatności. Strona wykorzystuje pliki cookie. Możesz zarządzać plikami cookie poprzez modyfikację ustawień przeglądarki, z której korzystasz.

Przechodzę dalej