W ostatnich latach obserwujemy bezprecedensowy rozwój technologii informacyjno-komunikacyjnych, które coraz śmielej wkraczają w przestrzeń życia publicznego i prywatnego. Niemniej jednak implementacja rozwiązań opartych na AI w administracji niesie za sobą szereg wyzwań prawnych i technologicznych, wymagających dogłębnej analizy i zrozumienia.
Rozważając wykorzystanie sztucznej inteligencji (AI) w administracji publicznej z perspektywy prawno-technologicznej, kluczowe jest precyzyjne zdefiniowanie pojęć AI i modeli języka dużych rozmiarów (Large Language Model, LLM). W najszerszym rozumieniu sztuczna inteligencja odnosi się do dziedziny informatyki zajmującej się tworzeniem systemów komputerowych zdolnych do wykonywania zadań, które zwykle wymagają ludzkiej inteligencji. Obejmuje to takie zdolności jak uczenie się, rozumienie języka naturalnego, rozpoznawanie mowy, widzenia oraz podejmowanie decyzji. AI stanowi parapet, na którym opierają się różnorodne technologie, od prostych algorytmów klasyfikacji po złożone systemy wykorzystujące głębokie uczenie się.
Modele języka dużych rozmiarów (LLM), np. GPT (Generative Pre-trained Transformer) są zaawansowanymi realizacjami AI w dziedzinie przetwarzania języka naturalnego (neuro-linguistic programming, NLP). Te potężne modele opierają się na strukturach sieci neuronowych i są wytrenowane na ogromnych zbiorach danych tekstowych. Dzięki temu są zdolne do generowania zrozumiałych i spójnych tekstów, rozumienia zapytań w języku naturalnym oraz odpowiadania na nie w sposób, który może wydawać się nieodróżnialny od ludzkiego. LLM otwierają nowe możliwości w automatyzacji i usprawnieniu procesów administracyjnych, oferując narzędzia do obsługi pytań obywateli, automatycznego generowania dokumentów czy wsparcia w podejmowaniu decyzji.
Wszystkie tego typu elementy wykorzystania systemów AI nie odbywają się, lub nie będą odbywać się, w próżni legislacyjnej. Każdorazowe wykorzystanie AI do tego typu kwestii w administracji musi odbywać się w zgodzie z rodo, a także z projektowanym AIA.
Przykład: Custom GPT i jego wykorzystanie w administracji
Wiedza o tym, jak korzystać z custom GPT, staje się coraz bardziej powszechna. Wraz z nią istotne jest postawienie sobie pytania o kwestie dotyczące bezpieczeństwa informacji. Jest to związane ze sposobem, w jakim możemy zbudować GPT. OpenAI udostępnił bowiem panel, w którym możemy samodzielnie dodać własne zewnętrzne dane do modelu GPT-4 OpenAI (proces ten nazywa się injection).
Wskutek tak dokonanej operacji model udostępniony nam przez OpenAI zostaje wzbogacony o dodatkowe materiały i tylko od użytkownika konfigurującego GPT zależy, co zostanie dodane. Efektem takiego działania może być zwiększona efektywność przy tworzeniu pism różnego rodzaju. Szczególnie pisma, które są powtarzalne, albo które wymagają wykonywania pewnych wyliczeń, mają szanse zostać zautomatyzowane. Odpowiednie dodanie danych, skonfigurowanie przycisków pozwala stworzyć asystenta, który wygeneruje nam całego gotowego PDF-a. Oczywiście w przypadku tak skonfigurowanego narzędzia należy pamiętać, że konieczne jest też dołączenie skryptu, który po wczytaniu przez GPT stworzy ten dokument. W tak rozbudowanej procedurze automatyzacji wyliczania odsetek, kar administracyjnych czy generowania odpowiednio standaryzowanych dokumentów pojawia się pytanie, czy nie pójść dalej i nie stworzyć pełnego dokumentu, np. z danymi adresowymi.
Ryzyka związane z wykorzystywaniem AI w administracji
Przykład custom GPT wskazuje, że konieczne jest rozważenie problemów, jakie generują rozwiązania AI. Wprowadzenie takiego systemu do sektora publicznego wiąże się z istotnymi wyzwaniami prawnymi, przede wszystkim w kontekście ochrony prywatności i danych osobowych.
Rozwój i implementacja systemów AI często wymagają gromadzenia, przetwarzania i analizy dużych zbiorów danych, co rodzi ryzyko naruszenia praw do prywatności. Wymóg zgodności z ogólnym rozporządzeniem o ochronie danych (rodo) oraz innymi lokalnymi regulacjami dotyczącymi ochrony danych osobowych stawia przed organami administracji publicznej konieczność zapewnienia odpowiednich środków ochrony danych, takich jak anonimizacja, pseudonimizacja oraz silne mechanizmy zabezpieczające. Ponadto użycie AI w podejmowaniu decyzji administracyjnych rzuca światło na problem odpowiedzialności za decyzje podjęte z udziałem lub na podstawie rekomendacji AI. Kwestie takie jak brak transparentności algorytmów (tzw. czarne skrzynki) i potencjalne uprzedzenia wynikające z danych treningowych stawiają pytanie o możliwość kontroli oraz korekty decyzji przez człowieka, co jest fundamentalne dla zapewnienia sprawiedliwości i zgodności z zasadami demokratycznego państwa prawa.
Aby sprostać tym wyzwaniom, konieczne jest stworzenie kompleksowych ram prawnych regulujących stosowanie AI w administracji, które uwzględnią zarówno potencjał technologiczny, jak i obowiązki związane z ochroną danych osobowych i praw obywateli. Istotne będzie także prowadzenie ciągłych analiz wpływu technologii AI na prawa i wolności jednostek, oraz rozwijanie standardów etycznych i najlepszych praktyk dla twórców i użytkowników systemów AI w sektorze publicznym.
Takie podejście umożliwi wykorzystanie potencjału, jaki niesie AI dla administracji publicznej, jednocześnie minimalizując ryzyko naruszeń prawnych i etycznych, a także zwiększając zaufanie obywateli do nowych technologii stosowanych w obszarze usług publicznych.
Wykorzystanie sztucznej inteligencji (AI) w administracji publicznej stanowi przełomowy krok do usprawnienia i optymalizacji świadczonych usług, oferując obiecujące możliwości zwiększenia efektywności operacyjnej, jakości obsługi oraz innowacyjności w podejmowaniu decyzji. Poprzez zastosowanie AI oraz zaawansowanych modeli języka dużych rozmiarów (LLM) administracja publiczna ma szansę na:
- przekształcenie interakcji z obywatelami;
- usprawnienie przepływu informacji;
- podniesienie ogólnego poziomu satysfakcji społecznej.
Jednocześnie wdrażanie tych technologii wymaga starannego zbalansowania między innowacjami technologicznymi a ryzykami prawnymi i etycznymi, szczególnie w kontekście ochrony danych osobowych i zapewnienia odpowiedzialności oraz transparentności decyzji wspieranych przez AI.
Konieczność adresowania tych wyzwań pociąga za sobą pilną potrzebę opracowania i wdrożenia kompleksowych ram prawnych i regulacyjnych, które umożliwią odpowiedzialne wykorzystanie AI w sferze publicznej. Przestrzeganie zasad rodo, zapewnienie możliwości audytu i rewizji algorytmów AI, a także rozwój standardów etycznych stanowią fundamenty, na których można budować zaufanie społeczne do administracji wykorzystującej nowe technologie.
W kontekście dalszego rozwoju i implementacji AI w administracji publicznej kluczowe będzie podejście multidyscyplinarne, łączące wiedzę z zakresu prawa, technologii, etyki oraz nauk społecznych. Pozwoli ono na pełne wykorzystanie potencjału AI przy jednoczesnym minimalizowaniu ryzyka naruszeń prawnych i etycznych, co jest niezbędne dla zbudowania społeczeństwa, w którym technologia służy dobru publicznemu, jednocześnie szanując prawa i wolności jednostki.
W efekcie, poprzez świadome i przemyślane wdrażanie technologii AI, administracja publiczna może nie tylko zwiększyć swoją efektywność i jakość świadczonych usług, ale również wzmacniać demokratyczne wartości, promować innowacje oraz przyczyniać się do rozwoju społeczeństwa opartego na wiedzy i zaufaniu.
Autorzy
Mateusz Jakubik
Autor jest Compliance Officer w Bonnier Business Polska Sp. z o.o. / CTO w Szostek_Digital; prawnikiem i doktorantem na WPiA UJ; audytorem wewnętrznym systemu zarządzania bezpieczeństwem informacji wg normy ISO 27001:2017; członkiem zarządu SABI.
Rafał Prabucki
Autor jest COO w Szostek_Digital oraz członkiem Cyber Science; adiunktem na Uniwersytecie Śląskim i audytorem wiodącym ISO27001.