Spis treści:
- Wpływ na bezpieczeństwo państwa i jednostki
- Sposoby obrony przed deepfake’ami
- Konieczne działania
Biorąc pod uwagę fakt, że deepfaki wykorzystywane są zarówno w wojnie cybernetycznej, jak i przez zwykłych internetowych przestępców, konieczne jest zbudowanie odpowiedniego stopnia odporności w organach administracji publicznej.
Deepfake to stosunkowo nowa metoda dezinformacji, szeroko wykorzystywana w wojnie informacyjnej, ale również przez różnego rodzaju oszustów i naciągaczy. Chociaż organy administracji publicznej i ich piastuni wyjątkowo często padają ofiarami tej formy oszustwa, wydaje się, że wciąż brakuje świadomości na temat zagrożeń, jakie się z nią wiążą.
Pierwsza legalna definicja deepfake’ów została zaproponowana przed unijnego prawodawcę w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (DzUrz UE L 1689 z 12.7.2024; dalej: akt w sprawie sztucznej inteligencji, AI Act). Zgodnie z art. 3 pkt 60 aktu deepfake oznacza „wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”. Definicja wypracowana przez unijnego prawodawcę rzeczywiście w dosyć zwięzły, ale jednocześnie bardzo podstawowy sposób objaśnia, jakie treści należy klasyfikować jako deepfaki.
Aby materiał można było za taki uznać, musi spełniać cztery warunki. Po pierwsze dana treść musi zostać wygenerowana lub zmanipulowana przez sztuczną inteligencję. Oznacza to, że możemy mówić zarówno o sytuacji, w której model AI wygeneruje daną treść audiowizualną niemal od zera, bazując jedynie na poleceniach użytkownika, jak i zmodyfikuje już istniejące materiały, wciąż zgodnie z poleceniem użytkownika. Po drugie deepfake przybiera postać obrazu, treści dźwiękowej lub treści wideo. Taka definicja co do zasady wyklucza inne materiały, np. tekst pisany. Warto zauważyć, że zakres przedmiotowy definicji wykracza poza to, co wielu naukowców dotychczas rozumiało jako deepfake, czyli materiały wideo. Po trzecie wygenerowany lub zmanipulowany materiał powinien przypominać istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia. Wydaje się, że prawodawca unijny nie dopuszcza sytuacji, w której za deepfake uznany zostałby zupełnie zmanipulowany materiał przedstawiający zdarzenia, które się nie wydarzyły (nie zaistniały). Jest to zbyt rygorystyczne podejście, biorąc pod uwagę, że deepfaki funkcjonujące w obiegu mogą prezentować zdarzenia, które nigdy nie miały miejsca. Jednocześnie ostatnia cecha definicji UE wymaga, aby materiał wywoływał u odbiorcy niesłuszne wrażenie, że przedstawia treści rzeczywiste. Ten ostatni warunek jest niezbędny, aby daną treść lub materiał uznać za deepfake’a.
Jednocześnie definicja deepfake’a zawarta w akcie o sztucznej inteligencji nie zwraca uwagi na to, co jest szczególnie niebezpieczne w tym zjawisku. Ponieważ deepfaki wykorzystują rozwiązania wywierające wpływ na głębokie sieci neuronowe, powodują one bardziej negatywne efekty niż proste przerobienie obrazów [1]. Poprzez wykorzystanie heurystyki poznawczej (np. tendencji do ufania informacjom wizualnym i słuchowym jako prawdziwym) oraz wyzwalaczy emocjonalnych oszukują odbiorcę nawet bez jego aktywnego zaangażowania2. Czyni je to skuteczniejszymi i stwarza większe zagrożenie dla autonomii i integralności epistemicznej jednostki3. Jest to szczególnie niebezpieczne zarówno w przypadkach, kiedy deepfaki mogą wpływać na bezpieczeństwo państwa, jak i wtedy, gdy wykorzystują wizerunek jednostki, aby osiągnąć korzyści materialne lub zaszkodzić reputacji danej osoby.
Wpływ na bezpieczeństwo państwa i jednostki
Deepfaki stały się jednym ze sposobów działań dezinformacyjnych podejmowanych przez rządy różnych państw. Pojawiają się zarówno w okresie okołowyborczym w celu wpłynięcia na wynik demokratycznych wyborów, jak również w przypadku debaty publicznej związanej z polaryzującymi kwestiami. W tej drugiej sytuacji deepfaki mogą mieć na celu dalszą polaryzację społeczeństwa lub poparcie jednego z rozwiązań, które przyniesie korzyści (finansowe, polityczne, militarne, społeczne) podmiotom za nimi stojącym.
Dotychczas mogliśmy obserwować deepfaki, które w sposób bezpośredni miały wpłynąć na funkcjonowanie państwa. Najsłynniejszym przykładem takich działań jest zmanipulowane wideo przedstawiającego prezydenta Ukrainy, Wołodymyra Zelenskiego, który ogłaszał kapitulację państwa i wzywał Ukraińców do poddania się. Trudno przewidzieć, w jakiej sytuacji znajdowałyby się obecnie Ukraina i Europa, gdyby społeczeństwo uwierzyło w treść przedstawioną przed deepfake’a. Przykład ten pokazuje, że deepfaki mogą mieć negatywny wpływ na bezpieczeństwo państwa – zarówno w tradycyjnym rozumieniu tego pojęcia, jak i na bezpieczeństwo energetyczne, zdrowie publiczne (czego przykładem mogą być kampanie deepfake’owe zniechęcające do szczepień ochronnych) czy szeroko pojętą stabilność finansową.
Odrębnym ryzykiem związanym z deepfake’ami jest wpływanie na wyniki demokratycznych wyborów przez podmioty trzecie. Celem jest oczywiście wsparcie opcji politycznej wygodnej dla podmiotu stojącego za deepfake’ami. Jednocześnie, jak wskazują badania przeprowadzone w Stanach Zjednoczonych, rozpowszechnianie fałszywych informacji (szczególnie w mediach społecznościowych) może również mieć na celu zwiększenie polaryzacji społeczeństwa, a w konsekwencji – niemożność wyboru efektywnej i cieszącej się zaufaniem społecznym władzy. Warto zauważyć, że deepfaki w okresie wyborczym nie są tworzone i rozpowszechniane jedynie przez podmioty zewnętrzne. Coraz częściej korzystają z nich komitety wyborcze, traktując je jako jeszcze jedną formę walki wyborczej. Takie działania należy stanowczo potępić – deepfaki to wyjątkowe narzędzie wpływu i manipulacji, więc nie powinno być wykorzystywane jako element politycznej walki w demokratycznym państwie prawnym. Deepfaki nie tylko mogą prowadzić do manipulowania przekonaniami opinii publicznej, ale przede wszystkim osłabiają zaufanie społeczeństwa do tradycyjnych mediów i władzy publicznej [4].
Innego rodzaju ryzyka generują deepfaki, które wykorzystują zaufanie do piastunów władzy publicznej w celu wyłudzenia korzyści finansowych. Jedną z ofiar takich działań stała się była prezes Zakładu Ubezpieczeń Społecznych Gertruda Uścińska. W tym przypadku oszuści założyli fałszywe konto ZUS na portalu społecznościowym. Prowadzili tam kampanię promującą inwestycję mającą rzekomo zapewnić przejście na emeryturę w wieku 50 lat. Wymogiem było wpłacenie 1000 zł na podane przez oszustów konto. Do promocji fałszywej inwestycji wykorzystywali wygenerowany przy wykorzystaniu technologii AI wizerunek Gertrudy Uścińskiej, aby uwiarygodnić inwestycje. ZUS w opublikowanym 16 lutego 2024 r. na stronie zus.pl wpisie „Oszuści podszywają się pod ZUS” ostrzegał przed tymi działaniami, jednak ostateczna skala oszustwa nie jest znana. Nie był to pierwszy przypadek takich działań w polskiej rzeczywistości społeczno-politycznej. Już wcześniej pojawiały się nagrania z wizerunkami Mateusza Morawieckiego i Andrzeja Dudy, którzy mieli rzekomo zachęcać do inwestowania w Baltic Pipe.
Oszuści mogą też próbować wywrzeć wpływ bezpośrednio na organ administracji publicznej, szczególnie jeśli decyzje są podejmowane lub przekazywane z wykorzystaniem środków porozumiewania się na odległość. W takim przypadku może dojść do skłonienia osoby do określonego zachowania poprzez przekonanie jej (np. telefonicznie lub w formie wideokonferencji), że polecenie pochodzi od osoby decyzyjnej. Innym przykładem może być „wpuszczenie” osoby nieuprawnionej, udającej pracownika jednostki administracji publicznej, na spotkanie online i ujawnienie w ten sposób określonych informacji. Deepfaki mogą również doprowadzić do ujawnienia informacji podmiotom nieuprawnionym, a biorąc pod uwagę praktyczne aspekty koncepcji „danych jako dobra wspólnego” (promowanej m.in. przez Marlenę Sakowską-Baryłę [5]) można wskazać, że takie deepfaki mają na celu osłabienie społecznego zaufania do instytucji oraz uderzenie bezpośrednio w społeczeństwo obywatelskie.
Deepfaki mogą być również sposobem na wyłudzanie świadczeń publicznych Jeżeli dany organ przeprowadza weryfikację osób uprawnionych do określonych benefitów w sposób elektroniczny przy użyciu wideokonferencji, to w dobie powszechnego wykorzystywania deepfake’ów może wystąpić sytuacja, w której do rozmowy dołączy i podda się weryfikacji „twór” wykreowany przez sztuczną inteligencję, do złudzenia przypominający uprawnioną osobę. O ile w przypadku większości świadczeń organy administracji publicznej wymagają osobistego stawienia się lub wykorzystania do weryfikacji tożsamości narzędzia ePUAP lub podobnych, to w przypadku „pobocznych” świadczeń (np. Max Wrocław) częściowa weryfikacja odbywa się w formie wideokonferencji. Wraz z rozwojem usług e-administracji umożliwiających zdalną weryfikację podmiotu uprawnionego bądź załatwienie sprawy w formie wideokonferencji ryzyko wykorzystania deepfake’ów w tym zakresie będzie rosło.
Sposoby obrony przed deepfake’ami
Pierwsze deepfaki pojawiły się w przestrzeni publicznej w 2018 r. Do dzisiaj jednak nie stworzono skutecznych rozwiązań prawnych, które mogłyby chronić organy i jednostki przed negatywnymi skutkami tej technologii. Obecnie funkcjonujące rozwiązania, takie jak AI Act, akt o usługach cyfrowych (DzUrz UE L 277 z 27.10.2022) czy rodo (DzUrz UE L 119 z 4.5.2016) mogą dostarczyć pewnych środków prawnych (które jednak budzą wątpliwości co do ich skuteczności) o charakterze represyjnym. Oznacza to, że podmioty, których prawa zostały naruszone, będą mogły domagać się sprawiedliwości już po tym, jak staną się ofiarami deepfake’ów. Ponadto wydaje się, że wykorzystanie deepfake’ów w sposób zagrażający administracji publicznej czy bezpieczeństwu państwa mogłoby być również ścigane na podstawie obowiązujących przepisów kodeksu karnego (DzU z 2025 r.; poz. 383). Jednocześnie fakt, że prawo dostarcza jedynie rozwiązań umożliwiających następczą (represyjną) ochronę, powoduje, że administracja publiczna jest zdana na siebie w zakresie ochrony prewencyjnej.
Chociaż obrona przed deepfake’ami jest niezwykle trudna, nie jest niemożliwa. Istnieją sposoby, które pozwalają zminimalizować ryzyka, jakie deepfaki tworzą dla stabilności państwa. Aby jednak środki ochrony okazały się skuteczne, wymagają ścisłej współpracy na wszystkich szczeblach administracji, zarówno państwowej, jak i tej na poziomie unijnym. Biorąc pod uwagę obecne rozwiązania technologiczne, należy wykluczyć zbudowanie pełnej odporności na deepfaki przez pojedynczą jednostkę administracji publicznej. Nie oznacza to jednak, że nie powinny one podejmować zdecydowanych działań w celu jak najlepszego zabezpieczenia się przed ryzykami powodowanymi przez deepfaki.
Przede wszystkim organy administracji publicznej, zarówno centralne, jak i samorządowe, powinny wprowadzić programy mające na celu szeroko pojętą edukację społeczeństwa oraz pracowników jednostek administracji publicznej. W zakresie pierwszego z postulatów można wskazać, że pewne działania podejmowane są przez Ministerstwo Cyfryzacji, m.in. w ostatnich miesiącach prowadzono kampanię edukacyjną na profilach społecznościowych Ministerstwa. Brakuje skoordynowanych działań i współpracy w tym zakresie między Ministerstwem Cyfryzacji a Ministerstwem Edukacji Narodowej. Tuż przed wyborami prezydenckimi 2025 r. również NASK rozpoczął kampanię informującą o zagrożeniach, jakie stwarzają deepfaki. Jednocześnie w obecnej sytuacji geopolitycznej należałoby oczekiwać, że działania edukujące społeczeństwo będą podejmowane na większą skalę, tak aby docierać szczególnie do uczniów oraz osób starszych, którzy są szczególnie podatni na szkodliwe działanie deepfake’ów.
Niezależnie od edukacji społecznej organy administracji publicznej powinny przeszkolić również swoich pracowników, zarówno w zakresie ryzyk, jakie mogą spowodować deepfaki, ale również sposobów ich wykrywania. Mało prawdopodobne jest, aby administracja publiczna mogła zainwestować ogromne środki w specjalistyczne rozwiązania technologiczne dające wysoką pewność co do prawdziwości analizowanego przez nie materiału (technologia scan & detect). Dodatkowo narzędzia te analizują dany materiał dopiero wtedy, gdy jego odbiorca nabierze jakichkolwiek wątpliwości co do jego prawdziwości, korzystanie z nich wymagałoby więc stworzenia procedur postępowania ze wszystkimi materiałami, które mogłyby zostać podrobione przez AI. Chociaż deepfaki coraz trudniej jest odróżnić od treści przedstawiających rzeczywistość, to warto budować wśród pracowników administracji publicznej nawyki, które pomogą im wyłapać nieprawdziwe materiały bądź chociaż ich elementy, które powinny wzbudzić wątpliwości.
Aby jednak skutecznie edukować pracowników administracji publicznej, organ powinien zacząć od wdrożenia odpowiednich środków technicznych i organizacyjnych, które pomogą chronić się przed ryzykami związanymi z deepfake’ami. Jednym ze sposobów jest postulowana przez Mariusza Jabłońskiego i Krzysztofa Wygodę procedura antydeepfake’owa, która w praktyce może mieć rzeczywisty wpływ na odporność jednostki na deepfaki6. Procedura ta ma na celu wykluczenie udziału w procesie decyzyjnym (odbywającym się w środowisku online) podmiotów nieuprawnionych oraz uniemożliwienie dołączenia do spotkania zdalnego osobom nieuprawnionym. W jej ramach zakłada się dwuetapową weryfikację osób decyzyjnych lub dołączających do spotkania zdalnego. Może ona zostać wprowadzona wewnątrz organu, ale również w kontaktach z podmiotami zewnętrznymi.
Organy administracji powinny także rozpocząć działania w celu pozyskania oprogramowania pozwalającego na wykrycie deepfake’ów w środowisku danego organu. Ze względu na to, że jedynie nieliczni dostawcy oferują takie rozwiązania, są one dosyć kosztowne. Jednocześnie, poza możliwością wykrywania deepfake’ów, działają one podobnie jak programy antywirusowe i zapewniają tożsame funkcje, rozbudowane jedynie o rozwiązania antydeepfake’owe. Biorąc pod uwagę istotność ryzyk stwarzanych przez deepfaki, tego typu rozwiązania mogłyby być uzgadniane i finansowane na szczeblu centralnym.
Żadne z proponowanych środków nie będą jednak skuteczne, jeśli ich wdrożenie nie zostanie poparte współpracą z podmiotami prywatnymi – właścicielami mediów społecznościowych, narzędzi AI i innymi podmiotami, których narzędzia są wykorzystywane do generowania i rozpowszechniania deepfake’ów. Ścisła współpraca powinna odbywać się zarówno na szczeblu europejskim, jak i krajowym, w sposób wzmacniający egzekwowanie przepisów związanych z rozpowszechnianiem deepfake’ów. Biorąc pod uwagę, że kwestia rozpowszechniania dezinformacji stała się tematem politycznym, część rządów w zwalczaniu deepfake’ów widzi możliwość cenzury i ograniczania swobody wypowiedzi. Jasno jednak należy wskazać, że dezinformacja nie powinna korzystać z ochrony przewidzianej czy to Europejską Kartą Praw Człowieka, czy Pierwszą Poprawką do Konstytucji Stanów Zjednoczonych. Konieczne jest zatem wypracowanie jednolitego stanowiska w celu ochrony interesów obywateli w środowisku online.
Konieczne działania
Chociaż deepfaki coraz częściej uznawane są za jedno z największych wyzwań dla państwa i jednostki we współczesnym świecie, w polskiej rzeczywistości społeczno-prawnej brakuje wzmożonej dyskusji na ich temat. Organy administracji publicznej powinny podjąć bardziej zintensyfikowane działania w celu zbudowania odporności na ryzyka związane z tym nowym zagrożeniem. Wymaga to jednak współpracy pomiędzy organami unijnymi, centralnymi organami państwa i poszczególnymi jednostkami administracji publicznej. Biorąc pod uwagę niewielki wachlarz skutecznych środków technicznych, które mogłyby zostać wdrożone w polskiej administracji, warto postawić na edukację, szkolenia oraz środki organizacyjne. Działania te powinny zostać podjęte jak najszybciej, aby wyprzedzić rozpowszechnienie się negatywnych skutków deepfake’ów na działalność państwa.
Przypisy:
- Y. Mirsky, W. Lee, The Creation and Detection of Deepfakes: A Survey, „ACM Computing Surveys” 2022, vol. 54, s. 1–41; M.T. Pham et al., A War Beyond Deepfake: Benchmarking Facial Counterfeits and Countermeasures, 2022, arxiv.org/abs/2111.12912 [dostęp: 3.07.2025].
- A. Shaji George, A.S.Hovan George, Deepfakes: The Evolution of Hyper realistic Media Manipulation, 2023, zenodo.org/doi/10.5281/zenodo.10148558 [dostęp: 3.7.2025]; J.T. Hancock, J.N. Bailenson, The Social Impact of Deepfakes, 2021, doi.org/10.1089/cyber.2021.29208.jth [dostęp: 3.07.2025]; K. Hartmann, K. Giles, The Next Generation of Cyber-Enabled Information Warfare, [w:] 2020 12th International Conference on Cyber Conflict (CyCon), ieeexplore.ieee.org/document/9131716 [dostęp: 3.07.2025].
- S. Lewandowsky, U.K.H. Ecker, J. Cook, Beyond misinformation: Understanding and coping with the „post-truth” era, „Journal of Applied Research in Memory and Cognition” 2017, nr 6(4), s. 353–369.
- J. Twomey et al., Do deepfake videos undermine our epistemic trust? A thematic analysis of tweets that discuss deepfakes in the Russian invasion of Ukraine, 2023, doi.org/10.1371/journal.pone.0291668 [dostęp: 3.07.2025].
- M. Sakowska-Baryła, Dane jako dobro wspólne, [w:] Internet solidarność cyfrowa, red. A. Gryszczyńska, G. Szpor, W.R. Wiewiórowski, Warszawa 2024, s. 23–36.
- M. Jabłoński, K. Wygoda, Procedura antydeepfake’owa, „ABI Expert” 2024, nr 1, s. 54–55.
Autor
Dominika Kuźnicka-Błaszkowska
Autorka jest członkinią zespołu badawczego Digital Justice Center na Uniwersytecie Wrocławskim.