O technologii deepfake

Jeszcze kilka lat temu technologia deepfake była zjawiskiem niszowym, znanym głównie w kręgach technologicznych i akademickich. Dziś stała się potężnym narzędziem wykorzystywanym przez cyberprzestępców i różne podmioty do szerzenia dezinformacji oraz manipulacji opinią publiczną oraz procesami politycznymi. Deepfake[1] to treść dźwiękowa lub treść wideo czy wygenerowane lub zmanipulowane obrazy, przypominające istniejące osoby, przedmioty, miejsca lub inne podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe. Wystarczy zaledwie 6 sekund wypowiedzi[2], aby przy użyciu sztucznej inteligencji stworzyć wierną imitację głosu danej osoby. Posiadając jedno zdjęcie i próbkę głosu można wygenerować wideo, które naśladuje naturalną mimikę i ekspresję twarzy. Wykorzystanie tej technologii stanowi poważne zagrożenie dla demokracji, bezpieczeństwa społecznego i prywatności.

Historia i rozwój

Technologia ta zyskała na popularności w 2017 roku, kiedy użytkownik posługujący się nazwą „deepfakes” zamieścił na portalu Reddit spreparowany film z udziałem aktorki Gal Gadot[3]. Od tego czasu technika ta dynamicznie się rozwija, a jej zastosowanie wykracza poza rozrywkę. Jest obecnie wykorzystywana w różnych celach – w tym do dezinformacji oraz działań przestępczych. Na rosnącą rolę sztucznej inteligencji w manipulacji treściami wskazywał już w 2019 roku NATO Stratcom.[4] W maju 2024 roku dyrektor ośrodka, Janis Sarts, potwierdził wcześniejsze przewidywania, stwierdzając, że technologia deepfake „już jest w miejscu, w którym się go spodziewaliśmy”[5]. Na zagrożenie zwrócił uwagę także Parlament Europejski, który w 2021 roku opublikował ponad 100-stronicowy raport[6], analizując problem w sposób wielopoziomowy. W dokumencie uwzględniono zarówno aspekty techniczne, społeczne, jak i regulacyjne zjawiska deepfake.

Zagrożenia

Choć początkowo zmanipulowane nagrania wykorzystywano głównie w celach rozrywkowych, obecnie cyberprzestępcy używają ich do dyskredytowania osób publicznych, wyłudzania danych i środków, a także do generowania chaosu medialnego. Obecność deepfake w sieci stwarza również poważne zagrożenie dla integralności wyborów demokratycznych.

Przykłady zastosowania technologii deepfake w polityce

Ukrainia

Poważnym zagrożeniem związanym z technologią deepfake jest jej wykorzystanie w politycznej dezinformacji. Jednym bardziej z niepokojących przykładów jest incydent z marca 2022 roku, kiedy w sieci pojawiło się zmanipulowane nagranie[7] z prezydentem Ukrainy, Wołodymyrem Zełenskim, który rzekomo ogłaszał kapitulację kraju i nawoływał do zaprzestania walk. Nagranie okazało się wytworem rosyjskiej propagandy, a tylko dzięki szybkiej reakcji ukraińskiego rządu i analizie artefaktów widocznych na filmie, udało się udowodnić jego fałszywość.

USA

Obserwacja cyberprzestrzeni na przełomie lat 2023 i 2024 wykazała, że możliwe jest skuteczne ingerowanie w przebieg demokratycznych wyborów za pomocą wytworów sztucznej inteligencji. Do istotnego incydentu, z punktu widzenia bezpieczeństwa wyborów, doszło w styczniu 2024 roku w Stanach Zjednoczonych[8]. Wtedy właśnie mieszkańcy New Hampshire mogli w słuchawce swoich telefonów usłyszeć głos Joe Bidena, który próbował przekonać, że nie warto oddawać swojego głosu w prawyborach, ponieważ grozi to utratą głosu w wyborach prezydenckich. Według doniesień stacji CNN liczba takich zmanipulowanych połączeń szacowana jest na 5 000–25 000.

Słowacja

Do próby wpłynięcia na poglądy wyborcze za pomocą sztucznej inteligencji doszło w 2023 roku na Słowacji[9]. Dwa dni przed wyborami parlamentarnymi do sieci trafiło zmanipulowane nagranie, które miało sugerować, że Michal Šimečka, lider liberalnej partii Postępowa Słowacja, uczestniczył w kupowaniu głosów od społeczności romskiej. Ostatecznie wybory wygrała partia Kierunek – Socjalna Demokracja. Nie sposób jednoznacznie określić, czy i w jakim stopniu fałszywy materiał wpłynął na wynik partii Šimečki.

Turcja

Sukcesem zakończyła się próba skompromitowania jednego z kandydatów na prezydenta Turcji, Muharrema İnce[10]. W 2023 roku, na kilka dni przed wyborami, do sieci trafiło sfabrykowane nagranie pornograficzne, w którym rzekomo występował İnce. Śledztwo wykazało, że materiał został wygenerowany przy użyciu sztucznej inteligencji, a jego podstawę stanowiło wideo pochodzące z izraelskiej strony pornograficznej. Mimo to, polityk zdecydował o wycofaniu się z udziału w wyborach.

Polska

Polska również nie jest wolna od incydentów związanych z deepfake. W 2024 roku w polskiej infosferze pojawiło się zmanipulowane wideo, w którym premier Donald Tusk zachęcał Polaków do pracy przy zbieraniu niemieckich szparagów. Mimo że wprawne oko szybko dostrzeże, że nagranie zostało zmanipulowane, podobne materiały mogą w przyszłości wpływać na podważenie autorytetu osoby publicznej, utratę jej zaufania publicznego, a nawet wywoływać zamieszki.

Cyberprzestępczość

Technologia deepfake jest również wykorzystywana przez cyberprzestępców w celu wyłudzania pieniędzy.

Fałszywe inwestycja

Przykładem może być zjawisko oszustw finansowych, w których fałszywe materiały wideo z udziałem znanych osób są używane do promowania nieistniejących inwestycji.

Zgodnie z raportem NASK i Komisji Nadzoru Finansowego[11] (KNF), przestępcy najczęściej wybierają na „bohaterów” takich treści

  • dziennikarzy (32%)
  • polityków (21%)
  • przedsiębiorców (11%)

Przykłady tych oszukańczych materiałów obejmują nagrania, w których Donald Tusk[12], prezydent Andrzej Duda czy prezes NBP Adam Glapiński promują fikcyjne inwestycje, obiecując użytkownikom ogromne zyski.

Coraz częściej ofiarami działalności cyberprzestępców stają się również influencerzy. Jedna z najświeższych spraw dotyczy próby zachęcenia internautów do wzięcia udziału w grze firmowanej przez youtubera Buddę[13].

Rafał Brzoska i Omenaa Mensah

Bardziej medialnym przypadkiem wykorzystania wizerunku znanej osoby do oszustwa finansowego był incydent podszywania się pod Rafała Brzoskę, przedsiębiorcę i prezesa InPost[14]. W lipcu i sierpniu 2024 roku w mediach społecznościowych pojawiły się reklamy, w których zmanipulowane nagrania przedstawiały go jako rzekomego promotora lukratywnej, lecz całkowicie fałszywej inwestycji. Deepfake umożliwił stworzenie materiałów tak realistycznych, że mogły one wprowadzać w błąd wielu użytkowników, mimo że Rafał Brzoska nigdy nie angażował się w takie działania.

Ofiarą tej samej technologii padła również Omenaa Mensah[15], dziennikarka i żona przedsiębiorcy. W jej przypadku manipulacje miały na celu nie tylko wyłudzanie pieniędzy, ale także podważenie jej reputacji. Rozpowszechniano fałszywe informacje o rzekomej śmiertelnej chorobie oraz udziale w skandalach obyczajowych, co miało wywołać sensację i wpłynąć na postrzeganie jej osoby.

Przeciwdziałanie wpływowi treści typu deepfake

Technologia

Przeciwdziałanie szkodliwemu wpływowi treści typu deepfake stało się jednym z priorytetowych wyzwań współczesnego świata. Wraz z rozwojem tej technologii specjaliści oraz organizacje zajmujące się cyberbezpieczeństwem intensyfikują prace nad nowatorskimi metodami wykrywania i eliminowania zmanipulowanych treści. Nowoczesne podejścia koncentrują się przede wszystkim na tworzeniu i udoskonalaniu zaawansowanych algorytmów sztucznej inteligencji. Obecnie nie istnieją jednak narzędzia, które osiągają 100% skuteczności przy wykrywaniu zmanipulowanych treści.

Edukacja

Jednym z najważniejszych narzędzi w walce z manipulacjami jest edukacja społeczeństwa. Zwiększanie świadomości na temat zagrożeń związanych z deepfake i sposobów ich identyfikacji jest kluczowe dla ograniczenia skutków dezinformacji. Kampanie edukacyjne prowadzone są na całym świecie, także w Polsce[16]. Edukacja na temat zmanipulowanych treści jest istotna w kontekście zbliżających się wyborów prezydenckich i działań mających na celu destabilizowanie społeczeństw.

Eksperci wskazują na kilka charakterystycznych cech, które mogą świadczyć o manipulacji[17], takich jak: zniekształcenie obrazu w okolicy ust, nienaturalny ruch głowy i mimiki, błędy w odwzorowaniu uzębienia czy nietypowa intonacja w mowie. Dodatkowo, zmieniona lub nienaturalna odmiana słów może stanowić kolejny sygnał ostrzegawczy.

Legislacja

Równolegle podejmowane są działania legislacyjne mające na celu ograniczenie ryzyka związanego z pojawianiem się zmanipulowanych treści w sieci. Kluczowym dokumentem regulującym tę kwestię jest unijny Akt o Sztucznej Inteligencji (AI Act)[18]. Zgodnie z jego artykułem 50 ust. 2 i 4, każda treść będąca deepfake’em musi być wyraźnie oznaczona informacją, że została wygenerowana lub zmanipulowana przez AI. Informacja ta powinna być przekazana w sposób czytelny i jednoznaczny, najpóźniej w momencie pierwszej interakcji użytkownika z daną treścią.

Wnioski

Deepfake to technologia, która zmienia oblicze współczesnego świata cyfrowego. Choć początkowo stosowana głównie w celach rozrywkowych, dzisiaj stała się niebezpiecznym narzędziem w rękach cyberprzestępców, wykorzystywanym do szerzenia dezinformacji, destabilizowania społeczeństw i wyłudzania pieniędzy. W odpowiedzi na te zagrożenia, niezbędne staje się wdrożenie skutecznych narzędzi wykrywania deepfake oraz podnoszenie świadomości na temat metod identyfikacji zmanipulowanych treści. Wspólne działania instytucji publicznych, firm zajmujących się cyberbezpieczeństwem i obywateli są kluczowe w walce z tym nowym wyzwaniem.

[1] https://www.prawo.pl/biznes/definicja-deepfake-w-ai-act,526748.html (dostęp: 22.12.2024)

[2] https://deon.pl/swiat/eksperci-jestesmy-bombardowani-deepfakeami-wystarczy-6-sekund-by-kogos-podrobic,2802239 (dostęp 22.12.2024)

[3] https://konkret24.tvn24.pl/tech/seks-ktorego-nie-bylo-a-ktory-zobaczyl-caly-swiat-czyli-deepfake-ra874234-ls5791391 (dostęp 22.12.2024)

[4] https://stratcomcoe.org/publications/the-role-of-deepfakes-in-malign-influence-campaigns/72 (dostęp 22.12.2024)

[5] https://cyberdefence24.pl/cyberbezpieczenstwo/dyrektor-nato-stratcom-wojna-informacyjna-moze-okazac-sie-decydujaca (dostęp 29.01.2025)

[6] https://www.europarl.europa.eu/thinktank/en/document/EPRS_STU(2021)690039 (dostęp 29.01.2025)

[7] https://www.komputerswiat.pl/aktualnosci/wydarzenia/do-sieci-trafil-deepfake-z-prezydentem-zelenskim-w-falszywym-wideo-namawial-do/n40qel7 (dostęp 22.12.2024)

[8] https://www.bbc.com/news/world-us-canada-68064247 (dostęp 29.01.2025)

[9] https://vsquare.org/slovak-election-targeted-by-pro-kremlin-deepfake-hoax/ (dostęp 29.01.2025)

[10] https://www.bbc.com/news/world-europe-65560052 (dostęp 29.01.2025)

[11] https://www.nask.pl/pl/aktualnosci/5429,NASK-ostrzega-przestepcy-tworza-coraz-bardziej-pomyslowe-oszustwa-deepfake-Bezpr.html (dostęp 22.12.2024)

[12] https://demagog.org.pl/fake_news/premier-zacheca-do-inwestycji-w-baltic-pipe-scam-z-uzyciem-ai/ (dostęp 22.12.2024)

[13] https://demagog.org.pl/fake_news/budda-oglosil-start-kasyna-uwazaj-to-scam-z-uzyciem-deepfakea/ (dostęp 22.12.2024)

[14] https://demagog.org.pl/fake_news/deepfake-z-rafalem-brzoska-wykorzystany-w-oszustwie-inwestycyjnym/ (dostęp 22.12.2024)

[15] https://www.securitymagazine.pl/pl/a/deepfake-na-facebooku-omenaa-mensah-ofiara-falszywych-informacji (dostęp 22.12.2024)

[16] https://www.gov.pl/web/krrit/dzieci-i-mlodziez-w-swiecie-fake-newsow-i-dezinfomacji–seminarium-polskiego-centrum-programu-saferinternet (dostęp 22.12.2024)

[17]  https://chronpesel.pl/wyludzenia-i-kradzieze/czym-jest-deepfake (dostęp 22.12.2024)

[18] https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32024R1689 (dostęp 29.01.2025)

O projekcie
bezpiecznewybory.pl