#Cybersecurity #Polecane #WAŻNE: Nie przegap

Deepfake – rosnące zagrożenie w świecie cyfrowym

Deepfake, czyli koń z chałki stworzony przez AI

Nazwa “deepfake” pochodzi od połączenia słów “deep learning” (głębokie uczenie) oraz “fake” (fałszywy). Choć materiały tego typu są fałszywe, to są coraz lepszej jakości. Wykrycie, że nagranie jest całkowicie spreparowane, staje się coraz trudniejsze.

Przykłady oszustw z wykorzystaniem deepfake

Oczom nie wierzę! I słusznie. To deepfake. W nagraniu rozpowszechnianym w internecie wykorzystano wizerunek prezydenta Andrzeja Dudy do promowania rzekomej inwestycji w projekt Baltic Pipe. Prezydent mówił swoim głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją. Nagranie to jest przykładem oszustwa wykorzystującego deepfake.
>Przestępcy, wykorzystując jako bazę fragment relacji TVP Info z otwarcia Baltic Pipe, stworzyli podrobiony materiał, w którym prezydent zachęca do inwestycji finansowej, sugerując, że projekt jest “pod kontrolą rządu” i jest to bezpieczna inwestycja.

Karierę zrobił też chałkoń, czyli infantylna grafika, wygenerowana za pomocą AI przez autorów fanpage’a „Polska w dużych dawkach“, którą mimo to wielu internautów uznało za absolutnie prawdziwą, czego dowodem były zupełnie nieironiczne komentarze.

Viralowy chałkoń doskonale ilustruje zagrożenia związane z dezinformacją w mediach społecznościowych. Ten początkowo niewinny żart, wygenerowany przez AI i rozpowszechniony jako satyryczny post, szybko zyskał popularność, ujawniając podatność użytkowników sieci, zwłaszcza tych starszych, na fałszywe informacje. Jak podkreślają eksperci NASK, “chałkoń” to przykład tzw. boomertrapu, gdzie niskiej jakości treści AI są wykorzystywane do badania reakcji odbiorców i gromadzenia danych, co może prowadzić do poważniejszych oszustw i manipulacji. Na przykład takich, jak skłonienie 53-letniej Francuski, by przekazała 800 tys. euro na rzecz schorowanego „Brada Pitta”, o czym pisze m.in. tygodnik Polityka.

Deepfake – skala problemu i ostrzeżenia ekspertów

Deepfake umożliwia manipulację materiałami audiowizualnymi. Coraz lepsze algorytmy sztucznej inteligencji i wydajniejsze komputery powodują, że przygotowanie takiego nagrania nie nastręcza trudności. Powyższe przykłady dowodzą, że nawet nie trzeba się bardzo starać. Ludzie są skłonni uwierzyć we wszystko.

Eksperci NASK (Naukowa i Akademicka Sieć Komputerowa) ostrzegają, że od początku maja 2024 r. odnotowano znaczny wzrost prób wyłudzeń z użyciem deepfake’ów, które wyglądają coraz bardziej wiarygodnie i są coraz trudniejsze do wykrycia. W ciągu ostatnich miesięcy odnotowano znaczny wzrost przypadków użycia deepfake w celu oszukiwania odbiorców za pomocą fałszywych inwestycji finansowych. Dlatego tak ważne jest bardzo ostrożne podchodzenie do niezweryfikowanych treści wideo, zwłaszcza tych mających wpływ na postrzeganie znaczących postaci i instytucji. Tym bardziej że w porównaniu z tego typu wideo wszystkie dotychczasowe metody, typu „na wnuczka” lub ,,na pracownika banku”, ewentualnie „na policjanta, który ostrzega przed oszustami” wydają się prymitywnie proste.

Rodzaje deepfake’ów

Deepfake’i prezentują różny poziom wyrafinowania i złożoności. Niektóre są nieudolne, inne tak przygotowane, że tylko duża doza nieufności pozwali ostatecznie odróżnić prawdę od kłamstwa. Najbardziej popularne to:

  • Wideo Deepfake (Video Deepfake)
    Face Swap: Technika polegająca na zamianie twarzy jednej osoby na drugą.
    >Lip-sync Deepfakes: Manipulacja mimiką, w tym synchronizacja ruchu ust z wygenerowanym dźwiękiem, co pozwala na „wypowiadanie” słów przez osobę na nagraniu, których nigdy nie wypowiedziała.
  • Audio Deepfake (Audio Deepfake)
    Voice Cloning / Voice Synthesis: Proces generowania lub klonowania głosu, który umożliwia stworzenie nagrań audio, w których dana osoba wydaje się mówić, mimo że faktycznie nie miała okazji tego zrobić.
    Audio Manipulation: Modyfikacja istniejących nagrań, na przykład zmiana tonu, tempa czy barwy głosu.
  • Statyczne obrazy i fotografie (Deepfake Still Images)
    Synthetic Faces / AI-Generated Faces: Tworzenie całkowicie syntetycznych, ale realistycznych zdjęć twarzy osób, które nie istnieją w rzeczywistości.
    Image Manipulation / Image Editing: Edycja istniejących fotografii w celu zmiany cech, takich jak mimika, wiek czy inne elementy obrazu.
  • Deepfake Tekstowe (Text Deepfakes)
    AI-Generated Text / Text Deepfakes: Generowanie tekstów, które naśladują styl, sposób wypowiedzi lub charakterystyczne zwroty konkretnej osoby, co może wprowadzać odbiorców w błąd.
  • Full-body Deepfake (Full-body Deepfake)
    Full-body Video Deepfake / Body Reenactment: Zaawansowane modyfikacje wideo, w których nie tylko twarz, ale także cała sylwetka, gesty i ruchy ciała są zmieniane, co pozwala na stworzenie jeszcze bardziej przekonujących fałszywych nagrań.

Każda z tych kategorii wykorzystuje zaawansowane algorytmy sztucznej inteligencji i może być wykorzystywana zarówno w celach artystycznych i rozrywkowych, jak i w potencjalnie szkodliwych działaniach, takich jak dezinformacja czy oszustwa.

W jaki sposób wykrywać oszustwa typu deepfake

Wydaje się, że najlepszym obrońcą jest zdrowy rozsądek i trochę ostrożności. O tym, że nie ławo jest je zachować, przekonał się w grudniu 2024 roku jeden z polskich senatorów. Został on oszukany na kilkaset tysięcy złotych. Mimo że tym razem oszuści nie bawili się nawet w przygotowanie spreparowanych nagrań. Wykorzystali klasyczną już metodę „na policjanta”. Ten przypadek dowodzi jednak, że łatwo stracić czujność. W przypadku fałszywy nagrań jeszcze łatwiej paść ofiarą oszustów. Dlatego w odpowiedzi na rosnącą liczbę deepfake’ów powstały różne narzędzia do ich wykrywania:

  • FakeCatcher (Intel): analizuje zmiany w przepływie krwi w pikselach wideo, osiągając wysoką dokładność wykrywania.
  • Microsoft Video Authenticator: ocenia autentyczność zdjęć i filmów poprzez analizę subtelnych zmian.
  • Sentinel: automatycznie analizuje multimedia pod kątem oznak manipulacji.
  • Deepware Scanner: open source narzędzie wykorzystujące architekturę EfficientNet-B7 do analizy twarzy. Jeden z łatwiejszych do zastosowania.
  • Sensity: oferuje API do wykrywania deepfake’ów poprzez analizę plików obrazów i wideo.

Korzystanie z tych narzędzi wymaga jednak trochę zachodu. To nie są programy, które każdy użytkownik ma na podorędziu i w razie wątpliwości z nich skorzysta. Dlatego warto zacząć od najprostszych metod weryfikacji, zwracając uwagę na:

  • zniekształcenia i rozmazanie obrazu w okolicy ust,
  • dziwne zmiany w geometrii twarzy,
  • nienaturalne ruchy głowy i dziwna mimika,
  • niezgodność mimiki i ruchów ust z wypowiadaną treścią (choć to zdarza się coraz rzadziej),
  • błędy gramatyczne, wymowy, odmiany słów oraz nietypową intonację,
  • zmianę akcentu, barwy i wysokości głosu.
  • nienaturalne pauzy w zdaniach.

Analizując przekaz, należy zwrócić uwagę na różne socjotechniczne sztuczki. Oszuści często sięgają po autorytet przypisywany osobom zaufania publicznego oraz ponaglają do działania, sugerując upływający czas na skorzystanie z oferty. Kierują przekaz do podatnych grup oraz odwołują się do emocji, obiecując szybkie zyski i podkreślając przynależność do grupy elitarnej.

Statystyki dotyczące deepfake’ów

Chociaż brak szczegółowych statystyk dotyczących oszustw deepfake w Polsce, zjawisko to gwałtownie przybiera na sile. Według ekspertów firmy DeepMedia pracującej nad narzędziami do wykrywania tzw. mediów syntetycznych, przez ostatnich kilka lat wzrost liczby materiałów tego typu był wykładniczy. W 2023 r. w mediach społecznościowych na całym świecie udostępniono około 500 000 deepfake’ów filmów i nagrań głosowych, a prognozy wskazują, że do 2025 roku ich liczba może wzrosnąć do aż 8 milionów.

Według raportu „State of Information Security” opublikowanego przez serwis ISMS.online, ponad jedna trzecia firm w USA została zaatakowana przy użyciu deepfake’ów w ciągu ostatnich 12 miesięcy. To czyni deepfake’y jednym z najczęściej stosowanych narzędzi w atakach cybernetycznych. O tym, jak bolesne mogą być konsekwencje przekonał się pracownik firmy Arup Group w Hongkongu. Padł on ofiarą oszustwa, w którym cyberprzestępcy wykorzystali deepfake, by podszyć się pod dyrektora finansowego. Hakerzy stworzyli wirtualną kopię kilku pracowników biura, korzystając z nagrań z połączeń na WhatsApp i innych komunikatorach. Zmanipulowani pracownicy dokonali 15 przelewów na łączną kwotę przekraczającą 25 milionów dolarów, zanim ktoś zorientował się, że coś jest nie tak.

Nie ufaj politykom

Na kradzież wizerunku i głosu narażone są osoby znane i cieszące się społecznym autorytetem, takie jak politycy, biznesmeni czy celebryci. Fałszywe treści często przypominają przekaz programu informacyjnego. Właśnie tym kierowali się oszuści przygotowujący spreparowane nagrania. Wykorzystali w nich m.in. wizerunki prezydenta Andrzejem Dudy, Roberta Lewandowskiego czy biznesmena, założyciela InPostu Rafała Brzóski. Takim autorytetom łatwo zaufać. Coraz doskonalsze nagrania powodują, że łatwo ulec złudzeniu i uwierzyć w autentyczność nagrania. Dlatego, aby bronić się przed oszustwami wykorzystującymi deepfake, należy analizować zarówno stronę techniczną materiału, jak i jego przekaz.
 
W walce z przestępcami sprawdza się też polityka ,,zero trust”.

 

Deepfake – rosnące zagrożenie w świecie cyfrowym

[CZYTAJ ONLINE] Nr 1/2025 “a&s Polska”

Zostaw komentarz

Serwis wykorzystuje pliki cookies. Korzystając ze strony wyrażasz zgodę na wykorzystywanie plików cookies.