#COVER STORY #Kontrola dostępu #Polecane

Biometria – oko w oko z deepfake’ami

Futurystyczny obraz skanowania tęczówki oka

Jakieś piętnaście lat temu technologie biometryczne kojarzyły się głównie z filmami science fiction i futurystycznymi wizjami cyfrowego bezpieczeństwa. Dziś stanowią codzienność, poczynając od ochrony smartfonów po dostęp do stref chronionych w obiektach infrastruktury krytycznej. Biometria stała się synonimem niezawodnego uwierzytelniania, a jej rozwój przyspiesza w niespotykanym tempie. Ta popularność ma jednak swoją cenę.

Wiadomo, że każde zabezpieczenie stworzone przez człowieka może zostać przez człowieka pokonane. Popularność biometrii zbiega się w czasie z rozwojem technik wykorzystujących narzędzia SI, w szczególności związanych z technikami deepfake i spoofingiem. A coraz łatwiejszy dostęp do narzędzi generatywnej sztucznej inteligencji sprawia, że fałszowanie tożsamości biometrycznej za pomocą deepfake’ów i spoofingu staje się tanie i dostępne nawet dla amatorów. W efekcie najnowszym sposobom biometrycznych zabezpieczeń depczą po piętach równie wyrafinowane techniki służące ich łamaniu.

Deepfake – fałszywe, ale bardzo realistyczne, obrazy, filmy lub nagrania uzyskane dzięki narzędziom wykorzystującym SI, a w szczególności sieci neuronowe typu deep learning (często GAN – generative adversarial networks). Deepfake umożliwia np. podmianę twarzy w filmie, wygenerowanie fałszywego nagrania głosu konkretnej osoby lub symulację jej mimiki i ruchu w czasie rzeczywistym. Tego typu Bywa wykorzystywana zarówno w rozrywce, jak i w działaniach dezinformacyjnych oraz przestępczych, w tym do omijania zabezpieczeń biometrycznych.

Spoofing (w kontekście biometrii) – to technika podszywania się pod inną osobę lub system w celu oszukania mechanizmu uwierzytelniania. W przypadku biometrii może to oznaczać np. wykorzystanie zdjęcia, filmu, nagrania głosu, silikonowego odcisku palca lub sztucznej gałki ocznej imitującej cechy biometryczne prawdziwego użytkownika. Celem spoofingu jest przejście przez system zabezpieczeń bez posiadania autentycznych danych biometrycznych.

Jednym z największych zagrożeń dla rozwiązań biometrycznych są techniki bazujące na generatywnej sztucznej inteligencji. Deepfake – choć początkowo traktowany jako narzędzie wykorzystywane do tworzenia wideo-rozrywki czy propagandy – w kontekście systemów bezpieczeństwa urasta do rangi realnego i rosnącego zagrożenia. Symulacje twarzy, głosu czy ruchu ciała stworzone przez sztuczną inteligencję mogą w wielu przypadkach skutecznie oszukać systemy rozpoznawania biometrycznego, szczególnie te bazujące na danych statycznych i prostych mechanizmach weryfikacji.

Aby w pełni zrozumieć skalę wyzwań konieczne jest przyjrzenie się bliżej rodzajom biometrii wykorzystywanej w systemach kontroli dostępu. Tradycyjnie dzieli się ją na dwie główne grupy: biometrię fizyczną oraz behawioralną. Ta pierwsza to rozpoznawanie twarzy, skanowanie odcisków palców, geometria dłoni, analiza tęczówki lub siatkówki oka bądź układu żył dłoni. Druga kategoria obejmuje elementy związane z zachowaniem użytkownika, takie jak sposób mówienia, dynamika pisania na klawiaturze, sposób poruszania się (analiza chodu), a nawet wzorce korzystania z urządzeń mobilnych.

Każde z zabezpieczeń można próbować obejść lub złamać. Dotyczy to także biometrii.

Technologia rozpoznawania twarzy, szczególnie popularna w systemach bezdotykowego dostępu i w smartfonach, jest podatna na ataki z wykorzystaniem realistycznych animacji twarzy odtworzonych na ekranie lub generowanych w czasie rzeczywistym awatarów. Przypadki przełamywania zabezpieczeń za pomocą deepfake’owych nagrań twarzy stają się coraz powszechniejsze. Systemy głosowe – stosowane m.in. w bankowości telefonicznej – narażone są z kolei na ataki bazujące na rekonstrukcji głosu użytkownika powstałych na bazie nawet bardzko krótki próbek dźwięku. Wraz z rozwojem technologii typu voice cloning wystarczy zaledwie kilka sekund autentycznego nagrania, by algorytmy opracowały niemal doskonałą kopię głosu, która w wielu przypadkach wystarcza do przejścia procesu uwierzytelniania.

Rozwiązania wykorzystujące odcisk linii papilarnych lub skanowanie oka (tęczówki lub siatkówki) są wprawdzie mniej podatne na typowe deepfake’i, ale przecież nie są w stu procentach odporne na ataki. W ich przypadku wymagają od atakującego po prostu więcej zachodu. Jeśli mowa o odciskach palców, to odnotowano przypadki ich fałszowania za pomocą silikonowych kopii lub precyzyjnych wydruków 3D, które potrafią zmylić starsze lub mniej zaawansowane skanery. W zakresie identyfikacji oka rosnącym problemem są soczewki kontaktowe zawierające nadruk wzoru imitującego rzeczywistą tęczówkę, a także techniki wykorzystujące wysokiej jakości zdjęcia oka pozyskane z mediów społecznościowych lub źródeł publicznych. Dlatego w najnowszych urządzeniach do rozpoznawania tęczówki stosowane są dodatkowe zabezpieczenia przed fałszerstwami. Jednym z takich zabezpieczeń są błyski światłą prowokujące źrenicę do kurczenia się. To sprawia, że urządzenie w czasie pomiaru „nie da się” oszukać nadrukiem tęczówki na spreparowanych szkłach kontaktowych.

Biometrii coraz więcej

Wygoda biometrii powoduje, że rośnie skala wdrożeń i inwestycji w te rozwiązania. Już w tym roku światowy rynek biometrii ma osiągnąć wartość ok. 60 mld USD. Jeszcze większą dynamiką wykazuje segment tzw. next-generation biometrics, którego wartość w tym samym roku osiągnie poziom 67,2 mld USD (Next-Generation Biometrics Market Size, Share & Trends). Biometria jako usługa (Biometric-as-a-Service, BaaS) również notuje szybki wzrost – w 2025 r. wartość tego segmentu rynku sięgnie 3,6 mld USD, niemal trzykrotnie więcej niż pięć lat wcześniej (Biometric-as-a-Service Market Forecast to 2030). W sektorze bankowym, który od lat odgrywa rolę prekursora cyfrowych technologii bezpieczeństwa, aż 87% globalnych banków korzysta z biometrii do uwierzytelniania (Financial Data Consent Trends: Biometric Data and Dynamic Permissions in 2025, stan na marzec 2025). Rynek biometrii w sektorze bankowym wart jest 7,232 mld USD w 2025 r., z prognozą wzrostu do 21,8 mld USD do 2033 r. Bankowość biometryczna będzie rosła ze średnioroczną stopą wzrostu CAGR wynoszącą 14,788% w latach 2025–2033 (dane wg Biometrics Banking Market Report 2025, Global Edition)

Biometria nowej generacji (next-generation biometrics) to zaawansowane technologie identyfikacji osób, które wykraczają poza tradycyjne metody, takie jak odcisk palca czy skan twarzy. Wykorzystują m.in. analizę zachowań (np. sposób chodzenia, pisania, mówienia), skanowanie naczyń krwionośnych, termowizję czy uwierzytelnianie ciągłe z użyciem sztucznej inteligencji. Często łączą kilka metod naraz, zwiększając bezpieczeństwo i odporność na fałszerstwa. Znajdują zastosowanie w bankowości, systemach bezpieczeństwa, telefonach czy kontroli dostępu.

Popularność ma swoją cenę

Efektem rosnącej popularności biometrii jest to, że staje się celem coraz częstszych ataków. Rosnąca dostępność narzędzi do generowania deepfake’ów oraz demokratyzacja technologii AI sprawiają, że zagrożenia stają się coraz bardziej realne – nawet w przypadku użytkowników indywidualnych czy małych firm.

W 2022 r. ataki typu digital injection, kiedy to fałszywe obrazy lub wideo służyły do złamania biometrycznych zabezpieczeń, występowały pięć razy częściej niż tradycyjne prezentacyjne (np. zdjęcia, maski), jak wykazał raport biometryczny iProov za rok 2022 (Biometric Threat Landscape Report Reveals Digital Injection Attacks Now Five Times More Common Than Presentation Attacks. Natomiast w drugiej połowie 2023 r. odnotowano spektakularny wzrost ataków typu face-swap – aż o 704% w porównaniu do pierwszej połowy roku (również raport iProov: New Threat Intelligence Report Exposes the Impact of Generative AI on Remote Identity Verification. Według prognoz na ten rok ataki typu digital injection będą stanowić ponad 80% wszystkich prób oszustw biometrycznych, a face‑swap injection mogą wzrosnąć trzykrotnie do czterokrotnie względem poziomów z 2023 wg danych opublikowanych przez VPRanks w artykule Biometric Hacking: Digital Injection Attacks Take the Lead.

Rozwiązaniem nie jest jednak rezygnacja z biometrii lecz jej mądre i warstwowe wdrażanie.

Coraz większe znaczenie będą odgrywać systemy multimodalne łączących kilka metod biometrycznych w ramach jednego procesu weryfikacji. Większy nacisk kładzie się też na rozwój sztucznej inteligencji wykrywającej różnego rodzaju odstępstwa od zaprogramowanej normy – nie tylko w samym obrazie czy dźwięku, ale także w zachowaniu użytkownika i metadanych nagrania. Ważna będzie również standaryzacja i regulacje – zarówno po stronie twórców oprogramowania, jak i odbiorców końcowych, w tym instytucji publicznych i sektorów infrastruktury krytycznej.

Jednak szczególnie niepokojący jest fakt, że systemy, które były projektowane z myślą o eliminacji haseł i PIN‑ów, mogą w niektórych przypadkach stać się łatwiejsze do złamania niż tradycyjne metody uwierzytelniania – zwłaszcza, jeśli nie zawierają mechanizmów potwierdzających, że o dostęp stara się faktycznie człowiek, ale co ważniejsze żywy człowiek. Mowa o tzw. liveness detection, czyli detekcji żywotności. To zaawansowana technologia biometryczna, która weryfikuje autentyczność danych pochodzących od żywej osoby. Jej głównym zadaniem jest odróżnienie prawdziwych cech biometrycznych od sztucznych lub zreprodukowanych źródeł, takich jak fotografie, nagrania wideo, maski silikonowe czy syntezowane odciski palców. Jest to pierwsza linia obrony przeciwko atakom spoofingowym, w których cyberprzestępcy próbują oszukać systemy biometryczne za pomocą fotografii, nagranych próbek głosu, sztucznych odcisków palców czy masek imitujących ludzką twarz.

W przypadku systemów rozpoznawania twarzy analizowane są dynamiczne cechy żywej osoby, takie jak naturalne mrugnięcia, ruchy gałek ocznych, zmiany mimiki oraz głębia obrazu. Dodatkowo można sprawdzać reakcję na polecenia, choćby spojrzenia w konkretną stronę czy wykonanie określonego gestu.

Weryfikacja głosu koncentruje się na unikalnych właściwościach żywej mowy, analizując naturalne intonacje, modulacje głosu oraz wykrywając mikrodrgania charakterystyczne dla ludzkiej krtani. System może również zadawać losowe pytania wymagające odpowiedzi w czasie rzeczywistym, co uniemożliwia użycie wcześniej nagranych próbek.

Podczas skanowania odcisków palców system bada fizjologiczne właściwości żywej skóry, sprawdzając przewodnictwo elektryczne charakterystyczne dla żywych tkanek oraz subtelne ruchy wynikające z naturalnego drżenia ciała oraz temperaturę i wilgotność powierzchni skóry.

Detekcja żywotności może być pasywna lub aktywna. Pasywna działa w tle, analizując dane bez angażowania użytkownika. System automatycznie bada cechy wskazujące na autentyczność, takie jak naturalna struktura twarzy czy charakterystyczne właściwości głosu. Aktywna detekcja żywotności wymaga zaangażowania osoby sprawdzanej: wykonanie określonych gestów lub ruchów, odpowiedzi na polecenia głosowe lub reakcję na bodźce wizualne lub dźwiękowe.

Biometria w 2025 r. znajduje się w punkcie przełomowym. Z jednej strony stanowi fundament nowoczesnych systemów zabezpieczeń, z drugiej wymaga głębokiej refleksji i dostosowania do realiów nowej epoki cyfrowych fałszerstw. Jej przyszłość nie zależy wyłącznie od postępu technologicznego, ale także od naszej zdolności do rozpoznawania i przeciwdziałania coraz bardziej wyrafinowanym zagrożeniom. W epoce, w której każdy obraz i dźwięk można zmanipulować, prawdziwym wyzwaniem staje się nie tyle identyfikacja człowieka, ile potwierdzenie jego autentyczności – tu i teraz.

Rodzaje biometrii stosowane w kontroli dostępu

W praktyce wyróżniamy dwie główne grupy technologii biometrycznych:

  • Fizyczne

Odcisk palca – najpowszechniejsza metoda, stosowana w smart‑lockach i terminalach czasu pracy.
Rozpoznawanie twarzy – bezdotykowe, oparte na analizie kształtu i proporcji twarzy.
Skanowanie tęczówki i siatkówki – bardzo wysoka dokładność dzięki unikalnym wzorom oka.
Geometria dłoni i wzór żył – pomiar kształtu ręki lub wewnętrznych naczyń krwionośnych.

  • Behawioralne

Rozpoznawanie głosu – analiza tonacji, tempa i rytmu mowy.
Dynamika pisania i ruchy myszy – identyfikacja nawyków użytkownika.
Analiza chodu – unikalny sposób poruszania się.

Zagrożenia deepfake’inteligencji zależne od typu biometrii

  • Rozpoznawanie twarzy

Deepfake’owe wideo prezentowane na ekranie lub wirtualne awatary potrafią oszukać systemy oparte na kamerach, gdyż generowane obrazy odwzorowują mimikę i proporcje twarzy z najwyższą dokładnością.

  • Głos

Odtworzenie syntetycznego nagrania głosowego na bazie kilkusekundowego fragmentu materiału pozwala przejąć uwierzytelnienie w systemach głosowych stosowanych np. w call center.

  • Odcisk palca

Choć wymaga fizycznego kontaktu, to zaawansowane formy spoofingu – druk 3D lub silikonowe odlewy – mogą skutecznie imitować linie papilarne.

  • Tęczówka i siatkówka

Ataki są tu bardziej wymagające, lecz już dziś wykorzystuje się wysokorozdzielcze zdjęcia oka oraz specjalne soczewki z nadrukiem fikcyjnych wzorów.

  • Wzorce behawioralne

Fałszowanie wzorców chodu lub pisania jest trudniejsze, ale możliwe dzięki nagraniu i modelowaniu zachowań użytkownika przez algorytmy uczenia maszynowego.

Biometria – oko w oko z deepfake’ami

Bezpieczne miasto jest dobrze pomyślane

Biometria – oko w oko z deepfake’ami

Biometria – oko w oko z deepfake’ami

Zostaw komentarz

Serwis wykorzystuje pliki cookies. Korzystając ze strony wyrażasz zgodę na wykorzystywanie plików cookies.