Strona główna Telewizja Dozorowa Rybim okiem

Rybim okiem

Jan T. Grusznic

Kamery panoramiczne coraz częściej stanowią podstawę rozwiązań wizyjnych, zwłaszcza w segmencie retail. Pozwalają na szybkie wychwycenie ruchu w przestrzeniach dozorowanych, zapewniając jednocześnie obserwację jego ciągłości. Są nieocenione jako poglądowa mapa zdarzeń. Zastosowane w sklepach czy salonach prasowych mierzą długość kolejek, czas przebywania w strefach promocyjnych, śledzą podatność ludzi na kampanie marketingowe. Wersje zewnętrzne kamer panoramicznych zastąpiły lustra do przeglądu podwozia pojazdów. Potencjalnych rozwiązań, w których można wykorzystać kamery panoramiczne, jest znacznie więcej.

Sercem kamer panoramicznych jest zespół soczewek, który umożliwia utworzenie obrazu –popularnie zwanego w fotografii rybim okiem (fisheye) – o bardzo szerokim kącie widzenia, w zakresie 180–220°. Obiektyw ten charakteryzuje się silną, nieskorygowaną dystorsją beczkowatą, zapewniającą projekcję obrazu panoramicznego. W zależności od sposobu, w jaki został skonstruowany i jak światło rzutuje na element światłoczuły, obiektywy typu „rybie oko” dostarczają różne obrazy. Te „zamknięte w kole”, spotykane najczęściej, są wynikiem „wpisania” obrazu w przetwornik, stąd charakterystyczne ciemne obszary po prawej i lewej stronie kadru (rys. 1a).

Wykazujący silną dystorsję obraz, ale wypełniający cały kadr bez widocznych czarnych stref też należy do rozwiązań z rodziny kamer hemisferycznych. Powstaje w wyniku opisania obrazu z obiektywu panomorficznego na przetworniku (rys. 1b) i odpowiada kątowi widzenia 180°, ale po przekątnej kadru.

Rys. 1. Przykłady rzutowania światła przez obiektyw typu „rybie oko” na przetwornik: a) obraz jest wpisany w przetwornik, b) przetwornik jest wpisany w obraz za pomocą obiektywu panomorficznego o zwiększonym stosunku piksel/kąt w strefie B [3]
Obiektywy panomorficzne rzutują na przetwornik obraz eliptyczny, pokrywając większą jego powierzchnię aniżeli obiektywy typu fisheye, z których obraz jest wpisany w przetwornik.
Sama konstrukcja obiektywu jest oparta na specjalnie modelowanych soczewkach, które dzięki odpowiednim „zakrzywieniom” dostarczają obraz o wyższej szczegółowości (ponieważ wykorzystują większą liczbę pikseli w danej strefie) w obszarze oddalonym od środka optycznego obiektywu. Od strony użytkowej podstawową różnicą pomiędzy obiektywami typu „rybie oko” a panomorficznymi jest strefa, w której uzyskuje się obraz najwyższej jakości. Na rys. 2 przedstawiono schematy rzutów obrazu na przetwornik przez omawiane zespoły soczewek. Dla obiektywów panomorficznych część obrazu o najwyższej szczegółowości przypada na strefę B, a dla obiektywów typu „rybie oko” dla strefy A.

Strefa C w obu przypadkach dostarcza obrazy gorszej jakości ze względu na silną dystorsję i aberrację sferyczną. Producenci jednoprzetwornikowych kamer panoramicznych, chcąc wyeliminować powyższe ograniczenia, stosują prosty zabieg: rzutują obraz z soczewek fisheye nieco poza przetwornik, zwiększając tym samym użyteczną strefę obserwacji – strefę A (rys. 3). Dzięki temu kamery z tradycyjnymi obiektywami fisheye traktuje się jako rozwiązania bardziej uniwersalne ze względu na możliwość instalacji na powierzchniach równoległych do podłoża i na ścianach. Być może konstrukcja obiektywu panomorficznego w pewnym stopniu ogranicza zastosowanie kamery tylko do sufitów i biurek, za to świetnie sobie radzi z wizualizacją osób uczestniczących np. w telekonferencji.

Rys. 2. Uproszczony przykład rzutowania obrazu na przetwornik obrazu w kamerze. Po lewej obraz wykonany za pomocą obiektywu typu „rybie oko” o stałym stosunku piksel/kąt, po prawej obraz hemisferyczny wykonany za pomocą obiektywu panomorficznego o zwiększonym stosunku piksel/kąt w strefie B [3]
Do rozwiązań panoramicznych należą także kamery wieloprzetwornikowe, składające się najczęściej z kilku niezależnych kamer obserwujących otoczenie w zakresie 180° lub 360°. Każdy z obrazów utworzony przez niezależny zespół optyki i przetwornika jest składową jednego panoramicznego obrazu. W zależności od przyjętej technologii kamera dostarcza obraz już w pełni przez nią przekształcony o rozdzielczości np. 1200 x 6400 pix (przy założeniu wykorzystania przetworników ~2 Mpix) lub 4 niezależne strumienie wizji o rozdzielczości np. 1200 x 1600 pix, które następnie są ze sobą łączone w odpowiednim oprogramowaniu po stronie jednostki komputerowej (lub serwerowej).

Rys. 3. Najpowszechniej spotykany sposób rzutowania obiektywów typu „rybie oko” na przetwornik obrazu w kamerach hemisferycznych

Podana przykładowa rozdzielczość 2 Mpix nie jest ograniczeniem. Obecnie takie rozwiązania stanowią alternatywę dla kamer panoramicznych – droższą, ale dostarczającą obraz o wyższej jakości na obrzeżach kadru, w porównaniu z uzyskanymi przez panoramiczne kamery jednoprzetwornikowe.

Warto zapamiętać:
Im więcej wykorzystamy przestrzeni ze strefy, która nie jest optymalna dla tego rodzaju soczewki, tym gorszej jakości obraz uzyskamy. Dlatego też należy unikać przekształcania części obrazu znajdujących się w strefie C, a podwójną panoramę wykorzystywać z soczewkami panomorficznymi. Jeśli nie jest to możliwe, warto rozważyć zainstalowanie kamery na ścianie i wykorzystanie przekształcenia panoramicznego (rys. 4b).


Przekształcenia, mapowanie i inne magiczne sztuczki

Obiektywy stosowane w rozwiązaniach obserwacji dookólnej mogą mieć różną budowę, zatem obrazy przez nie tworzone będą się od siebie różnić. Informacja o konstrukcji obiektywu jest kluczowa dla oprogramowania, którego zadaniem jest przekształcenie zdeformowanego obrazu do obrazu bliskiego rzeczywistemu (dewarping). Właściwe przekształcenie widoku hemisferycznego wymagana specjalistycznej wiedzy dotyczącej mapowania obrazów, czyli sposobu, w jaki jest on rzutowany na płaszczyznę przetwornika.

Późniejsza wymiana obiektywu na dowolny będzie skutkowała pogorszeniem jakości przetworzonego obrazu hemisferycznego.
Najbardziej popularnymi przekształceniami w kamerach 360° są:
– podwójna panorama, dająca bardzo dobre rezultaty przy wykorzystaniu soczewek anamorficznych (rys. 4a),
– panorama dająca bardzo dobrą jakość widzenia dla kamer instalowanych np. na ścianie, z tradycyjnymi soczewkami typu „rybie oko” (rys. 4b),
– quad, czyli układ 2 x 2 zapewniający obserwację planu z przekształceniem do 4 obrazów sąsiadujących ze sobą. Dobra jakość dla soczewek tradycyjnych typu fisheye oraz panomorficznych,
– wirtualny PTZ, który wynika bezpośrednio z możliwości przekształcania obrazu hemisferycznego do formatu quad. Przetwornik o odpowiednio wysokiej rozdzielczości umożliwia kilkukrotne powiększenie cyfrowe poszczególnych fragmentów obrazu.

Rys. 4. Typowe przekształcenia w kamerach 360°

Schematy widoczne na rys. 4a, 4b i 4c należy traktować jako poglądowe, ponieważ w trakcie wykonywania przeliczeń część informacji zostaje utracona.

Przeznaczenie: ogólny dozór wizyjny
Kamery hemisferyczne służą do ogólnego podglądu zdarzeń w nadzorowanej strefie. Takie funkcje, jak rejestracja znaków szczególnych, identyfikacja, rozpoznanie czy obserwacja daleko wychodzą poza zakres możliwości tych rozwiązań. Kamery panoramiczne sprawdzają się w aplikacjach nadzoru tłumu. Według wskazań polskiej normy PN-EN 62676-4:2015-06 [4] osoba ma być ujęta w kadrze w proporcji 80 mm wysokości przypadających na 1 piksel przetwornika obrazu lub w wizyjnej detekcji ruchu (40 mm/piksel).

Niestety wyznaczenie zakresu obserwowanej przestrzeni z uwzględnieniem wytycznych normy to nie lada wyzwanie. Obiekt znajdujący się w tej samej odległości w osi optycznej obiektywu jest reprezentowany przez większą liczbę pikseli niż ten sam obiekt w tej samej odległości, ale z dala od osi optycznej. Również odległość obiektu od punktu instalacji kamery ma wpływ na zmianę stosunku milimetry/piksele. Dostępne na rynku kalkulatory do określenia rozdzielczości obiektu na obrazie, przy znanych wartościach rozdzielczości przetwornika, ogniskowej i kąta obserwacji opierają się na modelu prostoliniowym, znajdują więc zastosowanie do obliczeń dla podstawowych soczewek o niedużej dystorsji. Nie są jednak przydatne w przypadku obiektywów typu „rybie oko” ze względu na zbyt silne zniekształcenia w całym kadrze. Ponadto uzyskanie poprawnych wyników obliczeń nie jest możliwe bez informacji o faktycznej wielkości naświetlonej części przetwornika. Nie można zakładać, że wykorzystywana jest cała matryca, np. 5 Mpix (1920 x 2560) (czarne obszary w skrajnych częściach obrazu). Jeżeli rzutowany obraz jest w pełni wpisany w przetwornik, do obliczeń można użyć wzoru na pole koła – ?r2. Promień w tym przypadku będzie równy 1 liczby pikseli wysokości przetwornika, czyli 1920/2 = 960. A zatem ? x 9602 = ~2 900 000 pix, czyli niecałe 3 Mpix!

Zaskakujące, zwłaszcza że w kartach katalogowych jest podawana rozdzielczość całego przetwornika, co jest poprawne tylko dla obrazów tzw. full fisheye, gdzie przetwornik jest wpisany w rzutowany obraz, wykorzystując całą matrycę światłoczułą.
W obliczaniu gęstości pikseli (mm/px) pojawia się jeszcze jedna przeszkoda. Wydawać by się mogło, że dodatkowe przekształcenia w obrazie (rys. 4a, 4b, 4c) spowodują dodatkowy spadek liczby pikseli. W zasadzie to jest prawda, ale… W obrazie „przetworzonym” widoczna liczba pikseli może być jednak większa. Wynika to z komputerowej korekcji dystorsji, której zadaniem jest „wyciąganie” krawędzi i prostowanie oryginalnie zakrzywionych przestrzeni w obrazie – brakujące piksele są najczęściej „dorabiane” w podobny sposób, jak w przypadku interpolacji dla kolorowego obrazu o rozdzielczości 3 x 3 piksele do rozdzielczości 5 x 5 (rys. 5).

Rys. 5. Uproszczony schemat przekształcenia fragmentu obrazu natywnego, przejawiającego silną dystorsję do obrazu „wyprostowanego” reprezentowanego przez większą liczbę pikseli w obrazie [5]
Algorytm wprowadza puste piksele pomiędzy dwa piksele zarejestrowane w obrazie X. Daje to obraz Y. Nowo wprowadzone piksele zostały oznaczone jako „?”. Następnie algorytm wylicza najbardziej prawdopodobny kolor, jaki powinien mieć wprowadzony piksel. Wyliczenie opiera się na kolorach sąsiadujących pól, np. między pikselami o kolorach żółtym i czerwonym najprawdopodobniej powinien znaleźć się punkt o barwie pomarańczowej (jako kolor przejściowy). Następnie analizując kolory pikseli sąsiadujących z dodanymi, algorytm wylicza barwy dla nowych pól i wprowadza odpowiednie kolory. W efekcie otrzymujemy obraz Z o rozmiarach 5 x 5 pikseli – pojemnościowo większy, lecz bez nowych szczegółów.

Artykuł jest skróconą wersją artykułu opublikowanego w wydaniu specjalnym „Systemy Alarmowe” – Kamery panoramiczne 360°, 2014.

Literatura
[1] http://www.vision-systems.com//articles/2001/08/philips-csi-selects-iqinvision-iqeye3-camera-for-its-security-products.html
[2] Robin Hill i R. & J. Beck, Ltd., Improvements in Photographic Lenses. Patent zarejestrowany w Urzędzie Patentowym Wielkiej Brytanii #GB225,398; nagrodzony grantem 4 grudnia 1924 r.
[3] Enhanced Surveillance System Based on Panomorph Panoramic Lenses, Simon Thibault, ImmerVision 2020 University, Montreal, Quebec H3A 2A5 Canada, 2007
[4] Systemy dozoru wizyjnego stosowane w zabezpieczeniach – Część 4: Wytyczne stosowania.
[5] http://polymathprogrammer.com/2009/10/29/math-360-fisheye-landscape/
[6] http://www.betterphoto.com/forms/qnaDetail.asp?threadID=28413
[7] http://www.cctv-information.co.uk/i/Light_Transmission_Through_Lenses
[8] „Miś”, reż. Stanisław Bareja, 1980 r.

Jan T. Grusznic
z-ca red. naczelnego „a&s Polska”. Z branżą wizyjnych systemów zabezpieczeń związany od 2004 r. Ma bogate doświadczenie w zakresie projektowania i wdrażania rozwiązań dozoru wizyjnego w aplikacjach o rozproszonej strukturze i skomplikowanej dystrybucji sygnałów. Ceniony diagnosta zintegrowanych systemów wspomagających bezpieczeństwo.