You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
WWW.SYSTEMYALARMOWE.COM.PL<br />
partnerzy wydania:<br />
partnerzy wydania:
2<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Spis treści<br />
3 Zacznijmy od „szczegółów”<br />
Waldemar Więckowski<br />
4 Przetwarzanie obrazów w systemach zabezpieczeń<br />
Sławomir Maćkowiak , Marek Domański<br />
6 Przegląd metod analizy obrazu<br />
Piotr Garbat<br />
9 Quo Vadis aj-wi-ej?<br />
Jan T. Grusznic<br />
12 Analiza wizji, czyli jak zobaczyć więcej<br />
Jakub Sobek – Linc Polska<br />
14 IVA w pracy operatorów systemu CCTV<br />
Paweł Wittich<br />
16 AxxonSoft .Wykraczając poza tradycyjne rozwiązania<br />
AxxonSoft Polska<br />
18 Systemy inteligentnej analizy obrazu według Axis Communications<br />
Axis Communications<br />
20 Inteligentna analiza obrazu w rozwiązaniach Samsung Techwin<br />
Piotr Rogalewski – Samsung Techwin<br />
22 Inteligencja w ruchu. Megapikselowa kamera PTZ z funkcją śledzenia<br />
BCS<br />
24 Zaawansowane funkcje IVA w oprogramowaniu Mirasys 7.0<br />
Profi CCTV<br />
26 Zestaw do automatycznej identyfikacji tablic rejestracyjnych<br />
Polvision<br />
28 Analizuj swój biznes z kamerami AirLive IVS<br />
Paweł Kozłowski – AirLive Polska<br />
29 Oncam Grandeye system inteligentnej analizy<br />
OnCam<br />
30 Zaawansowana analityka Top-Key<br />
Top-Key<br />
Wydawca:<br />
Redakcja „Systemy Alarmowe”<br />
02-952 Warszawa, ul. Wiertnicza 65<br />
tel.: 22 651 80 00 faks: 22 651 92 00<br />
info@systemyalarmowe.com.pl<br />
www.systemyalarmowe.com.pl<br />
„Systemy Alarmowe” – dwumiesięcznik<br />
branży security o tematyce:<br />
• Sygnalizacja włamania i napadu<br />
• Sygnalizacja pożarowa<br />
• Telewizja dozorowa CCTV<br />
• Kontrola dostępu<br />
• Biometria<br />
• Systemy Zintegrowane<br />
• Automatyka Budynkowa<br />
• Ochrona danych i informacji
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis 3<br />
Waldemar Więckowski<br />
Zacznijmy<br />
od „szczegółów”<br />
Tematem wydania <strong>specjalne</strong>go jest Analiza<br />
Zawartości Wizji (Video Content Analysis – <strong>VCA</strong>).<br />
Jak to ładnie ujął Jan T. Grusznic w swoim przewodnim<br />
artykule (Quo Vadis aj-wi-ej?) – bardziej<br />
znana pod nazwą Inteligentnej Analityki<br />
Wizji (Intelligent Video Analytics – IVA).<br />
Polecam uważną lekturę tego artykułu, ponieważ<br />
zwraca on uwagę na „szczegóły”, które nie<br />
mogą przebić się do obiegowej opinii mimo<br />
wieloletniej obecności tej technologii na rynku.<br />
(Chcę podkreślić, że słowo szczegóły zostało<br />
ujęte w cudzysłów).<br />
Pierwszym takim „szczegółem” jest fakt, że<br />
technologia <strong>VCA</strong> w żadnym przypadku nie<br />
jest plug-and-play. Wymaga bardzo starannego<br />
rozważenia konkretnego zastosowania<br />
przed wyborem właściwego wyrobu i żmudnej<br />
konfiguracji po zainstalowaniu. Dosyć powszechnie<br />
nie zwraca się na to uwagi.<br />
Drugim „szczegółem” są doświadczenia zebrane<br />
w trakcie stosowania technologii aj-wi-ej<br />
(IVA) od czasu, kiedy pojawiła się pod tą marketingową<br />
nazwą. W artykule Jana Grusznica<br />
pojawiają się one w wątku rynku detalicznego<br />
(retail)... Czyli sklepy i markety, a w nich zastosowania<br />
związane ze zliczaniem (liczba przemieszczających<br />
się osób, długość kolejki lub poziom zapełnienia<br />
półek sklepowych). Inne zastosowania<br />
inteligentnej analityki to np. detekcja nieprawidłowo<br />
zaparkowanych pojazdów.<br />
Suma summarum: w zastosowaniach niezwiązanych<br />
z zabezpieczeniami IVA jest okay<br />
(algorytmy poprawnie wdrożone stają się biznesem<br />
dochodowym), ale jeśli mowa o ochronie<br />
osób i mienia, to powinniśmy być bardzo<br />
ostrożni.<br />
Te doświadczenia praktyczne z technologią<br />
<strong>VCA</strong> doprowadziły do rozróżniania jej zastosowań<br />
na związane z zabezpieczeniami oraz<br />
z rynkiem detalicznym. Jan Grusznic czytelnie<br />
je rozróżnia, a samo rozróżnienie wyraźnie<br />
podkreśla. Niestety rozróżnienie to zbyt słabo<br />
funkcjonuje w obiegowej świadomości rynku<br />
zabezpieczeń.<br />
I choć algorytmy analizy zawartości wizji nie<br />
mają absolutnie nic wspólnego z inteligentną<br />
analityką, to wskutek intensywnego marketingu<br />
przez dużą część rynku nadal są traktowane<br />
jako będące ową inteligentną analityką.<br />
Skutkiem takiego postrzegania IVA jest opinia,<br />
że skoro algorytmy mogą być inteligentne, to<br />
nie ma powodu zatrudniania ludzi do wykonywania<br />
czynności monitorowania w systemach<br />
dozoru wizyjnego. Takie co najmniej nieprzemyślane<br />
(ostrożnie mówiąc) opinie na polskim<br />
rynku systemów dozorowych CCTV wcale nie<br />
są rzadkie. Reakcją na nie jest równie radykalny<br />
postulat zakazu stosowania <strong>VCA</strong> w systemach<br />
wizyjnego dozorowania miast. W trakcie publicznej<br />
debaty nad prawnym uregulowaniem<br />
dozoru wizyjnego zgłosiła go Akademia Monitoringu<br />
Wizyjnego:<br />
(…) Wobec wielu wyżej opisanych wątpliwości,<br />
jakie rodzi zastosowanie systemów analizy<br />
obrazu w przestrzeni publicznej, uważamy, że<br />
w nowej regulacji należy zabronić stosowania<br />
systemów analizy obrazu do wykrywania<br />
zdarzeń w miejskich systemach monitoringu<br />
wizyjnego. Tym samym należy wprowadzić zapisy,<br />
które uniemożliwią zastępowanie operatorów<br />
przez oprogramowanie [1].<br />
Co ciekawe, bardziej realistycznie postrzegają<br />
tę „alternatywę” człowiek-maszyna osoby na<br />
co dzień niemające do czynienia z dozorem<br />
wizyjnym. Filozof prof. Jan Hartman ujął to tak:<br />
Nie dążę do wyeliminowania operatorów, tylko<br />
twierdzę, że z czasem będą dostawać obraz coraz<br />
bardziej wyselekcjonowany, nie tracąc wszak<br />
możliwości oglądania dowolnego materiału<br />
z kamer, jeśli uznają to za konieczne.<br />
<strong>VCA</strong> jest i będzie pomocnym narzędziem<br />
w czynnościach monitorowania wykonywanych<br />
przez operatorów systemów dozorowych<br />
CCTV. Pod warunkiem wszakże że będzie<br />
narzędziem stosowanym z głową (pojęcie analityka<br />
znaczy ni mniej, ni więcej tylko: naukę<br />
o rozbiorze pojęć i myśli; część składową logiki<br />
Arystotelesa) [2].<br />
Na pytanie zawarte w tytule artykułu Jana<br />
Grusznica odpowiedziałbym, że… na marketingowe<br />
manowce. Na niezadane pytanie Quo<br />
Vadis wi-si-ej (<strong>VCA</strong>)? – że to zależy od tego, czy<br />
uda się ją stosować z głową.<br />
<br />
Dla tych czytelników, którzy zwracają uwagę<br />
na poprawną branżową terminologię, przytaczam<br />
definicje normatywne związane z technologią<br />
<strong>VCA</strong>. Najpierw aktualna Polska (Europejska)<br />
Norma. Nie występują w niej pojęcie<br />
analityka i określenie inteligentna:<br />
PN-EN 50132-1: 2012P Systemy alarmowe,<br />
Systemy dozorowe CCTV stosowane w zabezpieczeniach,<br />
Część 1: Wymagania systemowe<br />
3.1.154 analiza zawartości wizji:<br />
analiza żywych lub zapisanych obrazów telewizyjnych<br />
w celu wykrycia działań, zdarzeń lub<br />
wzorów zachowania zdefiniowanych w wymaganiach<br />
użytkowych<br />
video content analysis: analysis of live or recorded<br />
video to detect activities, events or behaviour<br />
patterns as defined in the operational requirements<br />
3.1.70 analiza obrazu:<br />
wyodrębnianie z obrazu informacji ilościowych<br />
poza tymi, które są łatwo widoczne podczas wizualnego<br />
sprawdzenia<br />
image analysis: extraction of quantitative information<br />
from an image beyond which is readily apparent<br />
through visual examination<br />
Na etapie projektu ostatecznego znajduje się<br />
przygotowywana przez IEC norma (patrz niżej),<br />
w której pojawia się określenie analityka<br />
(tłumaczenie własne). Nadal nie pojawia się<br />
określenie inteligentna:<br />
IEC 62676-2-3: Video surveillance systems for use in<br />
security applications – Part 2-3: Video transmission<br />
protocols – IP interoperability implementation based<br />
on WEB services<br />
systemy dozoru wizyjnego stosowane w zabezpieczeniach,<br />
Część 2-3: protokoły transmisji<br />
wizji – zastosowania międzyoperacyjności<br />
IP bazujące na usługach Web<br />
3.1.15 network video analytics<br />
a device that performs analysis on data received<br />
from a streaming device, such as an NVT, or a storage<br />
device, such as an NVS<br />
sieciowa analityka wizji<br />
urządzenie wykonujące analizę danych otrzymanych<br />
od urządzenia strumieniowego, takiego jak<br />
NVT lub od urządzenia do zapisu, takiego jak NVS<br />
3.1.27 video analytics<br />
algorithms or programs used to analyze video data<br />
and to generate data describing object location and<br />
behavior<br />
analityka wizji<br />
algorytmy lub programy stosowane do analizy<br />
danych wizyjnych i do wygenerowania danych<br />
opisujących umiejscowienie i zachowanie obiektu<br />
Literatura:<br />
[1] „Założenia i kierunki dla regulacji prawnych o systemach<br />
monitoringu wizyjnego” opracowanie Paweł Wittich, współpraca<br />
Przemysław Pierzchała, Akademia Monitoringu Wizyjnego,<br />
Gliwice, grudzień 2012.<br />
[2] Słownik języka polskiego, PWN, Warszawa 1978.<br />
partnerzy wydania:
4<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Sławomir Maćkowiak, Marek Domański<br />
Katedra Telekomunikacji Multimedialnej i Mikroelektroniki Politechniki Poznańskiej<br />
Badania naukowe w Katedrze Telekomunikacji Multimedialnej<br />
i Mikroelektroniki Politechniki Poznańskiej<br />
Przetwarzanie obrazów<br />
w systemach zabezpieczeń<br />
W ostatnich latach szybko rośnie<br />
liczba kamer w systemach dozoru<br />
wizyjnego, a także poprawia się jakość<br />
obrazów uzyskiwanych z tych kamer. Te<br />
oczywiste fakty mają istotne konsekwencje<br />
praktyczne. Szybko rosnąca ilość danych wizyjnych<br />
powoduje potrzebę automatyzacji wyszukiwania<br />
informacji w obrazach, a poprawiająca się jakość<br />
rejestrowanych obrazów umożliwia uzyskiwanie<br />
z nich coraz bardziej złożonych i wiarygodnych<br />
informacji.<br />
Te spostrzeżenia przyświecają intensywnym<br />
badaniom naukowym prowadzonym na całym<br />
świecie. Wyniki badań pokazują, że automatyczna<br />
analiza ruchomych obrazów może służyć<br />
między innymi do wykrywania potencjalnie<br />
niebezpiecznych zachowań ludzi, a także<br />
do identyfikacji osób.<br />
Rys. 1. Obrazy uzyskiwane przez kamery<br />
obserwujące jeden obszar<br />
AUTOMATYCZNE ŚLEDZENIE OSÓB I<br />
KLASYFIKACJA ICH ZACHOWAŃ<br />
Szczególnie ważna grupa zadań systemów<br />
telewizji dozorowej jest związana z obserwacją<br />
obszarów ruchu pieszego i wykrywaniem<br />
niebezpiecznych zachowań. Te<br />
zadania wymagają od operatora systemu<br />
skupienia uwagi w długich okresach czasu,<br />
co w praktyce jest trudne. Dlatego rozwijane<br />
są zautomatyzowane inteligentne<br />
systemy dozoru wykorzystujące skomplikowaną<br />
analizę obrazu ruchomego. Badania<br />
dotyczące takich systemów obejmują zagadnienia<br />
automatycznego śledzenia osób<br />
w obrazach ruchomych oraz automatyczną<br />
klasyfikację zachowań ludzi.<br />
Automatyczne śledzenie poruszających się<br />
osób może być realizowane z wykorzystaniem<br />
obrazów uzyskiwanych z jednej kamery<br />
lub z wielu kamer. Zastosowanie tylko<br />
jednej kamery nie umożliwia skutecznego<br />
śledzenia ludzi w scenie. Często osoby są zasłaniane,<br />
co może być przyczyną niewykrycia<br />
ruchu danej osoby w kierunku zgodnym<br />
z osią optyczną kamery (rys. 1).<br />
Lepszym rozwiązaniem jest zastosowanie<br />
większej liczby kamer (dwóch lub trzech),<br />
pozwalające na dobrą lokalizację osób<br />
w przestrzeni. Do prawidłowego określania<br />
położenia osób w przestrzeni jest wymagany<br />
skalibrowany układ kamer, w którym<br />
wyznaczono wspólny układ współrzędnych<br />
uwzględniający geometryczne rozmieszczenie<br />
kamer w scenie. Prace badawcze<br />
pokazały, że wykorzystanie obrazów z takich<br />
wielokamerowych systemów pozwala<br />
partnerzy wydania:<br />
1.5X
5<br />
bardzo efektywnie i niezawodnie śledzić poszczególne<br />
osoby.<br />
Skuteczne śledzenie osób wymaga wykonania<br />
w pierwszym etapie dobrej klasyfikacji<br />
ruchomych obiektów, co pozwala na wyznaczenie<br />
tych z nich, które reprezentują ludzi.<br />
Następnie w obrazach uzyskanych z różnych<br />
kamer są znajdowane obszary przedstawiające<br />
tę samą osobę.<br />
Jedną z metod jednoznacznej identyfikacji<br />
tego samego obiektu w wielu obrazach jest<br />
projekcja wolumetryczna, która polega na<br />
wyznaczeniu ruchomego obszaru wspólnego<br />
dla wielu obrazów. W kolejnym kroku<br />
dokonywana jest segmentacja przestrzenna<br />
i przypisanie indywidualnego identyfikatora<br />
każdemu obszarowi reprezentującemu<br />
tę samą osobę. Pozwala to w łatwy sposób<br />
rozdzielić poruszające się osoby i uniknąć<br />
problemów związanych z przesłanianiem się<br />
obiektów.<br />
W ramach badań są także doskonalone metody<br />
automatycznej klasyfikacji zachowań<br />
osób, w tym np. omdleń, bójek, wzywania<br />
pomocy, potknięć i upadków. Dla tych zadań<br />
nasz zespół wypracował już rozwiązania wykorzystujące<br />
zaawansowane modelowanie<br />
zachowań oraz różne metody klasyfikacji.<br />
W automatycznej klasyfikacji zachowań ludzi<br />
skuteczne okazuje się zastosowanie opisu za<br />
pomocą punktów charakterystycznych leżących<br />
na konturze sylwetki człowieka. Zachowanie<br />
jednej osoby może być opisane jako<br />
zbiór trajektorii ruchu punktów charakterystycznych.<br />
Zbiór położeń punktów charakterystycznych<br />
w danej chwili czasu definiuje<br />
pozę. Pozy w kolejnych chwilach czasu tworzą<br />
deskryptor zachowania, który charakteryzuje<br />
pewien rodzaj zachowania dla wielu ludzi.<br />
Analiza zachowań sprowadza się w ten sposób<br />
do obliczania różnic pomiędzy wyznaczonym<br />
deskryptorem a przechowywanymi<br />
w bazie danych deskryptorami odpowiadającymi<br />
różnym zachowaniom.<br />
Zastosowanie przedstawionych technik jest<br />
możliwe zarówno dla systemów dozoru wizyjnego<br />
w obszarach otwartych np. miejskich,<br />
jak i w pomieszczeniach zamkniętych,<br />
np. w mieszkaniach i biurach.<br />
WYZNACZANIE ROZMIARÓW<br />
PORUSZAJĄCYCH SIĘ POJAZDÓW<br />
Z WYKORZYSTANIEM SYSTEMÓW<br />
STEREOSKOPOWYCH<br />
Systemy stereoskopowe zostały już dobrze<br />
rozwinięte w zastosowaniach związanych<br />
z rozrywką oraz z robotami. Wykorzystując<br />
wyniki uzyskane dla wspomnianych zastosowań,<br />
podjęto również badania mające na<br />
celu zastosowanie stereoskopii w dozorze<br />
wizyjnym. Opracowano system wykorzystujący<br />
analizę obrazów stereoskopowych do<br />
uzyskiwania informacji o pojazdach samochodowych,<br />
a w szczególności służący do<br />
szacowania ich rozmiarów i klasyfikacji typów<br />
pojazdów.<br />
Rys. 2. Prędkość<br />
bitowa transmisji<br />
obrazów ruchomych<br />
o różnej rozdzielczości<br />
wykonywanej za<br />
pomocą kolejnych<br />
najważniejszych<br />
technik kompresji<br />
Przewiduje się wykorzystanie opracowanego<br />
systemu w następujących scenariuszach:<br />
1. Permanentny dozór i automatyczna sygnalizacja<br />
naruszania zakazów wjazdów przez<br />
pojazdy pewnych typów (np. ponadgabarytowe<br />
pojazdy ciężarowe).<br />
2. Zastąpienie systemem automatycznym badań<br />
natężenia ruchu przez obserwatorów,<br />
którzy na formularzach zaznaczają liczbę<br />
pojazdów poszczególnych typów. Automatyzacja<br />
procesu pozwoli na zwiększenie<br />
czasu trwania pomiarów, przy jednoczesnym<br />
obniżeniu ich kosztów, poprawę<br />
obiektywności, a także na pomiary ruchu<br />
z uwzględnieniem większej liczby kategorii<br />
pojazdów.<br />
3. Permanentna analiza natężenia ruchu poszczególnych<br />
typów pojazdów (bez naruszania<br />
zasad ochrony danych osobowych).<br />
ROZPOZNAWANIE BIOMETRYCZNE OSÓB<br />
WYKORZYSTUJĄCE PRZETWARZANIE<br />
OBRAZÓW<br />
Rozwija się także metody rozpoznawania<br />
osób, które polegają na przetwarzaniu obrazów<br />
przedstawiających różne fragmenty tych<br />
osób. W szczególności przydatna okazała się<br />
analiza kształtu uszu, rozmieszczenia i ukształtowania<br />
rzęs, a także rozmieszczenia naczyń<br />
krwionośnych w spojówkach oczu.<br />
W każdym z wymienionych przypadków<br />
analiza wymaga wstępnego wydzielenia<br />
odpowiedniego obiektu z tła (np. ucha ze<br />
zdjęcia głowy), wyznaczenia wektora cech<br />
obiektu (np. współczynników wielomianu<br />
opisującego kształt ucha oraz wartości<br />
pomiarów odległości od środka ucha do<br />
jego zewnętrznych krawędzi), a następnie<br />
porównania wyznaczonego wektora cech<br />
z wzorcami odpowiadającymi różnym osobom.<br />
Te wzorce są przechowywane w bazie<br />
danych.<br />
Wymienione nowe metody identyfikacji wykorzystują<br />
cechy człowieka, które są stabilne<br />
w długich okresach czasu, natomiast są różne<br />
dla różnych osób. Żadna z tych cech samodzielnie<br />
nie wystarcza do identyfikacji osób,<br />
Prędkość bitowa w skali logarytmicznej [Mb/s]<br />
720 x 576<br />
25 fps<br />
4 16<br />
2 8<br />
1 4<br />
0,5 2<br />
1920 x 1080<br />
25 fps<br />
MPEG-2<br />
AVC (H.264, MPEG-4 cz. 10)<br />
Zaawansowane Kodowanie Wizji<br />
1994 2003 2012 2021<br />
HEVC (H.265, MPEG-H)<br />
Bardzo Efektywne Kodowanie Wizji<br />
natomiast badanie wymienionych cech może<br />
uzupełniać inne metody identyfikacji. Dzięki<br />
zwiększaniu liczby analizowanych cech poprawia<br />
się efektywność i niezawodność działania<br />
systemów identyfikacji osób.<br />
BARDZO EFEKTYWNE KODOWANIE WIZJI<br />
Co około 9 lat pojawia się nowa generacja<br />
technik kompresji obrazu ruchomego. Każda<br />
kolejna generacja umożliwia redukcję prędkości<br />
bitowych mniej więcej o połowę w stosunku<br />
do poprzedniej generacji (rys. 2).<br />
W 2012 roku zakończono prace dotyczące<br />
Bardzo Efektywnego Kodowania Wizji (High<br />
Efficiency Video Coding – HEVC), które pozwala<br />
na uzyskiwanie prędkości bitowych<br />
zredukowanych o połowę w stosunku do<br />
prędkości potrzebnych do przesyłania obrazu<br />
ruchomego, zakodowanego obecnie powszechnie<br />
stosowana techniką AVC (H.264,<br />
MPEG-4 część 10). Znacznie lepsza efektywność<br />
kompresji techniki HEVC jest uzyskiwana<br />
dzięki zastosowaniu algorytmów kodowania<br />
wymagających wykonywania wielokrotnie<br />
większej liczby operacji w stosunku do techniki<br />
AVC.<br />
W najbliższej przyszłości należy się spodziewać<br />
pojawienia się na rynku scalonych koderów<br />
HEVC, co zapewne zapoczątkuje szybkie<br />
zastosowanie tej techniki kompresji w telewizji<br />
dozorowej. Dzięki temu będzie można<br />
przesyłać w sieciach IP oraz przechowywać<br />
na dyskach większe ilości obrazów o lepszej<br />
jakości.<br />
PODSUMOWANIE<br />
Przewiduje się, że dzięki wynikom badań<br />
w najbliższej przyszłości systemy telewizji dozorowej<br />
będą coraz bardziej inteligentne, co<br />
pozwoli na odciążanie obsługi od żmudnych<br />
czynności obserwacyjnych.<br />
Wspomniane w tekście badania stanowią<br />
część prac zmierzających do tego, by telewizja<br />
dozorowa spełniała także zupełnie nowe<br />
funkcje, których wykorzystanie umożliwi budowę<br />
znacznie doskonalszych systemów bezpieczeństwa.<br />
<br />
partnerzy wydania:
6<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Prace nad systemami monitoringu wizyjnego<br />
wspomaganymi przez komputerową analizę obrazu z kamer<br />
w czasie rzeczywistym i wykrycie zdarzeń niebezpiecznych są<br />
napędzane przez wiele dziedzin przemysłu. Prowadzą je również<br />
jednostki badawcze i badawczo-rozwojowe dużych koncernów<br />
i małych firm [1, 2, 3, 4].<br />
Przykładem takiego działania jest współpraca polskich uczelni<br />
technicznych i firm prywatnych.<br />
Piotr Garbat<br />
Politechnika Warszawska<br />
Przegląd metod<br />
analizy obrazu<br />
Zadaniem opracowywanych rozwiązań jest wzbogacenie istniejących<br />
instalacji CCTV o moduł wspomagający, grający rolę pośredniczącą<br />
pomiędzy siecią kamer a operatorem podejmującym decyzję<br />
opartą na komputerowej analizie obrazu i dźwięku. Dodatkowym<br />
zadaniem funkcjonalnym stawianym przed tego typu systemami,<br />
oprócz zwiększenia efektywności wykrywania zagrożeń, jest zapewnienie<br />
prywatności osób znajdujących się w polu widzenia poprzez<br />
uruchamianie podglądu dopiero w momencie wykrycia podejrzanych<br />
aktywności.<br />
Rys. 1.<br />
Operator<br />
Większość tego typu systemów ma budowę modułową o strukturze<br />
zbliżonej do systematyki funkcjonalności systemów monitoringu wizyjnego<br />
zawartej w normach. Pierwszym etapem jest procedura detekcji<br />
ruchu (informacja na wysokim poziomie ogólności). Zadaniem<br />
algorytmów z tego poziomu jest jedynie wskazanie na ruch w scenie.<br />
Realizacje różnych odmian algorytmu detekcji ruchu na podstawie<br />
obserwacji zmian wartości średniej intensywności w określonym obszarze<br />
obrazu jest z powodzeniem implementowana w wielu rozwiązaniach.<br />
Informacja ta nie pozwala jednak na zlokalizowanie ruchu<br />
w scenie, a tym bardziej na jego sklasyfikowanie.<br />
Kolejną grupą w hierarchii metod analizy treści sekwencji obrazów<br />
są metody wyodrębnienia (segmentacji) obiektów poruszających<br />
się w scenie. Większość rozwiązań stanowią metody usuwania/odejmowania<br />
tła (background substraction). Informację o ruchu obiektów<br />
w scenie uzyskuje się na podstawie odejmowania tła aktualnej ramki<br />
obrazu od obrazu referencyjnego. Głównymi trudnościami w tego<br />
typu rozwiązaniach są:<br />
• wyznaczanie obrazu referencyjnego (bardzo rzadko można zarejestrować<br />
statyczny obraz tła we wszystkich warunkach),<br />
• globalne zmiany jasności (np. zachmurzenie, pora dnia, zmienne warunki<br />
atmosferyczne),<br />
• szybko zmieniające się elementy tła (liście na wietrze, refleksy od falującej<br />
powierzchni wody),<br />
• zróżnicowany wygląd obiektów w scenie (w stosunku do sceny –<br />
możliwość kamuflażu),<br />
• jakość pozyskiwanych obrazów (szum termiczny, niejednorodne<br />
oświetlenie).<br />
Identyfikacja<br />
aktywności<br />
Identyfikacja<br />
zachowań<br />
w kontekście<br />
obrazu<br />
Identyfikacja<br />
ruchu<br />
obiektów<br />
Śledzenie<br />
obiektów<br />
Detekcja<br />
ruchu<br />
Identyfikacja<br />
obiektów<br />
Identyfikacja<br />
ruchu<br />
Większość z nich ma wpływ również na pozostałe poziomy analizy treści<br />
obrazu, w związku z czym konieczne jest uwzględnianie ich zarówno<br />
na poziomie projektowania metod analizy obrazu, jak i projektowania<br />
systemu monitoringu z ich wykorzystaniem. Problem wyznaczania<br />
uogólnionego, adaptacyjnego obrazu referencyjnego (uwzględniającego<br />
globalne zmiany jasności w czasie) jest tematem wielu opracowań.<br />
Stosowane obecnie rozwiązania można podzielić na kilka grup [5]:<br />
• metody modelowania tła z wykorzystaniem statystyk pierwszego<br />
rzędu (wartość oczekiwana, mediana),<br />
• metody modelowania tła z wykorzystaniem dopasowania rozkładu<br />
lub rozkładów normalnych (GMM),<br />
• metody z wykorzystaniem dodatkowej informacji o barwie, teksturze,<br />
• metody z wykorzystaniem klasyfikatora Bayesa,<br />
• metody z uwzględnieniem kontekstu, wartości sąsiednich obszarów.<br />
Znacznie mniej efektywne na tym etapie są metody wykorzystujące<br />
algorytmy wyznaczania „pola przepływu optycznego”. Ze względu na<br />
złożoność obliczeniową częściej są stosowane na wyższych etapach<br />
analizy ruchu, np. rozpoznawania anormalnego zachowania tłumu.<br />
Rys. 2.<br />
partnerzy wydania:<br />
1.5X
7<br />
Śledzenie punktów Śledzenie obszarów Śledzenie modeli<br />
Wykrywanie<br />
ruchu<br />
Określenie cech<br />
wykrytych obiektów,<br />
dopasowanie<br />
do modelu<br />
Klasyfikacja<br />
na podstawie<br />
wyznaczonych<br />
cech<br />
Rys. 3. Metody śledzenia ruchu<br />
Rys. 4. Przykładowe etapy procesu analizy ruchu<br />
Trzecią grupę rozwiązań stanowią metody śledzenia ruchu. Ścieżka<br />
ruchu jest bardzo ważnym elementem pozwalającym na opis aktywności<br />
i jej rozpoznawanie. Pozwala również na częściowe wyeliminowanie<br />
problemu przysłaniania obiektów, łączenia się w grupy i dzielenia<br />
śledzonych obiektów. Proces śledzenia ruchu może być oparty na<br />
różnych sposobach reprezentacji śledzonych obiektów.<br />
Śledzenie punktu jest najpopularniejsze w tej grupie rozwiązań ze<br />
względu na efektywność istniejących implementacji. Dwa najczęściej<br />
stosowane podejścia to metody deterministyczne oraz metody statystyczne<br />
(np. filtry Kalmana, filtry cząsteczkowe, roje cząsteczek).<br />
Śledzenie obszarów to grupa metod wykorzystująca informację o wyglądzie<br />
obiektu (jego barwie, geometrii, topologii, teksturze). Dostarczają<br />
więcej informacji o obiektach, dzięki czemu umożliwiają w wielu<br />
przypadkach bardziej precyzyjne (jednoznaczne) dopasowanie obiektów<br />
w kolejnych obrazach z sekwencji.<br />
Opis cech charakterystycznych tworzony na potrzeby procedur śledzenia<br />
obiektów może być również wykorzystywany do rozpoznawania<br />
lub identyfikowania obiektów. Metody sprawdzają się w scenach<br />
wymagających śledzenia wielu obiektów jednocześnie. Ze względu<br />
na sposób realizacji wyróżnia się metody oparte na wzorcach i oparte<br />
na modelach wyglądu. Druga możliwość przeprowadzenia klasyfikacji<br />
metod z tej grupy to podział ze względu na sposób reprezentacji cech<br />
charakterystycznych. Mogą być one określane statycznie dla każdego<br />
z obrazów z sekwencji niezależnie, a również z uwzględnieniem ich<br />
zmian w czasie.<br />
Identyfikacja obiektów z wykorzystaniem cech charakterystycznych<br />
obiektów i ruchu pozwala również na tworzenie systemów złożonych<br />
z wielu kamer, z możliwością analizy ruchu w scenie we wspólnym<br />
globalnym układzie współrzędnych (tj. ciągłe śledzenie ruchu obiektu<br />
w różnych strefach z wykorzystaniem obrazu z kolejnych kamer). Zastosowanie<br />
układu wielokamerowego z dużym obszarem wspólnym<br />
Tab. 1. Przykładowe grupy cech charakterystycznych<br />
Przykładowe grupy cech obiektów<br />
Przykładowe grupy cech<br />
ruchu<br />
• intensywność i dynamika ich zmian<br />
• barwa, rozkład barwy,<br />
histogram kolorów<br />
i ich zmiany<br />
• kształt obszaru lub konturu<br />
• topologia obiektu<br />
• tekstura<br />
• z wykorzystaniem punktów charakterystycznych,<br />
ich deskryptorów – SIFT, FAST<br />
oraz wzajemnej ich relacji<br />
• oparte na obrazach krawędzi<br />
– deskryptor HoG<br />
• z wykorzystaniem transformat falkowej,<br />
FFT, Hougha<br />
• podstawowe:<br />
prędkość, kierunek<br />
przyspieszenia<br />
• ścieżka ruchu<br />
• częstość zmian kierunku,<br />
prędkości, histogram zmian<br />
• ruch kamery<br />
pozwala też na określenie dodatkowych informacji o położeniu obiektu<br />
w przestrzeni 3D, a w związku z tym może on ograniczyć problem<br />
przesłaniania się obiektów.<br />
Z kolei metody śledzenia sylwetki/modelu z punktu widzenia rozpoznawania<br />
ruchu mogą dostarczyć informacji o lokalizacji obiektów<br />
i ich wzajemnej relacji w przestrzeni 3D. Niestety są to również metody<br />
o największej złożoności obliczeniowej.<br />
W tej grupie konieczne jest określenie a priori uogólnionego modelu<br />
referencyjnego. Przyjęty model może być zarówno reprezentacją<br />
kształtu obiektu w przestrzeni 2D lub 3D, jak i złożonym modelem<br />
wykorzystującym informację o barwie, kształcie i dynamice ruchu.<br />
Główny proces wyszukiwania i dopasowania modelu może być operacją<br />
czasochłonną, dlatego w większości realizacji jest on wspomagany<br />
predykcją ruchu. Najczęściej spotykanymi metodami jest dopasowywanie<br />
kształtu 2D/3D i ewolucja konturów.<br />
Rozwiązania z dopasowaniem modeli 3D pozwalają określić zarówno<br />
położenie, jak i kierunki w przestrzeni 3D. Zaawansowane modele sylwetki<br />
ludzkiej uwzględniające kinematyczny układ poszczególnych<br />
części ciała są bardzo często wykorzystywane do rozpoznawania aktywności<br />
osób. Stopień dopasowania do istniejącego modelu umożliwia<br />
również rozpoznawanie danej klasy obiektów w scenie.<br />
Najwyższy poziom analizy obrazu stanowią metody rozpoznawania<br />
i klasyfikacji aktywności. Rozróżnia się trzy podstawowe grupy metod<br />
modelowania i detekcji aktywności: nieparametryczne, objętościowe<br />
i parametryczne.<br />
Metody nieparametryczne są oparte na wyznaczaniu cech charakterystycznych<br />
dla każdej ramki sekwencji wideo. Cechy te następnie porównuje<br />
się ze zdefiniowanymi lub wyznaczonymi eksperymentalnie wzorcami.<br />
W metodach objętościowych cechy są wyznaczane na podstawie<br />
trójwymiarowej, czasoprzestrzennej reprezentacji sekwencji obrazów,<br />
rozszerzając standardowe cechy obrazu na przypadek 3D. W metodach<br />
parametrycznych do danych rzeczywistych dopasowuje się sparametryzowany<br />
model obiektu/zjawiska. Rozwiązanie jest wynikiem optymalizacji<br />
parametrów modelu na podstawie danych treningowych.<br />
Przykładami tego typu rozwiązań są np. Ukryte Modele Markowa (HMM)<br />
bądź Liniowe Systemy Dynamiczne (LDS).<br />
Mimo optymizmu części środowisk związanych z branżą systemów<br />
dozoru wizyjnego i nadziei pokładanych w procesie komputerowego<br />
wspomagania analizy obrazu należy zachować czujność i dystans przy<br />
planowaniu i projektowaniu takiego systemu. Wiele czynników, takich<br />
jak szum kamery, przesłonięcia czy cienie, może być przyczyną problemów<br />
utrudniających realizację zadania w konkretnych warunkach.<br />
Niekorzystnie na proces projektowania takich systemów może wpłynąć<br />
również brak jednorodnych narzędzi do ewaluacji jakości metod<br />
(a nie konkretnych instalacji).<br />
Czynniki wynikające z zastanych warunków rzeczywistych mogą powodować<br />
poważne błędy w wysokich warstwach skomplikowanych<br />
metod analizy obrazu. W celu stworzenia efektywnego systemu konieczne<br />
jest zatem testowanie systemu w warunkach pracy.<br />
Pierwsze ograniczenie wynikające z jakości sygnału, powstające głównie<br />
ze względu na problem z ograniczoną pojemnością pamięci masowych<br />
przeznaczonych do gromadzenia danych obrazowych zapisane-<br />
partnerzy wydania:
8<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
go materiału i transmisją sygnału o wysokiej rozdzielczości, wymusza<br />
zastosowanie metod odpornych na szum i efektywnych dla obrazów<br />
o niskiej rozdzielczości. Należy zwrócić uwagę, że wiele opisywanych<br />
rozwiązań analizy aktywności jest wykonywanych na sekwencjach referencyjnych<br />
niespełniających tego założenia.<br />
Kolejną przeszkodą na drodze do stworzenia uniwersalnych algorytmów<br />
analizy obrazów jest znalezienie metod działających poprawnie<br />
niezależnie od cech charakterystycznych obiektów w obserwowanej<br />
scenie, na które zazwyczaj nie mamy wpływu. Są nimi:<br />
• punkt obserwacji,<br />
• wygląd obserwowanych obiektów,<br />
• szybkość wykonywania danego ruchu,<br />
• różnice antropometryczne.<br />
Każdy działający, uniwersalny system powinien zapewnić poprawną<br />
analizę aktywności z uwzględnieniem tych czynników.<br />
Ze względu na duże zmiany w wyglądzie danego obiektu/ruchu i jego<br />
cech charakterystycznych wraz ze zmianą perspektywy uniezależnienie<br />
metody analizy od tego czynnika nie jest zadaniem trywialnym. Jednym<br />
ze sposobów rozwiązywania tego problemu jest stworzenie szablonów<br />
uzyskanych z wielu kluczowych kątów obserwacji, a następnie wyznaczanie<br />
interesującego widoku z wykorzystaniem metod interpolacji.<br />
Można również zdefiniować reprezentację cech ruchu opartą na niezmiennikach<br />
przestrzeni dwu- i trójwymiarowej, niezależnej od punktu<br />
obserewacji. [6] Zakłada się, że każdą aktywność można opisać<br />
jako serię póz i że istnieje przynajmniej jedna poza kluczowa w danej<br />
sekwencji, w której wszystkie 5 punktów (kończyny i głowa) leżą na<br />
jednej płaszczyźnie osadzonej w trójwymiarowej przestrzeni. Wykorzystując<br />
to założenie, otrzymano zestaw deskryptorów niezależnych<br />
od kierunku obserwacji.<br />
Rys. 5. Wyznaczanie ścieżek ruchu<br />
Rys. 6. Dopasowanie uproszczonego modelu kinematycznego<br />
sylwetki człowieka do śledzonych obiektów<br />
Kolejnym rozwiązaniem jest zastosowanie reprezentacji obrazu<br />
historii ruchu uogólnionej na trzeci wymiar. [7] W metodzie tej na<br />
podstawie obrazu z kilku kamer uzyskuje się informację o trójwymiarowej<br />
przestrzeni zwanej „obszarem obecności”. Następnie dla<br />
tych obszarów wyznacza się trójwymiarowy obraz historii ruchu.<br />
Cechy charakterystyczne służące określeniu aktywności są obliczane<br />
w dziedzinie częstotliwości z wykorzystaniem kołowej szybkiej<br />
transformaty Fouriera. Każda z przedstawionych metod jest powiązana<br />
z konkretną cechą lub grupą cech. Nie ma ogólnego rozwiązania,<br />
pozwalającego na analizę ruchu niezależnie od kierunku obserwacji,<br />
dlatego też problem ten nadal pozostaje otwarty.<br />
Kolejnym czynnikiem powodującym trudności są różnice w tempie<br />
wykonywania czynności. Mogą one występować zarówno między<br />
różnymi osobami, jak i dla jednej osoby.<br />
Matematycznie zmiana tempa jest modelowana poprzez skalowanie<br />
osi czasu. W najprostszym przypadku liniowych zmian tempa skalowanie<br />
może być przeprowadzone stosunkowo łatwo, w rzeczywistości<br />
jednak bardzo często mamy do czynienia z nieliniowymi zmianami<br />
tempa. Jednym z najefektywniejszych rozwiązań jest zastosowanie<br />
dynamicznego skalowania czasu DTW (Dynamic Time Warping). DTW<br />
stosowane np. w biometrii do rozpoznawania autentyczności składanego<br />
podpisu jest obiecującą metodą ze względu na możliwość stosowania<br />
jej niezależnie od analizowanej cechy. Warunkiem koniecznym<br />
do poprawnego działania tej metody jest dokładne ustalenie sekwencji<br />
analizowanej i wzorcowej. Osiągnięcie zadowalających efektów<br />
wymaga zastosowania skomplikowanych metod.<br />
Druga grupa metod opartych na równaniach stanu (np. LDS) pozwala<br />
uzyskać odporność na małe zmiany tempa wykonywanych<br />
czynności. Niestety nie modelują one jednoznacznie transformacji<br />
osi czasu. Opracowanie skutecznych i wydajnych metod uniezależnienia<br />
się od tempa wykonywania czynności jest nadal poważnym<br />
wyzwaniem.<br />
Różnice antropometryczne, takie jak wzrost czy płeć obserwowanych<br />
osób, są równie istotnymi czynnikami koniecznymi do uwzględnienia<br />
na etapie projektowania i tworzenia systemu. Problem różnic<br />
antropometrycznych jest zagadnieniem stosunkowo najmniej<br />
rozpoznanym. Jednym z zaproponowanych obecnie rozwiązań jest<br />
metoda normalizowania wyodrębnionych cech, równoważąca zmiany<br />
wynikające z różnic antropometrycznych. [8] Wykorzystuje ona<br />
stosunkowo dokładny model sylwetki człowieka, pozwalający na<br />
określenie położenia głównych stawów. Znając zależności wynikające<br />
z anatomicznej budowy człowieka, możliwe jest uniezależnienie<br />
parametrów ruchu od czynników antropometrycznych.<br />
Literatura:<br />
[1] A.F. Bobick, „Movement, activity, and action: The role of knowledgein the perception of<br />
motion,” Philosophical Transactions of the RoyalSociety of London B, vol. 352, pp. 1257–1265,<br />
1997.<br />
[2] A. Czyzewski, P. Dalka, „Moving object detection and tracking for the purpose of multimodal<br />
surveillance system in urban areas. In New Directions in Intelligent Interactive Multimedia.<br />
Studies in Computational Intelligence” Springer-Verlag, Berlin, 75-84, (2008).<br />
[3] D. Dudzńiski, T. Kryjak, Z. Mikrut, „Human action recognition using simple geometric features<br />
and a finite state machine”, Image Processing & Communications, Volume 18, Issue<br />
2-3, p. 49–60, <strong>2014</strong>.<br />
[4] J. Zawistowski, P. Garbat, P. Ziubiński „Multi-object Tracking System”, Image Processing and<br />
Communications Challenges 5, Springer <strong>2014</strong>.<br />
[5] H. Hassanpour, M. Sedighi, A.R. Manashty „Video Frame’s Background Modeling: Reviewing<br />
the Techniques” Journal of Signal and Information Processing, 2011.<br />
[6] V. Parameswaran and R. Chellappa, „View invariance for human action recognition,” International<br />
Journal of Computer Vision, vol. 66, no. 1, 2006.<br />
[7] D. Weinland, R. Ronfard, and E. Boyer, „Free viewpoint action recognition using motion history<br />
volumes,” Computer Vision and Image Understanding, vol. 104, no. 2, pp. 249–257, 2006.<br />
[8] A. Gritai, Y. Sheikh, and M. Shah, “On the use of anthropometry in the invariant analysis of<br />
human actions,” International Conference on Pattern Recognition, pp. 923–926, 2004.<br />
partnerzy wydania:<br />
1.5X
9<br />
Analiza zawartości obrazu<br />
(Video Content Analysis – <strong>VCA</strong>), bardziej znana pod<br />
marketingową nazwą inteligentnej analityki obrazu<br />
(Intelligent Video Analytics – IVA) 1) , jest określeniem nadanym<br />
automatycznemu rozkładowi obrazów wideo w celu wydobycia<br />
z nich użytecznych informacji.<br />
Ma szeroki wachlarz zastosowań – od detekcji intruzów,<br />
pozostawionych obiektów czy nieprawidłowo zaparkowanych<br />
pojazdów, po zdarzenia związane ze zliczaniem, np.<br />
przemieszczających się osób, długości kolejki lub poziomu<br />
zapełnienia półek sklepowych.<br />
Liczba dostępnych algorytmów sukcesywnie zwiększa się<br />
i zgodnie z prognozami IMS Research ich wartość rynkowa<br />
do 2015 r. ma przekroczyć 600 milionów dolarów.<br />
Quo Vadis aj-wi-ej?<br />
Jan T. Grusznic<br />
Akademia Monitoringu Wizyjnego<br />
W teorii algorytmy wykryją „każde zachowanie”.<br />
Odpowiedni ich opis umożliwi automatyczną<br />
detekcję zdarzenia, uruchamiając<br />
z góry określoną procedurę.<br />
Jak w przypadku każdego algorytmu, od<br />
jakości dostarczonych informacji zależy<br />
jakość przeprowadzonej analizy. Na poprawność<br />
działania <strong>VCA</strong> wpływają zatem<br />
czynniki związane z obrazem i przetwarzaniem<br />
sygnału wizyjnego: poziom kompresji,<br />
rozdzielczość, poklatkowość, kontrast między<br />
tłem a obiektem, odwzorowanie barw, poziom<br />
wzmocnienia sygnału, prędkość poruszania<br />
się obiektu, wielkość obiektu, poziom ruchu<br />
w scenie, perspektywa, warunki środowiskowe<br />
i aberracje optyczne. Jakość analizy zależy od<br />
bardzo wielu zmiennych, dlatego jest niezwykle<br />
istotne określenie funkcji i zakresu detekcji.<br />
Poprawna praca algorytmu IVA jest mierzona<br />
w dwóch kategoriach:<br />
• prawdopodobieństwo wykrycia – prezentowane<br />
jako procentowy (%) stosunek<br />
zdarzeń wykrytych przez system do wymaganej,<br />
sumarycznej liczby zdarzeń wymagających<br />
wykrycia. Przykładem może być<br />
system zliczania osób: w danej jednostce<br />
czasu zmierzona liczba przejść w systemie<br />
jest porównywana z wynikami zebranymi<br />
np. przez osoby zliczające;<br />
• poziom fałszywych alarmów – liczba zdarzeń,<br />
które zostały odnotowane w systemie,<br />
a które nie były istotne. Liczba fałszywych<br />
alarmów jest zawsze postrzegana jako<br />
wartość krytyczna. Jedno błędne zdarzenie<br />
przypadające na jedną kamerę w ciągu<br />
jednego dnia jest jeszcze do zaakceptowania,<br />
ale system składający się z 400 kamer<br />
będzie alarmował o wykryciu średnio co<br />
cztery minuty. W tym przypadku istotne<br />
__________<br />
1) Skróty <strong>VCA</strong> i IVA w niniejszym artykule są stosowane<br />
wymiennie.<br />
partnerzy wydania:
10<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Rys. 1. Przykłady niepomyślnej implementacji IVA<br />
Materiał spreparowany na użytek szkoleniowy.<br />
Na trzech przykładach ukazano najczęściej spotykane<br />
problemy podczas instalacji: 1 – detekcja<br />
przekroczenia linii – nieprawidłowe ustawienie<br />
kamery, 2 – detekcja pojazdów ciężarowych –<br />
nieprawidłowe zaznaczenie strefy detekcyjnej,<br />
3 – detekcja porzuconych przedmiotów – zbyt<br />
duży ruch w scenie<br />
zdarzenia pozostaną niedostrzeżone, a cały<br />
system staje się nieefektywny. Sumaryczną<br />
liczbę zgłoszeń można obniżyć, zawężając<br />
warunki detekcji, np. obiekt może być dookreślony<br />
przez takie dodatkowe parametry,<br />
jak wielkość, stosunek wysokości do<br />
szerokości, kolor lub kierunek przemieszczania<br />
się itp. Jednak zbyt restrykcyjne<br />
parametry spowodują zmniejszenie liczby<br />
zdarzeń, eliminując przy tym te, które powinny<br />
zostać uwzględnione. Zbyt „luźne”<br />
pozostawią nadmierną ich liczbę.<br />
W celu utrzymania właściwych poziomów<br />
prawdopodobieństwa wykrycia fałszywych<br />
alarmów w zmiennych warunkach oświetleniowych<br />
i środowiskowych (co de facto jest<br />
obecnie jednym z największych wyzwań<br />
stojących przed systemami <strong>VCA</strong>) w niektórych<br />
implementacjach stosuje się kilka algorytmów<br />
pracujących na tych samych danych<br />
wejściowych, dostarczając lepsze wyniki.<br />
Przykładem jest połączenie algorytmów detekcji<br />
pozostawionego przedmiotu i zabranego<br />
przedmiotu. Pozostawienie przedmiotu<br />
może być w niektórych przypadkach błędnie<br />
ocenione jako zabranie części tła. Użycie<br />
dwóch algorytmów da informację o zdarzeniu,<br />
podczas gdy przewidziany do analizy pozostawionego<br />
przedmiotu zawiedzie.<br />
Dwie branże – dwa podejścia<br />
W segmencie handlu detalicznego analiza<br />
zawartości obrazu od wielu lat jest stosowana<br />
do gromadzenia danych wykorzystywanych<br />
w tworzeniu strategii sprzedażowej. Dopasowane<br />
do potrzeb algorytmy pozwalają uzyskać<br />
takie informacje, jak liczba odwiedzin,<br />
ich długość, przybliżony wiek czy płeć odwiedzających.<br />
Ciągłe śledzenie osób w centrach handlowych<br />
jest istotnym elementem zbierania<br />
informacji o zachowaniu konsumentów, ich<br />
podatności na reklamę lub promocję. Jakość<br />
danych ma kluczowy wpływ na podejmowane<br />
decyzje, co bezpośrednio przekłada się na<br />
efekt biznesowy.<br />
IVA przeznaczona na rynek detaliczny jako<br />
jedna z nielicznych ma w kartach katalogowych<br />
podawany procentowy poziom<br />
prawdopodobieństwa wykrycia, którego na<br />
próżno szukać w rozwiązaniach stosowanych<br />
w systemach bezpieczeństwa. W handlu detalicznym<br />
algorytm jest utworzony tylko na<br />
potrzeby jednej, konkretnej analizy, np. zliczania<br />
osób, a jego kod jest optymalizowany<br />
pod tym kątem. Funkcja kamery jest ograniczona<br />
do „wysublimowanego” czujnika zbierającego<br />
konkretne i jak najlepsze jakościowo<br />
dane. Obraz z kamery analizującej nie podlega<br />
ciągłej obserwacji, lecz służy głównie<br />
kontrolnemu sprawdzeniu poprawności ustawień,<br />
zmiany otoczenia, weryfikacji poprawności<br />
analizy itp.<br />
W systemach bezpieczeństwa wraz z oprogramowaniem,<br />
kamerą lub rejestratorem<br />
jest dostarczany pakiet algorytmów wykrywających<br />
m.in. naruszenie strefy detekcyjnej,<br />
zabranie lub pozostawienie przedmiotu,<br />
szwendanie się, przekroczenie linii, zmianę<br />
stanu obiektu (np. upadek).<br />
W aplikacjach związanych z bezpieczeństwem<br />
to użyteczność obrazu pod kątem<br />
spełnienia normy PN EN 50132-7 jest stawiana<br />
na pierwszym miejscu, dopiero później<br />
uwzględnia się analizę obrazu. Tymczasem<br />
widok z każdej kamery musi być odpowiednio<br />
skalibrowany, aby algorytm „miał szansę”<br />
na przeanalizowanie wartościowych danych.<br />
Próba implementacji analizy obrazu<br />
z kamery, której instalacja nie została zoptymalizowana<br />
pod kątem wymagań IVA, często<br />
prowadzi do rozczarowania jakością jej<br />
działania (rys. 1).<br />
Jak to działa?<br />
Analiza zawartości obrazu to tylko część składająca<br />
się na cały system <strong>VCA</strong>, którego ogólną<br />
zasadę działania przedstawiono na rys. 2. Informacje<br />
z IVA same w sobie nie są użyteczne<br />
dla użytkownika, jeśli nie zostały powiązane<br />
z odpowiednimi procedurami i w przystępny<br />
sposób zaprezentowane. Rola samej analizy<br />
jest ograniczona do dostarczenia informacji,<br />
będącej podstawą do dalszych działań podejmowanych<br />
automatycznie przez system lub<br />
świadomie przez użytkownika.<br />
Sposób analizy będzie różnił się w zależności<br />
od charakteru poszukiwanych zmian. Każdy<br />
algorytm analizujący zawartość obrazu działa<br />
inaczej, ale upraszczając, obraz jest „roz-<br />
partnerzy wydania:<br />
1.5X
11<br />
Rys. 3. Przykład odjęcia tła<br />
i oznaczenie obszarów<br />
zmiany (blob)<br />
Rys. 4. Przykład klasyfikacji obiektów<br />
w algorytmie IVA na podstawie stosunku<br />
ich wysokości do szerokości<br />
dzielany” na fragment przedstawiający jego<br />
„statyczną” część oraz obiekty nienależące<br />
do tła (tzw. bloby – rys. 3). Informacja o każdym<br />
obiekcie jest „opisem” miejsca zajętego<br />
przez niego w obrazie, wielkości czy wektora<br />
ruchu powiązanych ze znacznikiem czasu<br />
itp. Typ tych danych – zwanych metadanymi<br />
– nie jest jeszcze w pełni ujednolicony (polecam<br />
analizę dokumentów ONVIF Streaming<br />
Specification version 2.1 z czerwca 2011 r. oraz<br />
ONVIF Video Analytics Service Specification version<br />
2.2.1 z grudnia 2012) i zależy od produktu.<br />
Coraz popularniejszy jest zapis metadanych<br />
(niezależnych od znaczników alarmowych)<br />
umożliwiający wielokrotnie szybsze wyszukanie<br />
zdarzenia, którego zaistnienie nie zostało<br />
wcześniej przewidziane. Praca na zarchiwizowanych<br />
metadanych opiera się na tworzeniu<br />
reguł alarmowych przez użytkownika systemu<br />
w chwili przeszukiwania archiwum, co<br />
pozwala porównywać ze sobą wyłącznie<br />
dane tekstowe, a nie obrazy. Tworzone reguły<br />
stanowią zbiór zdefiniowanych zakresów (np.<br />
wielkości, szerokości, wysokości, kierunku<br />
przemieszczania itp.), których spełnienie wygeneruje<br />
znacznik (np. czasowy) powiązany<br />
z materiałem wizyjnym. Proces powstawania<br />
metadanych, w zależności od potrzeb i celu<br />
analizy, może odbywać się w czasie rzeczywistym<br />
(wymóg alarmowania w czasie rzeczywistym)<br />
lub na podstawie rozkładu materiału<br />
archiwalnego (badanie rozciągnięte w czasie,<br />
wysoki poziom powtarzalności itp.).<br />
Analiza zawartości obrazu może odbywać się<br />
bezpośrednio w urządzeniach brzegowych<br />
(np. kamera, koder wizyjny) i w sposób scentralizowany<br />
(oparty na jednostkach serwerowych).<br />
Wykorzystanie mocy obliczeniowej<br />
w urządzeniu brzegowym pozwala zbudować<br />
system uwolniony od jednego punktu awarii<br />
przez jego rozproszenie (każde z urządzeń<br />
analizuje tylko własne dane). Jakość analizy<br />
nie zależy od jakości połączenia lub opóźnień<br />
w transmisji, a dane pochodzące z rozkładu<br />
mogą być przechowane lokalnie, a następnie<br />
skopiowane do systemu zapisu. Takie rozwiązanie<br />
zmniejsza również liczbę symultanicznych<br />
połączeń, odciążając sieć i urządzenie.<br />
Rys. 2. Ogólna zasada działania systemu <strong>VCA</strong><br />
Materiał wizyjny jest przesyłany do analizy do procesora <strong>VCA</strong>. W zależności od sposobu działania systemu<br />
może się on znajdować w kamerze lub urządzeniu odbierającym sygnał (koder, DVR, serwer <strong>VCA</strong>). Dane<br />
z procesora <strong>VCA</strong> są następnie przesyłane do części związanej z konfiguracją alarmu w celu weryfikacji<br />
spełnienia kryteriów alarmowych. Informacja o spełnieniu warunku jest przesyłana do systemu zarządzania<br />
alarmami, gdzie zostaje przedstawiona użytkownikowi w odpowiedni sposób (np. wysteruje kamerę<br />
PTZ, uruchomi sygnał dźwiękowy, zablokuje drzwi, wstawi znacznik do systemu zapisu, wyświetli okno<br />
alarmowe itp.). Użytkownik ma możliwość wprowadzania zmian do procedur alarmowych (np. sposób<br />
wyświetlania, interakcja – potwierdzenie odebrania zdarzenia itp.).<br />
Należy przy tym pamiętać o ograniczonej<br />
mocy obliczeniowej urządzeń brzegowych<br />
uniemożliwiającej elastyczną rozbudowę.<br />
Oznacza to, że analiza może być ograniczona<br />
do wybranych algorytmów, liczby stref detekcyjnych<br />
bądź detekcji obiektów zajmujących<br />
więcej powierzchni w obrazie.<br />
Rozwiązanie scentralizowane oparte na jednostce<br />
serwerowej umożliwia elastyczną<br />
rozbudowę i wprowadzenie nowych, wydajniejszych<br />
algorytmów. Serwer może być wyposażony<br />
w zasilanie awaryjne i umieszczony<br />
w miejscu niedostępnym dla osób niepowołanych.<br />
Takie rozwiązanie, zależnie od konfiguracji<br />
i typu analizy, może obsługiwać od kilku<br />
do kilkudziesięciu kamer. Niestety stanowi<br />
przy tym dodatkowe obciążenie sieciowe.<br />
Błędy w połączeniu z kamerą lub koderem<br />
powodują przerwę w analizie.<br />
Ciekawym rozwiązaniem dającym maksimum<br />
możliwości jest połączenie obu powyższych<br />
sposobów i wykorzystanie zalet przetwarzania<br />
rozproszonego z ogromnymi mocami obliczeniowymi<br />
dostępnymi w jednostkach serwerowych<br />
2) . Nie zalicza się jednak do najtańszych.<br />
Odwieczne pytanie:<br />
człowiek czy maszyna?<br />
Bez wątpienia poprawnie wdrożone rozwiązania<br />
IVA pozwalają lepiej wykorzystać systemy<br />
przez odpowiednie zorganizowanie środowiska<br />
pracy operatorów. Obecnie niechlubną<br />
normą jest to, że w centrum dozoru monitoringu<br />
personel obserwuje kilkanaście lub nawet<br />
kilkadziesiąt obrazów z kamer. Tworząc<br />
odpowiednie procedury i wskazując obszary<br />
o tzw. podwyższonym ryzyku przypisane do<br />
użytkownika, można zmniejszyć liczbę obserwowanych<br />
obrazów, zyskując zwiększoną<br />
efektywność wykrywania zdarzeń. Nadzór nad<br />
pozostałymi strefami jest przekazany IVA informującej<br />
personel o nieprawidłowościach, gdy<br />
takie wystąpią.<br />
Nie oznacza to, że IVA w jakimkolwiek zakresie<br />
może wyeliminować człowieka. W przeciwieństwie<br />
do dostępnych algorytmów wyszkolony<br />
personel może wykryć sprawcę na podstawie<br />
wielu elementów: ubioru, akcesoriów pomagających<br />
popełnić przestępstwo, postawy,<br />
sposobu obserwacji otoczenia, sposobu poruszania<br />
się, sposobu odnoszenia się do innych<br />
osób, mimiki, nienaturalnego zachowania itp.<br />
Wyszkolony personel łatwo weryfikuje fałszywe<br />
alarmy i odróżnia sprawców od osób<br />
postronnych. Rzut oka pozwala stwierdzić,<br />
czy pasażer jest zniecierpliwiony długim czekaniem<br />
na autobus, czy też agresywny względem<br />
innych osób na przystanku.<br />
<strong>VCA</strong> oferujące bogaty zbiór narzędzi używanych<br />
do utworzenia podstawowych stref<br />
Źródło<br />
obrazu<br />
wideo<br />
np.<br />
kamera<br />
Procesor<br />
<strong>VCA</strong><br />
Konfiguracja<br />
alarmu<br />
System<br />
zarządzania<br />
alarmami<br />
Użytkownik<br />
systemu<br />
__________<br />
2) Przykładem może być system analizy twarzy. Kamera<br />
po wykryciu w kadrze wysyła zdjęcie lub serię ujęć do<br />
serwera, gdzie jest wykonywana szczegółowa analiza<br />
biometryczna.<br />
partnerzy wydania:
12<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
detekcyjnych i rozróżnienia typów obiektów – pojazdów oraz ludzi – na<br />
podstawie charakterystycznego kształtu, wielkości, ruchu oraz kombinacji<br />
atrybutów (rys. 4). Zdarzenie jest generowane w momencie, gdy obiekt np.<br />
narusza strefę (wchodzi, wychodzi, przemieszcza się w niej). Zatem by zaalarmować,<br />
algorytm wymaga spełnienia określonego wcześniej warunku.<br />
Jeżeli zagrożenia są bardziej złożone, może nie wykryć zdarzenia. Przykładowo,<br />
wykonanie prymitywnego graffiti zajmuje 1–2 sekundy (prosty znak<br />
– dwa maźnięcia sprejem). Jeżeli system wykrywa osoby, które stoją przez co<br />
najmniej 5 sekund, to grafficiarz nie zostanie wykryty, mimo że zniszczy kilka<br />
elewacji, drzwi czy szyb.<br />
Uwagi końcowe<br />
Wbrew obiegowej opinii systemy <strong>VCA</strong> nie są rozwiązaniami plug&play<br />
(podłącz i pracuj) – nadzorowane obszary różnią się i zastosowane kamery<br />
muszą być odpowiednio skonfigurowane w celu uzyskania optymalnego<br />
efektu. Określenie celu analizy jest kluczowe do poprawnego jej wdrożenia.<br />
Dobrze zdefiniowane oczekiwania pozwolą na lepszy dobór algorytmu.<br />
Istotne jest zebranie informacji dotyczących czynników wpływających<br />
zarówno na właściwą detekcję, jak i zwiększoną zawodność, a następnie<br />
wykorzystanie zdobytych informacji w planowanej instalacji.<br />
Niezależnie od wybranych rozwiązań wszystkie systemy IVA potrzebują<br />
okresu testowego – w trakcie którego dopasowują się automatycznie 3) – lub<br />
zmiany w algorytmie są wprowadzane manualnie.<br />
Niektóre z algorytmów umożliwiają stworzenie powiązań logicznych między<br />
warunkami lub między analizą a urządzeniami zewnętrznymi, np. kontrolą<br />
dostępu. Takie rozwiązania są wskazane dla uzyskania wyższego poziomu<br />
prawdopodobieństwa wykrycia przy jednoczesnym obniżeniu liczby fałszywych<br />
alarmów. Równolegle wprowadzają złożoność systemu i wymagają<br />
wiedzy oraz doświadczenia do ich uruchomienia. Dlatego w czasie okresu<br />
testowego istotny jest niezakłócony dostęp do doświadczonej pomocy technicznej.<br />
I ostatnia uwaga – IVA może z powodzeniem pracować w obecnych systemach<br />
CCTV, o ile dostępny obraz jest wystarczającej jakości. Wykorzystanie<br />
już istniejących kamer będzie wymagało dostosowania pola i kąta widzenia,<br />
jak również wielu innych parametrów w celu zapewnienia jak najlepszej analizy,<br />
a to może się wiązać z dodatkowymi kosztami.<br />
Literatura:<br />
www.securitysystemsnews.com/article/ims-video-analytics-market-be-worth-600-million-2015<br />
www.systemyalarmowe.com.pl/index.php/komentarze-wywiady/535<br />
www.eetimes.com/document.asp?doc_id=1273834<br />
BSIA CoP 109 Planning, installation and maintenance of CCTV systems<br />
BSIA Form No. 262 Issue 1 An introduction to Video Content Analysis. Industry Guide, June 2009<br />
PN EN 50132-7:2013-04<br />
Detecting Threat-Related Intentional Actions of Others: Effects of Image Quality, Response Mode, and<br />
Target Cuing on Vigilance, Journal of Experimental Psychology 2009, vol. 15, No. 4, 275-290<br />
Mary L. Garcia: Design and Evaluation of Physical Protection Systems, Butterworth-Heinemann, 2007<br />
Looking for trouble: a description of oculomotor search strategies during live CCTV operation, Frontiers<br />
in Human Neuroscience, 30/09/2013<br />
Cheng Peng: Video analytics: Content analysis in security and surveillance applications, Texas Instruments,<br />
2007<br />
Xiaogang Wang: Intelligent multi-camera video surveillance: A review, Pattern Recognition Letters 34<br />
(2013) 3–19<br />
Riccardo Satta: Dissimilarity-based people re-identification and search for intelligent video surveillance,<br />
University of Cagliari, 2013<br />
Waldemar Więckowski: Czy inteligentna analityka wizji jest inteligentna?, Systemy Alarmowe<br />
nr 5/2011<br />
ONVIF Streaming Specification, version 2.1, June, 2011<br />
ONVIF Video Analytics Service Specification, version 2.2.1, December, 2012 <br />
__________<br />
3) Zastosowane algorytmy heurystyczne pozwalają na utworzenie zbioru zdarzeń, które muszą<br />
być odpowiednio zdefiniowane przez użytkownika systemu. Zgromadzenie odpowiedniej<br />
liczby odpowiedzi pozwala na opracowanie końcowych algorytmów <strong>VCA</strong> dopasowanych do<br />
wymagań użytkownika.<br />
Jakub Sobek<br />
Linc Polska<br />
ul. Hallera 6-8, 60-104 Poznań<br />
tel. 61 839 19 00 faks 61 839 22 78<br />
info@linc.pl<br />
www.linc.pl<br />
Analiza wizji<br />
czyli jak zobaczyć więcej<br />
Jeszcze kilka lat temu inteligenta analiza obrazu pozostawała<br />
głównie w obszarach testów, a bardzo proste zastosowania<br />
kamer pojawiały się jedynie w przemyśle, służąc np. do weryfikacji<br />
produktów opuszczających taśmę produkcyjną. Obecnie<br />
ta „technologia jutra” stała się rozwiązaniem dostępnym<br />
i wymaganym w systemach bezpieczeństwa.<br />
Inteligentna analiza wizji to naturalny obszar rozwoju systemów<br />
CCTV. Najważniejszym wyzwaniem stawianym przed<br />
instalowanymi kamerami będzie wzrost efektywności ich<br />
działania poprzez uzbrajanie systemów w algorytmy inteligentnej<br />
analizy obrazu.<br />
Podstawą każdego systemu analizy wizji jest obraz uzyskiwany<br />
z kamery. To pierwszy element układanki, determinujący<br />
efektywność całego systemu. Na przydatność obrazu w systemach<br />
analizy składa się kilka elementów. Kluczowa w tym<br />
przypadku jest jego rozdzielczość. Otrzymując obraz wysokiej<br />
rozdzielczości, uzyskujemy wiele informacji do dalszej analizy,<br />
oczywiście przy założeniu poprawnej konfiguracji kamer. Maksymalna<br />
rozdzielczość kamery analogowej to rozdzielczość<br />
TV-PAL, czyli ok. 0,4 Mpix (705 x 576). Dla porównania kamera<br />
o rozdzielczości 3 Mpix ma rozdzielczość 2048 x 1536. Zatem<br />
aby uzyskać taką samą liczbę informacji co przy kamerze cyfrowej<br />
3 Mpix, należałoby zastosować 9 kamer analogowych<br />
ustawionych obok siebie. Pokazuje to, już na poziomie rozdzielczości<br />
obrazu, jak duża jest przewaga wysokiej rozdzielczości<br />
kamer IP nad rozwiązaniami analogowymi.<br />
Analiza obrazu w systemach monitoringu wizyjnego może<br />
odbywać się w dwóch różnych miejscach. Pierwszym z nich<br />
jest realizacja analizy przez procesor sygnałowy i algorytmy<br />
wewnątrz kamery. Drugim – elementy centralne, takie jak<br />
urządzenia typu DVR, NVR, komputer z oprogramowaniem<br />
VMS, dokąd jest przekazywany obraz z kamer. Obraz może<br />
być też przesyłany przez sieć i analizowany w chmurze.<br />
Umieszczenie systemu analizy wizji w kamerze powoduje<br />
decentralizację mocy obliczeniowej. Wykorzystywany jest<br />
procesor każdej kamery, dzięki czemu nie ma konieczności<br />
instalacji jednego elementu centralnego o dużej mocy, np.<br />
serwer z oprogramowaniem VMS. Przy wykorzystaniu analizy<br />
w kamerze obciążenie sieci, aż do momentu wykrycia zdarzenia<br />
alarmowego jest praktycznie zerowe.<br />
Obraz z kamer analogowych do analizy może być wykorzystywany<br />
wprost jedynie w przypadku stosowania analogowych<br />
rejestratorów wizyjnych. Każda inna technologia analizy<br />
zawsze będzie wymagała digitalizacji obrazu, co podnosi<br />
koszty całego systemu.<br />
Panuje błędne przekonanie, że profesjonalny system monitoringu<br />
wizyjnego powinien opierać się na kamerach obrotowych.<br />
Skuteczna analiza obrazu oparta na takich kame-<br />
partnerzy wydania:<br />
1.5X
13<br />
Rys. 2. Algorytm MxActivitySensor w kamerze<br />
Mobotix . Osoba wybiegająca z budynku zostaje<br />
wykryta i oznaczona na histogramie jako zdarzenie<br />
alarmowe, z podaniem informacji o kierunku jej poruszania<br />
się. Padający deszcz czy poruszające się na<br />
wietrze drzewa nie generują fałszywych alarmów<br />
Rys. 3. Sposób działania MxActivitySensor Mobotix.<br />
Algorytm wykrywa obiekt i analizuje trajektorię<br />
jego ruchu, dokonując klasyfikacji zdarzenia<br />
Rys. 4. Sposób działania algorytmu Intrusion Trace<br />
w urządzeniu FastTrace marki Xtralis. Dzięki kalibracji<br />
urządzenia w odniesieniu do perspektywy<br />
można wykryć nawet niewielkie obiekty będące<br />
daleko od kamery. Analiza działa bardzo skutecznie,<br />
nawet gdy obraz jest niskiej jakości<br />
rach jest bardzo skomplikowana i nigdy nie<br />
będzie tak efektywna, jak przy systemach<br />
stałopozycyjnych. Stosując kamery stacjonarne,<br />
mamy pewność, że przez cały czas są<br />
obserwowane i nagrywane wszystkie strefy.<br />
Ale trzeba pamiętać, że w prawidłowo zaprojektowanym<br />
systemie rodzaj zastosowanych<br />
kamer CCTV zależy od wymagań użytkowych<br />
w konkretnego przypadku.<br />
DETEKCJA RUCHU<br />
CZY WIDEOANALIZA?<br />
Większość dostępnych kamer IP oraz rejestratorów<br />
wizji ma funkcję detekcji ruchu, nazywaną<br />
także VMD (Video Motion Detection).<br />
Sposób jej działania opiera się na najprostszym<br />
możliwym algorytmie (rys. 1). Dana<br />
klatka jest porównywana z klatką referencyjną<br />
lub wcześniejszą. Następnie wylicza się<br />
Rys. 1. Schemat prostego algorytmu detekcji ruchu<br />
stosowanego w większości kamer<br />
i rejestratorów wideo<br />
obraz kamery<br />
klatka<br />
referencyjna<br />
obliczenie<br />
różnicy<br />
różnica > próg detekcji<br />
NIE<br />
BRAK ALARMU<br />
operacje<br />
morfologiczne<br />
na obrazie<br />
klatka<br />
bieżąca<br />
TAK<br />
ALARM<br />
różnicę pomiędzy tymi klatkami i jeśli wynik<br />
jest wyższy od założonego progu, wówczas<br />
system wykrywa zdarzenie alarmowe.<br />
Rozwiązania typu VMD są przydatne jedynie<br />
wtedy, gdy kamery są stosowane wewnątrz<br />
budynków. Przy ochronie zewnętrznej taki<br />
algorytm generuje olbrzymią liczbę fałszywych<br />
alarmów. Ponadto algorytm VMD jest<br />
niezdolny do detekcji obiektów, dlatego<br />
ruch rozproszony, taki jak padający deszcz<br />
czy śnieg, zawsze będzie powodował alarm.<br />
Nie analizuje także trajektorii ruchu zmian<br />
zachodzących w obrazie oraz nie ma możliwości<br />
dodatkowej parametryzacji, takiej jak<br />
wprowadzanie atrybutów obiektów zainteresowania.<br />
VMD wykrywa zatem jedynie zmiany obrazu,<br />
bez analizy natury tych zmian. Z tej przyczyny<br />
99% zmian w obrazie jest nieistotnych<br />
dla systemów zabezpieczeń. Skutkuje tylko<br />
dodatkową pracą dla opertora monitoringu,<br />
który musi weryfikować wszystkie fałszywe<br />
zdarzenia. Dodatkowo, jeśli rejestracja obrazu<br />
jest sterowana zdarzeniowo, wówczas<br />
każde fałszywe zdarzenie generuje koszty<br />
związane z przestrzenią potrzebną na jego<br />
archiwizację.<br />
Stosowanie kamer w przestrzeni publicznej<br />
lub ochronie obwodowej wymaga użycia<br />
znacznie skuteczniejszych rozwiązań. Jeśli<br />
taka analiza ma działać w sposób efektywny,<br />
a jednocześnie być wydajna, wówczas koszt<br />
samej kamery będzie wyższy. Złożoność obliczeniowa<br />
algortymów inteligentnej analizy<br />
wizji jest znacznie większa od VMD. Dlatego<br />
w kamerach z zaawansowanymi algorytmami<br />
muszą być zastosowane procesory sygnałowe<br />
DSP wyższej klasy, o większej pamięci<br />
operacyjnej, co oczywiście ma wpływ na<br />
cenę samej kamery. Jednak budowa systemu<br />
bezpieczeństwa opartego na takich rozwiązaniach<br />
w ostatecznym bilansie i tak jest dużo<br />
bardziej opłacalna.<br />
Inteligentna analiza obrazu jest zagadnieniem<br />
dużo bardziej złożonym niż tradycyjna<br />
detekcja ruchu. Pozwala ograniczyć bardzo<br />
dużą liczbę fałszywych alarmów, najczęściej<br />
wywoływanych przez zmiany środowiskowe,<br />
takie jak gwałtowna zmiana oświetlenia, padający<br />
deszcz lub śnieg, przelatujące owady,<br />
poruszające się cienie, a także drgania samej<br />
kamery.<br />
Analiza może też uwzględniać perspektywę<br />
monitorowanej sceny. Dzięki temu wielkość<br />
obiektu zainteresowania nie musi być określana<br />
w pikselach, bez względu na jego lokalizację.<br />
Kalibracja systemu w odniesieniu do<br />
trójwymiarowego modelu sceny pozwala na<br />
skuteczną detekcję obiektów przemieszczających<br />
się nawet daleko od kamery oraz uniknięcie<br />
fałszywych alarmów spowodowanych<br />
ruchem niewielkich obiektów poruszających<br />
się w pobliżu kamery.<br />
Coraz częściej systemy analizy umożliwiają<br />
także weryfikację zachowań oraz ich klasyfikację.<br />
Można np. sprawdzić, jak długo dana<br />
osoba przebywa w monitorowanej strefie lub<br />
po jakiej trajektorii porusza się obiekt zainteresowania.<br />
Z dużą skutecznością można także<br />
wykrywać zarówno pojawiające się obiekty,<br />
jak i te, które zniknęły z obrazu.<br />
Każdy rodzaj zagrożenia, które można wykrywać<br />
za pomocą systemów wizyjnych, ma inną<br />
specyfikę. Dlatego, tak jak nie ma jednego<br />
lekarstwa na wszystkie choroby, tak samo nie<br />
można stworzyć uniwersalnego algorytmu<br />
do identyfikacji wszystkich zagrożeń. Dobór<br />
konkretnego produktu zawsze powinien zostać<br />
poprzedzony analizą monitorowanego<br />
obszaru i ryzyka.<br />
Właśnie ze względu na złożoność problemu<br />
inteligentnej analizy obrazu można spotkać<br />
tak wiele różnych algorytmów inteligentnej<br />
detekcji, jak detekcja osób przebywających<br />
zbyt długo w jednej strefie, detekcja wtargnięcia,<br />
wykrywanie pozostawionych obiektów,<br />
detekcja dymu, zliczanie osób, rozpoznawanie<br />
twarzy itd.<br />
Inteligentna analiza wideo jest obecnie potężnym<br />
narzędziem, które wkrótce będzie<br />
nieodzownym elementem każdego systemu<br />
dozoru wizyjnego. Wraz z dynamicznym<br />
wzrostem sprzedaży kamer IP będziemy<br />
obserwowali jeszcze szybszy rozwój tej dziedziny.<br />
<br />
partnerzy wydania:
14<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Paweł Wittich<br />
Akademia Monitoringu Wizyjnego<br />
IVA w pracy operatorów<br />
systemu CCTV<br />
Proste zadania a zróżnicowane<br />
środowisko dozoru<br />
Inteligentna analiza obrazu jest nazwą marketingową.<br />
Przymiotnik „inteligentna” warto<br />
traktować z przymrużeniem oka, bo oferowane<br />
algorytmy opierają się na zero-jedynkowej<br />
analizie prostych sytuacji, np. grupa<br />
pikseli o innej jasności niż tło „weszła” w obszar<br />
i pozostaje w nim dłużej niż wyznaczony<br />
czas. W środowisku nieskomplikowanym<br />
z punktu widzenia pracy operatora CCTV będzie<br />
to przydatne narzędzie. Przykładowo,<br />
po godzinach pracy zakładu, na ogrodzonym<br />
terenie nikogo nie powinno być, w pustej<br />
przestrzeni algorytmom będzie więc<br />
łatwo wykryć ruch – potencjalnego intruza.<br />
Oglądanie „jak rośnie trawa” jest dla operatora<br />
monotonne i wyczerpujące. Operator<br />
może w tym czasie dozorować te obszary,<br />
które wymagają od niego większego zaangażowania.<br />
Sytuacja radykalnie zmienia się w środowisku<br />
wymagającym – żeby wykryć zagrożenie<br />
i skutecznie na nie zareagować – dokładnej<br />
analizy zachowania, bo sprawcę od zwykłego<br />
człowieka odróżniają niuanse. Przykładowo,<br />
w sklepie matka często się rozgląda,<br />
by sprawdzić, gdzie jest jej dziecko; złodziej<br />
będzie się rozglądał, by sprawdzić, gdzie są<br />
pracownicy ochrony. Dla kamery wyposażonej<br />
w IVA oba rodzaje „rozglądania się” to<br />
taki sam ruch pikseli. Algorytm nie rozróżni,<br />
czy klientka schowała produkt do torebki,<br />
czy do koszyka. Operator nie tylko prawidłowo<br />
zinterpretuje zachowanie, ale także<br />
połączy je z innymi sygnałami, by potwierdzić,<br />
że ma do czynienia ze złodziejem,<br />
m.in. zainteresuje się zbyt obszernym ubraniem,<br />
najpierw pełnym, później pustym<br />
wózkiem (sprawcy przepakowali zawartość<br />
do toreb), unikaniem przez „klienta” pracowników<br />
ochrony. Operator będzie szukał<br />
oznak zdenerwowania (drapania się, poprawiania<br />
odzieży), pozorowanego luzu, który<br />
ma przykryć prawdziwe intencje złodzieja,<br />
lub sztywności ruchów wskazujących na napięcie,<br />
jakie rodzi się w związku z ryzykiem<br />
zatrzymania.<br />
Przewaga operatora nad IVA w złożonym<br />
środowisku dozoru CCTV polega na tym, że<br />
operator może wykryć zagrożenie na wiele<br />
IVA jako narzędzie wspomagające operatorów<br />
Przy stosowaniu IVA warto zwrócić uwagę na praktyczne zasady jej użycia:<br />
• jeżeli alarm IVA ma skutkować wyświetleniem obrazu na ekranie szczegółowym, to warto<br />
zainstalować monitor przypisany tylko alarmom IVA – gdy operator prowadzi aktywną obserwację<br />
lub rejestruje inne zdarzenie, automatyczne wyświetlenie obrazu z innej kamery<br />
zakłóci jego pracę<br />
• wideoweryfikacja – operator szybko i prawidłowo oceni alarm sygnalizowany przez IVA, jeżeli<br />
zostanie przeszkolony w zakresie typowych zdarzeń w danym miejscu, wyglądu typowych<br />
sprawców i sygnałów mowy ciała wskazujących na zagrożenie<br />
• wykorzystanie IVA nie oznacza automatycznej reakcji systemu CCTV – należy przeszkolić<br />
operatorów, jak należy przekazywać informacje do pracowników ochrony odpowiedzialnych<br />
za reakcję, jak sterować kamerami i jakie elementy powinno zawierać nagranie, żeby<br />
mogło zostać użyte w sądzie<br />
• tam, gdzie IVA wspomaga operatorów w wybranych obszarach, konieczne jest przeszkolenie<br />
operatorów, by potrafili aktywnie prowadzić obserwację i wykrywać zdarzenia w pozostałych<br />
miejscach objętych dozorem<br />
• tam, gdzie IVA wspomaga operatorów, warto systematycznie oceniać skuteczność personelu;<br />
brak nadzoru przełożonych może skutkować biernym wyczekiwaniem na alarmy<br />
płynące z IVA i słabą skutecznością<br />
różnych sposobów, a IVA ogranicza się tylko<br />
do jednego zdefiniowanego zachowania.<br />
Operator na bieżąco weryfikuje, czy ma do<br />
czynienia z realnym zagrożeniem, czy fałszywym<br />
alarmem.<br />
Akceptowalny poziom skuteczności<br />
i fałszywych alarmów<br />
Jan Grusznic napisał w artykule, że IVA nie<br />
jest urządzeniem typu plug-and-play i bez<br />
precyzyjnego zdefiniowania oraz spełnienia<br />
określonych kryteriów technicznych nie da<br />
pożądanych efektów. W kontekście pracy<br />
operatorów ten problem pojawił się już w kamerach<br />
analogowych i detekcji ruchu. Jeżeli<br />
tę funkcjonalność uruchamiano w miejscu,<br />
gdzie przechodziło dużo osób, operatorzy<br />
szybko zaczynali traktować nadmiar alarmów<br />
jako uciążliwość i ignorowali je lub wyłączali<br />
sygnalizację alarmu. Operatorzy będą wykorzystywać<br />
narzędzie, któremu mogą<br />
zaufać, inaczej IVA stanie się jedynie technicznym<br />
gadżetem. Rozpatrując jej użycie<br />
do wykrywania zdarzeń, warto ocenić, czy<br />
w danym miejscu ułatwi, czy utrudni pracę<br />
operatorów.<br />
Liczebność i zadania operatorów<br />
przy wprowadzaniu IVA<br />
Po pierwsze, operatorzy są potrzebni, żeby<br />
weryfikować, czy wykryte alarmy są prawdziwym<br />
zagrożeniem. Po drugie, w systemach,<br />
w których są zainstalowane kamery obrotowe,<br />
operator jest potrzebny, żeby wykonać<br />
ujęcia pozwalające na identyfikację sprawców<br />
i rejestrację istotnych faktów zdarzenia.<br />
Brak nagrań spełniających kryteria materiału<br />
dowodowego to ciągle jeden z największych<br />
problemów systemów CCTV – ostatnimi przykładami<br />
są śmiertelne pobicie i ugodzenie<br />
nożem osoby w Bydgoszczy, gdzie w obu<br />
przypadkach słaba jakość nagrań nie pozwoliła<br />
na identyfikację sprawców.<br />
To, czy można ograniczyć obsadę operatorską<br />
po wprowadzeniu IVA, będzie zależne od<br />
poziomu i rodzaju zagrożeń. Moim zdaniem,<br />
tam gdzie przed systemem CCTV stawia się<br />
zadanie wykrywania i natychmiastowego<br />
reagowania na zdarzenia (sklep, miasto),<br />
a także ze względu na ograniczenia IVA,<br />
w złożonym środowisku wskazane jest<br />
utrzymanie pełnej obsady operatorskiej. <br />
partnerzy wydania:<br />
1.5X
16<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
AxxonSoft Polska<br />
ul. Olszańska 5H, 31-513 Kraków<br />
tel. 12 393 58 01<br />
poland@axxonsoft.com<br />
www.axxonsoft.com/pl<br />
Rozwój technologii informatycznych spowodował, że od systemów<br />
dozoru wizyjnego użytkownicy mogą wymagać już nie tylko podglądu<br />
oraz nagrywania obrazu, ale również zaawansowanej analizy zdarzeń<br />
występujących w polu widzenia kamer.<br />
Coraz powszechniejsze stosowanie rozwiązań IP w instalacjach telewizji<br />
przemysłowej spowodowało, że CCTV stała się elementem systemów<br />
informatycznych, które integrują ją z rozmaitymi systemami<br />
bezpieczeństwa (PSIM).<br />
AxxonSoft<br />
Wykraczając poza<br />
tradycyjne<br />
rozwiązania<br />
Zastosowanie analizy wideo wprowadza<br />
nie tylko na nowy poziom<br />
skuteczności i funkcjonalności w wykrywaniu<br />
zdarzeń, ale również daje<br />
nowe, zadziwiające możliwości, które<br />
daleko wykraczają poza branżę zabezpieczeń.<br />
Przykładem może być analiza obrazu<br />
pod kątem zachowania klientów w sklepach.<br />
Zastosowanie oprogramowania<br />
Axxon w placówce handlowej pozwala nie<br />
tylko na ochronę przed wandalizmem lub<br />
kradzieżami (również dzięki integracji z punktami<br />
kasowymi POS). Oprogramowanie może<br />
zliczać np. osoby, które odwiedziły sklep, automatycznie<br />
poinformować o rosnącej kolejce<br />
do kasy itp., generując nieocenione statystyki<br />
dla osób zarządzających sprzedażą lub<br />
ułożeniem produktów na półkach.<br />
Jednym z ciekawszych rozwiązań są mapy<br />
ciepła – Axxon Intellect generuje raporty<br />
dotyczące zainteresowania danym produktem.<br />
Można wskazać półki sklepowe bądź<br />
obszary sklepu, a oprogramowanie pokaże<br />
na skali kolorystycznej miejsca, które cieszyły<br />
się największym zainteresowaniem klientów<br />
i które były odwiedzane rzadziej. Dzięki temu<br />
kierownictwo może pozyskać cenne informacje<br />
na temat zainteresowania produktami,<br />
które w innym wypadku musiałoby pozyskać,<br />
zlecając odpowiednie badania rynku. Jest to<br />
bardzo przydatna funkcja zwłaszcza dla wielkopowierzchniowych<br />
punktów handlowych,<br />
gdzie jest mnóstwo alejek, a sposób poruszania<br />
się klientów nie jest bez znaczenia dla<br />
wyników sprzedaży (fot. 1).<br />
Analiza wideo świetnie sprawdza się w systemach<br />
związanych z inżynierią ruchu drogowego.<br />
Algorytmy stosowane do obsługi<br />
systemów zarządzania ruchem często korzystają<br />
z rozwiązań analizujących obraz. Prawdopodobnie<br />
obecnie analiza wideo to najlepsze<br />
narzędzie do tworzenia statystyk ruchu<br />
ulicznego, zliczania pojazdów z podziałem na<br />
typy (samochód osobowy, ciężarowy, motocykl)<br />
czy obliczania średniej prędkości. Dzięki<br />
posiadanej funkcji rozpoznawania kierunku<br />
poruszania się możliwe jest wskazanie pojazdu<br />
jadącego pod prąd, wykrycie przejazdu na<br />
czerwonym świetle bądź zatrzymania w niedozwolonym<br />
miejscu.<br />
Fot. 1. Mapy ciepła to funkcja<br />
przydatna zwłaszcza dla<br />
wielkopowierzchniowych<br />
punktów handlowych<br />
Sztandarowym przykładem<br />
skutecznej analizy wideo<br />
jest narzędzie rozpoznające<br />
tablice rejestracyjne, tzw.<br />
LPR – License Plate Recognition<br />
(fot. 2). Oprogramowanie Axxon<br />
wykorzystuje w tym celu algorytm<br />
własnego autorstwa lub firm trzecich.<br />
Integracja z rozwiązaniami innych producentów<br />
pozwala na optymalny wybór<br />
rozwiązania LPR pod kątem konkretnego<br />
zastosowania i potrzeb klienta, gwarantując<br />
uzyskanie maksymalnego poziomu skuteczności.<br />
Zastosowanie modułu Axxon LPR pozwala<br />
na generowanie nie tylko danych statystycznych,<br />
takich jak zliczanie pojazdów czy obciążenie<br />
pasa ruchu, ale również daje możliwości<br />
niezwykle skutecznego poszukiwania pojazdów<br />
w trybie rzeczywistym, również mobilnie<br />
przez instalowanie systemu w pojazdach<br />
policji.<br />
Fot. 2. Axxon LPR – sztandarowy przykład skutecznej analizy wideo<br />
partnerzy wydania:<br />
1.5X
17<br />
Kolejnym narzędziem analizy obrazu w oprogramowaniu<br />
Axxon jest detekcja naruszenia<br />
strefy. Administrator systemu tworzy wirtualne<br />
ogrodzenie (obszar) na ekranie monitora,<br />
po którego przekroczeniu system w zdefiniowany<br />
wcześniej sposób poinformuje o tym<br />
zdarzeniu w postaci monitu na ekranie, uruchomieniu<br />
alarmu, powiadomieniu SMS itp.<br />
System może także ostrzec o pozostawionym<br />
w strefie obiekcie lub fakcie, że jakiś obiekt<br />
zniknął z obserwowanej sceny. Może również<br />
rozpoznać szwendanie się osoby. To idealne<br />
rozwiązanie przydatne na lotniskach, parkingach,<br />
punktach handlowych i innych miejscach<br />
wzmożonego ruchu.<br />
Jedną z podstawowych funkcjonalności<br />
dobrego oprogramowania VMS jest autoochrona<br />
systemu zapewniana m.in. dzięki<br />
rozpoznawaniu manipulacji kamerą, detekcji<br />
zasłonięcia obiektywu, rozmycia obrazu, oślepiającego<br />
oświetlenia, zmiany obserwowanej<br />
sceny, zakłóceń w przesyle wideo itp., co pozwoli<br />
strzec instalację przed próbami wandalizmu<br />
czy sabotażu.<br />
Najbardziej zaawansowanym algorytmem<br />
w oprogramowaniu Axxon jest rozpoznawanie<br />
twarzy oraz wyszukiwanie twarzy w archiwum<br />
(fot. 3). Oprogramowanie pozwala na<br />
skuteczną identyfikację ludzi bez względu na<br />
fryzurę, noszone okulary, posiadany zarost,<br />
kąt skierowania kamery czy też warunków panujących<br />
w tle. W czasie rzeczywistym system<br />
informuje o dopasowaniu twarzy do wzorca<br />
znajdującego się w bazie danych (np. poszukiwanych<br />
osób). System może również współpracować<br />
z systemami kontroli dostępu, poddając<br />
weryfikacji osoby, które chcą np. wejść<br />
do jakiegoś pomieszczenia. Rozwiązanie to<br />
jest stosowane z powodzeniem w największych<br />
sieciach metra na świecie, lotniskach<br />
czy stadionach.<br />
Fot. 3. Rozpoznawanie i wyszukiwanie twarzy w archiwum to najbardziej zaawansowany algorytm<br />
w oprogramowaniu Axxon<br />
Fot. 4. Interaktywne mapy 3D umożliwiają intuicyjną obsługę systemu<br />
Fot. 5. Soczi – jedna z ostatnich prestiżowych instalacji oprogramowania Axxon<br />
Oprogramowanie Axxon nie tylko analizuje<br />
obraz w czasie rzeczywistym, ale dzięki metadanym,<br />
które gromadzi w bazie, umożliwia<br />
szybsze przeszukiwanie archiwum. System<br />
gromadzi dane m.in. o wielkości, kolorze, kierunku<br />
poruszania się czy prędkości obiektu.<br />
W praktyce oznacza to błyskawiczne odnalezienie<br />
poszukiwanego zdarzenia (fot. 4).<br />
Analiza wideo to jednak nie wszystko, Axxon-<br />
Soft oferuje bowiem także analizę audio.<br />
Najnowsze kamery wyposażone w mikrofony<br />
mogą wspomóc analizę wideo poprzez<br />
analizę audio. System Axxon posiada moduły<br />
detekcji agresji, detekcji alarmów samochodowych,<br />
detekcji zbicia szkła.<br />
Oprogramowanie może automatycznie informować<br />
o zdarzeniach, które są wynikiem analizy<br />
wideo, dźwięku bądź też wynikają z informacji<br />
pochodzących z innych systemów<br />
zintegrowanych, m.in. KD, PPOŻ., SSWiN.<br />
Dzięki temu można tworzyć scenariusze zdarzeń,<br />
podpowiedzi dla operatorów systemu<br />
czy procedury „step by step”, co znacznie ułatwi<br />
ich pracę oraz skróci czas reakcji.<br />
Najnowszą i najbardziej prestiżową instalacją<br />
systemu Axxon jest system bezpieczeństwa<br />
Wioski Olimpijskiej w Soczi oraz tzw. Drogi<br />
Olimpijskiej Moskwa-Soczi, specjalnie wybudowany<br />
na zimowe igrzyska (fot. 5). Ciekawostką<br />
jest, że część analizy obrazu odbywa się<br />
w kamerach IP firmy Panasonic, natomiast informacje<br />
są przekazywane do oprogramowania<br />
Axxon, które z kolei dystrybuuje zdarzenia<br />
wg wcześniej zaprojektowanych scenariuszy.<br />
Warto o tym wspomnieć, gdyż w przyszłości<br />
analiza obrazu będzie w dużej mierze obsługiwana<br />
przez same kamery, te jednak będą<br />
współpracowały z jeszcze bardziej zaawansowanym<br />
oprogramowaniem, które musi „rozumieć”,<br />
co kamera chce mu przekazać.<br />
Firma AxxonSoft istnieje na rynku od 10 lat.<br />
Posiada 37 biur na całym świecie, w których<br />
pracuje ponad 350 wysoko wykwalifikowanych<br />
specjalistów.<br />
Badania Frost & Sullivan wskazały, że Axxon-<br />
Soft posiada ponad 60 proc. udziału w rosyjskim<br />
rynku oprogramowania systemów<br />
dozoru wizyjnego. Według IMS Research 2010<br />
World & EMEA oraz sprawozdania Video Surveillance<br />
Equipment Report firma zajmuje<br />
pierwsze miejsce w Europie wśród dostawców<br />
otwartych platform dla systemów dozoru<br />
wizyjnego.<br />
Pod koniec roku 2013 firma AxxonSoft doceniła<br />
także polski rynek i jako globalny producent<br />
oprogramowania VMS (Video Management<br />
Software) oraz PSIM (Physical Security<br />
Information Management) uruchomiła swoje<br />
biuro w Polsce. <br />
partnerzy wydania:
18<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Axis Communications<br />
Emdalavägen 14, SE-223 69 Lund, Szwecja<br />
Kontakt w Polsce: Agata Majkucińska<br />
tel. 793 155 227, faks 48 330 86 61<br />
www.axis.com<br />
Systemy inteligentnej<br />
analizy obrazu<br />
według Axis Communications<br />
Jeszcze nie tak dawno rozwiązania inteligentnej<br />
analizy obrazu były tworzone na bazie komputerów<br />
PC, często o niewystarczającej mocy obliczeniowej.<br />
W powiązaniu z nie najlepszej jakości obrazem z kamery<br />
dawało to wyniki dalekie od satysfakcjonujących, przy<br />
niewspółmiernie wysokich kosztach. Sytuacja zmieniła<br />
się wraz z wprowadzeniem na rynek kamer IP oraz<br />
wideoenkoderów wyposażonych w procesory mogące<br />
sprostać wymaganiom stawianym przed analizą<br />
zawartości obrazu.<br />
partnerzy wydania:<br />
1.5X
19<br />
Inteligentne systemy<br />
Szybkie odnalezienie zaistniałych zdarzeń<br />
w archiwum, przy coraz większej ilości<br />
przechowywanych danych wizyjnych, staje<br />
się coraz trudniejsze. Z tego powodu m.in.<br />
tradycyjne analogowe systemy telewizji<br />
dozorowej są coraz częściej wymieniane na<br />
nowoczesne cyfrowe rozwiązania dozoru<br />
wizyjnego o większej palecie możliwości.<br />
Inteligentna analiza obrazu (IVA) jest jedną<br />
z funkcji, które wyznaczają nowy kierunek<br />
rozwoju wizyjnych systemów bezpieczeństwa,<br />
pozwalających zwiększyć efektywność<br />
zaimplementowanych rozwiązań, a nawet<br />
zapobiec zdarzeniom niepożądanym.<br />
Inteligentne systemy analizy obrazu porządkują<br />
ogromną ilość informacji zawartych<br />
w materiale wizyjnym i czynią go bardziej<br />
przystępnym. Przeprowadzając analizę, korzystają<br />
z danych „opisujących” zawartość<br />
obrazu, co wpływa na czas wyszukiwania, jakość<br />
detekcji i elastyczność tworzonych reguł.<br />
Zyskują na tym przede wszystkim operatorzy,<br />
zostają bowiem nie tylko odciążeni, ale też<br />
mogą efektywniej obsługiwać system, tworząc<br />
potencjalne scenariusze alarmowe.<br />
Inteligentne funkcje<br />
Firma Axis Communications<br />
wraz z partnerami<br />
programistycznymi opracowała<br />
wiele aplikacji<br />
umożliwiających analizę<br />
zawartości obrazu<br />
(<strong>VCA</strong>), począwszy od<br />
detekcji ruchu czy<br />
dźwięku, skończywszy<br />
na bardziej zaawansowanych<br />
algorytmach,<br />
takich jak wykrywanie<br />
działań sabotażowych,<br />
zliczanie osób, rozpoznawanie<br />
tablic rejestracyjnych<br />
czy wykrywanie poruszających<br />
się obiektów przecinających wirtualną<br />
linię kamery (tzw. Cross Line Detection).<br />
Aplikacje są dostępne w ramach Axis<br />
Camera Application Platform (ACAP) na<br />
stronie: www.axis.com.<br />
Obserwujemy znaczny wzrost liczby aplikacji<br />
znajdujących zastosowanie w różnych systemach<br />
dozoru wizyjnego, opartych na urządzeniach<br />
Axis – mówi Jan Grusznic, Sales<br />
Engineer w Axis Communications. – Inteligentne<br />
systemy dozoru potrafią wyodrębnić<br />
dane ze strumienia wizji oraz powiązać je<br />
z innymi systemami służącymi np. do zarządzania<br />
punktami sprzedaży detalicznej lub<br />
systemami kontroli dostępu. Takie rozwiązania<br />
generują korzyści i tworzą nowe możliwości<br />
biznesowe.<br />
Technologia inteligentnej analizy obrazu proponowana<br />
przez firmę Axis pozwala stworzyć<br />
systemy dozorowe wyróżniające się funkcjonalnością,<br />
dokładnością i opłacalnością.<br />
Umożliwia automatyczny dozór, oznaczanie<br />
obrazu w czasie rzeczywistym, wykrywanie<br />
podejrzanych działań i zapobieganie przestępczości.<br />
System można skonfigurować w taki sposób,<br />
aby dostarczał ukierunkowanych, konkretnych<br />
informacji – wyjaśnia Jan Grusznic. – Oznacza<br />
to, że nadanie określonych parametrów pozwala<br />
na wczesne ostrzeżenie operatora o ich naruszeniu.<br />
Strategie tworzenia<br />
inteligentnego systemu<br />
Inteligentne systemy dozoru wizyjnego mogą<br />
być wdrażane na dwa główne sposoby – jako<br />
scentralizowane i rozproszone. W modelach<br />
scentralizowanych obraz dostarczany z kamer<br />
jest analizowany po stronie serwera centralnego.<br />
W modelu rozproszonym kamery sieciowe<br />
oraz wideoenkodery oferowane przez<br />
Axis Communications są zdolne do lokalnego<br />
przetwarzania obrazu i wydobywania z niego<br />
istotnych informacji.<br />
Najbardziej skalowalna, efektywna kosztowo<br />
i elastyczna architektura jest oparta na „inteligencji”<br />
w urządzeniu końcowym, co oznacza, że<br />
kamery sieciowe lub wideoenkodery przetwarzają<br />
obraz lokalnie, bez konieczności użycia jakichkolwiek,<br />
dodatkowych elementów systemu<br />
– mówi Jan Grusznic.<br />
Architektura rozproszona zakłada wykorzystanie<br />
pasma w jak najmniejszym stopniu,<br />
pozbawiona jest więc wady modelu scentralizowanego.<br />
Ponadto przetwarzanie obrazu<br />
w urządzeniu końcowym znacznie obniża<br />
koszty urządzeń serwerowych, niezbędnych<br />
do uruchomienia inteligentnych aplikacji.<br />
Pełna synergia<br />
człowiek-kamera?<br />
Na rynku można zauważyć wzrost zainteresowania<br />
rozwiązaniami z zakresu inteligentnych<br />
systemów nadzoru CCTV. Przyczyna tego zjawiska<br />
tkwi w coraz niższych kosztach związanych<br />
z budową i eksploatacją systemu, jak też<br />
lepszą wydajnością pracy pracowników.<br />
Systemy Axis umożliwiają efektywniejszą pracę<br />
personelu – podkreśla Jan Grusznic. – Operatorzy<br />
mogą skupić się na zadaniach priorytetowych,<br />
a nie na ciągłej obserwacji wielu obrazów<br />
w celu wychwycenia podejrzanego zdarzenia.<br />
Inteligentne systemy dozorowe, które obejmują<br />
detekcję ruchu i dźwięku, mogą pomóc<br />
w optymalizacji zużycia powierzchni dyskowej,<br />
ponieważ są rejestrowane tylko obrazy<br />
przedstawiające niepożądaną aktywność.<br />
Ponadto wykorzystanie mocy obliczeniowej<br />
w urządzeniu końcowym do analizy obrazu<br />
pozwala odciążyć sieć.<br />
Inteligentna przyszłość<br />
Wszystko wskazuje na to, że dzięki innowacyjnym<br />
technologiom dozór CCTV coraz częściej<br />
będzie oparty na inteligentnych systemach<br />
wizyjnych. Nie powinno się ograniczać ich roli<br />
jedynie do wymiaru biznesowego. Ich celem<br />
jest również bezpieczeństwo, we współczesnym<br />
świecie jedna z najcenniejszych i najbardziej<br />
pożądanych wartości. <br />
partnerzy wydania:
20<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Piotr Rogalewski<br />
Samsung Techwin<br />
Biuro w Polsce<br />
ul. Marynarska 15, 02-674 Warszawa<br />
tel. +48 22 20 50 777<br />
Analiza treści<br />
sygnału wizyjnego,<br />
zwana też w skrócie analizą obrazu lub<br />
inteligentną analizą wideo (IVA – Intelligent<br />
Video Analytics lub <strong>VCA</strong> – Video Content Analysis)<br />
to funkcjonalność, która coraz częściej pojawia się<br />
w instalacjach telewizji dozorowej.<br />
Rozwój technologiczny i dopracowanie algorytmów analizy obrazu<br />
pozwalają obecnie na wykorzystanie tych funkcji jako ważnego<br />
narzędzia, poprawiającego skuteczność i sprawność działania<br />
systemów telewizji dozorowej.<br />
Oferta Samsung Techwin obejmuje systemy inteligentnej<br />
analizy wideo po stronie zarówno kamer, jak i serwera,<br />
a dzięki pakietowi Open SDK jest możliwe tworzenie<br />
własnych, unikatowych funkcji i całych<br />
aplikacji, idealnie dopasowanych<br />
do potrzeb klienta.<br />
Inteligentna<br />
analiza obrazu<br />
w rozwiązaniach Samsung Techwin<br />
Dlaczego analiza obrazu?<br />
W Europie i USA przeprowadzono kilkanaście różnych badań i eksperymentów<br />
polegających na określaniu zdolności percepcji i koncentracji<br />
operatorów systemów telewizji dozorowej przy różnej liczbie<br />
jednocześnie obserwowanych obrazów z kamer i różnym czasie pracy<br />
ciągłej na stanowisku obserwacyjnym. Badania te wykonywały następujące<br />
instytucje: British Security Industry Association (BSIA, Wlk.<br />
Brytania), Kingston University w Surrey (Wlk. Brytania), The Institue for<br />
Pervasive Computing w Zurychu (Szwajcaria), University of Maryland<br />
(USA) czy York University of Toronto (Kanada). Niezależnie od metodyki<br />
przeprowadzonych badań okazało się, że koncentracja obserwatora<br />
skupionego na oglądaniu obrazów z 16-32 kamer jednocześnie spada<br />
o połowę już po kwadransie obserwacji i o ponad 90% (!) po 30-45<br />
minutach.<br />
Znaczenie ma tutaj liczba jednocześnie wyświetlanych obrazów, ich<br />
dynamika oraz wiele innych czynników, jednak wniosek jest jeden: człowiek<br />
nie jest w stanie prowadzić obserwacji wielu obrazów jednocześnie<br />
przez dłuższy czas (kilka godzin) i zachować koncentrację wystarczającą<br />
do szybkiego reagowania na sytuacje nietypowe. Z pomocą przychodzi<br />
analiza obrazu, której odpowiednio skonfigurowane scenariusze<br />
mogą przyciągnąć uwagę operatora w momencie wystąpienia sytuacji<br />
o szczególnym charakterze lub nawet w momencie bezpośrednio ją poprzedzającym.<br />
Dzięki temu reakcja personelu obsługi może być szybka<br />
i skuteczna mimo wielogodzinnej pracy przed monitorami.<br />
Analiza obrazu wbudowana w kamerę<br />
Oferowane rozwiązania inteligentnej analizy obrazu można podzielić<br />
na dwie główne kategorie z punktu widzenia lokalizacji mechanizmu<br />
analizy. Pierwszą grupą jest analiza obrazu „na pokładzie” samych kamer<br />
CCTV. Jest to rozwiązanie bardzo korzystne m.in. z punktu widzenia<br />
zajętości pasma sieci transmisyjnej w systemie, kamera po wykonaniu<br />
analizy przesyła bowiem tylko rezultat swoich działań (tzw. metadane)<br />
do centrum nadzoru. Obciążenie serwera z oprogramowaniem zarządzającym<br />
jest wówczas mniejsze, gdyż otrzymuje on gotowe wyniki<br />
analizy bezpośrednio z kamer.<br />
Samsung Techwin oferuje pełny pakiet scenariuszy analizy obrazu wbudowany<br />
we wszystkich modelach kamer WiseNet III w cenie kamery, bez<br />
żadnych licencji i opłat dodatkowych. Pakiet ten obejmuje inteligentną<br />
detekcję ruchu, która poza tradycyjnym wykrywaniem ruchu potrafi<br />
„odfiltrować” powtarzalny ruch tła (np. falowanie gorącego powietrza,<br />
ruch liści lub fal morskich itp.), eliminując tym samym fałszywe alarmy.<br />
Dostępna jest także funkcja bariery wirtualnej z detekcją kierunku. Po<br />
narysowaniu na obrazie jednej lub kilku linii barier i oznaczeniu kierunku<br />
(kierunków) detekcji funkcja będzie reagować na przecięcie przez poruszający<br />
się obiekt bariery zgodnie ze zdefiniowanym wzorcem. Dzięki<br />
temu można wykryć sytuacje, takie jak poruszanie się pojazdów „pod<br />
prąd”, zawracanie lub skręcanie w niedozwolonym miejscu, ruch osób<br />
niezgodny z ustalonym kierunkiem ciągu komunikacyjnego, wejście<br />
partnerzy wydania:<br />
1.5X
21<br />
Fot. 1. Przykład zastosowania bariery wirtualnej w celu ochrony ogrodzenia<br />
i wjazdu na posesję<br />
w obszar strzeżony jednocześnie bez alarmowania o wyjściu z takiego<br />
obszaru itp. Kolejną funkcją jest detekcja pojawienia się lub zniknięcia<br />
obiektu w zdefiniowanym obszarze. Przykładowo, obsługa lotniska<br />
może w ten sposób zostać zaalarmowana o bagażu pozostawionym<br />
bez opieki, a ochrona muzeum o zabraniu cennego przedmiotu z postumentu<br />
na wystawie.<br />
Inną przydatną funkcją analizy obrazu, dostępną w kamerach Samsung,<br />
jest detekcja twarzy. Algorytm ten pozwala na wykrycie na jednym obrazie<br />
do 30 twarzy jednocześnie, i to przy obserwacji zarówno z frontu,<br />
jak i z profilu. Funkcja taka może być bardzo przydatna we wszystkich<br />
miejscach, gdzie pojawienie się człowieka jest niepożądane lub może<br />
być dla niego niebezpieczne (np. obszary działania chemikaliów, pracy<br />
zautomatyzowanych wózków transportowych w fabryce itp.).<br />
Kolejną dostępną funkcją jest analiza wejścia lub wyjścia w zdefiniowany<br />
obszar, wykorzystywana do ochrony np. terenu przyległego do ogrodzenia.<br />
Zestaw scenariuszy uzupełnia funkcja detekcji sabotażu, dzięki<br />
czemu kamera potrafi wykryć takie sytuacje, jak próba zamalowania<br />
obiektywu farbą, deregulacja ostrości czy umyślna zmiana pola lub kąta<br />
widzenia kamery. Ponadto kamery WiseNet III Samsunga oferują wbudowaną<br />
analizę dźwięku. Kamera dokonuje ciągłego pomiaru natężenia<br />
dźwięku docierającego z otoczenia i reaguje alarmem na przekroczenie<br />
zadanego progu natężenia (np. krzyk, stłuczenie szyby itp.).<br />
z oprogramowaniem zarządzającym Samsung Security Manager<br />
(SSM). Moduł SSM-VA10 potrafi wykonywać jednoczesną analizę strumieni<br />
wizyjnych z maks. dziesięciu kamer IP, a wśród algorytmów analizy<br />
są dostępne m.in. zliczanie obiektów, analiza kolejek, wykrywanie<br />
„wałęsania się” w wyznaczonym obszarze, analiza ścieżek ruchu czy<br />
analiza strefowa.<br />
Na szczególną uwagę zasługuje funkcja „map ciepła”, szczególnie przydatna<br />
np. przy obserwacji ruchu ulicznego lub w obiektach handlowych.<br />
Funkcja ta pozwala na klasyfikację obiektów wg wzorca „człowiek” lub<br />
„pojazd” oraz jednoczesne odwzorowanie („mapowanie”) za pomocą<br />
kolorów stref ruchu o różnej intensywności na tym samym obrazie<br />
dla sklasyfikowanych obiektów. Dzięki temu np. szefowie marketingu<br />
w sklepie wielkopowierzchniowym będą w stanie określić, przy których<br />
regałach (produktach) było w danym czasie najwięcej klientów, a instytucje<br />
zarządzające ruchem ulicznym będą mogły określić największe<br />
skupiska ruchu na newralgicznych skrzyżowaniach. Funkcja „map<br />
cieplnych” jest wbudowana standardowo w nowy rejestrator sieciowy<br />
Samsung SRN-4000.<br />
Rozwiązania analizy obrazu po stronie serwera to także platformy ISV<br />
(inaczej oprogramowanie typu open platform), z którymi Samsung<br />
Techwin jest kompatybilny. Dzięki zaawansowanej integracji urządzeń<br />
Samsunga z oprogramowaniem takich producentów, jak Milestone,<br />
Genetec czy Mirasys można w pełni wykorzystać możliwości zaawansowanej<br />
analizy obrazu, oferowanej przez te firmy. Szczegóły zostaną<br />
zaprezentowane na stoisku Samsunga podczas tegorocznych targów<br />
branżowych IFSEC w Wielkiej Brytanii.<br />
Za mało? Zrób to sam!<br />
Jeśli opisana funkcjonalność inteligentnej analizy wizji okaże się niewystarczająca<br />
dla klienta, Samsung oferuje możliwość samodzielnego<br />
utworzenia aplikacji na konkretne potrzeby. W tym celu dostępny jest<br />
bezpłatny zestaw Open SDK (Open Software Developement Kit), czyli<br />
pakiet narzędzi dla firm integracyjnych i inżynierów oprogramowania,<br />
którzy za pomocą tego pakietu mogą tworzyć własne, oryginalne funkcje<br />
lub całe aplikacje dla kamer Samsung serii WiseNet III. Aplikacje te<br />
można „wgrać” do kamery tak jak aplikacje dla urządzeń mobilnych<br />
typu smartfon czy tablet.<br />
Analiza obrazu po stronie serwera<br />
Drugą grupą rozwiązań inteligentnej analizy obrazu jest oprogramowanie<br />
instalowane po stronie serwera. Oznacza to, że całą pracę<br />
związaną z analizowaniem treści obrazu przejmuje na siebie komputer<br />
z zainstalowanym dedykowanym oprogramowaniem. W przypadku<br />
rozwiązania Samsung jest to aplikacja SSM-VA10, współpracująca<br />
Fot. 2. Funkcja Heatmap („mapa ciepła”), dostępna w oprogramowaniu<br />
SSM-VA10 oraz rejestratorze sieciowym SRN-4000<br />
Fot. 3. Kamera SNO-6084LR<br />
wykorzystująca aplikację z pakietem Open SDK<br />
do rozpoznawania tablic rejestracyjnych (ANPR)<br />
Konkretnym przykładem zastosowania technologii Open SDK jest kamera<br />
Samsung SNO-6084LR, służąca do rozpoznawania tablic rejestracyjnych<br />
pojazdów. W istocie jest to „tradycyjna” kamera serii WiseNet<br />
III, z załadowaną do pamięci aplikacją służącą do rozpoznawania tablic<br />
rejestracyjnych. Open SDK pozwala na tworzenie aplikacji nie tylko na<br />
potrzeby analizy obrazu, a liczba możliwych funkcji i zastosowań liczy<br />
już tysiące.<br />
Więcej informacji o pakiecie Open SDK oraz analizy obrazu w ofercie<br />
Samsung można uzyskać u autoryzowanych dystrybutorów, bezpośrednich<br />
przedstawicieli Samsung Techwin w Polsce oraz pod nr. tel.<br />
222 050 777. <br />
partnerzy wydania:
22<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
BCS<br />
www.bcscctv.pl<br />
Inteligencja<br />
w ruchu<br />
megapikselowa<br />
kamera PTZ<br />
z funkcją<br />
śledzenia<br />
Standardowy PTZ<br />
Kamery szybkoobrotowe są stosowane zarówno<br />
w dużych systemach monitoringu, jak<br />
i w małych obiektach lub domkach jednorodzinnych.<br />
W monitoringu miejskim to podstawowe<br />
kamery, których techniczne możliwości<br />
pozwalają operatorowi odpowiednio szybko<br />
zareagować i zmienić pole widzenia. Mniejsze<br />
instalacje, które nie posiadają 24-godzinnej<br />
obsady operatora, powinny zostać<br />
odpowiednio skonfigurowane przez instalatora.<br />
Każda kamera szybkoobrotowa ma<br />
sporo funkcjonalności – presety, skany, trasy,<br />
ścieżki, które pozwalają tak zaprogramować<br />
pole widzenia kamery, aby najdokładniej obserwować<br />
dany obszar. Jednak ich ustawienie<br />
jest czasochłonne i nie zawsze daje oczekiwane<br />
efekty. Kamera, której trasa trwa kilka minut,<br />
może nie zaobserwować miejsca, w którym<br />
doszło do interesującego nas zdarzenia.<br />
Taka sytuacja jest prawdopodobna i możliwa<br />
do wyeliminowania jedynie przy połączeniu<br />
kamery szybkoobrotowej ze stałopozycyjną<br />
o szerokim kącie widzenia, która będzie pokrywała<br />
większość planu obserwacyjnego<br />
z niewielką szczegółowością. Takie połączenie<br />
daje największe możliwości identyfikacyjne<br />
zaistniałego zdarzenia bez wykorzystania<br />
inteligentnych funkcji kamer szybkoobrotowych<br />
z funkcją śledzenia.<br />
Gdzie i co śledzić?<br />
Megapikselowa kamera szybkoobrotowa BCS-<br />
-SDIP3220I oprócz funkcji standardowych (presety,<br />
trasy, skany, ścieżki) ma również funkcję<br />
partnerzy wydania:<br />
automatycznego śledzenia poruszających<br />
się obiektów oraz inne<br />
funkcje analizy obrazu. Wykorzystanie<br />
tej funkcjonalności powinno<br />
być dokładnie uzgodnione i przedstawione<br />
inwestorowi. Funkcjonalność<br />
automatycznego śledzenia nie<br />
sprawdza się w każdych warunkach<br />
i dopiero jej odpowiednia konfiguracja<br />
po instalacji umożliwia kamerze prawidłowe<br />
działanie. Kamery BCS-SDIP3220I najlepiej<br />
sprawdzają się na parkingach i miejscach,<br />
w których ruch jest umiarkowany lub nieduży.<br />
Zbyt duże natężenie ruchu obiektów może<br />
powodować nieprawidłowe działanie funkcji<br />
analizy obrazu i przeskakiwanie kamery pomiędzy<br />
kilkoma poruszającymi się obiektami.<br />
Skonfigurowanie funkcji automatycznego<br />
śledzenia pozwala dopasować czułość śledzenia<br />
do wielkości obiektu, za którym kamera<br />
ma podążać. Start automatycznego<br />
śledzenia rozpoczyna się z zaprogramowanej<br />
wcześniej pozycji, która powinna mieć najszerszy<br />
możliwy plan. Po zakończeniu śledzenia<br />
lub w przypadku skrajnym, gdy kamera<br />
zgubi obiekt, wraca ona do pozycji startowej<br />
i pozostaje w gotowości do dalszego śledzenia.<br />
Taka funkcjonalność umożliwia obserwowanie<br />
szerokiego planu i po wykryciu ruchu<br />
zbliżenie do poruszającego się obiektu.<br />
Analiza obrazu<br />
W nieodległej przyszłości kamery stałopozycyjne<br />
BCS będą posiadały funkcję analizy<br />
obrazu. Będą to funkcje typu przekroczenie<br />
Kamery szybkoobrotowe są jednymi<br />
z najbardziej zaawansowanych urządzeń<br />
systemów monitoringu wizyjnego. Wykorzystując<br />
zdolności obrotu i zbliżenia, dają duże możliwości<br />
w wykrywaniu zagrożeń i przestępstw. Instalowane wysoko<br />
pozwalają dyskretnie obserwować, a w razie potrzeby<br />
operator może „podążać” za poruszającym się obiektem.<br />
Obserwując obrazy z kilku kamer, operator nie zawsze<br />
jest w stanie dostrzec zdarzenie i odpowiednio szybko<br />
zareagować. Dlatego czasem warto zainwestować<br />
w funkcjonalność, która wspomaga operatora<br />
niezależnie od pory dnia lub nocy.<br />
wirtualnej linii, pozostawienie obiektu, zaginięcie<br />
obiektu lub wykrycie ruchu w strefie.<br />
W obecnej ofercie taką analizę obrazu ma<br />
kamera BCS-SDIP3220I. Ustawienia funkcji są<br />
intuicyjne i łatwe do zaprogramowania i jednocześnie<br />
pozwalają zaalarmować operatora<br />
lub użytkownika systemu o zaistnieniu danej<br />
sytuacji w analizowanym obrazie. Kamera<br />
będzie mogła dodatkowo uruchomić jedno<br />
z wyjść przekaźnikowych, nagrywać obraz na<br />
wbudowanej karcie lub wysłać e-mail do administratora<br />
systemu z daną informacją.<br />
Wysoka rozdzielczość, możliwość obracania<br />
kamerą i automatyczne zbliżenie śledzonego<br />
obiektu to cechy idealnego urządzenia do implementacji<br />
w systemach telewizji dozorowej.<br />
Inteligentne funkcje analizy obrazu i automatyka<br />
pozwalają na zaprogramowanie kamery<br />
tak, aby reagowała sama i powiadamiała administratora<br />
o wykrytym zagrożeniu. <br />
1.5X
24<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Profi CCTV<br />
ul. Obornicka 276,<br />
60-693 Poznań<br />
tel: 61 842 29 62<br />
biuro@proficctv.pl<br />
www.dmaxcctv.pl<br />
www.samsungcctv.pl<br />
System telewizji dozorowej, który ma tylko<br />
i wyłącznie udostępniać oraz archiwizować obraz<br />
telewizyjny, przechodzi powoli do lamusa. Zadaniem<br />
najnowszych systemów dozorowych jest analiza obrazu<br />
w trybie rzeczywistym i w trybie post factum, czyli materiale<br />
zarchiwizowanym, umożliwiająca wyciągnięcie jak<br />
największej ilości informacji. Głównym producentem takiego<br />
rozwiązania jest fińska firma MIRASYS, która opracowała<br />
oprogramowanie MIRASYS.<br />
Zaawansowane funkcje IVA<br />
w oprogramowaniu Mirasys 7.0<br />
Oprogramowanie Mirasys działa w architekturze<br />
klient-serwer, co zapewnia duże możliwości<br />
rozbudowy systemu.<br />
Oprócz standardowych rozwiązań nagrywania<br />
i podglądu oprogramowanie to umożliwia<br />
inteligentną analizę obrazu, w której skład<br />
wchodzą:<br />
• klasyfikacja obiektów – rozpoznanie obiektu<br />
(np. pies, człowiek, samochód itd.),<br />
• zliczanie z filtrem cieni,<br />
• kierunek poruszania się,<br />
• przebywanie w strefie,<br />
• przekroczenie prędkości,<br />
• pojawianie się i znikanie,<br />
• sabotaż kamery,<br />
• tworzenie się grup,<br />
• sczytywanie tablic rejestracyjnych.<br />
W najnowszej odsłonie, którą wprowadzono<br />
na początku roku, w wersji 7.0 zostały zaimplementowane<br />
dodatkowe funkcje, takie jak<br />
wykrywanie ognia i dymu, śledzenie obiektów<br />
i możliwość wykorzystania IVA (Intelligent<br />
Video Analysis) z kamer wyposażonych w takie<br />
funkcje już przez producenta sprzętu.<br />
Ze względu na różny montaż kamer (wysokość,<br />
kąt i horyzont obserwowanej sceny) należy<br />
najpierw skonfigurować każdy kanał z osobna<br />
w celu późniejszej prawidłowej analizy danych.<br />
Zostało opracowane oprogramowanie konfiguracyjne,<br />
w którym należy zadeklarować wysokość<br />
i kąt powieszenia kamery wraz z ustawieniem<br />
horyzontu. Dla ułatwienia producent<br />
zaimplementował dwa obiekty przedstawiające<br />
zarys postaci, które umożliwiają dopasowanie<br />
i sprawdzenie poprawności ustawienia<br />
przestrzeni obserwowanego obrazu.<br />
Po prawidłowej konfiguracji system będzie<br />
mógł bez żadnego problemu rozpoznawać<br />
takie obiekty, jak samochód ciężarowy, samochód<br />
osobowy, człowiek, pies itp. Co ważne,<br />
obiekty w systemie są dowolnie programowalne,<br />
a to umożliwia użytkownikowi dodanie<br />
obiektów występujących u niego w dozorowanej<br />
przestrzeni, pozwalając niwelować<br />
fałszywe alarmy. Inteligentną analizę obrazu<br />
można powiązać z wejściami/wyjściami alarmowymi<br />
systemu bądź wygenerować pewien<br />
scenariusz, np. w czasie wykorzystania funkcji<br />
„pojawienia się” obiektu system umożliwia<br />
wygenerowanie presetu alarmowego kamery<br />
szybkoobrotowej bądź wyświetlenie obrazów<br />
z kamer znajdujących się w strefie wystąpienia<br />
alarmu. To tylko część funkcjonalności,<br />
jaką można ustawić w systemie.<br />
Wszystkie metadane, czyli informacje zbierane<br />
w czasie analizy obrazu, są przechowywane<br />
w bazie SQL. Licencje <strong>VCA</strong> nie są przypisane<br />
do konkretnej kamery, co sprawia,<br />
że istnieje możliwość migrowania tego rozwiązania<br />
na przestrzeni serwera. Może być<br />
ona wykorzystywana zarówno w najnowszej<br />
technologii IP, jak i w starszych systemach<br />
analogowych, umożliwiając ich dostosowanie<br />
do najnowszych rozwiązań. Można<br />
wykorzystać w jednej kamerze kilka funkcji<br />
<strong>VCA</strong>, np. zliczanie osób, a jednocześnie analizę<br />
kierunku poruszania się wraz z funkcją<br />
zatrzymania się obiektu, czyli przebywania<br />
w strefie niedozwolonej dłużej niż zaprogramowany<br />
czas.<br />
Często się zdarza, że dla klienta końcowego<br />
dane uzyskane z systemu <strong>VCA</strong> nie są zrozumiałe.<br />
W tym celu firma Mirasys przygotowała<br />
tzw. CARBON REPORTING, czyli oprogramowanie<br />
do raportowania graficznego. Zestawienia<br />
takie są przedstawione na wykresach<br />
kołowych czy słupkowych, z możliwością ich<br />
eksportowania do znanych rozszerzeń.<br />
Największą inwestycją, nadal realizowaną<br />
ze względu na rozrastający się system i zapotrzebowanie,<br />
jest monitoring Bangkoku.<br />
W już działającym systemie zainstalowano<br />
5000 kamer wykorzystujących inteligentną<br />
analizę obrazu. <br />
partnerzy wydania:<br />
1.5X
1.5X<br />
26<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
POLVISION<br />
ul. Witkowska 16, 51-003 Wrocław<br />
tel. 71 327 45 94; 503 081 146<br />
info@polvision.pl<br />
www.polvision.pl<br />
Zestaw<br />
do automatycznej identyfikacji<br />
tablic rejestracyjnych<br />
Od kilku lat dzielimy się wiedzą i doświadczeniem<br />
w zakresie systemów automatycznej<br />
identyfikacji numerów tablic rejestracyjnych<br />
(ANPR/LPR). Podstawowe wskazówki przekazujemy<br />
poprzez stronę internetową www.<br />
polvision.pl oraz w licznych artykułach technicznych<br />
publikowanych w prasie branżowej.<br />
W siedzibie firmy są regularnie prowadzone<br />
bezpłatne szkolenia instalatorów i integratorów<br />
w tej dziedzinie.<br />
Doświadczenie zdobywamy nie tylko w realizowanych<br />
projektach, ale także w trakcie<br />
licznych testów i eksperymentów, które prowadzimy<br />
na terenie m.in. zakładów przemysłowych,<br />
parkingów, a ostatnio również dróg<br />
krajowych i autostrad. W automatycznej identyfikacji<br />
tablic rejestracyjnych stale testujemy<br />
tam kamery analogowe, wideoserwery i kamery<br />
IP różnych producentów. Nie poprzestajemy<br />
jednak na zdobywaniu i przekazywaniu<br />
klientom know-how. Jednym z głównych celów<br />
stało się dostarczanie atrakcyjnych cenowo,<br />
uproszczonych zestawów urządzeń<br />
sprawdzonych w konkretnych aplikacjach,<br />
w których rzeczywiście osiągają wysoką skuteczność<br />
identyfikacji tablic.<br />
Specjalizowana kamera GV-LPR CAM...<br />
System automatycznej identyfikacji tablic<br />
rejestracyjnych działający skutecznie o każdej<br />
porze dnia i nocy, niekiedy w trudnych<br />
warunkach atmosferycznych, musi być wyposażony<br />
w specjalizowaną kamerę monochromatyczną<br />
dedykowaną wyłącznie<br />
do tego zadania. Obraz z takiej kamery ma<br />
niewiele wspólnego z obrazem z typowej kamery<br />
CCTV.<br />
Ustawiona bardzo szybka migawka (min.<br />
1/500), zastosowane filtry, układy przetwarzania<br />
obrazu i specyficzne oświetlacze powodują,<br />
że na obrazie widać jedynie mocno<br />
przytłumione światła reflektorów i dobrze<br />
wyeksponowaną jasną tablicę rejestracyjną.<br />
Nadrzędnym zadaniem systemu jest automatyczny<br />
odczyt numerów tablic rejestracyjnych.<br />
Jeśli odczyt ten ma być prawidłowy<br />
w każdych warunkach ruchu pojazdów, to nie<br />
może być mowy o kompromisach w postaci<br />
typowych kamer CCTV z oświetlaczem IR.<br />
Specjalizowaną i skuteczną kamerą z pewnością<br />
jest stosowana od wielu lat seria kamer<br />
analogowych GV-LPR CAM (modele 10A<br />
i 20A), które stanowią nieodłączny element<br />
pakietu opisywanego w niniejszym artykule.<br />
W artykule prezentujemy jeden z firmowanych pakietów urządzeń, które<br />
zyskały dużą popularność na rynku polskim i sprawdzają się skutecznie<br />
w następujących aplikacjach:<br />
• zarządzanie wjazdami/wyjazdami (firmy transportowe, hotele, motele,<br />
biurowce, apartamentowce, szpitale, wspólnoty mieszkaniowe, centra<br />
handlowe, lotniska, parkingi wielopoziomowe itp.);<br />
• alarmowanie o poszukiwanych pojazdach w punktach poboru opłat;<br />
• alarmowanie o pojazdach notowanych za kradzieże paliwa na stacjach<br />
benzynowych;<br />
• przekazywanie numerów rejestracyjnych do raportów statystycznych<br />
(zliczanie pojazdów, badanie miejsca zamieszkania kierowców,<br />
częstotliwości przejazdu lub parkowania itp.).<br />
Nieustannie poszukujemy tańszych odpowiedników<br />
tych konstrukcji, dotychczas<br />
niestety bez sukcesu. Zniechęca nieprofesjonalne<br />
podejście wielu producentów<br />
kamer, którzy obiecują w kartach katalogowych<br />
identyfikowanie tablic, a w praktyce<br />
często okazuje się, że poza promiennikiem<br />
podczerwieni kamery te mają niewiele<br />
wspólnego z systemami do automatycznej<br />
identyfikacji tablic. Co gorsza, specyfikacja<br />
dotycząca czułości kamery, szybkości migawki<br />
w kartach katalogowych jest fałszowana,<br />
niepełna, a fabryczna konfiguracja<br />
wielu z tych kamer uniemożliwia lub ogranicza<br />
stosowanie ich w tej roli (np. za słaba<br />
czułość i celowo wydłużony czas ekspozycji<br />
w celu ukrycia tego faktu!).<br />
Wyjaśnijmy również, dlaczego nadal zalecamy<br />
kamery analogowe zamiast powszechnie dostępnych<br />
kamer HD. Stale porównujemy obie<br />
technologie i pracujemy nad rozwiązaniami<br />
HD. Fakty są jednak takie, że kamery o niskiej<br />
rozdzielczości PAL D1, powszechnie uważane<br />
za przestarzałe, wciąż lepiej sprawdzają<br />
się w automatycznej identyfikacji tablic.<br />
Poprzez kamery HD rozumiemy typowe dostępne<br />
na rynku kamery wysokiej rozdzielczości.<br />
Instalatorzy uważają, że ze względu<br />
na wysoką rozdzielczość obrazu kamery HD<br />
powinny lepiej sprawdzać się w tej roli. Praktyka<br />
pokazuje jednak, że dzieje się tak jedynie<br />
w przypadku systemów, w których pojazd porusza<br />
się wolno lub nawet zatrzymuje w punkcie<br />
odczytu.<br />
W systemach ulicznych prędkość ruchu pojazdów<br />
powoduje, że typowe kamery HD<br />
wymagające dłuższego czasu ekspozycji<br />
(wolna migawka) niż kamery PAL D1 dostarczają<br />
obraz tablicy rozmyty, choć oczywiście<br />
jest to obraz wysokiej rozdzielczości. Jest<br />
on mało przydatny do celów automatycznej<br />
identyfikacji tablic. Zdarza się nawet, że wysokorozdzielcze<br />
kamery HD o niskiej czułości<br />
partnerzy wydania:
27<br />
Pracujemy nad kompaktowymi zestawami<br />
LPR w HD/1.3M. Porównanie obrazów HD:<br />
kamery specjalizowanej do LPR (z lewej)<br />
i typowej kamery CCTV (z prawej)<br />
Porównanie obrazów z kamer SD/D1:<br />
kamery specjalizowanej do LPR (z lewej)<br />
i typowej kamery CCTV (z prawej)<br />
dostarczają obraz nieprzydatny do identyfikacji<br />
tablic nawet przez operatora.<br />
Szansę na zmiany w tej kwestii widzimy już<br />
w najnowszej generacji (<strong>2014</strong> r.) kamerach<br />
1,3 Mpix super low lux dedykowanych do ANPR<br />
(proszę porównać na fot. powyżej jakość obrazu<br />
z tych nowoczesnych kamer HD). Pracujemy<br />
również nad nowoczesnym wideoserwerem<br />
o dużej wydajności umożliwiającej odpowiednio<br />
szybkie pozyskanie numeru rejestracyjnego<br />
z dostarczanego obrazu HD, przy jednoczesnym<br />
zachowaniu innych istotnych cech urządzenia,<br />
takich jak kompaktowy rozmiar i wysoki<br />
poziom bezawaryjności. Rezultaty tych działań<br />
z pewnością będą dostępne jeszcze w tym roku.<br />
Na razie skupmy się na sprawdzonych od lat<br />
rozwiązaniach, czyli kamerach analogowych:<br />
GV-LPR CAM 10A dedykowanej na parkingi<br />
i GV-LPR CAM 20A przeznaczonej do stosowania<br />
w ruchu ulicznym.<br />
…plus miniwideoserwer GV-DSP LPR<br />
Drugą połowę proponowanego przez nas<br />
zestawu stanowi miniaturowy wideoserwer<br />
GV-DSP LPR, który po wykryciu ruchu lub sygnału<br />
z czujnika bezzwłocznie analizuje obraz<br />
z kamery analogowej w punkcie odczytu,<br />
a uzyskany numer rejestracyjny i zdjęcie<br />
JPG zapisuje na karcie SDHC. Na tej samej<br />
karcie może być przechowywana baza zarejestrowanych<br />
numerów, np. dopuszczonych do<br />
wjazdu/wyjazdu lub poszukiwanych.<br />
Jeżeli dany numer jest zarejestrowany na karcie<br />
SDHC, miniwideoserwer GV-DSP LPR może<br />
podejmować inne akcje, zwykle związane ze<br />
sterowaniem poprzez przekaźnik urządzeniami<br />
zewnętrznymi, np. szlabanem, sygnalizatorem,<br />
bramą itp.<br />
Istotną zaletą jest to, że miniwideoserwer<br />
samodzielnie i automatycznie wykonuje<br />
zaprogramowane akcje, bez konieczności<br />
komunikacji z siecią IP, czyli bez wspomagania<br />
ze strony komputerów i serwerów.<br />
Kompaktowy zestaw<br />
do identyfikacji tablic:<br />
kamera GV-LPR CAM<br />
i miniwideoserwer GV-DSP LPR<br />
Rozszerzenie zestawu:<br />
bezpłatne oprogramowanie<br />
bazodanowe GV-ASManager<br />
GV-ASManager (wraz z dodatkami GV-ASRemote<br />
i GV-ASWeb) to pakiet bezpłatnego,<br />
zaawansowanego sieciowego oprogramowania<br />
do centralnego monitorowania<br />
wielu serwerów wykonujących automatyczną<br />
identyfikację tablic rejestracyjnych i zarządzania<br />
nimi. Można je instalować na serwerach,<br />
stacjach roboczych i laptopach<br />
operatorów. Umożliwia ono wprowadzenie<br />
do bazy danych 40 tys. pojazdów oraz 10 tys.<br />
użytkowników.<br />
Zawiera wbudowany serwer WWW umożliwiający<br />
wielu operatorom pełne zdalne zarządzanie<br />
rozbudowanym i rozproszonym<br />
systemem za pomocą przeglądarki internetowej<br />
i łatwego w obsłudze interfejsu w języku<br />
polskim (w tym m.in. zdalną konfigurację urządzeń<br />
do identyfikacji tablic, edycję baz danych<br />
pojazdów, kierowców i ich uprawnień, wyszukiwanie<br />
pojazdów wraz z przeglądaniem zdjęć<br />
i odtwarzaniem nagrań wideo).<br />
Bazy danych są przechowywane w łatwych do<br />
przetwarzania standardach ODBC (Microsoft<br />
Access, Microsoft SQL, MySQL). Dostępne są<br />
funkcje importowania baz danych ze źródeł<br />
ODBC oraz plików w standardach Microsoft<br />
Excel i Microsoft Access, a także eksportowania<br />
baz danych do plików w standardach Microsoft<br />
Excel, TXT i HTML, natomiast zdjęcia pojazdów<br />
są archiwizowane w formacie JPEG. <br />
Zestaw składa się jedynie z kamery<br />
analogowej i chłodzonego pasywnie<br />
miniaturowego wideoserwera IP, co<br />
gwarantuje bardzo niski poziom awaryjności,<br />
a także niskie koszty instalacji<br />
oraz obsługi tak uproszczonego systemu<br />
identyfikacji tablic rejestracyjnych.<br />
Szeroki zakres temperatury pracy od<br />
-20 do +60°C, niewielkie wymiary wideoserwera<br />
123 x 106 x 25 mm i masa<br />
0,345 kg umożliwiają instalację zestawu<br />
praktycznie w każdej lokalizacji.<br />
Uproszczone zestawy do identyfikacji<br />
tablic rejestracyjnych można rozszerzać,<br />
np. o funkcje przekazywania numerów<br />
w formie tekstowej przewodem<br />
RS232 i funkcje komunikacji ze stacjami<br />
monitorowania poprzez sieć IP o bardzo<br />
niskiej przepustowości (np. GPRS).<br />
Stacje monitorowania można budować<br />
zarówno z wykorzystaniem bezpłatnego<br />
oprogramowania GV-ASManager,<br />
jak i pakietu SDK pracującego pod kontrolą<br />
systemu operacyjnego Windows.<br />
Ponadto skrypty Java dostarczone<br />
przez firmę Polvision umożliwiają integrację<br />
własnego oprogramowania<br />
pracującego pod kontrolą dowolnych<br />
systemów operacyjnych.<br />
partnerzy wydania:
28<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Paweł Kozłowski<br />
AirLive Polska<br />
www.airlive.com<br />
pawel.kozlowski@airlive.com<br />
Analizuj swój biznes<br />
z kamerami AirLive IVS<br />
AirLive przedstawia<br />
nowe kamery z funkcją liczenia<br />
obiektów – modele MD-3025-IVS i BU-3026-IVS<br />
oraz zastosowany w nich System IVS (Intelligent<br />
Video Surveillance), czyli inteligentny dozór wideo.<br />
MD-3225 IVS<br />
BU-3026 IVS<br />
Liczne funkcje dostępne we wbudowanym<br />
oprogramowaniu pozwalają ograniczyć liczbę<br />
osób zaangażowanych w monitoring,<br />
czyli zautomatyzować wiele kosztownych<br />
procesów. IVS jest doskonałym rozwiązaniem<br />
do zastosowań biznesowych i w miejscach<br />
publicznych – podczas imprez masowych,<br />
w centrach handlowych, sklepach detalicznych,<br />
fabrykach, na stadionach, parkingach,<br />
stacjach kolejowych, autostradach i drogach.<br />
Analiza danych i uruchomienie ewentualnego<br />
alarmu lub zdefiniowanego działania zajmuje<br />
kamerom z IVS tylko kilka sekund.<br />
Podstawowe funkcje kamer<br />
z systemem IVS<br />
• Liczenie obiektów<br />
Jedną z przydatnych funkcji IVS (inteligentny<br />
dozór wideo) w kamerach IP jest liczenie<br />
obiektów, takich jak samochody, piesi lub<br />
inne dowolnej wielkości. Po przekroczeniu<br />
określonej ich liczby kamery wyposażone<br />
w IVS są w stanie uruchomić alarm lub powiadomienie,<br />
a także zapisać zebrane dane do<br />
bazy danych w celu późniejszej analizy.<br />
partnerzy wydania:<br />
Dane z bazy mogą zostać wykorzystane do planowania<br />
i usprawniania sprzedaży, np. dzięki<br />
analizie liczby klientów przy wejściu do sklepu.<br />
Podstawą działania funkcji liczenia obiektów<br />
jest przekraczanie przez liczone obiekty<br />
wcześniej ustalonej granicy lub strefy. Strefa<br />
nie musi być fizycznym obszarem, jest ona<br />
definiowana w ustawieniach kamery. W przypadku<br />
liczenia osób strefą może być korytarz,<br />
przedpokój lub drzwi wejściowe. Gdy liczy się<br />
samochody, jako strefę można ustawić skrzyżowanie,<br />
dowolny punkt wzdłuż autostrady<br />
lub bramę wjazdową.<br />
• Wykrywanie twarzy<br />
Funkcja wykrywania twarzy wymaga dużej<br />
dokładności w przypadku miejsc, gdzie przebywa<br />
wiele osób. Oprogramowanie IVS jest<br />
w stanie policzyć twarze na obrazie i je podświetlić,<br />
co ułatwi znalezienie konkretnej twarzy<br />
w każdych warunkach.<br />
• Rozpoznawanie twarzy<br />
Kamery umożliwiają zapisanie zdjęć twarzy<br />
w pamięci, więc gdy wykryje twarz, która nie<br />
jest zapisana w bazie danych, uruchomi alarm<br />
(lub inne urządzenie zewnętrzne).<br />
• e-Fence<br />
Funkcja e-Fence to wirtualny płot nakładany na<br />
obraz z kamery zastosowanej do monitorowania<br />
domu. Kiedy intruz przekroczy wcześniej<br />
zdefiniowaną linię, kamera automatycznie wyśle<br />
odpowiedni e-mail lub uruchomi alarm.<br />
• i-Motion<br />
Funkcja i-Motion oferuje 4 strefy detekcji do<br />
ochrony obiektów i wykrywania intruzów.<br />
To funkcja dokładniejsza od tradycyjnego<br />
wykrywania ruchu. Może być ona wywołana<br />
przez takie obiekty, jak ludzie i samochody –<br />
zamiast zmian pikseli w obrazie.<br />
• Trip Zone<br />
Ta funkcja może być stosowana do wykrywania<br />
obiektów poruszających się z jednej strefy do<br />
drugiej, umożliwia też wykrywanie obiektów<br />
poruszających się w niewłaściwym kierunku.<br />
Alarm może być wywołany po przekroczeniu<br />
określonego przedziału czasu lub liczby obiektów.<br />
Unikatowy regulowany obszar detekcji<br />
zapewnia dokładniejsze wykrywanie.<br />
Zobacz, jak działają kamery IVS:<br />
Securex <strong>2014</strong>, hala 7A, stoisko 49<br />
1.5X
29<br />
OG Poland<br />
Al. Ujazdowskie 24 lok. 37; 00-478 Warszawa<br />
tel. 795 516 484<br />
info@oncamgrandeye.pl<br />
www. oncamgrandeye.pl<br />
Oncam Grandeye<br />
system inteligentnej analizy<br />
Firma Oncam Grandeye wprowadziła na<br />
rynek innowacyjne 5-megapikselowe kamery<br />
IP 360°. W połączeniu z opatentowaną technologią<br />
korekcji krzywizn obrazu pochodzącego z obiektywu<br />
„rybie oko” są one jednym z najdoskonalszych<br />
urządzeń w swojej klasie.<br />
Technologia chroniona 35 patentami zapewnia ciągły<br />
dozór 360°, umożliwiając wyeliminowanie martwych<br />
punktów i uzyskanie pełnej kontroli sytuacji.<br />
Podgląd z kamery jest możliwy w przeglądarce<br />
systemu Windows oraz na urządzeniach<br />
mobilnych dzięki aplikacji OnVu360.<br />
Kamery Oncam Grandeye IP 360° mają funkcje<br />
inteligentnej analizy obrazu (IVA). Zasady<br />
ich działania przybliża Paul Such, wicedyrektor<br />
ds. sprzedaży na obszar Wielkiej Brytanii<br />
i Unii Europejskiej Oncam Grandeye, mający<br />
ponaddwudziestoletnie doświadczenie<br />
w sektorze zabezpieczania IP oraz CCTV.<br />
Co oznacza określenie Retail Loss Prevention<br />
Solution często używane przez Oncam<br />
Grandeye?<br />
Najprościej mówiąc, Retail Loss Prevention<br />
Solution to wykorzystywanie inteligentnej<br />
technologii analitycznej w połączeniu<br />
z 360-stopniowymi obrazami wideo generowanymi<br />
przez kamery Oncam Grandeye<br />
w celu wykrycia nieuczciwych zachowań<br />
klientów i pracowników.<br />
Nasza technologia dostarcza inteligentnych<br />
funkcji wideo, takich jak zliczanie ludzi, analizę<br />
ścieżki klientów oraz ich przebywania<br />
w danych strefach. Te dane wraz z informacjami<br />
o sprzedaży dostarczają bezcennych i dotychczas<br />
niemożliwych do uzyskania danych<br />
statystycznych i biznesowych.<br />
Jakiego rodzaju statystki otrzymuje klient<br />
i gdzie może je wykorzystać?<br />
Zliczanie osób daje informacje dotyczące<br />
przemieszczania się klientów. Pracownicy<br />
marketingu otrzymują ważne dane do podejmowania<br />
skutecznych decyzji biznesowych.<br />
Funkcja analizy ścieżek identyfikuje i raportuje<br />
modele ruchu w obiekcie. Pozwala dokładnie<br />
poznać i wskazać kluczowe miejsca odwiedzane<br />
przez klientów. System rejestruje zdarzenia,<br />
których analiza umożliwia pracownikom marketingu<br />
podejmowanie skutecznych decyzji<br />
biznesowych. Ponadto identyfikuje i raportuje,<br />
gdzie i na jak długo ludzie zatrzymują się w<br />
obiekcie. Dzięki temu obiekty odnotowują nie<br />
tylko wzrost bezpieczeństwa, ale także obniżenie<br />
kosztów. Również dzięki tej technologii<br />
na podstawie dostarczanych danych można<br />
zwiększyć sprzedaż i zoptymalizować działania<br />
z korzyścią dla firm.<br />
Czym jest technologia OG Gateway Intelligent<br />
Video System i co dostarcza?<br />
Obecnie do inteligentnej analizy obrazu wykorzystujemy<br />
algorytm ClickIt’s Smart Analytics.<br />
W najbliższym czasie wprowadzimy na<br />
rynek OG Gateway. Technologia ta pogłębi<br />
integrację, umożliwiając połączenie obrazów<br />
wideo i danych analitycznych w ramach innych<br />
systemów detalicznych (takich jak POS).<br />
Zapewni to aktualizację w czasie rzeczywistym<br />
i w formie sprawozdań dotyczących informacji<br />
marketingowych, a także przyczyni<br />
się do zapobiegania stratom. OG Gateway jest<br />
obecnie w fazie testów beta.<br />
Jak przebiega archiwizacja takiego materiału<br />
wideo i analiz?<br />
Archiwizacja zapisu wideo odbywa się na poziomie<br />
lokalnym w ramach bezpieczeństwa<br />
informacji CCTV – analityczne informacje biznesowe<br />
mają być przechowywane i zarządzane<br />
w centralnym serwerze BI.<br />
Kto korzysta z Systemu Inteligentnej Analizy<br />
Oncam Grandeye?<br />
Dotychczas wdrożyliśmy system w sektorze<br />
handlu detalicznego (odzież, sprzęty), sieciach<br />
franczyzowych oraz bankowości detalicznej.<br />
Nasi klienci są bardzo zadowoleni<br />
– sądząc po danych ze sprzedaży oraz dotyczących<br />
zapobiegania stratom, rozwiązania<br />
analityczne zapewniły wysoki zwrot z inwestycji.<br />
Niestety, nie możemy ujawnić dokładnych<br />
danych na temat klientów.<br />
Jakie plany posiada Oncam Grandeye<br />
związane z rozwojem technologii inteligentnej<br />
analizy obrazu?<br />
Planujemy rozszerzenie zastosowania naszych<br />
produktów, a także zwiększenie poziomu<br />
integracji z istniejącymi systemami oraz<br />
nowymi, nowatorskimi zastosowaniami i produktami<br />
w celu zapewnienia bezproblemowej<br />
ścieżki integracji materiałów wizyjnych<br />
z analityką.<br />
Oncam Grandeye zaprezentuje swoją technologię<br />
360 stopni na Targach Securex w Poznaniu<br />
w dniach 8-11.04.<strong>2014</strong>. Zapraszamy do<br />
odwiedzenia stoiska nr 54 w pawilonie 8A oraz<br />
na konferencję, która odbędzie się 10 kwietnia<br />
w godz. 12-14 w pawilonie nr 7, sala 1E. <br />
partnerzy wydania:
30<br />
<strong>wydanie</strong> <strong>specjalne</strong><br />
video content analysis<br />
Top-Key<br />
ul. Mściwoja II 8, 80-384 Gdańsk<br />
tel. 585561054<br />
fax 585531129<br />
biuro@topkey.pl www.topkey.pl<br />
Firma Top-Key działa na rynku<br />
zabezpieczeń teletechnicznych<br />
od 1991 r. Przez lata praktyki w tej<br />
dynamicznie rozwijającej się branży<br />
poszerzyła swoją ofertę o produkty<br />
oparte na inteligentnej analizie<br />
obrazu, które teraz stanowią trzon<br />
oferty firmy.<br />
Zaawansowana analityka<br />
Top-Key<br />
Top-Key w swoich projektach wykorzystuje<br />
szeroką gamę kamer, takich jak kamery CCTV,<br />
termowizyjne, 3D, dedykowane do ANPR, które<br />
dobiera się indywidualnie do potrzeb klientów.<br />
Kamery firmy Axis, z którą Top-Key współpracuje<br />
od wielu lat, umożliwiają nie tylko<br />
dozór wizyjny, ale także wiele innych funkcji.<br />
Główną i budzącą największe zainteresowanie<br />
opcją jest wykorzystanie kamer w systemach<br />
analitycznych pod marką Global2G – dzięki<br />
zdalnie ustalonej konfiguracji możliwe jest<br />
dostosowanie systemu do niestandardowych<br />
obszarów działania objętych analizą, łączenie<br />
obrazu z wielu kamer w celu uzyskania bardzo<br />
wysokiej dokładności analizy, jak również definiowanie<br />
stref zainteresowań oraz dynamiczne<br />
tworzenie makr.<br />
Ponadto kamery rozpoznają ruchome elementy<br />
inne niż ludzie, np. wózki, i rozróżniają<br />
wzrost poruszających się osób (np. odróżniają<br />
dzieci od dorosłych). W połączeniu z oprogramowaniem<br />
typu GlobalQueue potrafią rozróżniać<br />
pewne wzorce ruchu klientów, z łatwością<br />
określają miejsce tworzenia się kolejek i ich<br />
długość. Dodany do tego interfejs raportujący<br />
powiadamia w razie potrzeby odpowiednich<br />
pracowników, usprawniając obsługę klientów<br />
w placówkach handlowych.<br />
Jednym z najnowszych rozwiązań jest moduł<br />
rozpoznający zarówno płeć i wiek, jak i emocje<br />
osoby będącej w zasięgu kamery. Pozwalają<br />
zweryfikować nastrój klienta w odniesieniu<br />
do wystroju witryny, sklepu, obsługi oraz<br />
wielu innych czynników, które wpływają na<br />
wyniki biznesowe placówek handlowych.<br />
Systemy oparte na kamerach Axis tworzą<br />
ponadto takie narzędzia, jak systemy parkingowe<br />
– liczenie samochodów na parkingach<br />
i określanie ich rozmieszczenia na przestrzeni<br />
parkingowej. Zintegrowanie systemów w obrębie<br />
rodziny produktów Global umożliwia<br />
korelację danych z systemu parkingowego<br />
i systemu liczenia klientów, co daje nowe<br />
możliwości badania i analizowania danych<br />
również w trybie online. Uzupełnieniem systemu<br />
parkingowego jest system ANPR, który<br />
rozpoznaje tablice rejestracyjne. Na podstawie<br />
bazy danych pozwala określić miejsce pochodzenia<br />
samochodu (gmina, kraj), tworzyć<br />
tzw. czarną listę tablic rejestracyjnych, a także<br />
czas postoju samochodu, a co za tym idzie<br />
pobytu indywidualnych klientów, np. w centrum<br />
handlowym.<br />
Innym narzędziem niezwykle przydatnym<br />
w obiektach handlowych lub w wielkopowierzchniowych<br />
magazynach jest system<br />
GlobalEye, który dzięki widokowi z kilku kamer<br />
wykrywa luki w ekspozycji czy też w ułożeniu<br />
towarów na półkach i witrynach.<br />
Kamery mają też inne zastosowania – nie tylko<br />
w handlu, ale i w przestrzeniach publicznych.<br />
Dzięki aplikacji HeatMap zainstalowanej<br />
bezpośrednio w kamerach są tworzone mapy<br />
natężenia ruchu w wybranych obszarach. To<br />
nieocenione narzędzie w połączeniu z innymi<br />
programami grupy Global pozwala na analizę<br />
nie tylko ilościową, ale również obszarową<br />
wykorzystania przestrzeni.<br />
Jedną z najistotniejszych zalet opisywanych<br />
technologii analizy obrazu jest możliwość<br />
instalacji aplikacji bezpośrednio w kamerach,<br />
co obniża koszty takiej instalacji (nie ma potrzeby<br />
instalowania dodatkowych serwerów<br />
lub rejestratorów).<br />
Dzięki ujednoliceniu systemu obsługującego<br />
aplikacje i kamery istnieje możliwość prostego<br />
i kompleksowego pozyskiwania danych, które<br />
niejednokrotnie dają dokładniejsze informacje<br />
po ich zestawieniu we wspólnym ujęciu.<br />
Jednym z najważniejszych elementów wyróżniających<br />
zaprezentowane rozwiązanie<br />
od dostępnych na rynku jest jego komplementarność.<br />
Klient końcowy, oprócz dedykowanego<br />
oprogramowania zainstalowanego<br />
w kamerze, otrzymuje dostęp do systemu<br />
internetowego, który gromadzi i przetwarza<br />
dane z wielu systemów. Korelując dane analityczne<br />
z danymi sprzedażowymi, dostarczają<br />
pełne i spójne raporty funkcjonowania sieci<br />
sklepów lub centrów handlowych. Funkcjonalność<br />
związana z analizą danych (Business<br />
Intelligence) oraz generowaniem i dystrybuowaniem<br />
raportów jest równie ważna, jak dostarczenie<br />
rzetelnych danych analitycznych,<br />
gdyż połączenie obu zmiennych pozwala<br />
dostarczyć w pełni komplementarny system<br />
dla zarządcy czy właścicieli placówek handlowych,<br />
banków oraz przestrzeni publicznych,<br />
takich jak muzea, biblioteki, wystawy.<br />
Kamery z funkcją inteligentnej analizy obrazu<br />
mają wiele innych możliwości, które firma<br />
Top-Key odkrywa i oferuje w nowych i bardziej<br />
innowacyjnych rozwiązaniach. <br />
partnerzy wydania:<br />
1.5X