11.06.2014 Views

2/2014 - wydanie specjalne VCA

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

WWW.SYSTEMYALARMOWE.COM.PL<br />

partnerzy wydania:<br />

partnerzy wydania:


2<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Spis treści<br />

3 Zacznijmy od „szczegółów”<br />

Waldemar Więckowski<br />

4 Przetwarzanie obrazów w systemach zabezpieczeń<br />

Sławomir Maćkowiak , Marek Domański<br />

6 Przegląd metod analizy obrazu<br />

Piotr Garbat<br />

9 Quo Vadis aj-wi-ej?<br />

Jan T. Grusznic<br />

12 Analiza wizji, czyli jak zobaczyć więcej<br />

Jakub Sobek – Linc Polska<br />

14 IVA w pracy operatorów systemu CCTV<br />

Paweł Wittich<br />

16 AxxonSoft .Wykraczając poza tradycyjne rozwiązania<br />

AxxonSoft Polska<br />

18 Systemy inteligentnej analizy obrazu według Axis Communications<br />

Axis Communications<br />

20 Inteligentna analiza obrazu w rozwiązaniach Samsung Techwin<br />

Piotr Rogalewski – Samsung Techwin<br />

22 Inteligencja w ruchu. Megapikselowa kamera PTZ z funkcją śledzenia<br />

BCS<br />

24 Zaawansowane funkcje IVA w oprogramowaniu Mirasys 7.0<br />

Profi CCTV<br />

26 Zestaw do automatycznej identyfikacji tablic rejestracyjnych<br />

Polvision<br />

28 Analizuj swój biznes z kamerami AirLive IVS<br />

Paweł Kozłowski – AirLive Polska<br />

29 Oncam Grandeye system inteligentnej analizy<br />

OnCam<br />

30 Zaawansowana analityka Top-Key<br />

Top-Key<br />

Wydawca:<br />

Redakcja „Systemy Alarmowe”<br />

02-952 Warszawa, ul. Wiertnicza 65<br />

tel.: 22 651 80 00 faks: 22 651 92 00<br />

info@systemyalarmowe.com.pl<br />

www.systemyalarmowe.com.pl<br />

„Systemy Alarmowe” – dwumiesięcznik<br />

branży security o tematyce:<br />

• Sygnalizacja włamania i napadu<br />

• Sygnalizacja pożarowa<br />

• Telewizja dozorowa CCTV<br />

• Kontrola dostępu<br />

• Biometria<br />

• Systemy Zintegrowane<br />

• Automatyka Budynkowa<br />

• Ochrona danych i informacji


<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis 3<br />

Waldemar Więckowski<br />

Zacznijmy<br />

od „szczegółów”<br />

Tematem wydania <strong>specjalne</strong>go jest Analiza<br />

Zawartości Wizji (Video Content Analysis – <strong>VCA</strong>).<br />

Jak to ładnie ujął Jan T. Grusznic w swoim przewodnim<br />

artykule (Quo Vadis aj-wi-ej?) – bardziej<br />

znana pod nazwą Inteligentnej Analityki<br />

Wizji (Intelligent Video Analytics – IVA).<br />

Polecam uważną lekturę tego artykułu, ponieważ<br />

zwraca on uwagę na „szczegóły”, które nie<br />

mogą przebić się do obiegowej opinii mimo<br />

wieloletniej obecności tej technologii na rynku.<br />

(Chcę podkreślić, że słowo szczegóły zostało<br />

ujęte w cudzysłów).<br />

Pierwszym takim „szczegółem” jest fakt, że<br />

technologia <strong>VCA</strong> w żadnym przypadku nie<br />

jest plug-and-play. Wymaga bardzo starannego<br />

rozważenia konkretnego zastosowania<br />

przed wyborem właściwego wyrobu i żmudnej<br />

konfiguracji po zainstalowaniu. Dosyć powszechnie<br />

nie zwraca się na to uwagi.<br />

Drugim „szczegółem” są doświadczenia zebrane<br />

w trakcie stosowania technologii aj-wi-ej<br />

(IVA) od czasu, kiedy pojawiła się pod tą marketingową<br />

nazwą. W artykule Jana Grusznica<br />

pojawiają się one w wątku rynku detalicznego<br />

(retail)... Czyli sklepy i markety, a w nich zastosowania<br />

związane ze zliczaniem (liczba przemieszczających<br />

się osób, długość kolejki lub poziom zapełnienia<br />

półek sklepowych). Inne zastosowania<br />

inteligentnej analityki to np. detekcja nieprawidłowo<br />

zaparkowanych pojazdów.<br />

Suma summarum: w zastosowaniach niezwiązanych<br />

z zabezpieczeniami IVA jest okay<br />

(algorytmy poprawnie wdrożone stają się biznesem<br />

dochodowym), ale jeśli mowa o ochronie<br />

osób i mienia, to powinniśmy być bardzo<br />

ostrożni.<br />

Te doświadczenia praktyczne z technologią<br />

<strong>VCA</strong> doprowadziły do rozróżniania jej zastosowań<br />

na związane z zabezpieczeniami oraz<br />

z rynkiem detalicznym. Jan Grusznic czytelnie<br />

je rozróżnia, a samo rozróżnienie wyraźnie<br />

podkreśla. Niestety rozróżnienie to zbyt słabo<br />

funkcjonuje w obiegowej świadomości rynku<br />

zabezpieczeń.<br />

I choć algorytmy analizy zawartości wizji nie<br />

mają absolutnie nic wspólnego z inteligentną<br />

analityką, to wskutek intensywnego marketingu<br />

przez dużą część rynku nadal są traktowane<br />

jako będące ową inteligentną analityką.<br />

Skutkiem takiego postrzegania IVA jest opinia,<br />

że skoro algorytmy mogą być inteligentne, to<br />

nie ma powodu zatrudniania ludzi do wykonywania<br />

czynności monitorowania w systemach<br />

dozoru wizyjnego. Takie co najmniej nieprzemyślane<br />

(ostrożnie mówiąc) opinie na polskim<br />

rynku systemów dozorowych CCTV wcale nie<br />

są rzadkie. Reakcją na nie jest równie radykalny<br />

postulat zakazu stosowania <strong>VCA</strong> w systemach<br />

wizyjnego dozorowania miast. W trakcie publicznej<br />

debaty nad prawnym uregulowaniem<br />

dozoru wizyjnego zgłosiła go Akademia Monitoringu<br />

Wizyjnego:<br />

(…) Wobec wielu wyżej opisanych wątpliwości,<br />

jakie rodzi zastosowanie systemów analizy<br />

obrazu w przestrzeni publicznej, uważamy, że<br />

w nowej regulacji należy zabronić stosowania<br />

systemów analizy obrazu do wykrywania<br />

zdarzeń w miejskich systemach monitoringu<br />

wizyjnego. Tym samym należy wprowadzić zapisy,<br />

które uniemożliwią zastępowanie operatorów<br />

przez oprogramowanie [1].<br />

Co ciekawe, bardziej realistycznie postrzegają<br />

tę „alternatywę” człowiek-maszyna osoby na<br />

co dzień niemające do czynienia z dozorem<br />

wizyjnym. Filozof prof. Jan Hartman ujął to tak:<br />

Nie dążę do wyeliminowania operatorów, tylko<br />

twierdzę, że z czasem będą dostawać obraz coraz<br />

bardziej wyselekcjonowany, nie tracąc wszak<br />

możliwości oglądania dowolnego materiału<br />

z kamer, jeśli uznają to za konieczne.<br />

<strong>VCA</strong> jest i będzie pomocnym narzędziem<br />

w czynnościach monitorowania wykonywanych<br />

przez operatorów systemów dozorowych<br />

CCTV. Pod warunkiem wszakże że będzie<br />

narzędziem stosowanym z głową (pojęcie analityka<br />

znaczy ni mniej, ni więcej tylko: naukę<br />

o rozbiorze pojęć i myśli; część składową logiki<br />

Arystotelesa) [2].<br />

Na pytanie zawarte w tytule artykułu Jana<br />

Grusznica odpowiedziałbym, że… na marketingowe<br />

manowce. Na niezadane pytanie Quo<br />

Vadis wi-si-ej (<strong>VCA</strong>)? – że to zależy od tego, czy<br />

uda się ją stosować z głową.<br />

<br />

Dla tych czytelników, którzy zwracają uwagę<br />

na poprawną branżową terminologię, przytaczam<br />

definicje normatywne związane z technologią<br />

<strong>VCA</strong>. Najpierw aktualna Polska (Europejska)<br />

Norma. Nie występują w niej pojęcie<br />

analityka i określenie inteligentna:<br />

PN-EN 50132-1: 2012P Systemy alarmowe,<br />

Systemy dozorowe CCTV stosowane w zabezpieczeniach,<br />

Część 1: Wymagania systemowe<br />

3.1.154 analiza zawartości wizji:<br />

analiza żywych lub zapisanych obrazów telewizyjnych<br />

w celu wykrycia działań, zdarzeń lub<br />

wzorów zachowania zdefiniowanych w wymaganiach<br />

użytkowych<br />

video content analysis: analysis of live or recorded<br />

video to detect activities, events or behaviour<br />

patterns as defined in the operational requirements<br />

3.1.70 analiza obrazu:<br />

wyodrębnianie z obrazu informacji ilościowych<br />

poza tymi, które są łatwo widoczne podczas wizualnego<br />

sprawdzenia<br />

image analysis: extraction of quantitative information<br />

from an image beyond which is readily apparent<br />

through visual examination<br />

Na etapie projektu ostatecznego znajduje się<br />

przygotowywana przez IEC norma (patrz niżej),<br />

w której pojawia się określenie analityka<br />

(tłumaczenie własne). Nadal nie pojawia się<br />

określenie inteligentna:<br />

IEC 62676-2-3: Video surveillance systems for use in<br />

security applications – Part 2-3: Video transmission<br />

protocols – IP interoperability implementation based<br />

on WEB services<br />

systemy dozoru wizyjnego stosowane w zabezpieczeniach,<br />

Część 2-3: protokoły transmisji<br />

wizji – zastosowania międzyoperacyjności<br />

IP bazujące na usługach Web<br />

3.1.15 network video analytics<br />

a device that performs analysis on data received<br />

from a streaming device, such as an NVT, or a storage<br />

device, such as an NVS<br />

sieciowa analityka wizji<br />

urządzenie wykonujące analizę danych otrzymanych<br />

od urządzenia strumieniowego, takiego jak<br />

NVT lub od urządzenia do zapisu, takiego jak NVS<br />

3.1.27 video analytics<br />

algorithms or programs used to analyze video data<br />

and to generate data describing object location and<br />

behavior<br />

analityka wizji<br />

algorytmy lub programy stosowane do analizy<br />

danych wizyjnych i do wygenerowania danych<br />

opisujących umiejscowienie i zachowanie obiektu<br />

Literatura:<br />

[1] „Założenia i kierunki dla regulacji prawnych o systemach<br />

monitoringu wizyjnego” opracowanie Paweł Wittich, współpraca<br />

Przemysław Pierzchała, Akademia Monitoringu Wizyjnego,<br />

Gliwice, grudzień 2012.<br />

[2] Słownik języka polskiego, PWN, Warszawa 1978.<br />

partnerzy wydania:


4<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Sławomir Maćkowiak, Marek Domański<br />

Katedra Telekomunikacji Multimedialnej i Mikroelektroniki Politechniki Poznańskiej<br />

Badania naukowe w Katedrze Telekomunikacji Multimedialnej<br />

i Mikroelektroniki Politechniki Poznańskiej<br />

Przetwarzanie obrazów<br />

w systemach zabezpieczeń<br />

W ostatnich latach szybko rośnie<br />

liczba kamer w systemach dozoru<br />

wizyjnego, a także poprawia się jakość<br />

obrazów uzyskiwanych z tych kamer. Te<br />

oczywiste fakty mają istotne konsekwencje<br />

praktyczne. Szybko rosnąca ilość danych wizyjnych<br />

powoduje potrzebę automatyzacji wyszukiwania<br />

informacji w obrazach, a poprawiająca się jakość<br />

rejestrowanych obrazów umożliwia uzyskiwanie<br />

z nich coraz bardziej złożonych i wiarygodnych<br />

informacji.<br />

Te spostrzeżenia przyświecają intensywnym<br />

badaniom naukowym prowadzonym na całym<br />

świecie. Wyniki badań pokazują, że automatyczna<br />

analiza ruchomych obrazów może służyć<br />

między innymi do wykrywania potencjalnie<br />

niebezpiecznych zachowań ludzi, a także<br />

do identyfikacji osób.<br />

Rys. 1. Obrazy uzyskiwane przez kamery<br />

obserwujące jeden obszar<br />

AUTOMATYCZNE ŚLEDZENIE OSÓB I<br />

KLASYFIKACJA ICH ZACHOWAŃ<br />

Szczególnie ważna grupa zadań systemów<br />

telewizji dozorowej jest związana z obserwacją<br />

obszarów ruchu pieszego i wykrywaniem<br />

niebezpiecznych zachowań. Te<br />

zadania wymagają od operatora systemu<br />

skupienia uwagi w długich okresach czasu,<br />

co w praktyce jest trudne. Dlatego rozwijane<br />

są zautomatyzowane inteligentne<br />

systemy dozoru wykorzystujące skomplikowaną<br />

analizę obrazu ruchomego. Badania<br />

dotyczące takich systemów obejmują zagadnienia<br />

automatycznego śledzenia osób<br />

w obrazach ruchomych oraz automatyczną<br />

klasyfikację zachowań ludzi.<br />

Automatyczne śledzenie poruszających się<br />

osób może być realizowane z wykorzystaniem<br />

obrazów uzyskiwanych z jednej kamery<br />

lub z wielu kamer. Zastosowanie tylko<br />

jednej kamery nie umożliwia skutecznego<br />

śledzenia ludzi w scenie. Często osoby są zasłaniane,<br />

co może być przyczyną niewykrycia<br />

ruchu danej osoby w kierunku zgodnym<br />

z osią optyczną kamery (rys. 1).<br />

Lepszym rozwiązaniem jest zastosowanie<br />

większej liczby kamer (dwóch lub trzech),<br />

pozwalające na dobrą lokalizację osób<br />

w przestrzeni. Do prawidłowego określania<br />

położenia osób w przestrzeni jest wymagany<br />

skalibrowany układ kamer, w którym<br />

wyznaczono wspólny układ współrzędnych<br />

uwzględniający geometryczne rozmieszczenie<br />

kamer w scenie. Prace badawcze<br />

pokazały, że wykorzystanie obrazów z takich<br />

wielokamerowych systemów pozwala<br />

partnerzy wydania:<br />

1.5X


5<br />

bardzo efektywnie i niezawodnie śledzić poszczególne<br />

osoby.<br />

Skuteczne śledzenie osób wymaga wykonania<br />

w pierwszym etapie dobrej klasyfikacji<br />

ruchomych obiektów, co pozwala na wyznaczenie<br />

tych z nich, które reprezentują ludzi.<br />

Następnie w obrazach uzyskanych z różnych<br />

kamer są znajdowane obszary przedstawiające<br />

tę samą osobę.<br />

Jedną z metod jednoznacznej identyfikacji<br />

tego samego obiektu w wielu obrazach jest<br />

projekcja wolumetryczna, która polega na<br />

wyznaczeniu ruchomego obszaru wspólnego<br />

dla wielu obrazów. W kolejnym kroku<br />

dokonywana jest segmentacja przestrzenna<br />

i przypisanie indywidualnego identyfikatora<br />

każdemu obszarowi reprezentującemu<br />

tę samą osobę. Pozwala to w łatwy sposób<br />

rozdzielić poruszające się osoby i uniknąć<br />

problemów związanych z przesłanianiem się<br />

obiektów.<br />

W ramach badań są także doskonalone metody<br />

automatycznej klasyfikacji zachowań<br />

osób, w tym np. omdleń, bójek, wzywania<br />

pomocy, potknięć i upadków. Dla tych zadań<br />

nasz zespół wypracował już rozwiązania wykorzystujące<br />

zaawansowane modelowanie<br />

zachowań oraz różne metody klasyfikacji.<br />

W automatycznej klasyfikacji zachowań ludzi<br />

skuteczne okazuje się zastosowanie opisu za<br />

pomocą punktów charakterystycznych leżących<br />

na konturze sylwetki człowieka. Zachowanie<br />

jednej osoby może być opisane jako<br />

zbiór trajektorii ruchu punktów charakterystycznych.<br />

Zbiór położeń punktów charakterystycznych<br />

w danej chwili czasu definiuje<br />

pozę. Pozy w kolejnych chwilach czasu tworzą<br />

deskryptor zachowania, który charakteryzuje<br />

pewien rodzaj zachowania dla wielu ludzi.<br />

Analiza zachowań sprowadza się w ten sposób<br />

do obliczania różnic pomiędzy wyznaczonym<br />

deskryptorem a przechowywanymi<br />

w bazie danych deskryptorami odpowiadającymi<br />

różnym zachowaniom.<br />

Zastosowanie przedstawionych technik jest<br />

możliwe zarówno dla systemów dozoru wizyjnego<br />

w obszarach otwartych np. miejskich,<br />

jak i w pomieszczeniach zamkniętych,<br />

np. w mieszkaniach i biurach.<br />

WYZNACZANIE ROZMIARÓW<br />

PORUSZAJĄCYCH SIĘ POJAZDÓW<br />

Z WYKORZYSTANIEM SYSTEMÓW<br />

STEREOSKOPOWYCH<br />

Systemy stereoskopowe zostały już dobrze<br />

rozwinięte w zastosowaniach związanych<br />

z rozrywką oraz z robotami. Wykorzystując<br />

wyniki uzyskane dla wspomnianych zastosowań,<br />

podjęto również badania mające na<br />

celu zastosowanie stereoskopii w dozorze<br />

wizyjnym. Opracowano system wykorzystujący<br />

analizę obrazów stereoskopowych do<br />

uzyskiwania informacji o pojazdach samochodowych,<br />

a w szczególności służący do<br />

szacowania ich rozmiarów i klasyfikacji typów<br />

pojazdów.<br />

Rys. 2. Prędkość<br />

bitowa transmisji<br />

obrazów ruchomych<br />

o różnej rozdzielczości<br />

wykonywanej za<br />

pomocą kolejnych<br />

najważniejszych<br />

technik kompresji<br />

Przewiduje się wykorzystanie opracowanego<br />

systemu w następujących scenariuszach:<br />

1. Permanentny dozór i automatyczna sygnalizacja<br />

naruszania zakazów wjazdów przez<br />

pojazdy pewnych typów (np. ponadgabarytowe<br />

pojazdy ciężarowe).<br />

2. Zastąpienie systemem automatycznym badań<br />

natężenia ruchu przez obserwatorów,<br />

którzy na formularzach zaznaczają liczbę<br />

pojazdów poszczególnych typów. Automatyzacja<br />

procesu pozwoli na zwiększenie<br />

czasu trwania pomiarów, przy jednoczesnym<br />

obniżeniu ich kosztów, poprawę<br />

obiektywności, a także na pomiary ruchu<br />

z uwzględnieniem większej liczby kategorii<br />

pojazdów.<br />

3. Permanentna analiza natężenia ruchu poszczególnych<br />

typów pojazdów (bez naruszania<br />

zasad ochrony danych osobowych).<br />

ROZPOZNAWANIE BIOMETRYCZNE OSÓB<br />

WYKORZYSTUJĄCE PRZETWARZANIE<br />

OBRAZÓW<br />

Rozwija się także metody rozpoznawania<br />

osób, które polegają na przetwarzaniu obrazów<br />

przedstawiających różne fragmenty tych<br />

osób. W szczególności przydatna okazała się<br />

analiza kształtu uszu, rozmieszczenia i ukształtowania<br />

rzęs, a także rozmieszczenia naczyń<br />

krwionośnych w spojówkach oczu.<br />

W każdym z wymienionych przypadków<br />

analiza wymaga wstępnego wydzielenia<br />

odpowiedniego obiektu z tła (np. ucha ze<br />

zdjęcia głowy), wyznaczenia wektora cech<br />

obiektu (np. współczynników wielomianu<br />

opisującego kształt ucha oraz wartości<br />

pomiarów odległości od środka ucha do<br />

jego zewnętrznych krawędzi), a następnie<br />

porównania wyznaczonego wektora cech<br />

z wzorcami odpowiadającymi różnym osobom.<br />

Te wzorce są przechowywane w bazie<br />

danych.<br />

Wymienione nowe metody identyfikacji wykorzystują<br />

cechy człowieka, które są stabilne<br />

w długich okresach czasu, natomiast są różne<br />

dla różnych osób. Żadna z tych cech samodzielnie<br />

nie wystarcza do identyfikacji osób,<br />

Prędkość bitowa w skali logarytmicznej [Mb/s]<br />

720 x 576<br />

25 fps<br />

4 16<br />

2 8<br />

1 4<br />

0,5 2<br />

1920 x 1080<br />

25 fps<br />

MPEG-2<br />

AVC (H.264, MPEG-4 cz. 10)<br />

Zaawansowane Kodowanie Wizji<br />

1994 2003 2012 2021<br />

HEVC (H.265, MPEG-H)<br />

Bardzo Efektywne Kodowanie Wizji<br />

natomiast badanie wymienionych cech może<br />

uzupełniać inne metody identyfikacji. Dzięki<br />

zwiększaniu liczby analizowanych cech poprawia<br />

się efektywność i niezawodność działania<br />

systemów identyfikacji osób.<br />

BARDZO EFEKTYWNE KODOWANIE WIZJI<br />

Co około 9 lat pojawia się nowa generacja<br />

technik kompresji obrazu ruchomego. Każda<br />

kolejna generacja umożliwia redukcję prędkości<br />

bitowych mniej więcej o połowę w stosunku<br />

do poprzedniej generacji (rys. 2).<br />

W 2012 roku zakończono prace dotyczące<br />

Bardzo Efektywnego Kodowania Wizji (High<br />

Efficiency Video Coding – HEVC), które pozwala<br />

na uzyskiwanie prędkości bitowych<br />

zredukowanych o połowę w stosunku do<br />

prędkości potrzebnych do przesyłania obrazu<br />

ruchomego, zakodowanego obecnie powszechnie<br />

stosowana techniką AVC (H.264,<br />

MPEG-4 część 10). Znacznie lepsza efektywność<br />

kompresji techniki HEVC jest uzyskiwana<br />

dzięki zastosowaniu algorytmów kodowania<br />

wymagających wykonywania wielokrotnie<br />

większej liczby operacji w stosunku do techniki<br />

AVC.<br />

W najbliższej przyszłości należy się spodziewać<br />

pojawienia się na rynku scalonych koderów<br />

HEVC, co zapewne zapoczątkuje szybkie<br />

zastosowanie tej techniki kompresji w telewizji<br />

dozorowej. Dzięki temu będzie można<br />

przesyłać w sieciach IP oraz przechowywać<br />

na dyskach większe ilości obrazów o lepszej<br />

jakości.<br />

PODSUMOWANIE<br />

Przewiduje się, że dzięki wynikom badań<br />

w najbliższej przyszłości systemy telewizji dozorowej<br />

będą coraz bardziej inteligentne, co<br />

pozwoli na odciążanie obsługi od żmudnych<br />

czynności obserwacyjnych.<br />

Wspomniane w tekście badania stanowią<br />

część prac zmierzających do tego, by telewizja<br />

dozorowa spełniała także zupełnie nowe<br />

funkcje, których wykorzystanie umożliwi budowę<br />

znacznie doskonalszych systemów bezpieczeństwa.<br />

<br />

partnerzy wydania:


6<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Prace nad systemami monitoringu wizyjnego<br />

wspomaganymi przez komputerową analizę obrazu z kamer<br />

w czasie rzeczywistym i wykrycie zdarzeń niebezpiecznych są<br />

napędzane przez wiele dziedzin przemysłu. Prowadzą je również<br />

jednostki badawcze i badawczo-rozwojowe dużych koncernów<br />

i małych firm [1, 2, 3, 4].<br />

Przykładem takiego działania jest współpraca polskich uczelni<br />

technicznych i firm prywatnych.<br />

Piotr Garbat<br />

Politechnika Warszawska<br />

Przegląd metod<br />

analizy obrazu<br />

Zadaniem opracowywanych rozwiązań jest wzbogacenie istniejących<br />

instalacji CCTV o moduł wspomagający, grający rolę pośredniczącą<br />

pomiędzy siecią kamer a operatorem podejmującym decyzję<br />

opartą na komputerowej analizie obrazu i dźwięku. Dodatkowym<br />

zadaniem funkcjonalnym stawianym przed tego typu systemami,<br />

oprócz zwiększenia efektywności wykrywania zagrożeń, jest zapewnienie<br />

prywatności osób znajdujących się w polu widzenia poprzez<br />

uruchamianie podglądu dopiero w momencie wykrycia podejrzanych<br />

aktywności.<br />

Rys. 1.<br />

Operator<br />

Większość tego typu systemów ma budowę modułową o strukturze<br />

zbliżonej do systematyki funkcjonalności systemów monitoringu wizyjnego<br />

zawartej w normach. Pierwszym etapem jest procedura detekcji<br />

ruchu (informacja na wysokim poziomie ogólności). Zadaniem<br />

algorytmów z tego poziomu jest jedynie wskazanie na ruch w scenie.<br />

Realizacje różnych odmian algorytmu detekcji ruchu na podstawie<br />

obserwacji zmian wartości średniej intensywności w określonym obszarze<br />

obrazu jest z powodzeniem implementowana w wielu rozwiązaniach.<br />

Informacja ta nie pozwala jednak na zlokalizowanie ruchu<br />

w scenie, a tym bardziej na jego sklasyfikowanie.<br />

Kolejną grupą w hierarchii metod analizy treści sekwencji obrazów<br />

są metody wyodrębnienia (segmentacji) obiektów poruszających<br />

się w scenie. Większość rozwiązań stanowią metody usuwania/odejmowania<br />

tła (background substraction). Informację o ruchu obiektów<br />

w scenie uzyskuje się na podstawie odejmowania tła aktualnej ramki<br />

obrazu od obrazu referencyjnego. Głównymi trudnościami w tego<br />

typu rozwiązaniach są:<br />

• wyznaczanie obrazu referencyjnego (bardzo rzadko można zarejestrować<br />

statyczny obraz tła we wszystkich warunkach),<br />

• globalne zmiany jasności (np. zachmurzenie, pora dnia, zmienne warunki<br />

atmosferyczne),<br />

• szybko zmieniające się elementy tła (liście na wietrze, refleksy od falującej<br />

powierzchni wody),<br />

• zróżnicowany wygląd obiektów w scenie (w stosunku do sceny –<br />

możliwość kamuflażu),<br />

• jakość pozyskiwanych obrazów (szum termiczny, niejednorodne<br />

oświetlenie).<br />

Identyfikacja<br />

aktywności<br />

Identyfikacja<br />

zachowań<br />

w kontekście<br />

obrazu<br />

Identyfikacja<br />

ruchu<br />

obiektów<br />

Śledzenie<br />

obiektów<br />

Detekcja<br />

ruchu<br />

Identyfikacja<br />

obiektów<br />

Identyfikacja<br />

ruchu<br />

Większość z nich ma wpływ również na pozostałe poziomy analizy treści<br />

obrazu, w związku z czym konieczne jest uwzględnianie ich zarówno<br />

na poziomie projektowania metod analizy obrazu, jak i projektowania<br />

systemu monitoringu z ich wykorzystaniem. Problem wyznaczania<br />

uogólnionego, adaptacyjnego obrazu referencyjnego (uwzględniającego<br />

globalne zmiany jasności w czasie) jest tematem wielu opracowań.<br />

Stosowane obecnie rozwiązania można podzielić na kilka grup [5]:<br />

• metody modelowania tła z wykorzystaniem statystyk pierwszego<br />

rzędu (wartość oczekiwana, mediana),<br />

• metody modelowania tła z wykorzystaniem dopasowania rozkładu<br />

lub rozkładów normalnych (GMM),<br />

• metody z wykorzystaniem dodatkowej informacji o barwie, teksturze,<br />

• metody z wykorzystaniem klasyfikatora Bayesa,<br />

• metody z uwzględnieniem kontekstu, wartości sąsiednich obszarów.<br />

Znacznie mniej efektywne na tym etapie są metody wykorzystujące<br />

algorytmy wyznaczania „pola przepływu optycznego”. Ze względu na<br />

złożoność obliczeniową częściej są stosowane na wyższych etapach<br />

analizy ruchu, np. rozpoznawania anormalnego zachowania tłumu.<br />

Rys. 2.<br />

partnerzy wydania:<br />

1.5X


7<br />

Śledzenie punktów Śledzenie obszarów Śledzenie modeli<br />

Wykrywanie<br />

ruchu<br />

Określenie cech<br />

wykrytych obiektów,<br />

dopasowanie<br />

do modelu<br />

Klasyfikacja<br />

na podstawie<br />

wyznaczonych<br />

cech<br />

Rys. 3. Metody śledzenia ruchu<br />

Rys. 4. Przykładowe etapy procesu analizy ruchu<br />

Trzecią grupę rozwiązań stanowią metody śledzenia ruchu. Ścieżka<br />

ruchu jest bardzo ważnym elementem pozwalającym na opis aktywności<br />

i jej rozpoznawanie. Pozwala również na częściowe wyeliminowanie<br />

problemu przysłaniania obiektów, łączenia się w grupy i dzielenia<br />

śledzonych obiektów. Proces śledzenia ruchu może być oparty na<br />

różnych sposobach reprezentacji śledzonych obiektów.<br />

Śledzenie punktu jest najpopularniejsze w tej grupie rozwiązań ze<br />

względu na efektywność istniejących implementacji. Dwa najczęściej<br />

stosowane podejścia to metody deterministyczne oraz metody statystyczne<br />

(np. filtry Kalmana, filtry cząsteczkowe, roje cząsteczek).<br />

Śledzenie obszarów to grupa metod wykorzystująca informację o wyglądzie<br />

obiektu (jego barwie, geometrii, topologii, teksturze). Dostarczają<br />

więcej informacji o obiektach, dzięki czemu umożliwiają w wielu<br />

przypadkach bardziej precyzyjne (jednoznaczne) dopasowanie obiektów<br />

w kolejnych obrazach z sekwencji.<br />

Opis cech charakterystycznych tworzony na potrzeby procedur śledzenia<br />

obiektów może być również wykorzystywany do rozpoznawania<br />

lub identyfikowania obiektów. Metody sprawdzają się w scenach<br />

wymagających śledzenia wielu obiektów jednocześnie. Ze względu<br />

na sposób realizacji wyróżnia się metody oparte na wzorcach i oparte<br />

na modelach wyglądu. Druga możliwość przeprowadzenia klasyfikacji<br />

metod z tej grupy to podział ze względu na sposób reprezentacji cech<br />

charakterystycznych. Mogą być one określane statycznie dla każdego<br />

z obrazów z sekwencji niezależnie, a również z uwzględnieniem ich<br />

zmian w czasie.<br />

Identyfikacja obiektów z wykorzystaniem cech charakterystycznych<br />

obiektów i ruchu pozwala również na tworzenie systemów złożonych<br />

z wielu kamer, z możliwością analizy ruchu w scenie we wspólnym<br />

globalnym układzie współrzędnych (tj. ciągłe śledzenie ruchu obiektu<br />

w różnych strefach z wykorzystaniem obrazu z kolejnych kamer). Zastosowanie<br />

układu wielokamerowego z dużym obszarem wspólnym<br />

Tab. 1. Przykładowe grupy cech charakterystycznych<br />

Przykładowe grupy cech obiektów<br />

Przykładowe grupy cech<br />

ruchu<br />

• intensywność i dynamika ich zmian<br />

• barwa, rozkład barwy,<br />

histogram kolorów<br />

i ich zmiany<br />

• kształt obszaru lub konturu<br />

• topologia obiektu<br />

• tekstura<br />

• z wykorzystaniem punktów charakterystycznych,<br />

ich deskryptorów – SIFT, FAST<br />

oraz wzajemnej ich relacji<br />

• oparte na obrazach krawędzi<br />

– deskryptor HoG<br />

• z wykorzystaniem transformat falkowej,<br />

FFT, Hougha<br />

• podstawowe:<br />

prędkość, kierunek<br />

przyspieszenia<br />

• ścieżka ruchu<br />

• częstość zmian kierunku,<br />

prędkości, histogram zmian<br />

• ruch kamery<br />

pozwala też na określenie dodatkowych informacji o położeniu obiektu<br />

w przestrzeni 3D, a w związku z tym może on ograniczyć problem<br />

przesłaniania się obiektów.<br />

Z kolei metody śledzenia sylwetki/modelu z punktu widzenia rozpoznawania<br />

ruchu mogą dostarczyć informacji o lokalizacji obiektów<br />

i ich wzajemnej relacji w przestrzeni 3D. Niestety są to również metody<br />

o największej złożoności obliczeniowej.<br />

W tej grupie konieczne jest określenie a priori uogólnionego modelu<br />

referencyjnego. Przyjęty model może być zarówno reprezentacją<br />

kształtu obiektu w przestrzeni 2D lub 3D, jak i złożonym modelem<br />

wykorzystującym informację o barwie, kształcie i dynamice ruchu.<br />

Główny proces wyszukiwania i dopasowania modelu może być operacją<br />

czasochłonną, dlatego w większości realizacji jest on wspomagany<br />

predykcją ruchu. Najczęściej spotykanymi metodami jest dopasowywanie<br />

kształtu 2D/3D i ewolucja konturów.<br />

Rozwiązania z dopasowaniem modeli 3D pozwalają określić zarówno<br />

położenie, jak i kierunki w przestrzeni 3D. Zaawansowane modele sylwetki<br />

ludzkiej uwzględniające kinematyczny układ poszczególnych<br />

części ciała są bardzo często wykorzystywane do rozpoznawania aktywności<br />

osób. Stopień dopasowania do istniejącego modelu umożliwia<br />

również rozpoznawanie danej klasy obiektów w scenie.<br />

Najwyższy poziom analizy obrazu stanowią metody rozpoznawania<br />

i klasyfikacji aktywności. Rozróżnia się trzy podstawowe grupy metod<br />

modelowania i detekcji aktywności: nieparametryczne, objętościowe<br />

i parametryczne.<br />

Metody nieparametryczne są oparte na wyznaczaniu cech charakterystycznych<br />

dla każdej ramki sekwencji wideo. Cechy te następnie porównuje<br />

się ze zdefiniowanymi lub wyznaczonymi eksperymentalnie wzorcami.<br />

W metodach objętościowych cechy są wyznaczane na podstawie<br />

trójwymiarowej, czasoprzestrzennej reprezentacji sekwencji obrazów,<br />

rozszerzając standardowe cechy obrazu na przypadek 3D. W metodach<br />

parametrycznych do danych rzeczywistych dopasowuje się sparametryzowany<br />

model obiektu/zjawiska. Rozwiązanie jest wynikiem optymalizacji<br />

parametrów modelu na podstawie danych treningowych.<br />

Przykładami tego typu rozwiązań są np. Ukryte Modele Markowa (HMM)<br />

bądź Liniowe Systemy Dynamiczne (LDS).<br />

Mimo optymizmu części środowisk związanych z branżą systemów<br />

dozoru wizyjnego i nadziei pokładanych w procesie komputerowego<br />

wspomagania analizy obrazu należy zachować czujność i dystans przy<br />

planowaniu i projektowaniu takiego systemu. Wiele czynników, takich<br />

jak szum kamery, przesłonięcia czy cienie, może być przyczyną problemów<br />

utrudniających realizację zadania w konkretnych warunkach.<br />

Niekorzystnie na proces projektowania takich systemów może wpłynąć<br />

również brak jednorodnych narzędzi do ewaluacji jakości metod<br />

(a nie konkretnych instalacji).<br />

Czynniki wynikające z zastanych warunków rzeczywistych mogą powodować<br />

poważne błędy w wysokich warstwach skomplikowanych<br />

metod analizy obrazu. W celu stworzenia efektywnego systemu konieczne<br />

jest zatem testowanie systemu w warunkach pracy.<br />

Pierwsze ograniczenie wynikające z jakości sygnału, powstające głównie<br />

ze względu na problem z ograniczoną pojemnością pamięci masowych<br />

przeznaczonych do gromadzenia danych obrazowych zapisane-<br />

partnerzy wydania:


8<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

go materiału i transmisją sygnału o wysokiej rozdzielczości, wymusza<br />

zastosowanie metod odpornych na szum i efektywnych dla obrazów<br />

o niskiej rozdzielczości. Należy zwrócić uwagę, że wiele opisywanych<br />

rozwiązań analizy aktywności jest wykonywanych na sekwencjach referencyjnych<br />

niespełniających tego założenia.<br />

Kolejną przeszkodą na drodze do stworzenia uniwersalnych algorytmów<br />

analizy obrazów jest znalezienie metod działających poprawnie<br />

niezależnie od cech charakterystycznych obiektów w obserwowanej<br />

scenie, na które zazwyczaj nie mamy wpływu. Są nimi:<br />

• punkt obserwacji,<br />

• wygląd obserwowanych obiektów,<br />

• szybkość wykonywania danego ruchu,<br />

• różnice antropometryczne.<br />

Każdy działający, uniwersalny system powinien zapewnić poprawną<br />

analizę aktywności z uwzględnieniem tych czynników.<br />

Ze względu na duże zmiany w wyglądzie danego obiektu/ruchu i jego<br />

cech charakterystycznych wraz ze zmianą perspektywy uniezależnienie<br />

metody analizy od tego czynnika nie jest zadaniem trywialnym. Jednym<br />

ze sposobów rozwiązywania tego problemu jest stworzenie szablonów<br />

uzyskanych z wielu kluczowych kątów obserwacji, a następnie wyznaczanie<br />

interesującego widoku z wykorzystaniem metod interpolacji.<br />

Można również zdefiniować reprezentację cech ruchu opartą na niezmiennikach<br />

przestrzeni dwu- i trójwymiarowej, niezależnej od punktu<br />

obserewacji. [6] Zakłada się, że każdą aktywność można opisać<br />

jako serię póz i że istnieje przynajmniej jedna poza kluczowa w danej<br />

sekwencji, w której wszystkie 5 punktów (kończyny i głowa) leżą na<br />

jednej płaszczyźnie osadzonej w trójwymiarowej przestrzeni. Wykorzystując<br />

to założenie, otrzymano zestaw deskryptorów niezależnych<br />

od kierunku obserwacji.<br />

Rys. 5. Wyznaczanie ścieżek ruchu<br />

Rys. 6. Dopasowanie uproszczonego modelu kinematycznego<br />

sylwetki człowieka do śledzonych obiektów<br />

Kolejnym rozwiązaniem jest zastosowanie reprezentacji obrazu<br />

historii ruchu uogólnionej na trzeci wymiar. [7] W metodzie tej na<br />

podstawie obrazu z kilku kamer uzyskuje się informację o trójwymiarowej<br />

przestrzeni zwanej „obszarem obecności”. Następnie dla<br />

tych obszarów wyznacza się trójwymiarowy obraz historii ruchu.<br />

Cechy charakterystyczne służące określeniu aktywności są obliczane<br />

w dziedzinie częstotliwości z wykorzystaniem kołowej szybkiej<br />

transformaty Fouriera. Każda z przedstawionych metod jest powiązana<br />

z konkretną cechą lub grupą cech. Nie ma ogólnego rozwiązania,<br />

pozwalającego na analizę ruchu niezależnie od kierunku obserwacji,<br />

dlatego też problem ten nadal pozostaje otwarty.<br />

Kolejnym czynnikiem powodującym trudności są różnice w tempie<br />

wykonywania czynności. Mogą one występować zarówno między<br />

różnymi osobami, jak i dla jednej osoby.<br />

Matematycznie zmiana tempa jest modelowana poprzez skalowanie<br />

osi czasu. W najprostszym przypadku liniowych zmian tempa skalowanie<br />

może być przeprowadzone stosunkowo łatwo, w rzeczywistości<br />

jednak bardzo często mamy do czynienia z nieliniowymi zmianami<br />

tempa. Jednym z najefektywniejszych rozwiązań jest zastosowanie<br />

dynamicznego skalowania czasu DTW (Dynamic Time Warping). DTW<br />

stosowane np. w biometrii do rozpoznawania autentyczności składanego<br />

podpisu jest obiecującą metodą ze względu na możliwość stosowania<br />

jej niezależnie od analizowanej cechy. Warunkiem koniecznym<br />

do poprawnego działania tej metody jest dokładne ustalenie sekwencji<br />

analizowanej i wzorcowej. Osiągnięcie zadowalających efektów<br />

wymaga zastosowania skomplikowanych metod.<br />

Druga grupa metod opartych na równaniach stanu (np. LDS) pozwala<br />

uzyskać odporność na małe zmiany tempa wykonywanych<br />

czynności. Niestety nie modelują one jednoznacznie transformacji<br />

osi czasu. Opracowanie skutecznych i wydajnych metod uniezależnienia<br />

się od tempa wykonywania czynności jest nadal poważnym<br />

wyzwaniem.<br />

Różnice antropometryczne, takie jak wzrost czy płeć obserwowanych<br />

osób, są równie istotnymi czynnikami koniecznymi do uwzględnienia<br />

na etapie projektowania i tworzenia systemu. Problem różnic<br />

antropometrycznych jest zagadnieniem stosunkowo najmniej<br />

rozpoznanym. Jednym z zaproponowanych obecnie rozwiązań jest<br />

metoda normalizowania wyodrębnionych cech, równoważąca zmiany<br />

wynikające z różnic antropometrycznych. [8] Wykorzystuje ona<br />

stosunkowo dokładny model sylwetki człowieka, pozwalający na<br />

określenie położenia głównych stawów. Znając zależności wynikające<br />

z anatomicznej budowy człowieka, możliwe jest uniezależnienie<br />

parametrów ruchu od czynników antropometrycznych.<br />

Literatura:<br />

[1] A.F. Bobick, „Movement, activity, and action: The role of knowledgein the perception of<br />

motion,” Philosophical Transactions of the RoyalSociety of London B, vol. 352, pp. 1257–1265,<br />

1997.<br />

[2] A. Czyzewski, P. Dalka, „Moving object detection and tracking for the purpose of multimodal<br />

surveillance system in urban areas. In New Directions in Intelligent Interactive Multimedia.<br />

Studies in Computational Intelligence” Springer-Verlag, Berlin, 75-84, (2008).<br />

[3] D. Dudzńiski, T. Kryjak, Z. Mikrut, „Human action recognition using simple geometric features<br />

and a finite state machine”, Image Processing & Communications, Volume 18, Issue<br />

2-3, p. 49–60, <strong>2014</strong>.<br />

[4] J. Zawistowski, P. Garbat, P. Ziubiński „Multi-object Tracking System”, Image Processing and<br />

Communications Challenges 5, Springer <strong>2014</strong>.<br />

[5] H. Hassanpour, M. Sedighi, A.R. Manashty „Video Frame’s Background Modeling: Reviewing<br />

the Techniques” Journal of Signal and Information Processing, 2011.<br />

[6] V. Parameswaran and R. Chellappa, „View invariance for human action recognition,” International<br />

Journal of Computer Vision, vol. 66, no. 1, 2006.<br />

[7] D. Weinland, R. Ronfard, and E. Boyer, „Free viewpoint action recognition using motion history<br />

volumes,” Computer Vision and Image Understanding, vol. 104, no. 2, pp. 249–257, 2006.<br />

[8] A. Gritai, Y. Sheikh, and M. Shah, “On the use of anthropometry in the invariant analysis of<br />

human actions,” International Conference on Pattern Recognition, pp. 923–926, 2004.<br />

partnerzy wydania:<br />

1.5X


9<br />

Analiza zawartości obrazu<br />

(Video Content Analysis – <strong>VCA</strong>), bardziej znana pod<br />

marketingową nazwą inteligentnej analityki obrazu<br />

(Intelligent Video Analytics – IVA) 1) , jest określeniem nadanym<br />

automatycznemu rozkładowi obrazów wideo w celu wydobycia<br />

z nich użytecznych informacji.<br />

Ma szeroki wachlarz zastosowań – od detekcji intruzów,<br />

pozostawionych obiektów czy nieprawidłowo zaparkowanych<br />

pojazdów, po zdarzenia związane ze zliczaniem, np.<br />

przemieszczających się osób, długości kolejki lub poziomu<br />

zapełnienia półek sklepowych.<br />

Liczba dostępnych algorytmów sukcesywnie zwiększa się<br />

i zgodnie z prognozami IMS Research ich wartość rynkowa<br />

do 2015 r. ma przekroczyć 600 milionów dolarów.<br />

Quo Vadis aj-wi-ej?<br />

Jan T. Grusznic<br />

Akademia Monitoringu Wizyjnego<br />

W teorii algorytmy wykryją „każde zachowanie”.<br />

Odpowiedni ich opis umożliwi automatyczną<br />

detekcję zdarzenia, uruchamiając<br />

z góry określoną procedurę.<br />

Jak w przypadku każdego algorytmu, od<br />

jakości dostarczonych informacji zależy<br />

jakość przeprowadzonej analizy. Na poprawność<br />

działania <strong>VCA</strong> wpływają zatem<br />

czynniki związane z obrazem i przetwarzaniem<br />

sygnału wizyjnego: poziom kompresji,<br />

rozdzielczość, poklatkowość, kontrast między<br />

tłem a obiektem, odwzorowanie barw, poziom<br />

wzmocnienia sygnału, prędkość poruszania<br />

się obiektu, wielkość obiektu, poziom ruchu<br />

w scenie, perspektywa, warunki środowiskowe<br />

i aberracje optyczne. Jakość analizy zależy od<br />

bardzo wielu zmiennych, dlatego jest niezwykle<br />

istotne określenie funkcji i zakresu detekcji.<br />

Poprawna praca algorytmu IVA jest mierzona<br />

w dwóch kategoriach:<br />

• prawdopodobieństwo wykrycia – prezentowane<br />

jako procentowy (%) stosunek<br />

zdarzeń wykrytych przez system do wymaganej,<br />

sumarycznej liczby zdarzeń wymagających<br />

wykrycia. Przykładem może być<br />

system zliczania osób: w danej jednostce<br />

czasu zmierzona liczba przejść w systemie<br />

jest porównywana z wynikami zebranymi<br />

np. przez osoby zliczające;<br />

• poziom fałszywych alarmów – liczba zdarzeń,<br />

które zostały odnotowane w systemie,<br />

a które nie były istotne. Liczba fałszywych<br />

alarmów jest zawsze postrzegana jako<br />

wartość krytyczna. Jedno błędne zdarzenie<br />

przypadające na jedną kamerę w ciągu<br />

jednego dnia jest jeszcze do zaakceptowania,<br />

ale system składający się z 400 kamer<br />

będzie alarmował o wykryciu średnio co<br />

cztery minuty. W tym przypadku istotne<br />

__________<br />

1) Skróty <strong>VCA</strong> i IVA w niniejszym artykule są stosowane<br />

wymiennie.<br />

partnerzy wydania:


10<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Rys. 1. Przykłady niepomyślnej implementacji IVA<br />

Materiał spreparowany na użytek szkoleniowy.<br />

Na trzech przykładach ukazano najczęściej spotykane<br />

problemy podczas instalacji: 1 – detekcja<br />

przekroczenia linii – nieprawidłowe ustawienie<br />

kamery, 2 – detekcja pojazdów ciężarowych –<br />

nieprawidłowe zaznaczenie strefy detekcyjnej,<br />

3 – detekcja porzuconych przedmiotów – zbyt<br />

duży ruch w scenie<br />

zdarzenia pozostaną niedostrzeżone, a cały<br />

system staje się nieefektywny. Sumaryczną<br />

liczbę zgłoszeń można obniżyć, zawężając<br />

warunki detekcji, np. obiekt może być dookreślony<br />

przez takie dodatkowe parametry,<br />

jak wielkość, stosunek wysokości do<br />

szerokości, kolor lub kierunek przemieszczania<br />

się itp. Jednak zbyt restrykcyjne<br />

parametry spowodują zmniejszenie liczby<br />

zdarzeń, eliminując przy tym te, które powinny<br />

zostać uwzględnione. Zbyt „luźne”<br />

pozostawią nadmierną ich liczbę.<br />

W celu utrzymania właściwych poziomów<br />

prawdopodobieństwa wykrycia fałszywych<br />

alarmów w zmiennych warunkach oświetleniowych<br />

i środowiskowych (co de facto jest<br />

obecnie jednym z największych wyzwań<br />

stojących przed systemami <strong>VCA</strong>) w niektórych<br />

implementacjach stosuje się kilka algorytmów<br />

pracujących na tych samych danych<br />

wejściowych, dostarczając lepsze wyniki.<br />

Przykładem jest połączenie algorytmów detekcji<br />

pozostawionego przedmiotu i zabranego<br />

przedmiotu. Pozostawienie przedmiotu<br />

może być w niektórych przypadkach błędnie<br />

ocenione jako zabranie części tła. Użycie<br />

dwóch algorytmów da informację o zdarzeniu,<br />

podczas gdy przewidziany do analizy pozostawionego<br />

przedmiotu zawiedzie.<br />

Dwie branże – dwa podejścia<br />

W segmencie handlu detalicznego analiza<br />

zawartości obrazu od wielu lat jest stosowana<br />

do gromadzenia danych wykorzystywanych<br />

w tworzeniu strategii sprzedażowej. Dopasowane<br />

do potrzeb algorytmy pozwalają uzyskać<br />

takie informacje, jak liczba odwiedzin,<br />

ich długość, przybliżony wiek czy płeć odwiedzających.<br />

Ciągłe śledzenie osób w centrach handlowych<br />

jest istotnym elementem zbierania<br />

informacji o zachowaniu konsumentów, ich<br />

podatności na reklamę lub promocję. Jakość<br />

danych ma kluczowy wpływ na podejmowane<br />

decyzje, co bezpośrednio przekłada się na<br />

efekt biznesowy.<br />

IVA przeznaczona na rynek detaliczny jako<br />

jedna z nielicznych ma w kartach katalogowych<br />

podawany procentowy poziom<br />

prawdopodobieństwa wykrycia, którego na<br />

próżno szukać w rozwiązaniach stosowanych<br />

w systemach bezpieczeństwa. W handlu detalicznym<br />

algorytm jest utworzony tylko na<br />

potrzeby jednej, konkretnej analizy, np. zliczania<br />

osób, a jego kod jest optymalizowany<br />

pod tym kątem. Funkcja kamery jest ograniczona<br />

do „wysublimowanego” czujnika zbierającego<br />

konkretne i jak najlepsze jakościowo<br />

dane. Obraz z kamery analizującej nie podlega<br />

ciągłej obserwacji, lecz służy głównie<br />

kontrolnemu sprawdzeniu poprawności ustawień,<br />

zmiany otoczenia, weryfikacji poprawności<br />

analizy itp.<br />

W systemach bezpieczeństwa wraz z oprogramowaniem,<br />

kamerą lub rejestratorem<br />

jest dostarczany pakiet algorytmów wykrywających<br />

m.in. naruszenie strefy detekcyjnej,<br />

zabranie lub pozostawienie przedmiotu,<br />

szwendanie się, przekroczenie linii, zmianę<br />

stanu obiektu (np. upadek).<br />

W aplikacjach związanych z bezpieczeństwem<br />

to użyteczność obrazu pod kątem<br />

spełnienia normy PN EN 50132-7 jest stawiana<br />

na pierwszym miejscu, dopiero później<br />

uwzględnia się analizę obrazu. Tymczasem<br />

widok z każdej kamery musi być odpowiednio<br />

skalibrowany, aby algorytm „miał szansę”<br />

na przeanalizowanie wartościowych danych.<br />

Próba implementacji analizy obrazu<br />

z kamery, której instalacja nie została zoptymalizowana<br />

pod kątem wymagań IVA, często<br />

prowadzi do rozczarowania jakością jej<br />

działania (rys. 1).<br />

Jak to działa?<br />

Analiza zawartości obrazu to tylko część składająca<br />

się na cały system <strong>VCA</strong>, którego ogólną<br />

zasadę działania przedstawiono na rys. 2. Informacje<br />

z IVA same w sobie nie są użyteczne<br />

dla użytkownika, jeśli nie zostały powiązane<br />

z odpowiednimi procedurami i w przystępny<br />

sposób zaprezentowane. Rola samej analizy<br />

jest ograniczona do dostarczenia informacji,<br />

będącej podstawą do dalszych działań podejmowanych<br />

automatycznie przez system lub<br />

świadomie przez użytkownika.<br />

Sposób analizy będzie różnił się w zależności<br />

od charakteru poszukiwanych zmian. Każdy<br />

algorytm analizujący zawartość obrazu działa<br />

inaczej, ale upraszczając, obraz jest „roz-<br />

partnerzy wydania:<br />

1.5X


11<br />

Rys. 3. Przykład odjęcia tła<br />

i oznaczenie obszarów<br />

zmiany (blob)<br />

Rys. 4. Przykład klasyfikacji obiektów<br />

w algorytmie IVA na podstawie stosunku<br />

ich wysokości do szerokości<br />

dzielany” na fragment przedstawiający jego<br />

„statyczną” część oraz obiekty nienależące<br />

do tła (tzw. bloby – rys. 3). Informacja o każdym<br />

obiekcie jest „opisem” miejsca zajętego<br />

przez niego w obrazie, wielkości czy wektora<br />

ruchu powiązanych ze znacznikiem czasu<br />

itp. Typ tych danych – zwanych metadanymi<br />

– nie jest jeszcze w pełni ujednolicony (polecam<br />

analizę dokumentów ONVIF Streaming<br />

Specification version 2.1 z czerwca 2011 r. oraz<br />

ONVIF Video Analytics Service Specification version<br />

2.2.1 z grudnia 2012) i zależy od produktu.<br />

Coraz popularniejszy jest zapis metadanych<br />

(niezależnych od znaczników alarmowych)<br />

umożliwiający wielokrotnie szybsze wyszukanie<br />

zdarzenia, którego zaistnienie nie zostało<br />

wcześniej przewidziane. Praca na zarchiwizowanych<br />

metadanych opiera się na tworzeniu<br />

reguł alarmowych przez użytkownika systemu<br />

w chwili przeszukiwania archiwum, co<br />

pozwala porównywać ze sobą wyłącznie<br />

dane tekstowe, a nie obrazy. Tworzone reguły<br />

stanowią zbiór zdefiniowanych zakresów (np.<br />

wielkości, szerokości, wysokości, kierunku<br />

przemieszczania itp.), których spełnienie wygeneruje<br />

znacznik (np. czasowy) powiązany<br />

z materiałem wizyjnym. Proces powstawania<br />

metadanych, w zależności od potrzeb i celu<br />

analizy, może odbywać się w czasie rzeczywistym<br />

(wymóg alarmowania w czasie rzeczywistym)<br />

lub na podstawie rozkładu materiału<br />

archiwalnego (badanie rozciągnięte w czasie,<br />

wysoki poziom powtarzalności itp.).<br />

Analiza zawartości obrazu może odbywać się<br />

bezpośrednio w urządzeniach brzegowych<br />

(np. kamera, koder wizyjny) i w sposób scentralizowany<br />

(oparty na jednostkach serwerowych).<br />

Wykorzystanie mocy obliczeniowej<br />

w urządzeniu brzegowym pozwala zbudować<br />

system uwolniony od jednego punktu awarii<br />

przez jego rozproszenie (każde z urządzeń<br />

analizuje tylko własne dane). Jakość analizy<br />

nie zależy od jakości połączenia lub opóźnień<br />

w transmisji, a dane pochodzące z rozkładu<br />

mogą być przechowane lokalnie, a następnie<br />

skopiowane do systemu zapisu. Takie rozwiązanie<br />

zmniejsza również liczbę symultanicznych<br />

połączeń, odciążając sieć i urządzenie.<br />

Rys. 2. Ogólna zasada działania systemu <strong>VCA</strong><br />

Materiał wizyjny jest przesyłany do analizy do procesora <strong>VCA</strong>. W zależności od sposobu działania systemu<br />

może się on znajdować w kamerze lub urządzeniu odbierającym sygnał (koder, DVR, serwer <strong>VCA</strong>). Dane<br />

z procesora <strong>VCA</strong> są następnie przesyłane do części związanej z konfiguracją alarmu w celu weryfikacji<br />

spełnienia kryteriów alarmowych. Informacja o spełnieniu warunku jest przesyłana do systemu zarządzania<br />

alarmami, gdzie zostaje przedstawiona użytkownikowi w odpowiedni sposób (np. wysteruje kamerę<br />

PTZ, uruchomi sygnał dźwiękowy, zablokuje drzwi, wstawi znacznik do systemu zapisu, wyświetli okno<br />

alarmowe itp.). Użytkownik ma możliwość wprowadzania zmian do procedur alarmowych (np. sposób<br />

wyświetlania, interakcja – potwierdzenie odebrania zdarzenia itp.).<br />

Należy przy tym pamiętać o ograniczonej<br />

mocy obliczeniowej urządzeń brzegowych<br />

uniemożliwiającej elastyczną rozbudowę.<br />

Oznacza to, że analiza może być ograniczona<br />

do wybranych algorytmów, liczby stref detekcyjnych<br />

bądź detekcji obiektów zajmujących<br />

więcej powierzchni w obrazie.<br />

Rozwiązanie scentralizowane oparte na jednostce<br />

serwerowej umożliwia elastyczną<br />

rozbudowę i wprowadzenie nowych, wydajniejszych<br />

algorytmów. Serwer może być wyposażony<br />

w zasilanie awaryjne i umieszczony<br />

w miejscu niedostępnym dla osób niepowołanych.<br />

Takie rozwiązanie, zależnie od konfiguracji<br />

i typu analizy, może obsługiwać od kilku<br />

do kilkudziesięciu kamer. Niestety stanowi<br />

przy tym dodatkowe obciążenie sieciowe.<br />

Błędy w połączeniu z kamerą lub koderem<br />

powodują przerwę w analizie.<br />

Ciekawym rozwiązaniem dającym maksimum<br />

możliwości jest połączenie obu powyższych<br />

sposobów i wykorzystanie zalet przetwarzania<br />

rozproszonego z ogromnymi mocami obliczeniowymi<br />

dostępnymi w jednostkach serwerowych<br />

2) . Nie zalicza się jednak do najtańszych.<br />

Odwieczne pytanie:<br />

człowiek czy maszyna?<br />

Bez wątpienia poprawnie wdrożone rozwiązania<br />

IVA pozwalają lepiej wykorzystać systemy<br />

przez odpowiednie zorganizowanie środowiska<br />

pracy operatorów. Obecnie niechlubną<br />

normą jest to, że w centrum dozoru monitoringu<br />

personel obserwuje kilkanaście lub nawet<br />

kilkadziesiąt obrazów z kamer. Tworząc<br />

odpowiednie procedury i wskazując obszary<br />

o tzw. podwyższonym ryzyku przypisane do<br />

użytkownika, można zmniejszyć liczbę obserwowanych<br />

obrazów, zyskując zwiększoną<br />

efektywność wykrywania zdarzeń. Nadzór nad<br />

pozostałymi strefami jest przekazany IVA informującej<br />

personel o nieprawidłowościach, gdy<br />

takie wystąpią.<br />

Nie oznacza to, że IVA w jakimkolwiek zakresie<br />

może wyeliminować człowieka. W przeciwieństwie<br />

do dostępnych algorytmów wyszkolony<br />

personel może wykryć sprawcę na podstawie<br />

wielu elementów: ubioru, akcesoriów pomagających<br />

popełnić przestępstwo, postawy,<br />

sposobu obserwacji otoczenia, sposobu poruszania<br />

się, sposobu odnoszenia się do innych<br />

osób, mimiki, nienaturalnego zachowania itp.<br />

Wyszkolony personel łatwo weryfikuje fałszywe<br />

alarmy i odróżnia sprawców od osób<br />

postronnych. Rzut oka pozwala stwierdzić,<br />

czy pasażer jest zniecierpliwiony długim czekaniem<br />

na autobus, czy też agresywny względem<br />

innych osób na przystanku.<br />

<strong>VCA</strong> oferujące bogaty zbiór narzędzi używanych<br />

do utworzenia podstawowych stref<br />

Źródło<br />

obrazu<br />

wideo<br />

np.<br />

kamera<br />

Procesor<br />

<strong>VCA</strong><br />

Konfiguracja<br />

alarmu<br />

System<br />

zarządzania<br />

alarmami<br />

Użytkownik<br />

systemu<br />

__________<br />

2) Przykładem może być system analizy twarzy. Kamera<br />

po wykryciu w kadrze wysyła zdjęcie lub serię ujęć do<br />

serwera, gdzie jest wykonywana szczegółowa analiza<br />

biometryczna.<br />

partnerzy wydania:


12<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

detekcyjnych i rozróżnienia typów obiektów – pojazdów oraz ludzi – na<br />

podstawie charakterystycznego kształtu, wielkości, ruchu oraz kombinacji<br />

atrybutów (rys. 4). Zdarzenie jest generowane w momencie, gdy obiekt np.<br />

narusza strefę (wchodzi, wychodzi, przemieszcza się w niej). Zatem by zaalarmować,<br />

algorytm wymaga spełnienia określonego wcześniej warunku.<br />

Jeżeli zagrożenia są bardziej złożone, może nie wykryć zdarzenia. Przykładowo,<br />

wykonanie prymitywnego graffiti zajmuje 1–2 sekundy (prosty znak<br />

– dwa maźnięcia sprejem). Jeżeli system wykrywa osoby, które stoją przez co<br />

najmniej 5 sekund, to grafficiarz nie zostanie wykryty, mimo że zniszczy kilka<br />

elewacji, drzwi czy szyb.<br />

Uwagi końcowe<br />

Wbrew obiegowej opinii systemy <strong>VCA</strong> nie są rozwiązaniami plug&play<br />

(podłącz i pracuj) – nadzorowane obszary różnią się i zastosowane kamery<br />

muszą być odpowiednio skonfigurowane w celu uzyskania optymalnego<br />

efektu. Określenie celu analizy jest kluczowe do poprawnego jej wdrożenia.<br />

Dobrze zdefiniowane oczekiwania pozwolą na lepszy dobór algorytmu.<br />

Istotne jest zebranie informacji dotyczących czynników wpływających<br />

zarówno na właściwą detekcję, jak i zwiększoną zawodność, a następnie<br />

wykorzystanie zdobytych informacji w planowanej instalacji.<br />

Niezależnie od wybranych rozwiązań wszystkie systemy IVA potrzebują<br />

okresu testowego – w trakcie którego dopasowują się automatycznie 3) – lub<br />

zmiany w algorytmie są wprowadzane manualnie.<br />

Niektóre z algorytmów umożliwiają stworzenie powiązań logicznych między<br />

warunkami lub między analizą a urządzeniami zewnętrznymi, np. kontrolą<br />

dostępu. Takie rozwiązania są wskazane dla uzyskania wyższego poziomu<br />

prawdopodobieństwa wykrycia przy jednoczesnym obniżeniu liczby fałszywych<br />

alarmów. Równolegle wprowadzają złożoność systemu i wymagają<br />

wiedzy oraz doświadczenia do ich uruchomienia. Dlatego w czasie okresu<br />

testowego istotny jest niezakłócony dostęp do doświadczonej pomocy technicznej.<br />

I ostatnia uwaga – IVA może z powodzeniem pracować w obecnych systemach<br />

CCTV, o ile dostępny obraz jest wystarczającej jakości. Wykorzystanie<br />

już istniejących kamer będzie wymagało dostosowania pola i kąta widzenia,<br />

jak również wielu innych parametrów w celu zapewnienia jak najlepszej analizy,<br />

a to może się wiązać z dodatkowymi kosztami.<br />

Literatura:<br />

www.securitysystemsnews.com/article/ims-video-analytics-market-be-worth-600-million-2015<br />

www.systemyalarmowe.com.pl/index.php/komentarze-wywiady/535<br />

www.eetimes.com/document.asp?doc_id=1273834<br />

BSIA CoP 109 Planning, installation and maintenance of CCTV systems<br />

BSIA Form No. 262 Issue 1 An introduction to Video Content Analysis. Industry Guide, June 2009<br />

PN EN 50132-7:2013-04<br />

Detecting Threat-Related Intentional Actions of Others: Effects of Image Quality, Response Mode, and<br />

Target Cuing on Vigilance, Journal of Experimental Psychology 2009, vol. 15, No. 4, 275-290<br />

Mary L. Garcia: Design and Evaluation of Physical Protection Systems, Butterworth-Heinemann, 2007<br />

Looking for trouble: a description of oculomotor search strategies during live CCTV operation, Frontiers<br />

in Human Neuroscience, 30/09/2013<br />

Cheng Peng: Video analytics: Content analysis in security and surveillance applications, Texas Instruments,<br />

2007<br />

Xiaogang Wang: Intelligent multi-camera video surveillance: A review, Pattern Recognition Letters 34<br />

(2013) 3–19<br />

Riccardo Satta: Dissimilarity-based people re-identification and search for intelligent video surveillance,<br />

University of Cagliari, 2013<br />

Waldemar Więckowski: Czy inteligentna analityka wizji jest inteligentna?, Systemy Alarmowe<br />

nr 5/2011<br />

ONVIF Streaming Specification, version 2.1, June, 2011<br />

ONVIF Video Analytics Service Specification, version 2.2.1, December, 2012 <br />

__________<br />

3) Zastosowane algorytmy heurystyczne pozwalają na utworzenie zbioru zdarzeń, które muszą<br />

być odpowiednio zdefiniowane przez użytkownika systemu. Zgromadzenie odpowiedniej<br />

liczby odpowiedzi pozwala na opracowanie końcowych algorytmów <strong>VCA</strong> dopasowanych do<br />

wymagań użytkownika.<br />

Jakub Sobek<br />

Linc Polska<br />

ul. Hallera 6-8, 60-104 Poznań<br />

tel. 61 839 19 00 faks 61 839 22 78<br />

info@linc.pl<br />

www.linc.pl<br />

Analiza wizji<br />

czyli jak zobaczyć więcej<br />

Jeszcze kilka lat temu inteligenta analiza obrazu pozostawała<br />

głównie w obszarach testów, a bardzo proste zastosowania<br />

kamer pojawiały się jedynie w przemyśle, służąc np. do weryfikacji<br />

produktów opuszczających taśmę produkcyjną. Obecnie<br />

ta „technologia jutra” stała się rozwiązaniem dostępnym<br />

i wymaganym w systemach bezpieczeństwa.<br />

Inteligentna analiza wizji to naturalny obszar rozwoju systemów<br />

CCTV. Najważniejszym wyzwaniem stawianym przed<br />

instalowanymi kamerami będzie wzrost efektywności ich<br />

działania poprzez uzbrajanie systemów w algorytmy inteligentnej<br />

analizy obrazu.<br />

Podstawą każdego systemu analizy wizji jest obraz uzyskiwany<br />

z kamery. To pierwszy element układanki, determinujący<br />

efektywność całego systemu. Na przydatność obrazu w systemach<br />

analizy składa się kilka elementów. Kluczowa w tym<br />

przypadku jest jego rozdzielczość. Otrzymując obraz wysokiej<br />

rozdzielczości, uzyskujemy wiele informacji do dalszej analizy,<br />

oczywiście przy założeniu poprawnej konfiguracji kamer. Maksymalna<br />

rozdzielczość kamery analogowej to rozdzielczość<br />

TV-PAL, czyli ok. 0,4 Mpix (705 x 576). Dla porównania kamera<br />

o rozdzielczości 3 Mpix ma rozdzielczość 2048 x 1536. Zatem<br />

aby uzyskać taką samą liczbę informacji co przy kamerze cyfrowej<br />

3 Mpix, należałoby zastosować 9 kamer analogowych<br />

ustawionych obok siebie. Pokazuje to, już na poziomie rozdzielczości<br />

obrazu, jak duża jest przewaga wysokiej rozdzielczości<br />

kamer IP nad rozwiązaniami analogowymi.<br />

Analiza obrazu w systemach monitoringu wizyjnego może<br />

odbywać się w dwóch różnych miejscach. Pierwszym z nich<br />

jest realizacja analizy przez procesor sygnałowy i algorytmy<br />

wewnątrz kamery. Drugim – elementy centralne, takie jak<br />

urządzenia typu DVR, NVR, komputer z oprogramowaniem<br />

VMS, dokąd jest przekazywany obraz z kamer. Obraz może<br />

być też przesyłany przez sieć i analizowany w chmurze.<br />

Umieszczenie systemu analizy wizji w kamerze powoduje<br />

decentralizację mocy obliczeniowej. Wykorzystywany jest<br />

procesor każdej kamery, dzięki czemu nie ma konieczności<br />

instalacji jednego elementu centralnego o dużej mocy, np.<br />

serwer z oprogramowaniem VMS. Przy wykorzystaniu analizy<br />

w kamerze obciążenie sieci, aż do momentu wykrycia zdarzenia<br />

alarmowego jest praktycznie zerowe.<br />

Obraz z kamer analogowych do analizy może być wykorzystywany<br />

wprost jedynie w przypadku stosowania analogowych<br />

rejestratorów wizyjnych. Każda inna technologia analizy<br />

zawsze będzie wymagała digitalizacji obrazu, co podnosi<br />

koszty całego systemu.<br />

Panuje błędne przekonanie, że profesjonalny system monitoringu<br />

wizyjnego powinien opierać się na kamerach obrotowych.<br />

Skuteczna analiza obrazu oparta na takich kame-<br />

partnerzy wydania:<br />

1.5X


13<br />

Rys. 2. Algorytm MxActivitySensor w kamerze<br />

Mobotix . Osoba wybiegająca z budynku zostaje<br />

wykryta i oznaczona na histogramie jako zdarzenie<br />

alarmowe, z podaniem informacji o kierunku jej poruszania<br />

się. Padający deszcz czy poruszające się na<br />

wietrze drzewa nie generują fałszywych alarmów<br />

Rys. 3. Sposób działania MxActivitySensor Mobotix.<br />

Algorytm wykrywa obiekt i analizuje trajektorię<br />

jego ruchu, dokonując klasyfikacji zdarzenia<br />

Rys. 4. Sposób działania algorytmu Intrusion Trace<br />

w urządzeniu FastTrace marki Xtralis. Dzięki kalibracji<br />

urządzenia w odniesieniu do perspektywy<br />

można wykryć nawet niewielkie obiekty będące<br />

daleko od kamery. Analiza działa bardzo skutecznie,<br />

nawet gdy obraz jest niskiej jakości<br />

rach jest bardzo skomplikowana i nigdy nie<br />

będzie tak efektywna, jak przy systemach<br />

stałopozycyjnych. Stosując kamery stacjonarne,<br />

mamy pewność, że przez cały czas są<br />

obserwowane i nagrywane wszystkie strefy.<br />

Ale trzeba pamiętać, że w prawidłowo zaprojektowanym<br />

systemie rodzaj zastosowanych<br />

kamer CCTV zależy od wymagań użytkowych<br />

w konkretnego przypadku.<br />

DETEKCJA RUCHU<br />

CZY WIDEOANALIZA?<br />

Większość dostępnych kamer IP oraz rejestratorów<br />

wizji ma funkcję detekcji ruchu, nazywaną<br />

także VMD (Video Motion Detection).<br />

Sposób jej działania opiera się na najprostszym<br />

możliwym algorytmie (rys. 1). Dana<br />

klatka jest porównywana z klatką referencyjną<br />

lub wcześniejszą. Następnie wylicza się<br />

Rys. 1. Schemat prostego algorytmu detekcji ruchu<br />

stosowanego w większości kamer<br />

i rejestratorów wideo<br />

obraz kamery<br />

klatka<br />

referencyjna<br />

obliczenie<br />

różnicy<br />

różnica > próg detekcji<br />

NIE<br />

BRAK ALARMU<br />

operacje<br />

morfologiczne<br />

na obrazie<br />

klatka<br />

bieżąca<br />

TAK<br />

ALARM<br />

różnicę pomiędzy tymi klatkami i jeśli wynik<br />

jest wyższy od założonego progu, wówczas<br />

system wykrywa zdarzenie alarmowe.<br />

Rozwiązania typu VMD są przydatne jedynie<br />

wtedy, gdy kamery są stosowane wewnątrz<br />

budynków. Przy ochronie zewnętrznej taki<br />

algorytm generuje olbrzymią liczbę fałszywych<br />

alarmów. Ponadto algorytm VMD jest<br />

niezdolny do detekcji obiektów, dlatego<br />

ruch rozproszony, taki jak padający deszcz<br />

czy śnieg, zawsze będzie powodował alarm.<br />

Nie analizuje także trajektorii ruchu zmian<br />

zachodzących w obrazie oraz nie ma możliwości<br />

dodatkowej parametryzacji, takiej jak<br />

wprowadzanie atrybutów obiektów zainteresowania.<br />

VMD wykrywa zatem jedynie zmiany obrazu,<br />

bez analizy natury tych zmian. Z tej przyczyny<br />

99% zmian w obrazie jest nieistotnych<br />

dla systemów zabezpieczeń. Skutkuje tylko<br />

dodatkową pracą dla opertora monitoringu,<br />

który musi weryfikować wszystkie fałszywe<br />

zdarzenia. Dodatkowo, jeśli rejestracja obrazu<br />

jest sterowana zdarzeniowo, wówczas<br />

każde fałszywe zdarzenie generuje koszty<br />

związane z przestrzenią potrzebną na jego<br />

archiwizację.<br />

Stosowanie kamer w przestrzeni publicznej<br />

lub ochronie obwodowej wymaga użycia<br />

znacznie skuteczniejszych rozwiązań. Jeśli<br />

taka analiza ma działać w sposób efektywny,<br />

a jednocześnie być wydajna, wówczas koszt<br />

samej kamery będzie wyższy. Złożoność obliczeniowa<br />

algortymów inteligentnej analizy<br />

wizji jest znacznie większa od VMD. Dlatego<br />

w kamerach z zaawansowanymi algorytmami<br />

muszą być zastosowane procesory sygnałowe<br />

DSP wyższej klasy, o większej pamięci<br />

operacyjnej, co oczywiście ma wpływ na<br />

cenę samej kamery. Jednak budowa systemu<br />

bezpieczeństwa opartego na takich rozwiązaniach<br />

w ostatecznym bilansie i tak jest dużo<br />

bardziej opłacalna.<br />

Inteligentna analiza obrazu jest zagadnieniem<br />

dużo bardziej złożonym niż tradycyjna<br />

detekcja ruchu. Pozwala ograniczyć bardzo<br />

dużą liczbę fałszywych alarmów, najczęściej<br />

wywoływanych przez zmiany środowiskowe,<br />

takie jak gwałtowna zmiana oświetlenia, padający<br />

deszcz lub śnieg, przelatujące owady,<br />

poruszające się cienie, a także drgania samej<br />

kamery.<br />

Analiza może też uwzględniać perspektywę<br />

monitorowanej sceny. Dzięki temu wielkość<br />

obiektu zainteresowania nie musi być określana<br />

w pikselach, bez względu na jego lokalizację.<br />

Kalibracja systemu w odniesieniu do<br />

trójwymiarowego modelu sceny pozwala na<br />

skuteczną detekcję obiektów przemieszczających<br />

się nawet daleko od kamery oraz uniknięcie<br />

fałszywych alarmów spowodowanych<br />

ruchem niewielkich obiektów poruszających<br />

się w pobliżu kamery.<br />

Coraz częściej systemy analizy umożliwiają<br />

także weryfikację zachowań oraz ich klasyfikację.<br />

Można np. sprawdzić, jak długo dana<br />

osoba przebywa w monitorowanej strefie lub<br />

po jakiej trajektorii porusza się obiekt zainteresowania.<br />

Z dużą skutecznością można także<br />

wykrywać zarówno pojawiające się obiekty,<br />

jak i te, które zniknęły z obrazu.<br />

Każdy rodzaj zagrożenia, które można wykrywać<br />

za pomocą systemów wizyjnych, ma inną<br />

specyfikę. Dlatego, tak jak nie ma jednego<br />

lekarstwa na wszystkie choroby, tak samo nie<br />

można stworzyć uniwersalnego algorytmu<br />

do identyfikacji wszystkich zagrożeń. Dobór<br />

konkretnego produktu zawsze powinien zostać<br />

poprzedzony analizą monitorowanego<br />

obszaru i ryzyka.<br />

Właśnie ze względu na złożoność problemu<br />

inteligentnej analizy obrazu można spotkać<br />

tak wiele różnych algorytmów inteligentnej<br />

detekcji, jak detekcja osób przebywających<br />

zbyt długo w jednej strefie, detekcja wtargnięcia,<br />

wykrywanie pozostawionych obiektów,<br />

detekcja dymu, zliczanie osób, rozpoznawanie<br />

twarzy itd.<br />

Inteligentna analiza wideo jest obecnie potężnym<br />

narzędziem, które wkrótce będzie<br />

nieodzownym elementem każdego systemu<br />

dozoru wizyjnego. Wraz z dynamicznym<br />

wzrostem sprzedaży kamer IP będziemy<br />

obserwowali jeszcze szybszy rozwój tej dziedziny.<br />

<br />

partnerzy wydania:


14<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Paweł Wittich<br />

Akademia Monitoringu Wizyjnego<br />

IVA w pracy operatorów<br />

systemu CCTV<br />

Proste zadania a zróżnicowane<br />

środowisko dozoru<br />

Inteligentna analiza obrazu jest nazwą marketingową.<br />

Przymiotnik „inteligentna” warto<br />

traktować z przymrużeniem oka, bo oferowane<br />

algorytmy opierają się na zero-jedynkowej<br />

analizie prostych sytuacji, np. grupa<br />

pikseli o innej jasności niż tło „weszła” w obszar<br />

i pozostaje w nim dłużej niż wyznaczony<br />

czas. W środowisku nieskomplikowanym<br />

z punktu widzenia pracy operatora CCTV będzie<br />

to przydatne narzędzie. Przykładowo,<br />

po godzinach pracy zakładu, na ogrodzonym<br />

terenie nikogo nie powinno być, w pustej<br />

przestrzeni algorytmom będzie więc<br />

łatwo wykryć ruch – potencjalnego intruza.<br />

Oglądanie „jak rośnie trawa” jest dla operatora<br />

monotonne i wyczerpujące. Operator<br />

może w tym czasie dozorować te obszary,<br />

które wymagają od niego większego zaangażowania.<br />

Sytuacja radykalnie zmienia się w środowisku<br />

wymagającym – żeby wykryć zagrożenie<br />

i skutecznie na nie zareagować – dokładnej<br />

analizy zachowania, bo sprawcę od zwykłego<br />

człowieka odróżniają niuanse. Przykładowo,<br />

w sklepie matka często się rozgląda,<br />

by sprawdzić, gdzie jest jej dziecko; złodziej<br />

będzie się rozglądał, by sprawdzić, gdzie są<br />

pracownicy ochrony. Dla kamery wyposażonej<br />

w IVA oba rodzaje „rozglądania się” to<br />

taki sam ruch pikseli. Algorytm nie rozróżni,<br />

czy klientka schowała produkt do torebki,<br />

czy do koszyka. Operator nie tylko prawidłowo<br />

zinterpretuje zachowanie, ale także<br />

połączy je z innymi sygnałami, by potwierdzić,<br />

że ma do czynienia ze złodziejem,<br />

m.in. zainteresuje się zbyt obszernym ubraniem,<br />

najpierw pełnym, później pustym<br />

wózkiem (sprawcy przepakowali zawartość<br />

do toreb), unikaniem przez „klienta” pracowników<br />

ochrony. Operator będzie szukał<br />

oznak zdenerwowania (drapania się, poprawiania<br />

odzieży), pozorowanego luzu, który<br />

ma przykryć prawdziwe intencje złodzieja,<br />

lub sztywności ruchów wskazujących na napięcie,<br />

jakie rodzi się w związku z ryzykiem<br />

zatrzymania.<br />

Przewaga operatora nad IVA w złożonym<br />

środowisku dozoru CCTV polega na tym, że<br />

operator może wykryć zagrożenie na wiele<br />

IVA jako narzędzie wspomagające operatorów<br />

Przy stosowaniu IVA warto zwrócić uwagę na praktyczne zasady jej użycia:<br />

• jeżeli alarm IVA ma skutkować wyświetleniem obrazu na ekranie szczegółowym, to warto<br />

zainstalować monitor przypisany tylko alarmom IVA – gdy operator prowadzi aktywną obserwację<br />

lub rejestruje inne zdarzenie, automatyczne wyświetlenie obrazu z innej kamery<br />

zakłóci jego pracę<br />

• wideoweryfikacja – operator szybko i prawidłowo oceni alarm sygnalizowany przez IVA, jeżeli<br />

zostanie przeszkolony w zakresie typowych zdarzeń w danym miejscu, wyglądu typowych<br />

sprawców i sygnałów mowy ciała wskazujących na zagrożenie<br />

• wykorzystanie IVA nie oznacza automatycznej reakcji systemu CCTV – należy przeszkolić<br />

operatorów, jak należy przekazywać informacje do pracowników ochrony odpowiedzialnych<br />

za reakcję, jak sterować kamerami i jakie elementy powinno zawierać nagranie, żeby<br />

mogło zostać użyte w sądzie<br />

• tam, gdzie IVA wspomaga operatorów w wybranych obszarach, konieczne jest przeszkolenie<br />

operatorów, by potrafili aktywnie prowadzić obserwację i wykrywać zdarzenia w pozostałych<br />

miejscach objętych dozorem<br />

• tam, gdzie IVA wspomaga operatorów, warto systematycznie oceniać skuteczność personelu;<br />

brak nadzoru przełożonych może skutkować biernym wyczekiwaniem na alarmy<br />

płynące z IVA i słabą skutecznością<br />

różnych sposobów, a IVA ogranicza się tylko<br />

do jednego zdefiniowanego zachowania.<br />

Operator na bieżąco weryfikuje, czy ma do<br />

czynienia z realnym zagrożeniem, czy fałszywym<br />

alarmem.<br />

Akceptowalny poziom skuteczności<br />

i fałszywych alarmów<br />

Jan Grusznic napisał w artykule, że IVA nie<br />

jest urządzeniem typu plug-and-play i bez<br />

precyzyjnego zdefiniowania oraz spełnienia<br />

określonych kryteriów technicznych nie da<br />

pożądanych efektów. W kontekście pracy<br />

operatorów ten problem pojawił się już w kamerach<br />

analogowych i detekcji ruchu. Jeżeli<br />

tę funkcjonalność uruchamiano w miejscu,<br />

gdzie przechodziło dużo osób, operatorzy<br />

szybko zaczynali traktować nadmiar alarmów<br />

jako uciążliwość i ignorowali je lub wyłączali<br />

sygnalizację alarmu. Operatorzy będą wykorzystywać<br />

narzędzie, któremu mogą<br />

zaufać, inaczej IVA stanie się jedynie technicznym<br />

gadżetem. Rozpatrując jej użycie<br />

do wykrywania zdarzeń, warto ocenić, czy<br />

w danym miejscu ułatwi, czy utrudni pracę<br />

operatorów.<br />

Liczebność i zadania operatorów<br />

przy wprowadzaniu IVA<br />

Po pierwsze, operatorzy są potrzebni, żeby<br />

weryfikować, czy wykryte alarmy są prawdziwym<br />

zagrożeniem. Po drugie, w systemach,<br />

w których są zainstalowane kamery obrotowe,<br />

operator jest potrzebny, żeby wykonać<br />

ujęcia pozwalające na identyfikację sprawców<br />

i rejestrację istotnych faktów zdarzenia.<br />

Brak nagrań spełniających kryteria materiału<br />

dowodowego to ciągle jeden z największych<br />

problemów systemów CCTV – ostatnimi przykładami<br />

są śmiertelne pobicie i ugodzenie<br />

nożem osoby w Bydgoszczy, gdzie w obu<br />

przypadkach słaba jakość nagrań nie pozwoliła<br />

na identyfikację sprawców.<br />

To, czy można ograniczyć obsadę operatorską<br />

po wprowadzeniu IVA, będzie zależne od<br />

poziomu i rodzaju zagrożeń. Moim zdaniem,<br />

tam gdzie przed systemem CCTV stawia się<br />

zadanie wykrywania i natychmiastowego<br />

reagowania na zdarzenia (sklep, miasto),<br />

a także ze względu na ograniczenia IVA,<br />

w złożonym środowisku wskazane jest<br />

utrzymanie pełnej obsady operatorskiej. <br />

partnerzy wydania:<br />

1.5X


16<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

AxxonSoft Polska<br />

ul. Olszańska 5H, 31-513 Kraków<br />

tel. 12 393 58 01<br />

poland@axxonsoft.com<br />

www.axxonsoft.com/pl<br />

Rozwój technologii informatycznych spowodował, że od systemów<br />

dozoru wizyjnego użytkownicy mogą wymagać już nie tylko podglądu<br />

oraz nagrywania obrazu, ale również zaawansowanej analizy zdarzeń<br />

występujących w polu widzenia kamer.<br />

Coraz powszechniejsze stosowanie rozwiązań IP w instalacjach telewizji<br />

przemysłowej spowodowało, że CCTV stała się elementem systemów<br />

informatycznych, które integrują ją z rozmaitymi systemami<br />

bezpieczeństwa (PSIM).<br />

AxxonSoft<br />

Wykraczając poza<br />

tradycyjne<br />

rozwiązania<br />

Zastosowanie analizy wideo wprowadza<br />

nie tylko na nowy poziom<br />

skuteczności i funkcjonalności w wykrywaniu<br />

zdarzeń, ale również daje<br />

nowe, zadziwiające możliwości, które<br />

daleko wykraczają poza branżę zabezpieczeń.<br />

Przykładem może być analiza obrazu<br />

pod kątem zachowania klientów w sklepach.<br />

Zastosowanie oprogramowania<br />

Axxon w placówce handlowej pozwala nie<br />

tylko na ochronę przed wandalizmem lub<br />

kradzieżami (również dzięki integracji z punktami<br />

kasowymi POS). Oprogramowanie może<br />

zliczać np. osoby, które odwiedziły sklep, automatycznie<br />

poinformować o rosnącej kolejce<br />

do kasy itp., generując nieocenione statystyki<br />

dla osób zarządzających sprzedażą lub<br />

ułożeniem produktów na półkach.<br />

Jednym z ciekawszych rozwiązań są mapy<br />

ciepła – Axxon Intellect generuje raporty<br />

dotyczące zainteresowania danym produktem.<br />

Można wskazać półki sklepowe bądź<br />

obszary sklepu, a oprogramowanie pokaże<br />

na skali kolorystycznej miejsca, które cieszyły<br />

się największym zainteresowaniem klientów<br />

i które były odwiedzane rzadziej. Dzięki temu<br />

kierownictwo może pozyskać cenne informacje<br />

na temat zainteresowania produktami,<br />

które w innym wypadku musiałoby pozyskać,<br />

zlecając odpowiednie badania rynku. Jest to<br />

bardzo przydatna funkcja zwłaszcza dla wielkopowierzchniowych<br />

punktów handlowych,<br />

gdzie jest mnóstwo alejek, a sposób poruszania<br />

się klientów nie jest bez znaczenia dla<br />

wyników sprzedaży (fot. 1).<br />

Analiza wideo świetnie sprawdza się w systemach<br />

związanych z inżynierią ruchu drogowego.<br />

Algorytmy stosowane do obsługi<br />

systemów zarządzania ruchem często korzystają<br />

z rozwiązań analizujących obraz. Prawdopodobnie<br />

obecnie analiza wideo to najlepsze<br />

narzędzie do tworzenia statystyk ruchu<br />

ulicznego, zliczania pojazdów z podziałem na<br />

typy (samochód osobowy, ciężarowy, motocykl)<br />

czy obliczania średniej prędkości. Dzięki<br />

posiadanej funkcji rozpoznawania kierunku<br />

poruszania się możliwe jest wskazanie pojazdu<br />

jadącego pod prąd, wykrycie przejazdu na<br />

czerwonym świetle bądź zatrzymania w niedozwolonym<br />

miejscu.<br />

Fot. 1. Mapy ciepła to funkcja<br />

przydatna zwłaszcza dla<br />

wielkopowierzchniowych<br />

punktów handlowych<br />

Sztandarowym przykładem<br />

skutecznej analizy wideo<br />

jest narzędzie rozpoznające<br />

tablice rejestracyjne, tzw.<br />

LPR – License Plate Recognition<br />

(fot. 2). Oprogramowanie Axxon<br />

wykorzystuje w tym celu algorytm<br />

własnego autorstwa lub firm trzecich.<br />

Integracja z rozwiązaniami innych producentów<br />

pozwala na optymalny wybór<br />

rozwiązania LPR pod kątem konkretnego<br />

zastosowania i potrzeb klienta, gwarantując<br />

uzyskanie maksymalnego poziomu skuteczności.<br />

Zastosowanie modułu Axxon LPR pozwala<br />

na generowanie nie tylko danych statystycznych,<br />

takich jak zliczanie pojazdów czy obciążenie<br />

pasa ruchu, ale również daje możliwości<br />

niezwykle skutecznego poszukiwania pojazdów<br />

w trybie rzeczywistym, również mobilnie<br />

przez instalowanie systemu w pojazdach<br />

policji.<br />

Fot. 2. Axxon LPR – sztandarowy przykład skutecznej analizy wideo<br />

partnerzy wydania:<br />

1.5X


17<br />

Kolejnym narzędziem analizy obrazu w oprogramowaniu<br />

Axxon jest detekcja naruszenia<br />

strefy. Administrator systemu tworzy wirtualne<br />

ogrodzenie (obszar) na ekranie monitora,<br />

po którego przekroczeniu system w zdefiniowany<br />

wcześniej sposób poinformuje o tym<br />

zdarzeniu w postaci monitu na ekranie, uruchomieniu<br />

alarmu, powiadomieniu SMS itp.<br />

System może także ostrzec o pozostawionym<br />

w strefie obiekcie lub fakcie, że jakiś obiekt<br />

zniknął z obserwowanej sceny. Może również<br />

rozpoznać szwendanie się osoby. To idealne<br />

rozwiązanie przydatne na lotniskach, parkingach,<br />

punktach handlowych i innych miejscach<br />

wzmożonego ruchu.<br />

Jedną z podstawowych funkcjonalności<br />

dobrego oprogramowania VMS jest autoochrona<br />

systemu zapewniana m.in. dzięki<br />

rozpoznawaniu manipulacji kamerą, detekcji<br />

zasłonięcia obiektywu, rozmycia obrazu, oślepiającego<br />

oświetlenia, zmiany obserwowanej<br />

sceny, zakłóceń w przesyle wideo itp., co pozwoli<br />

strzec instalację przed próbami wandalizmu<br />

czy sabotażu.<br />

Najbardziej zaawansowanym algorytmem<br />

w oprogramowaniu Axxon jest rozpoznawanie<br />

twarzy oraz wyszukiwanie twarzy w archiwum<br />

(fot. 3). Oprogramowanie pozwala na<br />

skuteczną identyfikację ludzi bez względu na<br />

fryzurę, noszone okulary, posiadany zarost,<br />

kąt skierowania kamery czy też warunków panujących<br />

w tle. W czasie rzeczywistym system<br />

informuje o dopasowaniu twarzy do wzorca<br />

znajdującego się w bazie danych (np. poszukiwanych<br />

osób). System może również współpracować<br />

z systemami kontroli dostępu, poddając<br />

weryfikacji osoby, które chcą np. wejść<br />

do jakiegoś pomieszczenia. Rozwiązanie to<br />

jest stosowane z powodzeniem w największych<br />

sieciach metra na świecie, lotniskach<br />

czy stadionach.<br />

Fot. 3. Rozpoznawanie i wyszukiwanie twarzy w archiwum to najbardziej zaawansowany algorytm<br />

w oprogramowaniu Axxon<br />

Fot. 4. Interaktywne mapy 3D umożliwiają intuicyjną obsługę systemu<br />

Fot. 5. Soczi – jedna z ostatnich prestiżowych instalacji oprogramowania Axxon<br />

Oprogramowanie Axxon nie tylko analizuje<br />

obraz w czasie rzeczywistym, ale dzięki metadanym,<br />

które gromadzi w bazie, umożliwia<br />

szybsze przeszukiwanie archiwum. System<br />

gromadzi dane m.in. o wielkości, kolorze, kierunku<br />

poruszania się czy prędkości obiektu.<br />

W praktyce oznacza to błyskawiczne odnalezienie<br />

poszukiwanego zdarzenia (fot. 4).<br />

Analiza wideo to jednak nie wszystko, Axxon-<br />

Soft oferuje bowiem także analizę audio.<br />

Najnowsze kamery wyposażone w mikrofony<br />

mogą wspomóc analizę wideo poprzez<br />

analizę audio. System Axxon posiada moduły<br />

detekcji agresji, detekcji alarmów samochodowych,<br />

detekcji zbicia szkła.<br />

Oprogramowanie może automatycznie informować<br />

o zdarzeniach, które są wynikiem analizy<br />

wideo, dźwięku bądź też wynikają z informacji<br />

pochodzących z innych systemów<br />

zintegrowanych, m.in. KD, PPOŻ., SSWiN.<br />

Dzięki temu można tworzyć scenariusze zdarzeń,<br />

podpowiedzi dla operatorów systemu<br />

czy procedury „step by step”, co znacznie ułatwi<br />

ich pracę oraz skróci czas reakcji.<br />

Najnowszą i najbardziej prestiżową instalacją<br />

systemu Axxon jest system bezpieczeństwa<br />

Wioski Olimpijskiej w Soczi oraz tzw. Drogi<br />

Olimpijskiej Moskwa-Soczi, specjalnie wybudowany<br />

na zimowe igrzyska (fot. 5). Ciekawostką<br />

jest, że część analizy obrazu odbywa się<br />

w kamerach IP firmy Panasonic, natomiast informacje<br />

są przekazywane do oprogramowania<br />

Axxon, które z kolei dystrybuuje zdarzenia<br />

wg wcześniej zaprojektowanych scenariuszy.<br />

Warto o tym wspomnieć, gdyż w przyszłości<br />

analiza obrazu będzie w dużej mierze obsługiwana<br />

przez same kamery, te jednak będą<br />

współpracowały z jeszcze bardziej zaawansowanym<br />

oprogramowaniem, które musi „rozumieć”,<br />

co kamera chce mu przekazać.<br />

Firma AxxonSoft istnieje na rynku od 10 lat.<br />

Posiada 37 biur na całym świecie, w których<br />

pracuje ponad 350 wysoko wykwalifikowanych<br />

specjalistów.<br />

Badania Frost & Sullivan wskazały, że Axxon-<br />

Soft posiada ponad 60 proc. udziału w rosyjskim<br />

rynku oprogramowania systemów<br />

dozoru wizyjnego. Według IMS Research 2010<br />

World & EMEA oraz sprawozdania Video Surveillance<br />

Equipment Report firma zajmuje<br />

pierwsze miejsce w Europie wśród dostawców<br />

otwartych platform dla systemów dozoru<br />

wizyjnego.<br />

Pod koniec roku 2013 firma AxxonSoft doceniła<br />

także polski rynek i jako globalny producent<br />

oprogramowania VMS (Video Management<br />

Software) oraz PSIM (Physical Security<br />

Information Management) uruchomiła swoje<br />

biuro w Polsce. <br />

partnerzy wydania:


18<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Axis Communications<br />

Emdalavägen 14, SE-223 69 Lund, Szwecja<br />

Kontakt w Polsce: Agata Majkucińska<br />

tel. 793 155 227, faks 48 330 86 61<br />

www.axis.com<br />

Systemy inteligentnej<br />

analizy obrazu<br />

według Axis Communications<br />

Jeszcze nie tak dawno rozwiązania inteligentnej<br />

analizy obrazu były tworzone na bazie komputerów<br />

PC, często o niewystarczającej mocy obliczeniowej.<br />

W powiązaniu z nie najlepszej jakości obrazem z kamery<br />

dawało to wyniki dalekie od satysfakcjonujących, przy<br />

niewspółmiernie wysokich kosztach. Sytuacja zmieniła<br />

się wraz z wprowadzeniem na rynek kamer IP oraz<br />

wideoenkoderów wyposażonych w procesory mogące<br />

sprostać wymaganiom stawianym przed analizą<br />

zawartości obrazu.<br />

partnerzy wydania:<br />

1.5X


19<br />

Inteligentne systemy<br />

Szybkie odnalezienie zaistniałych zdarzeń<br />

w archiwum, przy coraz większej ilości<br />

przechowywanych danych wizyjnych, staje<br />

się coraz trudniejsze. Z tego powodu m.in.<br />

tradycyjne analogowe systemy telewizji<br />

dozorowej są coraz częściej wymieniane na<br />

nowoczesne cyfrowe rozwiązania dozoru<br />

wizyjnego o większej palecie możliwości.<br />

Inteligentna analiza obrazu (IVA) jest jedną<br />

z funkcji, które wyznaczają nowy kierunek<br />

rozwoju wizyjnych systemów bezpieczeństwa,<br />

pozwalających zwiększyć efektywność<br />

zaimplementowanych rozwiązań, a nawet<br />

zapobiec zdarzeniom niepożądanym.<br />

Inteligentne systemy analizy obrazu porządkują<br />

ogromną ilość informacji zawartych<br />

w materiale wizyjnym i czynią go bardziej<br />

przystępnym. Przeprowadzając analizę, korzystają<br />

z danych „opisujących” zawartość<br />

obrazu, co wpływa na czas wyszukiwania, jakość<br />

detekcji i elastyczność tworzonych reguł.<br />

Zyskują na tym przede wszystkim operatorzy,<br />

zostają bowiem nie tylko odciążeni, ale też<br />

mogą efektywniej obsługiwać system, tworząc<br />

potencjalne scenariusze alarmowe.<br />

Inteligentne funkcje<br />

Firma Axis Communications<br />

wraz z partnerami<br />

programistycznymi opracowała<br />

wiele aplikacji<br />

umożliwiających analizę<br />

zawartości obrazu<br />

(<strong>VCA</strong>), począwszy od<br />

detekcji ruchu czy<br />

dźwięku, skończywszy<br />

na bardziej zaawansowanych<br />

algorytmach,<br />

takich jak wykrywanie<br />

działań sabotażowych,<br />

zliczanie osób, rozpoznawanie<br />

tablic rejestracyjnych<br />

czy wykrywanie poruszających<br />

się obiektów przecinających wirtualną<br />

linię kamery (tzw. Cross Line Detection).<br />

Aplikacje są dostępne w ramach Axis<br />

Camera Application Platform (ACAP) na<br />

stronie: www.axis.com.<br />

Obserwujemy znaczny wzrost liczby aplikacji<br />

znajdujących zastosowanie w różnych systemach<br />

dozoru wizyjnego, opartych na urządzeniach<br />

Axis – mówi Jan Grusznic, Sales<br />

Engineer w Axis Communications. – Inteligentne<br />

systemy dozoru potrafią wyodrębnić<br />

dane ze strumienia wizji oraz powiązać je<br />

z innymi systemami służącymi np. do zarządzania<br />

punktami sprzedaży detalicznej lub<br />

systemami kontroli dostępu. Takie rozwiązania<br />

generują korzyści i tworzą nowe możliwości<br />

biznesowe.<br />

Technologia inteligentnej analizy obrazu proponowana<br />

przez firmę Axis pozwala stworzyć<br />

systemy dozorowe wyróżniające się funkcjonalnością,<br />

dokładnością i opłacalnością.<br />

Umożliwia automatyczny dozór, oznaczanie<br />

obrazu w czasie rzeczywistym, wykrywanie<br />

podejrzanych działań i zapobieganie przestępczości.<br />

System można skonfigurować w taki sposób,<br />

aby dostarczał ukierunkowanych, konkretnych<br />

informacji – wyjaśnia Jan Grusznic. – Oznacza<br />

to, że nadanie określonych parametrów pozwala<br />

na wczesne ostrzeżenie operatora o ich naruszeniu.<br />

Strategie tworzenia<br />

inteligentnego systemu<br />

Inteligentne systemy dozoru wizyjnego mogą<br />

być wdrażane na dwa główne sposoby – jako<br />

scentralizowane i rozproszone. W modelach<br />

scentralizowanych obraz dostarczany z kamer<br />

jest analizowany po stronie serwera centralnego.<br />

W modelu rozproszonym kamery sieciowe<br />

oraz wideoenkodery oferowane przez<br />

Axis Communications są zdolne do lokalnego<br />

przetwarzania obrazu i wydobywania z niego<br />

istotnych informacji.<br />

Najbardziej skalowalna, efektywna kosztowo<br />

i elastyczna architektura jest oparta na „inteligencji”<br />

w urządzeniu końcowym, co oznacza, że<br />

kamery sieciowe lub wideoenkodery przetwarzają<br />

obraz lokalnie, bez konieczności użycia jakichkolwiek,<br />

dodatkowych elementów systemu<br />

– mówi Jan Grusznic.<br />

Architektura rozproszona zakłada wykorzystanie<br />

pasma w jak najmniejszym stopniu,<br />

pozbawiona jest więc wady modelu scentralizowanego.<br />

Ponadto przetwarzanie obrazu<br />

w urządzeniu końcowym znacznie obniża<br />

koszty urządzeń serwerowych, niezbędnych<br />

do uruchomienia inteligentnych aplikacji.<br />

Pełna synergia<br />

człowiek-kamera?<br />

Na rynku można zauważyć wzrost zainteresowania<br />

rozwiązaniami z zakresu inteligentnych<br />

systemów nadzoru CCTV. Przyczyna tego zjawiska<br />

tkwi w coraz niższych kosztach związanych<br />

z budową i eksploatacją systemu, jak też<br />

lepszą wydajnością pracy pracowników.<br />

Systemy Axis umożliwiają efektywniejszą pracę<br />

personelu – podkreśla Jan Grusznic. – Operatorzy<br />

mogą skupić się na zadaniach priorytetowych,<br />

a nie na ciągłej obserwacji wielu obrazów<br />

w celu wychwycenia podejrzanego zdarzenia.<br />

Inteligentne systemy dozorowe, które obejmują<br />

detekcję ruchu i dźwięku, mogą pomóc<br />

w optymalizacji zużycia powierzchni dyskowej,<br />

ponieważ są rejestrowane tylko obrazy<br />

przedstawiające niepożądaną aktywność.<br />

Ponadto wykorzystanie mocy obliczeniowej<br />

w urządzeniu końcowym do analizy obrazu<br />

pozwala odciążyć sieć.<br />

Inteligentna przyszłość<br />

Wszystko wskazuje na to, że dzięki innowacyjnym<br />

technologiom dozór CCTV coraz częściej<br />

będzie oparty na inteligentnych systemach<br />

wizyjnych. Nie powinno się ograniczać ich roli<br />

jedynie do wymiaru biznesowego. Ich celem<br />

jest również bezpieczeństwo, we współczesnym<br />

świecie jedna z najcenniejszych i najbardziej<br />

pożądanych wartości. <br />

partnerzy wydania:


20<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Piotr Rogalewski<br />

Samsung Techwin<br />

Biuro w Polsce<br />

ul. Marynarska 15, 02-674 Warszawa<br />

tel. +48 22 20 50 777<br />

Analiza treści<br />

sygnału wizyjnego,<br />

zwana też w skrócie analizą obrazu lub<br />

inteligentną analizą wideo (IVA – Intelligent<br />

Video Analytics lub <strong>VCA</strong> – Video Content Analysis)<br />

to funkcjonalność, która coraz częściej pojawia się<br />

w instalacjach telewizji dozorowej.<br />

Rozwój technologiczny i dopracowanie algorytmów analizy obrazu<br />

pozwalają obecnie na wykorzystanie tych funkcji jako ważnego<br />

narzędzia, poprawiającego skuteczność i sprawność działania<br />

systemów telewizji dozorowej.<br />

Oferta Samsung Techwin obejmuje systemy inteligentnej<br />

analizy wideo po stronie zarówno kamer, jak i serwera,<br />

a dzięki pakietowi Open SDK jest możliwe tworzenie<br />

własnych, unikatowych funkcji i całych<br />

aplikacji, idealnie dopasowanych<br />

do potrzeb klienta.<br />

Inteligentna<br />

analiza obrazu<br />

w rozwiązaniach Samsung Techwin<br />

Dlaczego analiza obrazu?<br />

W Europie i USA przeprowadzono kilkanaście różnych badań i eksperymentów<br />

polegających na określaniu zdolności percepcji i koncentracji<br />

operatorów systemów telewizji dozorowej przy różnej liczbie<br />

jednocześnie obserwowanych obrazów z kamer i różnym czasie pracy<br />

ciągłej na stanowisku obserwacyjnym. Badania te wykonywały następujące<br />

instytucje: British Security Industry Association (BSIA, Wlk.<br />

Brytania), Kingston University w Surrey (Wlk. Brytania), The Institue for<br />

Pervasive Computing w Zurychu (Szwajcaria), University of Maryland<br />

(USA) czy York University of Toronto (Kanada). Niezależnie od metodyki<br />

przeprowadzonych badań okazało się, że koncentracja obserwatora<br />

skupionego na oglądaniu obrazów z 16-32 kamer jednocześnie spada<br />

o połowę już po kwadransie obserwacji i o ponad 90% (!) po 30-45<br />

minutach.<br />

Znaczenie ma tutaj liczba jednocześnie wyświetlanych obrazów, ich<br />

dynamika oraz wiele innych czynników, jednak wniosek jest jeden: człowiek<br />

nie jest w stanie prowadzić obserwacji wielu obrazów jednocześnie<br />

przez dłuższy czas (kilka godzin) i zachować koncentrację wystarczającą<br />

do szybkiego reagowania na sytuacje nietypowe. Z pomocą przychodzi<br />

analiza obrazu, której odpowiednio skonfigurowane scenariusze<br />

mogą przyciągnąć uwagę operatora w momencie wystąpienia sytuacji<br />

o szczególnym charakterze lub nawet w momencie bezpośrednio ją poprzedzającym.<br />

Dzięki temu reakcja personelu obsługi może być szybka<br />

i skuteczna mimo wielogodzinnej pracy przed monitorami.<br />

Analiza obrazu wbudowana w kamerę<br />

Oferowane rozwiązania inteligentnej analizy obrazu można podzielić<br />

na dwie główne kategorie z punktu widzenia lokalizacji mechanizmu<br />

analizy. Pierwszą grupą jest analiza obrazu „na pokładzie” samych kamer<br />

CCTV. Jest to rozwiązanie bardzo korzystne m.in. z punktu widzenia<br />

zajętości pasma sieci transmisyjnej w systemie, kamera po wykonaniu<br />

analizy przesyła bowiem tylko rezultat swoich działań (tzw. metadane)<br />

do centrum nadzoru. Obciążenie serwera z oprogramowaniem zarządzającym<br />

jest wówczas mniejsze, gdyż otrzymuje on gotowe wyniki<br />

analizy bezpośrednio z kamer.<br />

Samsung Techwin oferuje pełny pakiet scenariuszy analizy obrazu wbudowany<br />

we wszystkich modelach kamer WiseNet III w cenie kamery, bez<br />

żadnych licencji i opłat dodatkowych. Pakiet ten obejmuje inteligentną<br />

detekcję ruchu, która poza tradycyjnym wykrywaniem ruchu potrafi<br />

„odfiltrować” powtarzalny ruch tła (np. falowanie gorącego powietrza,<br />

ruch liści lub fal morskich itp.), eliminując tym samym fałszywe alarmy.<br />

Dostępna jest także funkcja bariery wirtualnej z detekcją kierunku. Po<br />

narysowaniu na obrazie jednej lub kilku linii barier i oznaczeniu kierunku<br />

(kierunków) detekcji funkcja będzie reagować na przecięcie przez poruszający<br />

się obiekt bariery zgodnie ze zdefiniowanym wzorcem. Dzięki<br />

temu można wykryć sytuacje, takie jak poruszanie się pojazdów „pod<br />

prąd”, zawracanie lub skręcanie w niedozwolonym miejscu, ruch osób<br />

niezgodny z ustalonym kierunkiem ciągu komunikacyjnego, wejście<br />

partnerzy wydania:<br />

1.5X


21<br />

Fot. 1. Przykład zastosowania bariery wirtualnej w celu ochrony ogrodzenia<br />

i wjazdu na posesję<br />

w obszar strzeżony jednocześnie bez alarmowania o wyjściu z takiego<br />

obszaru itp. Kolejną funkcją jest detekcja pojawienia się lub zniknięcia<br />

obiektu w zdefiniowanym obszarze. Przykładowo, obsługa lotniska<br />

może w ten sposób zostać zaalarmowana o bagażu pozostawionym<br />

bez opieki, a ochrona muzeum o zabraniu cennego przedmiotu z postumentu<br />

na wystawie.<br />

Inną przydatną funkcją analizy obrazu, dostępną w kamerach Samsung,<br />

jest detekcja twarzy. Algorytm ten pozwala na wykrycie na jednym obrazie<br />

do 30 twarzy jednocześnie, i to przy obserwacji zarówno z frontu,<br />

jak i z profilu. Funkcja taka może być bardzo przydatna we wszystkich<br />

miejscach, gdzie pojawienie się człowieka jest niepożądane lub może<br />

być dla niego niebezpieczne (np. obszary działania chemikaliów, pracy<br />

zautomatyzowanych wózków transportowych w fabryce itp.).<br />

Kolejną dostępną funkcją jest analiza wejścia lub wyjścia w zdefiniowany<br />

obszar, wykorzystywana do ochrony np. terenu przyległego do ogrodzenia.<br />

Zestaw scenariuszy uzupełnia funkcja detekcji sabotażu, dzięki<br />

czemu kamera potrafi wykryć takie sytuacje, jak próba zamalowania<br />

obiektywu farbą, deregulacja ostrości czy umyślna zmiana pola lub kąta<br />

widzenia kamery. Ponadto kamery WiseNet III Samsunga oferują wbudowaną<br />

analizę dźwięku. Kamera dokonuje ciągłego pomiaru natężenia<br />

dźwięku docierającego z otoczenia i reaguje alarmem na przekroczenie<br />

zadanego progu natężenia (np. krzyk, stłuczenie szyby itp.).<br />

z oprogramowaniem zarządzającym Samsung Security Manager<br />

(SSM). Moduł SSM-VA10 potrafi wykonywać jednoczesną analizę strumieni<br />

wizyjnych z maks. dziesięciu kamer IP, a wśród algorytmów analizy<br />

są dostępne m.in. zliczanie obiektów, analiza kolejek, wykrywanie<br />

„wałęsania się” w wyznaczonym obszarze, analiza ścieżek ruchu czy<br />

analiza strefowa.<br />

Na szczególną uwagę zasługuje funkcja „map ciepła”, szczególnie przydatna<br />

np. przy obserwacji ruchu ulicznego lub w obiektach handlowych.<br />

Funkcja ta pozwala na klasyfikację obiektów wg wzorca „człowiek” lub<br />

„pojazd” oraz jednoczesne odwzorowanie („mapowanie”) za pomocą<br />

kolorów stref ruchu o różnej intensywności na tym samym obrazie<br />

dla sklasyfikowanych obiektów. Dzięki temu np. szefowie marketingu<br />

w sklepie wielkopowierzchniowym będą w stanie określić, przy których<br />

regałach (produktach) było w danym czasie najwięcej klientów, a instytucje<br />

zarządzające ruchem ulicznym będą mogły określić największe<br />

skupiska ruchu na newralgicznych skrzyżowaniach. Funkcja „map<br />

cieplnych” jest wbudowana standardowo w nowy rejestrator sieciowy<br />

Samsung SRN-4000.<br />

Rozwiązania analizy obrazu po stronie serwera to także platformy ISV<br />

(inaczej oprogramowanie typu open platform), z którymi Samsung<br />

Techwin jest kompatybilny. Dzięki zaawansowanej integracji urządzeń<br />

Samsunga z oprogramowaniem takich producentów, jak Milestone,<br />

Genetec czy Mirasys można w pełni wykorzystać możliwości zaawansowanej<br />

analizy obrazu, oferowanej przez te firmy. Szczegóły zostaną<br />

zaprezentowane na stoisku Samsunga podczas tegorocznych targów<br />

branżowych IFSEC w Wielkiej Brytanii.<br />

Za mało? Zrób to sam!<br />

Jeśli opisana funkcjonalność inteligentnej analizy wizji okaże się niewystarczająca<br />

dla klienta, Samsung oferuje możliwość samodzielnego<br />

utworzenia aplikacji na konkretne potrzeby. W tym celu dostępny jest<br />

bezpłatny zestaw Open SDK (Open Software Developement Kit), czyli<br />

pakiet narzędzi dla firm integracyjnych i inżynierów oprogramowania,<br />

którzy za pomocą tego pakietu mogą tworzyć własne, oryginalne funkcje<br />

lub całe aplikacje dla kamer Samsung serii WiseNet III. Aplikacje te<br />

można „wgrać” do kamery tak jak aplikacje dla urządzeń mobilnych<br />

typu smartfon czy tablet.<br />

Analiza obrazu po stronie serwera<br />

Drugą grupą rozwiązań inteligentnej analizy obrazu jest oprogramowanie<br />

instalowane po stronie serwera. Oznacza to, że całą pracę<br />

związaną z analizowaniem treści obrazu przejmuje na siebie komputer<br />

z zainstalowanym dedykowanym oprogramowaniem. W przypadku<br />

rozwiązania Samsung jest to aplikacja SSM-VA10, współpracująca<br />

Fot. 2. Funkcja Heatmap („mapa ciepła”), dostępna w oprogramowaniu<br />

SSM-VA10 oraz rejestratorze sieciowym SRN-4000<br />

Fot. 3. Kamera SNO-6084LR<br />

wykorzystująca aplikację z pakietem Open SDK<br />

do rozpoznawania tablic rejestracyjnych (ANPR)<br />

Konkretnym przykładem zastosowania technologii Open SDK jest kamera<br />

Samsung SNO-6084LR, służąca do rozpoznawania tablic rejestracyjnych<br />

pojazdów. W istocie jest to „tradycyjna” kamera serii WiseNet<br />

III, z załadowaną do pamięci aplikacją służącą do rozpoznawania tablic<br />

rejestracyjnych. Open SDK pozwala na tworzenie aplikacji nie tylko na<br />

potrzeby analizy obrazu, a liczba możliwych funkcji i zastosowań liczy<br />

już tysiące.<br />

Więcej informacji o pakiecie Open SDK oraz analizy obrazu w ofercie<br />

Samsung można uzyskać u autoryzowanych dystrybutorów, bezpośrednich<br />

przedstawicieli Samsung Techwin w Polsce oraz pod nr. tel.<br />

222 050 777. <br />

partnerzy wydania:


22<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

BCS<br />

www.bcscctv.pl<br />

Inteligencja<br />

w ruchu<br />

megapikselowa<br />

kamera PTZ<br />

z funkcją<br />

śledzenia<br />

Standardowy PTZ<br />

Kamery szybkoobrotowe są stosowane zarówno<br />

w dużych systemach monitoringu, jak<br />

i w małych obiektach lub domkach jednorodzinnych.<br />

W monitoringu miejskim to podstawowe<br />

kamery, których techniczne możliwości<br />

pozwalają operatorowi odpowiednio szybko<br />

zareagować i zmienić pole widzenia. Mniejsze<br />

instalacje, które nie posiadają 24-godzinnej<br />

obsady operatora, powinny zostać<br />

odpowiednio skonfigurowane przez instalatora.<br />

Każda kamera szybkoobrotowa ma<br />

sporo funkcjonalności – presety, skany, trasy,<br />

ścieżki, które pozwalają tak zaprogramować<br />

pole widzenia kamery, aby najdokładniej obserwować<br />

dany obszar. Jednak ich ustawienie<br />

jest czasochłonne i nie zawsze daje oczekiwane<br />

efekty. Kamera, której trasa trwa kilka minut,<br />

może nie zaobserwować miejsca, w którym<br />

doszło do interesującego nas zdarzenia.<br />

Taka sytuacja jest prawdopodobna i możliwa<br />

do wyeliminowania jedynie przy połączeniu<br />

kamery szybkoobrotowej ze stałopozycyjną<br />

o szerokim kącie widzenia, która będzie pokrywała<br />

większość planu obserwacyjnego<br />

z niewielką szczegółowością. Takie połączenie<br />

daje największe możliwości identyfikacyjne<br />

zaistniałego zdarzenia bez wykorzystania<br />

inteligentnych funkcji kamer szybkoobrotowych<br />

z funkcją śledzenia.<br />

Gdzie i co śledzić?<br />

Megapikselowa kamera szybkoobrotowa BCS-<br />

-SDIP3220I oprócz funkcji standardowych (presety,<br />

trasy, skany, ścieżki) ma również funkcję<br />

partnerzy wydania:<br />

automatycznego śledzenia poruszających<br />

się obiektów oraz inne<br />

funkcje analizy obrazu. Wykorzystanie<br />

tej funkcjonalności powinno<br />

być dokładnie uzgodnione i przedstawione<br />

inwestorowi. Funkcjonalność<br />

automatycznego śledzenia nie<br />

sprawdza się w każdych warunkach<br />

i dopiero jej odpowiednia konfiguracja<br />

po instalacji umożliwia kamerze prawidłowe<br />

działanie. Kamery BCS-SDIP3220I najlepiej<br />

sprawdzają się na parkingach i miejscach,<br />

w których ruch jest umiarkowany lub nieduży.<br />

Zbyt duże natężenie ruchu obiektów może<br />

powodować nieprawidłowe działanie funkcji<br />

analizy obrazu i przeskakiwanie kamery pomiędzy<br />

kilkoma poruszającymi się obiektami.<br />

Skonfigurowanie funkcji automatycznego<br />

śledzenia pozwala dopasować czułość śledzenia<br />

do wielkości obiektu, za którym kamera<br />

ma podążać. Start automatycznego<br />

śledzenia rozpoczyna się z zaprogramowanej<br />

wcześniej pozycji, która powinna mieć najszerszy<br />

możliwy plan. Po zakończeniu śledzenia<br />

lub w przypadku skrajnym, gdy kamera<br />

zgubi obiekt, wraca ona do pozycji startowej<br />

i pozostaje w gotowości do dalszego śledzenia.<br />

Taka funkcjonalność umożliwia obserwowanie<br />

szerokiego planu i po wykryciu ruchu<br />

zbliżenie do poruszającego się obiektu.<br />

Analiza obrazu<br />

W nieodległej przyszłości kamery stałopozycyjne<br />

BCS będą posiadały funkcję analizy<br />

obrazu. Będą to funkcje typu przekroczenie<br />

Kamery szybkoobrotowe są jednymi<br />

z najbardziej zaawansowanych urządzeń<br />

systemów monitoringu wizyjnego. Wykorzystując<br />

zdolności obrotu i zbliżenia, dają duże możliwości<br />

w wykrywaniu zagrożeń i przestępstw. Instalowane wysoko<br />

pozwalają dyskretnie obserwować, a w razie potrzeby<br />

operator może „podążać” za poruszającym się obiektem.<br />

Obserwując obrazy z kilku kamer, operator nie zawsze<br />

jest w stanie dostrzec zdarzenie i odpowiednio szybko<br />

zareagować. Dlatego czasem warto zainwestować<br />

w funkcjonalność, która wspomaga operatora<br />

niezależnie od pory dnia lub nocy.<br />

wirtualnej linii, pozostawienie obiektu, zaginięcie<br />

obiektu lub wykrycie ruchu w strefie.<br />

W obecnej ofercie taką analizę obrazu ma<br />

kamera BCS-SDIP3220I. Ustawienia funkcji są<br />

intuicyjne i łatwe do zaprogramowania i jednocześnie<br />

pozwalają zaalarmować operatora<br />

lub użytkownika systemu o zaistnieniu danej<br />

sytuacji w analizowanym obrazie. Kamera<br />

będzie mogła dodatkowo uruchomić jedno<br />

z wyjść przekaźnikowych, nagrywać obraz na<br />

wbudowanej karcie lub wysłać e-mail do administratora<br />

systemu z daną informacją.<br />

Wysoka rozdzielczość, możliwość obracania<br />

kamerą i automatyczne zbliżenie śledzonego<br />

obiektu to cechy idealnego urządzenia do implementacji<br />

w systemach telewizji dozorowej.<br />

Inteligentne funkcje analizy obrazu i automatyka<br />

pozwalają na zaprogramowanie kamery<br />

tak, aby reagowała sama i powiadamiała administratora<br />

o wykrytym zagrożeniu. <br />

1.5X


24<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Profi CCTV<br />

ul. Obornicka 276,<br />

60-693 Poznań<br />

tel: 61 842 29 62<br />

biuro@proficctv.pl<br />

www.dmaxcctv.pl<br />

www.samsungcctv.pl<br />

System telewizji dozorowej, który ma tylko<br />

i wyłącznie udostępniać oraz archiwizować obraz<br />

telewizyjny, przechodzi powoli do lamusa. Zadaniem<br />

najnowszych systemów dozorowych jest analiza obrazu<br />

w trybie rzeczywistym i w trybie post factum, czyli materiale<br />

zarchiwizowanym, umożliwiająca wyciągnięcie jak<br />

największej ilości informacji. Głównym producentem takiego<br />

rozwiązania jest fińska firma MIRASYS, która opracowała<br />

oprogramowanie MIRASYS.<br />

Zaawansowane funkcje IVA<br />

w oprogramowaniu Mirasys 7.0<br />

Oprogramowanie Mirasys działa w architekturze<br />

klient-serwer, co zapewnia duże możliwości<br />

rozbudowy systemu.<br />

Oprócz standardowych rozwiązań nagrywania<br />

i podglądu oprogramowanie to umożliwia<br />

inteligentną analizę obrazu, w której skład<br />

wchodzą:<br />

• klasyfikacja obiektów – rozpoznanie obiektu<br />

(np. pies, człowiek, samochód itd.),<br />

• zliczanie z filtrem cieni,<br />

• kierunek poruszania się,<br />

• przebywanie w strefie,<br />

• przekroczenie prędkości,<br />

• pojawianie się i znikanie,<br />

• sabotaż kamery,<br />

• tworzenie się grup,<br />

• sczytywanie tablic rejestracyjnych.<br />

W najnowszej odsłonie, którą wprowadzono<br />

na początku roku, w wersji 7.0 zostały zaimplementowane<br />

dodatkowe funkcje, takie jak<br />

wykrywanie ognia i dymu, śledzenie obiektów<br />

i możliwość wykorzystania IVA (Intelligent<br />

Video Analysis) z kamer wyposażonych w takie<br />

funkcje już przez producenta sprzętu.<br />

Ze względu na różny montaż kamer (wysokość,<br />

kąt i horyzont obserwowanej sceny) należy<br />

najpierw skonfigurować każdy kanał z osobna<br />

w celu późniejszej prawidłowej analizy danych.<br />

Zostało opracowane oprogramowanie konfiguracyjne,<br />

w którym należy zadeklarować wysokość<br />

i kąt powieszenia kamery wraz z ustawieniem<br />

horyzontu. Dla ułatwienia producent<br />

zaimplementował dwa obiekty przedstawiające<br />

zarys postaci, które umożliwiają dopasowanie<br />

i sprawdzenie poprawności ustawienia<br />

przestrzeni obserwowanego obrazu.<br />

Po prawidłowej konfiguracji system będzie<br />

mógł bez żadnego problemu rozpoznawać<br />

takie obiekty, jak samochód ciężarowy, samochód<br />

osobowy, człowiek, pies itp. Co ważne,<br />

obiekty w systemie są dowolnie programowalne,<br />

a to umożliwia użytkownikowi dodanie<br />

obiektów występujących u niego w dozorowanej<br />

przestrzeni, pozwalając niwelować<br />

fałszywe alarmy. Inteligentną analizę obrazu<br />

można powiązać z wejściami/wyjściami alarmowymi<br />

systemu bądź wygenerować pewien<br />

scenariusz, np. w czasie wykorzystania funkcji<br />

„pojawienia się” obiektu system umożliwia<br />

wygenerowanie presetu alarmowego kamery<br />

szybkoobrotowej bądź wyświetlenie obrazów<br />

z kamer znajdujących się w strefie wystąpienia<br />

alarmu. To tylko część funkcjonalności,<br />

jaką można ustawić w systemie.<br />

Wszystkie metadane, czyli informacje zbierane<br />

w czasie analizy obrazu, są przechowywane<br />

w bazie SQL. Licencje <strong>VCA</strong> nie są przypisane<br />

do konkretnej kamery, co sprawia,<br />

że istnieje możliwość migrowania tego rozwiązania<br />

na przestrzeni serwera. Może być<br />

ona wykorzystywana zarówno w najnowszej<br />

technologii IP, jak i w starszych systemach<br />

analogowych, umożliwiając ich dostosowanie<br />

do najnowszych rozwiązań. Można<br />

wykorzystać w jednej kamerze kilka funkcji<br />

<strong>VCA</strong>, np. zliczanie osób, a jednocześnie analizę<br />

kierunku poruszania się wraz z funkcją<br />

zatrzymania się obiektu, czyli przebywania<br />

w strefie niedozwolonej dłużej niż zaprogramowany<br />

czas.<br />

Często się zdarza, że dla klienta końcowego<br />

dane uzyskane z systemu <strong>VCA</strong> nie są zrozumiałe.<br />

W tym celu firma Mirasys przygotowała<br />

tzw. CARBON REPORTING, czyli oprogramowanie<br />

do raportowania graficznego. Zestawienia<br />

takie są przedstawione na wykresach<br />

kołowych czy słupkowych, z możliwością ich<br />

eksportowania do znanych rozszerzeń.<br />

Największą inwestycją, nadal realizowaną<br />

ze względu na rozrastający się system i zapotrzebowanie,<br />

jest monitoring Bangkoku.<br />

W już działającym systemie zainstalowano<br />

5000 kamer wykorzystujących inteligentną<br />

analizę obrazu. <br />

partnerzy wydania:<br />

1.5X


1.5X<br />

26<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

POLVISION<br />

ul. Witkowska 16, 51-003 Wrocław<br />

tel. 71 327 45 94; 503 081 146<br />

info@polvision.pl<br />

www.polvision.pl<br />

Zestaw<br />

do automatycznej identyfikacji<br />

tablic rejestracyjnych<br />

Od kilku lat dzielimy się wiedzą i doświadczeniem<br />

w zakresie systemów automatycznej<br />

identyfikacji numerów tablic rejestracyjnych<br />

(ANPR/LPR). Podstawowe wskazówki przekazujemy<br />

poprzez stronę internetową www.<br />

polvision.pl oraz w licznych artykułach technicznych<br />

publikowanych w prasie branżowej.<br />

W siedzibie firmy są regularnie prowadzone<br />

bezpłatne szkolenia instalatorów i integratorów<br />

w tej dziedzinie.<br />

Doświadczenie zdobywamy nie tylko w realizowanych<br />

projektach, ale także w trakcie<br />

licznych testów i eksperymentów, które prowadzimy<br />

na terenie m.in. zakładów przemysłowych,<br />

parkingów, a ostatnio również dróg<br />

krajowych i autostrad. W automatycznej identyfikacji<br />

tablic rejestracyjnych stale testujemy<br />

tam kamery analogowe, wideoserwery i kamery<br />

IP różnych producentów. Nie poprzestajemy<br />

jednak na zdobywaniu i przekazywaniu<br />

klientom know-how. Jednym z głównych celów<br />

stało się dostarczanie atrakcyjnych cenowo,<br />

uproszczonych zestawów urządzeń<br />

sprawdzonych w konkretnych aplikacjach,<br />

w których rzeczywiście osiągają wysoką skuteczność<br />

identyfikacji tablic.<br />

Specjalizowana kamera GV-LPR CAM...<br />

System automatycznej identyfikacji tablic<br />

rejestracyjnych działający skutecznie o każdej<br />

porze dnia i nocy, niekiedy w trudnych<br />

warunkach atmosferycznych, musi być wyposażony<br />

w specjalizowaną kamerę monochromatyczną<br />

dedykowaną wyłącznie<br />

do tego zadania. Obraz z takiej kamery ma<br />

niewiele wspólnego z obrazem z typowej kamery<br />

CCTV.<br />

Ustawiona bardzo szybka migawka (min.<br />

1/500), zastosowane filtry, układy przetwarzania<br />

obrazu i specyficzne oświetlacze powodują,<br />

że na obrazie widać jedynie mocno<br />

przytłumione światła reflektorów i dobrze<br />

wyeksponowaną jasną tablicę rejestracyjną.<br />

Nadrzędnym zadaniem systemu jest automatyczny<br />

odczyt numerów tablic rejestracyjnych.<br />

Jeśli odczyt ten ma być prawidłowy<br />

w każdych warunkach ruchu pojazdów, to nie<br />

może być mowy o kompromisach w postaci<br />

typowych kamer CCTV z oświetlaczem IR.<br />

Specjalizowaną i skuteczną kamerą z pewnością<br />

jest stosowana od wielu lat seria kamer<br />

analogowych GV-LPR CAM (modele 10A<br />

i 20A), które stanowią nieodłączny element<br />

pakietu opisywanego w niniejszym artykule.<br />

W artykule prezentujemy jeden z firmowanych pakietów urządzeń, które<br />

zyskały dużą popularność na rynku polskim i sprawdzają się skutecznie<br />

w następujących aplikacjach:<br />

• zarządzanie wjazdami/wyjazdami (firmy transportowe, hotele, motele,<br />

biurowce, apartamentowce, szpitale, wspólnoty mieszkaniowe, centra<br />

handlowe, lotniska, parkingi wielopoziomowe itp.);<br />

• alarmowanie o poszukiwanych pojazdach w punktach poboru opłat;<br />

• alarmowanie o pojazdach notowanych za kradzieże paliwa na stacjach<br />

benzynowych;<br />

• przekazywanie numerów rejestracyjnych do raportów statystycznych<br />

(zliczanie pojazdów, badanie miejsca zamieszkania kierowców,<br />

częstotliwości przejazdu lub parkowania itp.).<br />

Nieustannie poszukujemy tańszych odpowiedników<br />

tych konstrukcji, dotychczas<br />

niestety bez sukcesu. Zniechęca nieprofesjonalne<br />

podejście wielu producentów<br />

kamer, którzy obiecują w kartach katalogowych<br />

identyfikowanie tablic, a w praktyce<br />

często okazuje się, że poza promiennikiem<br />

podczerwieni kamery te mają niewiele<br />

wspólnego z systemami do automatycznej<br />

identyfikacji tablic. Co gorsza, specyfikacja<br />

dotycząca czułości kamery, szybkości migawki<br />

w kartach katalogowych jest fałszowana,<br />

niepełna, a fabryczna konfiguracja<br />

wielu z tych kamer uniemożliwia lub ogranicza<br />

stosowanie ich w tej roli (np. za słaba<br />

czułość i celowo wydłużony czas ekspozycji<br />

w celu ukrycia tego faktu!).<br />

Wyjaśnijmy również, dlaczego nadal zalecamy<br />

kamery analogowe zamiast powszechnie dostępnych<br />

kamer HD. Stale porównujemy obie<br />

technologie i pracujemy nad rozwiązaniami<br />

HD. Fakty są jednak takie, że kamery o niskiej<br />

rozdzielczości PAL D1, powszechnie uważane<br />

za przestarzałe, wciąż lepiej sprawdzają<br />

się w automatycznej identyfikacji tablic.<br />

Poprzez kamery HD rozumiemy typowe dostępne<br />

na rynku kamery wysokiej rozdzielczości.<br />

Instalatorzy uważają, że ze względu<br />

na wysoką rozdzielczość obrazu kamery HD<br />

powinny lepiej sprawdzać się w tej roli. Praktyka<br />

pokazuje jednak, że dzieje się tak jedynie<br />

w przypadku systemów, w których pojazd porusza<br />

się wolno lub nawet zatrzymuje w punkcie<br />

odczytu.<br />

W systemach ulicznych prędkość ruchu pojazdów<br />

powoduje, że typowe kamery HD<br />

wymagające dłuższego czasu ekspozycji<br />

(wolna migawka) niż kamery PAL D1 dostarczają<br />

obraz tablicy rozmyty, choć oczywiście<br />

jest to obraz wysokiej rozdzielczości. Jest<br />

on mało przydatny do celów automatycznej<br />

identyfikacji tablic. Zdarza się nawet, że wysokorozdzielcze<br />

kamery HD o niskiej czułości<br />

partnerzy wydania:


27<br />

Pracujemy nad kompaktowymi zestawami<br />

LPR w HD/1.3M. Porównanie obrazów HD:<br />

kamery specjalizowanej do LPR (z lewej)<br />

i typowej kamery CCTV (z prawej)<br />

Porównanie obrazów z kamer SD/D1:<br />

kamery specjalizowanej do LPR (z lewej)<br />

i typowej kamery CCTV (z prawej)<br />

dostarczają obraz nieprzydatny do identyfikacji<br />

tablic nawet przez operatora.<br />

Szansę na zmiany w tej kwestii widzimy już<br />

w najnowszej generacji (<strong>2014</strong> r.) kamerach<br />

1,3 Mpix super low lux dedykowanych do ANPR<br />

(proszę porównać na fot. powyżej jakość obrazu<br />

z tych nowoczesnych kamer HD). Pracujemy<br />

również nad nowoczesnym wideoserwerem<br />

o dużej wydajności umożliwiającej odpowiednio<br />

szybkie pozyskanie numeru rejestracyjnego<br />

z dostarczanego obrazu HD, przy jednoczesnym<br />

zachowaniu innych istotnych cech urządzenia,<br />

takich jak kompaktowy rozmiar i wysoki<br />

poziom bezawaryjności. Rezultaty tych działań<br />

z pewnością będą dostępne jeszcze w tym roku.<br />

Na razie skupmy się na sprawdzonych od lat<br />

rozwiązaniach, czyli kamerach analogowych:<br />

GV-LPR CAM 10A dedykowanej na parkingi<br />

i GV-LPR CAM 20A przeznaczonej do stosowania<br />

w ruchu ulicznym.<br />

…plus miniwideoserwer GV-DSP LPR<br />

Drugą połowę proponowanego przez nas<br />

zestawu stanowi miniaturowy wideoserwer<br />

GV-DSP LPR, który po wykryciu ruchu lub sygnału<br />

z czujnika bezzwłocznie analizuje obraz<br />

z kamery analogowej w punkcie odczytu,<br />

a uzyskany numer rejestracyjny i zdjęcie<br />

JPG zapisuje na karcie SDHC. Na tej samej<br />

karcie może być przechowywana baza zarejestrowanych<br />

numerów, np. dopuszczonych do<br />

wjazdu/wyjazdu lub poszukiwanych.<br />

Jeżeli dany numer jest zarejestrowany na karcie<br />

SDHC, miniwideoserwer GV-DSP LPR może<br />

podejmować inne akcje, zwykle związane ze<br />

sterowaniem poprzez przekaźnik urządzeniami<br />

zewnętrznymi, np. szlabanem, sygnalizatorem,<br />

bramą itp.<br />

Istotną zaletą jest to, że miniwideoserwer<br />

samodzielnie i automatycznie wykonuje<br />

zaprogramowane akcje, bez konieczności<br />

komunikacji z siecią IP, czyli bez wspomagania<br />

ze strony komputerów i serwerów.<br />

Kompaktowy zestaw<br />

do identyfikacji tablic:<br />

kamera GV-LPR CAM<br />

i miniwideoserwer GV-DSP LPR<br />

Rozszerzenie zestawu:<br />

bezpłatne oprogramowanie<br />

bazodanowe GV-ASManager<br />

GV-ASManager (wraz z dodatkami GV-ASRemote<br />

i GV-ASWeb) to pakiet bezpłatnego,<br />

zaawansowanego sieciowego oprogramowania<br />

do centralnego monitorowania<br />

wielu serwerów wykonujących automatyczną<br />

identyfikację tablic rejestracyjnych i zarządzania<br />

nimi. Można je instalować na serwerach,<br />

stacjach roboczych i laptopach<br />

operatorów. Umożliwia ono wprowadzenie<br />

do bazy danych 40 tys. pojazdów oraz 10 tys.<br />

użytkowników.<br />

Zawiera wbudowany serwer WWW umożliwiający<br />

wielu operatorom pełne zdalne zarządzanie<br />

rozbudowanym i rozproszonym<br />

systemem za pomocą przeglądarki internetowej<br />

i łatwego w obsłudze interfejsu w języku<br />

polskim (w tym m.in. zdalną konfigurację urządzeń<br />

do identyfikacji tablic, edycję baz danych<br />

pojazdów, kierowców i ich uprawnień, wyszukiwanie<br />

pojazdów wraz z przeglądaniem zdjęć<br />

i odtwarzaniem nagrań wideo).<br />

Bazy danych są przechowywane w łatwych do<br />

przetwarzania standardach ODBC (Microsoft<br />

Access, Microsoft SQL, MySQL). Dostępne są<br />

funkcje importowania baz danych ze źródeł<br />

ODBC oraz plików w standardach Microsoft<br />

Excel i Microsoft Access, a także eksportowania<br />

baz danych do plików w standardach Microsoft<br />

Excel, TXT i HTML, natomiast zdjęcia pojazdów<br />

są archiwizowane w formacie JPEG. <br />

Zestaw składa się jedynie z kamery<br />

analogowej i chłodzonego pasywnie<br />

miniaturowego wideoserwera IP, co<br />

gwarantuje bardzo niski poziom awaryjności,<br />

a także niskie koszty instalacji<br />

oraz obsługi tak uproszczonego systemu<br />

identyfikacji tablic rejestracyjnych.<br />

Szeroki zakres temperatury pracy od<br />

-20 do +60°C, niewielkie wymiary wideoserwera<br />

123 x 106 x 25 mm i masa<br />

0,345 kg umożliwiają instalację zestawu<br />

praktycznie w każdej lokalizacji.<br />

Uproszczone zestawy do identyfikacji<br />

tablic rejestracyjnych można rozszerzać,<br />

np. o funkcje przekazywania numerów<br />

w formie tekstowej przewodem<br />

RS232 i funkcje komunikacji ze stacjami<br />

monitorowania poprzez sieć IP o bardzo<br />

niskiej przepustowości (np. GPRS).<br />

Stacje monitorowania można budować<br />

zarówno z wykorzystaniem bezpłatnego<br />

oprogramowania GV-ASManager,<br />

jak i pakietu SDK pracującego pod kontrolą<br />

systemu operacyjnego Windows.<br />

Ponadto skrypty Java dostarczone<br />

przez firmę Polvision umożliwiają integrację<br />

własnego oprogramowania<br />

pracującego pod kontrolą dowolnych<br />

systemów operacyjnych.<br />

partnerzy wydania:


28<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Paweł Kozłowski<br />

AirLive Polska<br />

www.airlive.com<br />

pawel.kozlowski@airlive.com<br />

Analizuj swój biznes<br />

z kamerami AirLive IVS<br />

AirLive przedstawia<br />

nowe kamery z funkcją liczenia<br />

obiektów – modele MD-3025-IVS i BU-3026-IVS<br />

oraz zastosowany w nich System IVS (Intelligent<br />

Video Surveillance), czyli inteligentny dozór wideo.<br />

MD-3225 IVS<br />

BU-3026 IVS<br />

Liczne funkcje dostępne we wbudowanym<br />

oprogramowaniu pozwalają ograniczyć liczbę<br />

osób zaangażowanych w monitoring,<br />

czyli zautomatyzować wiele kosztownych<br />

procesów. IVS jest doskonałym rozwiązaniem<br />

do zastosowań biznesowych i w miejscach<br />

publicznych – podczas imprez masowych,<br />

w centrach handlowych, sklepach detalicznych,<br />

fabrykach, na stadionach, parkingach,<br />

stacjach kolejowych, autostradach i drogach.<br />

Analiza danych i uruchomienie ewentualnego<br />

alarmu lub zdefiniowanego działania zajmuje<br />

kamerom z IVS tylko kilka sekund.<br />

Podstawowe funkcje kamer<br />

z systemem IVS<br />

• Liczenie obiektów<br />

Jedną z przydatnych funkcji IVS (inteligentny<br />

dozór wideo) w kamerach IP jest liczenie<br />

obiektów, takich jak samochody, piesi lub<br />

inne dowolnej wielkości. Po przekroczeniu<br />

określonej ich liczby kamery wyposażone<br />

w IVS są w stanie uruchomić alarm lub powiadomienie,<br />

a także zapisać zebrane dane do<br />

bazy danych w celu późniejszej analizy.<br />

partnerzy wydania:<br />

Dane z bazy mogą zostać wykorzystane do planowania<br />

i usprawniania sprzedaży, np. dzięki<br />

analizie liczby klientów przy wejściu do sklepu.<br />

Podstawą działania funkcji liczenia obiektów<br />

jest przekraczanie przez liczone obiekty<br />

wcześniej ustalonej granicy lub strefy. Strefa<br />

nie musi być fizycznym obszarem, jest ona<br />

definiowana w ustawieniach kamery. W przypadku<br />

liczenia osób strefą może być korytarz,<br />

przedpokój lub drzwi wejściowe. Gdy liczy się<br />

samochody, jako strefę można ustawić skrzyżowanie,<br />

dowolny punkt wzdłuż autostrady<br />

lub bramę wjazdową.<br />

• Wykrywanie twarzy<br />

Funkcja wykrywania twarzy wymaga dużej<br />

dokładności w przypadku miejsc, gdzie przebywa<br />

wiele osób. Oprogramowanie IVS jest<br />

w stanie policzyć twarze na obrazie i je podświetlić,<br />

co ułatwi znalezienie konkretnej twarzy<br />

w każdych warunkach.<br />

• Rozpoznawanie twarzy<br />

Kamery umożliwiają zapisanie zdjęć twarzy<br />

w pamięci, więc gdy wykryje twarz, która nie<br />

jest zapisana w bazie danych, uruchomi alarm<br />

(lub inne urządzenie zewnętrzne).<br />

• e-Fence<br />

Funkcja e-Fence to wirtualny płot nakładany na<br />

obraz z kamery zastosowanej do monitorowania<br />

domu. Kiedy intruz przekroczy wcześniej<br />

zdefiniowaną linię, kamera automatycznie wyśle<br />

odpowiedni e-mail lub uruchomi alarm.<br />

• i-Motion<br />

Funkcja i-Motion oferuje 4 strefy detekcji do<br />

ochrony obiektów i wykrywania intruzów.<br />

To funkcja dokładniejsza od tradycyjnego<br />

wykrywania ruchu. Może być ona wywołana<br />

przez takie obiekty, jak ludzie i samochody –<br />

zamiast zmian pikseli w obrazie.<br />

• Trip Zone<br />

Ta funkcja może być stosowana do wykrywania<br />

obiektów poruszających się z jednej strefy do<br />

drugiej, umożliwia też wykrywanie obiektów<br />

poruszających się w niewłaściwym kierunku.<br />

Alarm może być wywołany po przekroczeniu<br />

określonego przedziału czasu lub liczby obiektów.<br />

Unikatowy regulowany obszar detekcji<br />

zapewnia dokładniejsze wykrywanie.<br />

Zobacz, jak działają kamery IVS:<br />

Securex <strong>2014</strong>, hala 7A, stoisko 49<br />

1.5X


29<br />

OG Poland<br />

Al. Ujazdowskie 24 lok. 37; 00-478 Warszawa<br />

tel. 795 516 484<br />

info@oncamgrandeye.pl<br />

www. oncamgrandeye.pl<br />

Oncam Grandeye<br />

system inteligentnej analizy<br />

Firma Oncam Grandeye wprowadziła na<br />

rynek innowacyjne 5-megapikselowe kamery<br />

IP 360°. W połączeniu z opatentowaną technologią<br />

korekcji krzywizn obrazu pochodzącego z obiektywu<br />

„rybie oko” są one jednym z najdoskonalszych<br />

urządzeń w swojej klasie.<br />

Technologia chroniona 35 patentami zapewnia ciągły<br />

dozór 360°, umożliwiając wyeliminowanie martwych<br />

punktów i uzyskanie pełnej kontroli sytuacji.<br />

Podgląd z kamery jest możliwy w przeglądarce<br />

systemu Windows oraz na urządzeniach<br />

mobilnych dzięki aplikacji OnVu360.<br />

Kamery Oncam Grandeye IP 360° mają funkcje<br />

inteligentnej analizy obrazu (IVA). Zasady<br />

ich działania przybliża Paul Such, wicedyrektor<br />

ds. sprzedaży na obszar Wielkiej Brytanii<br />

i Unii Europejskiej Oncam Grandeye, mający<br />

ponaddwudziestoletnie doświadczenie<br />

w sektorze zabezpieczania IP oraz CCTV.<br />

Co oznacza określenie Retail Loss Prevention<br />

Solution często używane przez Oncam<br />

Grandeye?<br />

Najprościej mówiąc, Retail Loss Prevention<br />

Solution to wykorzystywanie inteligentnej<br />

technologii analitycznej w połączeniu<br />

z 360-stopniowymi obrazami wideo generowanymi<br />

przez kamery Oncam Grandeye<br />

w celu wykrycia nieuczciwych zachowań<br />

klientów i pracowników.<br />

Nasza technologia dostarcza inteligentnych<br />

funkcji wideo, takich jak zliczanie ludzi, analizę<br />

ścieżki klientów oraz ich przebywania<br />

w danych strefach. Te dane wraz z informacjami<br />

o sprzedaży dostarczają bezcennych i dotychczas<br />

niemożliwych do uzyskania danych<br />

statystycznych i biznesowych.<br />

Jakiego rodzaju statystki otrzymuje klient<br />

i gdzie może je wykorzystać?<br />

Zliczanie osób daje informacje dotyczące<br />

przemieszczania się klientów. Pracownicy<br />

marketingu otrzymują ważne dane do podejmowania<br />

skutecznych decyzji biznesowych.<br />

Funkcja analizy ścieżek identyfikuje i raportuje<br />

modele ruchu w obiekcie. Pozwala dokładnie<br />

poznać i wskazać kluczowe miejsca odwiedzane<br />

przez klientów. System rejestruje zdarzenia,<br />

których analiza umożliwia pracownikom marketingu<br />

podejmowanie skutecznych decyzji<br />

biznesowych. Ponadto identyfikuje i raportuje,<br />

gdzie i na jak długo ludzie zatrzymują się w<br />

obiekcie. Dzięki temu obiekty odnotowują nie<br />

tylko wzrost bezpieczeństwa, ale także obniżenie<br />

kosztów. Również dzięki tej technologii<br />

na podstawie dostarczanych danych można<br />

zwiększyć sprzedaż i zoptymalizować działania<br />

z korzyścią dla firm.<br />

Czym jest technologia OG Gateway Intelligent<br />

Video System i co dostarcza?<br />

Obecnie do inteligentnej analizy obrazu wykorzystujemy<br />

algorytm ClickIt’s Smart Analytics.<br />

W najbliższym czasie wprowadzimy na<br />

rynek OG Gateway. Technologia ta pogłębi<br />

integrację, umożliwiając połączenie obrazów<br />

wideo i danych analitycznych w ramach innych<br />

systemów detalicznych (takich jak POS).<br />

Zapewni to aktualizację w czasie rzeczywistym<br />

i w formie sprawozdań dotyczących informacji<br />

marketingowych, a także przyczyni<br />

się do zapobiegania stratom. OG Gateway jest<br />

obecnie w fazie testów beta.<br />

Jak przebiega archiwizacja takiego materiału<br />

wideo i analiz?<br />

Archiwizacja zapisu wideo odbywa się na poziomie<br />

lokalnym w ramach bezpieczeństwa<br />

informacji CCTV – analityczne informacje biznesowe<br />

mają być przechowywane i zarządzane<br />

w centralnym serwerze BI.<br />

Kto korzysta z Systemu Inteligentnej Analizy<br />

Oncam Grandeye?<br />

Dotychczas wdrożyliśmy system w sektorze<br />

handlu detalicznego (odzież, sprzęty), sieciach<br />

franczyzowych oraz bankowości detalicznej.<br />

Nasi klienci są bardzo zadowoleni<br />

– sądząc po danych ze sprzedaży oraz dotyczących<br />

zapobiegania stratom, rozwiązania<br />

analityczne zapewniły wysoki zwrot z inwestycji.<br />

Niestety, nie możemy ujawnić dokładnych<br />

danych na temat klientów.<br />

Jakie plany posiada Oncam Grandeye<br />

związane z rozwojem technologii inteligentnej<br />

analizy obrazu?<br />

Planujemy rozszerzenie zastosowania naszych<br />

produktów, a także zwiększenie poziomu<br />

integracji z istniejącymi systemami oraz<br />

nowymi, nowatorskimi zastosowaniami i produktami<br />

w celu zapewnienia bezproblemowej<br />

ścieżki integracji materiałów wizyjnych<br />

z analityką.<br />

Oncam Grandeye zaprezentuje swoją technologię<br />

360 stopni na Targach Securex w Poznaniu<br />

w dniach 8-11.04.<strong>2014</strong>. Zapraszamy do<br />

odwiedzenia stoiska nr 54 w pawilonie 8A oraz<br />

na konferencję, która odbędzie się 10 kwietnia<br />

w godz. 12-14 w pawilonie nr 7, sala 1E. <br />

partnerzy wydania:


30<br />

<strong>wydanie</strong> <strong>specjalne</strong><br />

video content analysis<br />

Top-Key<br />

ul. Mściwoja II 8, 80-384 Gdańsk<br />

tel. 585561054<br />

fax 585531129<br />

biuro@topkey.pl www.topkey.pl<br />

Firma Top-Key działa na rynku<br />

zabezpieczeń teletechnicznych<br />

od 1991 r. Przez lata praktyki w tej<br />

dynamicznie rozwijającej się branży<br />

poszerzyła swoją ofertę o produkty<br />

oparte na inteligentnej analizie<br />

obrazu, które teraz stanowią trzon<br />

oferty firmy.<br />

Zaawansowana analityka<br />

Top-Key<br />

Top-Key w swoich projektach wykorzystuje<br />

szeroką gamę kamer, takich jak kamery CCTV,<br />

termowizyjne, 3D, dedykowane do ANPR, które<br />

dobiera się indywidualnie do potrzeb klientów.<br />

Kamery firmy Axis, z którą Top-Key współpracuje<br />

od wielu lat, umożliwiają nie tylko<br />

dozór wizyjny, ale także wiele innych funkcji.<br />

Główną i budzącą największe zainteresowanie<br />

opcją jest wykorzystanie kamer w systemach<br />

analitycznych pod marką Global2G – dzięki<br />

zdalnie ustalonej konfiguracji możliwe jest<br />

dostosowanie systemu do niestandardowych<br />

obszarów działania objętych analizą, łączenie<br />

obrazu z wielu kamer w celu uzyskania bardzo<br />

wysokiej dokładności analizy, jak również definiowanie<br />

stref zainteresowań oraz dynamiczne<br />

tworzenie makr.<br />

Ponadto kamery rozpoznają ruchome elementy<br />

inne niż ludzie, np. wózki, i rozróżniają<br />

wzrost poruszających się osób (np. odróżniają<br />

dzieci od dorosłych). W połączeniu z oprogramowaniem<br />

typu GlobalQueue potrafią rozróżniać<br />

pewne wzorce ruchu klientów, z łatwością<br />

określają miejsce tworzenia się kolejek i ich<br />

długość. Dodany do tego interfejs raportujący<br />

powiadamia w razie potrzeby odpowiednich<br />

pracowników, usprawniając obsługę klientów<br />

w placówkach handlowych.<br />

Jednym z najnowszych rozwiązań jest moduł<br />

rozpoznający zarówno płeć i wiek, jak i emocje<br />

osoby będącej w zasięgu kamery. Pozwalają<br />

zweryfikować nastrój klienta w odniesieniu<br />

do wystroju witryny, sklepu, obsługi oraz<br />

wielu innych czynników, które wpływają na<br />

wyniki biznesowe placówek handlowych.<br />

Systemy oparte na kamerach Axis tworzą<br />

ponadto takie narzędzia, jak systemy parkingowe<br />

– liczenie samochodów na parkingach<br />

i określanie ich rozmieszczenia na przestrzeni<br />

parkingowej. Zintegrowanie systemów w obrębie<br />

rodziny produktów Global umożliwia<br />

korelację danych z systemu parkingowego<br />

i systemu liczenia klientów, co daje nowe<br />

możliwości badania i analizowania danych<br />

również w trybie online. Uzupełnieniem systemu<br />

parkingowego jest system ANPR, który<br />

rozpoznaje tablice rejestracyjne. Na podstawie<br />

bazy danych pozwala określić miejsce pochodzenia<br />

samochodu (gmina, kraj), tworzyć<br />

tzw. czarną listę tablic rejestracyjnych, a także<br />

czas postoju samochodu, a co za tym idzie<br />

pobytu indywidualnych klientów, np. w centrum<br />

handlowym.<br />

Innym narzędziem niezwykle przydatnym<br />

w obiektach handlowych lub w wielkopowierzchniowych<br />

magazynach jest system<br />

GlobalEye, który dzięki widokowi z kilku kamer<br />

wykrywa luki w ekspozycji czy też w ułożeniu<br />

towarów na półkach i witrynach.<br />

Kamery mają też inne zastosowania – nie tylko<br />

w handlu, ale i w przestrzeniach publicznych.<br />

Dzięki aplikacji HeatMap zainstalowanej<br />

bezpośrednio w kamerach są tworzone mapy<br />

natężenia ruchu w wybranych obszarach. To<br />

nieocenione narzędzie w połączeniu z innymi<br />

programami grupy Global pozwala na analizę<br />

nie tylko ilościową, ale również obszarową<br />

wykorzystania przestrzeni.<br />

Jedną z najistotniejszych zalet opisywanych<br />

technologii analizy obrazu jest możliwość<br />

instalacji aplikacji bezpośrednio w kamerach,<br />

co obniża koszty takiej instalacji (nie ma potrzeby<br />

instalowania dodatkowych serwerów<br />

lub rejestratorów).<br />

Dzięki ujednoliceniu systemu obsługującego<br />

aplikacje i kamery istnieje możliwość prostego<br />

i kompleksowego pozyskiwania danych, które<br />

niejednokrotnie dają dokładniejsze informacje<br />

po ich zestawieniu we wspólnym ujęciu.<br />

Jednym z najważniejszych elementów wyróżniających<br />

zaprezentowane rozwiązanie<br />

od dostępnych na rynku jest jego komplementarność.<br />

Klient końcowy, oprócz dedykowanego<br />

oprogramowania zainstalowanego<br />

w kamerze, otrzymuje dostęp do systemu<br />

internetowego, który gromadzi i przetwarza<br />

dane z wielu systemów. Korelując dane analityczne<br />

z danymi sprzedażowymi, dostarczają<br />

pełne i spójne raporty funkcjonowania sieci<br />

sklepów lub centrów handlowych. Funkcjonalność<br />

związana z analizą danych (Business<br />

Intelligence) oraz generowaniem i dystrybuowaniem<br />

raportów jest równie ważna, jak dostarczenie<br />

rzetelnych danych analitycznych,<br />

gdyż połączenie obu zmiennych pozwala<br />

dostarczyć w pełni komplementarny system<br />

dla zarządcy czy właścicieli placówek handlowych,<br />

banków oraz przestrzeni publicznych,<br />

takich jak muzea, biblioteki, wystawy.<br />

Kamery z funkcją inteligentnej analizy obrazu<br />

mają wiele innych możliwości, które firma<br />

Top-Key odkrywa i oferuje w nowych i bardziej<br />

innowacyjnych rozwiązaniach. <br />

partnerzy wydania:<br />

1.5X

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!