12.07.2015 Views

Metody i aparatura do badania parametrów powierzchni przy ...

Metody i aparatura do badania parametrów powierzchni przy ...

Metody i aparatura do badania parametrów powierzchni przy ...

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

ROK XXXVI1/2011(14)TECHNOLOGIE INFORMACYJNEBIOMETRIA, ROBOTYKA,KRYPTOGRAFIA, METROLOGIA


<strong>Metody</strong> i <strong>aparatura</strong> <strong>do</strong> <strong>badania</strong> parametrów <strong>powierzchni</strong><strong>przy</strong> wykorzystaniu zjawiska rozpraszania światładr inż. ROMUALD SYNAK, mgr inż. JAN RYŻKOInstytut Maszyn Matematycznych, WarszawaZjawisko rozpraszanie światła jest już od <strong>do</strong>ść dawna wykorzystywane <strong>do</strong> pomiarówchropowatości i innych parametrów <strong>powierzchni</strong>, np. reflektancji. Na rozwój meto<strong>do</strong>partych na tym zjawisku wpłynęły takie ich cechy, jak bezstykowy sposób pomiaru,możliwość pomiaru nawet skrajnie małych wysokości nierówności, mały czaspomiaru. Zalety te sprawiają, że metody rozproszeniowe (nazywane teżskaterometrycznymi) znajdują liczne zastosowania w dziedzinach zaliczanych <strong>do</strong>tzw. wysokiej technologii. W elektronice są wykorzystywane w <strong>badania</strong>ch i kontrolipodłożowych płytek krzemowych, warstw cienkich, dysków magnetycznych, podłożyszklanych i ceramicznych itp. [3, 7, 9, 10], a w optyce w ocenie zwierciadeł,soczewek i innych podzespołów [2, 4, 10]. Również w pomiarach <strong>powierzchni</strong> bardzogładkich elementów mechanicznych, np. płytek wzorcowych metody rozproszeniowemogą być korzystniejsze niż standar<strong>do</strong>we (warsztatowe) profilometry stykowe zewzględu na ich niewystarczającą wtedy rozdzielczość. Bezstykowy sposób pomiarumoże też być cenną zaletą, gdy chodzi o kontrolę elementów w czasie ich ruchu.<strong>Metody</strong> pomiaroweObszerne omówienie różnych metod pomiarowych <strong>powierzchni</strong> można znaleźć wpracach [4,5]. Przy wykorzystaniu zjawiska rozpraszania najczęściej stosowane sąmetody reflektometryczne (odbiciowe), integracyjne i różniczkowe [6].Przy metodach reflektometrycznych <strong>do</strong> obliczania wysokości nierówności<strong>powierzchni</strong> wykorzystuje się zależność między odchyleniem standar<strong>do</strong>wym tejwysokości a stosunkiem reflektancji zwierciadlanej R s <strong>do</strong> reflektancji całkowitej R o :4cosiR s /R o = exp [ - ( ) 2 ] (1)gdzie R s jest stosunkiem mocy wiązki odbitej P s <strong>do</strong> mocy wiązki padającej P i , R o –sumą reflektancji odbitej i dyfuzyjnej R o =P d /P i, i – kątem padania, a - długością fali.Zależność tę można stosować zakładając, że jest znacznie mniejsze, a odstępymiędzy nierównościami znacznie większe od . Stosując tę metodę mierzymy mocwiązki odbitej, a także moc wiązki rozproszonej w jednym, lub kilku kierunkach.Z metodami reflektometrycznymi związane są ściśle metody integracyjne, <strong>przy</strong>których mierzymy całkowitą moc promieniowania rozpraszanego we wszystkichkierunkach. W języku angielskim stosuje się tu określenie total integrated scatter (lubscattering) i oznacza się symbolem TIS=R d /R s czyli stosunek reflektancji dyfuzyjnej<strong>do</strong> zwierciadlanej [10]. Wówczas TIS4cos (2)iDla przeprowadzenia tego pomiaru wykorzystuje się specjalne układy jak półkulistezwierciadło wklęsłe zwane zwierciadłem Coblentza [3], kulę całkującą (nazywaną teżkulą Ulbrichta), której wnętrze pokryte jest materiałem rozpraszającym [10], lub innerozwiązania jak np. zintegrowaną głowicę pomiarową [12].1


Z kolei metody różniczkowe, zwane też ARS od angle-resolved-scatter, wymagająpomiaru rozkładu kątowego mocy promienistej światła rozproszonego. Jeśli pomiaru<strong>do</strong>konujemy tylko w płaszczyźnie padania światła, to rozkład ten będzie funkcjąjednej zmiennej, zwykle kąta rozproszenia d dając tzw. indykatrysę rozproszenia.Jeśli wyznaczymy rozkład przestrzennie, będzie on także funkcją azymutalnego kątarozproszenia i wówczas uzyskamy rozkłady oznaczone symbolami BRDF(bidirectional reflectance distribution function - dwukierunkowa funkcja rozkładureflektancji) lub BSDF (bidirectional scatter distribution function – dwukierunkowafunkcja rozkładu rozproszenia). Ta pierwsza została określona [8] jako stosunekmocy zawartej w elementarnym kącie bryłowym <strong>do</strong> mocy promienistej padającej najednostkę <strong>powierzchni</strong>BRDF =1642cos icosQS(f x ,f y ) (3)dgdzie d – kąt rozproszenia, Q – bezwymiarowy czynnik zależny od azymutalnegokąta rozproszenia , uwzględniający także polaryzację światła padającego i optycznewłaściwości <strong>powierzchni</strong>, S(f x ,f y ) – dwuwymiarowa funkcja gęstości widmowejnierówności <strong>powierzchni</strong> odbijającej, a f x , f y – częstości przestrzenne nierówności.Opisane metody różniczkowe są stosowane <strong>do</strong> bardzo małych nierówności<strong>powierzchni</strong>. Można je również stosować <strong>do</strong> większych nierówności co jednakwymaga kalibracji urządzeń pomiarowych <strong>przy</strong> wykorzystaniu odpowiednichwzorców. Rozkład natężenia światła rozproszonego mierzy się często metodągoniometryczną lub za pomocą linijek fotodetektorów, z których sygnały sąanalizowane za pomocą komputera, a wyniki przedstawiane w postaci indykatrysyrozproszenia.Oprócz wyżej stosowanych metod stosowane są jeszcze metody wykorzystująceoptyczne przekształcenie Fouriera. Tu również określa się rozkład kątowy światłarozproszonego, ale rejestracji <strong>do</strong>konuje się tylko w niewielkim zakresie kątówrozproszenia. Przekształcenie Fouriera może być realizowane za pomocąspecjalnych soczewek, by odległość obiektu od obszaru Fraunhofera nie była zbytduża. Zaletą jest tu nieznaczny wpływ ruchu <strong>powierzchni</strong> na postać i położenieobszaru dyfrakcyjnego.AparaturaObecnie najczęściej stosowane są metody integracyjne i różniczkowe. Dlategoograniczymy się <strong>do</strong> pokazania kilku urządzeń pomiarowych działających tymimetodami na <strong>przy</strong>kładach firm z USA: Schmitt Measurement Systems Inc. (SMS) [14]i PerkinElmer [13]. Pierwsza z nich, mająca swą siedzibę w Portland, stan Oregon,ma w swym katalogu całą gamę systemów zarówno uniwersalnych jak iprzeznaczonych <strong>do</strong> określonych zastosowań.Urządzenia wykorzystujące metody integracyjne2


Na rys. 1. [14] pokazane jesturządzenie TMS-2000RC, którewykorzystywane jest przezproducentów twardych dyskówkomputerowych <strong>do</strong> pomiarówchropowatości ich <strong>powierzchni</strong>.Jako źródło światła stosowanyjest tu laser o długości fali 670nm. Pozwala ono określaćśrednią wysokość nierównościRa lub odchylenie standar<strong>do</strong>wenierówności <strong>powierzchni</strong> , atakże reflektancje: zwierciadlaną,dyfuzyjną i całkowitą, orazparametr TIS. Dokonuje 100pomiarów na sekundę. Dokładność<strong>przy</strong> obrocie wynosi 0,05stopnia, a <strong>przy</strong> przesuwie 0,03mm. Firma SMS twierdzi, żezastosowanie tego urządzeniapozwala na 4-krotne zwiększeniewydajności <strong>przy</strong> produkcjidysków.Następną grupą <strong>przy</strong>rządów specjalizowanych są urządzenia TMS 2000W-RC iTMS 3000W-RC przeznaczone <strong>do</strong> kontroli produkcji płytek krzemowych. Jużwcześniej [7, 9] zwracano uwagę na <strong>przy</strong>datność tego rodzaju urządzeńpomiarowych w tych zastosowaniach. Większość ich parametrów jest zbliżona <strong>do</strong>tych, jakie podano wyżej dla TMS-2000RC. Drugie z wymienionych urządzeń jestpokazane na rys. 2. [14] Jest interesującym, że przednia strona tych płytekkontrolowana jest dla znaczniemniejszych nierówności<strong>powierzchni</strong> (średnio około0,3nm), aniżeli strona tylna –około 9nm.3


Kule integracyjne (Ulbrichta)wykorzystywane są równieżw systemach pomiarowychfirmy Perkin-Elmer [13]wraz z spektrofotometramiLAMBDA 650 i 850 UV/Visoraz LAMBDA 950UV/Vis/NIR. Stanowią onebardzo wszechstronne wyposażenie<strong>do</strong> precyzyjnychpomiarów reflektancji i transmitancjizarówno ciał stałychjak i cieczy i mogą byćwykorzystywane <strong>do</strong> pomiarów<strong>przy</strong> kontroli jakości iopracowywania nowych wyrobów(tkanin, barwników,papieru i szkła). Uniwersalnezestawy pomiarowe tej firmy składają się z szeregu wy-miennych modułów, co pozwalana szybkie <strong>do</strong>stosowa-nie zestawu <strong>do</strong> rodzaju prze-prowadzanych pomiarów, atakże wielkości mierzonych próbek. Na <strong>przy</strong>kład kule integracyjne mogą miećśrednicę 60 lub 150 mm. Rys 3 pokazuje taki zestaw pomiarowy.Przyrządy wykorzystujące metody różniczkowePrzedstawimy tu dwa urządzenia tego rodzaju, oba oferowane przez SchmittMeasurement Systems, ale znacznie różniące się rodzajem <strong>przy</strong>rządu. Pierwszy znich to pokazany na rys. 4. skaterometr CASI (Complete Angle Scatter Instrument –4


instrument mierzący rozproszenie pod wszystkimi kątami) [14] wykorzystującypromieniowanie laserowe od ultrafioletu (0,325 m) <strong>do</strong> podczerwieni (10,6 m).Próbka jest mocowana w uchwycie, który może przesuwać się wzdłuż osi x i y , atakże obracać się, <strong>przy</strong> czym kątowa <strong>do</strong>kładność ustawienia wynosi 0,05 stopnia, aliniowa 0,01 mm.Kąt padania może zmieniać się od 0 <strong>do</strong> 85 stopni. Detektor przesuwa się <strong>do</strong>kołapróbki w płaszczyźnie padania światła mierząc światło rozproszone i odbite. Wczasie <strong>badania</strong> komputer steruje zmianami wzmocnienia, filtrowania i apertury wsposób określony przez użytkownika. Oprogramowanie ułatwia analizę danychrozproszenia. Mierzone są wspomniane funkcje BRDF i BSDF, a także funkcjarozkładu transmitancji BTDF, co pozwala na obliczenie TIS, THR (TotalSemispherical Reflectance – całkowitej reflektacji półkulistej), PSD i średniąkwadratową wysokość nierówności. Wyniki mogą być drukowane w żądanej postaci.Zwraca uwagę bardzo wysoka rozdzielczość – 0,001stopnia.Zupełnie inną klasę <strong>przy</strong>rządów reprezentuje podręczne urządzenie <strong>do</strong> pomiarunierówności <strong>powierzchni</strong> i rozproszenia noszące nazwę Scan (Rys. 5) [14], któreskłada się z jednostki sterującej,wymiennej głowicy pomiarowej i oddzielnejjednostki zasilającej. Głowicętę umieszcza się na <strong>powierzchni</strong> mierzoneji inicjuje pomiar <strong>przy</strong> pomocy<strong>przy</strong>cisku. Każdy pomiar trwa mniej niż5 sekund. Wynik jest wyświetlany izapamiętany (pamięć systemu możeprzechować <strong>do</strong> 700 wyników). Z pojedynczegopomiaru użytkownik możeokreślić chropowatość <strong>powierzchni</strong> (wzakresie 1-100 nm), reflektancję ipoziom rozproszonego promieniowania(BRDF) w <strong>do</strong>wolnych warunkachoświetlenia. Dokładność pomiarureflektancji wynosi 2%, a rozproszenia– 3%. Przyrząd ten może służyć <strong>do</strong>różnych zastosowań...Aparatura opracowana w krajuUrządzenia działające na zasadzie pomiaru parametru TISPrace nad aparaturą <strong>do</strong> pomiaru chropowatości metodą integracyjną podjęto <strong>do</strong>śćwcześnie m.in. w Centralnym Ośrodku Aparatury Badawczej i Dydaktycznej oraz wInstytucie Konstrukcji Przyrządów Optycznych i Precyzyjnych (obecnie InstytutMikromechaniki i Fotoniki) Politechniki Warszawskiej. Opracowano zestawpomiarowy zawierający kulę Ulbrichta o średnicy 28 cm, a jako źródło światła laserHe-Ne o mocy wiązki światła 10 mW. Badane próbki materiałów były umieszczane5


na stoliku przesuwnym sterowanym za pomocą komputera. Zakres pomiarowyśredniego kwadratowego odchylenia wysokości nierówności wynosił 0,5 - 10 nm.Po<strong>do</strong>bny zestaw wykorzystujący analogiczną kulę o po<strong>do</strong>bnym zakresiepomiarowym został zbu<strong>do</strong>wany również w Katedrze Inżynierii Produkcji PolitechnikiKoszalińskiej (rys. 6)Rys. 6. Aparatura <strong>do</strong> pomiaru TIS z kulą integracyjną (Politechnika Koszalińska)Fig. 6. Equipment for measurement TIS parameter with integrating spheres(Koszalin University of Technology)Udaną próbę stworzenia nowego typu głowicy pomiarowej TIS podjęto w InstytucieMaszyn Matematycznych w Warszawie [12]. Głowica stanowi samodzielny zespółzawierający nie tylko elementy optyczne, ale również laser półprzewodnikowy iukłady elektroniczne. Odznacza się ona małymi rozmiarami, co jest wi<strong>do</strong>czne naponiższym zdjęciu (rys. 7). Może być zamontowana w uchwycie umożliwiającym jejpozycjonowanie (skanowanie) względem <strong>powierzchni</strong> mierzonej. Razem z modułemsterującym tworzy <strong>przy</strong>rząd p.n. Skaterometr Laserowy SL 31 o bogatych funkcjachwyboru trybu pomiaru, gromadzenia danych i połączenia z urządzeniamizewnętrznymi [11].Rys. 7. Skaterometr SL 31 opracowany w Instytucie Maszyn MatematycznychFig. 7. SL-31 scatterometer developed in Institute of Mathematical Machines6


Przyrząd jest <strong>przy</strong>stosowany głównie <strong>do</strong> pomiaru nierówności <strong>powierzchni</strong> odpowyżej 1-2 nm <strong>do</strong> ok. 200 nm. Tak dużą górną granicę pomiarową uzyskano dziękiopracowaniu specjalnej metody kalibrowania wskazań za pomocą wzorcówchropowatości. Przyrząd mierzy też reflektancję zwierciadlaną i dyfuzyjną<strong>powierzchni</strong>.Nietypowy w stosunku <strong>do</strong> standar<strong>do</strong>wych rozwiązań <strong>przy</strong>rząd opracowano równieżw Instytucie Optyki Stosowanejw Warszawie [1].Urządzenie nazwane Skateroskopemłączy w sobiefunkcję pomiaru chropowatości<strong>powierzchni</strong> zjednoczesną obserwacjąstanu jej <strong>powierzchni</strong> namonitorze ekranowym, u-możliwiającą identyfikację ieliminację wpływu zanieczyszczeńna pomiar.Przyrząd, pokazany na rys.8, odznacza się też oryginalną,opatentowaną zasadąpomiaru.Zasadnicza część światłarozproszonego jest skupiana,a następnie rozdzielanana część kierowaną <strong>do</strong>kamery CCD i częśćpodawaną <strong>do</strong> fotodetektora, co umożliwia obliczenie wysokości nierówności. Z uwagina tę zasadę pomiaru <strong>przy</strong>rząd wymaga kalibracji <strong>przy</strong> użyciu elementówwzorcowych. Zakres pomiarowy parametru wynosi 0,2 nm – 20 nm.Urządzenia działające na zasadzie pomiaru rozkładu promieniowaniarozproszonegoO możliwościach wykorzystania promieniowaniarozproszonego <strong>do</strong> oceny chropowatości<strong>powierzchni</strong> detali będących wruchu wskazują rezultaty uzyskane wKatedrze Inżynierii Produkcji PolitechnikiKoszalińskiej w dziedzinie <strong>badania</strong> <strong>powierzchni</strong>metali za pomocą metody pomiarukątowego rozkładu światła rozproszonego[5]. Na rys. 9 przedstawionoaparaturę służącą <strong>do</strong> tego celu.Rys. 9. Stanowisko <strong>do</strong> <strong>badania</strong><strong>powierzchni</strong> metali za pomocą pomiarurozkładu światła rozproszonego wykonanew Politechnice Koszalińskiej7


Fig. 9. Stand for investigation of metal surfaces with measurement of scattered lightlayoutGłowica pomiarowa i <strong>powierzchni</strong>a mierzona przemieszczają się względem siebieze stałą niewielką prędkością. Światło padające na <strong>powierzchni</strong>ę jest przez niąrozpraszane i pada na liniał CCD, z którego sygnały są rejestrowane w komputerze iwykorzystane <strong>do</strong> wyświetlenia na monitorze indykatrysy rozproszenia światła, atakże <strong>do</strong> obliczenia pewnego parametru, który jest skorelowany ze średnimodchyleniem profilu chropowatości <strong>powierzchni</strong> Ra. Urządzenie umożliwia pomiar Raw zakresie od 10 nm <strong>do</strong> 1000 nm. Cenną zaletą urządzenia jest również możliwośćwyznaczenie zarysu kształtu i falistości <strong>powierzchni</strong>.W kraju podjęto szereg prac nad opracowaniem zestawów służących <strong>do</strong>wyznaczenia funkcji BRDF, np. w Instytucie Optoelektroniki Wojskowej AkademiiTechnicznej i Instytucie Fizyki Politechniki Krakowskiej. Układ wykonany w tejostatniej placówce opiera się na wykorzystaniu stolika goniometrycznego, na osiktórego umieszcza się badaną próbkę. Na próbkę kieruje się wiązkę światła laserapółprzewodnikowego po uprzednim przejściu przez filtr przestrzenny.Promieniowanie rozproszone jest mierzone za pomocą fotodetektora krzemowego, azmiana kąta rozproszenia następuje za pomocą silnika krokowego ze skokiem 0,01stopnia. Bardziej szczegółowe dane, a także opis innych <strong>przy</strong>rządów opracowanychw IF PK (m.in. profilometru fourierowskiego podano w pracy [4].Zakończenie<strong>Metody</strong> polegające na wykorzystaniu zjawiska rozpraszania światła umożliwiająbezstykowy i szybki pomiar parametrów <strong>powierzchni</strong> odznaczających się dużągładkością. Dzięki temu znajdują szczególnie zastosowanie w technologiachelektronicznych, optycznych i mechanicznych, a także w pracach badawczych<strong>do</strong>tyczących np. nowych materiałów. Najczęściej są stosowane obecnie dwie metodypomiarowe: integracyjna i różniczkowa. Pierwsza polega na pomiarze całkowitejmocy promieniowania rozproszonego przez fragment <strong>powierzchni</strong>, na któryskierowano wiązkę światła i mocy wiązki odbitej od niej zwierciadlanie. Wysokośćnierówności oblicza się na podstawie stosunku tych wielkości, nazywanegoparametrem TIS. W drugiej metodzie przedmiotem pomiaru jest rozkład mocypromieniowania rozproszonego (BRDF), <strong>przy</strong> czym często mierzy się go tylko wwybranym przekroju promieniowania.Przykłady aparatury skaterometrycznej stosującej wymienione metody podano wartykule. Opisano w nim również wyniki prac krajowych nad taką aparaturą. Możnastwierdzić, że duża część z niej odznacza się oryginalnymi rozwiązaniamikonstrukcyjnymi.Artykuł ten został opracowany w ramach projektu sfinansowanego ze środkówNaro<strong>do</strong>wego Centrum Badań.Literatura[1] Chabros W., Gawlas J., Nano-Skateroskop, II Konferencja Optoelektronika2003, Komunikaty, Poznań, 110-112, 2003.[2] Choi N., Harvey J., Krywonos A.: New capabilities for predicting imagedegradation from optical surface metrology data, Proc. of SPIE Vol. 7801,78010E-1-8.8


[3] Duparre A.: Light scaterring techniques for the inspection of microcomponentsand microstructures (w:) Optical Inspection of Microsystems, W. Osten (ed.),Optical Science and Engineering, vol. 102, 103-139, 2007.[4] Jaglarz J.: <strong>Metody</strong> optyczne w <strong>badania</strong>ch <strong>powierzchni</strong> i powłok rzeczywistych,Wydawnictwo Politechniki Krakowskiej, Seria: Podstawowe Nauki Techniczne,Monografia 348, Kraków 2008.[5] Łukianowicz C.: Podstawy pomiarów nierówności <strong>powierzchni</strong> metodamirozpraszania, Wydawnictwo Uczelniane Politechniki Koszalińskiej, Koszalin2001.[6] Łukianowicz C.: Skaterometria <strong>powierzchni</strong> nierównych, Problemy MetrologiiElektronicznej i Fotonicznej. Oficyna Wydawnicza Politechniki Wrocławskiej,165-222, 2009.[7] McNeil J.: Scatterometry Applied to Microelectronics Processing,http://photonicssociety.org/newsletters/oct00/scatter.htm.[8] Nicodemus F.: Reflectance nomenclature and directional reflectance andemissivity, Applied Optics, vol. 19, June, 1474-1475, 1970.[9] Scatterometry: Measuring Ever-Smaller Chip Production, ScienceDaily (Mar.9, 2 010); http://photonicssociety.org/newsletters/oct00/scatter.htm.[10] Stover J.: Optical Scattering. Measurement and Analysis, SPIE OpticalEngineering Press, Washington, 1995.[11] Synak R. i inni: Laserowy <strong>przy</strong>rząd <strong>do</strong> oceny chropowatości <strong>powierzchni</strong> napodstawie pomiaru parametru TIS, Techniki Komputerowe IMM, XLI, nr 1,67- 75, 2006.[12] Synak R., Pawełczak M.: Zintegrowana głowica pomiarowa <strong>do</strong> <strong>badania</strong>chropowatości <strong>powierzchni</strong> bardzo gładkich, Elektronika, nr 11, 266-271,2008.[13] http://www.perkinelmer.com/CMS Resources.[14] http://www.schmitt-ind.com/products-services-measurement-systems.shtml.9


METODY USUWANIA SZUMU Z OBRAZÓW TWARZYNoise removing methods from face imagesDr inż. Tomasz Andrysiak 1 , mgr inż. Lech Naumowski 21 Instytut Telekomunikacji, Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy,e-mail: tomasz.andrysiak@utp.edu.pl2 Instytut Maszyn Matematycznych, Warszawae-mail: l.naumowski@imm.plStreszczenie: W artykule przedstawiono propozycje aproksymacyjnej metody usuwaniaszumu impulsowego z obrazów twarzy. Dla osiągniecia tego celu wykorzystano adaptacyjnądekompozycję obrazu względem wyszukanych i <strong>do</strong>pasowanych elementów określonegosłownika. Praktyczną realizację opisywanej metody oparto na iteracyjnym rozwiązaniuzachłannym MP (ang. Matching Pursuit). Zaimplementowano trzy typy słowników orazprzebadano ich wpływ na jakość odszumianych obrazów.Abstract: In this paper we present the proposal of approximation methods for impulsenoise removal from face images. We used adaptive image decomposition with the matcheddictionaries. The method is based on iterative Matching Pursuit algorithm. Three differenttypes of algorithms have been implemented and tested.Słowa kluczowe: Biometria, adaptacyjna dekompozycja obrazów, słowniki funkcji,odszumianie obrazów.Keywords: Biometrics, adaptive decomposition of images, dictionaries of functions, imagedenoising.1 WprowadzenieObecnie biometryczne metody identyfikacji i rozpoznawania osób na podstawie obrazówtwarzy zyskują coraz większą popularność dzięki dynamicznie rozwijającym się systemomkomputerowym oraz techniką obrazowania. Rosnące praktyczne ich znaczenie spowo<strong>do</strong>wanejest głównie poprzez łatwość pozyskiwania oraz brak interakcji systemu z osobą której próbkibiometryczne są pobierane. Dlatego też systemy te są szczególnie czułe na warunki akwizycjioraz jakość eksploatowanych urządzeń obrazowania. Istotnymi czynnikami mającymi wpływna przedmiotową jakość są warunki oświetlenia, zniekształcenia geometryczne systemówakwizycji oraz szumy wprowadzane przez detektory optyczne i kanały transmisyjne.Szum jest podstawowym czynnikiem utrudniającym dalszą analizę obrazu. Potrafi wsposób znaczący wpłynąć na jego interpretacje i rozpoznanie. Dlatego też ważnymzagadnieniem jest rozwijanie metod pozwalających redukować jego wpływ na przetwarzaneobrazy w systemach biometrycznych. <strong>Metody</strong> realizujące to zadanie najczęściej wykorzystująróżnego typu techniki filtracji, analizy w dziedzinie określonej transformaty orazdekompozycji obrazów.Reprezentacje sygnału realizowane jako liniowe rozwinięciawzględem określonego zbioru funkcji <strong>do</strong>brze zlokalizowanych względem czasu i/lubczęstotliwość nie są w wielu <strong>przy</strong>padkach wystarczająco precyzyjne i optymalne [4]. W(1)10


zależności od <strong>do</strong>konanego wyboru funkcji współczynniki rozwinięcia reprezentują różnecechy sygnału .a)b)Rys. 1. Symboliczny podział płaszczyzny czasowo-częstotliwościowej dla a) rozwinięćortogonalnych DCT, b) diadycznych rozwinięć falkowych Haara [2].Fig. 1. Symbolic division of the time-frequency plane for a) orthogonal DCT decomposition,b) orthogonal dyadic Haar decomposition [2].Jeżeli wielkości elementów strukturalnych analizowanego sygnału różnią się w sposób istotnyod stałej skalującej funkcji to współczynniki nie stanowią optymalnej reprezentacjiprzedmiotowego sygnału (rys 1. a). Dlatego też sygnały z elementami o zmiennychdługościach wymagają stosowania funkcji bazowych o różnych skalach (rys 1. b).Rozwiązanie takie posiada także istotne ograniczenie związane z powiązaniem parametruczęstotliwości i parametru skali dla określonych funkcji bazowych .W <strong>przy</strong>padku skomplikowanych struktur sygnałów nie jesteśmy w stanie określićoptymalnych parametrów skali i częstotliwości dla określonych funkcji bazowych . Wówczasnaturalnym rozwiązaniem jest wprowadzenie bardziej różnorodnych i liczniejszych a także<strong>do</strong>stosowanych <strong>do</strong> charakteru sygnału zbiorów funkcji zwanych słownikami z redundancją[4]. Otrzymujemy wówczas reprezentacje znacznie bardziej uniwersalne i elastyczne (rys. 2).11


Rys. 2. Funkcje bezpośrednio <strong>do</strong>stosowane <strong>do</strong> sygnału [2].Fig. 2. Basis functions adapted directly to the signal [2].Jednakże dekompozycja sygnału względem słownika wymaga wówczas ciągłegowyszukiwania i <strong>do</strong>pasowywania odpowiednich jego elementów które najlepiejodzwierciedlają pożądane cech analizowanego sygnału. Dopasowanie to powinno byćrealizowane w taki sposób aby maksymalizować korelacje pomiędzy wybranym elementemsłownika a pozostała częścią przetwarzanego sygnału. Istnieje więc potrzeba określenia miaryjakości takiego <strong>do</strong>pasowania oraz algorytmu zapewniającego znalezienie najlepszej w sensietej miary reprezentacji sygnału [4].Przedstawioną idea adaptacyjnej dekompozycji stosowano w analizie czasowoczęstotliwościowejsygnałów akustycznych i biomedycznych [7,8,14]. W dziedzinieprzetwarzania obrazów cyfrowych stosowano najczęściej w zadaniach związanych zwydzielaniem cech, kompresją oraz metodach poprawy jakości analizowanych obrazów[1,2,3,9].2 Adaptacyjna dekompozycja obrazuDekompozycja obrazu prowadząca <strong>do</strong> adaptacyjnej jego reprezentacji poprzez wybór zbioruatomów słownika sprowadza się <strong>do</strong> zagadnienia jak najlepszego ich <strong>do</strong>pasowania względemanalizowanego obrazu tj. minimalizacji błędu aproksymacji .Reprezentację optymalną możemy określić jako taki podzbiór elementów słownika,którego liniowa kombinacja tłumaczy największy procent energii sygnału wśród wszystkichpodzbiorów o tej samej liczebności. Wybór takiej reprezentacji jest obliczeniowo NP-trudny,toteż w praktyce za<strong>do</strong>walamy się iteracyjnym rozwiązaniem adaptacyjnym zwanymalgorytmem MP [15]. Wynikiem działania tego algorytmu jest projekcja elementówstrukturalnych sygnału na wybrane funkcje słownika zwane atomami.2.1 Algorytm MPW celu realizacji dekompozycji obrazu wyznaczać będziemy liniowe rozwiniecie względemzbioru atomów wybranych ze słownika tak aby były najlepiej <strong>do</strong>pasowane <strong>do</strong> elementówstrukturalnych analizowanego obrazu .W każdym kroku algorytmu MP <strong>do</strong>konywać będziemy kolejnych dekompozycjiobrazu za pomocą rzutów ortogonalnych na elementy słownika . Wówczas w -tym krokudekompozycji otrzymujemy(2), (3)12


gdzie oznacza iloczyn skalarny a stanowi residuum będące wynikiem dekompozycji wkierunku . Dla residuum zerowego rzędu zachodzi oczywista zależność .Wyboru atomu <strong>do</strong>konujemy na podstawie, (4)gdzie jest zbiorem indeksów słownika .Dla wybranego za pomocą zależności (4) atomu minimalizujemy residuum wkolejnym kroku algorytmu MP. Z uwagi na ortogonalności wektorów i zachodzi związekKontynuując proces dekompozycji <strong>do</strong> -tego poziomu otrzymujemyPo<strong>do</strong>bnie <strong>do</strong> zależności (5) możemy zapisać. (5). (6), (7)otrzymując równanie zachowania energii [6].Liczba iteracji w których <strong>do</strong>konujemy dekompozycji residuów zależy od wymaganej<strong>do</strong>kładności rekonstrukcji obrazu i dana jest zależnością (8) będącą jednocześnie kryteriumstopu algorytmu MP, (8)gdzie parametr .Szybkości malenia normy residuum zależy od korelacji pomiędzy kolejnymi residuamiobrazu a wybranymi atomami słownika. Jeżeli obraz jest suma skła<strong>do</strong>wych o dużej energiibędących atomami słownika to współczynniki korelacji obrazu i jego residuów są znaczne.Wówczas ich norma szybko maleje ponieważ skła<strong>do</strong>we o dużej energii są elementamistrukturalnymi obrazu <strong>do</strong>brze skorelowanymi z wybranymi atomami słownika [4,14].2.2 Słowniki funkcji bazowychDokładna reprezentacja analizowanego obrazu w słowniku większym niż baza wprowadzaredundancję. Pożądaną zwięzłość możemy osiągnąć godząc się na nie<strong>do</strong>kładnościrekonstrukcji obrazu, ale z wykorzystaniem możliwie niewielkiej ilości funkcji [7].Słownik DCTZbiór atomów słownika DCT może otrzymać wykorzystują funkcje bazowe transformacjiDCTgdzie(9). (10)13


Słownik Haara.Rys. 3. Słownik DCT.Fig. 3. DCT dictionary.Zbiór atomów słownika Haara generujemy poprzez operacje przesunięcia i skalowaniafunkcji [12]:dla , gdzie falkę podstawową Haara określamy jako:, (11). (12 )Słownik Gabora.Rys. 4. Słownik Haara.Fig. 4. Haar dictionary.Zbiór atomów słownika Gabora możemy wygenerować poprzez skalowanie, przesuniecie imodulacje gaussowskiej funkcji okna [11,13]. Definiujemy wówczas zbiór , indeksówatomów , gdzie parametr odpowiedzialny jest za skalowanie, jest przesunięciem, aczęstotliwością modulującą [15].Otrzymujemy wówczas14


, (13)gdzie , faza , a stała jest tak <strong>do</strong>brana aby .W tabeli 1 przedstawiono wartości parametrów wykorzystywanych w procesietworzenia atomów słownika Gabora na podstawie zależności (13).Tabela 1. Parametry dla atomów Gabora [2].Table 1. Parameters for the Gabor atoms [2].n1 2 0 02 3 0 03 4 0 04 5 0 05 6 0 06 8 0 07 10 0 08 11 0 09 1 1 π / 210 5 1 π / 211 11 1 π / 212 10 3 013 8 2 014 4 2 015 4 2 π / 416 6 4 π / 4Na Rys. 5 przedstawiono obraz słownika Gabora modelowanego za pomocą parametrówokreślonych w tabeli 1.15


3 Wyniki eksperymentówRys. 5. Słownik Gabora.Fig. 5. Gabor dictionary.W przeprowadzonych <strong>badania</strong>ch analizowano obrazy testowe twarzy zaszumiane szumemgaussowskim o zerowej wartości średniej i zmiennym odchyleniu standar<strong>do</strong>wym . Procesusuwania szumu polegał na selekcji współczynników dekompozycji realizowanej poprzezkryterium stopu algorytmu MP zgodnie z zależnością (8) dla parametru . Wszystkiewykorzystywane słowniki składały się z atomów, a każdy pojedynczy atom był blokiem orozmiarze elementów.Na rys. 6 przedstawiono oryginalne obrazy testowe wybrane z baz IMM oraz BioIDwykorzystywane w celu zilustrowania <strong>przy</strong>kła<strong>do</strong>wych wyników prezentowanej metodyusuwania szumów z przetwarzanych obrazów testowych [18, 20].a) b)Rys. 6. Obrazy testowe: a) BioID_0437, b) IMM 07-1.Fig. 6. Sample images: a) BioID_0437, b ) IMM 07-1.Przykła<strong>do</strong>we obrazy będące efektem opisywanej metody usuwania szumu przedstawionona rys. 7 i 8. Obrazują one <strong>do</strong>brą subiektywną ocenę prezentowanej metody szczególnie dlaparametru (rys. 7) choć analizując szczegóły odszumianych obrazów dla (rys. 8) łatwozauważyć że powstałe zniekształcenia były efektem rekonstrukcji obrazów z mało licznegozbioru atomów.16


a) b)c) d)Rys. 7. Przykła<strong>do</strong>we rezultaty usuwania szumu dla obrazu BioID_0437: a) obrazzaszumiany σ=30, PSNR=18,58 dB, b) Harr PSNR=32,51 dB, c) DCT PSNR=33,63 dB,d) Gabor PSNR=34,16 dB.Fig. 7. Example of the denoising results for the image BioID_0437: a) noisy image σ=50,PSNR=18,58 dB, b) Harr PSNR=32,51 dB, c) DCT PSNR=33,63 dB, d) GaborPSNR=34,16 dB.a) b)c) d)Rys. 8. Przykła<strong>do</strong>we rezultaty usuwania szumu <strong>do</strong> obrazu IMM 07-1: a) obraz zaszumianyσ=50, PSNR=14,15 dB,b) Haar PSNR=30,83 dB, c) DCT PSNR=30,94 dB,d) Gabor PSNR=31,39 dB.Fig. 8. Example of the denoising results for the image IMM 07-1: a) noisy image σ=50,PSNR=14,15 dB,17


) DCT PSNR=29,81 dB, c) Haar PSNR=30,21 dB,d) Gabor PSNR=31,74 dB.Porównanie prezentowanej metody z wynikami zawartymi w pracy [16] przedstawiono narys. 9. Obrazują one fluktuacje jakości opisywanej metody usuwania szumu wokół liniibazowe (wartości osiągnięte dla obrazów testowych na podstawie metody opisanej przezPortilla w [16]) dla tych samych wartości parametru . Analizując te wykresy możnastwierdzić, że <strong>do</strong>datnie odchylenie PSNR zależne jest od typu wykorzystywanego słownika,zawartości kontekstowej odszumianych obrazów oraz poziomu parametru . Dla wszystkichobrazów testowych najlepsze wyniki PSNR osiągnięto dla słownika Gabora w zakresieparametru co obrazują <strong>do</strong>datnie odchylenia PSNR. Najgorsze wyniki PSNR uzyskano dlasłownika Haara już dla . Wynikało to praw<strong>do</strong>po<strong>do</strong>bnie z charakterystyki zmienności (rys.4)atomów tego słownika.Przedstawiono wykresy charakteryzujące średnią jakość wyliczoną dla całego zbioruobrazów z baz IMM oraz BioID z wykorzystaniem słowników Haara, DCT i Gabora dlaparametru modelującego addytywny szum gaussowski. W celu porównania otrzymanychwyników <strong>przy</strong>jęto za poziom odniesienia (linia bazowa w zerze) rezultaty osiągnięte zwykorzystaniem metody opisanej w pracy [16] dla tych samych parametrów . Wi<strong>do</strong>cznewahania względem linii bazowej obrazują skuteczność prezentowanej metody usuwaniaszumów z obrazów testowych.a)b)Rys. 9. Porównanie jakości odszumiania obrazów testowych z rezultatami uzyskanymi wpracy [16].Fig. 9. Comparison between the denoising quality of sample images with the results achievedin work [16].18


Opisywaną metodę usuwania szumu wykorzystującą adaptacyjną dekompozycję obrazówzaimplementowano <strong>przy</strong> użyciu śro<strong>do</strong>wiska MATLAB 7.5 z wykorzystaniem bibliotekiImage Processing Toolbox.4 PodsumowanieW artykule zaprezentowano metodę usuwania szumu z obrazów twarzy wykorzystującąnadmiarowe reprezentacje słownikowe obrazów. Opisano adaptacyjną metodę dekompozycjiobrazu opartą na zachłannym algorytmie MP (ang. Matching Pursuit), który w każdej iteracjiwyszukuje i <strong>do</strong>pasowuje elementy danego słownika <strong>do</strong> struktury analizowanego obrazu.Przebadano trzy typy słowników zawierających atomy funkcji: Harra, DCT i Gabora. Wwyniku przeprowadzenia eksperymentów stwierdzono, że prezentowana metoda usuwaniaszumu osiąga najlepsze wyniki dla słownika modelowanego funkcjami Gabora w szerokimzakresie parametru modelowanego addytywnego szumu impulsowego. Potwierdza to<strong>przy</strong>puszczenia że duża różnorodność atomów w wykorzystywanym słowniku Gaborapowoduje ich lepsze <strong>do</strong>pasowanie <strong>do</strong> elementów strukturalnych obrazu w procesachadaptacyjnej dekompozycji.Dalsze prace ukierunkowane są na przebadanie licznego zbioru słowników opisanegoróżnymi typami funkcji bazowych w celu szukania odpowiedzi na pytanie jak charakterposzczególnych funkcji wpływa na osiągane wyniki odszumiania.Literatura[1] M. Aharon, M. Elad, and A. Bruckstein, K-SVD: An algorithm for designingovercomplete dictionaries for sparse representation, IEEE Transactions Signal Processing,54, 11, pp. 4311–4322, 2006.[2] M.R. Banham, J.C. Brailean, A selective update approach to matching pursuits videocoding, IEEE Transactions on Curcuits and Systems Video Technology, vol. 7, no. 1, pp.119-129, 1997.[3] F. Bergeaud, S. Mallat., Matching pursuit of images, In Proc. IEEE InternationalConference on Image Processing ICIP’95, vol. 1, pages 53–56, 1995.[4] J.T. Białasiewicz, Falki i aproksymacje, WNT Warszawa 2004.[5] A. M. Bruckstein, D. L. Donoho, and M. Elad, From sparse solutions of systems ofequations to sparse modeling of signals and images, SIAM Review, vol. 51, no. 1, pp. 34–81, 2009.[6] G. Davis, S. Mallat, M. Avellaneda, Adaptive greedy approximations, Journal ofConstructive Approximation, vol. 13, pp.57-98, 1997.[7] P.J. Durka, Między czasem a częstotliwością: elementy współczesnej analizy sygnałów,2004. http://brain.fuw.edu.pl/~durka/as/[8] P.J. Durka, Time-frequency analyses of EEG, dissertation. Institute of ExperimentalPhysic, Warsaw University, 1996.[9] M. Elad, Sparse and Redundant Representations: From Theory to Applications in Signaland Image Processing, Springer, 2010.[10] M. Elad,., M. Aharon, Image denoising via sparse and redundant representations overlearned dictionaries, IEEE Transactions Image Processing, vol. 54, pp. 3736–3745, 2006.[11] D. Gabor, Theory of communication, Journal of Institution Electrical Engineering, vol.93, no. 26, pp. 429–457, 1946.19


[12] A. Haar, Zur Theorie der orthogonalen Funktionensysteme, Mathematische Annalen, vol.69, pp. 331-371, 1910[13] A. Janssen, Gabor representation of generalized functions, Journal of the Mathematical.Analysis. and Applications, vol. 83, no. 2, pp. 377–394, 1981.[14] Q. Liu, Q. Wang, and L. Wu, Size of the dictionary in matching pursuit algorithm, IEEETransactions on Signal Processing, vol. 52, no. 12, pp. 3403–3408, 2004.[15] S. Mallat, Z. Zhang, Matching pursuits with time-frequency dictionaries, IEEETransactions on Signal Processing, vol. 41, no. 12, pp. 3397–3415, 1993.[16] J. Portilla, V. Strela, M.J. Wainwright, E.P. Simoncelli, Image denoising using scalemixture of Gaussians in the wavelet <strong>do</strong>main, IEEE Transactions on Image Processing, vol.12, no. 11, pp. 1338–1351, 2003.[17] R. Rubinstein, M. Bruckstein, M. Elad, Dictionaris for Sparse Representation Modeling,Proceedings of the IEEE, vol. 98, pp. 1045-1057, 2010.[18] Stegmann M., Ersboll B.K., Larsen R., FAME – a flexible appearance modelingenvironment, IEEE T. on Medical Imaging, vol. 22, no. 10, 1319-1331, 2003.[19] J. A. Tropp, Greed is good: Algorithmic results for sparse approximation, ICES Report03-04, The University of Texas at Austin, 2003.[20]http://www.bioid.com/support/<strong>do</strong>wnloads/software/bioid-facedatabase.html.20


Mirosława PlucińskaInstytut Maszyn Matematycznych, WarszawaJan RyżkoInstytut Maszyn Matematycznych, WarszawaTechniki biometryczne – stan obecny i perspektywa zastosowańBiometric technologies – current state and application forecastSłowa kluczowe: techniki biometryczne, zastosowania biometrii, rynek biometrycznyKey words: biometric technologies, application of biometrics, biometric marketStreszczenieW artykule przedstawiono główne tendencje rozwoju technik biometrycznych ipodano ich procentowy udział w rynku biometrycznym w latach 1999-2009 iprognozy <strong>do</strong> roku 2017. Omówiono i pokazano <strong>przy</strong>kłady zastosowań tych technikw różnorodnym ujęciu.AbstractThe main trends in development of biometric technologies are described and theirshare in the biometric market is quoted. Different applications are given.Rozpoznanie cech fizjologicznych lub behawioralnych człowieka za pomocąurządzeń, a następnie porównanie uzyskanych wyników z uprzednio pobranymi wzorcamitych cech, uwalnia nas od konieczności noszenia pęku kluczy, pliku kart czy pamiętaniaszeregu haseł lub kodów. Wysoka <strong>do</strong>kładność, jaką uzyskuje się obecnie <strong>przy</strong> stosowaniurozwiązań biometrycznych, pozwala na zapobieganie oszustwom, a także pozwalaeliminować papierowe <strong>do</strong>kumenty transakcji.Koniec pierwszej dekady tego wieku skłania <strong>do</strong> <strong>przy</strong>jrzenia się, jakie przemianynastępowały w tej dziedzinie w ostatnich latach [1], a także jakie perspektywy dalszegorozwoju biometrii rysują firmy analizujące ten rynek i oferujące raporty na ten temat.TechnikiProcentowy udział najczęściej używanych technik w rynku biometrycznymprzedstawia Tabela 1.21


Tabela 1. Procentowy udział technik biometrycznych – lata 1999-2017Table 1. Share of technologies in biometric market, 1999-2017 [%]Technika \ rok 1999 2003 20092007-12(prognoza)2015 2017źródło BTT IBG AMI (prognoza)AFIS 4,4 43,0 38,3 33,6-27,8 16,0palce 34,7 28,0 28,4 25,3-22,1 15,0twarz 7,1 7,0 11,4 12,9-13,9 15,0IBGmiddleware 7,0 8,0 5,4-10,0tęczówka 3,7 5,0 5,1 5,1-7,4 16,0siatkówka 0,6geometria dłoni 31,0 6,0 1,8 4,7-2,9 1,015,8 3,0 3.0 3,2-3 13,0głosAMI 2.0 5,0IBG 2,7 1,0 10,0podpisAMI 0,7 1,6multibiometria 2,9-5,2IBG2,9 3,0-3,8żyłyAMI 3,0 6,0IBG inne 1,6 4,0 4,0Dane te uzyskano z miesięcznika Biometric Technology Today (BTT) [2], publikacjiInternational Biometric Group (IBG) [3, 4] i Acuity Market Intelligence (AMI) [5]. Zpowyższej tabeli widać, że <strong>do</strong>minującą techniką jest rozpoznawanie linii papilarnych, <strong>przy</strong>czym większość rozwiązań opartych na tej technice stanowią systemy automatycznejidentyfikacji AFIS (Automated Fingerprint Identification System). Co więcej, przewidywaniao zmniejszaniu się udziału tej techniki w rynku biometrycznym w roku 2009 nie sprawdziłysię i praw<strong>do</strong>po<strong>do</strong>bnie prognozy dla lat 2015-17 również trzeba będzie skorygować. Wśródfirm zajmujących się techniką rozpoznawania linii papilarnych należałoby wyróżnić firmęCross Match Technologies, czołowego producenta sprzętu i Bio-key Technologies jakonajważniejszego twórcę oprogramowania. Głównym producentem sensorów linii papilarnychjest firma AuthenTec, która <strong>do</strong>starczyła na rynek już ponad 50 milionów tych podzespołów.Udział technik rozpoznawania twarzy i tęczówki oka rósł, choć nieco wolniej odprzewidywań. Ta ostatnia technika uchodzi za bardzo perspektywiczną, choć drogą.Natomiast udział <strong>do</strong>ść popularnej wcześniej techniki geometrii dłoni malał szybciej odprzewidywań. Przyczyną tego są duże rozmiary i cena sprzętu. Z kolei udział podpisubiometrycznego i głosu był nieco większy na początku dekady. W <strong>przy</strong>szłości przewiduje sięponowny wzrost ich udziału. Ta ostatnia technika, <strong>do</strong>tycząca cechy behawioralnej jestszczególnie interesująca w zastosowaniach bankowych i telekomunikacyjnych, ponieważ nie22


wymaga <strong>do</strong>datkowego sprzętu, a ponadto może spełniać swe funkcje zdalnie. Najnowszą jesttechnika rozpoznawania układu żył (palców lub dłoni) [6], najbardziej popularna w Japonii iKorei. Oceniana jest ona jako najbardziej <strong>do</strong>kładna [7]. Rozpoznania układu żył w dłonimożna <strong>do</strong>konywać nawet <strong>przy</strong> ruchu ręki – pomiar trwa tylko 1 ms [8]. Oprogramowanie,oznaczone angielską nazwą middleware, traktowane jest jako oddzielna kategoria na równi ztechnikami i również ma tendencje wzrostowe. Stosowanie kilku technik biometrycznychjednocześnie nazywane jest multibiometrią i takie rozwiązanie uważa się za perspektywiczne,choć statystyki obecnie nie podają jakiegoś znacznego jej udziału. Wśród technikoznaczonych Inne można wymienić: sposób uderzania w klawisze, kształt ucha, zapach ciała,DNA, rytm serca, aktywność mózgu.ZastosowaniaZastosowań biometrii jest tak wiele, że ograniczono się <strong>do</strong> podania ich głównychkategorii, stosowanych w publikacjach. Tabele 2 i 3 przedstawiają procentowy udziałzastosowań w tzw. podziale poziomym.Tabela 2. Procentowy udział zastosowań wg International Biometric GroupTable 2. Percentage share of applications according to IBG publicationsRodzaj zastosowania 1999 2009 Progn. 2007-12Identyfikacja cywilna 39,3 34,2-40,5Identyfikacja kryminalna 19,2 24,6 23,6-17,8Kontrola <strong>do</strong>stępu i rejestracja czasu pracy 38,4 17,7 21,1-15,8Dostęp <strong>do</strong> urządzeń/systemów 13,8 14,8-15,2Identyfikacja konsumentów 3,6 4,1-6,8Nadzór 2,0 2,2-4,0W roku 2009 udział trzech ostatnich pozycji Tabeli 2 był niższy od prognozowanych na lata2007-12, a identyfikacji kryminalnych – większy.Tabela 3. Procentowy udział zastosowań wg Acuity Market IntelligenceTable 3. Percentage share of applications according to AMI publicationsRodzaj zastosowania 2009 Progn. 2017Dostęp fizyczny – –Dostęp logiczny – –Usługi identyfikacyjne 65,0 47,0Nadzór i monitoring 1,0 8,023


Natomiast w Tabeli 3 zaskakująca jest prognoza aż 8-krotnego wzrostu nadzoru wroku 2017. W roku 1999 <strong>do</strong>minowała kontrola <strong>do</strong>stępu i rejestracja czasu pracy orazidentyfikacja kryminalna.Dramatyczne wydarzenia 11 września 2001 roku spowo<strong>do</strong>wały wzrostzainteresowania antyterroryzmem oraz ochroną granic i kontrolą imigrantów. Z tego względurównież gwałtownie wzrosło zainteresowanie rozwiązaniami biometrycznymi, zwłaszcza wsystemach wizowych. Pod koniec 2006 roku 37 krajów rozpoczęło wydawanie paszportówbiometrycznych, nazywanych e-paszportami. W końcu 2009 roku było ich już 65 [1]..Polskauczyniła to 28 sierpnia 2006 jako 28 kraj [9]. Obecnie jest już <strong>do</strong>stępny raport ozastosowaniach biometrii w <strong>do</strong>kumentach podróży [10].Zastosowania nazwane w terminologii IBG rynkami pionowymi określane sącałkowicie odmiennie w <strong>przy</strong>padku IBG i AMI. Pokazują to tabele 4 i 5.Tabela 4. Procentowy udział głównych rynków pionowych wg IBGTable 4. Percentage share of main vertical markets according to IBGRodzaj rynku 1999 2006 Progn. 2007-12Rzą<strong>do</strong>we30,232,5 – 28,8Przestrzeganie prawa19,2 25,423,0 – 18,4Transport7,07,3 – 9,8Samorzą<strong>do</strong>we6,56,9 – 6,0Najnowsza technika i telekomunikacja2,8 5,75,2 – 6,8Wojsko4,64,8 – 3,2Sprzedaż detaliczna4,44,3 – 7,4Przemysł3,94,1 – 4,7Usługi finansowe17,0 3,53,3 – 4,3Opieka zdrowotna9,6 3,12,8 – 3,8Rozrywki i hotele2,01,9 – 2,9Tabela 5. Procentowy udział sektorów i działów oraz tempo ich wzrostu wg AMITable 5. Percentage share of global market sectors and areas and CAGR according to AMI24


sektor 2009 Progn. 2017 średni wzrostrocznye-granice 10Publicznye-identyfikacja 12e-rząd 14,23 42cały sektor 59,16 44,87 16bezpieczeństwo przedsiębiorstw 12Komercyjnytransakcje informacyjne 12,21 50transakcje finansowe 18,22 37cały sektor 40,84 55,13 24Z Tabeli 4 wynika, że <strong>do</strong>minują zastosowania rzą<strong>do</strong>we, a więc <strong>do</strong>kumenty tożsamości(łącznie z <strong>do</strong>kumentami podróży i prawami jazdy), ochrona granic i zarządzanie. Dane dlaroku 1999 nie są porównywalne z tymi dla lat późniejszych, bo <strong>do</strong>tyczą innego podziału, aleprawdziwe są ich wzajemne relacje. Warto też zwrócić uwagę na usługi finansowe, którychudział w omawianym okresie nie był wysoki, ale obecnie przewiduje się jego wzrost wzwiązku z walką z oszustwami bankowymi. Natomiast podział pokazany w Tabeli 5 [5]zawiera sektor publiczny i komercyjny wraz z wymienionymi tam działami. Transakcjefinansowe umieszczone są tu w sektorze komercyjnym i w 2017 roku mają stanowić ponad18% całego rynku biometrycznego, <strong>przy</strong> 37 % wzroście rocznym.RynekPrognozy rozwoju rynku biometrycznego przewidywane w kolejnych raportach cytowanychjuż firm analitycznych pokazane są na rys. 1 [3-5].1200010000mln USD800060004000IBG 2007IBG 2009AMI 2007AMI 2009200002007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017lata25


Rys. 1. Prognozy <strong>przy</strong>chodów rynku biometrycznego z lat 2007 i 2009Fig. 1 Revenue of global biometric market of 2007 and 2009Wi<strong>do</strong>czny jest tu wyraźny wpływ kryzysu finansowego z roku 2008, gdyż prognozaIBG z roku 2009 dla tego roku była o ponad 25% niższa od tej z roku 2007. W <strong>przy</strong>padkuAMI różnica ta jest mniejsza, ale średni roczny <strong>przy</strong>rost dla prognozowanych okresówwynosił 30,4% dla prognozy z 2007 roku, a tylko 19,7% dla prognozy z roku 2009. Skutkiemkryzysu było też bankructwo firmy Pay-by-Touch i upadek programu CLEAR <strong>do</strong>rejestrowania pasażerów w podróżach lotniczych, a także rezygnacja z brytyjskiegoprogramu praw jazdy w technice rozpoznawania twarzy [11]. Jednakże cały rynekbiometryczny okazał się <strong>do</strong>syć odporny na kryzys dzięki dużemu udziałowi zastosowańrzą<strong>do</strong>wych. Wiele firm uzyskało z tego źródła nowe fundusze.Na rynku tym <strong>do</strong>konała się znaczna konsolidacja. Z firm takich jak Identix, Visionics,Viisage i innych powstała L-1 Identity Solutions z <strong>przy</strong>chodem ponad 650 mln <strong>do</strong>larów w2009 roku. Proces ten praw<strong>do</strong>po<strong>do</strong>bnie będzie kontynuowany [1].Obecnie należy <strong>do</strong>cenić sukcesy biometrii stosowanej w kontroli granic i w walce zterroryzmem. Biometria może być wykorzystana również <strong>do</strong> szerszych rozwiązań,ułatwiających życie milionom ludzi. Świadczy o tym pomysł nadania wszystkimmieszkańcom Indii numerów identyfikacyjnych [12], z którymi związane będą informacjedemograficzne i biometryczne o osobach im <strong>przy</strong>pisanych, a także meksykański projekt bazydanych wykorzystującej trzy techniki biometryczne – linie papilarne, rysy twarzy i tęczówkęoka [13]. Dodatkowym atutem biometrii jest wysokie zaufanie <strong>do</strong> niej użytkowników,potwierdzone <strong>badania</strong>mi przeprowadzonymi przez firmę Unisys [14].Literatura:1. The end of the decade, Biometric Technology Today, January 2010,2. 1999 Market Review, Biometric Technology Today (BTT) December 1999/January2000, str. 83. http://www.biometricgroup.com/reports/public/market_report.php , listopad 20074. http://www.biometricgroup.com/reports/public/market_report.php , listopad 20085. http://acuity-mi.com/Future_of_Biometrics.html6. Rozbicki L., Szacki K., Wzór naczyń krwionośnych dłoni jako osobiste daneidentyfikujące, Problemy Biometrii, IMM 2009, str. 297. Agre J.:Biometric in emerging sectors, Biometrics 2008, session: Consumer-facingbiometrics8. High-Speed Image Capture for Palm Vein, Biometric Digest (BD), April 2009, str. 226


9. e-Passport status: 65+ countries now issuing, BTT January 2009, str.310. http://acuity-mi.com/Global%20ePassport%20&%20eVisa%20Industry%20Report.html11. UK DVLA scraps biometric pilot…, BTT November/December 2008, str. 112. India’s massive biometric enrolment project comes a step closer. BTT July/August2009, str. 113. Mexico to implement ‘game-changing’ tri-modal biometric ID project, BTT February2010, str. 114. U.S. Consumers Trust Biometrics, Biometric Digest, December 2008, str.327


dr inż. Jolanta Brzostek-PawłowskaZmiany w modelach i technologiach informacyjnych w <strong>do</strong>bie Web2.0 i Web 3.0Changes in the models and information technologies in the era ofWeb 2.0 and Web 3.0WprowadzenieZapoczątkowana przed kilku laty pojawieniem się pierwszych portali społecznościowych iu<strong>do</strong>stępnianych na nich aplikacji, dziś zwanych aplikacjami społecznymi lub technologiamiWeb 2.0, rewolucja informacyjna w krótkim czasie zmieniła model informacyjny Internetu zmodelu statycznych stron WWW niosących informacje na model interaktywnego udziałuużytkowników tworzących strumienie informacji w czasie rzeczywistym. Web czasurzeczywistego jest nową formą komunikacji zwiększającej o rząd szybkość informacji.Technologie Web 2.0 i szybkość komunikacji wpłynęły na zmiany w modelachinformacyjnych realizowanych przez systemy, ponieważ zmieniły się postawy, potrzeby ioczekiwania użytkowników. Zjawisko społecznej wiedzy spowo<strong>do</strong>wało inne podejście <strong>do</strong>zarządzania wiedzą – jej gromadzenia i dystrybucji. Dziś informacja adekwatna <strong>do</strong> potrzebymusi natychmiast <strong>do</strong>trzeć tam, gdzie znajduje się użytkownik, przede wszystkim nastanowisko pracy, stacjonarne lub mobilne, by zwiększyć wydajność pracownika. Byinformacja była najbardziej wartościowa i najlepiej <strong>do</strong>stosowana <strong>do</strong> kontekstu, w jakimpojawiła się jej potrzeba, to z jednej strony mechanizmy wyszukiwania muszą obejmować jaknajwięcej źródeł informacji, z drugiej strony informacje muszą być trafnie, wieloaspektowoopisane. Coraz <strong>do</strong>skonalsze technologie Web 3.0 mają za zadanie <strong>do</strong>starczać wiedzęinteligentnie, czerpiąc ją również ze źródeł społecznych. Inteligentna dystrybucja wiedzybazuje m.in. na szczegółowym opisie semantycznym gromadzonych informacji, jak równieżna wnikliwej analizie danych otrzymywanych od użytkownika, czemu służą tzw. semantykaWeb 3.0, jak i mechanizmy sztucznej inteligencji. W artykule przedstawiony zostanie wpływWeb 2.0 na zmianę postaw i potrzeb użytkowników, na zmianę modeli biznesowych isystemów informacyjnych oraz przedstawione zostaną główne kierunki rozwoju technologiiWeb 3.0, wychodzących tym zmianom naprzeciw.Charakterystyka Web 2.0Web 2.0, zwana też siecią drugiej generacji, charakteryzująca się interaktywnością stron (iużytkowników), rozpoczęła się od serwisów internetowych, u<strong>do</strong>stępniających aplikacjespołeczne (społecznościowe) umożliwiające użytkownikom przekazywanie i wymianę treściw postaci artykułów, opinii, komentarzy, porad, ocen i bycie tym samym ich współtwórcą.Serwisy społecznościowe umożliwiają użytkownikom nawiązywanie kontaktów iutrzymywanie łączności w czasie rzeczywistym, gromadzenie i wymianę zasobów(prezentacje, fotografie, wideo, audio), dają też narzędzia porządkowania i współdzieleniazasobów sieciowych. (zakładkowania, kategoryzacji, opisu, eksportu). Komunikacja iwspółpraca między użytkownikami może odbywać się tekstowo, głosem, obrazem wraz zgłosem lub w śro<strong>do</strong>wiskach wirtualnej rzeczywistości atrakcyjnych ze względu naimmersyjność, <strong>do</strong>stępnych komercyjnie (np. SecondLife) lub jako open source (np.OpenSimulator).Technologie Web 2.0Tabela 1 przedstawia krótkie charakterystyki najbardziej popularnych technologii Web2.0 wraz z <strong>przy</strong>kładami.28


Tabela 1 Technologie Web 2.0Lp. Typ technologii Web 2.0 Opis Przykłady15.16Social Networks/Serwisyspołecznościowe.wiki17.blogiSerwisy społecznościowe stwarzająmożliwość autoprezentacji, wypowiadaniasię i umieszczania multimediów, zapraszania<strong>do</strong> kręgu znajomych, tworzenia grupzainteresowania i zapraszania <strong>do</strong> nich,przesyłania wia<strong>do</strong>mości i czatowania.U<strong>do</strong>stępniają interfejs programowy (API) <strong>do</strong>tworzenia aplikacji/nakładek m.in. w celupołączeń funkcji, użytkowników i/lubzasobów danego serwisu ze światemzewnętrznym (stronami i serwisami WWW).Serwisy społecznościowe, tworzące siecispołeczne kontaktów, mają na ogół swójcharakteryzujący je profil i preferowanegrupy <strong>do</strong>celowe użytkowników.Przykła<strong>do</strong>wo serwisy LinkedIn i polskiGoldenLine nastawione są na <strong>do</strong>rosłychużytkowników chcących rozwijać swojąkarierę zawo<strong>do</strong>wą i kontakty biznesowe, zaśFacebook i NK-NaszaKlasa główniewspierają kontakty towarzyskie akademickiei post-szkolne.Istnieją serwisy generyczne <strong>do</strong> tworzeniawłasnych portali społecznościowych(<strong>przy</strong>kładem jest NING).Samodzielne serwisy lub aplikacjeinternetowe umożliwiające tworzenie,współopracowywanie, recenzowaniestrukturyzowanych artykułów,wzbogaconych o odwołania (linki) i obrazy.Artykuły odnoszą się <strong>do</strong> hasła, któredefiniują, wyjaśniają, opisują itp. Nie mogązawierać promocji ani kryptopromocji.Istnieją też serwisy generyczne <strong>do</strong>bu<strong>do</strong>wania własnych baz wiedzy, w tymfirmowych i lub produktowych, namechanizmach Wiki (<strong>przy</strong>kład PBWorks).Blogi to serwisy umożliwiające prowadzeniedzienników (blogów) właścicielowi bloga wpostaci chronologicznych wpisów, które przezosoby postronne mogą być komentowane lubopiniowane jako odpowiedzi <strong>do</strong> danegowpisu. Każdy właściciel zarządza swoimblogiem, również jego interfejsemgraficznym. Wpisy mogą oprócz tekstuzawierać multimedia. Blogi <strong>przy</strong>jmują różneformy np.:r. „zwykłe” blogi z tekstowym wpisemnieograniczonej długości lubograniczonym np. blogi na Facebookuograniczone są <strong>do</strong> 420 znaków;s. mikroblogi – wpisy jednozdaniowe, mogąbyć też wzbogacane o linki i multimedia;t. moblog – krótkie wpisy wysyłane zurządzeń mobilnych, popularna formąmoblogów są fotoblogi i wideoblogi (zMMSów);u. flog – blogi pseu<strong>do</strong>osobiste, opłacaneFacebook www.facebook.com,LinkedIn www.linkedin.com ,GoldenLine www.goldenline.plNK-NaszaKlasa http://nk.plMySpace www.myspace.comNING www.ning.comWikipedia www.wikipedia.orgTwiki http://twiki.org/PBwiki (PBWorks)http://pbworks.comBlogger www.blogger.comblogs.com www.blogs.comTypePad www.typepad.comTwitterMablo www.mablo.plBlogRadiohttp://www.podblogr.combhttp://twitter.com/29


23.sharing/współdzielenie24.bookmarking/zakładki25.events/zdarzenia26.collaboration/ pracagrupowa online, wprzez firmę dla promocjiproduktów/usług;v. audioblogi – wpisy są dźwiękowe,odpowiedzi również, mogą byćprowadzone w czasie rzeczywistym<strong>przy</strong>pominające audycje radiowe zudziałem aktywnym słuchaczy(prowadzącym jest bloger, uczestnikamiosoby chcące zareagować na usłyszanątreść wpisu).Blogi mogą być ze sobą powiązane, autorzyjednych blogów, komentują blogi innych,dając linki <strong>do</strong> swoich blogów, powstaje w tensposób blogosfera z powiązanymi blogami.Blogi mogą być dystrybuowane kanałamiaudio (audioblogi) lub RSS.Serwisy umożliwiające współdzielenie sięzasobami (wstawianie własnych zasobów,pobieranie <strong>do</strong>stępnych,oglądanie/czytanie/słuchanie, komentowanie,ocenianie). Istnieją portale ze zdjęciami,nagraniami video lub audio, prezentacjamiPowerPointa (lub w innym formacie),artykułami lub z zasobami mieszanymi.Serwisy kategoryzują zasoby. Sąsprofilowane pod określoną grupę odbiorcówlub temat (np. motoryzacyjne) lub ogólne.Aplikacje (np.Google Bookmarks) lubserwisy internetowe (Delicious - del.icio.us)dające możliwość przechowywania linków(zakładek) <strong>do</strong> stron wartych dla użytkownikazapamiętania i ewentualnie podzielernia się zinnymi, jak również usuwania. W zależnościod funkcji aplikacji/serwisu zakładki mogąstanowić zasób prywatny ewentualnieu<strong>do</strong>stępniany przez użytkownika lub zasóbprywatny publikowany na serwisie. Każdazakładka jest opisana, opatrzona może byćsłowami kluczowymi lub tagami lub/ikategorią/ami z <strong>przy</strong>jętej (zamkniętej) lubwspółtworzonej (otwartej) taksonomiiistniejącej w aplikacji/serwisie. Jest tomechanizm tworzenia własnej bazy wiedzy iwspółdzielenia się wiedzą.Serwisy <strong>przy</strong>jmujące, zarządzające iu<strong>do</strong>stępniające informacje zgłaszane owydarzeniach i miejscach. Zgłaszanemuwydarzeniu użytkownik <strong>przy</strong>pisuje tagi ikategorie z istniejących taksonomii, służącewyszukiwaniu zdarzeń. Można zapisywać sięna powia<strong>do</strong>mienia o zdarzeniach , można teżpromować własne wydarzenie i informacje onim poprzez sieci społeczne , w którychużytkownik uczestniczy, jak również poprzezpłatne usługi m.in. Adds In <strong>do</strong>stępne w tegotypu serwisach.Serwisy u<strong>do</strong>stępniające narzędzia zdalnejkomunikacji, w tym komunikacji audio (np.czaty, telaudiokonferencje), tworzenia,zarządzania i wymiany <strong>do</strong>kumentów,Flickr www.flickr.comSlideShare www.slideshare.netWrzuta.pl www.wrzuta.plPatrz.pl http://patrz.pYouTube www.youtube.comGoogle Bookmarkswww.google.com/bookmarksDelicious - del.icio.uswww.delicious.comLinkologia www.linkologia.plZvents http://www.zvents.comeventful http://eventful.comEventFull.comhttp://eventfull.comZimbra Collaboration Suitewww.zimbra.comGoogle www.google.comSecondLife30


27chmurze.audio30.wideo31.fora dyskusyjnekalendarzy, organizatorów i narzędzia oinnych funkcjach ułatwiające pracę zdalnychzespołów użytkowników. Również serwisyze śro<strong>do</strong>wiskami wirtualnej rzeczywistościmogą wspomagać pracę grupową m.in.wizualizując prace nad projektami, mogą teżpełnić rolę taniej namiastki systemuvideokonferencyjnego.Serwisy audio umożliwiają propagowanieinformacjibb. asynchronicznie wpodcastach jako tematy w radiuinternetowym lub jako audiowpisyblogów, na które można sięzarejestrować,cc.synchroniczniejako audycje radiowe, <strong>przy</strong>kła<strong>do</strong>wo wpostaci audio-blogów, zzarejestrowanymi aktywnymisłuchaczami mogącymi online kierować<strong>do</strong> blogera audio-wypowiedzi zeswoich telefonów lub Skype’a, lubjako audiokonferencje, pomocne wzdalnej pracy grupowej.Wideo jest coraz popularniejszą technologiąinformacyjną , stosowaną w formie wideo podcastów (klipów) <strong>do</strong>stępnych nażyczenie, ła<strong>do</strong>wanych w plikach nastronę klienta lub przesyłanychstrumieniowo za pośrednictwemserwerów strumieniowych; corazpopularniejsze stają się wideo podcastyinteraktywne („clickable”); równieżwideo podcasty mają zastosowanie wwideoblogach, webminarów umożliwiającychstrumieniowe rozsyłanie w czasierzeczywistym lub z niewielkimopóźnieniem prezentacji, zawartościekranu, przeprowadzanie testów iankietowania, czatowaniawideokonferencji internetowych , zmożliwością wymiany <strong>do</strong>kumentów(praca grupowa),transmisja na żywo z wydarzeń, również<strong>do</strong> śro<strong>do</strong>wiska wirtualnej rzeczywistości.Istnieją internetowe serwisy zarządzającepodcastami, serwisy świadczące usługiwebminarowe/wideokonferencyjne, istniejeoprogramowanie komercyjne i open source <strong>do</strong>web castingów i wideokonferencji. Sąwyszukiwarki internetowe wideo np. GoogleVideo.Fora służą prowadzeniu w trybieasynchronicznym dyskusji wieluużytkowników na dany temat (wątek)zainicjowany wpisem, na który następnie<strong>przy</strong>chodzą odpowiedzi poprzez wpisy<strong>przy</strong>porządkowane temu tematowi (tzn.hierarchicznie). Fora mogą być otwartehttp://secondlife.comBlogTalkRadiowww.blogtalkradio.comSirius Satellite Radiohttp://www.sirius.comPan<strong>do</strong>ra Internet Radiowww.pan<strong>do</strong>ra.comDimDim (wideo konerencjeinternetowe, webminary)http://www.dimdim.comPortal-forum matematyczneMatematyka.plhttp://www.matematyka.pl31


32.czaty33.kanały komunikacyjneRSS/email/SMS(anonimowe) lub wymagające rejestracji,mogą być ukierunkowane tematycznie lubogólne. Najczęściej stanowią <strong>do</strong>stępnąaplikację na portalach, mogą byćsamodzielnymi portalami, mogą też byćaplikacjami włączanymi <strong>do</strong> wewnętrznychinformatycznych systemów firmowych. Sąmoderowane przez wyróżnionego uczestnikaforum.Czaty służą prowadzeniu, w trybiesynchronicznym, rozmowy prywatnej dwóchuczestników, lub wielu uczestników w tzw.pokoju (tematycznym). Są serwisy czatowejak Gadu-Gadu lub aplikacje wbu<strong>do</strong>wane wserwisy internetowe lub w systemyinformatyczne firmowe.Kanały RSS, email, SMS w Web 2.0 służą <strong>do</strong>zwiększania zasięg dystrybucji treścitworzonych społecznie. Przykła<strong>do</strong>wo: treść blogów w postaci audio podcastówmoże być prenumerowana idystrybuowana przez kanał RSS(<strong>do</strong>kładnie protokołem ATOMnowocześniejszym niż RSS), który wpierwotnym celu służył i służy <strong>do</strong>dystrybucji treści ze stron WWW; emailem można przesłać treści ze światawirtualnego (w którym np. trwa pracagrupowa) <strong>do</strong> świata rzeczywistego (iodwrotnie);informacja wysłana SMS’em może byćumieszczona jako wpis na mikroblogulub moblogu.Serwisy Web 2.0 wykorzystują te kanały,np. serwis z informacjami o zdarzeniachmoże informacje o nich przesyłać przez RSS,jeśli użytkownik chce z kanału RSSskorzystać.Są serwisy wspomagające korzystanie z tychkanałów i uefektywniające prace z nimi, np.serwisy i aplikacje typu bacn (bacon)zarządzają emailami mniej wartościowymi,zamówionymi przez użytkownika, więc niebędącymi spamami, ale które nie muszą nabieżąco pochłaniać uwagi użytkownika i godekoncentrować, takimi wia<strong>do</strong>mościami sąnp. zaprenumerowane newslettery,powia<strong>do</strong>mienia z serwisówspołecznościowych.Przykła<strong>do</strong>wo serwis BaconAid gromadzi ihttp://www.gadu-gadu.plBaconAid www.baconaid.comporządkuje emaile z powia<strong>do</strong>mieniami oaktywnościach lub zdarzeniach w serwisach,w których użytkownik jest zarejestrowany.Technologie Web 2.0 generują strumienie informacji w czasie rzeczywistym, którepodlegają konwersji tzn. informacje zgromadzone jedną technologią są lub mogą byćdystrybuowane innymi technologiami. Treści wpisów na blogach mogą byćdystrybuowane przez RSS lub technologie audio, inne <strong>przy</strong>kłady zostały podane wTabeli 1. Zwiększa się w ten sposób <strong>do</strong>stępność, zakres i szybkość informacji.32


Cechy i wpływ Web 2.0Łatwość w komunikowaniu się, tworzeniu, współpracy i dzieleniu się treścią, jakąużytkownikom stwarzają technologie Web 2., jak również ich <strong>do</strong>stępność i niskie kosztyużywania obniżają bariery dla <strong>do</strong>starczania, współdzielenia i rozpowszechniania treści.Coraz większe wykorzystanie społecznych aplikacji (np. 150 mln/dzień użytkownikówFacebooka), w celu dzielenia się informacją, udzielania pomocy, znaj<strong>do</strong>wania osób„sobie” po<strong>do</strong>bnych, wzajemnego uczenia się i przekazywania wiedzy wymusza ipowoduje zmiany postaw, organizacji pracy i procesów biznesowych, jak równieżzmiany w funkcjach i możliwościach systemów informacyjnych.Obraz statystyczny - trendy używalności Web 2.0 przez pracowników i stosunekorganizacji <strong>do</strong> Web 2.0Ostatni raport, z końca 2010 r., gildy The Elearning Guild [1], <strong>do</strong>tyczący wykorzystaniatechnologii 2.0. podaje dane z badań, którymi zostało objętych 1000 organizacji(przedsiębiorstwa, wyższe uczelnie, organizacje pozarzą<strong>do</strong>we, administracja publiczna)z całego świata. Raport przedstawia poziom i trendy zainteresowania Web 2.0pracowników i pracodawców w okresie trzech lat 2008-2010. Przedstawia równieżplany pracowników i organizacji na 2011 r. wykorzystania technologii 2.0.Największą popularnością wśród pracowników cieszy się czytanie blogów (codzienne –71,1%), czytanie Wiki (codzienne - 70,9 %), korzystanie z Facebooka i LinkedIn(codziennie – odpowiednio 54,7% i 54,3%), mniejszym uznaniem cieszy się Twitter(26,8%), a najmniejsze zainteresowanie pracownicy wykazują tworzeniem podcastów(nigdy - 72,4% ) i pisaniem artykułów <strong>do</strong> wiki (nigdy – 66,9%). Jeśli chodzi o trendyużywalności, to po zmniejszeniu zainteresowania Web 2.0 (z wyjątkiem Facebooka iTwittera) w okresie załamania gospodarczego, wi<strong>do</strong>czna jest tendencja wzrostowa, zwyjątkiem spadku popularności zakładkowania (bookmarkingu). Warto zauważyć, żenajsilniejszy wzrost popularności wykazuje Facebook, a zaraz za nim obrót fotografiamii tworzenie podcastów. W tym ostatnim wypadku można sądzić, że coraz bardziejupowszechniają się technologie tworzenia podcastów i wzrosły umiejętności odbiorcóww tym zakresie, oprócz tego, że coraz bardziej preferowanym środkiem przekazuinformacji jest obraz i audio (Rys. 1a i Rys. 1b).33


Najpopularniejszeczytanie wiki i blogów,gorzej z ichtworzeniem.Największy trendwzrostowy – foto orazFacebook (Rys. 1 b).Rysunek 1 a. Poziom i trendy używalności technologii 2.0 przez pracowników (cz. 1)Źródło: [1]34


Najmniej popularnetworzeniepodcastów, ale silniewzrasta.Rysunek 1 b. Poziom i trendy używalności technologii 2.0 przez pracowników (cz. 2)Źródło: [1]Jeśli chodzi o postrzeganie Web 2.0 przez pracodawców, to wg pracownikóworganizacje wykazują coraz mniejszą obojętność w stosunku <strong>do</strong> korzystania przezpracowników z Web 2.0, zaś pracownicy coraz większą ochotę. Organizacje<strong>do</strong>strzegają wiążące się z Web 2.0 kłopoty i problemy <strong>do</strong> rozwiązania, zwiększającesię wraz z coraz większą popularnością Web 2.0 wśród pracowników. Opiniapracodawców o Web 2.0, ujawniona w ww. <strong>badania</strong>ch, wskazuje, że największagrupa organizacji (30,9%) stosuje pewne ograniczenia w <strong>do</strong>stępie <strong>do</strong> zewnętrznychtechnologii 2.0 (Rys. 2), np. wybiórczą kontrolę treści przed ich umieszczeniem nazewnątrz, najmniej liczną grupą (9,6%), i stale malejącą, są organizacje, które dająnieograniczony <strong>do</strong>stęp <strong>do</strong> 2.0. Wzrasta też liczba organizacji (w ciągu roku o ok. 4%<strong>do</strong> 19,9% w 2010 r.), które nie planują żadnych zastosowań 2.0, co może wynikać zlęku przed skutkami ich zastosowań.Z technologii 2.0, których wykorzystywanie przez pracowników (z firmy lub z <strong>do</strong>mu)w największym stopniu są akceptowane przez organizacje należy wymienić:Wikipedię (90,9%), serwis społecznościowy LinkedIn (76,6%), pocztę elektronicznąGoogle gMail (71,8%) i aplikację iGoogle (70,4%) <strong>do</strong> prowadzenia osobistych stronWWW. Wyjaśnienia wymaga wysokie poparcie stosowania LinkedIn <strong>przy</strong> dużo35


niższym Facebooka (67,0%). Wynika to z charakteru LikedIn ukierunkowanego narozwój zawo<strong>do</strong>wy i biznesowy. LinkedIn jest o wiele <strong>do</strong>skonalszym wcieleniempolskiego GoldenLine, a to m.in. dlatego, że zostanie członkiem LinkedIn wymagareferencji, co ma wpływ na wysoką jakość komunikacji i poziom informacji będącejw obrocie.Największe protesty budzi wykorzystywanie przez pracowników Facebooka (29,9%) iYouTube (26,4%), może dlatego, że są przez pracowników najintensywniejwykorzystywane, zaś pracodawcy w większości, bez względu na sektor <strong>do</strong> jakiegonależą, nie widzą z tego korzyści biznesowych (Rys. 2).Najwięcej uczelnie limitują <strong>do</strong>stępSłabo u wszystkich z planami biznesowymi w stosunku <strong>do</strong> Web 2.0Najwięcej NGO <strong>przy</strong>mierza się, podpatrującRysunek 2. Stosunek organizacji <strong>do</strong> technologii Web 2.0Źródło: [1]Obraz statystyczny - plany organizacji <strong>do</strong>tyczące Web 2.0Przy istniejących obawach organizacji co <strong>do</strong> negatywnych skutków wynikających zestosowania przez pracowników technologii 2.0 i <strong>przy</strong> słabym <strong>do</strong>strzeganiu aspektubiznesowego, ok. 70% organizacji deklaruje jednak uwzględnienie tych technologii wplanowanych przedsięwzięciach, pozostając <strong>przy</strong> obawach zawartych w pytaniach(bez odpowiedzi):b) Jak chronić własność intelektualną treści wygenerowanych przezpracowników ?c) Kto jest właścicielem treści powstałych ze współpracy grupy ?,d) Jak zachować wiarygodność i bezpieczeństwo współdzielonych treści ?Korzyści z Web 2.0 widziane przez organizacje wynikające z luźnych wypowiedzizawartych w ankietach badawczych [1] są następujące:świetna metoda dzielenia się pomysłami na wskroś struktury organizacyjnej ipełnionych funkcji;zwiększanie efektywności pracy;zwiększenie i poprawa współpracy;36


lepsza komunikacja między pracownikami;zwiększona kreatywność i rozwiązywalność problemów;zmniejszenie dezinformacji;poprawa przepływu informacji wewnątrz organizacji, w tym między oddalonymigeograficznie oddziałami.Ten pozytywny obraz ulega deformacji po analizie danych zebranych zkwestionariuszy ankietowych, z których wynika, że np. 62,1% organizacji nie widzizwiązku między Web 2.0 a redukcją kosztów, ani związku (56,1%) z poprawąwydajności pracy czy uczenia się (Rys.3).Rysunek 3. Pożytki z Web 2.0 widziane przez organizacjeŹródło: [1]Problemem więc pozostaje, jak włączyć Web 2.0 <strong>do</strong> przedsiębiorstwa w sytuacji, gdy … imwięcej <strong>przy</strong>jaciół na Twitterze, tym mniejsza produktywność ? Czyli jak <strong>do</strong>konaćtransformacji formalnej i nieformalnej wiedzy pracownika w aktywa materialne ?Zmiany modeli <strong>przy</strong>swajania wiedzy pod wpływem Web 2.0Pod wpływem Web 2.0 zmieniły się postawy i tendencje społeczne, które można wyrazićprzez model „user”-centryczny i model niehierarchiczny pozyskiwania i <strong>przy</strong>swajaniawiedzy.Model „user”-centryczny bardzo <strong>do</strong>brze wyraża kilka zdań (angielskich), które <strong>przy</strong>tacza wwywiadzie [2] Anya Kamenetz dla opisania postawy młodego pokolenia:„….to have control over how I learn, what I learn, and where I learn.I'm not just a consumer, I'm a co-creator and collaborator.I can share/mashup/remix knowledge.”Odbiorca wiedzy jest również jest współautorem, decydującym kiedy, gdzie i w jaki sposób jąz<strong>do</strong>bywa, przekształca i <strong>przy</strong>swaja.37


Model niehierarchiczny z<strong>do</strong>bywania wiedzy wynika ze spłaszczania hierarchii organizacyjnej,<strong>przy</strong>kładem mogą być społeczne grupy bez wyraźnego <strong>przy</strong>wództwa osiągające cel, albopoziome, w poprzek hierarchii organizacyjnej zespoły zadaniowe.Zanika różnica między pracą a procesem uczenia się, wobec ogromnej dynamiki zmianpotrzeb, wymagań, technologii. Stanowisko pracy, gdzie potrzebny jest online <strong>do</strong>stęp <strong>do</strong>wiedzy dla efektywnej realizacji zadań, jest jednocześnie stanowiskiem ciągłego uczenia sięi podnoszenia kompetencji. Nieformalna nauka to 75%-80% procesu uczenia się, zarówno wpracy, jak i w szkole, w tym dużą rolę odgrywa uczenie się społeczne, zespołowei korzystanie z wiedzy bu<strong>do</strong>wanej społecznie (nazywanej czasami w publikacjach mądrościątłumu lub inteligencją społeczną). Te tendencje społeczne <strong>do</strong>brze wyraża nazwa popularnegosystemu open source zarządzania treścią Joomla ! (Razem !).W tym odchodzeniu od autorytarnego przekazywania wiedzy, zmienia się też rola osóbprzekazujących wiedzę – z mędrca-nauczyciela w lidera, facylitatora. Model „sage on thestage” (prawd z ambony) staje się mniej potrzebny i mniej popularny.Oprócz centryczności użytkownika i spłaszczenia hierarchii organizacyjnej tworzenia i<strong>przy</strong>swajania wiedzy, zauważalną tendencją jest „grywalizacja” (ang. edutainment) czylioczekiwanie i dążenie <strong>do</strong> jak najatrakcyjniejszej formy przekazywania i <strong>przy</strong>swajaniainformacji przez gry i symulacje, cieszące się ogromną popularnością. „Grywalizacja” jestczęścią immersyjności systemów informacyjnych, co będzie omówione w dalszej częściartykułu.Trendy potrzeb informacyjnychPracownik potrzebuje wiedzy na stanowisku pracy - tu i teraz, <strong>do</strong>kładnie takiej, jakiejpotrzebuje. Zamiast dużych porcji szkoleń/wiedzy potrzebne są granulki wiedzy nastanowisku pracy, z których pracownik buduje sobie potrzebną wiedzę (agregacja wiedzy).Pracownik ustala ścieżki szkolenia (z<strong>do</strong>bywania wiedzy) zgodnie z potrzebami. Ścieżkaedukacyjna zastępowana jest obecnie przez śro<strong>do</strong>wisko edukacyjne albo informacyjne, jakiepracownik sobie tworzy i jakie mu tworzy organizacja. Następuje indywidualizacja procesu<strong>do</strong>starczania wiedzy (zgodnie z modelem centrycznym). Zwiększa się immersyjność przekazuwiedzy poprzez interaktywny udział użytkownika (gry, symulacje, ćwiczenia, sprawdziany),<strong>przy</strong>swajanie wiedzy przez „<strong>do</strong>tknięcie” np. konstrukcja projektu w wirtualnej rzeczywistościlub uliczne gry edukacyjne za pomocą urządzeń mobilnych z GPS i zastosowaniem w nichtechnologii rozszerzonej rzeczywistości. Imersyjność procesu informacyjnego(edukacyjnego), polegająca na aktywnym wprowadzaniu użytkownika w wirtualnych świat iprowokowaniu w nim użytkownika <strong>do</strong> aktywnych zachowań, w głównej mierze opiera się nazastosowaniu multimediów, animowanego obrazu 2D i 3D, możliwości lokalizacjigeograficznej użytkownika, rozpoznawaniu otoczenia, rozpoznawaniu obrazu i gestów,uzyskiwania w czasie rzeczywistym od mobilnego użytkownika informacji, jak równieżz<strong>do</strong>bywania w czasie rzeczywistym informacji o nim i <strong>do</strong>kładnie dla niego. Więcej informacjio zastosowaniach wirtualnej i rozszerzonej rzeczywistości w procesach informacyjnych iedukacyjnych oraz o imersyjności systemów informacyjnych zawartych jest w pracy [3].Co oferuje Web 3.0 ?Web 2.0 spowo<strong>do</strong>wał z jednej strony duże uspołecznienie w komunikacji oraz tworzeniutreści i wiedzy, z drugiej strony nastąpiło zwiększenie egocentryzmu użytkowników ipotrzeby indywidualizacji kontaktów i procesów informacyjnych. Potrzeba indywidualizacjiwynika również z powodu natłoku informacji i konieczności wsparcia użytkownika wposzukiwaniu i <strong>do</strong>stępie <strong>do</strong> właściwej informacji. W wyniku kilkuletnich <strong>do</strong>świadczeń z Web2.0 powstały i powstają ogromne zasoby treści - potencjalne źródła wiedzy dla38


użytkowników. Istnieje potrzeba szybkiej dystrybucji tej wiedzy, <strong>do</strong>kładnie wg potrzeb, czyliskutecznie i efektywnie.Trwa rozwój technologii Web - od Web 2.0 <strong>do</strong> Web 3.0. Modelowi „user”-centrycznemutowarzyszy rozwój modelu decentralizacji i adaptacyjności wirtualnej platformy<strong>do</strong>starczającej danych i funkcji. Biorą się one „z chmury”, z oprogramowania SaaS, zprzeglądarek WWW, z komputerów stacjonarnych i urządzeń mobilnych, z zasobówspołecznych i prywatnych, dzięki otwartym interfejsom API, standar<strong>do</strong>wym protokołomWWW, formatom danych z <strong>do</strong>brze opisaną ich semantyką. Dane są zabezpieczane otwartymiprotokołami bezpieczeństwa i standardami.Web 3.0 „popycha” przedsiębiorstwa od działań opartych na zamkniętych, systemachstrzegących własności w kierunku większej otwartości działania, charakteryzującego siędzieleniem się zasobami i ich współużywalnością oraz współpracą.MashupIdeą Web 3.0 jest automatycznie <strong>do</strong>starczać i zarządzać informacją jak najlepiej<strong>do</strong>stosowaną <strong>do</strong> potrzeb użytkownika. Web 3.0 to, w skrócie, automatyczne, rozumne,inteligentne i szybkie <strong>do</strong>starczanie treści. Web 3.0 to sposób kreacji nowej wiedzy zistniejących zasobów Internetu za pomocą inteligentnego oprogramowaniakomputerowego.To co dziś charakteryzuje Web 2.0 i Web 3.0 to: wirtualna agregacja danych i funkcji z wielu źródeł (mashups), przetwarzanie w chmurze - model SaaS oprogramowania (cloud computing), informacje z sieci społecznych (lifestreaming), informacje w czasie rzeczywistym (real-time Web), informacyjna efektywność stron WWW (technologia programistyczna Ajax), rozumienie semantyczne informacji w/z Internetu (semantic Web).Powyższe technologie i zjawiska objęte są terminem „mashstream” (agregowanystrumień z wielu źródeł).Web 3.0 często jest kojarzony z mashup, który bazuje na otwartych,współużywalnych zasobach danych i funkcji w technologiach internetowych.Web 3.0 i mashup w przedsiębiorstwie powoduje ewolucję w modelach biznesowych.Wymagają one odpowiedniej infrastruktury. By ją utworzyć i utrzymać, potrzebne sątechnologie, interfejsy, narzędzia oraz serwery.Przykła<strong>do</strong>wymi: technologiami są HTML/XHTML, XML, AJAX, REST, RDF, RSS/Atom,Widgets/Gadgets; otwartymi protokołami umożliwiającymi sięgnięcie <strong>do</strong> danych społecznych ifunkcji są YouTube API, YouTube Player, YooTube Widgets; narzędziami zwanymi edytorami mashupu są Google App Engine (śro<strong>do</strong>wisko<strong>do</strong> tworzenia aplikacji mashup opartych o infrastrukturę Google), lub Yahoo!Pipes (edytor <strong>do</strong> agregowania, wg zdefiniowanego kryterium, danych zróżnych źródeł Web jako nową, nazwaną porcję wiedzy).Istotę mashupu bardzo <strong>do</strong>brze ilustruje obrazek (Rys.4) wyłaniającego się kształtugruszki z kilku różnorodnych warstw – plasterków owoców, umieszczonego naokładce książki J.J. Hanson’a „Mashups”. Proces tworzenia (edycji) mashupu,<strong>przy</strong>kła<strong>do</strong>wo - <strong>przy</strong> pomocy Yahoo! Pipes, przedstawia Rys 5., a Rys. 6. ilustrujeproces agregowania nowej wiedzy z zasobów z różnych źródeł.39


Rysunek 4 Ilustracja idei mashup’uŹródło: pierwsza strona okładki [4]Rysunek 5. Przykład edycji mashupu w Yahoo! PipesŹródło: własneNowa porcja wiedzy jest tworzona pod indywidualną potrzebę użytkownika.Tworzona jest z wielu źródeł, społecznych i prywatnych, z najbardziej wartościowychelementów informacyjnych (wg społecznych ocen), uporządkowanych wg ważności(stopnia <strong>do</strong>pasowania), z najbardziej relewantnych w stosunku <strong>do</strong> zapytania(zgłoszonej potrzeby). Wyszukiwanie elementów odbywa się zgodnie z ichsemantycznymi opisami wg <strong>przy</strong>jętych ontologii. Opisy elementów zawarte są albo wtreści elementów albo w oddzielnych plikach towarzyszących elementom. Powstający40


nowy „artykuł” (nowa porcja wiedzy) może być opatrzony własnymi opisami(komentarze, opinie, oceny) użytkownika i zapamiętany. Proces tworzenia wiedzy„mashupowej” ilustruje Rys. 6.Dla wybranego tematu pobierane są lubprzekazywane najbardziej wartościowe treściz publicznych i prywatnych zasobów.By utworzyć bazę wiedzy powstałą zmashup’u, treści muszą byćzestrukturalizowane, uporządkowane imuszą mieć <strong>przy</strong>pisany kontekst.Odpowiedzialni za mashup(twórcy) muszą treściomOdbiorca wiedzy uzyskanej przez zapewnić kontekst, używającmashup może ją uzupełniać swoimi <strong>do</strong> tego np. konspektów, mapkomentarzami, opiniami i uwagami. treści, listy referencyjnej, osiczasu, syllabusaRysunek 6 Ilustracja „knowledge mashup”Źródło: własneSemantyka Web 3.0W Web 3.0 rozwijają się technologie semantyczne i semantyczne wyszukiwanie treści.Te technologie są stosowane w mashupie. Semantyka w sensie Web 3.0, różni się odsemantyki języków naturalnych. Jest prostsza. Zasób jest semantycznie opisywany, bywg tego opisu mógłby być wyszukany. Semantyczne metadane, opisujące zasób,mogą znaj<strong>do</strong>wać się wewnątrz zasobu (np. wewnątrz strony html) lub w zewnętrznympliku, na który jest wskazanie w zasobie. Metadane tworzone są w języku XMLpo<strong>do</strong>bnymRDF 1 wg słowników ontologicznych (ontologii). Treść pliku .rdf jestzapisem (opisem) treści zasobu językiem danej ontologii (z użyciem elementów zesłownika ontologicznego) w formacie narzuconym przez język RDF. Ontologie możnaokreślić jako słowniki hierarchiczne - taksonomie, z <strong>do</strong>danymi relacjami międzyelementami ontologii lub między ontologiami, co lepiej i szczegółowiej pozwalaopisać zasób. Można zrobić odniesienie ontologii <strong>do</strong> zasad programowaniaobiektowego i relacji między klasami, klasami i obiektami i ich właściwościami.Ontologie są dziedzinowe np.: SIOC 2 – <strong>do</strong> opisu dyskusji w forach, blogach, emailach;FOAF 3 – <strong>do</strong> opisu osób – uczestników Web 2.0; Good Relations – <strong>do</strong> opisu w e-handlu produktów, cen, firm; SKOS 4 – <strong>do</strong> opisu systemów organizacji wiedzy, jaksemantycznych specyfikacji słowników, taksonomii, tezaurusów. Językiem opisu1RDF – Resource Description Framework2SIOC - Semantically-Interlinked Online Communities3FOAF - The Friend of a Friend4SKOS - Simple Knowledge Organization System41


ontologii jest język OWL 5 . Zasób może być opisany w więcej niż jednej ontologii,równolegle z „tradycyjnymi” opisami metatagami HTML. Ponieważ procesyopisywania zasobów metadanymi są czasochłonne i wymagają kompetencji, co jest<strong>przy</strong>czyną <strong>do</strong>ść powolnego rozwoju sieci semantycznych, <strong>do</strong>stępne są narzędziawspomagające tworzenie ontologii i tworzenie opisów (plików .rdf) wg ontologii,zwane edytorami i generatorami RDF. Nowszą technologią opisu semantyki zasobówsą mikroformaty (tagi) związane ze standardem HTML5. Nie są jeszcze tak popularnejak .rdf i nie wszystkie wersje przeglądarek WWW akceptują HTML5. Zasoby sąindeksowane na podstawie opisów semantycznych. Z indeksów semantycznychkorzystają semantyczne wyszukiwarki, takie jak Swoogle, Sindice, FalconS. Istniejąoczekiwania, by Google objął indeksacją pliki .rdf i wtedy szybciej by sięupowszechniła semantyka Web 3.0 i korzyści z tego płynące. Rysunek 7 przedstawiazarys sieci semantycznej i semantycznego wyszukiwania.SiećsemantycznawwwhtmlPlik .rdfPlik z ontologią Xz opisem .owlsemantycznym.rdf.rdfhtmlPlik z ontologią Y.rdf..owlWyszukiwarka semantycznaGoogle ?1. Ontologie (słowniki taksonomiczne z relacjami wstandardzie OWL - Web Ontology Language).2. Metadane semantyczne (pliki .rdf w standardzieRDF - Resource Description Framework z opisamiwg <strong>przy</strong>jętej ontologii)3. Indeksowanie pliku .rdf4. Wyszukiwanie semantyczne: relewantne<strong>do</strong>kumenty, uporządkowane wg ważności ipo<strong>do</strong>bieństwaRysunek 7. Schemat wyszukiwania w sieci semantycznejŹródło: własneGdy zasoby nie są stronami html, a znajdują się w repozytoriach, <strong>do</strong>chodzi potrzebakomunikacji miedzy wyszukiwarką semantyczną a repozytorium. Jest kilkastandardów języków (protokołów) komunikacji z repozytoriami takie jak OAI-PMH 6 ,XMI 7 (dla metadanych w standardzie MOF 8 ), IMS DRI 9 , CORDRA 10 . Najczęściejwyszukiwarki „<strong>do</strong>gadują się” z repozytoriami w języku OAI-PMH. W repozytoriachzasoby są opisane w różnych standardach metadanych, w różnych ontologiach.Przykładem lżejszej ontologii, niespecjalizowanej i nierozbu<strong>do</strong>wanej jest popularnaontologia Dublin Core <strong>do</strong> opisywania różnych zasobów, np. w bibliotekach5OWL – Web Ontology Language6OAI-PMH - Open Archives Initiative Protocol for Metadata Harvesting7XMI - Metadata Interchange8MOF - Meta-Object Facility9IMS DRI - IMS Digital Repositories interoperability10CORDRA - Content Object Repository Discovery and Registration42


cyfrowych. Innymi standardami metadanych są np.: IEEE LOM 11 i IMS LOM - <strong>do</strong>opisu kontentu edukacyjnego; S1000 - <strong>do</strong> opisu <strong>do</strong>kumentacji technicznej, zwłaszczasprzętu; DocBook - <strong>do</strong> opisu <strong>do</strong>kumentacji technicznej oprogramowania.Rozbu<strong>do</strong>wane wyszukiwarki akceptują wiele standardów opisu. Zwłaszcza, żewspółpracują z repozytoriami metadanych, tzw. harvesterami, które gromadząmetadane o zasobach w różnych standardach znajdujących się z repozytoriachzasobów. „Harvestery” są pośrednikami między wyszukiwarkami i repozytoriami zzasobami.Strukturyzacja zasobów informacyjnychIm większa strukturyzacja zasobu informacyjnego, tym możliwy jest precyzyjniejszyjego opis i większe praw<strong>do</strong>po<strong>do</strong>bieństwo wyszukania nie tylko całego zasobu, alerównież jego części. Każdy element struktury zasobu, wyodrębniony przez autora/ów,jak i cały zasób, może być opisany wg <strong>przy</strong>jętego standardu, najbardziej pasującegosemantycznie. Przykła<strong>do</strong>wo wyszukiwarka kontaktów Friend Find Facebookakorzysta z metadanych opartych o ontologię, wcześniej wymienioną, FOAF.Narzucona przez ontologię struktura metadanych obrazowana jest w formularzachelektronicznych, które użytkownik wypełnia np. w formularzu swojego profilu, i wgtych danych może być wyszukiwany. Bloger ma możliwość otagowania blogu lubwpisu, czytelnik blogu <strong>do</strong>dać mu swojego „lajka” („lubię to”). Treść wpisu może byćwyszukana wg słów kluczowych w procesie mashupu (np. przez agregatory blogówtakich jak Google Blocksearch) i uporządkowana wg wartości nadanej społeczniepoprzez liczbę „lajków”. Na tle zestrukturalizowanych zasobów w serwisachspołecznościowych i w blogach, zasoby Wikipedii są opisane skromnie – artykuł maautora, tytuł, kategorię, datę zmiany, słowa kluczowe. Dlatego jednym z ciekawszychprojektów jest znany DBpedia Project [6] mający na celu lepsze wykorzystanieogromnych zasobów Wikipedii, poprzez ich większe zestrukturalizowanie i opisaniewg odpowiednich ontologii, by artykuły i ich części mogły być wykorzystane pozasystemem Wikipedii np. w przeglądarkach otoczenia [5]. W końcu 2010 r. DBpediadysponowała 1,67 miliona (z istniejących pond 3,5 mln) sklasyfikowanychsemantycznie elementów informacyjnych wg spójnych ontologii. Opisane elementy<strong>do</strong>tyczą m.in. 364 000 osób, 462 000 miejsc, 99 000 albumów muzycznych, 54 000filmów.O strukturyzacji zasobów i opisie semantycznym, np. <strong>do</strong>kumentacji, podręczników,warto pamiętać <strong>przy</strong> ich tworzeniu, zapisując ich treść zgodnie z <strong>przy</strong>jętymstandardem/ontologią i/lub tworząc w tym standardzie (lub w kilku) plik (pliki) zmetadanymi. Tak <strong>przy</strong>gotowane zasoby będą mogły uczestniczyć w procesachwyszukiwania semantycznego <strong>do</strong>starczając adekwatną <strong>do</strong> potrzeby granulkę wiedzyużytkownikom np. o produkcie lub technologii w czasie nauki i/lub pracy.(Mega)tendencje technologiczne i <strong>przy</strong>kłady nowoczesnych systemów informacyjnychStały wzrost szybkości transmisji danych i obniżające się jej jednostkowe koszty powodująwzrost usieciowienia. Za tym idzie wzrost zakresu i możliwości wirtualizacji – dalszegorozwoju modelu SaaS i przetwarzania w chmurze. Popularnym kierunkiem rozwoju systemówjest korzystanie z zasobów „z chmury”, funkcjonalnych i informacyjnych - z zasobówserwisów społecznościowych, z Google Apps, w wyniku otwartych interfejsówprogramistycznych API. Nowe systemy projektowane są często jako „nakładki” na Google.Wirtualizacja zaczyna obejmować również działania ludzkie, które w rzeczywistości nie11LOM – Learning Object Metadata43


mogą być realizowane, ponieważ coraz większe kłopoty z pracą i coraz więcej posiadanegoczasu wolnego kieruje uwagę ludzi <strong>do</strong> wirtualnych śro<strong>do</strong>wisk, gdzie mogą się realizowaćzawo<strong>do</strong>wo (np. być aktorami, nauczycielami) lub społecznie (np. w grupach dyskusyjnych).Tempo i ciągłe zmiany technologii, wymagań i wynikających stąd potrzeb, zwłaszcza wmiejscu pracy, powoduje zwiększające się zapotrzebowanie na informacje/wiedzę „on line”„na żądanie”, „adaptatywną”, „just-in-time”.Zwiększająca się automatyzacja, wsparta inteligencją systemów, zastępuje w coraz większymstopniu nie tylko pracę rąk, ale umysłów.Zwiększa się otwartość na współpracę, wynikająca z od<strong>do</strong>lnych społecznych działań Web 2.0.Aplikacje społeczne, takie jak fora, blogi, czaty wprowadzane są <strong>do</strong> rozwiązań biznesowych:<strong>do</strong> informacyjnych systemów korporacyjnych, systemów zarządzania korporacyjną baząwiedzy, <strong>do</strong> systemów edukacyjnych, <strong>do</strong> e-kursów. Korporacyjne zasoby wiedzy uzupełnianesą wiedzą czerpaną z zasobów społecznych zewnętrznych i wewnętrznych.Coraz powszechniejszym modelem u<strong>do</strong>stępniania funkcji jest open source (na licencjachpłatnych i nieodpłatnych) i usługi wspomagające odbiorców open source w utrzymywaniutych rozwiązań.W związku z dynamicznie rozwijającymi się potrzebami wiedzy/informacji, na żądanie,<strong>do</strong>starczanej <strong>do</strong> miejsca, w którym znajduje się odbiorca, systemy informacyjne ulegająfunkcjonalnym rozszerzeniom i przekształceniom, np. edukacyjne systemy typu LMS 12przekształcają się w systemy zarządzania wiedzą KMS 13 m.in. w wyniku współpracy zzewnętrznymi repozytoriami zasobów informacyjnych, serwis Facebook we współpracy zGoogle Analytics może pełnić rolę platformy edukacyjnej LMS m.in dzięki otwartemuinterfejsowi API i otwartemu interfejsowi API Google Analytics, śro<strong>do</strong>wiska wirtualneMUVE 14 , np. SecondLife, mogą pełnić rolę systemów pracy grupowej, bądź systemówedukacyjnych.Silnie rozwija się immersyjność systemów informacyjnych, zwłaszcza w zastosowaniachedukacyjnych i wsparciu informacyjnym na stanowisku pracy. Imersyjne rozwiązania,umożliwiające interaktywność użytkowników i <strong>do</strong>stosowanie przekazywanej wiedzy <strong>do</strong>bieżącej potrzeby, wykorzystują technologie wirtualnej rzeczywistości, rozszerzonejrzeczywistości, rozpoznawania gestów, obrazu i lokalizacji użytkownika.Przykładami nowoczesnych systemów informacyjnych, na których bu<strong>do</strong>wie i funkcjonowaniuodcisnęły ślad technologie Web 2.0 i Web 3.0, są: system zarządzania korporacyjną wiedzą Absolutely! (AHG Inc.) [7], którywspółpracuje z Google Apps korzystając z zasobów „z chmury” oraz ma wbu<strong>do</strong>waneaplikacje społeczne służące <strong>do</strong> rozwijania przez pracowników wewnętrznej bazywiedzy; system InGenius (SkillSoft PLC) [8] zarządzania wiedzą firmową stanowiący<strong>przy</strong>kład rozwinięcia systemu e-learningowego LMS w kierunku KMS i włączeniatechnologii społecznych Web 2.0, również zewnętrznych – Facebook i Twitter; DBMobile [6] – mobilny system informujący o bieżącym otoczeniu użytkownika(osobach, obiektach, miejscach) za pomocą obiektów wirtualnej rzeczywistościzawierających informacje z DBpedii - zestrukturalizowanych semantycznie zasobówWikipedii (produkt projektu DBpedia); SZOK (KIGEiT, Polska) [9] system w modelu SaaS, w fazie opracowywania,zarządzania <strong>do</strong>kumentami, będący nakładką na Google Apps.Zakończenie12LMS – Learning Management System13KMS – Knowledge Management System14MUVE – Multiuser Virtual Environment44


Media społeczne będą nadal się rozwijać jako źródła treści i weryfikacji treści. Wzrośnieliczba tych, co będą wiedzieli, jak dla własnych potrzeb zagospodarować te media. Wiedzaspołeczna („mądrość tłumu”) będzie główną strategią pozyskiwania wiedzy, zwłaszcza przezosobników mocno usieciowionych (w sieciach społecznych). Społeczne pozyskiwanie wiedzystanie się nowym modelem w zarządzaniu wiedzą. Będzie rosło znaczenie współpracyspołecznej dla podnoszenia wiedzy i jako wsparcie na stanowisku pracy (performancesupport), w tym z zastosowaniem rzeczywistości rozszerzonej. Połączenie technologiimobilnych i społecznych będzie katalizatorem nowych, silniejszych strategii uczenia się iwspierania na stanowisku pracy. A<strong>do</strong>pcja technologii mobilnych w procesach uczenia się ipomocy w pracy będzie zmieniać systemy wspomagające edukację LMS, LCSM 15 , KMS iEPSS 16 m.in. w kierunku większej współpracy w u<strong>do</strong>stępnianiu swoich repozytoriówkontentu, jak i wykorzystywania zasobów społecznych. Potrzeba zwiększonejinteroperacyjności systemów będzie wymagała zwiększonych wysiłków twórców systemóww zakresie standaryzacji zapisów i semantycznych opisów kontentu, jak również jegowiększej strukturyzacji, niezbędnej dla mobilnych urządzeń i zwiększającej skutecznośćwyszukiwania.Literaturab) Shank P.: Learning 2.0, the Elearning Guild Research, 2010c) Kamenetz A.: How Startl Is Hacking Education From the Outside In,www.fastcompany.com/article/startl-hacking-education , 2010d) Brzostek-Pawłowska J.: Imersyjna edukacja: zastosowania wirtualnej rzeczywistości welektronicznych kursach, Prace Naukowo-Badawcze Instytut Maszyn Matematycznych, nr2/2009 (12)e) Hanson J.J.: Mashups: strategies for the modern enterprise, Addison-Wesley, 2009f) Brzostek-Pawłowska J.: Między Web 2.0 i 3.0: Mobilne systemy informacyjne zrozszerzoną rzeczywistością, Elektronika, nr 11/2010Netografiag) http://dbpedia.orgh) www.ahg.comi) http://www.skillsoft.com/products/inGenius/default.aspj) http://www.kigeit.org.pl/informacje/szok/iSZOK_ogolne.htm15LCMS – Learning Content Management System16EPSS - Electronic Performance Support Systems45


Zastosowanie map semantycznych w symulacji robota mobilnegoApplication of semantic maps for mobile robot simulationDr inż. Janusz Będkowski, prof. dr hab. inż. Andrzej MasłowskiInstytut Maszyn MatematycznychStreszczenieW artykule przedstawiono algorytm bu<strong>do</strong>wy mapy semantycznej wykorzystanej wtworzeniu modelu otoczenia robota mobilnego na potrzeby symulacji. Dane gromadzone są zapomocą robota mobilnego wyposażonego w laserowy system pomiarowy 3D. Wirtualna scenazbu<strong>do</strong>wana z kilku semantycznych elementów powiązanych zdefiniowanymi zależnościamijest rdzeniem zaproponowanego „silnika semantycznej symulacji”. Bu<strong>do</strong>wa mapsemantycznych jest ciągle wyzwaniem ze względu na złożoność tego problemu. Istnieje wielerozwiązań robotycznych wykorzystujących mapy semantyczne zawierające liczne elementy,na bazie której możliwe jest zaawansowane sterowanie robotem mobilnym wykorzystującepodejmowanie decyzji na wysokim poziomie abstrakcji. W pracy przedstawiona jest nowarealizacja mapy semantycznej służąca <strong>do</strong> automatycznego tworzenia fizycznego modeluzintegrowanego z symulacją robota mobilnego. Mapa semantyczna jest tworzona napodstawie danych 3D zebranych przez robota mobilnego pracującego w śro<strong>do</strong>wiskuINDOOR. Dane są następnie przetransformowane wykorzystując mapę semantyczną <strong>do</strong>modelu fizycznego NVIDIA PhysX. Model fizyki jest wykorzystany <strong>do</strong> symulacji robotainspekcyjno interwencyjnego wykorzystującej wykrywanie kolizji oraz symulację bryłsztywnych.AbstractThe paper concerns the algorithm of semantic mapping applied for automatic virtualscene generation. Data is acquired by a mobile robot equipped with 3D laser measurementsystem. The virtual scene composed by several entities and relations between them is the coreof the proposed semantic simulation engine. Semantic mapping is still an open problembecause of its complexity. There are several robotic applications that use semanticinformation to build complex environment maps with labeled entities, therefore advancedrobot behavior based on ontological information can be processed in high conceptual level.We are presenting a new approach that uses semantic mapping to generate physical model ofan environment that is integrated with mobile robot simulator. Semantic map is generatedbased on 3D data acquired by a mobile robot in INDOOR environment. This raw data istransformed into a semantic map and then NVIDIA PhysX model is constructed. The PhysXmodel is used to perform an inspection intervention mobile robot simulation in whichcollision detection and rigid body simulation is available.KeywordsMobile robot, operator training, simulation, semantic map, image processing.Robot mobilny, trening operatora, symulacja, semantyczna mapa, przetwarzanie obrazów.IntroductionIn this paper a new concept of using semantic map for robot operator training purposeis described. The approach consists of 3D laser data acquisition, semantic elements extraction(using image processing techniques) and transformation to rigid body simulation engine,therefore the State Of the Art related to those research topics will be discussed. Thecombination of a 2D laser range finder with a mobile unit was described as the simulation of a3D laser range finder in [1]. In this sense we can consider that several researches are using so46


called simulator of 3D laser range finder to obtain 3D cloud of points [2]. The common 3Dlaser simulator is built on the basis of a rotated 2D range finder. The rotation axis can behorizontal [3], vertical [4] or similarly to our approach (the rotational axis lies in the middle ofthe scanners field of view).Semantic information extracted from 3D laser data is recent research topic of modernmobile robotics. In [5] a semantic map for a mobile robot was described as a map thatcontains, in addition to spatial information about the environment, assignments of mappedfeatures to entities of known classes. In [6] a model of an in<strong>do</strong>or scene is implemented as asemantic net. This approach is used in [7] where robot extracts semantic information from 3Dmodels built from a laser scanner. In [8] the location of features is extracted by using aprobabilistic technique (RANSAC). Also the region growing approach [9] extended from [10]by efficiently integrating k-nearest neighbor (KNN) search is able to process unorganizedclouds of points. The semantic map building is related to SLAM (Simultaneous LocalizationAnd Mapping) problem [11]. Most of recent SLAM (Simultaneous Localization AndMapping) techniques use camera [12], laser measurement system [13] or even registered 3Dlaser data [14]. Concerning the registration of 3D scans described in [15] we can find severaltechniques solving this important issue. The authors of [16] briefly describe ICP (IterativeClosest Points) algorithm and in [17] the probabilistic matching technique is proposed. In [18]the mapping system that acquires 3D object models of man-made in<strong>do</strong>or environments suchas kitchens is shown. The system segments and geometrically reconstructs cabinets with<strong>do</strong>ors, tables, drawers, and shelves, objects that are important for robots retrieving andmanipulating objects in these environments.A detailed description of computer based simulators for unmanned vehicles is shownin [19] [57]. Also in [20] the comparison of real-time physics simulation systems is given,where a qualitative evaluation of a number of free publicly available physics engines forsimulation systems and game development is presented. Several frameworks are mentionedsuch as USARSim which is very popular in research society [21], Stage, Gazebo [22], Webots[23], MRDS (Microsoft Robotics Developer Studio) [24]. Some researchers found that thereare many available simulators that offer attractive functionality, therefore they proposed anew simulator classification system specific to mobile robots and autonomous vehicles [25].A classification system for robot simulators will allow researchers to identify existingsimulators which may be useful in conducting a wide variety of robotics research from testinglow level or autonomous control to human robot interaction.. To ensure the validity of robotmodels, NIST proposes standardized test methods that can be easily replicated in bothcomputer simulation and physical form [26].In this paper we propose a new idea of semantic map building, this map can betransformed into rigid body simulation. It can be used for several applications such as robotoperator training. It is a new idea and can give an opportunity to develop training systemscomposed by real and virtual robots. We hope that it will improve multi robot system designand development. The paper is organized as follows: in section “Robot” robot and its dataacquisition module is described. In section “Semantic map approach” we explained thesemantic map concept applied to walls and stairs detection. Section “Semantic simulationengine” describes the core of proposed simulation system. The final discussion is given in the“Conclusion”.RobotThe robot used is an ActiveMedia PIONEER 3AT, equipped with SARA (Sensor DataAcquisition System for Mobile Robotic Applications). SARA is composed by 2 lasers LMSSICK 100 orthogonally mounted. Bottom laser can rotate, therefore it delivers 3D cloud of47


points in stop-scan fashion. Ethernet camera delivers image data available via web browser.Figure 1 shows the hardware and data visualization.Figure 1: Robot PIONEER 3AT equipped with SARA (Sensor Data Acquisition System for Mobile RoboticApplications). From left: robot, image from onboard camera, 3D cloud of points.Rysunek 1: Robot PIONEER 3AT wyposażony w SARA (Sensor Data Acquisition System for Mobile RoboticApplications ). Od lewej: robot, wi<strong>do</strong>k z kamery, chmura punktów 3D.Rotated SICKThe rotational axis lies in the middle of the scanners field of view. To rotate thescanner we use a computer controlled PTU-D46-17.5 pan-tilt unit from Directed Perception.A horizontal scan point without rotation of pan tilt unit would have the coordinatesx cos r ; y sin r ; z 0;(1)iiiiiwith i as an angle between optical axis and the laser beam, r i as corresponding distance.Taking into account the additional rotation around the optical axis X (figure 1) leads toxi cos i ri; yi sini cos ri; zi sini sin ri;(2)with as the rotation angle around X axis measured form Y counterclockwise.Semantic map approachThe proposed approach is dedicated to structured INDOOR environment where flooris flat and walls are straight and orthogonal to floor and ceiling, stairs are parallel andergonomic. It is obvious that if we try to use this approach in unstructured environment,algorithm will generate numerous not-labeled objects. To find semantic objects such as“wall”, “ceiling”, “floor”, “<strong>do</strong>ors” (with joint), “stairs” we are using a new idea that is base<strong>do</strong>n prerequisites generation from projected single 3D scan (onto OXY plane for “wall”,“<strong>do</strong>or”, “stairs” and onto OXZ for “ceiling” and “floor”). Prerequisites are generated usingimage processing techniques such as Hough transform for line extraction. The prerequisitesare checked in next step, if the constraint in satisfied, the semantic object is assigned. Forinstance if we assume 3D scan projected onto OXY plane, a single line is related to a “wall”prerequisite, 3 parallel lines are prerequisite of “stairs”, 2 connected lines are prerequisite ofopened <strong>do</strong>ors and the connection can be a joint. Single long line in 3D scan projected ontoOXZ plane is a prerequisite of “ceiling” and “floor”. In next subsection we introduce thealgorithm for line extraction from projected 3D scan.Line extraction from projected 3D scanIn figure 2 the rectangle of 3D scan projection onto OXY plane is shown. We assume thatrobot is located on a surface (in other case additional pitch/roll sensors can be used), thereforeprojected wall, <strong>do</strong>ors and stairs determine the line on the considered binary image. The sameassumption is related to ceiling and floor detection in case of 3D scan projection onto OXZplane. We consider the region 10m x 10m because of the acceptable distance between closestmeasured 3D points. On the same figure the correspond image coordinates are shown forinstance point Pxy=(-5, -5) corresponds to Puv=(0, 0). The image size is 512 pixels width, 512ii48


pixels height, therefore one pixels occupies the rectangle region approximately 20cm x 20cm.The step of line extraction algorithm is to compute the sum of projected points for each pixels.This approach has a disadvantage caused by the 3D data acquisition technique. Because laseris rotated around its optical axis, the sum values are increased in front of the laser anddecreased in other regions. To avoid this disadvantage we propose prerequisites boostingmethod. In figure 3 it can be seen that the obstacle located in front of laser (its optical axis)influences increased sum-values. On the contrary obstacle located near Y axis influencesdecreased sum-value that can result in omitting this prerequisite. The prerequisites boostingmethod is based on normalization technique that uses the model of laser beam intersectionwith rectangular prisms with base assigned by pixel uv . The model of laser beam intersection isshown in figure 3 (centre). It is related to the computation of maximum available laser beamintersection with rectangular prism with the base in pixel uv . Once the model uv is computed itcan be used for normalization prerequisites image (sum uv ), where sum new; uv = sum uv / model uv .Figure 2: The rectangle of 3D scan projection onto OXY plane - left, corresponding image coordinates - right.Rysunek 2: Rzutowanie chmury punktów 3D na płaszczyznę OXY oraz współrzędne obrazu.Computed sum new,uv image (where values are real numbers from 0 to 1) is used forprerequisites generation based on image processing methods. The implementation is based onOpenCV image processing library [27]. Figure 4 shows the procedure. Input image boxrepresents the computed sum new,uv image transformed into binary image using simple thresholdmethod. Filtering box reduces noise from image. The structuring element used for thisoperation is11 1 strel 1 0 1(3) 11 1 Figure 3: Left: sum of projected points xy onto pixels uv , middle: model of laser beam intersection with rectangularprisms with base assigned by pixel uv , right the result of prerequisites boosting method.Rysunek 3: Lewy: suma punktów points xy rzutowanych na pixels uv , środkowy: model laserowego systemupomiarowego, prawy: rezultat zastosowanej metody wzmocnienia przesłanek.Figure 4: Image processing methods used for prerequisites computation.49


Rysunek 4: Algorytm wyznaczania przesłanek na bazie procedur przetwarzania obrazów.For each pixel p k;l from binary image, where k = 1:510, l = 1:510, following equation issolved.11 p strel p i j(4)res(k , l )i1j1i,jk i,ljif p res(k;l) > 0 and p k;l = 1 then p out(k;l) = 1, else p out(k;l) = 0. Dilation box mathematical morphologyoperation increase the width of binary objects in the image. The operation dilation [27] dilatesthe source image using the specified structuring element that determines the shape of a pixelneighborhood over which the maximum is taken. Neighboring objects are going to beconnected for better Hough transform result. Skeletonization based on classical Pavlidis [28]algorithm gives the output as thin lines that are used by Hough transform box to obtain linesegments.Walls and <strong>do</strong>ors detectionThe procedure of walls and <strong>do</strong>ors prerequisites generation is using image processingmethods. The result of this procedure is shown in figure 5, where each line (marked by bluecolor) corresponds to wall prerequisite. The set of lines is used to obtain segmentation of 3Dcloud of points, where different walls will have different labels. For each line segment theorthogonal plane orth to plane OXY is computed (figure 5 - right). The intersection between thistwo planes is the same line segment. All 3D points which satisfy the condition of distance toplane orth have the same label. In the first step all prerequisites of walls are checked separately.To perform the scene interpretation semantic net is proposed. Nodes of a semantic netrepresent entities of the world and the relationships between them are defined. Possible labelsof the nodes are L = {“wall”, “wall above <strong>do</strong>or”, “floor”, “ceiling”, “<strong>do</strong>or”, “free space for<strong>do</strong>or”}. The relationships between the entities are R = {“parallel”, “orthogonal”, “above”,“under”, “equal height”, “available inside”, “connected via joint”}. The semantic net caneasily be extended to more entities and relationships which determine a more sophisticatedfeature detection algorithms. In our case the feature detection algorithm is composed by themethod of cubes generation, where each cube should contain measured 3D point. In thesecond step of the algorithm wall candidates are chosen. From this set of candidates, based onrelationships between them, proper labels are assigned and output model is generated.Figure 5: Walls prerequisites detection. Left: Input image, centre: result as lines (prerequisites of walls), right:example orthogonal plane orth to plane OXY.Rysunek 5: Przesłanki ścian, lewy: wejściowy obraz, środkowy: wynik jako linie będące przesłankami ścian,prawy: <strong>przy</strong>kła<strong>do</strong>we prostopadłe płaszczyzny plane orth i plane OXY .Stairs detectionThe image processing methods are used for stairs prerequisites generation. The resultof this procedure is shown in figure 6, where red rectangle corresponds to stairs prerequisite.It is important to emphasize that the set of parallel lines in the same short distance betweeneach other can be a projection of stairs. Possible label of the node is L = {“stair”}. Therelationships between the entities are R = {“parallel”, “above”, “under”}.50


Figure 6: Stairs prerequisites detection.Rysunek 6: Detekcja przesłanek wystąpienia schodów.Semantic simulation engineThe concept of semantic simulation engine is a new idea, and its strength lies on thesemantic map integration with mobile robot simulator. The engine basic elements are:semantic map nodes(entities) Lsm={“wall”, “wall above <strong>do</strong>or”, “floor”, “ceiling”, “<strong>do</strong>or”,“free space for <strong>do</strong>or”, “stairs”}, robot simulator nodes(entities) Lrs={“robot”, “rigid bodyobject”, “soft body object”}, semantic map relationships between the entities Rsm ={“parallel”, “orthogonal”, “above”, “under”, “equal height”, “available inside”, “connectedvia joint”}, robot simulator relationships between the entities Rrs = {“connected via joint”,“position”}, semantic map events Esm = robot simulator events Ers = {“movement”, “collisionbetween two entities started”, “collision between two entities stopped”, “collision betweentwo entities continued”, “broken joint”}. Robot simulator is implemented in NVIDIA PhysX.The entities from semantic map correspond to actors in PhysX. Lsm is transformed into Lrsbased on spatial model i.e. “walls”, “<strong>do</strong>ors” and “stairs” correspond to actors with “BOX”shapes (details concerning NVIDIA PhysX shapes of actors are available at [58]). Rsm aretransformed into Rrs with remark that <strong>do</strong>ors are connected to walls via revolute joints. Allentities/relations Rsm has the same initial location in Rrs, obviously the location of eachactor/entity may change during simulation. The transformation from Esm to Ers effects thatevents related to entities from semantic map correspond to the events related to actorsrepresenting proper entities. Following events can be noticed during simulation: robot cantouch each entity, open/close the <strong>do</strong>or, climb the stairs, enter empty space of the <strong>do</strong>or, damageitself (broken joint between actors in robot arm), brake joint that connects <strong>do</strong>or to the wall. Itis noteworthy to mention that all robot simulator semantic events are useful for operatortraining, where computer has to monitor simulation events, judge them, and report the resultto the instructor.Figure 7: Robot simulator semantic events.Rysunek 7: Semantyczne zdarzenia w symulatorze robota.51


ConclusionIn the paper the semantic simulation engine that is used for merging real semantic datawith NVIDIA PhysX mobile robot simulation is shown. The approach can be used for furtherdevelopment of sophisticated training tools i.e. AR (Augmented Reality), where real robotswill be used for environment modeling. New approach of image processing techniques in theprocess of semantic entities identification is shown. Available State of The Art INDOORobjects recognition techniques can improve proposed implementation. The approach can beextended to build large environment model by integrating 3D data registration such as ICP.We have shown new application for semantic mapping - the mobile robot operator trainingsemantic simulation engine, where identified and later modeled semantic objects interact withpredefined simulation entities. In our opinion the approach deliver powerful tool for INDOORenvironment inspection and intervention in which operator can use semantic information tointeract with entities. Future work will be related to the integration of data registrationtechniques and augmented reality approach.References[1] D. Klimentjew, M. Arli, J. Zhang, 3D scene reconstruction based on a moving 2D laser range finder forservice-robots, in: Proceedings of the 2009 international conference on Robotics and biomimetics, 2009.[2] M. Magnusson, T. Duckett, A. J. Lilienthal, 3d scan registration for autonomous mining vehicles, Journal ofField Robotics 24 (10) (2007) 803-827.[3] A. Nuchter, H. Surmann, J. Hertzberg, Automatic model refinement for 3D reconstruction with mobilerobots, in: Fourth International Conference on 3-D Digital Imaging and Modeling 3DIM 03, 2003, p. 394.[4] M. Montemerlo, S. Thrun, A multi-resolution pyramid for out<strong>do</strong>or robot terrain perception, in: AAAI'04:Proceedings of the 19th national conference on Artificial intelligence, AAAI Press, 2004, pp. 464-469.[5] A. Nuchter, J. Hertzberg, Towards semantic maps for mobile robots, Robot. Auton. Syst. 56 (11) (2008) 915-926.[6] O. Grau, A scene analysis system for the generation of 3-d models, in: NRC '97: Proceedings of theInternational Conference on Recent Advances in 3-D Digital Imaging and Modeling, IEEE Computer Society,Washington, DC, USA, 1997, p. 221.[7] A. Nuchter, H. Surmann, K. Lingemann, J. Hertzberg, Semantic scene analysis of scanned 3d in<strong>do</strong>orenvironments, in: in: Proceedings of the Eighth International Fall Workshop on Vision, Modeling, andVisualization (VMV 03), 2003.[8] H. Cantzler, R. B. Fisher, M. Devy, Quality enhancement of reconstructed 3d models using co planarity andconstraints, in: Proceedings of the 24th DAGM Symposium on Pattern Recognition, Springer-Verlag, Lon<strong>do</strong>n,UK, 2002, pp. 34-41.[9] M. Eich, M. Dabrowska, F. Kirchner, Semantic labeling: Classification of 3d entities based on spatial featuredescriptors, in: IEEE International Conference on Robotics and Automation (ICRA2010) in Anchorage, Alaska,May 3, 2010.[10] N. Vaskevicius, A. Birk, K. Pathak, J. Poppinga, Fast detection of polygons in 3d point clouds from noisepronerange sensors, in: IEEE International Workshop on Safety, Security and Rescue Robotics, SSRR, IEEE,Rome, 2007, pp. 1-6.[11] J. Oberlander, K. Uhl, J. M. Zollner, R. Dillmann, A region-based slam algorithm capturing metric,topological, and semantic properties, in: ICRA'08, 2008, pp. 1886-1891.[12] R. O. Castle, G. Klein, D. W. Murray, Combining monoslam with object recognition for sceneaugmentation using a wearable camera 28 (11) (2010) 1548 - 1556.[13] L. Pedraza, G. Dissanayake, J. V. Miro, D. Rodriguez-Losada, F. Matia, Bs-slam: Shaping the world, in:Proceedings of Robotics: Science and Systems, Atlanta, GA, USA, 2007.[14] M. Magnusson, H. Andreasson, A. Nuchter, A. J. Lilienthal, Automatic appearance-based loop detectionfrom 3D laser data using the normal distributions transform, Journal of Field Robotics 26 11-12 (2009) 892-914.[15] H. Andreasson, A. J. Lilienthal, Vision aided 3d laser based registration, in: Proceedings of the EuropeanConference on Mobile Robots (ECMR), 2007, pp. 192-197.[16] P. J. Besl, H. D. Mckay, A method for registration of 3-d shapes, Pattern Analysis and MachineIntelligence, IEEE Transactions on 14 (2) (1992) 239-256[17] D. Hahnel, W. Burgard, Probabilistic matching for 3D scan registration, in: In.: Proc. of the VDI -Conference Robotik 2002 (Robotik), 2002.[18] R. B. Rusu, Z. C. Marton, N. Blo<strong>do</strong>w, M. Dolha, M. Beetz, Towards 3d point cloud based object maps forhousehold environments, Robot. Auton. Syst. 56 (11) (2008) 927-941.52


[19] J. Craighead, R. Murphy, J. Burke, B. Goldiez, A survey of commercial and open source unmanned vehiclesimulators, in: Proceedings of ICRA, 2007.[20] A. Boeing, T. Braunl, Evaluation of real-time physics simulation systems, in: GRAPHITE '07:Proceedings of the 5th international conference on Computer graphics and interactive techniques in Australiaand Southeast Asia, ACM, New York, NY, USA, 2007, pp. 281-288.[21] J. Wang, M. Lewis, J. Gennari, Usar: A game-based simulation for teleoperation, in: Proceedings of the47th Annual Meeting of the Human Factors and Ergonomics Society, Denver, CO, Oct. 13-17, 2003.[22] R. B. Rusu, A. Mal<strong>do</strong>na<strong>do</strong>, M. Beetz, I. A. Systems, T. U. Munchen, Extending player/stage/gazebotowards cognitive robots acting in ubiquitous sensor-equipped environments, in: in Accepted for the IEEEInternational Conference on Robotics and Automation (ICRA) Workshop for Network Robot System, 2007,April 14, 2007.[23] L. Hohl, R. Tellez, O. Michel, A. J. Ijspeert, Aibo and Webots: Simulation, Wireless Remote Control andController Transfer, Robotics and Autonomous Systems 54 (6) (2006) 472-485.[24] C. Buckhaults, Increasing computer science participation in the first robotics competition with robotsimulation, in: ACMSE 47: Proceedings of the 47th Annual Southeast Regional Conference, ACM, New York,NY, USA, 2009, pp. 1-4.[25] J. Craighead, R. Murphy, J. Burke, B. Goldiez, A robot simulator classification system for HRI, in:Proceedings of the 2007 International Symposium on Collaborative Technologies and Systems (CTS 2007),2007, pp. 93-98.[26] C. Pepper, S. Balakirsky, C. Scrapper, Robot simulation physics validation, in: PerMIS '07: Proceedings ofthe 2007 Workshop on Performance Metrics for Intelligent Systems, ACM, New York, NY, USA, 2007, pp. 97-104.[27] http://opencv.willowgarage.com/wiki/.[28] S.W. Lee, Y. J. Kim, Direct extraction of topographic features for gray scale character recognition, IEEETrans. Pattern Anal. Mach. Intell. 17 (7) (1995) 724-729.[57] J. Bedkowski, M. Kacprzak, A. Kaczmarczyk, P. Kowalski, P. Musialik, A. Maslowski, T. Pichlak, Risemobile robot operator training design, in: 15th International Conference on Methods and Models in Automationand Robotics (CD-ROM), Miedzyzdroje, Poland, 2010.[58] NVIDIA PhysX SDK 2.8 - Introduction53


O kryptografii kwantowejAbout quantum cryptographyWojciech NOWAKOWSKIInstytut Maszyn Matematycznych, WarszawaStreszczenie: W artykule podano ogólne informacje oraz opisano podstawowepojęcia kryptografii kwantowej.Słowa kluczowe: kryptografia kwantowaAbstract: General information and general terms about quantum cryptography is given.Keywords: quantum cryptography, quantum information processingWprowadzenieInformatyka kwantowa, to interdyscyplinarna dziedzina nauki leżąca na pograniczu informatyki imechaniki kwantowej, zajmująca się wykorzystaniem możliwości układów kwantowych <strong>do</strong> przesyłaniai obróbki informacji.Najważniejszą zaletą informatyki kwantowej, jaką spodziewają się wykorzystać w praktyce fizycykwantowi, to szybkość przetwarzania informacji, niemożliwa <strong>do</strong> uzyskania w obecniewykorzystywanych, deterministycznych urządzeniach informatycznych. W uproszczeniu możnapowiedzieć, że komputery kwantowe będą w stanie wykonywać bardzo wiele operacji jednocześnie wwielu różnych procesach. Wynika to z praw rządzących mechaniką. Foton np. może jednocześnieprzejść przez zwierciadło i odbić się od niego, a elektrony umieją jednocześnie poruszać siępo dwóch różnych drogach. Obiekty mogą znaj<strong>do</strong>wać się w stanie tak zwanej superpozycji. Czym jestsuperpozycja? Obecnie wykonywane obliczenia binarne można modelować rzutem monety. Orzełodpowiada np. logicznej jedynce, a reszka - zeru. Jeżeli jednak zakręcimy monetą w taki sposób, żebędzie ona wirować na swojej krawędzi, to taki stan można byłoby nazwać stanem superpozycji. Jestto zupełnie nowy stan który jest jednocześnie orłem i reszką.Odpowiedniki klasycznych bitów nazywamy kubitami. Kubitem może być każdy obiekt, w którymmożemy wyróżnić dwa stany - odpowiadające 0 i 1, ale który możemy wprowadzić w stansuperpozycji. Przykładem kubitu może być atom ze dwoma stanami energetycznymi, spin połówkowy,foton o dwóch wzajemnie ortogonalnych stanach polaryzacji, itp. Jak więc kubity <strong>przy</strong>spieszająwykonywanie obliczeń? Otóż, mając kilka kubitów, w trakcie wykonywania obliczeń każdy z nichznajduje się w stanie superpozycji, dzięki czemu w jednej chwili czasu nie jest wykonywane tylkopojedyncze działanie, ale wszystkie możliwe kombinacje działań na raz. Następnie należy <strong>do</strong>konaćpomiaru, który spowoduje wybicie kubitów ze stanu superpozycji, a otrzymana w ten sposóbkombinacja zer i jedynek stanowić będzie wynik obliczeń. Ujmując problem trochę bardziej"matematycznie”, zespół n klasycznych bitów w danej chwili czasu może być tylko w jednym z 2 <strong>do</strong>potęgi n-tej stanów i w jednym kroku obliczeń przeliczany jest tylko jeden z tych stanów. Tymczasemzespół n kubitów wprowadzonych w stan superpozycji w jednym kroku nie przetwarza tylko jednegostanu, ale wszystkie 2 n stanów jednocześnie. Dodanie jednego kubitu <strong>do</strong> zespołu zwiększa prędkośćwykonywania obliczeń dwukrotnie.Ideę, by zjawiska kwantowe wykorzystać w praktyce <strong>do</strong> wykonywania obliczeń, wysunął w 1985 rokuangielski fizyk David Deutsch, podając jednocześnie pomysłowe algorytmy. Załóżmy, że chcemysprawdzić, czy moneta, którą mamy zagrać w orła i reszkę, jest rzetelna (ma awers i rewers) bądźnierzetelna (obie strony są identyczne). Gdybyśmy <strong>do</strong> tego zadania wykorzystali zwykły komputer,wykonałby on dwa elementarne kroki, aby zbadać monetę: sprawdził najpierw, co jest po jednej, apotem co po drugiej stronie. Tymczasem komputer kwantowy pozwala przeprowadzić takitest w jednym kroku, oglądając monetę „trochę z jednej, a trochę z drugiej strony”. Komputerkwantowy może też <strong>do</strong>strzec jednocześnie sześć stron kostki <strong>do</strong> gry, bądź wykonać bardzo dużą - amoże nawet nieskończoną - liczbę równoległych rachunków.Szyfrowanie. Algorytm RSARozwój badań w dziedzinie kryptoanalizy oraz wzrost mocy obliczeniowej komputerów spowo<strong>do</strong>wał,że wiele algorytmów, które uważane były za niemożliwe <strong>do</strong> złamania w krótkim czasie i miałyzapewnić bezpieczeństwo przesyłania informacji na wiele dziesięcioleci jak np. standard szyfrowaniasymetrycznego DES, zostało skompromitowanych. To samo zagraża powszechnie dziś stosowanemu,np. w bankowości, asymetrycznemu algorytmowi szyfrującemu RSA, który w 1977 r. opublikowali trzejprofesorowie z MIT: Ronald L. Rivest, Adi Shamir i Leonard Adleman. Zasadniczą cechą szyfrowania54


RSA są dwa klucze: publiczny <strong>do</strong> ko<strong>do</strong>wania informacji oraz prywatny <strong>do</strong> jej odczytywania. Kluczpubliczny (można go u<strong>do</strong>stępniać wszystkim zainteresowanym) umożliwia jedynie zaszyfrowaniedanych i w żaden sposób nie ułatwia ich odczytania, nie musi więc być chroniony. Dzięki temu firmy<strong>do</strong>konujące transakcji poprzez sieć Internet mogą zapewnić swoim klientom poufność ibezpieczeństwo. Drugi klucz (prywatny, przechowywany pod nadzorem) służy <strong>do</strong> odczytywaniainformacji zako<strong>do</strong>wanych <strong>przy</strong> pomocy pierwszego klucza. Klucz ten nie jest u<strong>do</strong>stępniany publicznie.Rys. 1. Token RSA <strong>do</strong> konta bankowegoFig. 1. RSA security tokenSystem RSA umożliwia bezpieczne przesyłanie danych w śro<strong>do</strong>wisku, w którym może <strong>do</strong>chodzić <strong>do</strong>różnych nadużyć. Bezpieczeństwo oparte jest na trudności znaj<strong>do</strong>wania czynników pierwszych dużychliczb - najszybszym komputerom może zajmować to obecnie wiele dziesiątków lat intensywnychobliczeń.Algorytm RSA, który jest obecnie najbardziej popularnym algorytmem <strong>do</strong> szyfrowania informacji,wykorzystywanym m. in. w bankowości elektronicznej, bezpiecznych połączeniach internetowychi podpisie cyfrowym, już w 1994 r. udało się złamać. Wymagało to ośmiu miesięcy pracy 1600 dużychkomputerów połączonych w sieć. Również w 1984 r. Peter Shor u<strong>do</strong>wodnił, że komputer kwantowymoże rozłożyć liczbę na czynniki pierwsze znacznie szybciej. Dla dla wielu był to szok. Peter Shorpodał również konkretny algorytm faktoryzacji.Rys. 2. Peter Shor (MIT)Fig. 2. Peter Shor (Massachusetts Institute of Technology)Pojawienie się więc algorytmu Shora - z uwagi na powszechność stosowania szyfru RSA – jestpoważnym zagrożeniem dla poufności korespondencji komputerowej - czyli dla bezpieczeństwainternetu, banków i w konsekwencji całej gospodarki.Ocenia się, że współczesne szyfry pozostaną nie <strong>do</strong> złamania jeszcze <strong>przy</strong>najmniej przez 10 lat.Okres ten ulegnie zasadniczemu skróceniu, gdy powstaną komputery kwantowe. Jedynymbezpiecznym sposobem szyfrowania informacji pozostanie wtedy kryptografia kwantowa.55


Kryptografia kwantowaKryptografia to przekształcanie tekstu zrozumiałego dla wszystkich w tekst zaszyfrowany, zrozumiałytylko dla osób posiadających określony klucz. W kryptografii kwantowej klucz jest chroniony przezzasadę nieoznaczoności Heisenberga. Z zasady tej, stanowiącej podstawę mechaniki kwantowejwynika, że pomiar jednej własności układu może zaburzyć wyniki pomiaru innej własności. W praktyceoznacza to, że intruz podglądający informację zmienia jej stan, co może być wykryte przez nadawcę iodbiorcę szyfrowanej informacji.Ogólnie systemy kryptografii można podzielić na asymetryczne (typu public-key) i symetryczne (typusecret-key). Te pierwsze wymagają stosowania dwóch różnych kluczy <strong>do</strong> szyfrowania i odczytywaniawia<strong>do</strong>mości, a ich bezpieczeństwo opiera się na fakcie, że podsłuchiwanie komunikatu jest możliwetylko dzięki posiadaniu klucza odszyfrowującego (tego typu systemami są np. kanały <strong>do</strong>stępuwykorzystujące wspomniany algorytm RSA). Kryptosystemy symetryczne typu secret-key wykorzystująten sam klucz <strong>do</strong> ko<strong>do</strong>wania i odczytywania wia<strong>do</strong>mości, w związku z czym bezpieczeństwo transmisjiwymaga bezpiecznego przesłania klucza kodująco-odko<strong>do</strong>wywującego między uczestnikamitransmisji (np. one-time pad, Vernam). Problem tym samym zostaje sprowadzony <strong>do</strong> para<strong>do</strong>ksu: bymieć bezpieczny kanał informacyjny, trzeba dysponować bezpiecznym kanałem informacyjnym.Problem ten może właśnie rozwiązać ko<strong>do</strong>wanie kwantowe. Rozróżnia się dwa główne typykryptosystemów kwantowych:- kryptosystemy z ko<strong>do</strong>waniem opartym na pomiarze jednej z dwóch możliwych wielkościreprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, tzw. protokół BB84(Charles H. Bennett i Gilles Brassard, 1984), lub- kryptosystemy z ko<strong>do</strong>waniem opartym na zjawisku stanów splątanych, tzw. protokół EPR (Artur Ekert1990). W tej publikacji zostanie omówiony pierwszy z nich.Przesłanie klucza kwantowego wymaga posiadania kanału kwantowego, w którym informacjęprzenoszą np. fotony, a ściślej – płaszczyzna ich polaryzacji. Taki <strong>przy</strong>kła<strong>do</strong>wy kanał składa się postronie Nadawcy (N) ze źródła fotonów (lasera emitującego pojedyncze fotony) oraz <strong>przy</strong>rząduoptycznego - polaryzatora (kryształu kalcytu, pryzmatu Nicola lub komórki Pockelsa) który może byćobracany o kąt 45° wzdłuż osi wiązki lasera w celu generowania dwóch nieortogonalnych baz,<strong>do</strong>wolnego ośrodka optycznego, przez który będzie zachodzić transmisja (światłowód, powietrze czypróżnia) oraz <strong>przy</strong>rządu pomiarowego po stronie Odbiorcy (O) składającego się z również obracanegoo kąt 45° polaryzacyjnego rozdzielacza wiązki fotonów oraz dwóch detektorów pojedynczych fotonów.Algorytm BB84 można w skrócie przedstawić następująco:1. N losuje klucz i przesyła go O <strong>przy</strong> losowo ustawionych bazach polaryzatorów: prostej 0/90 lubukośnej +45/–45 stopni.2. O za pomoca losowo ustawionych baz swoich polaryzatorów i detektorów odbiera transmisję.3. O jawnym kanałem przekazuje w jaki sposób ustawił swoje detektory.4. N informuje O kanałem jawnym, w których <strong>przy</strong>padkach się pomylił.5. N i O odrzucają niezgodne części klucza.6. N i O jawnym kanałem porównują kilka bitów z uzyskanego klucza. Jeżeli sprawdzane fragmenty sązgodne odrzucają je i rozpoczynają transmisję z użyciem pozostałej części klucza.Wyżej opisany algorytm można zilustrować następującym schematem:Ciąg losowy NadawcyPolaryzacja fotonów NadawcyUstawienie polaryzatora OdbiorcyPolaryzacja odebranych fotonówZgodność detektorówPrzesłany kluczRys 3. Zasada transmisji według algorytmu BB84 (bez podsłuchu)Fig. 3. Example of the BB84 protocol (without eavesdropping)56Przesłany Ciąg Ustawienie Polaryzacja Zgodność losowy klucz polaryzatorafotonów odebranychNadawcy


W <strong>przy</strong>padku próby przechwycenia uzgadnianego klucza, Podsłuchujący (P) spowoduje różnice wporównywanych przez N i O fragmentach z praw<strong>do</strong>po<strong>do</strong>bieństwem zależnym od wielkościporównywanej próbki. W tym wypadku N i O powinni rozpocząć cały proces uzgadniania klucza odpoczątku.Ciąg losowy NadawcyPolaryzacja fotonów NadawcyUstawienie polaryzatoraPodsłuchującegoPolaryzacja odebranych fotonówprzez PodsłuchującegoUstawienie polaryzatora OdbiorcyPolaryzacja odebranych fotonówZgodność detektorówPrzesłany kluczRys 4. Zasada transmisji według algorytmu BB84 (z podsłuchem)Fig. 4. Example of the BB84 protocol (with eavesdropping)Każda próba podsłuchu zakłóca transmisję i zmienia przekazywaną treść. Aby stwierdzić próbępodsłuchu wystarczy sprawdzić ok. 10% wygenerowanego klucza (<strong>przy</strong> dłuższych ciągach). Abyzapewnić całkowite bezpieczeństwo transmisji można połączyć kwantową dystrybucję klucza zcałkowicie bezpiecznym, klasycznym szyfrem Vernama.Literatura[1] http://tech.wp.pl/kat,1009779,page,3,title,Komputery-<strong>przy</strong>szlosci-dzialaja-w-wielurzeczywistosciach-na-raz-i-juz-istnieja,wid,11531736,wia<strong>do</strong>mosc.html[2] Shor P.W.: Algorithms for quantum computation: Discrete logarithms and factoring, Proc. 35ndAnnual Symposium on Foundations of Computer Science (Shafi Goldwasser, ed.), IEEE ComputerSociety Press (1994), 124-134.[3] Kamiński M.: Policz to kwantowo. Wiedza i Życie. - nr 5, 2002[4] Maćkowiak K.: Kryptografia kwantowa. Referat. Konferencja CONFidence 2006.[5] Wiera R., Rdest M.: Szyfrowanie RSA. http://stud.wsi.edu.pl/~siwierar/szyfrowanie/index.php[6] Tanaś R.: http://zon8.physd.amu.edu.pl/~tanas/[7] Borkowska A.(UMCS Lublin): Kryptografia kwantowa, czyli praktyczne zastosowanienieintuicyjnych cech realnego świata. Referat wygłoszony na V OSKNF, Wrocław 17-19.09.2006.[8] Bennett C. H., Brassard G.: Quantum Cryptography: Public key distribution and coin tossing.Proceedings of the IEEE International Conference on Computers, Systems, and Signal Processing,Bangalore 1984[9] Denning D.E.: Kryptografia i ochrona danych. WNT, Warszawa 1992.[10] http://www.ebanki.pl/technika/podpis_cyfrowy.html[11] http://www.rsasecurity.com/rsalabs/faq/3-6-4.html[12] Koblitz N.: Wykład z teorii liczb i kryptografii. WNT, Warszawa 1995.[13] Krawczyk P.: Leksykon kryptograficzny. http://echelon.pl/leksykon/.[14] RSA Laboratories. RSA Laboratories' Frequently Asked Questions About Today's Cryptography,Version 4.1. RSA Security Inc. 2002.[15] Tipton H., Krause M. (Consulting Editors). Handbook of Information Security Management. CRCPress 1998.[16] Ustawa z dnia 22 sierpnia 2001 roku o podpisie elektronicznym (Dz.U. 2001 nr 130 poz. 1450,tekst ujednolicony)[17] Wobst R.: Kryptologia: bu<strong>do</strong>wa i łamanie zapezpieczeń. Wydawnictwo RM, Warszawa 2002.57

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!