24.11.2014 Views

Elektronika 2009-11.pdf - Instytut Systemów Elektronicznych

Elektronika 2009-11.pdf - Instytut Systemów Elektronicznych

Elektronika 2009-11.pdf - Instytut Systemów Elektronicznych

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

konstrukcje technologie zastosowania<br />

MIESIECZNIK NAUKOWO-TECHNICZNY<br />

rok L nr 11/<strong>2009</strong><br />

• MATERIAŁY • KONSTRUKCJE • UKŁADY<br />

• SYSTEMY • MIKROELEKTRONIKA<br />

• OPTOELEKTRONIKA • FOTONIKA<br />

• ELEKTRONIKA MIKROFALOWA<br />

• MECHATRONIKA<br />

• ENERGOELEKTRONIKA • INFORMATYKA<br />

ZESPÓŁ REDAKCYJNY<br />

prof. dr hab. inż. Jerzy Klamka - redaktor naczelny,<br />

Bożena Lachowicz - sekretarz redakcji<br />

Stali współpracownicy: mgr inż. Wiesław Jabłoński,<br />

mgr inż. Krzysztof Kowalski, mgr inż. Cezary Rudnicki, dr Juliusz Szczęsny<br />

Adres redakcji: ul. Chmielna 6 m.6, 00-020 Warszawa,<br />

tel./fax: (022) 827 38 79; tel.: (022) 826 65 64,<br />

e-mail: elektronika@red.pl.pl, www.elektronika.orf.pl<br />

Zamówienia na reklamę przyjmuje redakcja lub Dział Reklamy<br />

i Marketingu, ul. Mazowiecka 12, 00-950 Warszawa, skr. 1004,<br />

tel./fax (022) 8274366, 8268016, e-mail: reklama@sigma-not.pl<br />

Kolportaż: ul. Ku Wiśle 7, 00-716 Warszawa, tel.: (022) 840 35 89;<br />

tel./fax:: (022) 840 59 49, (022)891 13 74<br />

RADA PROGRAMOWA<br />

prof. dr hab. inż. Władysław Torbicz (PAN) - przewodniczący<br />

prof. dr hab. inż. Leonard Bolc, prof. dr hab. Zdzisław Drozd, prof. dr<br />

hab. inż. Jerzy Fraczek, dr inż. Józef Gromek, mgr inż. Jan Grzybowski,<br />

prof. dr hab. Ryszard Jachowicz, prof. dr hab. Włodzimierz<br />

Janke, prof. dr hab. Andrzej Jakubowski, prof. dr hab. Włodzimierz<br />

Kalifa, inż. Stefan Kamiński, prof. dr hab. inż. Marian P. Kaźmierkowski,<br />

dr inż. Wojciech Kocańda, prof. dr hab. Bogdan Kosmowski, mgr<br />

inż. Zbigniew Lange, prof. dr hab. Benedykt Licznerski, dr inż. Zygmunt<br />

Łuczyński, prof. dr hab. inż. Józef Modelski, prof. dr hab. Tadeusz<br />

Morawski, prof. dr hab. Bohdan Mroziewicz, prof. dr hab. Andrzej<br />

Napieralski, prof. dr hab. Tadeusz Pałko, prof. dr hab. inż. Marian<br />

Pasko, prof. dr hab. Józef Piotrowski, dr hab. inż. Ryszard Romaniuk,<br />

dr hab. inż. Grzegorz Różański, prof. dr hab. inż. Edward Sędek,<br />

prof. dr hab. Ludwik Spiralski, prof. dr hab. inż. Zdzisław Trzaska,<br />

mgr inż. Józef Wiechowski, prof. dr hab. inż. Marian Wnuk, prof.<br />

dr hab. inż. Janusz Zarębski<br />

Czasopismo dotowane przez Ministerstwo Nauki<br />

i Szkolnictwa Wyższego. Za opublikowane w nim artykuły<br />

MNiSzW przyznaje 6 punktów.<br />

“<strong>Elektronika</strong>” jest wydawana<br />

przy współpracy Komitetu Elektroniki<br />

i Telekomunikacji Polskiej Akademii Nauk<br />

IEEE<br />

WYDAWNICTWO<br />

CZASOPISM I KSIĄŻEK<br />

TECHNICZNYCH<br />

SIGMA - NOT<br />

Spółka z o. o.<br />

00-950 Warszawa<br />

skrytka pocztowa 1004<br />

ul. Ratuszowa 11<br />

tel.: (0 22)818 09 18, 818 98 32<br />

fax: (0 22) 619 21 87<br />

Internet<br />

http://www.sigma-not.pl<br />

Prenumerata<br />

e-mail: kolportaz@sigma-not.pl<br />

Informacja<br />

e-mail: informacja@sigma-not.pl<br />

Redakcja współpracuje<br />

z Polską Sekcją IEEE<br />

“<strong>Elektronika</strong>” jest notowana<br />

w międzynarodowej bazie IEE<br />

Inspec<br />

Publikowane artykuły nukowe były<br />

recenzowane przez samodzielnych<br />

pracowników nauki<br />

Redakcja nie ponosi odpowiedzialności<br />

za treść ogłoszeń. Zastrzega<br />

sobie prawo do skracania i adjustacji<br />

nadesłanych materiałów.<br />

Indeks 35722<br />

Nakład do 2000 egz.<br />

Druk: Drukarnia SIGMA-NOT Sp. z o.o.<br />

SPIS TREŚCI • CONTENTS<br />

Medical pattern intelligent recognition based on linguistic<br />

modelling of 3D coronary vessels visualisations (Lingwistyczne<br />

modelowanie przestrzennych rekonstrukcji unaczynienia<br />

wieńcowego w inteligentnym rozpoznawaniu zmian patologicznych)<br />

- M. Trzupek, M. R. Ogiela, R. Tadeusioewicz ................<br />

Average Individual Classification Probability Function (Przeciętna<br />

indywidualna funkcja prawdopodobieństwa klasyfikacji) -<br />

M. Landowski, A. Piegat ............................................................<br />

Evolutionary sets of cooperating ship trajectories: open waters<br />

and restricted waters (Ewolucyjne zbiory bezpiecznych<br />

trajektorii statków dla wód otwartych i obszarów ograniczonych)<br />

- R. Szłapczyński ....................................................................<br />

The role of fuzzy modeling in creation of knowledge base’s<br />

for intelligent decision’s support systems in the conditions<br />

of the dangerous hydrometeorological phenomenon threat<br />

(Rola modelowania rozmytego w kształtowaniu baz wiedzy dla<br />

inteligentnych systemów wspomagania decyzji w warunkach zagrożenia<br />

niebezpiecznym zjawiskiem natury) - T. Tretyakova .....<br />

Generation of harmonic sequences in accordance to tonal<br />

harmony rules with artificial neural networks (Generacja<br />

sekwencji harmonicznych w zgodzie z zasadami harmonii tonalnej<br />

przy użyciu sieci neuronowych) - W. Zabierowski,<br />

A. Napieralski ..........................................................................<br />

The correction of digital images obtained by means of low<br />

quality scanner using FIR filter generated by a neural network<br />

in opposition to the digital images obtained by means<br />

of model scanner (Poprawa obrazów cyfrowych pozyskanych<br />

skanerem niskiej klasy z wykorzystaniem filtru FIR generowanym<br />

przez siec neuronową) - J. Peksiński, G. Mikołajczak .........<br />

Global multicriteria optimization in weather routing (Wielokryterialna<br />

optymalizacja globalna w nawigacji meteorologicznej)<br />

- J. Szłapczyńska .............................................................<br />

Signed electronic document and its probative value in certificate<br />

and certificateless public key cryptosystem infrastructures<br />

(Podpisany dokument elektroniczny i jego wartość<br />

dowodowa w certyfikatowej i bezcertyfikatowej infrastrukturze<br />

kryptosystemu klucza publicznego) - J. Pejaś .........................<br />

Ontology-based approach to scada systems vulnerabilities<br />

representation for CIP (Podejście ontologiczne do reprezentacji<br />

podatności systemów scada dla ochrony infrastruktur krytycznych)<br />

- M. Choraś, A. Stachowicz, R. Kozik, A. Flizikowski,<br />

R. Renk ..................................................................................<br />

Synthesis and management of system with parallel multiprocessors<br />

and fault tolerance (Synteza i zarządzanie komputerowych<br />

systemów z równoległymi wieloprocesorami<br />

i tolerowaniem uszkodzeń) - M. Drabowski ...............................<br />

The security level of particular blind steganographic systems<br />

(Zabezpieczenie określonego poziomu niewidoczności<br />

w systemach steganograficznych) - J. Korostil ...........................<br />

The efficient data authentication in Web GIS (Efektywne uwierzytelnianie<br />

danych w systemach Web GIS) - W. Maćków ..........<br />

An experiment of implementation of DLP system working as<br />

a Linux kernel loadable module (Próba implementacji systemu<br />

ochrony przed utratą danych (DLP) pracującego na poziomie<br />

jądra dla systemu Linux) - A. Rakowski, I. El Fray .....<br />

A buffer thresholds policy in linked in series servers with<br />

blocking (Buforowanie z progami w połączonych serwerach<br />

z blokadami) - W. Oniszczuk ..................................................<br />

9<br />

12<br />

15<br />

18<br />

22<br />

25<br />

27<br />

30<br />

35<br />

38<br />

41<br />

45<br />

48<br />

51<br />

ELEKTRONIKA 11/<strong>2009</strong> 1


A system automating repairs of IT systems (System automatyzujący<br />

naprawy systemów IT) - M. Kamiński ...........................<br />

Influence of the number of bins on the recognition results<br />

using Point Distance Histogram (Wpływ liczby przedziałów<br />

w histogramie na wyniki rozpoznawania z użyciem algorytmu<br />

Point Distance Histogram) - D. Frejlichowski .............................<br />

Open Virtual Steganographic Laboratory (Otwarte Wirtualne Laboratorium<br />

Steganograficzne) - P. Forczmański, M. Węgrzyn .......<br />

The use of speech recognition and user verification in<br />

closed-circuit television systems (Zastosowanie rozpoznawania<br />

mowy i weryfikacji użytkownika w systemach telewizji<br />

przemysłowej) - M. Kubanek ....................................................<br />

SMS-B project of educational platform for e-business (Projekt<br />

systemu SMS-B jako platformy edukacyjnej dla e-biznesu) -<br />

P. Jałowiecki, T. Woźniakowski, A. Orłowski ...............................<br />

TECHNIKA PRÓŻNI I TECHNOLOGIE PRÓŻNIOWE: Biuletyn<br />

Polskiego Towarzystwa Próżniowego 1 (48) <strong>2009</strong> ................<br />

TECHNIKA SENSOROWA: Zastosowanie technik immunoenzymatycznych<br />

i mikrofluidycznych do amperometrycznego<br />

oznaczania stężenia białka C-reaktywnego (Application of immunoenzymatic<br />

and microfluidic techniques for amperometric determination<br />

of C-reactive protein concentration) - A. Baraniecka,<br />

B. Kazimierczak, J. Kruk, D. G. Pijanowska, W. Torbicz ................<br />

54<br />

58<br />

60<br />

65<br />

68<br />

71<br />

79<br />

TECHNIKA MIKROFALOWA I RADIOLOKACJA: Ochrona własności<br />

przemysłowej w Przemysłowym Instytucie Telekomunikacji<br />

S.A. na przestrzeni 75 lat Jego historii -<br />

J. Kobierzycki, W. Kęska ............................................................ 84<br />

TECHNIKA INFORMATYCZNA: Wielopoziomowy trening symulacyjny<br />

w szkoleniu operatorów urządzeń. Zastosowanie<br />

do szkolenia operatorów robotów mobilnych (Multi-level<br />

simulation training of devices operators. An application to mobile<br />

robots operators) - A. Kaczmarczyk, M. Kacprzak,<br />

A. Masłowski ............................................................................... 92<br />

Radary pasywne - nowa technika radiolokacji (Passive radars<br />

- a new radar technology) - Z. Czekała ........................................ 100<br />

System dalekosiężnej identyfikacji i śledzenia statków (Long<br />

Range Identification and Tracking of ships) - J. Czajkowski,<br />

K. Łyszyk .................................................................................... 115<br />

Szkło dla fotoniki. Część 14. Parametry szklanego włókna<br />

optycznego (Glasses for photonics. Part 14. Parameters of<br />

glass optical fibers) - R. Romaniuk .............................................. 119<br />

Wpływ konstrukcji cyfrowych układów scalonych na generację<br />

zaburzeń elektromagnetycznych (Influence of the IC<br />

construcion on electromagnetic disturbance) - J. Szczęsny ....... 129<br />

Streszczenia artykułów • Summaries of the articles<br />

TRZUPEK M., OGIELA M. R., TADEUSIEWICZ R.: Lingwistyczne<br />

modelowanie przestrzennych rekonstrukcji unaczynienia wieńcowego<br />

w inteligentnym rozpoznawaniu zmian patologicznych<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 9<br />

Celem artykułu jest przedstawienie sposobów rozwinięcia metodyki<br />

wcześniej opracowanej dla potrzeb automatycznego rozumienia dwuwymiarowych<br />

zobrazowań medycznych na zobrazowania 3D. Badana<br />

dają możliwości zdefiniowania w tych zobrazowaniach<br />

elementów opisu morfologii zmian patologicznych oraz możliwości<br />

zastosowania lingwistycznego podejścia, a także kognitywnej analizy<br />

obrazów do opisu i modelowania przestrzennych struktur biomedycznych.<br />

Rozważania w warstwie szczegółowej nawiązywać będą<br />

do trójwymiarowej struktury drzewa naczyń wieńcowych, która opisywana<br />

będzie z wykorzystaniem grafowych języków opisu cech<br />

kształtów.<br />

Słowa kluczowe: rozumienie zobrazowań medycznych, sztuczna<br />

inteligencja, inżynieria biomedyczna, lingwistyka matematyczna<br />

LANDOWSKI M., PIEGAT A.: Przeciętna indywidualna funkcja<br />

prawdopodobieństwa klasyfikacji<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 12<br />

Jednym z głównych zadań sztucznej inteligencji jest stworzenie<br />

sztucznego komputerowego mózgu realizującego sztuczne myślenie<br />

bazujące na konceptach lingwistycznych. Podstawą realizacji tego<br />

zadania jest opracowanie modelu ludzkich percepcji wyrażonego<br />

w formie kwantyfikatorów lingwistycznych. Artykuł prezentuje metodę<br />

tworzenia przeciętnej indywidualnej funkcji prawdopodobieństwa klasyfikacji.<br />

Funkcja ta przedstawia funkcję klasyfikacji przeciętnej indywidualnej<br />

osoby w grupie (populacji). Według wiedzy autorów<br />

przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji jest<br />

nowością w literaturze światowej.<br />

Słowa kluczowe: teoria prawdopodobieństwa, model probabilistyczny,<br />

przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji,<br />

koncept lingwistyczny<br />

TRZUPEK M., OGIELA M. R., TADEUSIEWICZ R.: Medical pattern<br />

intelligent recognition based on linguistic modelling of 3D coronary<br />

vessels visualisations<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 9<br />

The goal of this article is to present the ways of taking the methodology<br />

that has been developed earlier for the needs of automatic understanding<br />

of 2D medical visualisations to the level of 3D<br />

visualisations. The research will cover the potential of defining, in<br />

these visualisations, of elements describing the morphology of pathologic<br />

changes and the possibility of applying the linguistic approach as<br />

well as cognitive image analysis for the description and modelling of<br />

spatially visualised coronary vessels. The considerations will make<br />

reference especially to the 3D structure of the coronary vascular tree,<br />

which will be described with the use of graph-based languages of<br />

shape feature description.<br />

Keywords: syntactic pattern analysis, medical image understanding,<br />

artificial intelligence, Computer-Aided Diagnosis<br />

LANDOWSKI M., PIEGAT A.: Average Individual Classification<br />

Probability Function<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 12<br />

One of the main tasks of artificial intelligence is the creation of artificial<br />

computer brain able to realize artificial thinking based on linguistic<br />

concept. The basis of the realization of this task is the working out<br />

of models of human perception expressed in the form of linguistic<br />

quantifiers. The article presents the method of finding average individual<br />

classification probability function. The function is to present<br />

classification function of the average person in the group (population).<br />

According to the authors’ knowledge average individual classification<br />

probability function are the novelty in the word literature.<br />

Keywords: probability theory, probabilistic model, average individual<br />

classification probability function, linguistic concept<br />

2 ELEKTRONIKA 11/<strong>2009</strong>


Streszczenia artykułów • Summaries of the articles<br />

SZŁAPCZYŃSKI R.: Ewolucyjne zbiory bezpiecznych trajektorii<br />

statków dla wód otwartych i obszarów ograniczonych<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 15<br />

W artykule przedstawiono nową metodę rozwiązywania sytuacji spotkań<br />

wielu statków na wodach otwartych i wodach ograniczonych. Metoda<br />

łączy niektóre z elementów podejścia opartego na teorii gier<br />

z programowaniem ewolucyjnym i szuka optymalnego zbioru bezpiecznych<br />

trajektorii wszystkich statków zaangażowanych w potencjalną<br />

sytuację kolizyjną. Pozwala ona nawigatorowi przewidzieć<br />

najbardziej prawdopodobne zachowanie statków obcych i zaplanować<br />

z wyprzedzeniem manewry statku własnego.<br />

Słowa kluczowe: algorytmy ewolucyjne, unikanie kolizji statków,<br />

optymalne trajektorie statków<br />

TRETYAKOVA T.: Rola modelowania rozmytego w kształtowaniu<br />

baz wiedzy dla inteligentnych systemów wspomagania decyzji<br />

w warunkach zagrożenia niebezpiecznym zjawiskiem natury<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 18<br />

Do przygotowania zawartości baz wiedzy inteligentnych systemów<br />

doradczych i nauczania (trenażerów), wykorzystując wyniki estymacji<br />

informacji hydrometeorologicznej proponuje się wykorzystywać<br />

zbiory rozmyte i logikę rozmytą Lotfi Zadeha, które pozwalają sformalizować<br />

wiedzę jakościową i operować tą wiedzą. W artykule<br />

przedstawiono schemat blokowy procesu wyboru strategii reagowania<br />

na niebezpieczne zjawiska natury oraz przykładowe zbiory rozmyte<br />

i zmienne lingwistyczne, pozwalające sformalizować wiedzę<br />

jakościową dla inteligentnych systemów tej klasy.<br />

Słowa kluczowe: inteligentne systemy, modele rozmyte, wspomaganie<br />

decyzji, informacja hydrometeorologiczna<br />

ZABIEROWSKI W., NAPIERALSKI A.: Generacja sekwencji harmonicznych<br />

w zgodzie z zasadami harmonii tonalnej przy użyciu<br />

sieci neuronowych<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 22<br />

Artykuł przedstawia badania w dziedzinie Computer Generated<br />

Music [1], a dokładnie w zakresie generacji sekwencji harmonicznych.<br />

Do uzyskania postawionego celu zostały użyte sieci neuronowe.<br />

Do przygotowania danych użyto mechanizmów MIDI wraz<br />

z syntezatorem muzycznym. Artykuł zawiera także dyskusję otrzymanych<br />

wyników w odniesieniu do rzeczywistego procesu kompozycji<br />

utworów muzycznych.<br />

Słowa kluczowe: harmonia tonalna, muzyka, sieci neuronowe, muzyka<br />

komputerowa<br />

PEKSIŃSKI J., MIKOŁAJCZAK G.: Poprawa obrazów cyfrowych<br />

pozyskanych skanerem niskiej klasy z wykorzystaniem filtru FIR<br />

generowanym przez siec neuronową<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 25<br />

Dynamiczny rozwój sprzętu akwizycji obrazów opartego na matrycach<br />

CCD (Charge Coupled Device) doprowadził do tego, że stał się<br />

on obecny niemal w każdym domu. Jakość obrazów pozyskanych za<br />

pomocą takiego sprzętu w dużej stopniu zależy od jakości zastosowanej<br />

matrycy. Celem artykułu jest zaprezentowanie sposobu poprawy<br />

jakości obrazów cyfrowych pozyskanych skanerem o niskich<br />

parametrach tak, aby ich jakość zbliżyła się do obrazów pozyskanych<br />

przy pomocy skanera wysokiej klasy.<br />

Słowa kluczowe: obraz cyfrowy, siec neuronowa, błąd średniokwadratowy<br />

SZŁAPCZYŃSKI R.: Evolutionary sets of cooperating ship trajectories:<br />

open waters and restricted waters<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 15<br />

The paper presents a new method of solving multi-ship encounter situations<br />

for both open waters and restricted water regions. The method<br />

combines some of the assumptions of game theory with evolutionary<br />

programming and aims to find optimal set of cooperating trajectories<br />

of all ships involved in an encounter situation. It enables the navigator<br />

to predict the most probable behaviour of target ships and to plan<br />

the own manoeuvres in advance.<br />

Keywords: evolutionary algorithm, collision avoidance, optimal ship<br />

trajectories<br />

TRETYAKOVA T.: The role of fuzzy modeling in creation of knowledge<br />

base’s for intelligent decision’s support systems in the conditions<br />

of the dangerous hydrometeorological phenomenon<br />

threat<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 18<br />

The design of fuzzy models is one of the problems in creation of the<br />

intelligent systems supporting a choice of strategy of reaction to<br />

threats of the nature. In this paper are submitted some methodological<br />

approaches for creation of knowledge bases for intelligent decision<br />

support systems for bodies of regional management which are intended<br />

to realization of protective actions.<br />

Keywords: intelligent systems, fuzzy models, decision support, hydrometeorological<br />

information<br />

ZABIEROWSKI W., NAPIERALSKI A.: Generation of harmonic sequences<br />

in accordance to tonal harmony rules with artificial neural<br />

networks<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>. p. 22<br />

The article presents research in the domain of Computer Generated<br />

Music [1], more precisely - in the area of harmonic sequences generation.<br />

To achieve the goal set for the research, artificial neural networks<br />

were used. Research data have been made using MIDI<br />

mechanisms and a musical synthesizer. In addition, the article contains<br />

a discussion of obtained results in regard to actual process of<br />

composing musical works as done by a human.<br />

Keywords: tonal harmony, music, neural network, computer generated<br />

music<br />

PEKSIŃSKI J., MIKOŁAJCZAK G.: The correction of digital images<br />

obtained by means of low quality scanner using FIR filter<br />

generated by a neural network in opposition to the digital images<br />

obtained by means of model scanner<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 25<br />

Dynamic development of the image acquisition equipment, which<br />

bases on CCD matrice, that has occurred in recent years was the<br />

cause of the abundance of those devices in household usage. However,<br />

this equipment has many disadvantages caused mainly by the<br />

quality of the CCD matrice and electronics used to build it. Professional<br />

equipment that has high quality parameters and truly mapps<br />

an image is still expensive and is owned mainly by professional companies<br />

that deal with digital image processing. The aim of this article<br />

is to present the possibilities of improvement the quality of images acquired<br />

by low class devices, so that their quality is comparable to images<br />

acquired by high class devices.<br />

Keywords: digital image, neural network, mean square error<br />

ELEKTRONIKA 11/<strong>2009</strong> 3


Streszczenia artykułów • Summaries of the articles<br />

SZŁAPCZYŃSKA J.: Wielokryterialna optymalizacja globalna<br />

w nawigacji meteorologicznej<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 27<br />

Proces optymalizacji tras statku zdefiniować można jako wielokryterialne<br />

zadanie optymalizacyjne z ograniczeniami. W artykule prezentowane<br />

jest, zaimplementowane wcześniej, narzędzie służące do<br />

rozwiązywania zadania optymalizacji tras. Wykorzystuje ono dwa mechanizmy<br />

optymalizacji wielokryterialnej: ewolucyjny algorytm SPEA<br />

oraz metodę rankingową Fuzzy TOPSIS. Uzyskane wyniki badań prezentowanego<br />

narzędzia wskazują na konieczność redukcji łącznego<br />

czasu wykonania algorytmu. Dlatego też w artykule przedstawiono<br />

przegląd alternatywnych metod optymalizacji wielokryterialnej, możliwych<br />

do zastosowania w badanym przypadku. Dodatkowo podjęto<br />

próbę wskazania rozwiązania najkorzystniejszego z punktu wiedzenia<br />

rozpatrywanego problemu.<br />

SZŁAPCZYŃSKA J.: Global multicriteria optimization in weather<br />

routing<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 27<br />

Route optimization for ships may be defined as a constrained multicriteria<br />

optimization problem. This paper presents an already implemented<br />

solution to the problem based on a multicriteria evolutionary<br />

algorithm (SPEA) and a ranking method (Fuzzy TOPSIS). Research<br />

results of the solution indicate the necessity of reduction of total execution<br />

time of the algorithm. Thus, in the paper applicable alternative<br />

optimization methods in weather routing are reviewed and the most<br />

suitable methods are appointed in the final conclusions.<br />

Keywords: global optimization, multicriteria optimization, weather<br />

routing<br />

Słowa kluczowe: optymalizacja globalna, optymalizacja wielokryterialna,<br />

nawigacja meteorologiczna<br />

PEJAŚ J.: Podpisany dokument elektroniczny i jego wartość dowodowa<br />

w certyfikatowej i bezcertyfikatowej infrastrukturze<br />

kryptosystemu klucza publicznego<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 30<br />

W artykule zaproponowano model długookresowego certyfikowanego<br />

elektronicznego schematu podpisu (LT-CESS), będącego rozwinię -<br />

ciem standardowego certyfikatowanego schematu podpisu elektronicznego<br />

(CESS). Zaproponowany schemat LT-CESS może być<br />

stosowany zarówno w certyfikatowym kryptosystemie klucza pu blicznego<br />

(PKC), opartym na jawnych certyfikatach klucza publicznego,<br />

jak również w bezcertyfikatowym kryptosystemie klucza publicznego<br />

(CL-PKC), opartym na niejawnych certyfikatach klucza publicznego<br />

Słowa kluczowe: schemat podpisu elektronicznego, długookresowa<br />

wartość dowodowa dokumentu elektronicznego, kryptografia oparta<br />

na tożsamości, certyfikatowy i bezcertyfikatowy kryptosystem klucza<br />

publicznego.<br />

CHORAŚ M., STACHOWICZ A., KOZIK R., FLIZIKOWSKI A., RENK<br />

R.: Podejście ontologiczne do reprezentacji podatności systemów<br />

scada dla ochrony infrastruktur krytycznych<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 35<br />

W niniejszym artykule przedstawiono opis podatności systemów<br />

SCADA będący częścią projektu mającego na celu ochronę infrastruktur<br />

krytycznych CIP (Critical Infrastructure Protection). Zastosowane<br />

w tym celu ontologiczne podejście zapewnia klasyfikacje,<br />

relacje i wnioskowanie na temat podatności i ich powiązań z innymi<br />

zagadnieniami bezpieczeństwa. Zaprojektowano także INSPIRE DAT<br />

(Decision Aid Tool) - narzędzie wspomagające decyzje dot. ochrony<br />

systemów SCADA i krytycznych infrastruktur.<br />

Słowa kluczowe: ontologia, podatności, ochrona krytycznych infrastruktur,<br />

SCADA, bezpieczeństwo<br />

DRABOWSKI M.: Synteza i zarządzanie komputerowych systemów<br />

z równoległymi wieloprocesorami i tolerowaniem uszkodzeń<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 38<br />

Artykuł prezentuje spójne podejście do rozwiązania problemów<br />

współbieżnego szeregowania w kompleksie procesów i zasobów.<br />

Takie problemy są charakterystyczne dla syntezy i zarządzania systemów<br />

wieloprocesorowych i tolerujących uszkodzenia. Złożoność<br />

obliczeniowa takich problemów jest NP-zupełna. Artykuł prezentuje<br />

model dla syntezy i zarządzania oraz praktyczny przykład rozwiązywania<br />

takich problemów.<br />

Słowa kluczowe: operacje, zasoby, szeregowanie, wieloprocesorowość,<br />

tolerancja uszkodzeń<br />

PEJAŚ J.: Signed electronic document and its probative value<br />

in certificate and certificateless public key cryptosystem infrastructures<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 30<br />

The paper contains a proposal of a new model of a long-term certificate<br />

electronic signature scheme (LT-CESS) being an extension of a<br />

standard certificate electronic signature scheme (CESS). The LT-<br />

CESS scheme can be used in a certificate Public Key Cryptosystem<br />

(PKC) based on explicit public key certificates and in a Certificateless<br />

Public Key Cryptosystem (CL-PKC) based on implicit public key certificates<br />

as well.<br />

Keywords: electronic signature scheme, long-term probative value<br />

of an electronic document, identity-based cryptography, certificate and<br />

certificateless public key cryptosystem<br />

CHORAŚ M., STACHOWICZ A., KOZIK R., FLIZIKOWSKI A., RENK<br />

R.: Ontology-based approach to scada systems vulnerabilities<br />

representation for CIP<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 35<br />

In this paper description of vulnerabilities in SCADA systems for CIP<br />

(Critical Infrastructure Protection) will be presented. Ontology-based<br />

approach applied for this purpose provides classification, relationships<br />

and reasoning about vulnerabilities and their connections with other<br />

security issues. Our approach is connected with solutions proposed<br />

in INSPIRE Project for increasing security and protection through infrastructure<br />

resilience.<br />

Keywords: ontology, vulnerabilities, critical infrastructure protection,<br />

SCADA, security<br />

DRABOWSKI M.: Synthesis and management of system with parallel<br />

multiprocessors and fault tolerance<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 38<br />

The paper presents a coherent approach to solving the problems of<br />

concurrent scheduling of complex of operations and resources frameworks.<br />

These problems are specific for synthesis and management of<br />

system with multiprocessors and fault tolerance. Computational complexity<br />

of those problems is in general NP-complete. The paper presents<br />

model for synthesis and management and presents practical<br />

example for solving problems of this system.<br />

Keywords: operations, resources, scheduling, multiprocessors, foult<br />

tolerance<br />

4 ELEKTRONIKA 11/<strong>2009</strong>


Streszczenia artykułów • Summaries of the articles<br />

KOROSTIL J., NOZDRZYKOWSKI Ł.: Zabezpieczenie określonego<br />

poziomu niewidoczności w systemach steganograficznych<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 41<br />

W artykule przedstawiono sposób wykorzystania ocen jakości obrazów<br />

zgodnych z percepcją ludzkiego systemu wzrokowego, do określania<br />

niewidoczności zniekształceń powodowanych przez steganograficzne<br />

ukrywanie informacji w kolorowych obrazach cyfrowych.<br />

Przez wykorzystanie metod oceny niewidoczności istnieje możliwość,<br />

aby użytkownik żądając otrzymania danego poziomu niewidoczności,<br />

otrzymywał ją. Obraz wykorzystywany w celach steganograficznych<br />

powinien być starannie wybierany, aby fakt steganograficznego ukrycia<br />

wiadomości, nie był możliwy do wizualnego wykrycia [1].<br />

Słowa kluczowe: steganografia, obrazy cyfrowe, ukrywanie informacji<br />

MAĆKÓW W.: Efektywne uwierzytelnianie danych w systemach<br />

Web GIS<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 45<br />

W artykule przedstawiono wydajny schemat uwierzytelniania danych<br />

geograficznych. Schemat oparty jest na podpisie cyfrowym i łańcuchowaniu<br />

skrótów. Jest on dedykowany dla internetowych systemów<br />

GIS, umożliwiając uwierzytelnianie danych geograficznych przesyłanych<br />

z internetowych serwisów mapowych w odpowiedzi na zapytania<br />

klienta. Odpowiedzi serwera mogą być generowane np.<br />

podczas sesji WMS lub WFS.<br />

KOROSTIL J., NOZDRZYKOWSKI Ł.: The security level of particular<br />

blind steganographic systems<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 41<br />

This article illustrates the utilization of evaluation of images quality in<br />

accordance with the perception of human visual system and to determine<br />

the invisibility of distortions caused by the steganographic information<br />

hiding in digital color images. There is a possibility that the<br />

user could get certain level of invisibility through the use of blind assessment<br />

method. The image used for the purpose of steganography<br />

should be carefully chosen that steganographic information hiding<br />

could not be possible to visual detection [1].<br />

Keywords: steganography, digital image, information hiding<br />

MAĆKÓW W.: The efficient data authentication in Web GIS<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 45<br />

The article presents a scheme of efficient geodata authentication,<br />

based on digital signature and hash chaining. The proposal is dedicated<br />

to the Web GIS systems, for authentication of geographical data<br />

send by web mapping services as an answer to user requests. Server<br />

responses could be generated for example during WMS or WFS communication<br />

session.<br />

Keywords: hash chaining, data authentication, web mapping<br />

Słowa kluczowe: łańcuchowanie skrótów, uwierzytelnianie danych,<br />

webmapping<br />

RAKOWSKI A., EL FRAY l.: Próba implementacji systemu<br />

ochrony przed utratą danych (DLP) pracującego na poziomie<br />

jądra dla systemu Linux<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 48<br />

W pracy omówiono ogólnie ideę systemów DLP i kilku wybranych realizacji<br />

programowych dedykowanych platformie Windows. W artykule<br />

opisano także możliwe kanały wycieku informacji wrażliwej oraz<br />

przedstawiono autorską próbę utworzenia prostego systemu zapobiegania<br />

przed utratą danych. Utworzony system o nazwie PXX jest<br />

aplikacją złożoną z modułu jądra dla systemu Linux rodziny 2.6 oraz<br />

daemonem pracującym w przestrzeni administratora. Celem pracy<br />

jest określenie możliwości realizacji seryjnego i biznesowego rozwiązania<br />

rodziny DLP dla systemu Linux.<br />

Słowa kluczowe: System ochrony przed utratą danych, wyciek danych,<br />

bezpieczeństwo informacji<br />

ONISZCZUK W.: Buforowanie z progami w połączonych serwerach<br />

z blokadami<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 51<br />

Zastosowania progów w buforach, koncepcja blokad i odpowiednia<br />

strategia obsługi, to szeroko używane sposoby przeciwdziałania przeciążeniom<br />

w systemach komputerowych. Często więc, obiektami<br />

badań są kolejkowe systemy obsługi z blokadami, recyklingiem<br />

(obsługa priorytetowa) i ograniczonymi buforami z dynamicznymi progami.<br />

W niniejszej pracy założono, że zewnętrzny strumień zadań jest<br />

strumieniem Poissona, a losowe czasy obsługi mają rozkład wykładniczy.<br />

Badana sieć składa się z trzech węzłów, a w buforach mamy<br />

progi o rozmiarach tm1 i tm2. Na bazie formalizmów łańcuchów Markowa,<br />

powstały efektywne modele analityczne takich systemów<br />

obsługi, a seria eksperymentów numerycznych pokazała, że koncepcja<br />

blokad, recyklingu z priorytetami, oraz z dynamicznymi progami<br />

dobrze opisuje procesy obsługi w takich systemach.<br />

Słowa kluczowe: sieci z progami, kontrola przeciążeń, łańcuchy Markowa,<br />

blokady<br />

RAKOWSKI A., EL FRAY l.: An experiment of implementation of<br />

DLP system working as a Linux kernel loadable module<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 48<br />

This article covers general description of DLP systems and some software<br />

implementations dedicated to Windows operating system. Also<br />

possible channels of loss of sensitive data were mentioned and described.<br />

Authors discuss their own experiment of creating simple data<br />

loss prevention system. Created system called PXX is made up of<br />

Linux’s kernel loadable module for 2.6 family and root space daemon.<br />

The aim was to determine possibility of implementation of universal<br />

Linux-based business DLP solution.<br />

Keywords: data loss prevention (DLP), data leakage, information security<br />

ONISZCZUK W.: A buffer thresholds policy in linked in series<br />

servers with blocking<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 51<br />

The use of buffer thresholds, blocking and adequate service strategies<br />

are well-known techniques for computer networks traffic congestion<br />

control. This motivates the study of series queues with<br />

blocking, feedback (service under Head of Line (HoL) priority discipline)<br />

and finite capacity buffers with thresholds. In this paper, the external<br />

traffic is modelled using the Poisson process and the service<br />

times have been modelled using the exponential distribution. We consider<br />

a three-station network with two finite buffers, for which a set of<br />

thresholds (tm1 and tm2) is defined. Using an open Markovian queuing<br />

schema with blocking, priority feedback service and thresholds,<br />

a closed form cost-effective analytical solution is obtained. Based on<br />

numerical experiments and collected results we conclude that the<br />

proposed model with blocking, feedback and thresholds can provide<br />

accurate performance estimates of linked in series servers.<br />

Keywords: threshold-base networks, congestion control, Markov<br />

chains, blocking<br />

ELEKTRONIKA 11/<strong>2009</strong> 5


KAMIŃSKI M.: System automatyzujący naprawy systemów IT<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 54<br />

Artykuł ten dotyczy dwóch istotnych problemów: problemu monitorowania<br />

systemów IT oraz problemu ich naprawiania. Zaprezentowano<br />

w nim rozwiązanie umożliwiające automatyzację istniejących procesów<br />

naprawczych oraz ich integrację z przemysłowymi systemami<br />

i mechanizmami monitorującymi. Opisane rozwiązanie jest częścią<br />

większego projektu, nazwanego RMF (Repair Management Framework).<br />

W artykule tym zamieszczono również skrótowe studium przypadku<br />

dotyczące wytworzonego oraz zaimplementowanego systemu,<br />

pokazujące w jaki sposób został on użyty do rozwiązywania rzeczywistego<br />

problemu dotyczącego funkcjonowania systemów zarządzania<br />

bazami danych.<br />

Słowa kluczowe: systemy IT, wytwarzanie oprogramowania, metody<br />

formalne, monitorowanie i naprawa<br />

FREJLICHOWSKI D.: Wpływ liczby przedziałów w histogramie na<br />

wyniki rozpoznawania z użyciem algorytmu Point Distance Histogram<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 58<br />

Artykuł przedstawia wyniki eksperymentu przeprowadzonego<br />

z użyciem konturowych kształtów znaków firmowych a oparciu o algorytm<br />

Point Distance Histogram. Jednym z ważnych elementów tego<br />

algorytmu jest wybór liczby przedziałów (oznaczonej jako r) w wynikowym<br />

histogramie. W trakcie eksperymentów badano wpływ zmiennej<br />

wartości tego parametru na rezultaty rozpoznawania. Głónym<br />

celem badań było ustalenie najlepszych wartości współczynnika r dla<br />

małych konturowych kształtów binarnych. Jako ogólne podejście do<br />

problemu rozpoznawania wybrano porównywanie ze wzorcami (ang.<br />

template matching).<br />

Słowa kluczowe: opis kształtu, rozpoznawanie znaków firmowych,<br />

histogram, współrzędne biegunowe<br />

FORCZMAŃSKI P., WĘGRZYN M.: Otwarte Wirtualne Laboratorium<br />

Steganograficzne<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 60<br />

Jednym z najbardziej popularnych i wydajnych podejść do steganografii<br />

jest ukrywanie wiadomości w obrazach cyfrowych. Niestety większość<br />

z programów, które oferują szeroki zakres metod bazujących<br />

na LSB (osadzanie w najmniej znaczącym bicie) lub algorytmie JPEG<br />

jest podatna na współczesną steganalizę. Z drugiej strony, na rynku<br />

brakuje oprogramowania, które pozwalałoby na symulowanie i badanie<br />

różnych innych metod steganoraficznych i steganalitycznych. Powyższe<br />

potrzeby wymusiły powstanie oprogramowania opisanego w<br />

niniejszej pracy, które pozwala na ukrywanie informacji w danych graficznych,<br />

przeprowadzanie procedury steganalizy i umożliwia użycie<br />

tzw. wtyczek (plug-in). W opracowanym laboratorium przetwarzanie<br />

może odbywać się w sposób zarówno sekwencyjny, jak i równoległy.<br />

Aplikacja może być obsługiwana przez stosunkowo mało doświadczonych<br />

użytkowników, ponieważ dysponuje graficznym interfejsem<br />

użytkownika (zgodnym z technologią drag-and-drop). Może być wykorzystana<br />

w badaniach naukowych i edukacji.<br />

Słowa kluczowe: wirtualne laboratorium, steganografia, staganaliza,<br />

znakowanie wodne, Java<br />

KUBANEK M.: Zastosowanie rozpoznawania mowy i weryfikacji<br />

użytkownika w systemach telewizji przemysłowej<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 65<br />

Systemy rozpoznawania mowy i weryfikacji osób na podstawie mowy<br />

niezależnej są coraz częściej powszechnie używane. W systemach<br />

rozpoznawania mowy musimy wiedzieć, co zostało wypowiedziane<br />

przez testowaną osobę. Takie rozpoznane słowa można stosować do<br />

sterowania różnymi urządzeniami, kontrolowanymi przez komputer.<br />

W przypadku weryfikacji tożsamości nie jest ważne, co zostało wypowiedziane,<br />

ale kto to wypowiedział. W systemach weryfikacji tożsamości,<br />

gdzie każdy z zarejestrowanych użytkowników posiada swój<br />

własny unikalny login, zarejestrowana wypowiedź weryfikowanego<br />

użytkownika jest porównywana z wszystkimi wypowiedziami z bazy.<br />

Jeśli login się zgadza i charakterystyki głosowe są zgodne, wówczas<br />

system akceptuje weryfikowaną osobę.<br />

W artykule zaproponowano rozpoznawanie mowy do sterowania<br />

ruchem kamery przemysłowej, oraz weryfikację użytkownika na podstawie<br />

mowy niezależnej do logowania do systemu. Do ekstrakcji i kodowania<br />

charakterystyk głosowych zastosowano analizę cepstralną<br />

mowy. Jako aparat rozpoznający przyjęto ukryte modele Markowa.<br />

Głównym zadaniem tej pracy - oprócz oczywiście praktycznej implementacji<br />

opisanych metod - jest pokazanie, w jaki sposób należy<br />

zmodyfikować mechanizm analizy cepstralnej na potrzeby rozpoznawania<br />

mowy, a w jaki sposób na potrzeby weryfikacji tożsamości na<br />

podstawie mowy niezależnej.<br />

Słowa kluczowe: weryfikacja użytkownika, rozpoznawanie mowy,<br />

mowa niezależna, kodowanie mowy<br />

KAMIŃSKI M.: A system automating repairs of IT systems<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 54<br />

This paper presents two problems that are important nowadays: the<br />

problem of IT systems monitoring and the problem of repairing them.<br />

It shows the developed solution, aimed to automate the existing industrial<br />

repair process and to integrate it with the existing monitoring<br />

solutions and mechanisms. Described solution is a part of a bigger<br />

whole, called the Repair Management Framework (RMF). This paper<br />

presents also briefly a case study related to the developed and implemented<br />

system, showing how it was used to solve the real problem<br />

regarding the functioning of database management systems.<br />

Keywords: IT systems, software development, formal methods, monitoring<br />

and repair<br />

FREJLICHOWSKI D.: Influence of the number of bins on the<br />

recognition results using Point Distance Histogram<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 58<br />

The paper presents the results of an experiment performed on trademark<br />

contour shapes using Point Distance Histogram. One of the important<br />

stages in the algorithm is the selection of the number of bins<br />

(denoted as r) in the resultant histogram. The experiments explored<br />

the influence of this varying value on the recognition results. The main<br />

goal was to establish the best value for small binary contour shapes.<br />

The template matching was used as the whole approach to the recognition<br />

problem.<br />

Keywords: shape description, trademark recognition, histogram,<br />

polar coordinates<br />

FORCZMAŃSKI P., WĘGRZYN M.: Open Virtual Steganographic<br />

Laboratory<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 60<br />

One of the most popular and efficient steganographic approaches is<br />

to embed messages into digital images. However, most of available<br />

applications that provide wide range of Least Significant Bit methods<br />

or different JPEG techniques no longer resist modern steganalysis.<br />

On the other hand, there is no application for still images, that could<br />

simulate and test multiple methods both steganographic and steganalytic,<br />

thus the purpose of this paper is to propose a software for hiding<br />

and detecting data in digital images that uses several different<br />

adjustable steganographic techniques, allows testing their security<br />

level with steganalysis and provides simple plug-in architecture. The<br />

processing can be performed in both batch and parallel form. The application<br />

can be operated even by relatively inexperienced users since<br />

it provides legible graphical user interface (conforming with drag-anddrop<br />

technology) and it can be employed both in research and in educational<br />

areas.<br />

Keywords: virtual laboratory, steganography, steganalysis, watermarking,<br />

Java<br />

KUBANEK M.: The use of speech recognition and user verification<br />

in closed-circuit television systems<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 65<br />

Speech recognition systems, and the verification of persons on the<br />

basis of independent speech are widely used. In the speech recognition<br />

systems, we need to know what said examined person. These<br />

recognized words we can used to controlling any devices, which is<br />

controlled by computer. In a speaker verification, the prime interest is<br />

not in recognizing the words but determining who is speaking the<br />

words. In systems of speaker verification, a test of signal from an<br />

known speaker, user gives his own login, is compared to all known<br />

speaker signals in the set. If the vocal is the same and the user login<br />

is the same, the system accepts the user.<br />

In this work, it was proposed use speech recognition method to<br />

control the movement of the camera of closed-circuit television<br />

system, and use user verification method to log on to this system. Extraction<br />

of the audio features of person’s speech is done using modified<br />

mechanism of cepstral speech analysis. Speech recognition is<br />

done using hidden Markov models.<br />

The main aim of this work, excepting the practical implementation<br />

of both methods, is show, how to modify the MFCC for speech<br />

recognition and user verification.<br />

Keywords: user verification, speech recognition, independent<br />

speech, speech coding<br />

6 ELEKTRONIKA 11/<strong>2009</strong>


Streszczenia artykułów • Summaries of the articles<br />

JAŁOWIECKI P., WOŹNIAKOWSKI T., ORŁOWSKI A.: Projekt systemu<br />

SMS-B jako platformy edukacyjnej dla e-biznesu<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 68<br />

Funkcjonowanie współczesnych instytucji i organizacji komercyjnych<br />

opiera się na systemach informatycznych zaliczanych do kategorii<br />

Business Intelligence. Wydaje się, że pożyteczne jest oparcie procesu<br />

edukacji na takich kierunkach studiów jak: ekonomia, finanse<br />

i rachunkowość, informatyka, ekonometria oraz zarządzanie<br />

o dedykowane platformy IT wystarczająco wiernie odtwarzające<br />

rzeczywiste, informatyczne środowisko pracy.<br />

W pracy przedstawiono koncepcję systemu SMS-B (System Modelowania<br />

i Symulacji Biznesowych) zaprojektowanego do symulowania<br />

procesów biznesowych jako propozycję platformy edukacyjnej<br />

oferującej zintegrowane rozwiązania współczesnych systemów informatycznych<br />

klasy BI. Architektura systemu SMS-B tak blisko jak to<br />

możliwe imituje rzeczywiste środowisko pracy w dużych instytucjach<br />

finansowych. Funkcjonalność systemu zakłada wykorzystywanie<br />

danych generowanych w oparciu o biznesowe modele symulacyjne.<br />

Możliwości oferowane przez system w zakresie zastosowań<br />

edukacyjnych stanowią połączenie funkcjonalności oferowanej przez<br />

rzeczywiste, współczesne systemy IT wielu kategoriom użytkowników<br />

końcowych, w szczególności pracownikom obsługi IT, użytkownikom<br />

biznesowym, analitykom i różnym kategoriom konsumentów informacji.<br />

Ponadto system SMS-B oferuje różne możliwości użytkownikom<br />

szczebla kierowniczego z zakresu statystyki, ekonometrii<br />

i zarządzania organizacjami.<br />

JAŁOWIECKI P., WOŹNIAKOWSKI T., ORŁOWSKI A.: SMS-B pro -<br />

ject of educational platform for e-business<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 68<br />

Present institutions and commercial organizations work is based on<br />

systems count to Business Intelligence class. It seems to be advisable<br />

to base education process in such faculties as: economy, finance and<br />

accounting, computer science, econometrics and management on the<br />

dedicated modeling IT platform suitable to achieve practical experience<br />

in real market environment.<br />

In this article we present the concept of system designated to simulate<br />

business processes SMS-B (Simulation and Modeling System<br />

for Business) as proposition of educational platform offering integrated<br />

end-to-end solution of modern BI computer system. SMS-B architecture<br />

as close as possible to the real world imitates essential processes<br />

meet in financial enterprise. These functions operate on the base on<br />

data generated by business simulation models.<br />

The capabilities offered by system for educational purposes are<br />

essential for many categories of end-users worked every day with information<br />

systems. Especially for IT people, business users, analysts<br />

and other sorts of information consumers. The SMS-B system offers<br />

as well as a range of executive services for studies such as statistics,<br />

econometrics and enterprise management.<br />

Keywords: business Intelligence, Information Technologies, educational<br />

platform<br />

Słowa kluczowe: informacja zarządcza, technologie informacyjne,<br />

platforma edukacyjna<br />

BARANIECKA A., KAZIMIERCZAK B., KRUK J., PIJANOWSKA D.<br />

G., TORBICZ W.: Zastosowanie technik immunoenzymatycznych<br />

i mikrofluidycznych do amperometrycznego oznaczania stężenia<br />

białka C-reaktywnego<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 79<br />

CRP jest białkiem ostrej fazy i jednym z najlepszych niespecyficznych<br />

markerów określającym ryzyko oraz zaawansowanie choroby niedokrwiennej<br />

serca. Bardzo przydatne stają się w tym przypadku wielofunkcyjne<br />

urządzenia diagnostyczne z szybką amperometryczną<br />

detekcją oraz funkcją wstępnego rozdziału próbki. Układy mikroprzepływowe<br />

umożliwiają taki rozdział przy małej objętości badanych<br />

próbek i reagentów, co znacząco obniża koszty testu. Z wyjątkiem<br />

nowych aptaczujników, jedynie immunoczujniki zapewniają specyficzność<br />

wobec poszukiwanego analitu w próbce. W nieprzezroczys -<br />

tych próbkach, jakimi są płyny fizjologiczne, niemożliwe jest<br />

zastosowanie optycznych metod detekcji, stąd konieczne jest zastosowanie<br />

metody znakowania enzymem przeciwciał w immunoczujnikach<br />

i użycie innego rodzaju detekcji np. elektrochemicznej. Ze<br />

względu na niski poziom szumów tła i możliwość szybkiej detekcji,<br />

najczęściej stosuje się detekcję amperometryczną. Celem naszych<br />

prac jest opracowanie amperometrycznych immunoczujników mikroprzepływowych<br />

do diagnostyki medycznej do oznaczania CRP.<br />

BARANIECKA A., KAZIMIERCZAK B., KRUK J., PIJANOWSKA D.<br />

G., TORBICZ W.: Application of immunoenzymatic and microfluidic<br />

techniques for amperometric determination of C-reactive<br />

protein concentration<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 79<br />

CRP is acute phase protein and one of the best nonspecific diagnostic<br />

markers in heart diseases. Microfluidic systems offer function of<br />

preliminary probe separation with small consumption of probes and<br />

reagents, which decrease cost of unit test. Except newly developed<br />

aptasensors, only immunosensors provide specificity to determined<br />

analit in composed analyzed probe. In the case of nontransparent<br />

samples, like physiological fluids, immunosensors with electrochemical<br />

detection are sensors of choice, e.g. amperometric. For electrochemical<br />

detection enzyme labeled antibody is used. In order to<br />

decrease background noise and obtain fast response, amperometric<br />

sensors are mostly applied. An aim of our research is development of<br />

microfluidic type amperometric immunosensors for medical diagnostics,<br />

in particular for CRP determination.<br />

Keywords: C-reactive protein, immunosensor, microfluidic system,<br />

amperometric detection, ELISA test<br />

Słowa kluczowe: białko C-reaktywne, immunoczujnik, układ mikrofluidyczny,<br />

detekcja amperometryczna, test ELISA<br />

KACZMARCZYK A., KACPRZAK M., MASŁOWSKI A.: Wielopoziomowy<br />

trening symulacyjny w szkoleniu operatorów urządzeń.<br />

Zastosowanie do szkolenia operatorów robotów mobilnych<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 92<br />

Wielopoziomowy trening symulacyjny ma umożliwiać efektywne - co<br />

do kosztów i czasu przygotowanie wysokokwalifikowanych operatorów<br />

urządzeń dzięki użyciu tańszego wyposażenia i metod treningu<br />

do nabycia podstawowych umiejętności i bardziej złożonych do ich<br />

doskonalenia. Przedstawiono koncepcję treningu wielopoziomowego<br />

operatorów robotów mobilnych naziemnych, wyposażonych w kamerę<br />

TV i inne sensory oraz manipulator. Ponadto, artykuł zawiera<br />

ocenę tej koncepcji dokonaną przez polskiego producenta i użytkowników<br />

takich robotów oraz wnioski dotyczące rozwoju metod treningu.<br />

Słowa kluczowe: e-trening, wielopoziomowy trening symulacyjny,<br />

szkolenie operatorów urządzeń (robotów mobilnych)<br />

KACZMARCZYK A., KACPRZAK M., MASŁOWSKI A.: Multi-level<br />

simulation training of devices operators. An application to mobile<br />

robots operators<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 92<br />

Multi-level simulation training is to enable cost and time efficient<br />

preparation of a great number of devices operators with advanced<br />

skills thanks to use of no costly equipment and methods to get basic<br />

expertise, and more sophisticated ones to perfect it. A concept of<br />

multi-level training of operators of the on-earth-mobile robots<br />

equipped with TV-cameras, other sensors, and manipulator arm is<br />

presented. Moreover, results of this concept evaluation by a Polish<br />

manufacturer and users of such robots, and conclusions related to<br />

the development of training methods are included in the paper.<br />

Keywords: e-training, multi-level simulation training, training of devices<br />

(mobile robots) operators<br />

ELEKTRONIKA 11/<strong>2009</strong> 7


Streszczenia artykułów • Summaries of the articles<br />

CZEKAŁA Z.: Radary pasywne - nowa technika radiolokacji<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 100<br />

Artykuł przedstawia podstawy funkcjonowania radarów pasywnych,<br />

które nie mają własnego nadajnika, lecz wykorzystują fale radiowe<br />

promieniowane przez „okazjonalne” nadajniki przeznaczone do innych<br />

celów. Wskazano istotne różnice w działaniu radaru impulsowego<br />

i radaru przetwarzającego sygnał ciągły o charakterze szumu.<br />

Wyjaśniono zasady odbioru korelacyjnego i przetwarzania sygnału<br />

oraz wyznaczania odległości echa. Opisano poszczególne komponenty<br />

radaru pasywnego na podstawie zrealizowanego demonstratora.<br />

Pokazano i skomentowano przykłady praktycznej realizacji<br />

znanych radarów pasywnych.<br />

Słowa kluczowe: radar pasywny, PCL, radar szumowy, funkcja korelacji,<br />

oval Cassiniego,<br />

CZAJKOWSKI J., ŁYSZYK K.: System dalekosiężnej identyfikacji<br />

i śledzenia statków<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 115<br />

W artykule przedstawiono system dalekosiężnej identyfikacji i śledzenia<br />

statków, którego celem jest zapewnienie światowego monitoringu<br />

ruchu statków w celu poprawienia bezpieczeństwa żeglugi.<br />

Opisano ostateczną koncepcję systemu, omówiono przyjętą strukturę<br />

oraz części składowe. Przedstawiono charakterystykę funkcjonalnych<br />

składowych systemu LRIT.<br />

Słowa kluczowe: bezpieczeństwo żeglugi, monitoring statków<br />

ROMANIUK R.: Szkło dla fotoniki. Część 14. Parametry szklanego<br />

włókna optycznego<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 119<br />

Szkła, obok półprzewodników i metali, są podstawowym materiałem<br />

do budowy elementów w optoelektronice i mikroelektronice. Praktyczna<br />

wiedza o szkłach rozszerza się wraz z silnym rozwojem ich<br />

zastosowań w telekomunikacji, czujnikach i budowie mikrosystemów.<br />

Wiele elementów funkcjonalnych fotoniki budowanych jest ze szkieł<br />

laserowych. Optyczne zjawiska nieliniowe indukowane w szkle pozwalają<br />

na budowę nowych mikro-elementów fotonicznych zastępujących<br />

złożone rozwiązania klasycznej optyki objętościowej. Szkła<br />

gradientowe zastępują klasyczne szkła optyczne.<br />

W artykule, który jest czternastą częścią cyklu prac o szkłach dla<br />

fotoniki, dokonano przeglądu parametrów szklanych włókien optycznych<br />

dla celów transmisyjnych i instrumentalnych. W powszechnym<br />

mniemaniu włókno szklane jest prostym optycznym elementem biernym,<br />

którego głównym parametrem jest tłumienność i średnica rdzenia<br />

oraz refrakcja. Nic bardziej błędnego. Artykuł pokazuje kilkadziesiąt<br />

ważnych parametrów włókna szklanego, które jest jednym<br />

z bardziej zaawansowanych obiektów inżynierii materiałowej.<br />

Słowa kluczowe: szkła optyczne, fotonika, szkła światłowodowe,<br />

szklane włókna optyczne, parametry światłowodu szklanego, apertura<br />

numeryczna, częstotliwość znormalizowana, dyspersja chromatyczna<br />

światłowodu, światłowody aktywne, światłowody polaryzacyjne<br />

SZCZĘSNY J.: Wpływ konstrukcji cyfrowych układów scalonych<br />

na generację zaburzeń elektromagnetycznych<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 129<br />

Przedstawiono wyniki pomiarów emisji pól EM w funkcji częstotliwości<br />

zegara taktującego ze ścieżek zasilania, masy oraz ze środka<br />

obudowy układu scalonego matrycy cyfrowej FPGA realizującej<br />

mnożenie metodą sekwencyjną i kombinacyjną. Porównano poziomy<br />

emisji zaburzeń opracowanych projektów IC w zależności od rozmieszczenia<br />

bloków logicznych w obszarze matrycy, liczby aktywnych<br />

bloków logicznych i wielkości prądów zasilania w funkcji<br />

częstotliwości taktowania.<br />

CZEKAŁA Z.: Passive radars - a new radar technology<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 100<br />

The article presents fundamentals of operation of passive radars,<br />

which have no dedicated transmitter, but use radio waves radiated by<br />

transmitters of opportunity that normally serve other purposes. Important<br />

differences in operation of a pulsed radar and one that<br />

processes continuous noise-like signal have been indicated. Principles<br />

of the correlation reception, signal processing and target range<br />

finding have been explained. The particular components of a passive<br />

radar have been described, basing on a real demonstrator. Examples<br />

of practical implementation of well-known passive radars have been<br />

shown and commented.<br />

Keywords: passive radar, PCL, noise radar, correlation function,<br />

Cassini oval<br />

CZAJKOWSKI J., ŁYSZYK K.: Long Range Identification and<br />

Tracking of ships<br />

<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 115<br />

The article presents the main assumption of the Long Range Identification<br />

and Tracking of ships. The maim aim of the system is to improve<br />

the safety of navigation and to create global ships monitoring<br />

system. The main function preformed by the by the subsystems have<br />

been also presented.<br />

Key words: safety of navigation, global ships monitoring system<br />

ROMANIUK R.: Glasses for photonics. Part 14. Parameters of<br />

glass optical fibers<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 119<br />

Glasses, together with semiconductors and metals, are fundamental<br />

materials for building of components for optoelectronics and microelectronics.<br />

Practical knowledge about glasses extends considerably<br />

with strong development of their applications in telecommunications,<br />

sensors and the construction of microsystems. Many functional components<br />

of the photonics is manufactured of laser glasses. Nonlinear<br />

optical phenomena induced in glasses allow for building of new microcomponents,<br />

replacing complex solutions of classical volume optics.<br />

Gradient glasses are replacing classical optical glasses.<br />

The paper, which is the fourteenth part of a cycle on glasses for<br />

photonics, is a concise review of the most frequently used parameters<br />

of optical fibers used for transmission and instrumentation purposes.<br />

A common belief is that an optical fiber is a simple passive optical object<br />

with the major parameters such as: losses, core dimension and<br />

refraction. It is a big mistake. The papers discusses a few tens of parameters<br />

of optical fibers used to characterize this very complex component.<br />

Advanced optical fibers are nowadays very complex products<br />

of material engineering.<br />

Keywords: optical glasses, photonics, optical fiber glasses, glass optical<br />

fibers, parameters of optical fibers, numerical aperture, normalized<br />

frequency, optical fiber chromatic dispersion, active optical fibers,<br />

polarization maintaining optical fibers<br />

SZCZĘSNY J.: Influence of the IC construcion on electromagnetic<br />

disturbance<br />

<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 129<br />

In the paper some investigations of the electromagnetic emission from<br />

supply and ground pins of the circuits and middle zone of the Xilinx<br />

FPGA XCV800 package as a function of the clock rate are presented.<br />

To check the influence of IC floor plan, number of logic blocs and the<br />

circuit function on its electromagnetic emissions was tested.<br />

Keywords: Digital circuits, electromagnetic emission, FPGA floor plan<br />

and electric function, disturbances<br />

Słowa kluczowe: układy scalone, emisja elektromagnetyczna,<br />

FPGA, mapa bloków logicznych, zaburzenia EM<br />

8 ELEKTRONIKA 11/<strong>2009</strong>


Medical pattern intelligent recognition based<br />

on linguistic modelling of 3D coronary vessels<br />

visualisations<br />

(Lingwistyczne modelowanie przestrzennych rekonstrukcji unaczynienia<br />

wieńcowego w inteligentnym rozpoznawaniu zmian patologicznych)<br />

mgr inż. MIROSŁAW TRZUPEK, prof. dr hab. MAREK R. OGIELA,<br />

prof. dr hab. inż. RYSZARD TADEUSIEWICZ<br />

AGH University of Science and Technology, Institute of Automatics, Bio-Cybernetics Laboratory, Krakow<br />

Characteristic for the coronary vessels in different patients with<br />

various pathologic forms observed on flat, i.e. 2D, images is a<br />

certain level of repetitiveness and regularity. The same images<br />

registered by a machine rendering 3D images (helical CT<br />

scanner) feature a much greater number of visible details,<br />

which, however, results also in the increase of the number of<br />

both individual differences and those between various examinations<br />

of the same patient. Having considering these difficulties,<br />

a decision was made to apply the methods of automatic<br />

image understanding for the interpretation of the images considered,<br />

which consequently leads to their semantic descriptions.<br />

Thanks to such posing of the problem, the diagnosis put<br />

forth (being naturally but a suggestion for the physician making<br />

the actual decision) will account for a greater number of<br />

factors and use better the available medical information.<br />

Additionally, it is worth pointing out that - even though this<br />

is not the main focus of the work presented here - that the solution<br />

of problems related to the automatic production of intelligent<br />

(cognitive) descriptions of the 3D medical images in<br />

question may be a significant contribution to solving at least<br />

some of the problems connected to the smart archiving of this<br />

type of data and the finding of semantic image data meeting<br />

the semantic criteria delivered through sample image patterns<br />

in medical multimedia databases.<br />

The goal of research and description<br />

of the problem<br />

Problems of modelling biomedical structure shapes are extremely<br />

interesting from the scientific point of view, but also in<br />

connection with the development of medical diagnostic support<br />

systems. They concern various structures diagnosed<br />

using various modalities. However, in such research, we extremely<br />

frequently see the use of an approach based on neutral<br />

networks for shape modelling. For instance, such models<br />

can be built using Kohonen networks [1]. However, it is worth<br />

noting that such solutions are usually limited by the network<br />

topology, which, although it allows you to operate on vectors<br />

of features informative for the objects researched, does not<br />

allow the image to be analysed or the organ to be reconstructed<br />

in a holistic fashion, i.e. taking into account the full<br />

dimensions of the image [2-4]. This only becomes possible<br />

when we create linguistic descriptions using image grammars<br />

based on graph formalisms. By definition, such grammars<br />

have been dedicated for analysing image scenes, which in the<br />

case of medical visualisation means that they can be used to<br />

model multi-object structures or to conduct the meaning analysis<br />

of spatial reconstructions of heart tomograms, which will be<br />

demonstrated later in this publication.<br />

Graph-based semantic models<br />

of the heart’s coronary vessels<br />

In order to analyze a 3D reconstruction (visualisations for various<br />

patients obtained during diagnostic examinations of the<br />

heart with a helical CT scanner with 64 detectors), it becomes<br />

necessary to select the appropriate projection showing lesions<br />

in vessels in a way that enables them to be analysed on<br />

a plane. In our research we have attempted to automate the<br />

procedure of finding such a projection by using selected geometric<br />

transformations during image processing. Next, to enable<br />

a linguistic representation of the spatial reconstructions<br />

studied, the coronary vessels shown in them had been subjected<br />

to the operation of thinning, referred to as skeletonizing.<br />

This operation allows us to obtain a skeleton of the arteries<br />

under consideration with the thickness of one unit. This skeleton<br />

can then be subjected to the operation of labelling, which<br />

determines the start and end points of main and surrounding<br />

branches of coronary arteries in it. These points will constitute<br />

the peaks of a graph modelling the spatial structure of the<br />

coronary vessels of the heart.<br />

The next step is labeling them by giving each located informative<br />

point the appropriate label from the set of peak labels<br />

which unambiguously identify individual coronary arteries<br />

forming parts of the structure analysed. For the left coronary<br />

artery they have been defined as follows: LCA - left coronary<br />

artery, LAD - anterior interventricular branch (left anterior descending),<br />

CX - circumflex branch, L - lateral branch, LM - left<br />

marginal branch. And for the right coronary artery they have<br />

been defined as follows: RCA - right coronary artery, A - atrial<br />

branch, RM - right marginal branch, PI - posterior interventricular<br />

branch, RP - right posterolateral branch. This way, all<br />

initial and final points of coronary vessels as well as all points<br />

where main vessels branch or change into lower level vessels<br />

have been determined and labelled as appropriate. After this<br />

operation, the coronary vascularization tree is divided into<br />

sections which constitute the edges of a graph modelling the<br />

examined coronary arteries. Mutual spatial relations that may<br />

occur between elements of the vascular structure represented<br />

by a graph are described by the set of edge labels. The elements<br />

of this set have been defined by introducing the appropriate<br />

spatial relations; vertical - defined by the set of labels<br />

α, β,…, µ and horizontal - defined by the set of labels 1, 2,…,<br />

24 on a hypothetical sphere surrounding the heart muscle.<br />

These labels designate individual final intervals, each of which<br />

has the angular spread of 15°. Then, depending on the location,<br />

terminal edge labels are assigned to all branches identified<br />

by the beginnings and ends of the appropriate sections of<br />

coronary arteries.<br />

ELEKTRONIKA 11/<strong>2009</strong> 9


The presented methodology draws upon the method of<br />

determining the location of a point on the surface of our planet<br />

in the system of geographic coordinates, where a similar cartographic<br />

projection is used to make topographic maps. This<br />

representation of mutual spatial relationships between the<br />

analysed arteries yields a convenient access to and a unanimous<br />

description of all elements of the vascular structure.<br />

As the structure of coronary vascularization may be characterised<br />

by three different types of artery distribution over the<br />

heart surface, in the following part we will propose a grammar<br />

for the left dominance artery distribution. The left dominance<br />

artery distribution is present in on average 10...14% of cases,<br />

with a variety of intermediate forms possible. Before we define<br />

the representation of the analysed image in the form of IE<br />

graphs, we have to introduce the following order relationship<br />

1 ≤ 2 ≤ 3 ≤ … ≤ 24 and α ≤ β ≤ γ ≤ … ≤ µ in the set of Г edge<br />

labels shown in Fig. 1. This way, we index all peaks according<br />

to the ≤ relationship in the set of edge labels which connect<br />

the main peak marked 1 to the adjacent peaks and we index<br />

in the ascending order (i = 2, 3, …, n). This gives us IE graphs<br />

for the right and the left coronary arteries, respectively, presented<br />

in Fig. 1.<br />

When graphs shown in Fig. 1 are represented by their<br />

characteristic descriptions, they look as follows:<br />

For the right coronary artery:<br />

The graph structure created in this way will form elements<br />

of a graph language defining the spatial topology of the heart<br />

muscle vascularization including its possible morphological<br />

changes.<br />

For IE graphs defined as above, in order to locate the<br />

place where stenoses occur in the case of a balanced artery<br />

distribution, the graph grammar may take the following form:<br />

for the right coronary artery:<br />

G P = (S, ∆, Γ, P, Z)<br />

S = {ST, RCA, PI, RM, C_Right},<br />

D = {ST, RCA, PI, RM},<br />

G = {16η, 11ι, 12λ, 14ε}<br />

The start graph Z and the set of productions shown in Fig. 2.<br />

for the left coronary artery:<br />

G L = (S, ∆, Γ, P, Z)<br />

S = {ST, LCA, LM_CX, L_LAD, CX, LM, L, LAD, C_Left,<br />

C_Left_ant, C_Left_circum}<br />

For the left coronary artery:<br />

ST 1 RCA 2 PI 3 RM 4 ST 1 LCA 2 LM_CX 3 L_LAD 4 CX 5 LM 6 L 7 LAD 8<br />

1 2 1 - 1 2 2 2 1 - 1 -<br />

16η 11ι 12λ 1ε - 2κ 13ι 16ι 13θ 1λ 2λ 18ι 22κ - 23η -<br />

2 3 4 4 - 2 3 4 5 6 7 8 6 - 8 -<br />

Fig. 1. The representation of the right (A) and the left (B) coronary artery using IE graphs<br />

Rys. 1. Reprezentacja prawej (A) oraz lewej (B) tętnicy wieńcowej za pomocą grafów IE<br />

10 ELEKTRONIKA 11/<strong>2009</strong>


Fig. 2. Start graph Z and the set of productions for grammar G P Rys. 2. Graf startowy Z i zbiór produkcji dla gramatyki G P<br />

D = {ST, LCA, LM_CX, L_LAD, CX, LM, L, LAD},<br />

G = {2κ, 13ι, 16ι, 13θ, 22κ, 1λ, 2λ, 18ι, 23η}<br />

Z is the start graph shown in Fig. 3. P is the set of productions<br />

shown in Fig. 4.<br />

This way, we have defined a mechanism in the form of<br />

ETPL(k) graph grammars which create a certain linguistic representation<br />

of each analysed image in the form of an IE graph.<br />

The set of all representations of images generated by this<br />

grammar is treated as a certain language. Consequently, we<br />

Fig. 3. Start graph Z for grammar G L<br />

Rys. 3. Graf startowy Z dla gramatyki G L<br />

can built a syntax analyzer based on the proposed graph<br />

grammar which will recognize elements of this language. The<br />

syntax analyzer is the proper program which will recognize<br />

the changes looked for in the lumen of coronary arteries. It is,<br />

of course, the most important and difficult (from the implementation<br />

point of view) part in the whole task especially for<br />

the graph and tree grammars [5-7]. The difficulties with implementing<br />

syntax analysers based on graph grammars are<br />

due to the lack of ready grammar compilers, like those available<br />

for context-free grammars. As a result, it becomes necessary<br />

to independently execute syntax analysis procedures<br />

for the proposed grammars. The authors have used in their<br />

research a prototype computer system which allows graph descriptions<br />

to be generated, and then used to create their corresponding<br />

parsers. This system was developed as part of<br />

one of the scientific projects dedicated to problems of automating<br />

grammatical reasoning processes described in publication<br />

[5-7]. The entire such syntax and semantic analysis<br />

can be completed in the multinomial time, both for strictly defined<br />

patterns, and also for fuzzy patterns, as the grammars<br />

described can be extended to probabilistic forms.<br />

Fig. 4. Set of productions for grammar G L Rys. 4. Zbiór produkcji dla gramatyki G L<br />

ELEKTRONIKA 11/<strong>2009</strong> 11


Summary<br />

The image set of recognition data, which has been used in<br />

order to determine in percentage figures the efficiency of<br />

a correct recognition of the size of stenoses in coronary arteries,<br />

included 16 different spatial reconstructions obtained<br />

for patients with heart disease (mostly ischemia). In this set,<br />

we considered image sequences of patients previously<br />

analysed at the stage of the grammar construction and the<br />

recognising analyser. In order to avoid analysing identical reconstructions<br />

we selected separate images occurring after<br />

slight positions rotation (different projection) the ones used<br />

originally (from spatial helical CT scans). The remaining images<br />

in the test data have been obtained for a new group of<br />

patients. The objective of an analysis of these data was to determine<br />

in percentage the efficiency of the correct recognition<br />

of artery stenosis and to determine their size with the use of<br />

the grammar introduced. The recognition of such stenoses,<br />

including the determination of their locations, lumens of the<br />

artery, and the types (concentric or eccentric), was conducted<br />

in such a way that while reasoning out the grammar for the<br />

graph representation of the coronary vascularization, particular<br />

edges of the graph determined the actual beginnings and<br />

ends of particular sections of coronary arteries. During the<br />

grammar reasoning and the course of the transform of embedding<br />

graph representations on the actual images, the corresponding<br />

sections of arteries were analysed with regard to<br />

the presence of potential stenoses in them. The method of<br />

this analysis also consisted in applying a context-free sequential<br />

grammar to detect stenoses in 2D coronarography<br />

images. Such a grammar has been defined in publications<br />

[7-8]. Applying such a grammar to analyse particular sections<br />

of arteries in the obtained spatial reconstructions turned out to<br />

be quite effective, as it allowed the unanimous On the image<br />

data tested, the efficiency of recognition amounted to 85%.<br />

The value of the efficiency of recognition is determined by the<br />

percentage fraction of the accurately recognized and measured<br />

vessel stenoses compared to the number of all images<br />

analyzed in the test. The recognition itself meant locating and<br />

defining the type of stenosis, e.g. concentric or eccentric.<br />

This work has been supported by the Ministry of Science and<br />

Higher Education, Republic of Poland, under project number<br />

N519 007 32/0978<br />

References<br />

[1] Ferrarini L. i in.: GAMEs: Growing and adaptive meshes for fully<br />

automatic shape modeling and analysis. Medical Image Analysis,<br />

11, 2007, 302-314.<br />

[2] Seghers D. i in.: Minimal shape and intensity cost path segmentation.<br />

IEEE Trans. on Medical Imaging, 26, 2007, 1115-<br />

1129.<br />

[3] Loeckx D. i in.: Temporal subtraction of thorax CR images using<br />

a statistical deformation model. IEEE Trans. on Medical Imaging,<br />

22, 2003, 1490-1504.<br />

[4] Higgins W.E. i in.: System for analyzing true three-dimensional<br />

angiograms. IEEE Trans. Med. Imag. 15, 1996, 377-385.<br />

[5] Skomorowski M.: A Syntactic-Statistical Approach to Recognition<br />

of Distorted Patterns. Jagiellonian University, Krakow, 2000.<br />

[6] Tadeusiewicz R., Flasiński M.: Pattern Recognition. Warsaw,<br />

1991.<br />

[7] Ogiela M. R., Tadeusiewicz R.: Modern Computational Intelligence<br />

Methods for the Interpretation of Medical Images.<br />

Springer-Verlag, Berlin Heidelberg, 2008.<br />

[8] Tadeusiewicz R., Ogiela M. R.: Medical Image Understanding<br />

Technology. Springer Verlag, Berlin-Heidelberg, 2004.<br />

Average individual classification probability function<br />

(Przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji)<br />

dr inż. MAREK LANDOWSKI 1,2 , prof. dr hab. inż. ANDRZEJ PIEGAT 2<br />

1 Quantitative Methods Institute, Szczecin Maritime University, Szczecin<br />

2 Faculty of Computer Science and Information Systems, West Pomeranian University of Technology, Szczecin<br />

In everyday life people use different words to make various<br />

mental calculations. Therefore the proper description of<br />

a word is a crucial problem. There are two types of models of<br />

linguistic concept: possibilistic model and probabilistic model.<br />

In the possibilistic theory models of linguistic concept are described<br />

by the membership function [1], whereas in probability<br />

theory models of linguistic concept are described by<br />

classification probability function [2,3]. Possibilistic models described<br />

by the membership function are mainly used in fuzzy<br />

control and in modeling input-output relation of an object like<br />

y = f(x 1 , x 2 , …, x n ). Probabilistic models describing linguistic<br />

concepts by classification probability function seem to perform<br />

better in automatic thinking and decision making theory. Fuzzy<br />

sets theory and probability theory are complementary and not<br />

exclusive theories. These theories can work together though<br />

they model semantic concepts differently [4].<br />

The article focuses on probabilistic model of linguistic concept<br />

[5], in particular on finding the average individual classification<br />

probability function. According to the authors’ knowledge<br />

average individual classification probability function are<br />

the novelty in the word literature.<br />

In the article there is the following order. Firstly the two<br />

kinds of models of linguistics concepts are presented. Next<br />

the interpretation is given as well as the methods of identification<br />

average individual classification probability function.<br />

Then the features of average individual classification probability<br />

function received from the experiments are introduced.<br />

Finally the conclusions are presented.<br />

Probabilistic models of linguistic concept<br />

from the group of people (population)<br />

We distinguish two kinds of models of linguistic concept received<br />

from the group of people (population):<br />

• group (population) model,<br />

• average, individual model of an average person of the group.<br />

12 ELEKTRONIKA 11/<strong>2009</strong>


Both models are created of the basis of data received<br />

from the group of people or a group of technical measurement<br />

machines for classification. Classifiers can be a form of<br />

2 people, 3 people … a group of people or the population of<br />

a whole country etc. On the basis of empirical or declared results<br />

we receive average individual model of group from<br />

which the data was taken or average individual model of the<br />

person of the group [5].<br />

Group model is usually used when we do not know from<br />

whom exactly the linguistic information is received. We only<br />

know that the information comes from of the group (population)<br />

which the person belongs to. The model represents the<br />

whole group of people (the whole population). Whereas the<br />

average individual model of a person of group represents only<br />

the average person of the group (population), it does not represent<br />

the whole group of people (the whole population).<br />

Average individual probability<br />

classification functions from the group<br />

of people (population)<br />

In the group of people classification function of particular<br />

members are usually a bit different. For example in the group<br />

of 3 people each of them can differently understand the concept<br />

“medium” (Fig. 1).<br />

The question arises, what does the average individual classification<br />

function of one typical person of the group look like,<br />

in other words the most frequently found person in the group?<br />

Classification function of such person are most similar to<br />

the function of the majority of people in the examined population.<br />

Similarly the height of majority of people in a population<br />

is usually close to medium height. It means classification function<br />

of the majority people in the population are most similar<br />

to the function of the average person in the group.<br />

In the example presented in Fig. 1 the average individual<br />

classification function is drown in thick line.<br />

Average individual classification probability function answers<br />

the question: what is the probability the average (most<br />

frequently found) person in the group qualifies numerical value<br />

to the given linguistic concept.<br />

The different between the group classification function of<br />

linguistic concept and the average individual classification<br />

function is that the group function expresses the average value<br />

of classification probability by the whole group and the average<br />

individual classification function expresses the average classification<br />

probability by the average person from the group.<br />

Next the method of the identification of the average individual<br />

classification function to linguistic quantifiers is presented.<br />

In this methods the support of the linguistic concept are divided<br />

to the equal number of interval, then the integral of the<br />

function on every of support interval is computed (area on the<br />

interval limited by classification function and axis x). Next the<br />

average area for i-th interval of n linguistic concept is computed.<br />

where: n - the number of individual linguistics concept, f k (x) -<br />

classification function of individual linguistic concept, e.g.<br />

“small probability”.<br />

Average individual classification probability function will be<br />

created from average support intervals and the average area<br />

in the particular interval. The support and the area of the average<br />

individual classification probability function will be the<br />

mean of individual classification function. In the last stage having<br />

computed all the average quantifiers included in the dictionary<br />

of classification probability function we normalized<br />

them, so that the sum of all quantifiers is one. In many cases<br />

the normalization does not change anything because the sum<br />

of quantifiers is already one.<br />

Example 1. In the below example we will look into two<br />

quantifiers of classification function. For better understanding<br />

of the method the quantifiers are in the form of step function,<br />

Fig. 2. On the basis of the given quantifiers the average<br />

individual quantifier of classification function will be determined,<br />

using (1).<br />

The points of the support F_aver are the average points<br />

which divide the supports F1 and F2 (dotted line):<br />

The surface area of rectangles which create the function<br />

F_aver are the average surface area marked with doted line<br />

rectangles in F1 and F2, respectively, thus the heights of the<br />

rectangles are:<br />

(1)<br />

(2)<br />

(3)<br />

Fig. 1. The illustration of the sense of average individual classification<br />

probability function (thick line)<br />

Rys. 1. Ilustracja przeciętnej indywidualnej funkcji klasyfikacji<br />

(linia pogrubiona)<br />

Fig. 3, 4 and 5 presents application of method of determining<br />

the average individual probability classification function using<br />

individual probability classification function received on the<br />

basis of the experiment which was carried out by the authors.<br />

Individual classification function show the models of individual<br />

people taking part of the experiment.<br />

ELEKTRONIKA 11/<strong>2009</strong> 13


In the average individual classification probability function<br />

the following relation are found:<br />

• average individual classification probability function presents<br />

classification probability to linguistic quantifiers one of the<br />

average person of the group (a person typical of the group),<br />

• in many cases quantifier supports overlap,<br />

• the beginning and the end of the average quantifier supports<br />

is a mean value of the beginnings and ends values<br />

the appropriate individual quantifiers,<br />

• the height of the average linguistic quantifiers usually increase<br />

from medium quantifiers to border quantifiers,<br />

• because values of quantifiers need to add up to one, they<br />

are strongly dependent on the quantifier supports,<br />

• surface area of the average individual quantifiers equals<br />

the average surface area of individual quantifiers,<br />

a)<br />

Fig. 2. The quantifiers of classification function F1 and F2 in the<br />

form of step function and calculated on the basis of F1 and F2<br />

average individual quantifier F_aver of classification function<br />

Rys. 2. Kwantyfikatory funkcji klasyfikacji F1 i F2 w formie funkcji<br />

schodkowej oraz obliczony na podstawie F1 i F2 przeciętny indywidualny<br />

kwantyfikator F_aver funkcji klasyfikacji<br />

b)<br />

a)<br />

Fig. 4. The examples of the individual classification probability<br />

function (dotted line) and the average individual classification<br />

probability function (continuous line) received from the individual<br />

models, the functions of 5-element dictionaries<br />

Rys. 4. Przykłady indywidualnych funkcji prawdopodobieństwa<br />

klasyfikacji (linia przerywana) i przeciętna indywidualna funkcja<br />

prawdopodobieństwa klasyfikacji (linia ciągła) otrzymana z modeli<br />

indywidualnych, funkcje o słowniku 5-elementowym<br />

b)<br />

Fig. 3. The examples of the individual classification probability<br />

function (dotted line) and the average individual classification<br />

probability function (continuous line) received from the individual<br />

models, the functions of 3-element dictionaries<br />

Rys. 3. Przykłady indywidualnych funkcji prawdopodobieństwa<br />

klasyfikacji (linia przerywana) i przeciętna indywidualna funkcja<br />

prawdopodobieństwa klasyfikacji (linia ciągła) otrzymana z modeli<br />

indywidualnych, funkcje o słowniku 3-elementowym<br />

Fig. 5. The examples of the 40 individual classification probability<br />

function, (dotted line) and the average individual classification<br />

probability function (thick line) received on the basis of the experiment<br />

Rys. 5. Przykłady 40 indywidualnych funkcji prawdopodobieństwa<br />

klasyfikacji (linia przerywana) i przeciętna indywidualna funkcja<br />

prawdopodobieństwa klasyfikacji (linia ciągła) otrzymana na podstawie<br />

eksperymentu<br />

14 ELEKTRONIKA 11/<strong>2009</strong>


• in some cases in the methods of determining the average<br />

individual classification function it is necessary to normalize<br />

the average individual quantifiers, so that they ad up to one,<br />

• it is crucial that the identification of the probability identification<br />

function is made with the whole dictionaries<br />

because the shapes and supports of the received models<br />

of linguistics concept depend on quantity of elements in<br />

dictionaries.<br />

The question arises, when do we apply the group definition<br />

of linguistic quantifiers and when average individual definitions?<br />

It depend on the examined problem. If the problem has to<br />

be based on the understanding of linguistic concept by the<br />

whole group we apply the group model of the concept. If the<br />

solution is to be based on the average individual understanding<br />

of the concept we need to apply the average individual<br />

model. The person solving the problem decides on the model<br />

to be used. Solving the problem using the group model we receive<br />

the safer but more uncertain result. When we solve the<br />

problem using the average individual model the obtained result<br />

is less uncertain. The result will be correct in most cases<br />

however there is a limited risk that the result has a large error.<br />

The problem is typical of the probability theory and is similar<br />

to the problem of calculating the results of final values y on<br />

the bases of whole distributions of probable input data of the<br />

variable x i or only on the basis of the center of gravity of these<br />

distributions.<br />

Conclusion<br />

In the article the method identifying the average individual<br />

classification probability function is presented as well as the<br />

relations that occur in the average individual function. The received<br />

on the basis of the presented method functions are<br />

vital in probabilistic reasoning and in the decision making theory<br />

because the received probabilistic model of linguistic concept<br />

describes perception of an average person in a group<br />

(population). We need to state that it is not the average model<br />

of the group of people. According to the author’s knowledge<br />

the concept of the individual classification probability function<br />

is new in the world scientific literature.<br />

References<br />

[1] Zadeh L. A.: Fuzzy Sets, Information and Control 8 (1965) 338-<br />

353.<br />

[2] Hisdal E.: Are Grades of Membership Probabilities. Fuzzy Sets<br />

and Systems 25 (1988), 325-348, North-Holland.<br />

[3] Cheeseman P.: An inquiry into computer understanding. Comput.<br />

Intell. 1988, vol. 4, 58-66.<br />

[4] Kandel A., Martins A., Pacheco R.: On the Very Real Distinction<br />

Between Fuzzy and Statistical Methods. Technometrics, August<br />

1995, vol. 37, no 3, 276-281.<br />

[5] Piegat A., A New Definition of the Fuzzy Set, Int. J. Appl. Math.<br />

Comput. Sci. 2005, vol. 15. no 1, 125-140.<br />

Evolutionary sets of cooperating ship trajectories:<br />

open waters and restricted waters<br />

(Ewolucyjne zbiory bezpiecznych trajektorii statków dla wód otwartych<br />

i obszarów ograniczonych)<br />

dr inż. RAFAŁ SZŁAPCZYŃSKI<br />

Gdańsk University of Technology, Faculty of Ocean Engineering and Ship Technology<br />

The paper contains a description of an already developed, revised<br />

version of the method, which has been first presented by<br />

the author in its early version in [1]. The method combines<br />

some of the assumptions of game theory approach to this<br />

problem [2] with evolutionary programming approach [3] and<br />

aims to find an optimal set of cooperating trajectories of all<br />

ships involved in an encounter situation, by means of evolutionary<br />

algorithms. Depending, whether we are focusing on<br />

restricted water regions or open waters, specific methods of<br />

generating the initial population, various ship domains and different<br />

sets of specialised operators have been used throughout<br />

the research presented here.<br />

Optimisation problem<br />

It is assumed that we are given the following data: stationary<br />

constraints (obstacles and other constraints modelled as polygons),<br />

positions, courses and speeds of all ships involved,<br />

ship domains and times necessary for accepting and executing<br />

the proposed manoeuvres. A ship domain can be computed,<br />

based on the ship’s length, its motion parameters and<br />

the type of a water region. Ship domain has been first defined<br />

as a two-dimensional area surrounding a ship, which other<br />

ships must avoid. Since a domain shape depends on the type<br />

of a water region, the author has decided to use a domain<br />

model by Davis [4] for open waters and a domain model by<br />

Coldwell [5] for restricted waters.<br />

Knowing all the parameters values, the goal is to find a set<br />

of trajectories, which minimizes the average way loss spent on<br />

manoeuvring, while fulfilling the following conditions:<br />

• none of the stationary constraints are violated (restricted<br />

waters only),<br />

• none of the ship domains are violated,<br />

• the minimal acceptable course alteration is not lesser than<br />

15 degrees,<br />

• the maximal acceptable course alteration is not larger than<br />

60 degrees,<br />

• speed alterations are not to be applied unless necessary,<br />

• ship manoeuvres only when she is obliged to,<br />

• manoeuvres to starboard are favoured over manoeuvres<br />

to port board.<br />

As for the first two conditions, all obstacles have to be avoided<br />

and the domains should not be violated by definition. All other<br />

conditions are imposed by COLREGS [6] or by the economics.<br />

ELEKTRONIKA 11/<strong>2009</strong> 15


The structure of an individual and<br />

its evaluation<br />

Each individual (a population member) is a set of all ship trajectories.<br />

Each trajectory is a sequence of nodes, each node<br />

containing geographical coordinates x and y and the speed<br />

between the current and the next node.<br />

The basic piece of data used during the evaluation phase<br />

of the evolutionary process is the average way loss computed<br />

for each individual (a set of cooperating trajectories). Some of<br />

the constraints also must be taken into account during the<br />

evaluation. These include violations of ship domains and violations<br />

of stationary constraints: they must be penalized and<br />

those penalties must be reflected in the fitness function. However,<br />

the other constraints are handled by applying additional<br />

rules when generating the initial population, during mutation<br />

and by fixing functions operating on individuals prior to their<br />

evaluation. Those fixing functions analyse each trajectory of<br />

an individual and in case of unacceptable manoeuvres, the<br />

nodes being responsible are moved so as to round a manoeuvre<br />

up or down to an acceptable value.<br />

As for violations of the first two constraints (stationary ones<br />

and ship domains), they are penalized as follows. For each<br />

ship and its set of stationary constraint violations, an obstacle<br />

collision factor is computed as given by (4). Analogically, for<br />

each ship and its set of prioritised targets a ship collision factor<br />

is computed as given by (3). The reason, why only collisions<br />

with prioritised targets are represented in evaluation is<br />

because the manoeuvres must be compliant with COLREGS.<br />

If a ship is supposed to stay on its course according to the<br />

rules, the collision is ignored so as not to encourage an unlawful<br />

manoeuvre.<br />

In case of collision with prioritised target, the author’s<br />

measure - approach factor f min [7] is used to assess the risk<br />

of a crash. Based on this approach factor values and other<br />

parameters, each individual is assigned a value of the fitness<br />

function (1):<br />

where:<br />

sf i - ship collision factor of the i-th ship computed over all prioritised<br />

targets:<br />

fmin i,j - the approach factor value for an encounter of ships<br />

i and j [/], of i - obstacle collision factor of the i-th ship computed<br />

over all stationary constraints:<br />

n - the number of ships [/], m - the number of stationary constraints<br />

[/], i, j - the indexes of the current ship and [/] and its<br />

target, k - the index of a stationary constraint [/],<br />

(1)<br />

(2)<br />

(3)<br />

(4)<br />

collision_course_range - the range of forbidden courses of the<br />

ship i computed for the stationary constraint j in the node directly<br />

preceding the collision. [/].<br />

The only differences between open waters and restricted<br />

waters here are different domain models and obstacle collision<br />

factor of i being equal to 1 for open waters. To detect stationary<br />

constraint violations of an individual, all of the<br />

trajectories are checked against all of the constraints (which<br />

are modelled as polygons) and the collision points are found.<br />

Analogically, to detect the domain violations of an individual,<br />

all of its trajectories are checked against each other to find potential<br />

collision points.<br />

Evolutionary process<br />

Generating the initial population<br />

The initial population contains three types of individuals:<br />

• a set of original ship trajectories - segments joining the start<br />

and destination points,<br />

• sets of safe trajectories determined by other methods,<br />

• randomly modified versions of the first two types - sets of<br />

trajectories with additional nodes, or with some nodes<br />

moved from their original geographical positions.<br />

The first type results in an immediate solution in case of no<br />

collisions, or in faster convergence in case of only constraint<br />

violations. The second type provides sets of safe (though not<br />

optimal) trajectories. They are generated either by the method<br />

of planning a trajectory on raster grids [8], which enables<br />

avoiding collisions with other ships as well as with stationary<br />

obstacles (for restricted waters) or by the method of planning<br />

a sequence of necessary manoeuvres [9] (for open waters).<br />

Finally, the third type of individuals (randomly modified individuals<br />

of the previous two types) is used to generate the majority<br />

of a diverse initial population and thus to ensure the vast<br />

searching space.<br />

Specialised operators<br />

The evolutionary operators, used here, can be divided into the<br />

following groups:<br />

1. Two types of crossing operators, both operating on pairs<br />

of individuals:<br />

a) an offspring inherits whole trajectories from both parents,<br />

b) each of the trajectories of the offspring is a crossing of<br />

the parents trajectories.<br />

2. Three types of operators avoiding collisions with prioritised<br />

ships, all operating on single trajectories. If a collision<br />

with a prioritised ship has been registered,<br />

depending on the circumstances, one of the following<br />

operators is chosen:<br />

a) a node which is closest to the collision point is moved<br />

away from it,<br />

b) a segment moving (two nodes, closest to the collision<br />

point) is moved,<br />

c) a new node is inserted between the two nodes closest<br />

to the collision point, none of these operations guarantees<br />

avoiding the collision with a target but they are<br />

likely to do so and therefore statistically effective and<br />

suitable for the evolutionary purposes.<br />

3. An operator avoiding collisions with stationary obstacles<br />

(restricted waters only). A course alteration manoeuvre is<br />

made (a new node is inserted) in such a way, that the new<br />

trajectory segment does not cross a given edge of an obstacle<br />

(polygon).<br />

16 ELEKTRONIKA 11/<strong>2009</strong>


4. Random operators: three types of operators, all operating<br />

on single trajectories:<br />

a) node insertion: a node is inserted randomly into the trajectory,<br />

b) node deletion: a randomly selected node is deleted,<br />

c) nodes joining: two neighbouring nodes are joined,<br />

d) node mutation: the polar coordinates of a node are altered.<br />

A trajectory mutation probability decreases with the increase<br />

of the trajectory fitness value (2), so as to mutate the<br />

worst trajectories of each individual first, without spoiling its best<br />

trajectories. In the early phase of the evolution all random<br />

operators: the node insertion, deletion, joining and mutation are<br />

equally probable. In the later phase node mutation dominates<br />

with its course alterations and distance changes decreasing<br />

with the number of generations. For node insertion and node<br />

mutation instead of Cartesian coordinates x and y, the polar coordinates<br />

(course alteration and distance) are mutated in such<br />

a way that the new manoeuvres are between 15 and 60 degrees.<br />

Thus, fruitless mutations (the ones leaving to invalid trajectories)<br />

are avoided for these two operators. Operating on<br />

polar coordinates (course and distance) instead of Cartesian<br />

x and y coordinates also makes it more likely to escape the<br />

local optimums because manoeuvres both valid and largely differing<br />

from the past ones are more likely to be generated.<br />

Selection and stop condition<br />

A number of selection methods have been tried, but the initially<br />

chosen truncation method (with the truncation threshold<br />

of 50%), has proven to be most successful, because of its fast<br />

convergence to a solution.<br />

The evolutionary process is stopped if one of the following<br />

happens: the maximum number of generations is reached, the<br />

time limit is reached or further evolution does not bring significant<br />

improvement.<br />

Simulation tests<br />

For open waters version, the following types of test scenarios<br />

have been designed:<br />

1. basic encounter situations involving two ships: head-on,<br />

crossing, overtaking,<br />

2. encountering a group of targets of the same or similar<br />

courses. Again, various encounter types course combinations<br />

have been checked,<br />

3. encountering targets of the various courses, with the times<br />

of encountering particular ships differing considerably and<br />

some of the targets colliding with each other,<br />

4. encountering targets of the various courses, with the times<br />

of encountering being close to each other and some of the<br />

targets colliding with each other.<br />

Similar types of scenarios only including additional stationary<br />

constraints have been prepared for restricted waters<br />

version. For scenario types 3 and 4 some of the targets have<br />

initially collided with each other as well as with obstacles.<br />

Simulation results for open waters version<br />

Correct but unsurprising behaviour of the ships has been registered<br />

for the first group of test scenarios. The own ship<br />

would manoeuvre only, when direct collision threat with a target<br />

would occur and the own ship would be the “give-way”<br />

ship according to COLREGS. As for the second group, the<br />

same tendency was also true, but there were two additional<br />

aspects due to larger number of ships involved:<br />

• in case of largely differing encounter times with various targets,<br />

the own ship would avoid collision by a sequence of<br />

manoeuvres so as to minimize the way loss,<br />

• in case of encounter times with various targets being close,<br />

the own ship would avoid collision with a group of targets<br />

by a single manoeuvre to avoid confusing the targets.<br />

For the last two groups the own ship or some of the targets<br />

would often manoeuvre even if initially their courses did not<br />

collide with courses of other prioritised targets. The reason for<br />

such behaviour has been the correct prediction of the prioritised<br />

targets manoeuvres, some targets being “give way”<br />

ships in relation to other targets.<br />

For all test scenarios safe sets of trajectories have been<br />

found, with the average way loss over all ships ranging from<br />

1% to 5% of the initial trajectory length, depending on the<br />

number of ships in a particular scenario and the sizes of their<br />

domains.<br />

Simulation results for restricted waters<br />

version<br />

Even the relatively simple cases from the first group of test<br />

scenarios brought interesting results. Usually the own ship<br />

would manoeuvre only when direct collision threat with a target<br />

would occur and the own ship would be a “give-way” ship<br />

according to COLREGS. However, occasionally, the own ship<br />

would manoeuvre, even if initially its course did not collide<br />

with course of a target. The reason for such behaviour has<br />

been the correct prediction of the prioritised target manoeuvres,<br />

due to this target altering its course to avoid collision<br />

with an obstacle. As for the second group of test scenarios,<br />

the general tendency of behaviour typical for the first group<br />

was also true. Giving way to a prioritised target because of<br />

predicting its future manoeuvre occurred more often because<br />

of more targets being involved.<br />

The abovementioned tendencies of behaviour of the own<br />

ship and targets were more significant with the advancing<br />

complexity of the test scenarios. For the last two groups of<br />

test scenarios, usually, all of the targets would manoeuvre to<br />

avoid collisions with each other and the obstacles. Due to<br />

a larger number of ships and obstacles, it was sometimes impossible<br />

to tell for a certain manoeuvre of a ship, with which<br />

target exactly it avoids a collision. The trajectories contained<br />

mostly up to 3 course alterations followed by a final course alteration<br />

- a return to the original trajectory. The first manoeuvre<br />

was usually to the starboard, as enforced by COLREGS,<br />

unless a manoeuvre to port board was the only possibility, due<br />

to an obstacle position, size and shape.<br />

For all test scenarios safe sets of trajectories have been<br />

found, with the average way loss over all ships ranging from<br />

3% to 10% of the initial trajectory length, depending on the<br />

number of ships, the number and the size of the obstacles and<br />

the sizes of the ship domains.<br />

Number of generations<br />

and computational time<br />

The computational times, registered on a standard PC, have<br />

been acceptable (below 1 minute) for all test scenarios. For<br />

simple scenarios and for open waters, the maximum number<br />

of generations was rarely reached, with the optimal solution<br />

being found much earlier - in about half of the maximum generation<br />

number, with the following generations bringing minor<br />

improvements to the solution. For more complex cases<br />

(especially on restricted waters) the maximum number of ge-<br />

ELEKTRONIKA 11/<strong>2009</strong> 17


nerations has almost always been reached, and occasionally<br />

improvements have been registered until the last generation,<br />

suggesting that the final solution is sub-optimal. However,<br />

adding more generations did not improve the final solution<br />

considerably and the solution found originally was always<br />

close enough to be accepted.<br />

Summary and conclusions<br />

The method, described here, is a generalization of evolutionary<br />

trajectory determining. A set of trajectories of all ships, instead<br />

of just the own trajectory, is determined. The method<br />

avoids violating ship domains and stationary constraints, while<br />

minimizing way loss and obeying COLREGS. Because of its<br />

low computational time, it can be applied to ARPA (Automatic<br />

Radar Plotting Aids) systems as well as VTS (Vessel Traffic<br />

Service) systems. In case of simple scenarios (where ship<br />

priorities are clearly described by COLREGS), the method is<br />

able to predict the probable manoeuvres of targets and plan<br />

own ship manoeuvre in advance. In the most complex cases,<br />

with a high density of ships and obstacles, it can be impossible<br />

to predict behaviour of all targets correctly and thus - to fully<br />

take advantage of the method. However, the method could<br />

still be used in ARPA systems to predict at least the tendencies<br />

of the targets manoeuvres (manoeuvres to starboard, to<br />

port board or lack of manoeuvres). And - it could be fully utilized<br />

by VTS systems to plan sets of cooperating ship trajectories<br />

in harbour areas. In the latter case it could successfully<br />

solve any given scenario involving multiple ships and stationary<br />

constraints.<br />

References<br />

[1] Szłapczyński R.: Evolutionary Approach to solving multi-ship encounter<br />

situations. Polish Journal of Environmental Studies,<br />

2008, vol. 4C.<br />

[2] Lisowski J.: Dynamic games methods in navigator decision support<br />

system for safety navigation. Proceedings of the European<br />

Safety and Reliability Conference vol. 2, pp. 1285-1292, 2005.<br />

[3] Śmierzchalski R.: Synteza metod i algorytmów wspomagania decyzji<br />

nawigatora w sytuacji kolizyjnej na morzu. Prace Naukowe<br />

Wyższej Szkoły Morskiej w Gdyni, 1998.<br />

[4] Davis P. V., Dove M. J., Stockel C. T. (1982). A Computer Simulation<br />

of multi-Ship Encounters. The Journal of Navigation, 35,<br />

347-352.<br />

[5] Coldwell T. G.: Marine Traffic Behaviour in restricted Waters.<br />

Journal of Navigation, issue 36, pp. 431-444, 1982.<br />

[6] Cockroft A. N., Lameijer J. N. F.: A Guide to Collision Avoidance<br />

Rules. Butterworth-Heinemann Ltd., 1993.<br />

[7] Szłapczyński R.: A unified measure of collision risk derived from<br />

the concept of a ship domain. Journal of Navigation, 59, issue 3,<br />

2006.<br />

[8] Szłapczyński R.: A new method of ship routing on raster grids,<br />

with turn penalties and collision avoidance. Journal of Navigation,<br />

59, issue 1, 2006.<br />

[9] Szłapczyński R.: A new method of planning collision avoidance<br />

manoeuvres for multi target encounter situations. Journal of Navigation,<br />

61, issue 2, 2008.<br />

The role of fuzzy modeling in creation of knowledge<br />

base’s for intelligent decision’s support systems<br />

in the conditions of the dangerous<br />

hydrometeorological phenomenon threat<br />

(Rola modelowania rozmytego w kształtowaniu baz wiedzy dla<br />

inteligentnych systemów wspomagania decyzji w warunkach zagrożenia<br />

niebezpiecznym zjawiskiem natury)<br />

dr inż. TATIANA TRETYAKOVA<br />

West Pomeranien University of Technology, Szczecin<br />

The hydrometeorological information is one of many types of<br />

information used in the decision of a different sort of problems<br />

issues. It is well known, that this type of information should be<br />

used to avoid or reduction of the negative consequences connected<br />

to influence of hydrometeorological factors on functioning<br />

of economic objects (industrial, service, social and<br />

cultural). The probable variant of a chain of the consequences<br />

connected to influence of hydrometeorological factors on economic<br />

object, could be presented as follows: influence of the<br />

dangerous hydrometeorological phenomenon → damage of<br />

subsystems of the economic object → abnormality of functioning<br />

of the object → negative influence on the ecological<br />

environment and people’s health → the damage connected<br />

to loss of productive capacity → an expense, connected to repair<br />

of object, and also with victims treatment or with loss of<br />

life → partners loss →..., etc.<br />

It shall be noticed, that this chain could be changed depending<br />

on force of the natural phenomenon and types of economic<br />

objects. In any case taking into account the hydrometeorological<br />

information it should be considered decreasing of possible loss.<br />

The decision making having this information is carrying out more<br />

often in situations when consequences of the accepted decisions<br />

are not known to the end. Frequently, the hydrometeorological information<br />

appears incomplete and imprecise. By virtue of uniqueness<br />

of the natural phenomena it is not always possible to<br />

foresee a degree of influence of hydrometeorological factors on<br />

economic objects in conditions of particular region.<br />

For this reason the clear algorithm of a reaction to the<br />

choice strategy with this type of information does not exist up<br />

to the end of the process. In such cases the use of the intelligent<br />

computer systems, which take into account the hydrometeorological<br />

information in acceptance of decisions, is rather<br />

18 ELEKTRONIKA 11/<strong>2009</strong>


useful. In work [1] is stressed, that the choice of correct strategy<br />

- the rational decision - depends on relative importance of<br />

the various purposes, and from a degree of confidence that<br />

they can be achieved. The intelligent decision support systems<br />

are used in conditions of uncertainty for a degree of confidence<br />

increasing of the persons accepting the decisions concerning<br />

a choice of strategy of reaction to calls of a nature.<br />

In regional management such decisions are accepting concerning<br />

the preventive or protective actions with the purpose of<br />

reduction or avoidance of influence of the dangerous hydrometeorological<br />

phenomena on economic objects, and also concerning<br />

accommodation of economic objects at strategic<br />

planning. Today, in conditions of climate changing and shortage<br />

of water and power resources, such strategic decisions as accommodation<br />

of economic objects seem to be very important [2].<br />

In regional management and in management of economic<br />

objects the support systems of decision’s acceptance are<br />

used for a long time [3]. The main requirement made for intelligent<br />

decision support systems with taking into account of<br />

the hydrometeorological information, is presence of models<br />

set in content of knowledge bases, including fuzzy models,<br />

which support a strategy choice of reaction in conditions of<br />

existing threats from the nature.<br />

The usage of such systems is especially useful to the territories<br />

subject influenced by the dangerous natural phenomena.<br />

The intelligent decision support systems can be included<br />

in structure of information systems of regional management<br />

and cities, economic objects as local intelligent subsystems<br />

[4]. In the case of need these subsystems, by loss of their localness,<br />

it is possible to connect with other subsystems of information<br />

system, or with external databases with help of<br />

modern technologies OLAP and GIS [5].<br />

The local intelligent systems could be used not only at<br />

strategy choice of reaction to the warning of hydrometeorological<br />

services on threat of the dangerous natural phenomenon,<br />

they could be used for acceptance of decisions on<br />

accommodation of economic objects - in strategic planning<br />

also. Besides, the processed initial hydrometeorological information<br />

is taking into account in designing, transport, power,<br />

agriculture and other branches [6]. The one more purpose of<br />

usage the local intelligent systems in conditions of threats<br />

existence on the part of a nature is personnel training with the<br />

purpose of formation of skills necessary in case of influence<br />

of the dangerous hydrometeorological phenomenon. In this<br />

case these systems act as simulators (systems of training).<br />

Their use provides the best adaptation of management all personnel<br />

to dangerous situations. Thus the contents of knowledge<br />

bases of local intelligent systems - simulators should<br />

include models, the facts and the rules used during training.<br />

The presented work shows the representation of some fuzzy<br />

components of the knowledge base approaches. These components<br />

appeared during construction of infological model and<br />

trees of decisions for the issue: “decision making on strategy<br />

choice of reaction in view of estimations of the hydrometeorological<br />

information”. Thus the opportunity of occurrence of hydrometeorological<br />

situations of a different degree of the danger,<br />

provided in the appropriate scripts is taken into account also.<br />

Fuzzy sets and fuzzy logic<br />

for formalization of the knowledge used<br />

in the decision making on the base<br />

of the hydrometeorological information<br />

In the paper [5] the formal model of decision-making task<br />

M DEC was submitted:<br />

M DEC = {D J , C J n ,OJ n , AJ n , KJ n } (1)<br />

where: D J - problem area in which the decision was made ;<br />

C J n - the purposes of the task connected to the decision of<br />

problem in the given area; O J n - restrictions on the task; AJ n -<br />

set of alternative variants of the decision; K J n - set of criteria<br />

according to which the choice of the decision was carried out.<br />

The expression (1) presents, that the construction of infological<br />

models of process of decision-making is directly connected<br />

to the description of its problem area D J . Problem area<br />

D J should be submitted by subject domain Р J and by tasks<br />

Z J i , which are decisive in this subject domain: DJ = {Р J , Z J i }.<br />

The results of structurization of a subject domain and construction<br />

of trees of decisions allow to pass to definition of content’s<br />

structure of the knowledge bases, necessary for<br />

acceptance of decisions. However the knowledge of experts<br />

revealed as a result of their search at structurization of a subject<br />

domain has subjective character. It concerns areas in<br />

which the hydrometeorological information is taken into account<br />

in choice of strategy of reaction, too. Thus ambiguity of<br />

the description of qualitative characteristics of objects and influence<br />

consequences of hydrometeorological factors could<br />

act. Besides, the hydrometeorological information too can be<br />

also incomplete and imprecise. For this reason in creation of<br />

knowledge bases content of local intelligent decision support<br />

systems, accepted on the basis of the hydrometeorological<br />

information, fuzzy sets and fuzzy logic of Lotfi Zadeh [7,8]<br />

could be used.<br />

Methodological bases and examples of modeling with use<br />

of fuzzy sets and fuzzy logic are widely presented and described<br />

in world literature, for example, by J. Kacprzyk [9,10],<br />

A. Pegat [11], S. Russell and P. Norvig [1], A. Leonenkov [12].<br />

It was pointed that acceptance of decisions in view of the<br />

hydrometeorological information occurs in conditions of use of<br />

incomplete and unreliable information. Taking into account this<br />

fact, the block diagram of process of decision-making about<br />

protective actions in conditions of dangerous natural phenomenon<br />

threats it is possible to present as it shows Fig.<br />

Figure presents, that during decision-making about strategy<br />

of reaction to the dangerous natural phenomena fuzzy<br />

models are used. The structure of some of them is considered<br />

in paragraphs 2, 3.<br />

Fuzzy modeling of the dangerous natural<br />

phenomenon caused<br />

by hydrometeorological factors<br />

The dangerous natural phenomenon we shall present, as<br />

fuzzy set:<br />

DNP i = {p i ,µ DNPi (p i )} (2)<br />

where: p i - the parameters of the dangerous phenomenon<br />

submitted as linguistic variables, m DNPi - membership function<br />

of parameter p i to an interval, which is determined by borders<br />

of linguistic variables.<br />

In case of usage of estimations of the indistinct hydrometeorological<br />

information in decision-making such fuzzy linguistic<br />

variables, as, for example, intensity of the hydrometeorological<br />

phenomenon can be used. As an example of a linguistic<br />

variable it should be presented it is possible to present<br />

subjective estimation of intensity of such hydrometeorological<br />

phenomenon, as mudflow avalanche. The intensity (volume)<br />

of mudflow avalanche is measured in м 3 . Formalization of an<br />

estimation of intensity of an avalanche can be executed with<br />

ELEKTRONIKA 11/<strong>2009</strong> 19


The block diagram of decision-making on realization of protective actions in conditions of the dangerous natural phenomenon threat<br />

Schemat blokowy procesu wyboru projektów przedsięwzięć ochronnych lub zapobiegawczych w warunkach zagrożenia niebezpiecznym<br />

zjawiskiem natury<br />

the help of a linguistic variable {β, T, C, G, M}, where: β - the<br />

name of fuzzy linguistic variable: for example, intensity of<br />

mudflow avalanche; T - set of values of a linguistic variable,<br />

each of which represents the name of a separate fuzzy variable:<br />

“small”, ”average”, “large”, “catastrophic”; X - range of<br />

definition of fuzzy variables which enter into definition of a linguistic<br />

variable β: X=[0, 5•10 6 ]; G - syntactic procedure of<br />

formation of new terms with the help of logic relations “AND”,<br />

“OR”, “NOT” etc., for example: “small or average intensity of<br />

an avalanche”, M - semantic procedure, tasks on X = [0,<br />

5•10 6 ] fuzzy variables: α 1 - “low intensity”, α 2 - “average intensity”,<br />

α 3 - “the large intensity”, α 4 - “catastrophic intensity<br />

”, and also the appropriate fuzzy sets A ~ = {x/µ A (x)} from terms<br />

G (T) according to rules of translation fuzzy relations and modifiers<br />

“AND”, “OR”, “NO” etc.<br />

Fuzzy models of an estimation of<br />

the damage connected to the dangerous<br />

hydrometeorological phenomenon<br />

As existing threat of the dangerous natural phenomenon<br />

(flooding, mudflow, … etc.) under its influence can be a territory<br />

with the economic objects<br />

. Among the<br />

models for an estimation of probable damage, there should<br />

be models, which allow determination of objects that find oneself<br />

under influence of the given natural phenomenon at its<br />

predicted intensity. The losses connected to influence of the<br />

dangerous phenomenon on each of objects depend on intensity<br />

of the phenomenon. We shall present sets of objects,<br />

which can appear under influence of the hydrometeorological<br />

phenomenon at different intensity, as fuzzy sets (tabl. 1).<br />

20 ELEKTRONIKA 11/<strong>2009</strong>


Tabl. 1. Fuzzy sets of the objects, which are taking place in a dangerous<br />

zone of different intensity of the hydrometeorological phenomenon<br />

Tab. 1. Zbiory rozmyte zagrożonych obiektów w zależności od siły<br />

niebezpiecznego zjawiska natury spowodowanego czynnikami hydrometeorologicznymi<br />

Intensity of the<br />

hydrometeorological<br />

phenomenon<br />

Small<br />

Average<br />

Large<br />

Catastrophic<br />

Fuzzy set of objects in a dangerous zone<br />

It is possible to write down, that A ~ ⊂ B ~ ⊂ C ~ ⊂ D ~ , as m A (x i )<br />

≤ m B (x i ) ≤ m C (x i ) ≤ m D (x i ), as is shown in tabl. 2. Data in tabl. 2<br />

are example of representation of a fuzziness of subjective experts<br />

estimation, where there is a concrete object under the<br />

dangerous phenomenon influence.<br />

Fuzzy logic for formalization<br />

of knowledge of intelligent systems<br />

of the decision support accepted in view<br />

of the hydrometeorological information<br />

For an estimation of a degree of the validity of any fuzzy statement<br />

concerning an opportunity of influence of the dangerous<br />

phenomenon we shall enter representation of the validity of<br />

fuzzy statements Т which operates from set of considered<br />

fuzzy statements concerning existence of threat of dangerous<br />

phenomenon U to an interval [0,1], i.e. T: U → [0,1]. In this<br />

case value of the validity of the fuzzy statement concerning<br />

threat of dangerous phenomenon A ∈ U we shall designate<br />

as T(A). Then, for example, for statements A ~ 1 , A~ 2 , A~ 3 , A~ 4 , concerning<br />

threat mudflow avalanches it is possible to present<br />

the validity of these statements as follows:<br />

A ~ 1 - strong long-term rains cause a mudflow avalanche: T(A~ 1 )<br />

= 0.6,<br />

A ~ 2 - the growing temperature of air at the big stocks of snow<br />

in mountains causes a mudflow avalanche: T(A ~ 2 ) = 0.7,<br />

A ~ 3 - strong rains and growing temperature of air at the big<br />

stocks of snow in mountains cause a mudflow avalanche:<br />

T(A ~ 3 ) = 0.8,<br />

A ~ 4 - a high level of water in mountains lakes, the strong rains,<br />

growing temperature of air at the big stocks of snow in<br />

mountains cause a mudflow avalanche: T(A ~ 4 ) = 0.9.<br />

At fuzzy modeling of statements concerning of threat of<br />

mudflow avalanches should be take into account not only an<br />

illegibility of a linguistic variable “intensity of mudflow avalanches”,<br />

but also other statements used in a submitted example:<br />

a high level of water in mountains lakes; the big stocks<br />

of snow; strong rains; growing temperature of air. It is necessary<br />

to set those value areas of variables, which influence on<br />

the process of mudflow avalanches formation.<br />

On the basis of the analysis of decisions trees, using fuzzy<br />

statements, rules of conclusions are developing for base of<br />

knowledge of intelligent systems of decision’s support with<br />

taking into account of the hydrometeorological information.<br />

The received conclusions will help to make the final decision<br />

concerning a choice of strategy of reaction to dangerous natural<br />

phenomena.<br />

Summary<br />

The knowledge used in intelligent systems of decision’s support<br />

according to the hydrometeorological information, can<br />

have subjective character. This knowledge also can be incomplete<br />

and uncertain by virtue of feature of the hydrometeorological<br />

information, and also uncertainty of estimations<br />

of hydrometeorological factors influence on economic objects<br />

functioning. Development of fuzzy models for systems of this<br />

class will allow avoiding some difficulties in creation a component<br />

of their knowledge bases. In particular, creation of the<br />

fuzzy models supporting decision-making process on a choice<br />

of strategy of reaction in conditions of the dangerous hydrometeorological<br />

phenomenon threat seems to be necessary.<br />

These decisions can be accepted concerning accommodation<br />

of economic objects and their protection, and also in designing<br />

objects, in agriculture, transport, in power industry etc.<br />

In this paper the block diagram of this process at a choice of<br />

the decision on protective actions at a regional level is presented.<br />

In the article some methodological aspects of construction<br />

of models with use of fuzzy sets and fuzzy logic by<br />

Lotfi Zadeh are considered.<br />

Tabl. 2. Membership functions of objects in the area subject to danger of mudflow avalanche’s influence<br />

Tab. 2. Funkcja przynależności dla obiektów w strefie wpływu niebezpiecznego zjawiska natury<br />

NN<br />

Objects of the territory subject to<br />

danger of mudflow avalanche’s<br />

influence<br />

Membership funсtion µ: Χ → [0,1] at the appropriate intensity of mudflow avalanches:<br />

Small Average Large Catastrophic<br />

1<br />

2<br />

10<br />

50<br />

n<br />

x 1<br />

0.1<br />

x 2<br />

0.2<br />

x 10<br />

0.1<br />

x 50<br />

0.1<br />

x n 0.2<br />

0.2<br />

0.4<br />

0.3<br />

0.3<br />

0.4<br />

0.5<br />

0.6<br />

0.4<br />

0.5<br />

0.7<br />

0.6<br />

0.8<br />

0.6<br />

0.7<br />

0.8<br />

ELEKTRONIKA 11/<strong>2009</strong> 21


References<br />

[1] Russel S., Norvig P.: (2003) Artificial Intelligence. A Modern Approach.<br />

Prentice Hall, New Jersej.<br />

[2] Zielona Księga dla Rady Parlamentu Europejskiego, Europejskiego<br />

Komitetu Ekonomiczno-Społecznego i Komitetu regionów.<br />

Adaptacja do zmian klimatycznych w europie-warianty<br />

działań na szczeblu UE. Komisja Wspólnot Eropejskich (KWE),<br />

Bruksela, 29.06.2007 (in Polish).<br />

[3] Fiuk G., Budziński R.: (1995) Model Systemu Informatycznej Obsługi<br />

Miasta Szczecin. W ks.: Systemy Informatyczne w Zarządzaniu<br />

Aglomeracjami Miejskimi. PAN IBS, Oddział w<br />

Szczecinie, Warszawa-Szczecin (in Polish).<br />

[4] Tretyakova T.: (<strong>2009</strong>) Wiedza i modele dla inteligentnych lokalnych<br />

składników systemu wspomagania decyzji. Studia i materiały<br />

Polskiego Stowarzyszenia Zarządzania Wiedzą nr 18.<br />

PSZW, Bydgoszcz (in Polish).<br />

[5] Tretyakova T., Zair A.: (2008) The Structure and Knowledge of the Intelligent<br />

System of Warning and Decision’s Support that Includes Local<br />

Systems. Polish Journal of Environment Studies, vol. 17, no 4C.<br />

[6] Tretyakova T. (2005). Knowledge base of expert system “HMDecision<br />

“ in information system of class DSS - the objective approach<br />

to designing. Proceeding of 6-th International Conference<br />

“ the Analysis, forecasting and management in complex systems”,<br />

St Petersburg (in Russian).<br />

[7] Zadeh L. (1965) Fuzzy sets. Information and Control, vol. 8.<br />

[8] Zadeh L. (1988) Fuzzy logic. IEEE Transactions on Computers,<br />

vol. 21, no 4.<br />

[9] Kacprzyk J. (2006) Komputerowe systemy wspomagania decyzji<br />

dla potrzeb zarządzania wiedzą. W ks. Pod red. R.Kulikowski,<br />

Z.Bubnicki, J.Kacprzyk. Systemowe-komputerowe wspomaganie<br />

zarządzania wiedzą. ELIT, Warszawa (in Polish).<br />

[10] Yu X., Kacprzyk J. (2008) Applied Decision Support with Soft<br />

Computing, Springer.<br />

[11] Piegat A. (2001) Fuzzy Modeling and Control, Physica-Verlag<br />

Heidelberg, New York.<br />

[12] Leonenkov A. (2003) Fuzzy modeling in the environment MAT-<br />

LAB and fuzzyTECH. BHV- -Petersburg (in Russian).<br />

Generation of harmonic sequences in accordance<br />

to tonal harmony rules<br />

with artificial neural networks<br />

(Generacja sekwencji harmonicznych w zgodzie z zasadami harmonii<br />

tonalnej przy użyciu sieci neuronowych)<br />

dr inż. WOJCIECH ZABIEROWSKI, prof. dr hab. inż. ANDRZEJ NAPIERALSKI<br />

Technical University of Lodz, Department of Microelectronics and Computer Science<br />

There has been a continuous research throughout the world.<br />

in the field of computer generated music. Many implementations<br />

has appeared as well as a lot of disputes on this topic,<br />

and it is now perceived as a branch of science.<br />

The computer participation in the process of music creation<br />

is not only restricted to being an aid for the composer. In<br />

fact, a machine is able to replace human in the creation<br />

process. There are some realizations that are purely machinegenerated<br />

and which were able to reach the top of pop music<br />

lists, successfully competing with human-made works.<br />

The elements of the branch of science mentioned above<br />

include musicological analysis of musical opus and automatic<br />

harmonization of the melody line. The research presented<br />

below can be applied in particular in these areas.<br />

Problem specification<br />

A musical piece can be described by a number of various parameters.<br />

These parameters determine, what is later called,<br />

a musical work - an art. Music is not a sole matter of putting<br />

together notes and resulting sounds (and vice versa). Moreover,<br />

even if these sounds are combined in chords, they still<br />

remain just a set of more or less ordered tones.<br />

One of the most basic parameters, determining whether<br />

what we obtain can really be called music, is the harmonic<br />

meaning of mentioned elements.<br />

More precisely, this meaning is, of course, a harmonic<br />

meaning in musical sense - an accordance of tones. Basic<br />

harmonic constructions [2-4], also known as functions, form<br />

together a harmonic triad and, depending on the musical scale<br />

degree on which one builds them, they are called: tonic (T),<br />

subdominant (S) and dominant (D) correspondingly.<br />

Only by combining these harmonic functions into sequence,<br />

we obtain music. Secondary functions may be distinguished<br />

as well. These secondary functions retain similarity to<br />

the main functions, and hence, they received similar names,<br />

such as T II - tonic of second degree. By using secondary functions,<br />

a harmonic sequence can be greatly enriched.<br />

There is, of course, a strict (depending on a chosen harmonic)<br />

set of rules for progression of chords that have specific<br />

harmonic functions. Table 1 contains the basic rules for<br />

harmonic function progressions.<br />

Tabl. 1. Basic functional progressions<br />

Tab. 1. Podstawowe następstwa funkcyjne<br />

Harmonic function<br />

Tonic<br />

Subdominant<br />

Dominant<br />

Allowed consequent function<br />

S, D, T<br />

T, (D)<br />

T<br />

22 ELEKTRONIKA 11/<strong>2009</strong>


In addition, one has to remember that a musical work<br />

always begins with a tonic (T), and each stress build up by<br />

a dominant is resolved to a tonic (T). In short, creating music<br />

is a matter of choosing such progressions.<br />

Input data preparation<br />

An idea was born to try, in accordance with Computer Generated<br />

Music trends, to implement (simplified) tonal harmony<br />

rules in generation of harmonic sequences as an initial phase<br />

of further research in the area of Computer Generated Music.<br />

To achieve this, neural networks have been used. After performing<br />

extensive evaluation and testing, a three layer perceptron<br />

model with 32 neurons in hidden layer has been<br />

chosen. Each of 16 input neurons and 16 output neurons has<br />

been assigned a corresponding value from the learning sets.<br />

An example of such mapping is presented in Table 2.<br />

Tabl. 2. Exemplary values of corresponding input and output neurons<br />

used in the network architecture<br />

Tab. 2. Przykładowe wartości odpowiednich neuronów wejściowych<br />

i wyjściowych w użytej architekturze sieci<br />

Neurons In<br />

In1 In2 In3 In4 In5 … In14 In15 In16<br />

1 0 0 0 1 0 1 0 0<br />

Neurons Out<br />

Ou1 Ou2 ... Ou8 Ou9 … Ou14 Ou15 Ou16<br />

0 0 0 1 0 0 1 0 0<br />

To represent the corresponding tones in chords of given<br />

harmonic meaning, a MIDI notation was used (see tabl. 2),<br />

more precisely - the part of information stored in the voice<br />

messages. Occurence of a certain value in a voice message<br />

has led to a ‘1’ as an input for a given neuron. No tone was<br />

equivalent to ‘0’ as an input.<br />

Tabl. 3. Values corresponding to sounds in MIDI notation<br />

Tab. 3. Wartości MIDI odpowiadające wartościom dźwiękowym<br />

Note MIDI value (hex) Decimal value (dec)<br />

C 3c 60<br />

D 3e 62<br />

E 40 64<br />

F 41 65<br />

G 43 67<br />

A 45 69<br />

H 47 71<br />

Data was prepared in accordance with tonal harmony<br />

rules using a synthesizer, which was utilized to obtain the desired<br />

groups of dependencies as sets for teaching the neural<br />

network. The sets contained from 50 sequences, in a simplest<br />

case, up to 300 in a case that considered dependencies between<br />

triads in I and II position of the secondary functions.<br />

Input data was tested according to the rule that three tones<br />

making a chord have specified harmonic meaning. In the course<br />

of using a taught network to generate harmonic sequences,<br />

the input consisted of the two tones plus the harmonic<br />

meaning of the previous tonal sequence, in a hope that the<br />

network would point the correct tone for filling in the specified<br />

harmonic value. The tonal range was limited to a single octave<br />

to simplify the occurring dependencies.<br />

The research<br />

The learning process, depending on the method used,<br />

consisted of up to 40 000 iterations. In the process [6,7] the<br />

following methods were taken into consideration:<br />

• gradient descent back-propagation, (with and without momentum),<br />

• resilient back-propagation,<br />

In addition, the following transfer functions were used there [5]:<br />

• log-sigmoid transfer function - Matlab - logsig(n);<br />

• hyperbolic tangent sigmoid transfer function - Matlab<br />

tansig(n).<br />

As a result of teaching the neural network, a good match,<br />

measured with the mean squared error (MSE) and the number<br />

of erratic classifications, was obtained (see tabl. 4). The<br />

magnitude of the classification error Er means the number of<br />

direct error matches with respect to the expected precise<br />

answers and can be defined in the following manner:<br />

where: er - number of erratic classifications, L - test set size<br />

Tabl. 4. The results of learning processes and their Er error values<br />

Tab. 4. Wyniki uczenia wraz z wartościami błędu Er<br />

Network<br />

architecture<br />

Learning<br />

time<br />

(iterations)<br />

16/32/16 40 000<br />

16/32/16 40 000<br />

16/32/16 500<br />

Transfer<br />

Function<br />

tansig/<br />

tansig/tansig<br />

tansig/<br />

tansig/tansig<br />

tansig/<br />

tansig/tansig<br />

Teaching<br />

Function<br />

MSE<br />

The most interesting results for an architecture with one<br />

hidden layer and 32 neurons in the layer, as well as obtained<br />

adjustment and mean squared error (MSE), is shown in<br />

tabl. 4. The architecture of presented solution was chosen<br />

empirically. All of the sets were prepared with default network<br />

parameters taken into account. Various network configurations<br />

with different numbers of neurons per hidden layer were<br />

tried out. Many more setups were investigated , but not all of<br />

them are included because of the unsatisfactory results they<br />

produced.<br />

Concluding from the tabl. 4, the reached level of mean<br />

squared error of learning process for this issue is, in fact, the<br />

same in every case. The same can be observed for the Er<br />

classification error, which shows similar values in different network<br />

configurations. Due to this, more attention has to be paid<br />

to the configurations that allow to obtain similar level of adjustment<br />

with less calculation overhead.<br />

(1)<br />

(2)<br />

(3)<br />

Er<br />

traingd 0,0214148 8<br />

taingdm 0,021857 8<br />

trainrp 0,0182302 8<br />

ELEKTRONIKA 11/<strong>2009</strong> 23


Generated harmonic sequence in the metrum of 3/8 Wygenerowana sekwencja harmoniczna w metrum 3/8<br />

After thorough analysis in accordance to the theory of<br />

tonal harmony it turned out that alleged matching errors are<br />

non-existent or minimal.<br />

As a matter of fact, it turned out that, in some cases, for<br />

certain combinations of harmonic progressions and for some<br />

tones (see tabl. 5) there was no obvious solution proposed by<br />

the network, e.g. the network proposed two possible harmonic<br />

functions. After performing the data analysis, it also turned out<br />

that in some combinations of the input data, there were also<br />

two tones proposed by the network. This means that it was<br />

possible to choose among different tones or harmonic functions<br />

to fullfil tonal harmony rules.<br />

Comparing observed behavior to the real composing<br />

process, human composers are facing the same dilemma [8].<br />

It’s their genius, their mind, that, depending on the emotions<br />

that are being poured down into a piece of art, makes a decision<br />

on the tonal content, the chord, and the harmonic dependencies.<br />

Tabl. 5. Results generated by neural network - border case<br />

Tab. 5. Wyniki wygenerowane przez sieć - przypadek skrajny<br />

Sounds Meaning<br />

Network results<br />

-0.0000<br />

-0.0000<br />

D 0.5000<br />

-0.0000<br />

E 0.5000<br />

0.0000<br />

0.0000<br />

0.0000<br />

0.0000<br />

-0.0000<br />

-0.0000<br />

0.0000<br />

0.0000<br />

Tonic 0.5000<br />

0.0000<br />

Dominant 0.5000<br />

A neural network is emotionless. It can be taught about<br />

some dependencies and rules, e.g. that a particular tune is<br />

sad while another is cheerful and bright. It has to be remembered,<br />

though, that this is a subjective feeling.<br />

How to resolve this problem?<br />

It can be done in two ways. One of them would be to<br />

prepare another decision degree, implemented in the neural<br />

network, that would reflect the knowledge about emotions.<br />

The second solution, which is considered better at this<br />

stage, is to implement some random mechanisms, that will<br />

automatically make the decision based on the received data.<br />

This second solution has been chosen. In the example<br />

presented, a harmonic sequence with the random choice of<br />

the solution in case of a conflict is shown.<br />

To complement the presentation of the results obtained<br />

from designed neural network and applied procedures of input<br />

and output data processing, a musical effect is shown in the<br />

form of scores with the assumption of using different rhythmical<br />

values.<br />

As it can be observed, the effect is not perfect, because of<br />

the visible parallelism, but this aspect of harmonic rules was<br />

not implemented in the described issue, however it has no impact<br />

on the conclusions made on the whole process.<br />

Summary<br />

It has been shown that computer with implemented neural network<br />

methods is a useful tool to create and generate music.<br />

Of course, these are only basics, only fundamental creation,<br />

but with further research it will lead to the handling of more<br />

complicated and wider musical aspects.<br />

Because of the fundamentals of octave notation, the resolution<br />

obtained is automatically transposable up and down the<br />

scale, and requires only minor modifications in case of an<br />

extension of the tone domain on more than one octave. In the<br />

future, further work in the field of using neural networks for Computer<br />

Generated Music is planned, as well as an attempt to implement<br />

other parameters of musical opus, such as rhythm,<br />

rhythmical values, or tempo. Also, attempts will be made to determine<br />

and write emotions in a way that would allow their<br />

acquirement by a neural network - even in a limited form.<br />

This research will certainly contribute to the development<br />

in the area of Computer Generated Music, both in Poland and<br />

abroad, in the aspect of using the methods of computer<br />

science in musicology. One can see also some possible commercial<br />

uses of this research results in musical instruments, in<br />

composing tools and maybe even in rehabilitation praxis.<br />

References<br />

[1] Baggi L. D.: Computer-Generated Music. IEEE Computer, 1991.<br />

[2] Lerdahl F., Jakedoff R.: A Generative Theory of Tonal Music. MIT<br />

Press, 1983.<br />

[3] Sikorski K.: Harmonia cz. I. Polskie Wydawnictwo Muzyczne,<br />

1991.<br />

[4] Wesołowski Fr.: Zasady muzyki. Polskie Wydawnictwo Muzyczne,<br />

Kraków 2004.<br />

[5] Demuth H., Beale M.: Neural Network Toolbox: User’s guide version<br />

4. The MathWorks, Inc., 2000.<br />

[6] Tadeusiewicz R.: Sieci neuronowe. BG AGH, Kraków, 2000.<br />

[7] Rutkowski L.: Metody i techniki sztucznej inteligencji. PWN, Warszawa,<br />

2006.<br />

[8] Gang D., Lehamnn D.: Melody Harmonization with Neural Nets.<br />

International Computer Music Conference, Banff, 1995.<br />

24 ELEKTRONIKA 11/<strong>2009</strong>


The correction of digital images obtained by means<br />

of low quality scanner using FIR filter generated by<br />

a neural network in opposition to the digital images<br />

obtained by means of model scanner<br />

(Poprawa obrazów cyfrowych pozyskanych skanerem niskiej klasy<br />

z wykorzystaniem filtru FIR generowanym przez siec neuronową)<br />

dr inż. JAKUB PEKSIŃSKI, dr inż. GRZEGORZ MIKOŁAJCZAK<br />

Zachodniopomorski Uniwersytet Technologiczny, Wydział Elektryczny Zakład Teorii Obwodów i Systemów Telekomunikacji,<br />

Szczecin<br />

In this article authors will present the problem of improvement<br />

of the quality of the image acquired by acquisition devices,<br />

which construction is based on CCD matrice (Charge Coupled<br />

Device). Nowadays on the market a large group of those<br />

devices can be found and their prices vary from very cheap to<br />

very expensive. Obviously, very cheap equipment applied<br />

mainly in household usage considerably diverges in quality<br />

from expensive high class devices. It is clear, that images<br />

(photos) acquired by cheap equipment considerably diverge<br />

from images acquired by an expensive devices (high class<br />

devices). It is caused by many factors depending mainly on<br />

the quality of CCD matrice used and device’s electronics. Following<br />

factors are responsible for the quality of images acquired<br />

by those devices [1]:<br />

• number of pixels (resolution),<br />

• quantum efficiency (sensitivity),<br />

• noises in matrice,<br />

• quality of the A/C converter.<br />

The evidence of the fact that images acquired by a cheap<br />

device of low class considerably diverge in quality from the<br />

images acquired by expensive devices of high class can be<br />

observed in the results presented in table 1 and 2. Tables contain<br />

results of digital image quality criteria measured between<br />

image acquired by a low class device and image acquired by<br />

high class scanner (called consequently a model one). For the<br />

needs of the experiment two popular digital image quality<br />

measures [2] were used:<br />

• NMSE (normalized mean square terror) - formula no 1:<br />

• MD (maximum difference) described by formula no 2:<br />

MD = Max(|f(x,y) - f(x,y)|) (2)<br />

where: M N - display; f(x,y) - good image; f’(x,y) - bad image.<br />

Tabl. 1. NMSE error between images<br />

NMSE<br />

Images 1 0.217<br />

Images 2 0.219<br />

Images 3 0.208<br />

Images 4 0.275<br />

Images 5 0.215<br />

(1)<br />

Tabl. 2. MD error between images<br />

Analyzing quality indicators presented in tables 1 and 2 it<br />

can be found clearly that images acquired by low class scanner<br />

diverge in quality from images acquired by model scanner.<br />

To improve the quality of low class image, so that it is comparable<br />

to images from high class scanner, the authors used<br />

neural network. The task of the neural network was to generate<br />

impulse response in form of a filter with 5 x 5 mask, provided<br />

that this filter must realize the operation of discrete<br />

tangle described by formula no 3 [3]:<br />

where: yout(x,y) - image after filtration; yin(x,y) - image before<br />

filtration; w(i, j) - filter mask.<br />

Neural network configuration<br />

MD<br />

Images 1 161<br />

Images 2 169<br />

Images 3 143<br />

Images 4 187<br />

Images 5 166<br />

To obtain a digital filter with 5 x 5 mask the authors of the article<br />

have used one direction neural network working in mode<br />

with teacher - Figure 1. This network has 25 inputs (x0, x1,...,<br />

x24), into which in the course of learning, we give image acquired<br />

by low class scanner (y1). In the course of learning, in<br />

which the actualization of wages was based on recurrent presentation<br />

of the images acquired by low class scanner, the<br />

change in wage rate of the neural network occurred (w0,<br />

w1, ..., w24) according to formula no 4 [4].<br />

where: j - step number, n - learning parameter, w i (j) - wage,<br />

δ µ - error described by formula no 5, y - result value.<br />

(3)<br />

(4)<br />

(5)<br />

ELEKTRONIKA 11/<strong>2009</strong> 25


This image has undergone the process of scanning by two<br />

scanners of low quality and model one. The initial values of<br />

quality criteria between image amounted accordingly:<br />

NMSE 0.217<br />

MD 161<br />

In the course of learning process of the network a filter of ratios<br />

showed on picture no 3 was obtained.<br />

Fig. 1. Neural network configuration<br />

Rys. 1 Konfiguracja sieci neuronowej<br />

The whole learning process continues according to the following<br />

steps:<br />

• input of an image of low quality,<br />

• determining an error according to formula no 5,<br />

• determining new wages according to formula no 4,<br />

• repeating steps no 1 to 3 as long as the error becomes satisfactorily<br />

small.<br />

The result of the operation of the neural network is the filter<br />

of 5 x 5 mask (25 wages), which in the course of realization<br />

of discrete tangle operation described by formula no 3,<br />

improve the quality of digital images acquired by low class<br />

scanner in such a way, that they will correspond with images<br />

from the model scanner.<br />

Experimental research results<br />

In this point the result of the experimental research will be presented.<br />

For the needs of experiment, two scanners, which<br />

construction is based on CCD matrice, were used:<br />

• low quality scanner,<br />

• high quality scanner - model scanner.<br />

In the learning process of neural network, digital image<br />

Man.bmp (Fig. 2) was used.<br />

0.0090 0.0244 0.0369 0.0224 0.0139<br />

0.0263 0.0588 0.0890 0.0564 0.0301<br />

0.0544 0.0998 0.1653 0.0965 0.0570<br />

0.0272 0.0507 0.0836 0.0549 0.0251<br />

0.0132 0.0206 0.0369 0.0256 0.0095<br />

Control criteria values for two images after applying linear<br />

filtration amounted accordingly:<br />

NMSE 0.097<br />

MD 54<br />

Amplitude characteristic of the filter is presented on the<br />

Figure 3. Analyzing the values of mask ratios and looking at<br />

amplitude characteristic of the filter it can be stated that it is<br />

a filter of a down capacity character. It means that the disturbances<br />

in the CCD matrice of a low class scanner mainly have<br />

the character of noises.<br />

To check the correctness of operation of the filter generated<br />

by network, ten pairs of image acquired by two scanners<br />

were examined, the results are presented in table 3 and 4.<br />

Tabl. 3. NMSE error before and after filtration<br />

Tab. 3. Błąd NMSE po filtracji<br />

NMSE before filtration<br />

NMSE after filtration<br />

Images 1 0.217 0.097<br />

Images 2 0.219 0.101<br />

Images 3 0.208 0.099<br />

Images 4 0.275 0.121<br />

Images 5 0.215 0.089<br />

Fig. 2. Image Man.bmp Rys. 2. Obraz Man.bmp<br />

Fig. 3. Amplitude characteristic of the filter<br />

Rys. 3 Charakterystyka amplitudowa filtru<br />

26 ELEKTRONIKA 11/<strong>2009</strong>


Tabl. 4. MD error before and after filtration<br />

Tab. 4. Błąd MD przed i po filtracji<br />

All images were scanned with 600 dpi resolution. Plustek<br />

OpticPro A320 was used as the model scanner and Canon<br />

LiDE100 as the low quality scanner.<br />

Conclusion<br />

MD before filtration<br />

MD after filtration<br />

Images 1 161 54<br />

Images 2 169 57<br />

Images 3 143 43<br />

Images 4 187 67<br />

Images 5 166 57<br />

Analyzing the results presented in tables 3 and 4, it can be<br />

stated that the digital filter of 5 x 5 mask obtained in the course<br />

of learning process of the neural network fulfils its task. After<br />

applying tangle operation, images acquired by low class scanner<br />

have become comparable in quality with model images.<br />

Surely, there is no 100 percent improvement, because the filter<br />

mask is relatively small. However, the advantage of it is<br />

that through realization of the discrete tangle operation, it can<br />

be used in popular programmes for image procession such<br />

as CorelDraw or Photoshop.<br />

Of course, the learning process of the neural network is<br />

long but it occurs only once and filter obtained in such a way<br />

can be applied in signal processors, so that the improvement<br />

of photos can be implemented practically in real time.<br />

References<br />

[1] Tadeusiewicz R., Kohoroda P.: Komputerowa analiza i przetwarzanie<br />

obrazów. Wydawnictwo Fundacji i Rozwoju Telekomunikacji,<br />

Kraków 1997.<br />

[2] Kornatowski E.: Probabilistyczna miara wierności odwzorowania<br />

sygnału Kwartalnik <strong>Elektronika</strong> i Telekomunikacja 1999.<br />

[3] Zieliński T.: Cyfrowe przetwarzanie obrazów. Wydawnictwo Komunikacji<br />

i Łączności, Warszawa 2005.<br />

[4] Osowski S.: Sieci neuronowe do przetwarzania informacji. Oficyna<br />

Wydawnicza Politechniki Warszawskiej, Warszawa 2000.<br />

[5] Bishop C.: Neural Network for Pattern Recognition. Oxford: Caledron<br />

Press 1995.<br />

[6] Korbicz J., Obuchowicz A., Ucińskii D. A.: Sztuczne sieci neuronowe.<br />

Akademicka oficyna wydawnicza PLJ, Warszawa 1994.<br />

[7] Praca zbiorowa: Sieci neuronowe. Akademicka oficyna wydawnicza<br />

EXIT, Warszawa 2000.<br />

[8] Shenn N.: Neural network for system identification. Int. J. Syst.<br />

Sci., v. 23, no 12, pp. 2171-2186 1992.<br />

[9] Winter R, Widrow B.: Madaline Rule II: A training algorithm for<br />

neural networks. Proc. IEEE 2nd Int. Conf. Neural Networks, San<br />

Diego, CA, v. 1, pp. 401-408, 1988.<br />

[10] Hopfield J., Tank D.: Neural computations of decisions in optimization<br />

problems. Biological Cybernetics vol. 52, pp 141-152,<br />

1985.<br />

Global multicriteria optimization in weather routing<br />

(Wielokryterialna optymalizacja globalna w nawigacji meteorologicznej)<br />

dr inż. JOANNA SZŁAPCZYŃSKA<br />

Akademia Morska w Gdyni, Wydział Nawigacyjny<br />

A task of finding a global optimum in a complex, non-linear optimization<br />

problem with constraints belongs to NP-hard problem<br />

class. Hence, selecting a global optimization method reliable<br />

and suitable for given problem might be a challenge [1]. The<br />

problem becomes even more complicated when it is defined as<br />

a multicriteria (aka multiobjective) optimization problem (MOP).<br />

Possible approaches include goal function linearization, interactive<br />

optimization techniques and multicriteria searching for<br />

Pareto-optimal solutions. The latter scheme is the most popular<br />

and often performed by metaheuristic methods.<br />

Ship route optimization in weather routing is an example of<br />

a real life MOP class problem. The term “weather routing” refers<br />

to a process of finding the most convenient route for a ship<br />

while taking into account available weather forecasts. The<br />

weather routing optimization problem has already been defined<br />

in terms of MOP [2]. This paper presents the comprehensive,<br />

already implemented solution to finding a global optimum in<br />

weather routing. In addition to that, it includes a discussion on<br />

efficiency of current solution and other possible approaches towards<br />

global optimization. The final conclusions try to appoint<br />

alternative optimization methods being able to improve the efficiency<br />

of current solution.<br />

Problem definition in weather routing<br />

The criteria set in weather routing models the following elements:<br />

passage time (min), fuel consumption (min) and voyage<br />

risk (min). The constraint set include four elements describing<br />

natural obstacles and navigational constraints. A detailed description<br />

of the constrained multicriteria problem definition in<br />

weather routing has been already given in [2].<br />

Multicriteria evolutionary algorithms<br />

and ranking methods in weather routing<br />

The solution [2] to the weather routing optimization problem<br />

comprises two optimization techniques: multicriteria evolutionary<br />

algorithm (SPEA) and multicriteria ranking method<br />

(Fuzzy TOPSIS). The former is responsible for finding a set of<br />

Pareto-optimal solutions, while the latter is utilized to narrow<br />

the vast set of (Pareto-optimal) routes to a single route recommendation.<br />

It is worth noticing that preferences of decisionmaker<br />

towards optimization criteria influence only the ranking<br />

method, leaving the main evolutionary optimization procedure<br />

not affected. The following subsections provide a more de-<br />

ELEKTRONIKA 11/<strong>2009</strong> 27


tailed description of the optimization techniques utilized in the<br />

weather routing solution as well as a discussion on efficiency<br />

of the solution.<br />

Strength Pareto Evolutionary Algorithm<br />

The Strength Pareto Evolutionary Algorithm (SPEA) [3], is<br />

a multiobjective evolutionary algorithm with “a posteriori” decision-maker<br />

preference articulation. In SPEA decisionmaker’s<br />

preferences do not influence the core optimization<br />

procedures. The result of the evolutionary process is a set of<br />

Pareto-optimal individuals, consisting of nondominated elements.<br />

An individual is called a nondominated one if, and only<br />

if, it is superior to all the other individuals for at least one criterion<br />

and not worse for all the other criteria. In SPEA algorithm<br />

two populations are maintained throughout the evolution<br />

process, namely the basic population P and the secondary<br />

one - N. The main purpose of the latter is to sustain all nondominated<br />

individuals (Pareto-optimal ones) during the complete<br />

generation process.<br />

SPEA customization to the weather routing optimization<br />

problem required the following steps:<br />

1. designing problem-related chromosome structure. Here an<br />

individual is a representation of a route. The route is defined<br />

as an ordered list of waypoints, each holding a set of<br />

corresponding vales such as geographical coordinates,<br />

propulsion settings, velocity, time of reaching, etc,<br />

2. designing the process of initial population creation. Having<br />

determined departure and destination ports a set of basic<br />

routes between these ports is generated. The set consists<br />

of a loxodrome, orthodrome and an isochrone route (found<br />

by an isochrone method). Initial population is then generated<br />

by random modifications (including mutation and<br />

crossover) on the basic routes set,<br />

3. constructing operators specialized to the chromosome<br />

structure. Three evolutionary operators amending given<br />

chromosome structure have been implemented, namely<br />

mutation, crossover and smoothing,<br />

4. introducing a mechanism for avoiding constraint violations.<br />

Original SPEA method has no such mechanism, thus the<br />

following have been applied to remedy the problem:<br />

a) constraint-dominance by Deb [4] has replaced typical<br />

Pareto-dominance,<br />

b) supporting algorithms have been implemented, ensuring<br />

that only feasible individuals participate in the selection<br />

process. The algorithms include a general fixing<br />

algorithm and a remove loops algorithm.<br />

Details on each of the abovementioned steps have been<br />

given in [2].<br />

Fuzzy Technique for Order Preference<br />

by Similarity to Ideal Solution<br />

Original Technique for Order Preference by Similarity to an<br />

Ideal Solution - TOPSIS is a ranking method with “a priori” decision-maker<br />

preference articulation. The best alternative<br />

among given set of alternatives is sought, having given a vector<br />

of optimization criteria and a corresponding vector of<br />

weights assigned to the given criteria. The TOPSIS method is<br />

based on a concept that the best alternative among the available<br />

alternative set is the closest to the best possible solution<br />

and the farthest from the worst possible solution simultaneously.<br />

Fuzzy TOPSIS [5] extends this approach by introducing<br />

a possibility to model the elements of criteria and weight vectors<br />

by fuzzy sets.<br />

The Fuzzy TOPSIS method has been utilized in the solution<br />

to weather routing optimization problem as a selection tool.<br />

It allows the decision-maker (e.g. a captain) to choose the most<br />

suitable route among all the Pareto-optimal routes previously<br />

found by the SPEA algorithm. The decision-maker must define<br />

their preferences to the given optimization criteria to perform<br />

the selection. This process is facilitated by a mechanism of assigning<br />

linguistic values (such as “important” or “less important”)<br />

to each criterion. The values have corresponding fuzzy<br />

sets assigned, which allows to automatically fill in the weight<br />

vector based on the linguistic values selected by the decisionmaker.<br />

As a result Fuzzy TOPSIS creates a ranking of routes,<br />

in which the first element is the most suitable route according<br />

to given decision-maker’s preferences.<br />

Research of the solution to weather<br />

routing optimization problem<br />

The proposed solution to weather routing optimization problem<br />

has been already implemented as computer software.<br />

The solution applied for a ship with hybrid propulsion has been<br />

researched [6] towards:<br />

• comparison with a standard weather routing technique: the<br />

isochrone method,<br />

• comparison of results for a ship with hybrid and standard<br />

(motor only) propulsion,<br />

• verifying of usage in case of multi-source weather data.<br />

The results obtained during the research proved the supremacy<br />

of the new method over traditional, single-criterion<br />

one. Especially, the approach to global optimization via finding<br />

the approximation of Pareto-front introduces immense flexibility<br />

to the optimization. The decision-maker is able to change<br />

their mind simply by re-assigning linguistic variables to the criteria<br />

and obtain new route recommendations immediately.<br />

However, in this case the cost of such a solution is the time<br />

required to collect Pareto-optimal routes. These routes should<br />

have images forming an adequate approximation of Paretofront.<br />

During the research the execution time for a typical PC<br />

desktop (AMD Turion 64 X2, 2.00 GHz, 2.00 GB RAM) varied<br />

from 14 min. up to 4 min. in the most complicated cases.<br />

Thus, it is recommended to consider, select and research alternative<br />

optimization methods to find Pareto-optimal solutions<br />

that may allow reducing the total execution time of the weather<br />

routing algorithm.<br />

Alternative solutions for global optimization<br />

in weather routing<br />

Parallelization is the most intuitive solution towards execution<br />

time reduction in weather routing algorithm. A multiprocessor<br />

platform may significantly increase performance of a solution to<br />

a problem comparing to a regular PC desktop. But only, if the<br />

problem can be divided into a set of sub-problems and there exists<br />

a way to build a general solution from a set of sub-solutions.<br />

The general idea of parallel multicriteria evolutionary algorithms<br />

(pMOEA) was described in detail in [7]. There are<br />

three paradigms of parallel processors cooperation in<br />

pMOEA, namely master-slave, diffusion and island models.<br />

In the master-slave paradigm fitness calculations are split between<br />

a set of slave processors, while master processor is responsible<br />

to distribute the tasks and gather all the resulting<br />

objective values. The diffusion model extends the idea of<br />

a single population, but here the individuals are distributed<br />

among the processors. An arbitrary selected topology defines<br />

a neighbourhood relationship between individuals. The rela-<br />

28 ELEKTRONIKA 11/<strong>2009</strong>


tionship then determines which individuals evolve via evolutionary<br />

operators. Unlike the former, the island model mimics<br />

the phenomenon of natural populations evolving in relative<br />

isolation. Here the processors perform the evolution in possibly<br />

reduced search space separately. However, some limited<br />

communication between the populations (islands) is permitted.<br />

The island model of parallelization has been already applied<br />

to SPEA [8].<br />

Besides the parallelization techniques, it is also well<br />

founded to consider alternative optimization methods for application<br />

to the weather routing solution. These methods<br />

should allow finding an approximation of Pareto-front and be<br />

applicable in the assumed optimization problem. Thus, the<br />

considered set of global optimization techniques includes<br />

three multicriteria metaheuristics: ant colony optimization,<br />

tabu search and simulated annealing. The next subsections<br />

present a review of these methods from the standpoint of possible<br />

application to the weather routing optimization.<br />

Multicriteria ant colony optimization<br />

The majority of multicriteria ant colony optimization (ACO) extensions<br />

are designed particularly for a two criteria optimization<br />

problem. Unfortunately their possible extension to<br />

a greater number of criteria is non trivial. A detailed review of<br />

such methods is given in [7].<br />

An example of more universal approach towards multicriteria<br />

ant colony optimization, called MOAQ [9], assumes utilization<br />

of a serial set of ant families. Each family is<br />

responsible for a single optimization criterion and tries to modify<br />

solutions in terms of the assigned criterion with respect to<br />

a negotiation mechanism. The criteria are solved in an incremental<br />

fashion, which may be considered as a disadvantage<br />

in situations where no lexicographic order can be imposed<br />

upon given optimization problem.<br />

Another extension of ACO, called PACO [10], is a population-based<br />

multicriteria approach. A new population is created<br />

based on all nondominated (Pareto-optimal) solutions found<br />

so far. The first generation of ants works the same as in standard<br />

ACO with the only difference that there is no pheromone<br />

evaporation. The best solution of the generation is collected in<br />

corresponding population then the process is repeated for<br />

a predefined number of generations. An average-rank-weight<br />

method is used for selecting elements of the next population.<br />

Despite its agent-based nature, the reviewed multicriteria<br />

ACO solutions do not have any parallelization mechanisms<br />

and it is doubtful if such mechanisms could be constructed<br />

and successfully applied.<br />

Multicriteria tabu search<br />

There are two possible approaches to solving multicriteria<br />

problems by tabu search algorithms (TS), namely by weighted<br />

scalarization of objective function or by utilizing Pareto-optimality<br />

concept. The former group of solutions, presented e.g.<br />

in [11], converts multicriteria problem into a single-criterion<br />

one by linear weighted aggregation. The weights are updated<br />

each iteration and may be dependent on improvement gained<br />

for every criterion. The latter approach to tabu search is based<br />

on selecting a new solution from the neighbourhood by means<br />

of Pareto dominance. In a paper by Armentano et al. [12]<br />

a parallel multicriteria tabu search with Pareto dominance is<br />

proposed. The method performs several parallel searches (replaces<br />

a single tabu list by a set of such lists) to obtain a welldistributed<br />

Pareto front.<br />

Multicriteria simulated annealing<br />

Various multicriteria extensions to the simulated annealing<br />

(SA) have been proposed, with SMOSA [13], PSA [14],<br />

WMOSA [15] among others. These methods model multiobjective<br />

nature of optimization by changing the approach to calculate<br />

the probability of a new solution acceptance. SMOSA<br />

and PSA calculate the probability as a multiplication of probabilities<br />

in each dimension (criterion), where PSA includes<br />

also a weighting scheme to the multiplication. WMOSA also<br />

utilize a weight vector to calculate the probability, but unlike<br />

PSA, it takes into account the number of constraints violated<br />

by the new solution when adjusting the weights.<br />

A well known property of single-criterion SA algorithms is<br />

the possibility of their parallel implementation. However, no<br />

such mechanisms has been applied to the reviewed multicriteria<br />

SA methods.<br />

Conclusions<br />

Based on the reviewed alternative optimization methods finding<br />

Pareto-optimal solutions the following conclusions can be<br />

drawn:<br />

1. Only methods with possible parallel implementation should<br />

be considered to achieve reduction of the algorithm’s execution<br />

time.<br />

2. It is recommended in the first place to implement in weather<br />

routing the parallel version of SPEA method, which could<br />

probably allow achieving the efficiency goal with low additional<br />

implementation expenditure.<br />

3. The parallel multicriteria tabu search is an additional solution<br />

worth considering in the weather routing optimization,<br />

although the required implementation effort is much higher<br />

in this case. It is advisable to implement the method in<br />

weather routing together with multicriteria SPEA and compare<br />

their efficiency.<br />

The conclusions listed above will be further verified by appropriate<br />

software development and numerical simulations.<br />

The results of those tests will allow for a more definitive comparison<br />

of the analysed methods and complete assessment of<br />

their usability for multicriteria optimization in weather routing.<br />

References<br />

[1] Perez J., Pazos R., Frausto J. et al.: Comparison and Selection<br />

of Exact and Heuristic Algorithms. Lecture Notes in Computer<br />

Science, vol. 3045, Springer-Verlag, pp. 415-424, 2004.<br />

[2] Szłapczyńska, J., Śmierzchalski, R.: Multiobjective Evolutionary<br />

Optimization with Constraints in Weather Routing. Polish Journal<br />

of Environmental Studies, vol. 17. no 4C, 2008.<br />

[3] Zitzler, E., Thiele, L.: Multiobjective Evolutionary Algorithms:<br />

A Comparative Case Study and the Strength Pareto Approach.<br />

IEEE Transactions on Evolutionary Computation no 3 vol. 4, pp.<br />

257-271, 1999.<br />

[4] Deb, K. An Efficient Constraint-handling Method for Genetic Algorithms.<br />

Computer Methods in Applied Mechanics and Engineering,<br />

vol. 186(2-4), pp. 311-338, 2000.<br />

[5] Chu T. C., Lin Y. C.: A Fuzzy TOPSIS Method for Robot Selection.<br />

The International Journal Of Advanced Manufacturing Technology,<br />

Springer-Verlag, 2003.<br />

[6] Szłapczyńska J.:, PhD thesis: Application of evolutionary algorithms<br />

and ranking methods in weather routing for a ship with hybrid<br />

propulsion. West Pomeranian University of Technology,<br />

Szczecin, <strong>2009</strong>.<br />

[7] Coello C. A., Lamont G. B., Van Veldhuizen D. A.: Evolutionary<br />

Algorithms for Solving Multi-Objective Problems. Springer,<br />

2007.<br />

ELEKTRONIKA 11/<strong>2009</strong> 29


[8] Gonzalez O., Leon C., Miranda G. et al.: A Parallel Skeleton for<br />

the Strength Pareto Multiobjective Evolutionary Algorithm 2. Proceedings<br />

of 15th EUROMICRO International Conference on Parallel,<br />

Distributed and Network-Based Processing (PDP’07), pp.<br />

434-441. IEEE Computer Society, 2007.<br />

[9] Mariano C. E., Morales E.: MOAQ anAnt-QAlgorithm for Multiple Objective<br />

Optimization Problems. Genetic and Evolutionary Computing<br />

Conference (GECCO 99), vol. 1, pp. 894-901, San Francisco, 1999.<br />

[10] Guntsch M., Middendorf M.: Solving Multi-criteria Optimization<br />

Problems with Population-Based ACO. Lecture Notes in Computer<br />

Science, vol. 2632, pp. 464-478, Springer, 2003.<br />

[11] Hansen M. P.: Use of Substitute Scalarizing Functions to Guide a<br />

Local Search Based Heuristic: The Case of moTSP. Journal of<br />

Heuristics, vol. 6, pp. 419-431, Kluwer Academic Publishers, 2000.<br />

[12] Armentano V. A., Arroyo J. E. C.: An Application of a Multi-Objective<br />

Tabu Search Algorithm to a Bicriteria Flowshop Problem.<br />

Journal of Heuristics, vol. 10, pp. 463-481, Kluwer Academic<br />

Publishers, 2004.<br />

[13] Suppapitnarm A., Seffen K. A., Parks, G. T. et al.: Simulated annealing:<br />

An alternative approach to true multiobjective optimization.<br />

Engineering Optimization, vol. 33, no 59, 2000.<br />

[14] Czyżak P., Jaszkiewicz, A.: Pareto simulated annealing - A metaheuristic<br />

technique for multiple-objective combinatorial optimization.<br />

Journal of Multicriteria Decision Analysis, vol. 7, no 34, 1998.<br />

[15] Suman, B.: Multiobjective simulated annealing - A metaheuristic<br />

technique for multiobjective optimization of a constrained problem.<br />

Foundations of Computing and Decision Sciences, vol. 27,<br />

no 171, 2002.<br />

Signed electronic document and its probative value<br />

in certificate and certificateless public key<br />

cryptosystem infrastructures<br />

(Podpisany dokument elektroniczny i jego wartość dowodowa<br />

w certyfikatowej i bezcertyfikatowej infrastrukturze kryptosystemu<br />

klucza publicznego)<br />

dr inż. JERZY PEJAŚ<br />

Zachodniopomorski Uniwersytet Technologiczny, Wydział Informatyki, Szczecin<br />

1. Introduction<br />

The Art. 5, paragraph 1 of the Act on Electronic Signature from<br />

September 18 th , 2001 (see [1]) states that the secure electronic<br />

signature based on a qualified certificate (shortly, the<br />

qualified electronic signature) evokes legal effects defined by<br />

Act if it was created in the validity period of this certificate. This<br />

regulation doesn’t apply to the certificate after period of its validity<br />

or from the day of its revocation and in the period of its<br />

suspension unless there is possible to prove that the signature<br />

was created before end of the validity period of the certificate<br />

or its revocation or suspension (i.e. to avoid a signature to become<br />

unduly questionable or even rejected in the future, the<br />

point in time when it was issued may require to be provable).<br />

The requirement for proving a time of an electronic signature<br />

generation becomes a crucial element for signature validity<br />

and for a probative value of an electronic document related<br />

to this signature (1) . This is crucial also for the sake of decreasing<br />

evidence value of an electronic document that with the time<br />

elapsed does not have the same longevity properties as physical<br />

documents. Particularly, it results from two reasons at least:<br />

• cryptographic algorithms and keys used for an electronic<br />

signature creation can become weak and not sufficiently<br />

resistant against different attacks,<br />

• information necessary for an electronic signature verification<br />

and validation is not accessible (e.g. due to the lack of access<br />

to CA certificates, CRLs, electronic documents, etc.).<br />

After many years facts stated above could make impossible<br />

to verify formerly created electronic signatures, what could<br />

result in the lack of total probative value of an electronic document<br />

(of course, if such a value was possessed by the document<br />

at storage time).<br />

Further, we assume that the probative value of a signed<br />

electronic document consists of document content, additional<br />

security elements and a context (particularly a legal context).<br />

The probative value of an electronic document has to be preserved.<br />

It means using organizational and technical measures<br />

guaranteeing the keeping an electronic signature verifiable<br />

over long period or the retrieving a reliable information on its<br />

status, and enabling the verification of the electronic document<br />

authenticity related to this signature.<br />

The rest of the paper is organized as follow. In Section 2, we<br />

formulate the model of a certified electronic signature scheme<br />

(CESS) describing a signature creation and verification process<br />

in the traditional Public Key Cryptosystem (PKC) and in Certificateless<br />

Public Key Cryptography (CL-PKC). Section 3 shows<br />

that usage of technical measures for the keeping the probative<br />

value of an electronic document needs some extension of CESS<br />

model to the form LT-CESS as well as including a Virtual Signed<br />

Electronic Document (V-SED), providing a provable authenticity<br />

of an electronic document over long period. Then two practical<br />

examples of V-SED development based on time stamp chains<br />

and a sequence of archive time stamps are presented (see Section<br />

4 and 5). Finally, we conclude the paper in Section 6.<br />

2. Electronic signature schemes<br />

The first thing to notice is that any electronic signature scheme<br />

will never be able to exist without a Trusted Authority (TA). This<br />

is because the TA is required to guarantee the authenticity of<br />

users’ public keys.<br />

In the traditional Public Key Cryptosystem (PKC), a Certificate<br />

Authority (CA) issuing a digitally signed explicit certificate<br />

binding an identity and a public key of a user achieves<br />

30 ELEKTRONIKA 11/<strong>2009</strong>


this goal. A user’s public key authenticity should be certified<br />

because his or her public key is generated from some random<br />

information that is unrelated to his or her identity. However,<br />

the need for Public Key Infrastructure (PKI) supporting certificates<br />

is considered the main difficulty on the deployment and<br />

management of a traditional PKC.<br />

Theoretically, the identity (ID) based public key cryptography<br />

(ID-PKC) introduced by Shamir [4] should solve the problem<br />

stated above. In that approach instead of using a random<br />

integer as the user’s public key as in the traditional public-key<br />

systems, the user’s real identity (e.g. the user’s name or email<br />

address) becomes the user’s public key, while a trusted third<br />

party called the Private Key Generator (PKG) manages the<br />

generation and distribution of all system’s parameters including<br />

the user’s private key. Although the complexity caused by<br />

certificates is gone (there is no need to generate the certificate),<br />

all ID-PKCs have the inherent key escrow problem, that is private<br />

key generator (PKG) knows the private key of each user.<br />

To solve the key escrow problem of the ID-PKC and to preserve<br />

the benefits of the ID-PKC, Certificateless Public Key<br />

Cryptography (CL-PKC) was introduced (S. Al-Riyami, K. Paterson<br />

[5]). Certificateless Public Key Cryptography (CL-PKC)<br />

is an intermediate between ID-PKC and PKC. In CL-PKC, Key<br />

Generation Center (KGC) is involved in issuing user partial<br />

private key computed from the master secret. The user also<br />

independently generates an additional user’s secret value and<br />

finally calculates the private key, and the corresponding public<br />

key. Therefore, even if KGC knows the user partial private<br />

key, impersonation is not possible.<br />

In CL-PKC the user’s public key can be made available to<br />

other users by transmitting it along with the messages or by<br />

placing it in a public directory. There is no explicit authentication<br />

required for the public keys and, in particular, there is no explicit<br />

certificate for each public key. However, the system is no<br />

longer identity-based, because the public key cannot be computed<br />

from the user’s identity alone (L. Harn et al. [6], S. Al-<br />

Riyami, K. Paterson [5]). Therefore such public key requires the<br />

use of an implicit certificate that allows avoiding the explicit verification<br />

of the bindings between public keys and identities. Note<br />

that an implicit certificate is valid to the end of validity period of<br />

the user’s identifier or until the revocation of this identifier.<br />

Let us assume that there is the Trusted Authority (TA) related<br />

with PKC or CL-PKC systems and a set of users. Each<br />

user has a unique identity ID ∈ {0,1} * that may contain auxiliary<br />

information like the validity period of the identity (the implicit<br />

certificate) or of the explicit certificate. This is the case<br />

when an effective usage of any electronic signature scheme<br />

needs at least the following components of PKC or CL-PKC<br />

infrastructure to be present (A. Boldyreva, et al. [3]):<br />

• Trusted Authority (TA). Each i-th TA i holds a public key<br />

pk TA (i) and a corresponding secret key sk TA (i). We assume<br />

that the public key is authenticated and known to all parties,<br />

i.e. once it is published the adversary cannot change it.<br />

This is usually accomplished by a hierarchical arrangement<br />

of TAs, each intermediate TA certifying the validity of the<br />

public key of its successor. Only the key of the root TA has<br />

to be authenticated by other means,<br />

• keys’ registration. Each user can register keys with the CA<br />

by running the registration protocol. The required validation<br />

of the user’s identity ID is usually done before by socalled<br />

registration authority (RA). Checking the identity of<br />

the user wishing to register its public key is typically performed<br />

by RA by of means personal identification and<br />

physical validation (e.g., with help of a passport or a driver<br />

license). After registration the user obtains a certificate cert<br />

that, classically, is an explicit certificate of X.509 type, including<br />

the CA’s signature or an implicit certificate cert<br />

which should be rather thought of as an arbitrary, possibly<br />

empty string. We assume, however, that each pair (ID, pk),<br />

where a public key pk is registered, is unique.<br />

Based on mentioned above PKC or CL-PKC infrastructure<br />

we can define a certified electronic signature scheme (CESS).<br />

Certified electronic signature scheme is a tuple CESS =<br />

(Setup, K, (C,U), Σ, V), where the constituent algorithms run in<br />

polynomial time and are defined as follows (see A. Boldyreva,<br />

et al. [3]):<br />

• Setup: a randomized parameter-generation algorithm that<br />

takes as an input 1 k , where k is the security parameter, and<br />

outputs some global scheme parameters params, available<br />

to all parties; the parameters params define also a finite<br />

message space, M and a finite signing space, S;<br />

• Key-Generation (K): a randomized key-generation algorithm<br />

that takes as an input params, and outputs a pair<br />

(pk TA (i), sk TA (i)) consisting of a verification key (a public<br />

key) and a signing key (a private key), i.e.<br />

• (C,U) - a pair of interactive randomized algorithms forming<br />

the (two-party) public-key registration protocol; C - an algorithm<br />

that takes as an input a private key pk TA (i); V - an<br />

algorithm takes as an input an identity ID U of a user and the<br />

public key pk TA (i) corresponding to sk TA (i); the result of this<br />

interaction can be formally written as follows:<br />

where: pk IDU is a public key of a user ID U , sk IDU - a corresponding<br />

private key and cert is an issued (explicit or<br />

implicit) certificate.<br />

• Sign (Σ): a (possibly) randomized signing algorithm that<br />

takes input scheme parameters params, an identity ID U ,<br />

a secret key sk IDU , a certificate cert and an electronic document<br />

D ∈ {0,1} * ∈ M, and outputs an electronic signature<br />

Σ ∈ S in one of the well formed format.<br />

• Verify (V): a deterministic verification algorithm that takes<br />

input scheme parameters params, an identity ID U , a public<br />

key pk IDU , a certificate cert, a public key pk TA (i) and an<br />

electronic document D ∈ {0,1} * ∈ M, and outputs valid or invalid<br />

information about a signature Σ ∈ S:<br />

The electronic signatures should be created on the base of<br />

well-defined formats, e.g. CAdES [7], XAdES [8] or PAdES<br />

[9]. Their verification requires the checking of a certificate validity<br />

(the case of traditional PKC) or a validity of a signer’s<br />

identity (the case of CL-PKC). First type of the verification requires<br />

checking a signing certificate authenticity and its presence<br />

on the certificate revocation list. In the case of the<br />

second type of verification any verifier should check whether<br />

the identifier, a component of the identifier (such as an address<br />

attribute), or the public key of a particular entity has not<br />

been revoked and then additionally verify the authenticity of<br />

the public key taken from the repository of the TA(i).<br />

(1)<br />

(2)<br />

(3)<br />

ELEKTRONIKA 11/<strong>2009</strong> 31


In the context of CL-PKC, the idea of appending validity<br />

periods (for example, year, date or time) to identifiers ID U can<br />

be used ensuring that any partial private key, and hence any<br />

private key, has a limited lifetime. Then the revocation in CL-<br />

PKC systems can be handled in the same way as in ID-PKC<br />

systems using standard certificate-based revocation techniques.<br />

For example, this can be done by deploying an analogue<br />

of an online certificate status protocol (e.g. OCSP) or<br />

variants of certificate revocation lists (CRLs).<br />

3. Keeping the probative value<br />

of electronic documents<br />

Ensuring a long-term validity of stored electronic documents<br />

depends on both organizational and technical measures (see<br />

e.g. CWA 15579 [14]). When technical measures are used to<br />

keep the probative value of electronic documents then first of<br />

all there is necessary to apply the strong cryptographic algorithms<br />

and to provide additional and sufficient information -<br />

a certificate set (all certificates needed to generate a path that<br />

leads to a point the verifier trusts) and the relevant revocation<br />

information (2) (e.g. CRLs) related to this certificate set and to<br />

all other involved certificates. Trusted third party (TTP) providing<br />

a service of keeping the probative value of an electronic<br />

document over long period has to issue the evidence records<br />

attached to the electronic attestations (Section 5) and associated<br />

with a given document or a group of documents. All these<br />

electronic attestations and time stamp tokens cyclically created<br />

for all stored evidences are needed later for making a<br />

long-term verification, i.e. verifications when the signing certificate<br />

has expired. In this case only the verifier can independently<br />

perform the complete verification of a given<br />

document authenticity and the validity of all signatures and<br />

other evidences (e.g. time stamp tokens) related to it.<br />

The storage mechanisms used by a trusted third party<br />

(TTP) should be based on a long-term electronic signature<br />

scheme (LT-CESS) like this:<br />

The LT-CESS scheme in comparison to the CESS (see Section<br />

2) contains two additional elements:<br />

• (IV,SV) - a pair of interactive deterministic algorithms forming<br />

the verification protocol (e.g. CWA 14171 [11]); IV - an<br />

initial (or a short term) verification algorithm performed by<br />

a verifier after an electronic signature is generated in order<br />

to consolidate the signature by capturing additional information<br />

that will support its subsequent verification; SV -<br />

a subsequent (or a long-term) verification algorithm performed<br />

by a verifier some time after the initial application of<br />

a signature, to assess a signature’s validity, based on the<br />

data collected at initial verification time;<br />

• Preserve (P): a deterministic algorithm for long-term preservation<br />

of the probative value of electronic signatures/documents;<br />

this algorithm is based on the initial or subsequent<br />

verification algorithm and makes the additional activities<br />

needed to protect electronic signatures/documents from effects<br />

of their deterioration, technology obsolescence, and<br />

fading human recall.<br />

Preserve and (IV,SV) algorithms generate the evidence<br />

records attached to the electronic attestations. These elements<br />

are subsequently linked to each preserved electronic document<br />

and jointly form Virtual Signed Electronic Document (V-SED).<br />

V-SED document should fulfil the following requirements:<br />

(4)<br />

• each electronic document D is stored where produced<br />

(local repository) or in a deposit (regional repository);<br />

• V-SED contains the references to the electronic documents,<br />

the signatures associated with this document, the<br />

time stamp tokens and other evidences references allowing<br />

the creation of a real (complete) SED on demand.<br />

Storing the references allows the values of V-SED elements<br />

to be kept elsewhere, reducing the entire size of V-SED<br />

document. A virtual document with above properties is a tuple:<br />

where: ID R - the V-SED identifier in a repository, D R - the references<br />

to the documents and their attachments, S R - the references<br />

to the electronic signatures, E R - the references to the<br />

evidences related to an electronic signature and a document<br />

(including the references to the electronic attestations and the<br />

evidence records linked to them). For V-SED the following definition<br />

can be formulated:<br />

Definition. The electronic document is a long-term provable<br />

authentic, if exist a polynomial time Verify(V) algorithm<br />

that takes as an input the certification scheme CS (i.e. PKC or<br />

CL-PKC), the services related to a electronic signature TSI<br />

(Trusted Services Infrastructure), V-SED, the verification policy<br />

VP (Verification Policy), and outputs a value of each electronic<br />

signature {valid, invalid}:<br />

where: V is one from two algorithms being a member of the pair<br />

(IV,SV), while the notation array[1…n] means the verification of<br />

each electronic signature referenced in V-SED structure.<br />

Note that CS parameter in Equation (6) includes the parameters<br />

params of an electronic signature scheme, while V-<br />

SED structure - (D, Σ, pk IDU ,cert) parameters; compare the<br />

Equation (3).<br />

4. Timestamp chain and sequence<br />

The basic elements of V-SED structure, i.e. the electronic attestations<br />

and the evidence records linked to them, can be<br />

built in different ways. The most often used approach is based<br />

on the appropriate mechanisms of the time stamp chains<br />

building. These mechanisms have to ensure the requirements<br />

counted in the definition of the provable authentic document<br />

(see Section 3).<br />

The starting point for the timestamp chains creation is an<br />

archival electronic signature form CAdES-A [7], XAdES-A [8]<br />

or other equivalent form (e.g. PAdES [9]). Each of these forms<br />

should contain a time stamp of a system for preserving electronic<br />

document for long periods of time (an archive mark for<br />

shortly). This mark has the same meaning as the archive timestamp<br />

that are included into the archival signature forms<br />

CAdES-A or XAdES-A.<br />

The archive timestamp is added to the CAdES or XadES<br />

form as an unsigned attribute. The hash value related to this<br />

archive timestamp is the result of using the hash algorithm to<br />

the CAdES-X or XadES-X form. The first archive timestamp of<br />

the obtained archival form CAdES or XAdES includes all necessary<br />

information required for every signature verification and<br />

so called an initial archive timestamp. This timestamp can become<br />

invalid when a public key algorithm, or a hash function<br />

used respectively to creation of the hash value or the timestamp:<br />

(5)<br />

(6)<br />

32 ELEKTRONIKA 11/<strong>2009</strong>


a) will be or could be broken, or<br />

b) a public key certificate of a time stamping authority will be<br />

expired soon or is revoked.<br />

Prior to such an event, the trust to existing time stamps<br />

has to be reassured by means of new time stamping of the<br />

previous archive timestamp. Two types of the time stamp renewal<br />

are used (see details in Section 5):<br />

a) time stamp renewal: the new archive timestamp is generated,<br />

which is related to the previous one; subsequent<br />

timestamps obtained in this renewal procedure form the<br />

archive timestamp chain for a data object or a group of<br />

data objects;<br />

b) hash value renewal: the new time stamp for the archival<br />

form is generated; it is related to previous timestamps and<br />

to data objects stamped with the initial archive timestamp<br />

for the archival form as well; the new set of the archive<br />

timestamp chain is created; the set of one or more archive<br />

timestamp chains forms the archive timestamp sequence.<br />

5. Some technical examples<br />

of the timestamp and hash value renewal<br />

Two standards are presented below (ETSI TS 101 733 [7] and<br />

RFC 4998 [15]). Each of them can be used both for the timestamp<br />

and the hash value renewal. However, while the first<br />

standard is applied mainly to a single data object (an electronic<br />

document or signature), the second one can cover a group of<br />

data objects. In both cases the evidence records are generated<br />

(CAdES-A and EvidenceRecord structures, respectively)<br />

and thent available on each request of the authorized entities.<br />

5.1 ETSI TS 101 733 (CAdES) standard<br />

To keep the probative value of an electronic document the<br />

specification of the archival form CAdES [7] is used. The<br />

archive timestamp is related to each of the SignerInfo data<br />

element that is included into the SignedData. The value of<br />

the messageImprint field of the TimeStampToken (3) structure<br />

contains the hash value returned by the hash algorithm applied<br />

to an input argument being the concatenation of the following<br />

elements:<br />

a) the encapContentInfo field of the SignedData sequence;<br />

when the field is absent, the content is stored outside of<br />

this field, but its value is protected by the signature value located<br />

in the SignedData sequence;<br />

b) the Certificates and crls fields of the SignedData sequence,<br />

if these fields are present in this sequence,<br />

c) all data elements of the SignerInfo sequence, which should<br />

be protected by the generated timestamp token, including<br />

all signed and unsigned attributes.<br />

The SignerInfo can contain more then one instance of<br />

archive-time-stamp attributes. Furthermore, each successive<br />

timestamp protects all timestamps made previously. It means<br />

that the CAdES archival form allows to renew the archive<br />

timestamp using mechanism like this presented on Fig. 1.<br />

Fig. 1. The idea of renewal of an archival timestamps form (CAdES<br />

[7])<br />

Rys. 1. Idea odnawiania znaczników czasu archiwum (CAdES [7])<br />

Each subsequent archive timestamp covers all existing<br />

timestamps, so the archive-time-stamp attribute can be used<br />

also to build the new hash value: it is sufficient to choose the<br />

new stronger hash function, calculate the new hash values<br />

and obtain the new archive timestamps.<br />

5.2 RFC 4998 de facto standard<br />

The proposal published in RFC 4998 [15] contains the following<br />

structure of the evidence record syntax (ERS):<br />

EvidenceRecord ::= SEQUENCE {<br />

version INTEGER { v1(1) },<br />

digestAlgorithms SEQUENCE OF AlgorithmIdentifier,<br />

cryptoInfos [0] CryptoInfos OPTIONAL,<br />

encryptionInfo [1] EncryptionInfo OPTIONAL,<br />

archiveTimeStampSequence ArchiveTimeStampSequence<br />

}<br />

This structure can be treated as an unsigned attribute and<br />

appears only once in each SignerInfo element of the Signed-<br />

Data structure (see the specification of archival form CAdES-A).<br />

The evidence record contains the ArchiveTimeStampSequence<br />

field, which is a sequence of archive timestamp chains:<br />

ArchiveTimeStampSequence ::= SEQUENCE OF<br />

ArchiveTimeStampChain<br />

ArchiveTimeStampChain ::= SEQUENCE OF<br />

ArchiveTimeStamp<br />

The ArchiveTimeStampChain structure contains the<br />

archive timestamps generated as the result of the timestamp<br />

renewal, while the ArchiveTimeStampSequence structure- as<br />

the result of the hash value renewal. The archive timestamp<br />

ArchiveTimestamp includes the timestamp and a set of lists of<br />

hash values and its verification must give a point of time when<br />

a given data object or a group of data objects has existed.<br />

The evidence record EvidenceRecord allows the implementation<br />

of timestamp and hash renewal procedures. The<br />

Fig. 2 is some example of the timestamp renewal used to the<br />

electronic documents divided into groups. Various methods<br />

can be applied to aggregate the group of documents (data objects).<br />

The most effective are this based on an authenticated<br />

dictionary [18], i.e. on data structures viewed simultaneously<br />

as the structured aggregate of all protected information and<br />

the proof of the authenticity and validity of these information.<br />

The initial archive timestamp generated for such aggregated<br />

groups of data is related to lists of hash values, which<br />

allow the verification of the existence of a data object or a<br />

group of data objects at a certain time. The lists of hash values<br />

are generated usually by reduction of an ordered Merkle<br />

hash tree (RFC 4998 [15], M. T. Goodrich, et al. [18]).<br />

7. Conclusions<br />

In order to model a long-term electronic signature scheme LT-<br />

CESS (as defined by Section 3) there is necessary to create<br />

so-called Virtual Signed Electronic Document (V-SED) and introduce<br />

an electronic signature verification algorithm as given<br />

in Equation (6). If there can be found an effective signature<br />

verification algorithm of the form (6), then for a given point in<br />

time it is always possible to assert the authenticity of an electronic<br />

document related to this V-SED and its existence before<br />

a certain moment in the past (in Section 3 a document<br />

ELEKTRONIKA 11/<strong>2009</strong> 33


Fig. 2. An example of data groups aggregation into the one group<br />

consisting of three electronic documents and two separated electronic<br />

documents; Merkle tree is used (notation: h(...) - cryptographic<br />

hash function, || - concatenation) (compare with [18])<br />

Rys. 2. Przykład agregacji grup danych za pomocą drzewa Merkla<br />

z jedną grupą składająca się z trzech obiektów danych i dwóch pojedynczych<br />

obiektów danych (oznaczenia: h(...) - kryptograficzna<br />

funkcja skrótu, || - operator konkatenacji) (porównaj [18])<br />

with such properties was called the long-term provable authentic<br />

document). Note that V-SED idea is independent of<br />

the public key cryptography infrastructure, and particularly can<br />

be implemented in very promising environment of Certificateless<br />

Public Key Cryptosystem (CL-PKC).<br />

The implementation of the long-term electronic signature<br />

scheme LT-CESS requires a wide range of new complex services<br />

of TSI (Trusted Services Infrastructure) related to electronic<br />

signatures, documents of V-SED type and signature<br />

verification policies (VP) (see Section 3). Examples of possible<br />

technical solutions for an implementation of a long-term<br />

keeping the probative value of a signed electronic document<br />

(Section 5) are enough to demonstrate the opportunity to build<br />

such components. Theirs complexity depends on a trust level<br />

of the storage managing organization and usually requires the<br />

use of methods presented in Section 5.<br />

References<br />

[1] Act on electronic signature from September 18 th , 2001, Law<br />

Diary - Dz.U. 2001 no 130, pos. 1450 with later amendments (in<br />

Polish).<br />

[2] EU Directive 1999/93/EC of the European Parliament and the<br />

Council of 13 December 1999 on a Community framework for<br />

electronic signatures.<br />

[3] Boldyreva A., Fischlin M., Palacio A., Warinschi B.: A Closer Look<br />

at PKI: Security and Efficiency, Lecture Notes in Computer Science,<br />

Vol. 4450/2007, pp. 458-475, Public Key Cryptography -<br />

PKC 2007, 10th International Conference on Practice and Theory<br />

in Public-Key Cryptography, Beijing, China, April 16-20, 2007.<br />

[4] Shamir A.: Identity-based cryptosystems and signature<br />

schemes, Advances in Cryptology - Crypto’84, LNCS, vol. 196.<br />

pp. 47-53, Springer-Verlag, 1984.<br />

[5] Al-Riyami S., Paterson K.: Certificateless public key cryptography,<br />

Advances in Cryptology - AsiaCrypt, LNCS, vol. 2894, pp.<br />

452-473, Springer-Verlag, 2003.<br />

[6] Harn L., Ren J., Lin Ch.: Design of DL-based certificateless digital<br />

signatures, The Journal of Systems and Software, vol. 82,<br />

pp. 789-793, <strong>2009</strong>.<br />

[7] ETSI TS 101 733 Electronic Signatures and Infrastructures<br />

(ESI); CMS Advanced Electronic Signatures (CAdES), v. 1.7.4,<br />

July 2008.<br />

[8] ETSI TS 101 903 XML Advanced Electronic Signatures<br />

(XAdES), v1.4.1, June <strong>2009</strong>.<br />

[9] ETSI TS 102 778-5 Electronic Signatures and Infrastructures<br />

(ESI); PDF Advanced Electronic Signature Profiles, v. 1.1.1, July<br />

<strong>2009</strong>.<br />

[10] Gentry C., Silverberg A.: Hierarchical ID-based cryptography, in<br />

Y. Zheng, editor, Advances in Cryptology - ASIACRYPT 2002,<br />

Lecture Notes in Computer Science, vol. 2501, pp. 548-566.<br />

Springer-Verlag, 2002.<br />

[11] CWA 14171 General guidelines for electronic signature verification,<br />

May 2004.<br />

[12] Regulation of Ministry Council from August, 7th, 2002 on technical<br />

and organizational requirements for qualified certification<br />

authorities, certification policies for qualified certificates issued<br />

by them, and technical requirements for secure signature creation<br />

and verification devices (Low Diary -Dz.U. 2002 no 128,<br />

pos. 1094).<br />

[13] RFC 5280 Internet X.509 Public Key Infrastructure Certificate<br />

and Certificate Revocation List (CRL) Profile, May 2008.<br />

[14] CWA 15579 E-invoices and digital signatures, July 2006.<br />

[15] RFC 4998 Evidence Record Syntax (ERS), August 2007.<br />

[16] RFC 3161 Time-Stamp Protocol (TSP), August 2001.<br />

[17] ETSI TS 101 861 Time stamping profile, v1.3.1, January 2006.<br />

[18] Goodrich M. T., Tamassia R., Hasic J.: An Efficient Dynamic and<br />

Distributed Cryptographic Accumulator, in Information Security,<br />

5th International Conference, pp. 372-388, Sao Paulo, Brazil,<br />

September 30 - October 2002.<br />

(1) Above problems apply to electronic documents based both upon<br />

a qualified and non-qualified certificate<br />

(2) This requirement is directly related to the certificate electronic signature<br />

scheme CESS used in the PKC infrastructure (explicit certificates),<br />

but can be also applied indirectly in the CL-PKC infrastructure (implicit<br />

certificates).<br />

(3) TimeStampToken is an archive timestamp issued according to RFC<br />

3161 [16] or ETSI TS 101 861 [17].<br />

Przypominamy o prenumeracie miesięcznika <strong>Elektronika</strong> na 2010 r.<br />

34 ELEKTRONIKA 11/<strong>2009</strong>


Ontology-based approach to scada systems<br />

vulnerabilities representation for CIP<br />

(Podejście ontologiczne do reprezentacji podatności systemów scada<br />

dla ochrony infrastruktur krytycznych)<br />

dr inż. MICHAŁ CHORAŚ 1,3 , mgr inż. ANNA STACHOWICZ 1 , mgr inż. RAFAŁ KOZIK 1,3 ,<br />

mgr inż. ADAM FLIZIKOWSKI 1,3 , mgr inż. RAFAŁ RENK 1,2<br />

1 ITTI Sp. z o.o.<br />

2 Adam Mickiewicz University, Poznań<br />

3 Institute of Telecommunications, UT&LS, Bydgoszcz<br />

Critical Infrastructures are the organizations delivering goods<br />

and services in an economy that are fundamental to the functioning<br />

of society and the economy [1]. As for types of critical<br />

infrastructures, there are some domains within an economy<br />

that are considered crucial and most important. The loss of or<br />

disaster within a CI will affect a part or all society. Some of<br />

critical sectors described in [2] are agriculture and food, water,<br />

public health and defence.<br />

The INSPIRE Project focuses on telecommunication, energy<br />

and transportation sectors. CI are now identified and protected<br />

by national and international law and regulations<br />

(nationally in e.g. Poland by Ministry of Infrastructure in Crisis<br />

Management regulations [3]; internationally e.g. by NATO and<br />

by EU) [4-6]. Most of them are also intuitively recognized as<br />

critical by societies. Unfortunately, not all phenomenon and<br />

aspects within CI are well recognized. It is not possible to create<br />

mathematical equations fully describing CI - their functioning<br />

and dependencies. CI are nonlinear and chaotic: it<br />

means that small change may cause enormous effects (as in<br />

the butterfly effect). Even if we had equations describing CI,<br />

small increase or decrease of non-important tiny factors, could<br />

cause enormous change in the overall result [1].<br />

Complexity and wide range of critical infrastructures implies<br />

huge problems in their reliability and security. In dispersed<br />

critical infrastructures like electric power, water, railway<br />

or telecommunication sectors SCADA (Supervisory Control<br />

and Data Acquisition) systems are commonly used. SCADA is<br />

a monitoring, supervisory and controlling system with data acquisition<br />

from remote data fields. On the contrary to other control<br />

systems like for e.g. Distributed Control Systems (DCS),<br />

SCADA is intended especially to geographical dispersed systems.<br />

Control, measure and monitoring remote field data elements<br />

are provided by Remote Terminal Units (RTUs).<br />

Communication of RTUs with other SCADA components like<br />

Master Terminal Units, Operation Control Centres is provided<br />

by telecommunication network.<br />

Three generations of SCADA systems can be distinguished<br />

according to [7]:<br />

• 1 st generation - SCADA systems are monolithic and performed<br />

all computing functions themselves without connectivity<br />

with other systems;<br />

• 2 nd generation - SCADA systems are distributed, taking advantages<br />

of LocalArea Network, which connected multiple stations<br />

with different functions shared information in real-time;<br />

• 3 rd generation - it is extension of 2 nd generation in a way<br />

that system architecture became open, utilized open standards<br />

and protocols and connectivity of SCADA station and<br />

functions was moved from LAN to WAN.<br />

Nowadays most of SCADA development comply with 3 rd<br />

generation SCADA systems. SCADA systems have been designed<br />

without security considerations for many years. Nowadays,<br />

more and more SCADA systems have connections with<br />

business systems, corporate networks, which showed a risk,<br />

that unauthorized, unintended entities may have access to<br />

critical SCADA data information. The great benefit of integration,<br />

the communication between SCADA systems and corporate<br />

networks or Internet, which increase efficiency of<br />

business processes became a great risk and source of vulnerabilities.<br />

Therefore, there is an emerging need of identifying<br />

SCADA vulnerabilities and understanding interdependencies<br />

between them, especially these implied by SCADA systems<br />

interconnection with telecommunication infrastructures. In this<br />

paper we present an ontology-based approach to tackle this<br />

difficult task.<br />

Motivation to ontology-based approach<br />

Interoperation with different network technologies and various<br />

applications causes SCADA systems inherit typical network<br />

and application vulnerabilities. That is why security aspects in<br />

SCADA systems are not so different than in network security.<br />

One of the most important aspects in security are vulnerabilities.<br />

Vulnerabilities are the weak points in (SCADA) system<br />

components, which can be exploited by an attack. Definitions<br />

of vulnerability and threat according to ISO/IEC 13335-1:2004<br />

standard are as follows [8]:<br />

• vulnerability: “includes a weakness of an asset or group of<br />

assets which can be exploited by a threat”;<br />

• threat: “a potential cause of an unwanted incident which<br />

may result in harm to a system or organization”.<br />

Threats and attacks exploit vulnerabilities, so identification<br />

of vulnerabilities is a key aspect of security consideration and<br />

risk assessment. Known vulnerabilities can be fixed and potential<br />

attack can be prevented. There are several sources of<br />

vulnerabilities, for e.g. vulnerability repositories such as National<br />

Vulnerability Database (NVD) [9] or Open Source Vulnerability<br />

Database (OSVDB) [10]. However they do not<br />

express all security issues, their properties and relations. That<br />

is why we find ontology as a suitable tool for showing identified<br />

vulnerabilities as a classification and their connections<br />

with other security aspects like threats, attacks, SCADA resources<br />

and communication infrastructure [11]. Ontology is a<br />

form of knowledge representation in a form of data model that<br />

provides a decryption of domain and relations between domain<br />

concepts.<br />

ELEKTRONIKA 11/<strong>2009</strong> 35


Knowledge in ontology is represented by:<br />

• classes - a general concepts;<br />

• properties of these concepts;<br />

• individuals - basic entities of concepts.<br />

Ontology can be created in OWL language, using Protégé<br />

application. There are many tools and software to support ontology<br />

functionalities. Knowledge enrichment can be improved<br />

by rules in SWRL (Semantic Web Rule Language) [11]. Rules<br />

in SWRL applied to OWL ontology give possibility to extend<br />

existing knowledge with new properties. This option enables<br />

individuals to be reclassified and makes process of filling-up<br />

properties of new individuals more automatic. Reasoning<br />

about ontology concepts can be provided by semantic reasoners.<br />

Relevant knowledge is also given by restrictions: relationships<br />

or constraints.<br />

Proposition of the ontology<br />

In this section our ontology approach with special consideration<br />

and emphasis on vulnerabilities is presented. Ontology<br />

has been created in OWL-DL language using Protégé 3.4. application.<br />

SCADA ontology aims at addressing the following key<br />

SCADA issues:<br />

• what are vulnerabilities of special SCADA components, architecture<br />

or protocols,<br />

• how these vulnerabilities affect SCADA resources,<br />

• which threats/attacks may occur and what damage they<br />

can cause?<br />

According to ISO/IEC 13335-1:2004 standard [8] vulnerabilities<br />

are considered as a part of network security system. In<br />

this approach SCADA resources, components have weak<br />

points named vulnerabilities. These vulnerabilities can be exploited<br />

by threats, leading to attacks. This security system is<br />

depicted into a form of classification with properties and relationships<br />

among security issues.<br />

Main concepts, which compose main classes of proposed<br />

ontology following ISO/IEC 13335-1:2004 standard are:<br />

• SCADA systems,<br />

• SCADA resources,<br />

• vulnerabilities,<br />

• threats and attacks,<br />

• source of attacks,<br />

• safeguards.<br />

The proposed hierarchy of ontology classes is presented<br />

in Fig. 1. These classes are connected properties. Properties<br />

show relations, dependence of one class on another or can<br />

represent some attributes. Main classes, named also superclasses<br />

have sub-classes. Sub-classes are specifications of<br />

super-classes and inherit their features.<br />

Going down the hierarchy, lower levels of subclasses<br />

make ontology information more detailed. Properties of “Vulnerabilities”<br />

class created in Protégé are presented in Fig. 2.<br />

Visualization of ontology with some relations between different<br />

classes is presented in Fig. 3. Subclasses of main<br />

classes are also shown there.<br />

Classification of key class of ontology - “Vulnerabilities”<br />

has been based on vulnerability description given in [12]. Thus<br />

SCADA vulnerabilities are grouped into five sub-classes of<br />

“Vulnerabilities” class in proposed ontology:<br />

• network Vulnerabilities,<br />

• platforms Vulnerabilities,<br />

• security and Administration Vulnerabilities,<br />

• data vulnerabilities,<br />

• architecture Vulnerabilities.<br />

These areas of vulnerabilities correspond with particular<br />

system components and can be connected with design, implementation,<br />

misconfiguration and procedural problems. Hi-<br />

Fig. 2. Properties of “Vulnerabilities” class created in Protégé<br />

Rys. 2. Właściwości klasy “Vulnerabilities” stworzone w aplikacji<br />

Protégé<br />

Fig. 3. Main classes visualized in Jambalaya plug-in<br />

Rys. 3. Główne klasy zwizualizowane w zakładce Jambalaya<br />

Fig. 1. Existing class hierarchy<br />

Rys. 1. Istniejąca hierarchia klas<br />

Fig. 4. Proposed vulnerabilities classification<br />

Rys. 4. Proponowana klasyfikacja podatności<br />

36 ELEKTRONIKA 11/<strong>2009</strong>


erarchy of vulnerability classes with first and second subclasses<br />

levels is presented in Fig. 4. Subclasses of “Vulnerabilities”<br />

class are also presented in Fig. 5.<br />

SCADA systems created as an industry system has its<br />

own dedicated communication protocols like Modbus,<br />

Profibus or DNP3. These special protocols also produce Vulnerabilities<br />

characteristic for them. Classification of these protocols<br />

is presented in Fig. 6.<br />

Knowledge, which is relevant and useful for cooperation<br />

with some security management system, in ontology is provided<br />

by individuals - basic objects of classes. Main classes,<br />

concepts of vulnerability classification should be fulfilled with<br />

individuals.<br />

Particular vulnerabilities related with SCADA systems in<br />

described ontology are based on “D2.2 - Identification of Vulnerabilities”<br />

deliverable of the INSPIRE Project [13]. They are<br />

instantiated as individuals in proposed ontology. Although our<br />

approach is based on [12], vulnerabilities identified in [13] respond<br />

with proposed ontology.<br />

Some of these individuals are:<br />

Application vulnerabilities (referred to Architectural Vulnerabilities<br />

in [12] approach):<br />

• advisory CA-2001-07 File Globing Vulnerabilities in Various<br />

FTP Servers;<br />

• denial of Service in Automated Solutions Modbus TCP Slave;<br />

• automated Solutions Modbus TCP Slave ActiveX Control<br />

Vulnerability;<br />

• citect CitectSCADA ODBC service buffer overflow - CVE-<br />

2008-2639;<br />

• GE Fanuc Proficy HMI/SCADA iFIX uses insecure authentication<br />

techniques.<br />

Fig. 5. Subclasses of “Vulnerabilities” class<br />

Rys. 5. Podklasy klasy “Vulnerabilities”<br />

Operating System Vulnerabilities (referred to Platform Vulnerabilities<br />

in [12] approach):<br />

• buffer overflows in HP Software Distributor,<br />

• privilege escalation in WindowsNT,<br />

• buffer overflow in CSAdmin module in CiscoSecure ACS<br />

Server 2.4,<br />

• injection vulnerability in Solaris 10 and 11.<br />

Network Vulnerabilities:<br />

• stop alarm events using DNP3 protocol,<br />

• unauthorized access to DNP3 devices,<br />

• unauthorized access to Modbus server information,<br />

• NETxAutomation Vulnerabilities,<br />

To improve effectiveness of ontology using we applied also<br />

rules in SWRL Language. The sample rule is given below:<br />

Resources(?x) Resources_has_Vulnerability(?x, ?y) Attacks_exploit_vulnerabilities(?z,<br />

?y) →<br />

Attacks_are_realted_with_reacources(?z, ?x)<br />

The above rule can be read as: when individuals of “Resources”<br />

has “Vulnerabilities” and some “Attacks” exploit<br />

these “Vulnerabilities” it implicates that these “Attacks” are related<br />

with “Resources”. Rules act on individuals level, but individuals<br />

have to be included in the ontology classes. Rules<br />

enable adding knowledge to very complicated and complex<br />

ontologies, because some properties of concepts can be filled<br />

up automatically by particular individuals.<br />

Ontology-based INSPIRE Decision<br />

Aid Tooltool<br />

Ontology shows complicated relationships among SCADA<br />

components and security aspects. That is why ontology can<br />

support security solutions. However, the ontology is just a representation<br />

of relationships between particular classes (or instances)<br />

and as it is, can not provide any knowledge based<br />

reasoning or give feedback to its operator.<br />

The solution is to develop the decision support tool that<br />

will map the proposed ontology into set of rules, which will be<br />

the input for the inference engine. The engine can be described<br />

as a form of finite state machine with a cycle consisting<br />

of three action states:<br />

• match rules,<br />

• select rules,<br />

• execute rules.<br />

In the “match rule” state the engine searches all rules that<br />

are matching the current content data store, which are also<br />

called facts. The single fact represents the single property of<br />

the real world e.g.: the operator has SCADA network named<br />

“ABC” which has vulnerability “CDF” that is mapped to proper<br />

state of engine’s data store.<br />

The selected rules are the candidates to be executed, but<br />

the engine, by applying some selection strategy, determines<br />

which rule will be exactly fired. Finally, when the rule is executed,<br />

it is being passed the facts.<br />

Fig. 6. Protocols of SCADA systems<br />

Rys. 6. Protokoły systemów SCADA<br />

Fig. 7. Decision-aid tool - logical diagram<br />

Rys. 7. Diagram logiczny narzędzia wspomagającego decyzję<br />

ELEKTRONIKA 11/<strong>2009</strong> 37


As is it shown in Fig. 7, the decision-aid will analyse the<br />

ontology and generate the facts and rules. Actually, the ontology<br />

instances will be mapped to facts and the SWRL rules will<br />

be mapped to engine’s rules.<br />

In that manner, the tool will be facilitated with information<br />

that will allow to:<br />

• measure dynamically (the value will not be hard coded into<br />

ontology) the vulnerability likelihood,<br />

• dynamically rank the vulnerabilities,<br />

• inform the operator what may cause the fault in SCADA<br />

system,<br />

• what element of the network needs some attention and<br />

safeguards.<br />

By defining the additional (tool build-in) rules there will be<br />

possibility to realize the customized features of the aid tool:<br />

• proposing the action plans with information how to minimize<br />

the likelihood of the vulnerability,<br />

• apply some appropriate countermeasures to minimize the<br />

probability of most likely attack,<br />

• evaluate the SCADA system condition based on standards.<br />

Conclusions<br />

In this paper ontology-based approach for description of<br />

SCADA systems vulnerabilities has been presented. Functionalities<br />

of ontology applied to knowledge representation for<br />

security and protection of critical infrastructures have been<br />

shown. Our solution has been developed within research in<br />

the INSPIRE Project that aims to increase security and protection<br />

through infrastructure resilience. Presented ontology<br />

approach will be basis for Decision - aid tool which is a part of<br />

INSPIRE security framework.<br />

The research leading to these results has received funding from the<br />

European Community’s Seventh Framework Programme (FP7/2007-<br />

2013) under grant agreement no. 225553 (INSPIRE Project).<br />

References<br />

[1] Critical infrastructure: Understanding Its Component Parts, Vulnerabilities,<br />

Operating Risks, and Interdependencies, Tyson<br />

Macaulay, August 2008.<br />

[2] Lewis T. G.: Critical Infrastructure Protection in Homeland Security:<br />

Defending a Networked Nation, Wiley-Interscience,<br />

2006.<br />

[3] Ustawa z dnia 26 kwietnia 2007 r. o zarządzaniu kryzysowym,<br />

Opracowano na podstawie: Dz.U. z 2007 r. nr 89, poz. 590.<br />

[4] Homeland Security Presidential Directive/Hspd-7, December 17,<br />

2003.<br />

[5] European Parliament legislative resolution of 10 July 2007 on<br />

the proposal for a Council directive on the identification and designation<br />

of European Critical Infrastructure and the assessment<br />

of the need to improve their protection (COM(2006)0787 - C6-<br />

0053/2007 - 2006/0276(CNS)).<br />

[6] EU Critical Infrastructure Protection (CIP), Council of the European<br />

Union, Brussels, 28 October 2005.<br />

[7] McClanahan Robert H. :“The benefits of networked SCADA systems<br />

utilizing IP-enabled networks”, Arkansas Electric Cooperative<br />

Corporation, IEEE, 2002.<br />

[8] ISO/IEC 13335-1:2004, Information Technology - Security Techniques<br />

- Management of information and communications technology<br />

security - Part 1: Concepts and models for information<br />

and communications technology security management.<br />

[9] http://nvd.nist.gov/.<br />

[10] http://osvdb.org/.<br />

[11] Choraś M., Renk R., Flizikowski A., Hołubowicz W.: Ontologybased<br />

description of networks vulnerabilities, Polish Journal of<br />

Environmental Studies, vol. 5c, 2008.<br />

[12] SWRL: A Semantic Web Rule Language Combning OWL and<br />

RuleML. W3C Member Submission, http://www.w3.org/Submission/SWRL/.<br />

[13] Stamp J., Dillinger J., Young W.: Common vulnerabilities in critical<br />

infrastructure control systems. Networked Systems Survivability<br />

and Assurance Department, Jennifer DePoy, Information<br />

Operations Red Team & Assessments Department, Sandia National<br />

Laboratories, 22 May 2003.<br />

[14] “D2.2 - Identification of Vulnerabilities” , INSPIRE Project, July<br />

<strong>2009</strong>.<br />

Synthesis and management of system with<br />

parallel multiprocessors and fault tolerance<br />

(Synteza i zarządzanie komputerowych systemów z równoległymi wieloprocesorami<br />

i tolerowaniem uszkodzeń)<br />

dr MIECZYSŁAW DRABOWSKI<br />

Cracow University of Technology, Faculty of Electrical and Computer Engineering<br />

The management of computer systems [1,2] is an issue the<br />

basic objective of which is to find an optimum solution, satisfy<br />

the requirements and limitations enforced by the given specification<br />

of operations (tasks) and resources. The following criteria<br />

of optimality are usually considered: the costs of planning in<br />

execution of operations, its operating speed and reliability. The<br />

problems of operations and resources scheduling are one of<br />

the most significant issues occurring at the procedure planning<br />

of operating system responsible for controlling the distribution<br />

of tasks and resources in computer systems. The problem of<br />

control in resources requires the list of available hardware resources<br />

- the set describing resources - which can be used to<br />

realization of operations. The starting point for constructing our<br />

approach to the issues of fault tolerance system is the deterministic<br />

theory of task scheduling [3]. Accordingly, decomposition<br />

of the general task scheduling model is suggested,<br />

adequate to the problems of fault tolerance system [4]. We will<br />

discuss the system: ∑={R,T,C}, where: R - resources, T - tasks<br />

and C - optimality criteria. We assume that processor set<br />

P={P 1 ,P 2 ,…,P m } consists of m elements and additional resources<br />

set A = { A 1 ,A 2 ,…,A p } consist of p elements). We consider<br />

a set of n tasks to be processed with a set of resources<br />

38 ELEKTRONIKA 11/<strong>2009</strong>


and the set of tasks is divided into 2 subsets [5]: T 1 =<br />

{T 1 1 ,T 2 1 ,…,T n1 1 }, T 2 = {T 1 2 ,T 2 2 ,…,T n2 2 }, n = n1 + n2 and each<br />

task T i 1 (i = 1,2,…,n1) requires one arbitrary processor for its<br />

processing and its processing time is equal to t i 1 , however each<br />

task T i 2 (i = 1,2,…,n2) requires 2 arbitrary processors simultaneously<br />

for its processing during a period of time whose length<br />

is equal to t i 2 ; thus, tasks T i 2 are called width-2 tasks or T 2 -<br />

tasks. We shall assume its minimum cost and maximum operating<br />

speed. The proposed model may be used for defining<br />

problems for fault tolerance system. The model of a system in<br />

this approach, typical for the theory of task scheduling, consists<br />

of a set of operations (tasks) and existing relationships between<br />

them (related to their order, required resources, time, readiness<br />

and completion deadlines, priority etc.).<br />

The management procedure contains the following<br />

phases: identification of hardware and software resources for<br />

task execution, defining the processing time, defining the conflict-free<br />

task schedule and defining the level of resource cosharing<br />

and the degree of concurrency in task performance.<br />

A schedule is called feasible if, besides the usual conditions,<br />

each task T i 1 is processed by one processor and each task T i<br />

2<br />

is processed by 2 processors at a time. A feasible schedule is<br />

optimal, if its length is a minimum and it is implemented using<br />

minimum resource cost. Each task is defined by a set of parameters:<br />

resource requirements, execution time, ready time<br />

and deadline, attribute - preemptable or nonpreemptable. The<br />

tasks set may contain defined precedence constraints represented<br />

by a digraph with nodes representing tasks, and directed<br />

edges representing precedence constraints. If there is<br />

at least one precedence constraint in a task set, we shall refer<br />

it to as a set of dependent tasks; otherwise they are a set of<br />

independent tasks. Let us assume that fault tolerance system<br />

resources include universal parallel processors and other specialized<br />

resources. As for tasks, we assume one-processor<br />

tasks used for modeling usable preemptable/nonpreemptable<br />

and dependent tasks, and two-processor tasks, for which we<br />

assume time and resource. Two-processor tasks model the<br />

system testing tasks (e.g. one processor checks the other).<br />

Testing tasks may be dependent on the defined time moments<br />

of readiness to perform and to complete assigned tasks. Twoprocessor<br />

tasks may realize a defined strategy of testing<br />

a computer system and its fault tolerance characteristics.<br />

In fault tolerance systems an appropriate strategy of selftesting<br />

during regular exploitation must be provided. In general,<br />

architectures of fault tolerance computer systems are<br />

multiprocessor ones. The objective of operating systems in<br />

multiprocessor systems is scheduling tasks and their allocation<br />

to system resources. For fault tolerance systems, this<br />

means scheduling usable and testing tasks, that should detect<br />

errors of executive modules, in particular processors. As<br />

a result of testing, the operating system may receive the information<br />

about incorrect operation and may locate, by the<br />

proper analysis, a faulty module automatically. Consequently,<br />

the operating system can make a decision about repair strategy,<br />

for instance system reconfiguration (ignore damaged resources<br />

for execution of tasks). The management of networks<br />

with multiprocessors and fault tolerance consists of following<br />

stages (Fig. 1).<br />

So far [6] resources selection, task scheduling and task<br />

and resources allocation have been realized independently in<br />

sequence: in the first place resource division and tasks scheduling<br />

next - Fig. 2.<br />

In this paper is presented approach, in which resources<br />

selection, task scheduling, allocation of tasks and resources,<br />

as well as system optimization are realized coherently - Fig. 3.<br />

In concurrent approach once the tasks have been scheduled<br />

and allocated, the resources are reselected, changing<br />

the ones chosen previously, in search of a satisfactory solution<br />

meeting all the established criteria.<br />

This concurrent approach - presented in this paper - based<br />

on two algorithms behaving variously in different ways lets you<br />

not only find the sub-optimal solution, but also verify this solution.<br />

Presented algorithms let us find the solution, but at the same<br />

time they let us evaluate the algorithms themselves. This way<br />

we can tell which of the algorithms is faster in finding better and<br />

better solutions, which algorithm is more tolerant to modifications<br />

of system parameters, and also which of them enables fast adaptation<br />

to new parameters, while the system changes dynamically.<br />

Fig. 1. The management of system with multiprocessors and fault<br />

tolerance<br />

Rys. 1. Zarządzanie wieloprocesorowym systemem komputerowym<br />

z tolerancją uszkodzeń<br />

Fig. 2. Independent allocation resource and scheduling of task<br />

Rys. 2. Niezależne alokacje zasobów i szeregowanie zadań<br />

Fig. 3. Concurrent allocation resource and scheduling of task<br />

Rys. 3. Współbieżne alokacje zasobów i szeregowanie zadań<br />

ELEKTRONIKA 11/<strong>2009</strong> 39


Example of concurrent resource<br />

allocation and task scheduling<br />

Let us discuss a simple example for management of multiprocessors<br />

system with fault tolerant where assuming that<br />

tasks (with applications requirements) of the system are given<br />

by the tasks graph. The digraph presented in Fig. 4 defines<br />

the precedence constraints of tasks of the modeled system.<br />

Fig. 4. Task digraph Rys. 4. Graf zadań<br />

The optimality criterion is the minimum of the task processing<br />

time, i.e. a minimum of the task schedule length. An<br />

additional criterion is cost, related to the number of used resources.<br />

We shall define constraints of the resources available.<br />

Compilation of all operations [6] of the system, the<br />

characteristics of available resources and database (with resource<br />

allocations in the past) give us the times of task processing<br />

(we assume conventional time units).<br />

We assume the following times of individual tasks for a<br />

standard processor: t 0 = 3, t 1 = 2, t 2 = 2, t 3 = 1, t 4 = 3, t 5 = 3,<br />

t 6 = 4, t 7 = 3, t 8 = 1, t 9 = 1. Let us assume that the cost of one<br />

executive module is:<br />

C = C P + i • C M (1)<br />

where: C P - processor cost, C M - memory module cost,<br />

i - number of memory modules.<br />

The requirements for realizing all operations of the system<br />

shall be specified as follows:<br />

• the acceptable deadline for performing all tasks without any<br />

delays is 13 time units;<br />

• it is necessary to perform task T 6 indivisibly in time;<br />

• it is necessary to provide a deadline for task T 6 equal<br />

9 time units;<br />

• the desirable deadline for performing all tasks without any<br />

delays is at most 10 time units.<br />

The cost of the system should be as low as possible, and<br />

the structure conformable to the fault tolerance system model<br />

with two-processor testing tasks. We shall denote processor<br />

testing tasks by T gh , if processor P g is testing processor P h .<br />

The first step of the planning has to determine the number<br />

of parallel processors needed for the execution of all requirements<br />

and constraints. The structure of four parallel<br />

processors shall be assumed. This structure of a fault tolerance<br />

the system satisfying the requirement “1.” is shown in<br />

Fig. 5 (variant a).<br />

Fig. 5. Structures of fault tolerance multiprocessor system<br />

Rys. 5. Struktury wieloprocesorowe z tolerancją uszkodzeń<br />

The optimum tasks schedule for such architecture is presented<br />

in Table 1. Taking into account the requirement “2.”,<br />

a correction is done to the task schedule. The system structure<br />

and costs remain unchanged.<br />

The next requirement “3.” is reflected in a corrected<br />

schedule presented in Table 1. Please notice that the system<br />

architecture and costs remain unchanged. Only tasks schedule<br />

is modified.<br />

In order to carry out the requirement “4.”, a change of the<br />

system structure is necessary. Two variants of the structure<br />

shall be proposed. The first structure consists of five identical<br />

parallel processors, with two-processor testing tasks Fig. 2 -<br />

variant b). Task schedule in such structure is depicted in<br />

Table 2 (variant b). In the second variant, a specialized module<br />

(ASIC - if is available) is applied that can perform the<br />

Tabl. 1. Schedule of task in a four-processors (structure: variant a) satisfying<br />

the requirement “1.”= (1) and “1.”+”2.”+”3.” = (3) (X - idle time)<br />

Tab. 1. Uszeregowanie zadań na 4 procesorach (struktura: wariant a)<br />

zgodnie z wymaganiami ”1.” = (1) i “1.”+”2.”+”3.” = (3) (X - czas przestoju<br />

procesora)<br />

time P1 (1) P2 (1) P3 (1) P4 (1) P1 (3) P2 (3) P3 (3) P4 (3)<br />

1 T12 T12 T0 X T12 T12 T0 X<br />

2 T0 T23 T23 X T0 T23 T23 X<br />

3 T0 X T34 T34 T0 X T34 T34<br />

4 T13 T1 T13 T2 T13 T1 T13 T2<br />

5 T1 T24 T2 T24 T1 T24 T2 T24<br />

6 T31 T4 T31 T3 T31 T6 T31 T3<br />

7 T14 T4 T5 T14 T14 T6 T5 T14<br />

8 T21 T21 T4 T6 T21 T21 T4 T6<br />

9 T7 T32 T32 T6 T7 T32 T32 T6<br />

10 T41 T6 T5 T41 T41 T4 T5 T41<br />

11 T7 T42 T5 T42 T4 T42 T5 T42<br />

12 T6 T8 T43 T43 T6 T8 T43 T43<br />

13 T12 T12 T7 T9 T12 T12 T7 T9<br />

Tabl. 2. Schedule of tasks in a five-processors (structure: variant b)<br />

and in a three-processors with specialized ASIC processor (structure:<br />

variant c) satisfying the requirements “1.”+”2.”+”3.”+”4.” (X - idle time)<br />

Tab. 2. Uszeregowanie zadań na 5 procesorach (struktura: wariant b)<br />

i na 3 procesorach z procesorem specjalizowanym ASIC (struktura<br />

wariant c) zgodnie z wymaganiami “1.”+”2.”+”3.” +”4.” (X - czas przestoju<br />

procesora)<br />

time P1 (b) P2 (b) P3 (b) P4 (b) P5 (b) P1 (c) P2 (c) P3 (c) ASIC (c)<br />

1 T12 T12 X T0 X T12 T12 X T0<br />

2 X T23 T23 T0 X T2 T23 T23 X<br />

3 X X T34 T34 T0 T13 T2 T13 X<br />

4 T1 T2 T6 T45 T45 T21 T21 T6 T4<br />

5 T13 T2 T13 T1 T6 T1 T32 T32 T6<br />

6 T3 T24 T5 T24 T6 T31 T1 T31 X<br />

7 T4 T5 T35 T6 T35 T12 T12 T3 T5<br />

8 T14 T5 T4 T14 T7 T8 T23 T23 T7<br />

9 T9 T25 T4 T7 T25 T13 T13 T9 X<br />

10 T15 T8 T9 T7 T15 X X X X<br />

11 T21 T21 X X X X X X X<br />

12 X T32 T32 X X X X X X<br />

13 X X T43 T43 X X X X X<br />

40 ELEKTRONIKA 11/<strong>2009</strong>


tasks: T 0 , T 4 , T 5 , T 6 and T 7 with a triple speed (as compared<br />

to the standard universal processor). The system structure<br />

and schedule are shown in Fig. 5 (variant c) and Table 2 (variant<br />

c), respectively. Please notice, that in such variant the<br />

specialized resource is assigned no function in the time period<br />

2-3, 6 and 9, and the universal processor completes processing<br />

of usable tasks in 9 time units, while ASIC processor<br />

completes performing its function in 8 time units. Accordingly,<br />

the required deadline was reached in 9 units.<br />

The cost of the other structure shall be estimated as follows.<br />

If we assume that each usable task performed by a universal<br />

processor needs one memory unit dedicated to such<br />

task, and task assigned to ASIC processor do not need dedicated<br />

memory units the system cost is:<br />

C S = m • C P + n u • C M + p • C ASIC (2)<br />

where: m - the number of identical parallel processors, n u - the<br />

number of tasks assigned to universal processors, p - the number<br />

of specialized ASIC processors devoted for processing remaining<br />

n - n u tasks. For the requirements: “1.”, “2.”, “3.”, “4.”: m =<br />

4, n u = 10, p = 0. For the requirements: “1.” + “2.” + “3.” + “4.”, in<br />

the first variant, m = 5, n u = 10, p = 0. In the second variant, where<br />

one ASIC processor is applied, m = 3, n u = 6 and p = 1.<br />

The paper describes concurrent allocation of resources<br />

and of tasks in complex frameworks. Moreover, this paper<br />

presents simple, practical example of synthesis and management<br />

of system with fault tolerance. The strategy of self testing<br />

based at multiprocessors structure and application of<br />

two-processors tasks.<br />

This work was supported by the Polish Ministry of Science and<br />

High Education as a 2007-2010 research project.<br />

References<br />

[1] Blazewicz J., Ecker K., Plateau B., Trystram D.: Handbook on<br />

parallel and distributed processing. Springer-Verlag, Heidelberg<br />

(2000).<br />

[2] Nabrzyski J., Schopf J., Weglarz J.: Grid Resource Management:<br />

State of the Art and Future Trend. Kluwer Academic Publishers,<br />

Boston (2003).<br />

[3] Coffman E. G., Jr.: Computer and Job-shop scheduling theory.<br />

John Wiley&Sons, Inc. New York (1976).<br />

[4] Blazewicz J., Drabowski M., Weglarz J.: Scheduling multiprocessor<br />

tasks to minimize schedule length. IEEE Trans. Computers<br />

C-35, No.5, pp. 389-393 (1986).<br />

[5] Blazewicz J., Ecker K., Pesch E., G. Schmidt, Węglarz J.: Handbook<br />

on scheduling. Springer-Verlag, Heidelberg (2007).<br />

[6] Dick R. P., Jha N. K., MOGAC: A Multiobjective Genetic Algorithm<br />

for Hardware-Software Cosynthesis of Hierarchical Heterogeneous<br />

Distributed Embedded Systems. in: IEEE<br />

Transactions on Computer-Aided Design of Integrated Circuits<br />

and Systems, vol. 17, no 10, pp. 920 - 935 (1998).<br />

[7] Golub M., Kasapovic S.: Scheduling multiprocessor with genetic<br />

algorithms. Proceedings of the IASTED Applied Informatics Conference,<br />

Innsbruck (2002).<br />

[8] Hyunok Oh., Soonhoi Ha.: Hardware-software cosynthesis of<br />

multi-mode multi-task embedded systems with real-time constraints.<br />

Proceedings of the IEEE/ACM Conference on Hardware<br />

Software Codesign, Estes Park, Colorado, (2002).<br />

[9] Yhang Z., Dick R., Chakrabarty: Energy-aware deterministic fault<br />

tolerance in distributed real-time embedded systems. 41st Proc.<br />

Design Automation Conf., Anaheim, California, (2004).<br />

The security level of particular blind<br />

steganographic systems<br />

(Zabezpieczenie określonego poziomu niewidoczności<br />

w systemach steganograficznych)<br />

prof. dr hab. inż. JERZY KOROSTIL, mgr inż. ŁUKASZ NOZDRZYKOWSKI<br />

Faculty of Computer Science, West Pomeranian University of Technology, Szczecin<br />

Steganographic hidden messages in digital graphic image should<br />

not lead to visible distortions in the resulting image [1,2]. There<br />

are many methods of reducing the occurrence of distortion. One<br />

of these methods is presented in the article [3], where by using of<br />

specified threshold values it rejects blocks which statistical metrics<br />

reveal the existence of a single structure. Hidden messages<br />

in such block would result in the occurrence of visible distortions.<br />

This article proposes the utilization of human visual perception<br />

and its limits that the message is hidden below the<br />

threshold of human vision. It enables the examination of proposed<br />

steganographic methods to ensure a proper level of<br />

concealment of hidden message.<br />

Determining the size of distortions<br />

caused by steganographic hiding<br />

messages<br />

Steganographic hiding messages in digital images can cause<br />

significant distortion of the resulting image, what disqualifies<br />

the method or the picture in which the data are hidden. Particularly<br />

important are the distortions visible by the human<br />

eye. It can take different measures to determine the changes<br />

which arise as a result of steganographic algorithm, and what<br />

does not always reflect the actual level of distortion visible to<br />

human being.<br />

ELEKTRONIKA 11/<strong>2009</strong> 41


Considering human visual perception<br />

for determination of distortion<br />

One of the indicators defining the quality of images and the<br />

level of introduced distortions is a coefficient PSNR (Peak Signal<br />

to Noise Ratio). Good quality images with hidden messages<br />

have the coefficient of PSNR ≥ 30 [4]. The<br />

disadvantage of this index is low correlation with visual perception<br />

of a recipient. In studies of human vision for evaluation<br />

of the quality of vision two measures are used: visual acuity<br />

and contrast threshold [5].<br />

Visual acuity, called VISUS determines the size of the smallest<br />

character called optotype, which is correctly recognized by<br />

human from a certain distance. This measure determines the<br />

fraction of Sandella, which is the quotient of the distance from<br />

the test chart to the distance from which the optotype is recognized<br />

at 5 minutes angle. Visus measure equals 5/5 signifies<br />

correct human sight. If Sandella fraction is 5/15 it means person<br />

with poor sight. [5]. If the visual acuity is 1 (6/6) then the spatial<br />

frequency is 20/20 cycle/degree. If the visual acuity is 0.1 (6/60)<br />

then the spatial frequency is 20/200 cycle/degree.<br />

Examination of visual acuity is held at maximum contrast,<br />

where optotype having a black color is placed on a white<br />

background. Because the conditions of the observation usually<br />

do not allow the observations at maximum contrast therefore<br />

more important measure for determining the quality of<br />

sight is the contrast [5].<br />

Contrast characterizes the degree of distinguishing of the<br />

subject from the background and the clarity of its details. Contrast<br />

measure can be calculated based on relation (Michaelson’s):<br />

(1)<br />

2.5%, 1.25%, 0.6%. In this way optotype chart is used for<br />

examining the acuity as a chart for examining the sensitivity of<br />

an eye to changes of contrast. If recognized contrast is 2.5%<br />

then contrast sensitivity is 100/2.5 = 40 and if it is 0.6% equals<br />

100/0.6 = 167 respectively.<br />

The changes of contrast are noticeable between the acuity<br />

values of 0 (high optotype symbols) and 1 (small optotypes).<br />

All changes in contrast above 1 (20/20 cycle/degree)<br />

are imperceptible. Hiding information in the area above<br />

1 cycle/degree does not lead to visible distortions in the resulting<br />

image. The biggest changes are noticeable in the area<br />

of visual acuity for optotypes 0.03 (20/600) and 0.1 (20/200),<br />

where the contrast sensitivity is the greatest.<br />

A modified form of the determination of invisibility to the<br />

human eye of the fact of steganographic hidden messages in<br />

pictures is the utilization of standardized contrast sensitivity<br />

function CSF proposed by Manos and Sakrisona [8]. This<br />

function is defined in formula:<br />

This function indicates the sensitivity of the human eye to different<br />

frequency of visual impulses, which expresses the contrast.<br />

The higher frequency of impulse changes, the worse<br />

pattern recognition. Recognizing patterns is also aggravated<br />

in case of rare impulse changes. Maximum sensitivity is additionally<br />

dependent on viewing angle. If the viewing angle will<br />

decrease, extreme of the function moves slightly towards<br />

higher frequencies. In case of increase of viewing angle, the<br />

extreme moves in the other direction [8]. Contrast sensitivity<br />

chart is shown in Fig. 1.<br />

(3)<br />

where: I max means an object with maximum brightness and<br />

I min the object with minimum brightness. Contrast equals<br />

1 means a black object on a white background. Contrast with<br />

lower values means gray object on a gray background. When<br />

K = 0 then the object is imperceptible from the background.<br />

The ability to recognize complex objects determines the sensitivity<br />

to contrast function. This function determines the contrast<br />

scale at what certain optotype is recognizable. Contrast<br />

sensitivity relation is expressed in a formula:<br />

C=1/K p (2)<br />

where: K p defines the contrast threshold. It sets the limit of<br />

discrimination of the observed object from the background [5].<br />

The relation between sensitivity and contrast and the scale of<br />

optotype represents the contrast sensitivity function. This<br />

function is presented in a logarithmic scale in regard of its high<br />

value of contrast sensitivity and non-linear characteristics. It<br />

allows estimation of a degree of deterioration in sight efficiency<br />

at reduced contrast. Its shape determines the test<br />

charts with optotypes of different contrast against background.<br />

Contrast sensitivity can be examined using an optotypes chart<br />

with use of two charts [6]:<br />

• with symbols of the same size, but with variable contrast<br />

(Pelli-Robson chart [7]),<br />

• with symbols of the same level of contrast, but with a variable<br />

size of letters.<br />

Chart (2) for examining the contrast sensitivity is created<br />

on the basis of visual acuity examination charts by taking rows<br />

of all sizes of letters to a relevant level of contrast. Contrast<br />

levels for optotype chart are as follows: 100%, 25%, 10%, 5%,<br />

Fig. 1. Optotype chart to examine the sense of contrast<br />

Rys. 1. Tablica optotypów do badań poczucia kontrastu<br />

Fig. 2. The graph on the contrast sensitivity function [5]<br />

Rys. 2. Wykres funkcji wrażliwości na kontrast [5]<br />

42 ELEKTRONIKA 11/<strong>2009</strong>


According to presented function CSF reaches crest value<br />

at about f = 8, in turn frequencies above 60 cycles per degree<br />

(angle equal to 1) are meaningless. Above f = 60 the human<br />

eye does not distinguish any changes [6].<br />

This function is based on a strip acuity and covers much<br />

larger sight view than optotype one. In addition another part of<br />

the brain deals with it. Therefore a variable strip values should<br />

not be transferred into those deriving from optotype charts (9)<br />

Noise as a hidden message in the image<br />

There are a wide range of algorithms of hiding information in<br />

the image. In order to provide independence from a chosen algorithm<br />

or the method of hiding information in pictures itself,<br />

the fact of concealment can be simulated by adding noise to<br />

the image input. The noise can be generated using different<br />

types of distribution. Hereinafter to the images Poisson and<br />

Gaussian noise will be added.<br />

Poisson noise is generated on the basis of samples that<br />

have a Poisson distribution. Parameter of this distribution is λ,<br />

and it identifies the expected value. Poisson distribution is defined<br />

by the equation:<br />

Another type of noise is Gaussian noise called white noise.<br />

The noise of this type constitutes string of random variables<br />

that have zero expected value and constant variance. Gaussian<br />

noise determines the function:<br />

where: σ - standard deviation, µ - expected value.<br />

Generated noise can be added to the image and consequently<br />

the simulation of steganographic addition of secret information<br />

to the image can be obtained.<br />

Determining the message visibility using<br />

the characteristics of human visual<br />

perception<br />

Two types of noise are used in the studies to simulate<br />

steganographic hiding information in digital color images.<br />

There were the noise of the Gauss and Poisson distribution.<br />

To determine the level of distortion the standardized contrast<br />

sensitivity function is used. For the studies, from many<br />

color digital image measures the contrast’s been chosen because<br />

its changes better reflects the visibility of changes introduced<br />

in the image [5]. Such an application of quality<br />

evaluation methods of the image can be easily adapted to any<br />

steganographic algorithm e.g. based on DCT transform and<br />

modification of its coefficients in order to hide the message [3].<br />

By determination of the frequency of visual impulses the<br />

power of distortion that generates hiding of the message can<br />

be calculated.<br />

The best type of images used for steganography purposes<br />

are 24-bit images, which feature is natural noise [2]. In the<br />

studies hiding information in a given RGB image color was<br />

simulated with the aid of noise addition. For example a red<br />

color image can be chosen. This choice is dictated by the fact<br />

that the human eye is the most susceptible to changes in<br />

green color; in turn concealing information in blue color can<br />

cause a loss of secret messages during dissipative image<br />

(4)<br />

(5)<br />

compression. The image was divided into blocks of 8 x 8 pixels<br />

on the basis of what the strength of distortion were calculated.<br />

The size of the block simulated usually met size of<br />

blocks in steganographic algorithms.<br />

Added noise can set a variable power of inserting messages<br />

causing more or less distortion. This modification can<br />

be made by changing the parameters of the generated noise.<br />

The strength of distortions and its visibility can be determined<br />

with use of CSF function on the basis of a comparison<br />

of the source and resulting image.<br />

This simulation can be described as following. In selected<br />

color for entire color digital image a certain kind of noise is<br />

added with certain parameters. Noise is considered as a hidden<br />

message in the image. By determining contrast changes<br />

in individual pixels and use of standardized contrast sensitivity<br />

function it can be concluded whether given message (the<br />

noise here) caused increased number of visible changes in<br />

the resulting image in compare to the source image.<br />

For an image with a hidden message (noise inserted)<br />

change of contrast DK can be defined by equation:<br />

DK = DP’ - DP (6)<br />

where: DP determines change of contrast between the blocks<br />

in the source image and DP’ determines change of contrast<br />

between the same blocks in the resulting image with hidden<br />

message. The change in contrast between adjacent blocks of<br />

the original image is determined by the equation:<br />

DP = |K 1 - K 2 | (7)<br />

where: K 1 and K 2 means the contrast of two adjacent blocks<br />

of the image chosen to hide the message. The change in contrast<br />

between adjacent blocks of the resulting image is determined<br />

by the equation:<br />

DP’ = |K’ 1 - K’ 2 | (8)<br />

where: K’ 1 and K’ 2 are the contrasts of two adjacent blocks of<br />

the noised image.<br />

If change of contrast DK between the source and the resulting<br />

image lies above contrast graph CSF (3) or in range of<br />

volume change for given optotype in the simplified model<br />

(Fig. 4), it can be concluded that changes of contrast between<br />

the blocks are imperceptible.<br />

Control of visibility and thus the strength of hiding steganographic<br />

messages can be run by the volume of changes between<br />

the levels of contrast on the optotype chart.<br />

Fig. 3. Visibility of changes in image contrast determined by the<br />

change<br />

Rys. 3. Widoczność zmian w obrazie określona przez zmianę<br />

kontrastu<br />

ELEKTRONIKA 11/<strong>2009</strong> 43


a)<br />

Fig. 4. Source image<br />

Rys. 4. Obraz źródłowy<br />

can cause visible distortions. Images with the added noise are<br />

shown in Fig. 5.<br />

After adding Gaussian noise received information that:<br />

• number of blocks of recognizable changes of contrast:<br />

5562,<br />

• number of blocks of invisible changes of contrast: 6726.<br />

By adding Poisson noise to the source image obtained information<br />

that:<br />

• number of blocks of recognizable change of contrast: 5733,<br />

• number of blocks of invisible changes of contrast: 6555.<br />

In both cases the number of blocks, in which visible<br />

changes can be seen significantly increased, what reflecting<br />

the reality of distortions introduced by the noise.<br />

It is also worth noting that usage as the sensitivity parameter<br />

of visibility criterion to changes in contrast allows controlling<br />

the strength of inserting messages. This can be done<br />

by local increase or reduction of data amount hidden in selected<br />

piece of the image in a way that the distortion level was<br />

below human eye sensitivity to local changes of contrast. Introduction<br />

of changes by adding noise to the source image<br />

(hiding messages) may not cause visible changes within a single<br />

block, but it can cause changes in comparison to the<br />

image of adjacent blocks in resulted image.<br />

Summary<br />

b)<br />

Steganographic hiding information in images should not cause<br />

visible distortions to the human eye. The fact of hidden message<br />

can be regarded as noise, which is different for particular<br />

algorithms. Application of quality evaluation methods of the<br />

images based on the human eye perception, such as contrast<br />

threshold and contrast sensitivity function allows the determination<br />

of the quality of the resulting images and the steganographic<br />

method used whether it ensures required level of<br />

invisibility of hidden message.<br />

In addition by evaluating the quality of the source image it<br />

can be judged whether a certain picture is useful for hiding the<br />

information in or which areas are not suitable for this purpose.<br />

References<br />

Fig. 5. The image of the added noise: a) Gaussian noise, b) Poisson<br />

noise with λ = 0.1<br />

Rys. 5. Obraz z dodanym szumem: a) szumem Gaussa, b) szumem<br />

Poissona z λ = 0,1<br />

For example for a typical image with the town view shown<br />

in Fig. 4, with a size of 1024 x 768 pixels it can get data:<br />

• number of blocks of recognizable changes of contrast: 3742,<br />

• number of blocks of invisible changes of contrast: 8546.<br />

Number of blocks of imperceptive contrast to the human<br />

eye signifies the uniform areas. In these areas it should not<br />

make changes because the steganographic algorithm action<br />

[1] Bailey K. et al: An evaluation of image based steganography<br />

methods; Multimedia Tools and Applications vol. 30, Issue: 1,<br />

July 2006, pp. 55-88.<br />

[2] Conway M.: Code wars: Steganography, signals intelligence, and<br />

terrorism Knowledge; Technology & Policy vol. 16, Issue: 2, June<br />

2003, pp. 45-62.<br />

[3] Korostil J. et al: Opracowanie rozproszonego klucza steganograficznego.<br />

XII Sesja Naukowa Informatyki, Metody Informatyki<br />

Stosowanej. Kwartalnik Komisji Informatyki PAN Oddział<br />

w Gdańsku, nr 1/2008 (Tom 13), Szczecin 2008, ss. 75-82.<br />

[4] Obiektywne metody oceny jakości sygnału wideo. http://cygnus.<br />

tele.pw.edu.pl/dymarski/ptmt-old/video_quality.doc.<br />

[5] Zając M.: Funkcja wrażliwości na kontrast jako miara jakości<br />

widzenia; III Kongres Optyków zrzeszonych w Krajowej<br />

Rzemieślniczej Izbie Optycznej. Zakopane 2001.<br />

[6] Pyka K.: Uwarunkowania fizjologiczne i techniczne wpływające<br />

na percepcję obrazu obserwowanego na ekranie monitora.<br />

http://home.agh.edu.pl/~zfiit/publikacje_pliki/Pyka_2005b.pdf.<br />

[7] Pelli D.G. et al.: The design of a new letter chart for measuring<br />

contrast sensitivity; Vlin. Vision Sci. vol. 2, no 3, 1988, pp.<br />

187-199.<br />

[8] Mannos J. L. et al: The Effects of a Visual Fidelity Criterion on the<br />

Encoding of Images; IEEE Transactions on Information Theory,<br />

vol. 20, no 4, (1974) , pp. 525-535.<br />

[9] Zając M.: Badanie wzroku u dzieci. Seminarium z Optometrii.<br />

Politechnika Wrocławska. Wrocław 2003. ww.if.pwr.wroc.pl/optyka/optometria/seminarium/badanie_dzieci.pdf.<br />

44 ELEKTRONIKA 11/<strong>2009</strong>


The efficient data authentication in Web GIS<br />

(Efektywne uwierzytelnianie danych w systemach Web GIS)<br />

dr WITOLD MAĆKÓW<br />

West Pomeranian University of Technology, Faculty of Computer Science, Szczecin<br />

The web mapping and Web GIS are relatively new phenomena.<br />

They may be treated as a branch of development of classical<br />

GIS (Geographic Information System). On the one hand,<br />

their appearance was forced by increasing public demand for<br />

accessible and fresh spatial data, and on the other hand rapid<br />

development of internet technologies made it possible. Although<br />

terms web mapping and web GIS are often used alternatively,<br />

their meanings is slightly different. Web mapping<br />

is usually understood as a process of designing, generating<br />

and distributing spatial data in form of a map across internet.<br />

Web GIS basses on the similar foundations, but the special<br />

emphasis is put on possibility on processing and analyzing of<br />

spatial data by end user [1]. Sometimes web mapping may be<br />

treated as a frontend of more sophisticated web GIS system.<br />

The one of the major advantages of web GIS systems over<br />

traditional ones is access to up-to-date data using relatively<br />

chip hardware and software. Results accessible for end user<br />

could be a combination of different, distributed data sources,<br />

real-time processed (for example data from weather stations or<br />

information about traffic on motorways). There are also some<br />

advantages typical for internet systems: cross-systems and<br />

cross-browsers portability or possibility of resulting map usage<br />

as a hub for hyperlinks or multimedia data. The most of currently<br />

available web mapping solutions allow customization of<br />

maps (for example layers styling thanks to SLD [4]) and user<br />

interface by end user, what is an additional advantage.<br />

Thanks to described features web GIS systems are suitable<br />

for realtime maps (for example weather maps or traffic<br />

maps) in urban and regional planning (for example presenting<br />

planned investments to the public) or in classical task like routing,<br />

address matching or location based services.<br />

Despite all mentioned advantages web GIS architecture<br />

is not free from problems. The reliability of these systems depends<br />

directly on reliability of network components and still is<br />

unsatisfying. High complexity of the architecture is a serious<br />

problem on project and implementation stages. Additionally<br />

some kinds of geodata are rather expensive (for example geodesic<br />

materials) what results in price growth of such solutions.<br />

Geodata privacy, security and authenticity are almost<br />

completely ignored, also. There’s a few initiatives in the field<br />

of geodata access control (for example GEO-RBAC or<br />

GeoSpatial Authorization Model [3]) but generally security and<br />

safety of web GIS isn’t treated seriously enough.<br />

Potential security threats<br />

There’s no particular obligatory architecture of Web GIS system.<br />

The same software modules give us an opportunity to<br />

create almost infinite set of different architectures (both client<br />

and server side). Usually final architecture is drawn up on the<br />

base of some kind of template to solve specific problem.<br />

However we could point some type of core of Web GIS architecture<br />

and describe a few permanent elements of this architecture<br />

(Fig. 1). Server and client communicate via the<br />

Internet. Usually standard Web browser is used on the client<br />

Fig. 1. Basic Web GIS architecture<br />

Rys. 1. Podstawowa architektura Web GIS<br />

side, sometimes with additional JavaScript libraries (i.e. Open-<br />

Layers: http://openlayers.org/) or Java applets. On the server<br />

side at least mapping server module is present (i.e. Geoserver:<br />

http://geoserver.org/display/GEOS/Welcome), which is responsible<br />

for creating responses to client requests (i.e. in form<br />

of generated parts of a map). Clients can communicate with<br />

server directly (i.e. via SOAP) or with help of additional Web<br />

Server. The mapping server prepares responses for clients on<br />

the base of information collected in dedicated databases (i.e.<br />

Postgis technology: http://postgis.refractions.net/), information<br />

gathered as ready vector or raster maps or information provided<br />

by another mapping servers.<br />

The one of the most interesting from many currently<br />

being developed web maping standards is Web Map Sevice<br />

(WMS) published by Open Geospatial Consortium (OGC)<br />

[6]. WMS server should serve at least two mandatory types<br />

of client requests:<br />

• GetCapabilities - which returns information about this<br />

server and the available map layers;<br />

• GetMap - which returns for provided parameters map combined<br />

by server from some different data; map may be returned<br />

in form of raster image (i.e. JPEG, PNG, GIF) or<br />

vector graphic (i.e. Scalable Vector Graphic SVG or Web<br />

Computer Geographic Metafile WebCGM); map format depends<br />

on server capabilities and provided parameters;<br />

The basic WMS standard is extended by Web Feature<br />

Service (WFS) [5], enabling clients to modify geodata stored<br />

by mapping server.<br />

GetMap command will be most important in case of WMS<br />

standard usage. During the session client sends many requests<br />

of this type to the Server, changing formal parameters<br />

only. Each map moving, zooming, changing layers visibility,<br />

etc. imply generation of new map by server, which should be<br />

send to the client again.<br />

ELEKTRONIKA 11/<strong>2009</strong> 45


The client may be interested on authenticity verification of<br />

received geodata. Server communicates simultaneously with<br />

many clients, and each client generates many requests during<br />

his session. In such situation standard methods of securing<br />

data authenticity are not suitable, digital signing of each<br />

response wouldnt be effective. The proposal of efficient data<br />

authentication method relevant to the described Web GIS architecture<br />

is presented in the next section.<br />

Data authentication schema<br />

The most of communication in described model is confined to<br />

receiving by client geodata or ready map fragments from<br />

server (e.g. by WMS GetMap call), how it was mentioned<br />

above. Presented scheme should enable authenticity verification<br />

of geodata received from server. Whole communication<br />

process between client and server, which is referred to as<br />

a session, consists of geodeta transmission stage, authenticity<br />

proofs publication stage and received geodata authenticity.<br />

We assume that during one session client may ask for and<br />

receive geodata many times, but authenticity verification is<br />

done once at the end of the session. Process of proofs publication<br />

is done in fixe time intervals, independently of running<br />

sessions. Server serves simultaneously many session, potentially<br />

with different clients.<br />

Downloading geodata from server<br />

Course of i-th session between client C and server M is presented<br />

in Fig. 2. For our schema we introduces following symbols:<br />

C - client, M - map server, sid i - identifier of i-th session,<br />

q i,j - j-th question during i-th session, α i,j - j-th geodata answer<br />

during i-th session, st i - time of i-th session begining, et i - time<br />

of i-th session ending, ct i - time of i-th session authenticity<br />

proof publication, p i - authenticity proof.<br />

The session is started by a client, which sends to server<br />

StartSession call. As an answer server sends back StartSessionAcknowledgment<br />

with new session identifier sid i and time<br />

of session beginning st i .<br />

Then client begins sending Request calls to the server<br />

(appropriate for particular server type geodata request e.g.<br />

WMS GetMap). Single Request contains of right question q i,j<br />

and current session indetifier sid i . Server sends back<br />

Response for each Request. Single Response contains demanded<br />

geodata α i,j .<br />

The session is ended by a client. It sends to server End-<br />

Session with session identifier sid i . In answer server sends<br />

back EndSessionAcknowledgment, which contain among others<br />

session end time et i and time ct i of next authenticity proofs<br />

publication. In this publication will be present authenticity information<br />

for the session.<br />

Client sends GetSessionProof just after ct i moment of time<br />

(which was pointed by server in EndSessionAcknowledgment)<br />

and in response it receives SessionProof containing p i data<br />

necessary to verification of geodata transmitted in this session.<br />

Server proof publication<br />

The server serves simultaneously many session and many<br />

different clients. It publishes authenticity proofs in fixed time intervals.<br />

The time period between two following publishing<br />

points will be called a round.<br />

We introduce additional symbols: h - cryptographic hash<br />

function, h 2 - two-argument cryptographic hash function, h 3 -<br />

three argument cryptographic hash function, d i,j - in-round<br />

message digest for pair (q i,j , α i,j ), f i,k - k-th round-ending message<br />

digest for i-th session, f i,k - k-th round-ending message<br />

digest for i-th session, s k - round-ending signature, T k - Merkle<br />

hash tree for k-th round, P i,k - path from leaf to root of T k tree<br />

for i-th session.<br />

At the beginning of each session client and server initialize<br />

theirs local copies of first in-round message digest using session<br />

identifier:<br />

During the session for each (q i,j , α i,j ) request/response pair<br />

client and servers creates their local copies of digests:<br />

Optionally client may store in its local archives all pairs<br />

(q i,j , α i,j ) generated during the session and compute right digest<br />

in a moment of geodata authenticity verification.<br />

At the end of the round server checks which sessions were<br />

active during this time period. Then server creates Merkle<br />

hash tree [7], using as leafs last digest of each active in-round<br />

session. Cryptographic functions h and h 2 are used for tree<br />

creation.<br />

Creation of T k tree for k-th round runs as follows. At the<br />

beginning are created digest for first level nodes (leafs):<br />

(1)<br />

(2)<br />

Digest for second level nodes are computed on the bases of<br />

first level nodes values:<br />

This procedure is repeated for each next level (number of levels<br />

depends on number of first level nodes which equel sessions<br />

number). Proccess ends on the last level, which<br />

contains one and only node, accumulating all previous digest<br />

(tree root):<br />

(3)<br />

(4)<br />

Fig. 2. i-th session between client C and server M<br />

Rys. 2 . i-ta sesja pomiędzy klientem C a serwerem M<br />

(5)<br />

46 ELEKTRONIKA 11/<strong>2009</strong>


Fig. 3. Example run of three rounds of i sessions<br />

Rys. 3. Przykładowy przebieg trzech rund z i sesjami<br />

Root is signed by server private key and published:<br />

(6)<br />

There is example run of three rounds of i sessions presented<br />

in Fig. 3.<br />

Geodata authenticity verification<br />

We introduces additional symbol: C i,k - complete to path P i,k (set<br />

of nodes necessary for reconstructing path on the base of d i,last ).<br />

After sending EndSession request client receives from<br />

server information about closing time of current round (time<br />

ct i ). At this pointed moment client sends to server request Get-<br />

SessionProof and gets back information p i necessarry for authenticity<br />

verification of all pairss (q i,j , α i,j ) transmited during<br />

finished session:<br />

(7)<br />

Client reconstructs path from leaf (local copy of f i,k ) to root of<br />

T k tree for i-th session using received complement C i,k . Reconstructed<br />

f’ k root is verified with digital signature:<br />

(8)<br />

Example process of path reconstruction is shown in Fig. 4.<br />

Client wants to verify authenticity of data transmitted during<br />

his 3-th session. It received form server complement C 3,1 =<br />

Fig. 4. Example of P 4,1 path reconstruction<br />

Rys. 4. Przykład rekonstrukcji ścieżki P 4,1<br />

{f 4,1 , f 1:2,1 , f i-3:1,1 }. Client reconstructs f’ 3:4,1 digest from local<br />

copy of digest f’ 3,1 and received digest f 4,1 and continues this<br />

process till obtain root digest f’ 1:i,1 .<br />

Conclusions<br />

The authenticity is today a major problem when dealing with<br />

information transmitted through internet. It’s obvious not every<br />

received data can be trusted. Proposed schema could be successfully<br />

used to publish geodata in authenticated way and to<br />

create proof of their origin. Presented method is simple, safe,<br />

efficient and reliable. It could be easily adapted to into existing<br />

WB GIS architectures.<br />

Implementation of the method should be our next concern.<br />

Currently integration of this schema with Geoserver and<br />

OpenLayers solutions is considered. More examination must<br />

be made to verify methods weaknesses and strengths.<br />

References<br />

[1] Neumann A.: Web Mapping and Web Cartography. Encyclopedia<br />

of GIS, pp.1261-1273, Springer 2008.<br />

[2] Thuraisingham B., Khan L., Subbiah G., Alam A., Kantarcioglu<br />

M.: Privacy and Security Challenges in GIS. Encyclopedia of<br />

GIS, pp. 898-902, Springer 2008.<br />

[3] Ae Chun S., Alturi V., Geospatial Security Models. Encyclopedia<br />

of GIS, pp. 1028-1035, Springer 2008.<br />

[4] http://www.opengeospatial.org/standards/sld, Open GIS Consortium<br />

Inc., Styled Layer Descriptor profile of the Web Map<br />

Service Implementation Specification. OpenGIS® Implementation<br />

Specification, Final version, v. 1.1.0, June 2007, Accessed<br />

20 April <strong>2009</strong>.<br />

[5] http://www.opengeospatial.org/standards/wfs, Open GIS Consortium<br />

Inc., Web Feature Service Implementation Specification.<br />

OpenGIS® Implementation Specification, Recommendation<br />

Paper, v. 1.1.0, May 2005, Accessed 20 April <strong>2009</strong>.<br />

[6] http://www.opengeospatial.org/standards/wms,Open GIS Consortium<br />

Inc., OGC Web Map Service Interface. OpenGIS® Implementation<br />

Specification, Recommendation Paper, v. 1.3.0,<br />

January 2004, Accessed 20 April <strong>2009</strong>.<br />

[7] Merkle R. C.: A certified digital signature. In CRYPTO ’89: Proceedings<br />

on Advances in cryptology, pp.218-238, Springer-Verlag<br />

New York, Inc. 1989.<br />

ELEKTRONIKA 11/<strong>2009</strong> 47


An experiment of implementation of DLP system<br />

working as a Linux kernel loadable module<br />

(Próba implementacji systemu ochrony przed utratą danych (DLP)<br />

pracującego na poziomie jądra dla systemu Linux)<br />

ADAM RAKOWSKI student, dr inż. IMED EL FRAY<br />

Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, Wydział Informatyki<br />

Computerization in business is a fact. A perspective of shortening<br />

the time of document flow between company units, improving<br />

internal communication and enhancement of management<br />

processes is expectation of many managers. Due to increased<br />

role of computers in business, the need of better care of data security<br />

- from physical security till access control is a fact.<br />

Each computerized corporation stores the critical confident<br />

data about its contracts, staff, technology, security procedures<br />

etc... An enterprise shares important data to many people, so<br />

the risk of information leakage caused by disloyality or human<br />

error is significantly increased. Published in 2006 „Deloitte’s<br />

2006 Global Security Survey” [1] tells that the second most frequent<br />

reason of internal IT security violation is data leakage<br />

caused by qualified person (28%). Only the viruses and malware<br />

are the reason of more incidents (31%). The same report<br />

published one year later [2] describes data leakage or intellectual<br />

property theft as the incident happening once in 5% of surveyed<br />

companies, while in 8% of companies - several times.<br />

Due to „CSI Computer Crime and Security Survey” (September<br />

2007) a cost of sacrifice caused by electronic crimes was in average<br />

$345 000 per company, about $175 000 more than a year<br />

before. A global cost of confidential data leakage in company or<br />

data theft caused by qualified person was $13.6 million [10].<br />

DLP systems are a response to data leakage risk caused<br />

by employee working with sensitive data. Current IT business<br />

applications and systems can authorize user and share important<br />

documents to him if administrator allowed him to use<br />

that data. After successful authorization the actions performed<br />

on protected file usually are not traced or logged, system also<br />

is not able to prevent data leakage. There are many possible<br />

channels the thief can use: socket, removable memory, screen<br />

capture or printing. Well working DLP system should prevent<br />

data loss or at least log that try and notify administrator.<br />

Data loss prevention system can be made in one of following<br />

architectures: host control architecture or DLP network.<br />

In first architecture administrator has to install controlling software<br />

on each of computer working in network, where protected<br />

documents are shared. When user logs in the system<br />

and reads from the database set of user’s permissions and<br />

privileges to protected documents, then the system starts tracing<br />

user’s activities. Administrator can set actions performed<br />

in case of policy violation.<br />

DLP network is based on another idea. All the hosts are free<br />

of controlling software, but it is installed on a network gateway,<br />

so the data is analyzed only when tries to get out of network [3].<br />

Data identification<br />

According to DLP definition given by Securosis [4] - an independent<br />

IT security research laboratory - “Products that,<br />

based on central policies, identify, monitor, and protect data at<br />

rest, in motion, and in use, through deep content analysis”.<br />

Most important problem is document comparison and classification<br />

of the file to protected files group. When employee<br />

attempts to send a confidential information to inappropriate<br />

recipient, system has to detect this violation. Trusted DLP application<br />

should recognize also a snippets of protected documents,<br />

or protected files modified a bit, or even encrypted.<br />

Recognition and similarity determination is implemented using<br />

deep analysis, dictionary methods, regular expressions, statistical<br />

methods or watermarks [3,4]. Good DLP implementation<br />

can also extract data from compressed archive and<br />

analyze data the archive contains. Side effect of watermarking<br />

are possible delays in documents access caused by huge<br />

quantity of connections to database [4].<br />

Additional technique can be embedding metadata in protected<br />

file, but in can be cumbersome. Any application working<br />

with such protected file should “know” if this file is<br />

protected or not. It implicates on a DLP system vendor need<br />

of creating dedicated viewers, browsers which can interpret<br />

metadata and edit these documents. Disadvantage of this solution<br />

is that user can use only selected applications, tools and<br />

formats. Better idea could be keeping in memory the information<br />

which files are protected and taking control on external<br />

editor (browser) to inform DLP system that any application<br />

tries to get access to protected file.<br />

Possible scenarios<br />

Fig. 1. A difference between DLP host protection and DLP Network<br />

Rys. 1. Porównanie koncepcji DLP host protection i DLP Network<br />

Available channels of potential data loss are: instant messagers,<br />

chats, e-mail, webmail, sending data by ftp/http, printing confident<br />

data or screen capture. If user knows that supervisor application<br />

use heuristic analysis and similarity comparison, he<br />

should get any ciphering application to save text as encrypted<br />

file, also steganography application could be helpful. DLP system<br />

can trace (and manage with) copies of protected file. The<br />

most terrible scenario may looks like following one.<br />

48 ELEKTRONIKA 11/<strong>2009</strong>


Fig. 2. Possible scenarios of data leakage<br />

Rys. 2. Możliwe scenariusze celowej utraty danych<br />

User takes some screen captures of confident data. Images<br />

are stored in clipboard by default. User copies these images<br />

do graphics editor and perform some changes (cropping,<br />

adding some random points). Performed operations can reduce<br />

the probability of positive matching the screen captures<br />

taken by user in case of embedded watermark in print screen.<br />

Later user writes the screenshots to file and creates encrypted<br />

archive. After all the archive is sent using SSL protocol.<br />

Alternative scenario can be like this: user copies a fragment<br />

of protected text document to clipboard. Then he performs<br />

a simple, reversible obfuscation of this text. Text after<br />

obfuscation is directed to input of steganography application.<br />

The result of this operation is image. This image is sent by instant<br />

messager.<br />

Analysis of example scenarios show how wide range of IT<br />

system has to be mentioned and controlled. It also shows that<br />

protecting only some selected output channels will only delay<br />

the discreditation of DLP system.<br />

Available solutions<br />

Nowadays DLP system can be software implementation (for<br />

Windows) or hardware.<br />

Software implementation are offered by (e.g.): Websense,<br />

RSA, McAffe, Symantec, Nitrobit, Trend Micro i GSS. The<br />

leader of DLP software for Windows is Websence. It’s Data<br />

Security package is made of four fully integrated components:<br />

Data Discover, Data Monitor, Data Protect and Data Endpoint.<br />

System is based on user policies and rules. Policy determines<br />

access range for each group of users to documents (context)<br />

and allowed output channels. The PreciseID technology using<br />

ThreatSeeker solution (determines whether remote source of<br />

data is safe or can be dangerous to computer) makes possible<br />

classifying corporation data on workstation (end-point protection)<br />

and also in whole the Internet.<br />

Controlled channels are network traffic (HTTP, SMTP and<br />

IM) and workstation supervision (removable storages, printing,<br />

print screen, clipboard). Administrator set the policies used in<br />

case of violation. Some of possible actions are force encryption<br />

when writing to removable storage, denial or quarantine [7].<br />

Another solution in data loss prevention comes from Nitrobit<br />

company and is called Policy Extension. Due it’s name<br />

it is a set of policies which extends standard Windows security<br />

policies. This software is available for Windows OS version<br />

2000 to Vista, 32 and 64 bits. It supports removable media,<br />

system registry, services and network storages. Removable<br />

media can be configured using it’s serial number, type and<br />

vendor [8]. Disadvantage is less flexibility of configuration.<br />

Popular solution for Windows platform is security policies<br />

based package LeakProof made by Micro Trend company. It<br />

is made of three components: DataDNA Technology (documents<br />

watermarking), Server and Client module (installed on<br />

employees’ computers). Both DLP network and end-point protection<br />

modes are supported. This software allows to control<br />

removable media, also plugged to COM and LPT ports and<br />

printers. Blocking print screen is also possible.<br />

Features of control: removable media, optical discs drives,<br />

USB memory, e-mail and webmail (also encrypted), HTTPS<br />

and FTP protocols, IM protocols. An interesting feature is controlling<br />

Bluetooth interfaces and WiFi networks. LeakProof can<br />

also work with on- and off-line computers.<br />

System can deny disloyal or absent-minded employee, or<br />

display on his screen a message window with policy information<br />

and message that try of violation is possible. When such<br />

employee tries to move data to removable media, system can<br />

force encryption of file [9].<br />

All the above solutions, despite the fact they can not guarantee<br />

full security of sensitive or confident information, they reduce<br />

the risk of consequences caused by neglect of employees.<br />

For computer geeks hacking DLP system is possible. Main<br />

problem and the topic of this paper is a question why there is<br />

no DLP system for Linux similar to described or released as<br />

Open Source.<br />

Experiment of implementation DLP<br />

solution for Linux<br />

Others also were looking for an answer to this question [5],<br />

we started searching a reason of this fact. General idea of the<br />

experiment was to find out why the vendors of DLP systems<br />

for Windows have not tried to take over the market of DLP solutions<br />

for Linux platform. Is this fact for the reasons of difficulties<br />

related to Linux, or maybe because of unwillingness of<br />

business to Linux caused by many myths about this system?<br />

To find it out, a small DLP system for Linux have been written.<br />

It’s aim is to keep sensitive corporate data within the company.<br />

System PXX works in end-point mode with same laws<br />

for each user. It’s task is to block all the possible output channels<br />

for selected processes to prevent data leakage, but without<br />

making any problem to user. PXX is made of two<br />

components. First - PXX-lkm is a loadable Linux kernel module<br />

(2.6.18 and higher). His task is exchanging original system<br />

calls of open, close, send, sendto and sendmsg functions with<br />

own implementations, and communication with second component<br />

- PXX daemon. The service is responsible for parsing<br />

configuration file with paths of protected files and logging the<br />

incidents in local log and system log. Both elements communicate<br />

by netlink socket. This communication architecture allows<br />

tear the components apart to insert own element<br />

between to improve functionality.<br />

Fig. 3. Architecture Rys. 3. Architektura<br />

After launching the service and loading kernel module<br />

service tries to access /etc/files files, which contains protected<br />

files list. The module swaps original kernel’s system calls with<br />

own functions (listing 1).<br />

sys_call_table[__NR_open]=my_sys_open;<br />

sys_open=sys_call_table[__NR_open];<br />

sys_close=sys_call_table[__NR_close];<br />

sys_call_table[__NR_close]=my_sys_close;<br />

ELEKTRONIKA 11/<strong>2009</strong> 49


sys_write=sys_call_table[__NR_write];<br />

sys_call_table[__NR_write]=my_sys_write;<br />

sys_send=sys_call_table[PXX_SEND_ADDR];<br />

sys_call_table[PXX_SEND_ADDR]=my_sys_send;<br />

sys_sendmsg=sys_call_table[PXX_SENDMSG_ADDR];<br />

sys_call_table[PXX_SENDMSG_ADDR]=my_sys_sendmsg;<br />

sys_sendto=sys_call_table[PXX_SENDTO_ADDR];<br />

sys_call_table[PXX_SENDTO_ADDR]=my_sys_sendto;<br />

The service and module exchange their names and software<br />

version. Initialization is done.<br />

In second phase module waits for any application to call<br />

system function open. Disk files are identified by i-node values.<br />

Function which gets i-node value from file descriptor is<br />

shown in listing 2.<br />

static unsigned long get_ino(int fd)<br />

{<br />

unsigned long ino=0;<br />

struct file * f;<br />

}<br />

if (fdf_dentry->d_inode->i_ino;<br />

fput(f);<br />

}<br />

return ino;<br />

A PID number of parent process and it’s father’s is pushed<br />

to the array of PID of applications whose requested opening<br />

protected file.<br />

If any application tries to call any data write function or<br />

send it using socket, kernel module looks for it’s or it’s father<br />

PID in PID array. If found, kernel module sends application’s<br />

PID to daemon, which logs the event. Module rejects to execute<br />

write/send function.<br />

When an application calls close function, it’s PID number<br />

(and it’s father’s PID) are pulled from a PID list.<br />

An array of protected files’ i-nodes (got using absolute<br />

path) is created once when PXX daemon starts. Each path is<br />

parsed to check whether it is correct. After all PXX daemon<br />

fills the protected files structure (listing 3).<br />

struct protected_files<br />

{<br />

unsigned int qty;<br />

ino_t * inos_t;<br />

char ** names_t;<br />

};<br />

An array containing i-node values is taken from protected_files<br />

structure and send to kernel module via netlink<br />

socket.<br />

Difficulties related with implementation<br />

of full functional DLP system for Linux<br />

The discussed solution bases on i-nodes despite of it is neither<br />

perfect one, nor unequivocal. The values of i-node are unique<br />

but only in one filesystem, but there is no better solution.<br />

An experiment drove to some conclusion. One of these<br />

can be an answer to question why there is still no DLP application<br />

to Linux. Most important are discussed below.<br />

It was not possible to write full functional, working in kernel<br />

space function, which can preprocess any path to absolute<br />

path, cause it is impossible to determine caller’s work directory<br />

from kernel space. Another idea is using algorithm implemented<br />

in Tomoyo [6] Linux, which has realpath function, but<br />

also this solution could not be good enough because of hard<br />

links, whose can be wrong interpreted by this function. Apparently<br />

best solution could be mapping file to pair disk-block, but<br />

in filesystem other than “ext” this method could be not well<br />

working because of block suballocation (e.g.: Reiser 4). Block<br />

suballocation is used to more effective management with files<br />

which are smaller than size of block. In filesystem with no block<br />

suballocation occupies one block, so the disk space is wasted.<br />

Block suballocation let keep some small files in single block.<br />

Unfortunately - relation between file and block is ambiguous.<br />

None effective method of blocking the clipboard have been<br />

found. This „tiny” weak point determines the weakness of<br />

whole system. Clipboard works in user space and is managed<br />

by window manager. To block possibility of making copies to<br />

clipboard source of window manager and it’s recompilation is<br />

required. In Windows system it is possible, because there is<br />

only one window manager. Linux users has a freedom of<br />

choice one of many solutions (GNOME, KDE, XFCE etc.)<br />

System does not protect files in situation, when protected<br />

file is opened, then it’s content is saved to memory and after<br />

that file is closed. An effective implementation of protecting<br />

files in such situation were not implemented yet.<br />

Most important problem related with developed system is<br />

it’s disability to work in real-life environment where aggressor<br />

has wide knowledge and suitable tools. For computer<br />

geek who understand idea of DLP system cracking this implementation<br />

is a matter of time. It is important to mention<br />

that aim of this project was implementation of only a stub of<br />

project, which will be developed by more programmers. The<br />

aim was to begin talk about DLP system for Linux and determining<br />

it’s hardest challenges and difficulties caused by<br />

specificity of Linux.<br />

Conclusions<br />

The experiment of implementation DLP system for Linux<br />

could be recognized as successful, but authors feel insufficiently.<br />

The implemented system is not cross-platform and<br />

does not look like it could be soon. Only the implementation<br />

done for specific architecture, kernel version and graphical<br />

interface. Currently it can not be recognized as universal solution<br />

even within single distribution because of unsupported<br />

protection of clipboard.<br />

The hardest thing for DLP system for Linux creator is -<br />

irony of fate - an architecture of Linux. It’s kernel has many<br />

variants, some of distributions (e.g. Ubuntu) provides it’s own<br />

implementation of kernel. The problem is leak of uniform specification<br />

which could describe all the kernels of all distributions.<br />

This is the expression of Linux’s freedom, but on the other<br />

hand - serious hindrance. Often changes in kernel architecture<br />

also are not helpful.<br />

Creating perfect one DLP application for Linux would require<br />

remaking of significant part of Linux Kernel to allow to<br />

“transport” in process information additional flags related with<br />

security. After that only these filesystems could be accepted,<br />

which allow to identify any disk file using uniform value. To get<br />

this idea done, recompilation of graphical environment would<br />

50 ELEKTRONIKA 11/<strong>2009</strong>


e necessary, in worst case - also system tools and user application<br />

had to be modified and recompiled. Kernel modification<br />

would also affect VFS filesystem, to make possible<br />

determine a file within all the mounted filesystems, remote<br />

filesystems too.<br />

References<br />

[1] Delolitte’s 2006 Global Security Survey, http://www.deloitte.com/<br />

dtt/cda/doc/content/cz_fsi_security_survey_250706.pdf.<br />

[2] Delolitte’s 2007 Global Security Survey, http://www.deloitte.com/<br />

dtt/cda/doc/content/ca_en_Global_Security_Survey.final.en.pdf.<br />

[3] Wikipedia - Data Loss Prevention, http://en.wikipedia.org/wiki/<br />

Data_Loss_Prevention.<br />

[4] R. Mogull - “Understanding and Selecting a Data Loss Prevention<br />

Solution”, http://www.websense.com/Docs/WhitePapers/<br />

Mogull_DLP_WP.pdf.<br />

[5] Securosis’ Blog - http://securosis.com/blog/is-there-any-dlp-ordata-security-on-maclinux/.<br />

[6] Tomoyo Linux Homepage - http://tomoyo.sourceforge.jp/.<br />

[7] Websense Data Security Solutions, http://www.websense.<br />

com/site/docs/brochures/WBSN_DataSecurity_Web.pdf.<br />

[8] Nitrobit Policy Extensions - http://nitrobit.com/policyextension.html.<br />

[9] Leveraging Data Leak Prevention Technology to Secure Corporate<br />

Assets, http://us.trendmicro.com/imperia/md/content/us/pdf/<br />

products/enterprise/leakproof/wp01_leakproof_080123us.pdf.<br />

[10] 2007 CSI Computer Crime and Security Survey, http://www.<br />

gocsi.com/press/ 20070913.jhtml.<br />

A buffer thresholds policy in linked in series<br />

servers with blocking<br />

(Buforowanie z progami w połączonych serwerach z blokadami)<br />

The aim of this paper is to build up an analytical model of computer<br />

networks with blocking, feedback priority service and<br />

threshold policies; seeking to obtain high network utilization,<br />

acceptable delay time, and some degree of fairness among<br />

users. In the past couple of years, there has been a strong<br />

demand for computer networks that can provide adequate<br />

quality of service (QoS) among users. Such demand initiated<br />

a need for a solution where the servers play an active role in<br />

congestion control. A series of threshold policies and congestion<br />

control procedures were proposed to control queue<br />

lengths and to promote fairness among task generating<br />

sources [1,6]. Queuing network models (QNMs) with finite capacity<br />

queues and blocking provide powerful and practical<br />

tools for performance evaluation and predication of discrete<br />

flow systems as computer systems and networks. The traditional<br />

analyses of the ONMs with blocking are based on the<br />

Markov Chain approach [2,5]. In addition, many interesting<br />

theories and models appeared in a variety of journals and at<br />

worldwide conferences in the field of computer science, traffic<br />

engineering and communication engineering [4,7,10]. Despite<br />

all the research done so far, there are still many<br />

important and interesting models to be studied. One such<br />

model is finite capacity queues under various blocking mechanisms<br />

and synchronization constraints, such as those involving<br />

feedback service or priority scheduling. In this kind of<br />

model, a task with a fixed probability can return to the previous<br />

node immediately after its service at the current node. Although<br />

feedback queues have already been extensively<br />

studied in literature see [6,8,9], series queues with priority<br />

feedback are more complex object for research than the<br />

queues without feedback. The introduction of multiple-thresholds<br />

can give rise to inter-dependency between the thresholds<br />

setting, which are also dependent on the service<br />

discipline used. The main aim of this paper is to formulate<br />

such a model with multiple queue thresholds and examine the<br />

queuing behaviour under a priority service discipline for feed<br />

backed tasks.<br />

doc dr inż. WALENTY ONISZCZUK<br />

Bialystok Technical University, Faculty of Computer Science<br />

Model description<br />

The general model description is:<br />

• the arrival process from source station is Poisson,<br />

• two stations provide service that is exponentially distributed,<br />

• all queues have finite capacity m1 and m2 with thresholds<br />

tm1 and tm2.<br />

Figure 1. presents a simplified three-station (source, station<br />

A and station B) description of the proposed model. Tasks<br />

arrive from the source at station A according to the Poisson<br />

process with rate λ and they are processed in a FIFO manner.<br />

The service received by station A is as follows. The task first<br />

receives an exponentially distributed service with rate µ 1A . After<br />

service completion at station A, the task precedes to station B<br />

(exponentially distributed service with rate µ B ). Once it finishes<br />

at station B, it gets sent back to station A for re-processing with<br />

probability σ (exponentially distributed service with rate µ 2A -<br />

according to HoL priority discipline). Once finished, each reprocessed<br />

task departs from the network. We are also assuming<br />

that tasks after being processed in the station B leave<br />

the network with 1 - σ probability. A feed backed task is served<br />

at station A according to a non-pre-emptive priority scheme<br />

(HoL). It is served independently of all other events if the number<br />

of tasks in the second buffer exceeds a threshold tm2 and<br />

the number of task in the first buffer is less than tm1. If the<br />

number of tasks in second buffer is less than tm2 and the number<br />

of tasks in the first buffer exceeds tm1, another procedure<br />

is applied. This no two priority services in succession procedure<br />

prevents a possible overflow in the first buffer. The HoL<br />

priority service means that a task cannot get into service at<br />

station A (it waits at station B - blocking factor) until the task<br />

currently in service is completed. The successive service times<br />

at both stations are assumed to be mutually independent and<br />

they are independent of the state of the network.<br />

In such networks, another one blocking factor may occurs<br />

when a station reaches its maximum capacity, which, in turn,<br />

may momentarily stop the traffic of all incoming tasks to that<br />

ELEKTRONIKA 11/<strong>2009</strong> 51


Fig.1. Illustration of the three-station network model with blocking,<br />

priority feedback service and thresholds<br />

Rys.1. Trójwęzłowa sieć z blokadami, recyklingiem z priorytetem<br />

i progami<br />

station. Let us say that between station A and station B, there<br />

is a waiting buffer with finite capacity m2. When the buffer fills<br />

up completely, the accumulation of new tasks from the first station<br />

is temporarily suspended. Similarly, if the first buffer (with<br />

capacity m1) in front of the first station gets full, then that<br />

source station is momentarily blocked. This is a classical<br />

mechanism for controlling the intensity of an arriving task<br />

streams from a source station. According to our model specification<br />

(see Fig. 1), when either of the buffers is full, any task<br />

upon completion of service at the source station or at station<br />

A, is forced to wait at its station. The task flows from the source<br />

station to station A or from the first station-to-station B is depending<br />

on service process in stations A or B respectively.<br />

Deadlocks can occur in a multistage network with feedback<br />

and blocking - as depicted above. For example, assume<br />

that station A is blocked by station B (the second buffer is full).<br />

In such situation, it is possible that a task in station B, upon its<br />

completion may get send back to station A, which in turn, will<br />

cause a deadlock. In this paper, we assume that deadlocks<br />

are detected and resolved instantaneously without any delay,<br />

simply by exchanging the blocked tasks.<br />

Fig. 2. Two-dimensional network state diagram (first part)<br />

Rys. 2. Dwuwymiarowy diagram stanów sieci (część pierwsza)<br />

Queuing model<br />

Markov processes constitute the fundamental theory underlying<br />

the concept of queuing systems and provide very flexible,<br />

powerful, and efficient means for the description and analysis<br />

of dynamic computer network properties. Each queuing system<br />

can, in principle, be mapped onto an instance of a Markov<br />

process and then mathematically evaluated in terms of this<br />

process. Our model described on the Section 2, can be represented<br />

by a continuous-time Markov chain, in which the underlying<br />

Markov process can analyze the stationary and<br />

transient behavior of the network. We consider this network in<br />

its stationary conditions. As such, the queuing network model<br />

reaches a steady-state condition and the underlying Markov<br />

chain has a stationary state distribution. If each queue has finite<br />

capacity, the underlying process yields finite state space.<br />

The solution of the Markov chain representation may then be<br />

computed and the desired performance characteristics, such<br />

as queue length distribution, utilizations, and throughputs, obtained<br />

directly from the stationary probability vector. In addition,<br />

features such as blocking, priority feedback service,<br />

thresholds, may be incorporated into a Markov chain representation<br />

- although the effect of doing so will increase the size<br />

of the state space. The state of the queuing network with blocking,<br />

priority feedback service and thresholds (see Fig. 2 and<br />

Fig. 3) can be described by random variables (i,j,k), where i in-<br />

Fig. 3. Two-dimensional network state diagram (second part)<br />

Rys. 3. Dwuwymiarowy diagram stanów sieci (część druga)<br />

52 ELEKTRONIKA 11/<strong>2009</strong>


dicates the number of tasks at the first station, j indicates the<br />

number of tasks at second server and k represents the state of<br />

each server. Here, the index k may have the following values:<br />

0, 1, 2, 3, 4 (0 - idle network; 1 - regular task service for i ≤ m1<br />

+ 1 and source blocking for i = m1 + 2; 2 - priority task service<br />

for i ≤ m1 + 1 and source blocking for i = m1 + 2; 3 - blocking<br />

one node and regular task service at the other one; 4 - blocking<br />

one node and priority task service at the other one).<br />

Based on an analysis the state space diagrams, we can<br />

construct the steady-state equations in the Markov model.<br />

Here, a linked in series network with blocking is formulated as<br />

a Markov process and the stationary probability vector can<br />

be obtained using numerical methods for linear systems of<br />

equations [3,11]. In the next step, calculated state probabilities<br />

are assigned to each state shown on the two-dimensional<br />

state graphs.<br />

Selected performance measures<br />

The different types of queuing systems are analyzed mathematically<br />

to determine performance measure from the description<br />

of the system. The selected performance measures are:<br />

1. Idle probability p idle :<br />

2. Station A blocking probability p blA :<br />

p idle = p 0,0,0 (1)<br />

3. Source station blocking probability p blS :<br />

(2)<br />

Fig. 4. Graphs of QoS parameters, where, blA-pr is the station A<br />

blocking probability, blS-pr is the source station blocking probability,<br />

blB-pr is the station B blocking probability, blAS-pr is the simultaneous<br />

blocking probability of the source station and station<br />

A, blBS-pr is the simultaneous blocking probability of the source<br />

station and station B and idle-pr is idle network probability<br />

Rys. 4. Wykresy parametrów jakości obsługi, gdzie blA-pr - prawdopodobieństwo<br />

blokady serwera A, blS-pr - prawdopodobieństwo<br />

blokady źródeł, blB-pr - prawdopodobieństwo blokady<br />

serwera B, blAS-pr - prawdopodobieństwo jednoczesnej blokady<br />

źródeł i serwera A, blBS-pr - prawdopodobieństwo jednoczesnej<br />

blokady źródeł i serwera B, idle-pr - prawdopodobieństwo przestoju<br />

serwerów<br />

within a range from 1 to 9 for tm2 (tm1 + tm2 is constant).<br />

The inter-arrival rate λ from the source station to station A is<br />

chosen as equal to 2.5. The service rates in station A and<br />

station B are equal to µ 1A = 3.0, µ 2A = 2.5, µ B = 2.0. Based on<br />

such parameters, the following results were obtained and<br />

presented in Fig. 4. This Figure depicts the Quality of Service<br />

(QoS) parameters as a function of the thresholds policy<br />

and of the feedback probability value. In this figure, the<br />

buffers size is taken as m1 = 16 and m2 = 10.<br />

Conclusions<br />

4. Both stations (source and station A) simultaneous blocking<br />

probability p blAS :<br />

5. Station B blocking probability p blB :<br />

p blS = p m1+1,m2+2.3 (4)<br />

6. Both stations (source and station B) simultaneous blocking<br />

probability p blBS :<br />

Numerical results<br />

To demonstrate our analysis procedures of a three-station<br />

network with blocking, priority feedback service and thresholds<br />

proposed in Section 3, we have performed numerous<br />

calculations. The main series of calculations were realized<br />

for many parameters combinations by varying the feedback<br />

probability σ within a range from 0.1 to 0.9 and by varying<br />

both threshold values within a range from 9 to 1 for tm1, plus<br />

(3)<br />

(5)<br />

(6)<br />

In this paper, we investigated the problem of analytical (mathematical)<br />

modelling and calculation of the stationary state<br />

probabilities for a multistage network with recycling task,<br />

blocking and threshold policy. We have developed an analytical,<br />

queuing-base model for the blocking characteristics in<br />

a series computer network. In particular, we modelled the<br />

threshold-based buffers filling control algorithm. Tasks blocking<br />

probabilities of such network were derived, followed by numerical<br />

examples. The results confirm importance of a special<br />

treatment for the models with blocking, with HOL feedback<br />

service, and threshold policy in finite capacity buffers, which<br />

justifies this research. The results can be used for capacity<br />

planning and performance evaluation of real-time computer<br />

networks where blocking, feedback and thresholds are present.<br />

Moreover, this proposal is useful in designing buffer sizes<br />

or channel capacities for a given blocking probability requirement<br />

constraint.<br />

This work is supported by the Bialystok Technical University<br />

W/WI/5/09 grant.<br />

References<br />

[1] Awen I.: Analysis of multiple-threshold queues for congestion<br />

control of heterogeneous traffic streams. Simulation Modelling<br />

Practice and Theory, vol. 14, pp. 712-724, 2006.<br />

[2] Balsamo S., i in.: A review on queuing network models with finite<br />

capacity queues for software architectures performance predication.<br />

Performance Evaluation, vol. 51(2-4), pp. 269-288, 2003.<br />

[3] Bolch G., i in.: Queueing Networks and Markov Chains. Modelling<br />

and Performance Evaluation with Computer Science Applications.<br />

John Wiley: New York, 1998.<br />

ELEKTRONIKA 11/<strong>2009</strong> 53


[4] Bose A., i in.: Analysis of manufacturing blocking systems with<br />

Network Calculus. Performance Evaluation, vol. 63, pp. 1216-<br />

1234, 2006.<br />

[5] Economou A., Fakinos D. Product form stationary distributions<br />

for queuing networks with blocking and rerouting. Queuing Systems,<br />

vol. 30(3/4), pp. 251-260, 1998.<br />

[6] Gomez-Corral A., Matros M. E. Performance of two-stage tandem<br />

queues with blocking: The impact of several flows of signals.<br />

Performance Evaluation, vol. 63, pp. 910-938, 2006.<br />

[7] Gupta U. C., i in. Discrete-time single-server finite-buffer under<br />

discrete Markovian arrival process with vacations. Performance<br />

Evaluation, vol. 64, pp. 1-19, 2007.<br />

[8] Kim C. S., i in. The BMAP/G/1-> ·/PH/1/M tandem queue with<br />

feedback and losses. Performance Evaluation, vol. 64, pp. 802-<br />

818, 2007.<br />

[9] Mei van der R. D., i in. Response times in a two-node queuing<br />

network with feedback. Performance Evaluation, vol. 49, pp. 99-<br />

110, 2002.<br />

[10] Oniszczuk W. Analysis of an Open Linked Series Three-Station<br />

Network with Blocking. In Advances in Information Processing<br />

and Protection, J. Pejaś, K. Saeed (Eds), Springer: New York,<br />

pp. 419-429, 2007.<br />

[11] Stewart W. J. Introduction to the Numerical Solution of Markov<br />

Chains. Princeton University Press: New Jersey, 1994.<br />

A system automating repairs of IT systems<br />

(System automatyzujący naprawy systemów IT)<br />

MSc MAREK KAMIŃSKI<br />

Gdańsk University of Technology Technology, Faculty of Electronics, Telecommunication<br />

Lufthansa Systems Poland, Sp. z o.o., Gdańsk<br />

Very fast and progressive informatization of almost all domains<br />

of our lives became an undisputed fact. Because huge<br />

number of IT systems of various kinds needs supervision and<br />

maintenance 24 hours a day and 365 days a year, many IT<br />

companies provide nowadays to their customers a new service<br />

offer of remote monitoring, technical support and assistance<br />

in taking care of their systems.<br />

Monitoring is relatively easy in realization because lots of<br />

monitoring systems have been already developed [1] and they<br />

usually accomplish their task in a satisfactory way. We distinguish<br />

traditional monitoring systems [2-7] (usually having centralized<br />

monitoring logic), and ones dedicated to monitoring<br />

grid or cluster structures [8-11] (usually having monitoring<br />

logic distributed), but regardless of the kind of monitoring system,<br />

monitoring aims to give administrators of monitored systems<br />

a clear indication of what is wrong. The next step is to<br />

solve the problem (to repair the system), so integrating monitoring<br />

and repair aspects seems natural.<br />

However, repairs are usually more complicated than monitoring,<br />

as they often involve manual and time-consuming interventions<br />

of administrators, but observations made by the<br />

author of this article show that, in many cases, even they can<br />

be automated and, moreover, integrated with the monitoring<br />

task. Their automation is a complex problem, which is still the<br />

area of active research. The already proposed solutions are<br />

usually too trivial to handle complex repairs in the real world<br />

situations. Others have vulnerabilities, excluding their industrial<br />

application. Some solutions use the concept of timeouts<br />

or retrying failed actions finite number of times, hoping the<br />

problem will not reoccur, or the concept of event handlers<br />

[4-6], being simple executions of remote commands [7], telling<br />

the system which program to execute on undesired monitoring<br />

results. Some solutions address only automation of administrative<br />

tasks [12,13] and do not integrate with monitoring.<br />

Other attempts focus on describing the architecture the system<br />

should have, to facilitate automatic repair [14-16]. Also efforts<br />

were made to integrate the Nagios Monitoring System<br />

[4-6] with the CFengine system (in particular situation, regarding<br />

network problems [17]), and some works show the directions,<br />

monitoring and healing (repairing) can go [18].<br />

Goal and context<br />

This article focuses mainly on the Repair Management System<br />

(RMS), that is one of the parts of the developed Repair<br />

Management Framework, aming at automating the process<br />

of repairing IT systems. The RMF consists also of the Repair<br />

Management Model (RMM) and the repair library. Both of<br />

them were formally and precisely specified, using the Z notation<br />

[19-21] and are described in [22]. The RMM introduces<br />

two mathematical models (model of monitoring and model of<br />

repair processes), general enough to cover the existing problems<br />

and solutions, while RMS, with its complex architecture,<br />

uses those concepts as fundamentals, to incorporate and exploit<br />

existing monitoring solutions into triggering and conducting<br />

repairs automatically. The repair library introduces the<br />

abstraction layer (in a form of API = Application Programmers<br />

Interface), to allow for easy constructing of the repair algorithms,<br />

taking advantage of the programming language, they<br />

are embedded in, and of set of predefined routines (procedures<br />

and function), hiding away from programmers many<br />

unimportant details, regarding monitoring and repair of those<br />

particular problems they solve. All parts of the RMF have been<br />

already instantiated and are under tests in the Lufthansa Systems<br />

Poland Company.<br />

Definition of the solved problem<br />

The problem addressed in this article may be briefly defined<br />

as follows:<br />

• IT company continuously supervises work of many objects<br />

of various kinds,<br />

54 ELEKTRONIKA 11/<strong>2009</strong>


• information on their state comes from various sources (e.g.:<br />

monitoring systems, emails being sent by maintenance<br />

tasks executed regularly, customers),<br />

• those objects exist on machines connected by network<br />

having complex topology,<br />

• undesired state of specified objects or their combination indicates<br />

problems that must be solved (usually as soon as<br />

possible),<br />

• big number of repairs is conducted manually, while they are<br />

repeatable and it is noticeable that they may be formally<br />

and precisely specified.<br />

Main ideas and terms<br />

The following subsections contain explanation of main ideas<br />

and terms used in the developed solution and introduce unified<br />

naming convention, regarding both of discussed problems:<br />

Monitoring<br />

Analysis of multiple monitoring systems allowed for creating<br />

more general description of monitoring, which can be perceived<br />

as a process of examining states of groups of objects<br />

of any kind, and of informing about any abnormalities. Each<br />

object may assume precisely determined number of, mutually<br />

exclusive, states taking their values from precisely determined<br />

domain. Some values mean the states are correct, while the<br />

other ones mean the object is associated with a problem that<br />

needs resolving.<br />

We may introduce simple method of identification of those<br />

objects, consisting on associating each of them with the complex<br />

variable of precisely determined name. Monitoring becomes<br />

then a process of continuous checking (or observing)<br />

the values of many variables, and of extracting from their<br />

space, those variables that do not fulfill required constraints.<br />

Binding the names of those variables with the real monitored<br />

objects is done in monitoring procedures. Because most of<br />

those objects may be placed in leaves of a tree, representing<br />

hierarchy of the monitored world, it is convenient to create<br />

space of variables with qualified names, resembling directory<br />

structure of hard disk drive, the DNS (Domain Name System<br />

of Internet names), or the MIB tree of SNMP (Simple Net Management<br />

Protocol). Staying with the analogy of directory structure,<br />

objects (so variables) are represented by files, while<br />

directories represent units grouping them.<br />

eclipse.oracle.TESTDB.fs.usage may be, for example,<br />

a variable representing percent usage of filesystem of<br />

machine eclipse, belonging to DBMS (DataBase Management<br />

System) oracle, identified by SID (System IDentifier)<br />

TESTDB. Values of those variables are changeable in time and<br />

frequency of their changes depends on applied monitoring<br />

mechanisms, on frequency of processing by them the data<br />

coming from monitored objects, on stability of their states and<br />

on their character. Sometimes, there is also a need to bind<br />

a state with some details. Summarizing, we may say:<br />

• state of monitored object is represented by a value of complex<br />

variable associated with it,<br />

• each variable has a name, identifying its position in a monitoring<br />

tree unambiguously,<br />

• their values are changeable in time and can be assigned<br />

optional details.<br />

Monitoring is a process of continuous checking (or observing)<br />

the values of variables making up the monitoring tree.<br />

Problem is a situation when one or more variables have undesired<br />

values. Undesired values, so problems, are expressed<br />

by predicates of problem-related variables of the monitoring<br />

tree. Precisely saying, problem is defined as a situation when<br />

any of those predicates is unfulfilled (when it is false), and<br />

a scope of problem is a term referring to a set of problem-related<br />

variables, falsifying the problem-related predicate.<br />

Repair<br />

Each problem, the RMS is able to solve, is associated with<br />

one or more repair procedures and repair is the process of<br />

using those procedures to bring monitored objects back from<br />

undesired states to desired states. Repair is initiated (triggered)<br />

by detecting in the monitoring tree set of such unprocessed<br />

variables, that make up the scope of the problem,<br />

that has been associated with at least one repair procedure.<br />

Repair procedures are interactive algorithms, written in<br />

high-level programming language, using the standard flow<br />

control instructions and taking advantage of other features of<br />

language, they are embedded in. Those algorithms execute,<br />

so called, corrective steps, whose invocations may be perceived<br />

as calls of external routines (procedures or functions).<br />

External routines are well-known programming languages concept<br />

and, like internal ones, they resemble black boxes having<br />

precisely determined interface (getting determined input and<br />

returning determined output) but, unlike internal ones, having<br />

their bodies defined outside the algorithms calling them. In<br />

case of the RMS system, they are exported, before their executions,<br />

to remote machines, related to problems that need<br />

them to be solved, and they are executed on those machines<br />

with access rights of users defined in repair algorithms.<br />

Programmers writing repair procedures may use means<br />

of expressions encapsulated in routines provided by the repair<br />

library (the repair API), and each repair is started up in<br />

environment containing all necessary information on the particular<br />

problem initiating it (and with the use of the repair library,<br />

this information is easily retrievable).<br />

Construction of the RMS<br />

Ideas and considerations drafted in the previous subsections, as<br />

well as existing industrial reality and already employed monitoring<br />

systems, have lead to the following construction of the RMS:<br />

Architecture of the RMS<br />

Architecture of the RMS has been shown in the Figure 1. MON-<br />

JAMI and HVRMONITOR correspond to systems described in<br />

[2,3]. The RMS collects data coming from various sources, initializes<br />

repairs, manages their whole lifecycle and each repair<br />

may assume one of the following states:<br />

• pending: need for repair was detected and appropriate repair<br />

is awaiting its starting up,<br />

• running: repair has been started up and its realization is in<br />

progress,<br />

• suspended: it has been suspended, as it needs additional<br />

information,<br />

• finished: it has been finished (regardless of its result) and<br />

its result has been saved.<br />

Features of the RMS<br />

The most important features of the RMS are the following:<br />

• it starts up subsequent repairs in parallel (not sequentially),<br />

• starting up follows the order requests for repairs are coming<br />

into the repairs queue,<br />

ELEKTRONIKA 11/<strong>2009</strong> 55


• multithreading within a single repair is also allowed,<br />

• connections lasting too long may be disconnected (timed out),<br />

• bigger arguments for corrective steps are sent in files,<br />

• smaller ones are sent directly in invocations of those steps,<br />

• those steps are grouped in actions, each of which resides<br />

in a single file,<br />

• files with actions and bigger arguments are resent over the<br />

network to remote machines, only if their checksums differ<br />

from checksums of their local counterparts.<br />

The RMS database, besides storing information on the<br />

states of repairs, stores also other information, relevant to<br />

monitoring and repair activities, such as:<br />

• incoming monitoring results (monitoring tree),<br />

• the way problems and their scopes are detected (defined<br />

as set of, already mentioned, predicates, stored in definitions<br />

of undesired results),<br />

• data generated by running repairs (output),<br />

• data retrieved by them from the real world (input),<br />

Fig. 1. Architecture of the Repair Management System<br />

Rys. 1. Architektura Systemu Zarządzania Naprawami<br />

Fig. 2. Flowchart of exemplary repair algorithm<br />

Rys. 2. Przepływ sterowania w przykładowym algorytmie naprawczym<br />

56 ELEKTRONIKA 11/<strong>2009</strong>


• data regarding their identity (details of repairs): their<br />

names, times their threads were started up and finished,<br />

PIDs (Process IDentifiers) of those threads, names of related<br />

scripts, with repair algorithms, binding repairs with<br />

scopes of problems triggering them,<br />

• information on making connections (with particular machines<br />

and as particular users) in the complex topology<br />

network, existing in the enterprise (connection tree).<br />

Case study of exemplary repair<br />

This subsection contains description and repair algorithm of<br />

exemplary problem.<br />

Brief description of the solved problem<br />

The examined problem is databases-related and may be characterized<br />

as follows:<br />

• each change in database is added to journal files (known<br />

also as redo log files),<br />

• once a day, after successful backup of the whole database<br />

(called here checkpoint) is made, journal files are deleted<br />

and their creation starts from scratch again,<br />

• creating and enlarging of the journal files is realized by<br />

a database archiver process,<br />

• lack of space in the filesystem, where those files exist,<br />

stops the database.<br />

Flowchart of the solution<br />

The way this problem is solved has been depicted in the Fig. 2.<br />

Conclusions<br />

The RMS and all other components of the RMF have been<br />

successfully implemented. Formal specifications of the RMM<br />

and the repair library formed the base for further development<br />

and left room for different implementations, sharing the<br />

same idea. The RMS with the prototype repair library (the<br />

repair API) are under tests in the Lufthansa Systems Poland<br />

Company. The API was implemented in the Perl programming<br />

language and the first experiments show that the system<br />

and its API meet the expectations of providing adequate<br />

support to the repair process. Experiments involved mentioned<br />

problem and its repair procedure which was easily implemented<br />

(using routines, derived from formal model), after<br />

representing it by a flowchart.<br />

Further experiments aiming at assessment of the effectiveness<br />

and efficiency of the RMS and benchmarking it with<br />

the traditional approaches are in the planning phase. Among<br />

expected benefits of the proposed approach are increase of<br />

reuse of repair procedures, better reliability of the repair<br />

process, significant increase of performance and better manageability<br />

due to improved documentation. The RMS incorporates<br />

existing monitoring systems and it is noticeable that<br />

repairs became faster, well-documented (so their results can<br />

be included in the internal reporting systems), and that administrators<br />

may focus on more complicated tasks.<br />

References<br />

[1] Škiljan, Z., Radič, B.: Monitoring systems: Concepts and tools.<br />

University Computing Centre, Croatia (2004).<br />

[2] Kamiński, M.: XML-based monitoring and its implementation in<br />

Perl. Proceedings of the 2nd National TPD Conference, Politechnika<br />

Poznańska Press, Poland (2007).<br />

[3] Kamiński, M.: HVRmonitor - data replication monitoring method.<br />

Proceedings of the 2nd AIS SIGSAND European Symposium on<br />

Systems Analysis and Design, University of Gdańsk Press,<br />

Poland (2007).<br />

[4] Barth, W.: Nagios. System and Network Monitoring. O’Reilly<br />

Press, USA (2006).<br />

[5] David, J.: Building a monitoring infrastructure with Nagios. Prentice-Hall,<br />

Great Britain (2007).<br />

[6] Turnbull, J.: Pro Nagios 2.0, Apress, USA (2006).<br />

[7] Zabbix reference manual: http://www.zabbix.com/documentation.php.<br />

[8] Zanikolas, S., Sakellariou, R.: A taxonomy of grid monitoring systems.<br />

School of Computer Science. The University of Manchester,<br />

Great Britain (2004).<br />

[9] Ceccanti, A., Panzieri, F.: Content-Based Monitoring in Grid Environments.<br />

Proceedings of the 13th IEEE International Workshops<br />

on Enabling Technologies. Department of Computer<br />

Science, University of Bologna, Italy (2004).<br />

[10] Jianwei, L., Hongbin, C., Pandeng, J., Meirong, C.: Design and<br />

Implementation of Grid Monitoring System Based on GMA. Proceedings<br />

of the 6th IEEE International Conference on Parallel<br />

and Distributed Computing. Applications and Technologies College<br />

of Computer Science, and University of Electronic Science<br />

and Technology. China (2006).<br />

[11] Cooke, A., Nutt, W., Magowan, J., Taylor, P., Leake, J., Byrom,<br />

R., Field, L., Hicks, S., Soni, M., Wilson, A., Cordenonsi, R.,<br />

Cornwall, L., Djaoui, A., Fisher, S., Podhorszki, N., Coghlan, B.,<br />

Kenny, S., O’Callaghan, D., Ryan, J.: Relational Grid Monitoring<br />

Architecture (R-GMA), Joint article published in GridPP. University<br />

of London, Great Britain (2003).<br />

[12] Campi, N., Bauer, K.: Automating Linux and Unix System Administration.<br />

Apress. USA (<strong>2009</strong>).<br />

[13] Strejcek, B.: Automate admin tasks with the powerful CFengine<br />

framework: http://www.linuxpromagazine.com/issues/<strong>2009</strong>/<br />

101/big_engine.<br />

[14] Gerlan, D., Schmerl, B.: Model-based Adaptation for Self-Healing<br />

Systems. School of Computer Science, Carnegie Mellon University,<br />

USA (2002).<br />

[15] Gerlan, D., Shang-Wen, C., Schmerl, B.: Increasing System Dependability<br />

through Architecture-based Self-repair, School of<br />

Computer Science, Carnegie Mellon University, USA (2003).<br />

[16] Gerlan, D., Shang-Wen, C., Schmerl, B., Sousa, J. P., Spitznagel,<br />

B., Steenkiste, P.: Using Architectural Style as a Basis for<br />

System Self-repair, School of Computer Science. Carnegie Mellon<br />

University, USA (2002).<br />

[17] Retkowski, G.: Building a Self-Healing Network: http://www.onlamp.com/pub/a/onlamp/2006/05/25/self-healing-networks.html.<br />

[18] Pervilä, M.: Using Nagios to monitor faults in a self-healing environment,<br />

Department of Computer Science, Helsinki University,<br />

Finland (2007).<br />

[19] Woodcock, J., Davies, J.: Using Z.: Specification, Refinement,<br />

and Proof, University of Oxford, Great Britain (1999).<br />

[20] Potter, B., Sinclair, J., Till, D.: An Introduction to Formal Specification<br />

and Z, International series in computer science, Prentice-<br />

Hall. Great Britain (1991).<br />

[21] Spivey, J.M.: The Z notation - A Reference Manual, Prentice-<br />

Hall. Great Britain (1992).<br />

[22] Kamiński, M.: Towards automating repairs of IT systems, article<br />

accepted (basing on its abstract) and submitted to the 30th International<br />

ISAT Conference (Information Systems., Architecture,<br />

and Technology). Poland (<strong>2009</strong>): http://www.isat.pwr.wroc.pl/.<br />

ELEKTRONIKA 11/<strong>2009</strong> 57


Influence of the number of bins on the recognition<br />

results using Point Distance Histogram<br />

(Wpływ liczby przedziałów w histogramie na wyniki rozpoznawania<br />

z użyciem algorytmu Point Distance Histogram)<br />

dr inż. DARIUSZ FREJLICHOWSKI<br />

Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, Wydział Informatyki<br />

The shape is one of the features of an object that can be used<br />

for its recognition. In the template matching approach a shape<br />

has to be properly represented. It means that it has to be described<br />

in a way making the process of recognition easier.<br />

Usually, the shape description algorithm has to be invariant to<br />

some of its deformations, e.g. scaling or rotation. The most desirable<br />

approaches are robust to all shape deformations. However,<br />

there are not many of that kind, because it is really difficult<br />

to construct an algorithm solving so many various problems.<br />

Moreover, in many cases not all shape distortions arise. Sometimes<br />

the invariance to a few selected problems is sufficient.<br />

Nowadays, the number of shape descriptors applied in the<br />

pattern recognition area is innumerable (an exemplary exhaustive<br />

survey on this topic can be found in [1]). There are<br />

several hundreds various algorithms, Point Distance Histogram<br />

(PDH) being one of them. It was proposed in [2] and<br />

it draws benefits from two very useful solutions: polar transformation<br />

and histogram. It was successfully applied e.g. in<br />

recognition of erythrocyte shapes [3]. The polar transform is<br />

particularly effective in description and recognition of binary<br />

images [4,5]. Thanks to this, the most important property of<br />

the described algorithm is the invariance to selection of the<br />

starting point and rotation (thanks to the usage of histogram),<br />

scaling (thanks to the normalisation) and translation (usage<br />

of the particular point inside an object as an origin of the transform).<br />

Moreover, the method is able to indicate small differences<br />

between similar objects.<br />

The combination of polar coordinates and histogram for<br />

recognition of shapes is not new. Two similar to PDH methods<br />

can be mentioned. The first one is the Distance Histogram -<br />

DH [6]. It calculates the Euclidean distance between the centroid<br />

and all pixels within the object. Every distance is normalized<br />

with respect to the maximal one. The algorithm is very<br />

simple, yet quite effective for example for CBIR applications.<br />

The second proposal: Polar Histogram - PH [7] is almost the<br />

same as the previous one. Only the method for deriving it is<br />

different - it uses transformation from Cartesian to polar coordinates<br />

as more important step. The described solutions are<br />

the most similar to PDH. However, they both work on the<br />

whole shape, with its interior. As it is described in literature<br />

[1,8] the second shape representation - the contour - is possible.<br />

In fact, in the Point Distance Histogram the contour is<br />

used, which makes the algorithm much faster.<br />

At one of the stages during derivation of the shape description<br />

using PDH one has to decide how many bins in a histogram<br />

are used. This parameter is denoted as r. The most<br />

important goal of the experiment described in this paper was<br />

the investigation of the influence of this number on the recognition<br />

results. In order to attain that goal, deformed (rotated<br />

and scaled) trademark shapes were explored. Few examples<br />

of shapes and achieved PDH descriptions for them are provided<br />

in Fig.1.<br />

Description of the Point Distance<br />

Histogram algorithm<br />

The original PDH algorithm uses the centroid as the origin of<br />

the calculations [2]. However, the method is not limited to this<br />

one and if it is desirable any point can be used. This selection<br />

should indicate the name of the descriptor, e.g. in the original<br />

method the complete name is centroid-PDH. The centre of an<br />

object is denoted as O and for centroid it is derived using the<br />

formula [2]:<br />

where: n - number of points in a contour, x i , y i - Cartesian coordinates<br />

of the i-th point.<br />

Having the centre of an object derived we can start the<br />

calculation of the polar co-ordinates: Θ i for angles and Ρ i for<br />

radii [2]:<br />

(1)<br />

(2)<br />

(3)<br />

The values in Θ i are converted into nearest integers [2]:<br />

(4)<br />

Fig.1. Exemplary trademark shapes and PDH descriptions<br />

achieved for them<br />

Rys.1. Przykładowe znaki firmowe i wyznaczone dla nich deksryptory<br />

PDH<br />

The elements in Θ i and Ρ i are now rearranged, according to<br />

increasing values in Θ i , and denoted as Θ j , Ρ j . If some elements<br />

in Θ j are equal, only the one with the highest corresponding<br />

value Ρ j is selected. That gives a vector with at most<br />

360 elements, one for each integer angle. For further work<br />

only the vector of radii is needed. We denote it as Ρ k , where<br />

58 ELEKTRONIKA 11/<strong>2009</strong>


k = 1, 2, ..., m and m is the number of elements in Ρ k (m is<br />

less or equal to 360). Then, the normalisation of elements in<br />

vector Ρ k is performed [2]:<br />

The elements in Ρ k are assigned to bins in histogram (ρ k to l k ) [2]:<br />

where r is the predetermined number of bins.<br />

The next step is the normalisation of the values in bins,<br />

according to the highest one [2]:<br />

(5)<br />

(6)<br />

(7)<br />

The examination of the PDH descriptor, using varying value of<br />

the parameter r was performed on binary contour images belonging<br />

to 50 various classes of trademarks, represented in<br />

bitmaps of size 100 by 100 pixels. A couple of examples were<br />

provided in Fig. 1.<br />

According to the template matching approach not affected<br />

contour shapes played the role of base elements. Then, they<br />

were artificially distorted. Three separate tests were performed.<br />

Firstly, the rotation was explored. The angle was selected<br />

randomly. Secondly, the reduction in size (twice). And<br />

finally, scaling up a shape (twice, again).<br />

In each case, deformations were performed on shapes<br />

represented in bitmaps, therefore additionally influence of<br />

noise into the coordinates being extracted during the process<br />

of vectorisation was noticeable.<br />

In all cases one common property was reported. The<br />

recognition rate (RR) was at first increasing rapidly according<br />

to increasing value of r. Then, for r above 8 it was almost stable<br />

and oscillating around 90…95%. After the parameter r had<br />

reached 60 the recognition results became worse. It is clearly<br />

visible in Fig. 2. The best overall average result was RR = 95%<br />

and it was achieved for r = 18, 20, 25, 29, 38 and 51. Because<br />

this result was noticed mainly amongst smaller values of r the<br />

parameter should be taken from them, e.g. r = 18, 20 or 25.<br />

The final histogram representing a shape can be formally written<br />

as a function h(l k ) [2]:<br />

(8)<br />

where [2]:<br />

(9)<br />

Various measures can be used to compare two histograms,<br />

e.g. L 0 , L 1 , L 2 , Matusita, Divergence [9]. In the experiment described<br />

in the following section, the L 2 norm was taken to derive<br />

the dissimilarity between the two descriptions received<br />

using PDH algorithm [9]:<br />

Fig. 3. Recognition rates for rotation and increasing value of r<br />

Rys. 3. Współczynniki rozpoznawania dla obrotu i rosnących<br />

wartości parametru r<br />

(10)<br />

h 1 , h 2 - PDH descriptions being matched, i = 1... r.<br />

Conditions and results of the experiment<br />

Fig. 2. Average recognition rates for increasing value of r<br />

Rys. 2. Średnie współczynniki rozpoznawania dla rosnących wartości<br />

parametru r<br />

Fig.4. Recognition rates for scaling (up and down) and increasing<br />

value of r<br />

Rys.4. Współczynniki rozpoznawania dla skalowania (powiększania<br />

i pomniejszania) i rosnących wartości parametru r<br />

ELEKTRONIKA 11/<strong>2009</strong> 59


The achieved results can be explained easily. Very small<br />

values of r (from 1 to 10) obviously gave poor recognition results,<br />

because small number of bins in histogram leads to small<br />

discrimination property. On the other hand, large number of<br />

bins taken into consideration gave worse results as well. It can<br />

be explained by the small number of points under processing<br />

in the examined objects. The test contours had usually about<br />

hundred points, which resulted in worse rates for higher values<br />

of r. The important conclusion here is the necessity of usage<br />

of shapes with higher number of points (at least several hundreds)<br />

or usage of small number of bins in PDH descriptor.<br />

As we can see in Fig. 2. the best results are achieved<br />

when r is between 9 and 60. Therefore the exact analysis of<br />

three performed tests will be presented for r ranging from 1 to<br />

60. This will help in noticing the characteristics of the PDH descriptor<br />

in the presence of various shape distortions.<br />

A very interesting property can be noticed when small<br />

number of bins is used. The recognition is far from ideal in that<br />

case. However, even the small value of r gives surprisingly<br />

good recognition rate, i.e. for r higher than 4 the described<br />

factor is above 80%. That proves the good characteristics of<br />

a histogram in pattern recognition.<br />

The recognition results for rotation are presented in Fig. 3.,<br />

and for scaling (down and up) in Fig. 4. As we can see, results<br />

for rotation and scaling up are similar. The perfect result<br />

(100%) is achieved several times. However, the scaling down<br />

deformation is much more challenging - only for r between 13<br />

and 20 the results are acceptable. After the parameter exceeds<br />

20 they are getting worse. Again, it is a result of the<br />

small number of pixels under processing.<br />

Conclusions<br />

In the paper the results of an experiment on deformed binary<br />

trademarks were presented. The goal of the research was to<br />

find the best values of numbers of bins (parameter r) in the<br />

histogram when using Point Distance Histogram (PDH) for<br />

small shapes. Three tests were performed. Firstly the randomly<br />

rotated objects were explored, then, scaled down and<br />

up. In each case, the influence of extraction of points from<br />

bitmaps was noticeable as well.<br />

As it turned out, small size of a test object, more precisely<br />

- small number of points to process in a contour had the most<br />

significant influence on recognition rates (RR). The results<br />

were worse for scaling down (the best RR was equal to 90%)<br />

than for scaling up and rotation (100% several times). The<br />

analysis of the RR under varying values of parameter r indicated<br />

that for small contours the best value is r = 18, 20 or 25.<br />

This results primarily from the parameters established for scaling<br />

down. In the case of another two tests - for rotation and<br />

scaling up, the maximal suggested parameter value should<br />

be r = 51, since for the higher values the results were worse.<br />

To sum up, if we cannot ensure the appropriate size of<br />

objects to recognise, the parameter r from 18 to 25 should<br />

be used. If objects are larger the value close to 50 is a better<br />

choice.<br />

Another issue is worth noticing. During the experiments<br />

the obvious property of PDH method was confirmed. It works<br />

better for objects with larger number of points. Therefore, the<br />

usage of larger contours, if possible, is advised. However, in<br />

real situations sometimes the extracted shapes are small. In<br />

that case the values established using the experiments presented<br />

in this paper should be used.<br />

References<br />

[1] Zhang D., Lu G.: Review of shape representation and description<br />

techniques. Pattern Recognition, vol. 37, iss. 1, 2004,<br />

pp. 1-19.<br />

[2] Frejlichowski D.: Shape Representation Using Point Distance<br />

Histogram. Polish Journal of Environmental Studies, vol. 16, no.<br />

4A, 2007, pp. 90-93.<br />

[3] Frejlichowski D.: The Point Distance Histogram for Analysis of<br />

Erythrocyte Shapes. Polish Journal of Environmental Studies,<br />

vol. 16, no. 5B, 2007, pp. 261-264.<br />

[4] Kuchariew G., Przetwarzanie i analiza obrazów cyfrowych, Wydawnictwo<br />

Uczelniane Politechniki Szczecińskiej, 1998.<br />

[5] Luengo-Oroz M. A., Angulo J., Flandrin G., Klossa J.: Mathematical<br />

Morphology in Polar-Logarithmic Coordinates. Application<br />

to Erythrocyte Shape Analysis. LNCS, vol. 3523, 2005, pp.<br />

199-205.<br />

[6] Saykol E., Gudukbay U., Ulusoy O.: A histogram-based approach<br />

for object-based query-by-shape-and-color in image and<br />

video databases. Image and Vision Computing, vol. 23, 2005,<br />

pp. 1170-1180.<br />

[7] Suau P.: Robust artificial landmark recognition using polar histograms.<br />

LNAI, vol. 3808, 2005, pp. 455-461.<br />

[8] Loncaric S.: A survey on shape analysis techniques. Pattern<br />

Recognition, vol. 31, iss. 8, 1998, pp. 983-1001.<br />

[9] Mikłasz M., Aleksiun P., Rytwiński T., Sinkiewicz P.: Image<br />

Recognition Using the Histogram Analyser. Computing, Multimedia<br />

and Intelligent Techniques, vol.1 no.1, 2005, pp. 74-86.<br />

Open virtual steganographic laboratory<br />

(Otwarte wirtualne laboratorium steganograficzne)<br />

dr inż. PAWEŁ FORCZMAŃSKI, mgr inż. MICHAŁ WĘGRZYN<br />

Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, Wydział Informatyki<br />

Among many different applications where data hiding techniques<br />

can be used, one that has received huge attention in recent<br />

years is steganography. In that scenario, not just the<br />

embedded message is hidden, but the communication process<br />

itself is tried to be concealed. Steganography is both art. and<br />

science of undetectable communication [1]. Opposed to cryptography<br />

which encrypts a message, steganography achieves<br />

private communication by hiding message in cover object so<br />

not only content is known but also very existence of message.<br />

Throughout the history many different media types have been<br />

used to hide information. Nowadays steganographic applications<br />

[9,16] are using computer file system, transmission protocols,<br />

audio files, video files, text files or images, which are the<br />

most popular cover objects. Discovering the presence of hidden<br />

messages and determining their attributes are goals of<br />

steganalysis, which, in general, involves visual analysis and<br />

60 ELEKTRONIKA 11/<strong>2009</strong>


more powerful statistical (algorithmic) analysis. Both steganography<br />

and steganalysis in digital images include wide variety of<br />

methods that emerged during last years [11,24]. The most popular<br />

approaches in steganography and steganalysis are briefly<br />

reviewed further in this section. There are many applications<br />

for steganography or steganalysis, however, despite few good<br />

applications for steganalysis there is no application that provides<br />

secure steganographic methods. Also, according to our<br />

knowledge, there is no application that allows adjusting and<br />

testing methods and provides simple addition of other ones.<br />

Brief review of techniques for digital images<br />

Images are the most popular digital cover media for steganography.<br />

In practice, applied technique depends on the image<br />

format, therefore an approach used for uncompressed bitmap<br />

image (such as BMP) is different that for the format with compression<br />

(such as JPEG) and both will differ from one used<br />

for palette images which are usually stored in GIF files. Literature<br />

survey shows that there are many general approaches<br />

aimed at still image steganography and watermarking<br />

[4,5,7,11,17,19]. All of them work in either spatial domain [4]<br />

or in certain spectrum domain (FFT, DFT, DCT, Wavelets<br />

[3,5,10,12]). The most popular yet not very effective method is<br />

a LSB insertion, which alters the least important elements of<br />

the cover image. The main problem with LSB and other similar<br />

methods is the robustness to typical visual manipulations,<br />

e.g. changes of intensity, contrast and focus as well as lossy<br />

re-compression and framing. Therefore these methods are not<br />

applicable to watermarking tasks. On the other hand, there is<br />

a problem of steganalysis, which is a non-trivial task, especially<br />

with low embedding rate, low computational complexity<br />

requirement and without knowledge of cover image. Generally,<br />

aforementioned methods are strongly dependent on the<br />

destination file format. Moreover, for a specific file format several<br />

dedicated techniques (or modifications of known ones)<br />

can be chosen. Current steganalysis methods can be divided<br />

into two main categories: embedding specific or universal.<br />

While universal steganalysis attempts to detect the presence<br />

of an embedded message no matter of the embedding algorithm<br />

and, ideally, the image format, embedding specific approaches<br />

to steganalysis take advantage of particular<br />

algorithmic details of the embedding algorithm [15].<br />

above confirm this observation - all of them are command line<br />

programs hard to operate for beginners. Admittedly, there are<br />

GUI versions of F5, JSteg and JP Hide&Seek (see Fig. 1)<br />

available, however they have very simplified interfaces which<br />

provide only single embedding or extraction at one time, thus<br />

more sophisticated operations or sequences of processing are<br />

impossible to be performed.<br />

The lack of applications providing a capability of complex<br />

testing both embedding and message extraction leads to the<br />

idea of steganographic laboratory as a virtual environment described<br />

in the following sections. Our experience shows that<br />

such an idea can be very attractive for many users not only<br />

from the educational circles.<br />

a)<br />

b)<br />

Existing applications<br />

There are many computer programs, distributed as both free<br />

and proprietary software that incorporate different steganography<br />

techniques available today. Most of them are written for<br />

Windows and Unix-like operating systems. As it was mentioned<br />

in the introduction, most of available steganographic<br />

applications for digital images use the simplest but also the<br />

most insecure LSB method or its modification [9,16]. Part of<br />

them uses more sophisticated methods for JPEG files like<br />

Steghide [6], Outguess [18], F5 [25], JP Hide&Seek [13]. Despite<br />

the fact that all of them are easy to detect even at so<br />

small embedding rate as 0.05 bpac (bits per non-zero AC coefficient),<br />

there are some methods still secure but not widely<br />

used in current applications [5,12]. On the other hand, among<br />

many standalone applications, there is hardly no software that<br />

incorporates easy methods linking, adjusting parameters, testing,<br />

and readable and friendly graphical user interface.<br />

Almost all steganographic software applications are basically<br />

command line tools performing single steganographic<br />

and/or steganalytic algorithm. All the applications mentioned<br />

Fig. 1. GUI front-ends of JP Hide&Seek (a) and F5 (b)<br />

Rys. 1. Graficzne interfejsy użtkownika programów JP Hide&Seek<br />

(a) i F5 (b)<br />

Virtual laboratory for still images<br />

Initial assumptions<br />

Nowadays, with the development of new computer technologies,<br />

e.g. Java - an interactive multimedia programming language,<br />

and the broadband Internet (giving an access to rich<br />

web applications) it is possible to simulate engineering and<br />

science laboratory projects on a desktop computer.<br />

ELEKTRONIKA 11/<strong>2009</strong> 61


With Internet access, it is now possible to offer scientists<br />

and students virtual laboratories from a distance, via the World<br />

Wide Web. Experiment-oriented problems can be offered<br />

without the overhead incurred when maintaining a full laboratory<br />

or a set of independent applications, often incompatible<br />

with each other. According to the rather general definition presented<br />

in the literature [14], virtual laboratory is a heterogeneous,<br />

distributed environment making possible to conduct<br />

experiments in a similar way to the physical laboratory. The<br />

main objective of the virtual laboratory is to introduce scientists<br />

and students to experimentation, problem solving, data<br />

gathering, and scientific interpretation. Experiments performed<br />

in the laboratory may be fully interactive, making possible<br />

to change all parameters, giving access to any<br />

intermediate results and producing detailed reports.<br />

Virtual laboratories can also benefit from some collaboration<br />

techniques as tele-immersion [26]. Because of the specific<br />

character of the tasks realized in the field of computer<br />

science, virtual laboratories are often focused on the information<br />

processing problems rather than access to physical<br />

tools. The most appreciated feature of such laboratory is its<br />

modular architecture, which allows to increase the system capabilities<br />

(e.g. by adding new functions and modules) without<br />

the necessity to recompile the whole application. A user of<br />

such laboratory should have the minimal knowledge of the API<br />

(Application Programming Interface) provided by virtual laboratory<br />

framework to create new plugins or modules. He does<br />

not have to create all additional input-output procedures and<br />

visual layer, hence he can focus on the actual problem.<br />

Architecture and communication<br />

Proposed Open Virtual Steganographic Laboratory VSL (Application<br />

has been released under the open-source GPL licence<br />

at http://vsl.sourceforge.net/_). for digital images is a set<br />

of applications which form a distributed system aimed at computations.<br />

This idea is motivated by a observation that each<br />

procedure involved in the steganography/steganalysis can by<br />

represented by a determinable process realizing specific action,<br />

e.g. message embedding, message extraction, steganographic<br />

attack, image distortion, data transfer, etc. The main<br />

application of VSL which provides communication between<br />

components and a user interface gives an ability to build a processing<br />

flow that incorporates all needed modules and to simulate<br />

an experiment. High-level package diagram (conforming<br />

to Universal Modeling Language) representing system’s architecture<br />

is presented in Fig. 2. The system package contains<br />

main sub-package which is a core of logic. Main sub-package<br />

communicates with other major packages: steganography, steganalysis,<br />

distortions and tools. The first three elements can<br />

consist of zero or more proper subsystems i.e. steganography<br />

package contains external steganographic subsystems (standalone<br />

modules which can be used independently regardless<br />

of whole system), steganalysis package includes separate steganalysis<br />

subsystems and distortions package - distortions<br />

subsystems respectively. The last major package (tools) contains<br />

various additional laboratory instruments needed to perform<br />

entire experiment. Since cover images can be stored in<br />

various file formats, input package responsible for reading and<br />

preparing image to processing is needed. Display tool allows<br />

to show processed images in a specific, important for the user<br />

moment of experiment flow - before, after or between arranged<br />

operations. In fact, it is just a simple image viewer integrated<br />

into VSL. A user can examine images processed in any given<br />

places of flow and easily compare them, for instance an image<br />

before and after embedding. Output functionality makes it possible<br />

to write results to a file.<br />

The last proposed tool is Report. It provides image features<br />

such as spatial resolution, color depth, name, etc., message<br />

features (size of message, maximum length of message)<br />

and image quality measures. Today, one of the most popular<br />

distortion measures, due to the simplicity of the metric, is Peak<br />

Fig. 2. High-level UML diagram of Virtual Steganographic Laboratory<br />

Rys. 2. Diagram UML wysokiego poziomu wirtualnego laboratorium steganograficznego<br />

62 ELEKTRONIKA 11/<strong>2009</strong>


Signal to Noise Ratio (PSNR). We propose it along with one<br />

of the most appropriate distortion metrics, which is correlated<br />

with the Human Visual System (HVS) [2] i.e. Relative Peak<br />

Signal to Noise Ratio (RPSNR). Also, report module can contain<br />

other useful informations such as size of decoded message<br />

or output of steganalysis modules. Because of the fact<br />

that the robustness is a crucial requirement for digital watermarking,<br />

investigating the resistance against typical signal<br />

processing methods can be useful and thus the VSL contains<br />

some popular image processing algorithms. Within application,<br />

hidden content (e.g. invisible watermark) could be attacked<br />

with noise addition (Gaussian noise, Salt-and-Pepper<br />

noise), resizing (using most popular bicubic interpolation),<br />

cropping, JPEG lossy compression, median filtering, Gaussian<br />

blurring, gamma correction or sharpening. Any parameter<br />

of the distortion method can be easily adjusted.<br />

All tools presented above are designated to replace any<br />

external software like image viewers, file managers, text editors,<br />

etc. All these elements form the entire, fully independent<br />

workbench making possible to conduct any type of steganographic<br />

experiment.<br />

The initial assumption regarding architecture was to use<br />

SOAP (Simple Object Access Protocol) for communication,<br />

as it provides mechanisms for exchanging structured and<br />

typed information between peers in a decentralized, distributed<br />

environment such as proposed virtual laboratory [20].<br />

Each workbench element (node) can be treated as a peer<br />

which exchanges SOAP messages, formally specified as an<br />

XML structures, which provide an abstract description of its<br />

contents. Despite SOAP is fundamentally a stateless, oneway<br />

message exchange paradigm, our idea is to create more<br />

complex interaction patterns (e.g., request/response, request/multiple<br />

responses, etc.) by combining such one-way<br />

exchanges with features provided by an underlying protocol<br />

and/or application-specific information [22]. Because of the<br />

concept of an open and distributed processing, the first, and<br />

the most obvious idea was to build the VSL as Web Services<br />

which are defined by the W3C as a software system designed<br />

to support interoperable machine-to-machine interaction over<br />

a network [23]. The VSL was meant to be a set of Web Services<br />

with one privileged core Web Service, which exactly represents<br />

the proposed architecture. Initial framework was build<br />

using Java API for XML Web Services (JAX-WS) [21], however<br />

the system in this form had significant limitations. The<br />

main two constraints were a complexity of API and a lack of<br />

possibility to construct plugin architecture. Those restrictions<br />

could be a great disadvantage for potential users regarding<br />

extending and/or altering the whole system. Another inconvenience<br />

was communication issue - Web Services should<br />

use in this case secure transfer protocol. In result, we<br />

changed system architecture to a main application and a set<br />

of plugins which are also standalone applications that can run<br />

independently (typical to the client-server approach). Thanks<br />

to Java, which provides multi-platform compatibility, the VSL<br />

application can be executed on almost every personal computer<br />

running any popular operating system (MS Windows,<br />

MacOS, Linux). It is an often unnoticeable, yet very important<br />

economical aspect of research. Basic programming skills, together<br />

with given architecture make possible for everyone to<br />

build his own plugin, without much effort (regardless of the<br />

type - steganographic, steganalytic or distortion module) and<br />

to attach it to the main application of VSL. Free and open<br />

source of VSL (along with openness of technologies used for<br />

development) and its modularity, make it useful and adequate<br />

tool for both scientists and students.<br />

User interface<br />

Graphical user interface of the application is shown in figures<br />

below (see Fig. 3-5). It was build with the usage of typical<br />

Swing GUI gadgets, however thanks to the look-an-feel technology,<br />

it can be easily switched to standard MS Windows or<br />

MacOS visual schemes. It features drag-and-drop technology<br />

which means it is easy to operate by any, even not advanced<br />

user. The main window of laboratory contains plain workspace<br />

and a list of block elements (Modules). Each block element<br />

represents corresponding operation i.e. block named LSB<br />

processes an image with Least Significant Bit embedding. Any<br />

processing starts from the Input block which has a list of input<br />

files designated for processing (the processing flow is sequentially<br />

performed for all input files). Between any two<br />

blocks a package of control data is being transferred - every<br />

block performs its own operations on data and transfers the<br />

data package further to the next block. All parameters and<br />

properties of an operation represented by a block, can be easily<br />

adjusted, simply by showing the parameters dialog after<br />

the double-click on the block that needs to be configured. The<br />

application provides both batch and parallel processing, and<br />

loops as well, hence it should be noticed that considerably<br />

complex flows, as described in next section, are available to<br />

be arranged by users. Moreover, all specific properties of an<br />

application (i.e. file formats, size of blocks, area of workspace,<br />

colors, etc.) can be specified in an external, freely editable<br />

configuration file.<br />

Sample experiments<br />

The virtual laboratory has one considerable advantage over<br />

typical set of individual applications since it makes it possible<br />

to conduct experiments in a flow form. Each operation being<br />

a part of the flow can be performed once or several times, giving<br />

an opportunity to change its parameters during each iteration<br />

and passing the results to the next stage. Thus, it is more<br />

usable for scientific and educational purposes, where the experiments<br />

involve many time-consuming and often not clearly<br />

determined investigations. Figures below provide sample<br />

flows of processing. Figure 3 shows a simple process of embedding<br />

after which cover image is distorted three times. Then<br />

it is stored in a Display module and a LSB Decoder tries to<br />

read the hidden message. In the end report is created from<br />

whole process.<br />

Fig. 3. Example flow of experiment representing an attack on chosen<br />

steganographic method<br />

Rys. 3. Przykładowy przebieg eksperymentu odpowiadającemu<br />

atakowi na wybraną metodę staganograficzną<br />

ELEKTRONIKA 11/<strong>2009</strong> 63


conducting wide range of experiments involving different types<br />

of message embedding, diverse attacks (employing image<br />

processing algorithms) and steganalysis with the use of popular<br />

methods. Although the main purpose of VSL is to provide<br />

efficient yet easy tool for scientists and students, it can be<br />

used for learning and extended by everyone. With the help of<br />

VSL, any new steganographic/steganalytic/watermarking<br />

method may be investigated. Thanks to that, people can be<br />

more aware of current information hiding problems, which is<br />

instantly gaining more popularity. It is an important aspect, especially<br />

nowadays, when successive privacy issues are continually<br />

emerging and civil liberties and rights are more and<br />

more often not taken into consideration.<br />

Fig. 4. Example flow of distortion modeling<br />

Rys. 4. Przykład przebiegu modelowania zakłóceń<br />

Fig. 5. Example flow of parallel message embedding with two<br />

methods<br />

Rys. 5. Przykładowy przebieg równoległego osadzania informacji<br />

dwiema metodami<br />

Another scenario is shown in Fig. 4. Cover object is<br />

processed in an iterative manner. In every cycle it is used for<br />

embedding, distorted and stored. Finally, the message is recovered,<br />

so the robustness could be tested. On the right side<br />

the Display module window is presented. The next figure<br />

(Fig. 5) demonstrates a concept of parallel processing in<br />

which many operations on different sets of images can be<br />

done separately at one time for easy and clear further comparison.<br />

Example usage of this kind of processing could be<br />

performing embedding on two different sets of images: e.g.<br />

for training and testing classifier or comparing results of embedding<br />

with same technique but different parameters.<br />

The experiments presented in this section as simplified<br />

flows do not exhaust the possible field of applications of the<br />

VSL. An open architecture of the environment and an idea of<br />

flexible connections gives the possibility to create many more<br />

schemes of processing, employing lots of different modules.<br />

According to the assumption presented in the beginning, the<br />

architecture of VSL allows many extra modules to be attached<br />

to the main application. Thanks to open VSL API and<br />

popular Java programming language one can create his own<br />

steganographic/ steganalysis plugin and profit from the automatic<br />

processing.<br />

Summary<br />

Proposed Virtual Steganographic Laboratory is a novel approach<br />

to steganographic experiments performed on digital<br />

images. It gives scientists and students a powerful tool for<br />

References<br />

[1] Artz, D.: Digital Steganography, Hiding Data within Data. Proc.<br />

IEEE Internet Computing, 5(3), 75-80, 2001.<br />

[2] Chemak, C., Bouhlel, M., Lapayre, J.: A new scheme of robust<br />

image watermarking: ”The double watermarking algorithm”.<br />

Summer Computer Simulation Conference: San Diego/California,<br />

1201-1208, 2007.<br />

[3] Chen, W. Y.: Color image steganography scheme using DFT, SPIHT<br />

codec, and modified differential phase-shift keying techniques. Applied<br />

Mathematics and Computation 196(1), 40-54, 2008.<br />

[4] Cheung, W.: Digital Image Watermarking in Spatial and Transform<br />

Domains. Proc. TENCON, 374-378, 2000.<br />

[5] Fridrich, J., Pevny, T., Kodovsky, J.: Statistically undetectable<br />

jpeg steganography: dead ends challenges, and opportunities.<br />

MM&Sec, 3-14, 2007.<br />

[6] Hetzl, S., Mutzel, P.: A graph-theoretic approach to steganography.<br />

CMS 2005, LNCS 3677, 119-128, 2005.<br />

[7] Johnson, N. F., Jajodia, S.: Steganography: Seeing the Unseen.<br />

IEEE Computer, 26-34, 1998.<br />

[8] Johnson, N., Duric, Z., Jajodia, S.: Information hiding: steganography<br />

and watermarking: attacks and countermeasures Springer.<br />

ISBN 978-0-7923-7204-2, 2001.<br />

[9] Johnson, N.: Steganography Software Website http://www.<br />

jjtc.com/Steganography/tools.html, 2008.<br />

[10] Kaarna, A., Toivanen, P.: Digital Watermarking of Spectral Images<br />

in PCA/Wavelet Transform Domain In: Proc. IGARSS,<br />

3564-3567, 2003<br />

[11] Katzenbeisser, S., Petitcolas, F.: Information hiding techniques<br />

for steganography and digital watermarking, Artech House<br />

Books, 2000.<br />

[12] Kim, Y., Duric, Z., Richards, D.: Modified Matrix Encoding Technique<br />

for Minimal Distortion Steganography. Proceedings of the<br />

8th International Workshop on Information Hiding. LNCS vol.<br />

4437, 314-327, 2006.<br />

[13] Latham, A.: Steganography: Jphide and Jpseek<br />

http://linux01.gwdg.de/alatham/stego.html, 1999.<br />

[14] Lawenda, M., Meyer, N., Rajtar, T., Okoń, M., Stokłosa, D.,<br />

Kaliszan, D., Stroiński, M.: Generalization aspects in the virtual<br />

laboratory system. Remote Engineering and Virtual Instrumentation<br />

Villach, Austria, 28-29 September, 2004.<br />

[15] Lyu, S., Farid, H.: Steganalysis using higher-order image statistics.<br />

IEEE Transactions on Information Forensics and Security,<br />

vol. 1, no. 1, 111-119, 2006.<br />

[16] Milbrandt, E.: Steganography Software Website http://www.stegoarchive.com/,<br />

2008.<br />

[17] Podilchuk, C., Delp, E.: Digital Watermarking Algorithms and Applications.<br />

Proc. IEEE Signal Processing Magazine, 18(4), 33-<br />

46, 2001.<br />

[18] Provos, N.: Defending against statistical steganalysis. 10th<br />

USENIX Security Symposium, Washington, DC, 2001.<br />

[19] Rocha, A., Goldenstein, S.: Steganography and Steganalysis in<br />

Digital Multimedia: Hype or Hallelujah? Journal of Theoretical<br />

and Applied Computing - RITA 15(1), 83-110, 2008.<br />

[20] Sun Microsystems, Inc.: SOAP/TCP v1.0, http://java.sun.com/<br />

webservices /reference/apis-docs /soap-tcp-v1.0.pdf, 2008.<br />

[21] Sun Microsystems, Inc.: Java API for XML Web Services (JAX-WS)<br />

Overview https://jaxws.dev.java.net/nonav/2.1/docs/index.html,<br />

2008.<br />

[22] W3C Recommendation, SOAP Version 1.2 Part 0: Primer (Second<br />

Edition), http://www.w3.org/TR/2007/ REC-soap12-part0-<br />

20070427/, 27 April, 2007.<br />

64 ELEKTRONIKA 11/<strong>2009</strong>


[23] W3C - Web Services Glossary - http://www.w3.org/TR/ws-gloss/,<br />

<strong>2009</strong>.<br />

[24] Wayner, P.: Disappearing cryptography 3rd Edition: information<br />

hiding: steganography & watermarking. Amsterdam: MK/Morgan<br />

Kaufmann Publishers. ISBN 978-0123744791, <strong>2009</strong>.<br />

[25] Westfeld, A., High capacity despite better steganalysis (F5-a<br />

steganographic algorithm). Information Hiding, 4th International<br />

Workshop, volume 2137 of LNCS, Springer-Verlag, New York,<br />

289-302, 2001.<br />

[26] Wu, W., Yang, Z., Nahrstedt, K., Kurillo, G., Bajcsy, R.: Towards<br />

multi-site collaboration in tele-immersive environments.<br />

Proc. of ACM Multimedia (MM’07) (short paper), Augsburg,<br />

Germany, 2007.<br />

The use of speech recognition and user verification<br />

in closed-circuit television systems<br />

(Zastosowanie rozpoznawania mowy i weryfikacji użytkownika<br />

w systemach telewizji przemysłowej)<br />

dr inż. MARIUSZ KUBANEK<br />

Politechnika Częstochowska, <strong>Instytut</strong> Informatyki Teoretycznej i Stosowanej<br />

Speech recognition systems, and the verification of persons<br />

on the basis of independent speech are widely used. Speech<br />

is the most natural way for humans to communicate with each<br />

other. Over the past decade, much work has been done in<br />

man-machine communications in order to incorporate speech<br />

as a new modality in multimedia applications. The greatest interest<br />

is in two areas which have received considerable interest:<br />

speech recognition, in which the aim is for the machine to<br />

extract and understand the linguistic message in the speech,<br />

and speaker recognition, where the goal is to identify, recognize<br />

or verify the speaker responsible for producing the<br />

speech. Speech recognition systems are used in mobile<br />

phones for dial voice, in operating systems to voice control of<br />

different applications, in text editors to impose sentences, to<br />

recognize voice commands in cars, etc. User identification and<br />

verification based on speech are most often used in access<br />

control systems. The variety of applications of automatic<br />

speech recognition systems, for human computer interfaces,<br />

telephony, or robotics has driven the research of a large scientific<br />

community [1,3].<br />

The most important problem in process of speech recognition<br />

and speaker identification or verification is suitable coding<br />

of signal audio [4]. In general, speech coding is a procedure to<br />

represent a digitized speech signal using a few bits as possible,<br />

maintaining at the same time a reasonable level of speech quality.<br />

Speech coding has matured to the point where it now constitutes<br />

an important application area of signal processing. Due<br />

to the increasing demand for speech communication, speech<br />

coding technology has received augmenting levels of interest<br />

from the research, standardization, and business communities.<br />

Advances in microelectronics and the vast availability of lowcost<br />

programmable processors and dedicated chips have enabled<br />

rapid technology transfer from research to product<br />

development; this encourages the research community to investigate<br />

alternative schemes for speech coding, with the objectives<br />

of overcoming deficiencies and limitations. To<br />

standardization community pursues the establishment of standard<br />

speech coding methods for various applications that will<br />

be widely accepted and implemented by the industry. The business<br />

communities capitalize on the ever-increasing demand<br />

and opportunities in the consumer, corporate and network environments<br />

for speech processing products [1,4].<br />

In this work, it was proposed use speech recognition<br />

method to control the movement of the camera of closed-circuit<br />

television system, and use user verification method to log<br />

on to this system. To extraction of the audio features of person’s<br />

speech, in this work it was applied modified mechanism<br />

of cepstral speech analysis. For acoustic speech coding was<br />

used twenty dimensional MFCC (Mel Frequency Cepstral Coefficients)<br />

as the standard audio features. Speech recognition<br />

is done using hidden Markov models.<br />

Preliminary process of signal<br />

Analysis of audio channel one should to begin from filtration<br />

of signal, removing elements of signal being him disturbances.<br />

In working system in conditions approximate to ideal it was<br />

been possible to skip stage of preliminary filtration in aim of<br />

acceleration of working. In real conditions of work, signal of<br />

audio speech is often considerably disturbed, therefore in<br />

work was applied preliminary filtration [2].<br />

In system of recognizing of isolated word to control the<br />

movement of the camera of closed-circuit television, during<br />

recordings is necessary making a short-lived but clear pauses<br />

in form of silence among individual words. In view of remember<br />

kind of recognizing, after preliminary filtration of signal<br />

next stage is emission clean, proper audio signal, across removal<br />

of silence from before and behind signal [2]. In this<br />

work, it was applied two joint methods of removing of redundancy<br />

silence. First, from the base on calculation energy of<br />

signal and rejection of all samples, no exceeding receive<br />

threshold of energy. Entrance signal is divided onto frame<br />

boxes of 256 samples. Size of frame boxes depends from frequency<br />

of sampling. It was applied frequency of sampling<br />

8000 Hz. Then for every frame box is counted her energy.<br />

Choosing suitably threshold it was been possible to mark<br />

frame box, including beginning of recorded word. Such frame<br />

box crosses receive threshold of energy. Since in moment of<br />

beginning of recording, first some frame boxes contain only<br />

silence, it was been possible to mark threshold of energy on<br />

basis of initial frame boxes. In work, it was accepted doubled<br />

sum of energy of three first frame boxes as threshold. Second<br />

from methods counts number of changes of value of samples<br />

of signal from smaller on larger and onto retreat, in<br />

ELEKTRONIKA 11/<strong>2009</strong> 65


definite temporary partition. Use of this two methods permits<br />

onto proper emission of signal audio, and correct realizing remaining<br />

stages of system. Suitable connection of both methods<br />

permits onto correct delimitation of beginning and end of<br />

signal. After delimitation of beginning and end of polish word, to<br />

further operation signal is design without superfluous silence.<br />

The non-stationary nature of the speech signal caused by<br />

dynamic proprieties of human speech result in dependence<br />

of the next stage on use of division of entrance signal onto<br />

stationary frame boxes [5]. Signal is stationary in short temporary<br />

partitions (10 ± 30 ms) [7]. Every such stationary frame<br />

box was replaced by symbol of observation in process of create<br />

of vectors of observation. In created system it was assumed<br />

that length of every frame box equals 30 ms, what at<br />

given sampling of signal (8 kHz) remove 240 samples. For<br />

speech recognition, in aim of keeping stationary of signal, it<br />

was assumed that every next frame box is sew on previous<br />

with delay. It was accepted, that 80 last samples of signal of<br />

previous frame box are simultaneously 80 samples of next<br />

frame box. For speaker verification, in aim to keep all the detail<br />

signal, all frame boxes do not overlap.<br />

The mechanism of cepstral speech analysis<br />

Speech processing applications require specific representations<br />

of speech information. A wide range of possibilities exists<br />

for parametrically representing the speech signal. Among<br />

these the most important parametric representation of speech<br />

is short time spectral envelope [5,7]. Linear Predictive Coding<br />

(LPC) and Mel Frequency Cepstral Coefficients (MFCC)<br />

spectral analysis models have been used widely for speech<br />

recognition applications. Usually together with MFCC coefficients,<br />

first and second order derivatives are also used to take<br />

into account the dynamic evolution of the speech signal, which<br />

carries relevant information for speech recognition.<br />

In the mel-cepstrum, the spectrum were first passed<br />

through mel-frequency-bandpass-filters before they were<br />

transformed to the frequency domain [8]:<br />

The characteristics of filters followed the characteristics old<br />

human auditory system [8]. The filters had triangular bandpass<br />

frequency responses. For speech recognition, it was<br />

used filters with width 300 mels, and transferred with a delay<br />

150 mels. For speaker verification, it was used filters with<br />

width 200 mels, and transferred with a delay 100 mels, for<br />

a more detailed analysis of low frequency. The bands of filters<br />

were spaced linearly for bandwidth below 1000 Hz and increased<br />

logarithmically after the 1000 Hz. In the mel-frequency<br />

scaling, all the filter bands had the same width, which<br />

were equal to the intended characteristic of the filters, when<br />

they were in normal frequency scaling. Spectrum of signal of<br />

every frame boxes obtained by Fast Fourier Transform<br />

(FFT,512) comes under process of filtration by bank of filters.<br />

The next step was to calculate the members of each filter by<br />

multiplying the filter’s amplitude with the average power spectrum<br />

of the corresponding frequency of the voice input. The<br />

summation of all members of a filters is:<br />

(1)<br />

(2)<br />

Finally, the mel-frequency cepstrum coefficients (MFCC) was<br />

derived by taking the log of the mel-power-spectrum coefficients<br />

S k then convert them back to time (frequency) domain<br />

using Discrete Cosine Transform (DCT). The number of melcoefficients<br />

K used, for speaker recognition purposes, was<br />

usually from 12 to 20 [8]:<br />

In practice, removing this one from the formula gave<br />

a better performance, both for speech recognition, and verification<br />

of user.<br />

In this work, for speech cooding, it was used twenty dimensional<br />

MFCC as the standard audio features. For speech<br />

recognition, aim of analysis of signal audio was coding of signal<br />

audio, and obtaining of entrance data in form of vectors of<br />

observation. Polish language contains 37 different phonems,<br />

therefore to coding of signal audio it was applied codebook<br />

including 37 code symbols. At frequency of sampling 8 kHz,<br />

instead of 8000 values, signal audio will be coded by about<br />

50 values. It was applied Lloyd algorithm to vector quantization.<br />

One from basic operation during vector quantization is<br />

delimitation of distance of next vector of observation from all<br />

center of gravity of codebook. To measurement of distance it<br />

was applied Euclidean measure. For speaker verification, obtained<br />

for all frame boxes cepstrum coefficients add upped<br />

properly. In this expedient all independent statement one<br />

coded by twenty cepstral coefficients.<br />

Vector quantization with use Lloyd<br />

algorithm<br />

In use of loss-free compression, generated data by source<br />

have to be represented by one from small number of code<br />

words. Number of possible different data is generally larger<br />

from number of code word, design to them of representing.<br />

Process of representing of large collection of value by collection<br />

considerably smaller is called quantization [9]. A vector<br />

quantizer Q of dimension M and size N is a mapping from<br />

a vector x in M-dimensional Euclidean space R M into a finite<br />

set Y containing NM-dimensional outputs or reproduction<br />

points, called code vectors or code words. Thus:<br />

where:<br />

Y is known as the codebook of the quantizer. The mapping<br />

action is written as:<br />

(3)<br />

(4)<br />

(5)<br />

(6)<br />

66 ELEKTRONIKA 11/<strong>2009</strong>


Associated with every N-point M-dimensional vector quantizer<br />

is a partition of R M into N regions or cells, R i , i =1,...,N. The<br />

i-th cell is defined by:<br />

For a given codebook Y of size N, the optimal partition cells<br />

satisfy:<br />

where i, j =1,...,N and i = j. That is, Q(x) = y i only if d(x,y i ) ≤<br />

d(x,y j ). Thus given the codebook Y, the encoder contains<br />

a minimum distortion or nearest-neighbor mapping with:<br />

For making of measurement of distance, it is necessary qualification<br />

of center of gravity of area, considered as similar. It<br />

was defined the centroid cent(R o ), of any nonempty set<br />

R o ∈ R M as the vector y o (if it exists) that minimizes the distortion<br />

between a point X ∈ R o and y o , averaged over the<br />

probability distribution of X given X ∈ R o . Thus:<br />

for every y ∈ R M . For a given partition {R i ; i =1,...,N}, the optimal<br />

code vectors satisfy:<br />

(7)<br />

(8)<br />

(9)<br />

(10)<br />

Practical results<br />

In this work, it was proposed use speech recognition method<br />

to control the movement of the camera of closed-circuit television<br />

system, and use user verification method to log on to<br />

this system. Scheme of this system was showed on Figures.<br />

In system, during the registering, user must enter his<br />

unique login and read the three long randomly generated expressions.<br />

When registered in the system user logs on, also<br />

must enter his registered login and read one long randomly<br />

generated expression. If this statement is similar to at least<br />

two speeches given by the user login with highest probability,<br />

the system accepts the login into the system correctly. After<br />

adding a new user, the system makes code book, based on<br />

the recorded speech. Next, user must learn in the selected<br />

commands to control camera movement. It was selected the<br />

following commands to control: left, right, top, bottom, zoom,<br />

plus, minus, start, stop, recording, and the numerical values of<br />

the angle of rotation. Each of the commands, during the learning<br />

system, user must repeat five times. For the registered<br />

user, system controls the movement of the camera, using the<br />

database commands created by this user.<br />

Samples were taken at frequency of 8 kHz and 16-bit encoding.<br />

The system includes thirty five different posts, which<br />

are randomly selected during registration or login. In aim to<br />

eliminate harmful interference, the recording of expression is<br />

effected by means of a microphone, equipped with the filter<br />

code and the external processor DSP. For registered users,<br />

the system correctly recognizes all the commands to control<br />

the camera movement.<br />

Area including similar elements, except center of gravity it has<br />

to possess also boundary. Given the partition cells R i , i =<br />

1,...,N, the boundary set is defined as:<br />

for all i, j =1,...,N. Thus, the boundary consists of points that<br />

are equally close to both y j and to some other y i and hence do<br />

not have a unique nearest neighbor. A necessary condition for<br />

a codebook to be optimal for a given source distribution is:<br />

That is, the boundary set must be empty. Alter natively:<br />

(11)<br />

(12)<br />

(13)<br />

(14)<br />

for all i, j = 1,...,N.<br />

Suppose that the boundary set is non empty and hence<br />

there is at least one x that is equidistant to the code vectors y i<br />

and y j . Mapping x to y i or y j will yield two encoding schemes<br />

with the same average distortion. By including the nonzero<br />

probability input point x into either cell (R i and R j associated<br />

with y i and y j , respectively) will necessarily modify the centroids<br />

of R i and R j , meaning that the codebook is no longer optimal<br />

for the new partition. Given a codebook Y of size N, it is desired<br />

to find the input partition cells R i and codewords such that the<br />

average distortion D = E {d(X,Q(X))} is minimized, where X is<br />

the input random vector with a given PDF (Probability Density<br />

Function). All method of vector quantization with use Lloyd algorithm<br />

it was described on base work [4].<br />

Scheme of closed-circuit television system with speech recognition<br />

and and speaker verification<br />

Schemat systemu telewizji przemysłowej z systemem rozpoznawania<br />

mowy i głosowej weryfikacji użytkownika<br />

Conclusion and future work<br />

Now that speech signals are recorded with a frequency of<br />

8000 Hz, the next step in the development of this system will<br />

be able to log into the system and traffic control cameras by<br />

the Internet. Encoded as the recorded sound, and send over<br />

the network should not be a problem. Next, the system will be<br />

equipped with a module to automatically locate the face, eyes<br />

and mouth of person, contained in the frame of the camera.<br />

The given data will be used to verify the identity of persons<br />

on the basis of facial asymmetry.<br />

ELEKTRONIKA 11/<strong>2009</strong> 67


References<br />

[1] Kubanek M.: Analysis of Signal of Audio Speech i Process of<br />

Speech Recognition. Computing, Multimedia and Intelligent<br />

Techniques, 2, pp. 5564, 2006.<br />

[2] Kubanek M.: Method of Speech Recognition and Speaker<br />

Identification with use Audio-Visual Polish Speech and Hidden<br />

Markov Models. Biometrics, Computer Security Systems and<br />

Artificial Intelligence Applications, Saeed, K., Pejas, J., Mosdorof,<br />

R., Springer Science + Business Media, New York, pp.<br />

45-55, 2006.<br />

[3] Aydin Y., Nakajama H.: Realistic articulated character positioning<br />

and balance control in interactive environments. Proceedings<br />

Computer Animation, pp. 160-168, 1999.<br />

[4] Chu Wai C.: Speech coding algorithms. Foundation and Evolution<br />

of Standardized Coders. A John Wiley & Sons, New Jersey 2000.<br />

[5] Rabiner L., Yuang B. H.: Fundamentals of Speech Recognition.<br />

Prentice Hall Signal Processing Series, 1993.<br />

[6] Wisniewski A. M.: Hidden Markov Models in Speech Recognition.<br />

Bulletin IAiR WAT, 7, Wroclaw 1997 [In Polish].<br />

[7] Kanyak M. N. N., Zhi Q., Cheok A., D., Sengupta K., Chung K.<br />

C.: Audio-Visual Modeling for Bimodal Speech Recognition.<br />

Proc. Symp. Time Series Analysis, 2001.<br />

[8] Wahab A., See Ng G., Dickiyanto R.: Speaker Verification System<br />

Based on Human Auditory and Fuzzy Neural Network System.<br />

Neurocomputing Manuscript Draft, Singapore.<br />

[9] Sayood K.: Data compression - introduction. Publisher RM. Warsaw,<br />

2002 [In Polish].<br />

SMS-B project of educational platform for e-business<br />

(Projekt systemu SMS-B jako platformy edukacyjnej dla e-biznesu)<br />

dr inż. PIOTR JAŁOWIECKI 1,2 , dr inż. TOMASZ WOŹNIAKOWSKI 1 ,<br />

dr hab. ARKADIUSZ ORŁOWSKI 1,3 prof. SGGW<br />

1 Warsaw University of Life Sciences<br />

2 The College of Finance and Management in Siedlce<br />

3 Institute of Physics - Polish Academy of Sciences<br />

Nowadays companies and enterprises collects and stores<br />

huge amounts of data. However according to different evaluations<br />

until recently only not much over 7% of these informations<br />

were using in business strategic decisions making<br />

processes [1,6]. Change of this situation became possible with<br />

popularizing the Business Intelligence (BI) technologies.<br />

Originally the BI applications were understood only as<br />

a specialized systems of the information management. Currently,<br />

BI systems still are being used in their primal role to deliver<br />

information for management support processes but more<br />

often these systems constitutes wide connecting of applications<br />

and technologies used for collecting, aggregation, selection,<br />

analysis and suitable presentation of the business information<br />

derived from different internal and external sources for the purposes<br />

of different business activities of the enterprise [2].<br />

BI systems are the way of the realization of computer/information<br />

integrated systems functioning in the scale of the entire<br />

institution. The reasons are great elasticity and high possibilities<br />

of the company functions optimization of these systems in<br />

many aspects on many organizational levels. BI systems more<br />

and more often make their stores available outside going beyond<br />

organizational structures of companies [8,10].<br />

Characteristic feature of BI systems is using Data Warehouse<br />

technology with advanced mechanisms of automatic<br />

data loading from source databases, data integration and<br />

transfer to central base, On-Line Analytical Processing<br />

(OLAP) multidimensional data analysis tools, and Data Mining<br />

exploration techniques [5].<br />

Objectives<br />

The lack of abilities to obtain practical skills of designing and<br />

using integrated computer information systems in real operating<br />

environment is a stipulation often put forward in relation<br />

to programs of some higher education faculties like a Informatics,<br />

Informatics and Econometrics, Economics, Finances<br />

and Management. The main reason is a lack of appropriate<br />

educational platforms enabling to conduct exercises in form<br />

similar enough to real tasks in job.<br />

The main objective of this paper is a presentation of the<br />

Simulation and Modeling System for Business (SMS-B) conception<br />

as the proposal of the educational platform offering to<br />

the possibilities real integrated information systems. The SMS-<br />

B System is copying architecture and the specificity of the real,<br />

information operating environment of the company/institution<br />

functioning based on generated data simulating real data in the<br />

amount, which is enough to conduct the teaching processes.<br />

In the paper possibilities offered by the SMS-B system are<br />

presented in obtaining of specialized knowledge and professional<br />

skills necessary for different user categories of real computer<br />

information systems: computer team, business users,<br />

business analysts, information consumers. The SMS-B system<br />

can be also successfully used as a computer tool for informatics,<br />

statistics, econometrics and management courses,<br />

especially practical exercises.<br />

In the paper an assessment of courses and teaching hours<br />

number proposed to use of SMS-B in educational platform<br />

character on real faculties in Warsaw University of Life Sciences<br />

in 2008/<strong>2009</strong> academic year is also presented.<br />

System architecture and functionality<br />

The architecture of SMS-B system is characteristic for a structure<br />

of integrated computer information systems functioning<br />

in commercial banks. The final architecture is presented in<br />

Figure. The system was planned to build and introduce in<br />

three main phases. In the first phase a foundation version<br />

signed in Fig. by solid line is building. In the second phase the<br />

68 ELEKTRONIKA 11/<strong>2009</strong>


The SMS-B system architecture (Source: Own preparation)<br />

system is supplemented by additional modules signed in Fig.<br />

by dotted line. In the third phase the most important modules<br />

of the system are decentralized between separated machines<br />

due to current needs and financial possibilities. There are<br />

metadata, Extraction Transformation Loading (ETL), OLAP<br />

analysis and report distribution servers.<br />

Data loaded into real BI systems comes from many different<br />

external sources, primarily from transactional systems. According<br />

to procedural, legal, but first technical, circumstances<br />

there are no possibilities of using real data by SMS-B system.<br />

Therefore data for the purposes of the system is being generated<br />

randomly according to scripts and structures designed<br />

on the basis of real data structures.<br />

The range of data includes such areas as: attributes of customers<br />

in the form of financial reports, involvement to different<br />

products, account balances, security details, debt collections<br />

and the sets of market data. Generated data are loaded to data<br />

warehouse, which apart from central data base is equipped<br />

with data compatibility control, data supplement, data aggregation<br />

and limited support of data management mechanisms.<br />

Data from data warehouse are processed by ETL server<br />

according to scenarios, which enables to gain data extracts<br />

necessary for analytical processes. Generated data extracts<br />

are saved and stored in common layer divided to repositories<br />

used by different system modules. Its structures are optimized<br />

for specific analysis categories.<br />

A management of ETL processes, data extracts and data<br />

circulation in SMS-B system are supported and optimized by<br />

metadata server, which is introduced to system structure in<br />

the second phase of realization.<br />

The analytical server consists of applications which implements<br />

selected methods of statistical data analysis, data<br />

mining, multidimensional data analysis and forecasting models.<br />

Standard analytical methods are implemented with using<br />

the analytical software to build the basic functionality of analytical<br />

server. Advanced analytical methods dedicated to concrete<br />

analytical models are implemented during introduction of<br />

SMS-B areas of functionality and new analytical methodologies<br />

introduced in real financial institutions. In the third phase<br />

of system implementation part of analytical server responsible<br />

for multidimensional analysis and results presentation is<br />

moved to the separate, dedicated OLAP server.<br />

The Report Distribution Server is dedicated for management<br />

of analysis results in the form of Enterprise Information<br />

Portal (EIP), which enables a hierarchical distribution of reports<br />

for different system user groups. In the first phase the<br />

Enterprise Integration Platform (EIIP) is implemented, which is<br />

dedicated to integration of data destined to present as a enduser<br />

information. In the second phase main EIP module is introduced<br />

and integrated with additional parts of the SMS-B<br />

system: administration and end-user stations. In the third<br />

phase EIP/EIIP module is upgraded and supplemented by<br />

new techniques of business report presentations, for example<br />

management dashboards. The conception of introduction<br />

of EIP/EIIP platform as a part of SMS-B system is described<br />

in other paper [4].<br />

Because the SMS-B system simulates information environment<br />

of commercial bank, system introduction process<br />

was preceded by analysis of software and solutions market<br />

dedicated to information systems in polish banks. In analysis<br />

in wide range case studies of Gartner Group prepared with<br />

using of Magic Quadrants methodology were used [3,7,9].<br />

System objectives<br />

Main objective of SMS-B system is a simulation of information<br />

environment in commercial bank by reconstruction of its<br />

components and preparation of data structures generated on<br />

the base of real structures. Integrated information environment<br />

is used to provide didactic pathways and single subjects<br />

dedicated to areas of interesting specific for different categories<br />

of real integrated information systems users.<br />

The first category are Information and Communication<br />

Technologies (ICT) service users, which consists of:<br />

• ICT Administrators, which administrate and manage of user<br />

accounts hierarchy, software and report distribution;<br />

• Data Modelers, which manage of business views, create<br />

physically data schemes, program in programming languages,<br />

e.g. SQL;<br />

• Report Administrators, which project of report schemes,<br />

create reports, control and monitor of queries;<br />

• Application Developers, which create Web and system applications.<br />

The second category are Business Users, which consists of:<br />

• Business Analysts, which typically objectives are: advanced<br />

worksheet using, e.g. Excel, ad-hoc queries, OLAP<br />

analysis, report publication, business processes projecting;<br />

• Power Users, which typically objectives are: some programming<br />

objectives, advanced worksheets using, ad-hoc<br />

queries, specialized reports preparation, data modeling<br />

and analysis, management of business activity areas.<br />

The third category are Information Consumers, which consists<br />

of:<br />

• C-Level Executives, which project business strategies,<br />

control and monitor business processes;<br />

• Middle Management, which interpret of business indicators<br />

and parameters;<br />

• Operational Consumers, which typically objectives are connected<br />

with sales, marketing, service, financial activity,<br />

technical support.<br />

Apart from subjects dedicated to practically using of SMS-<br />

B system for concrete real user group needs, a different parts<br />

of system can be effectively used to providing of subjects,<br />

ELEKTRONIKA 11/<strong>2009</strong> 69


which are realized in traditional way, e.g. databases, computer<br />

networks, operational systems, statistics, econometrics,<br />

management.<br />

System perspectives in WULS<br />

Before SMS-B system introduction, an analysis of possibility<br />

of system using to different subjects on different faculties of<br />

Warsaw University of Life Sciences (WULS) was provided.<br />

The subjects were divided to three categories:<br />

• A Category contains subjects dedicated to SMS-B using;<br />

• B Category contains subjects, which may be supported by<br />

SMS-B using;<br />

• C Category contains facultative subjects, which may be an<br />

additional significant area of SMS-B using.<br />

Because the conception for SMS-B system was dedicated<br />

to economic and computer faculties in the table possibilities of<br />

system using to provide of three categories of subjects are<br />

presented for six faculties on Faculty of Economic Sciences<br />

and on Faculty of Applied Informatics and Mathematics according<br />

to study programs for 2007/08 academic year.<br />

Possibilities of SMS-B using to provide subjects in six economic<br />

and computer faculties for all year groups in one academic year in<br />

WULS<br />

Faculty A Category B Category C Category<br />

hours<br />

Source: Own preparation<br />

% of all<br />

hours on<br />

faculty<br />

hours<br />

% of all<br />

hours on<br />

faculty<br />

hours<br />

% of all<br />

hours on<br />

faculty<br />

Economics 135 1,7% 1140 9.9% 2600 33.1%<br />

Finances and<br />

Accounting<br />

495 5.9% 1005 8.1% 2600 32.3%<br />

Informatics 135 3.9% 480 14.8% 1410 36.8%<br />

Informatics<br />

and Econometrics<br />

930 10.9% 1590 15.7% 810 14.3%<br />

Logistics 270 5.3% 540 10.5% 2000 52.6%<br />

Management 360 4.5% 1050 13.0% 1800 19.0%<br />

TOTAL: 2325 - 5805 - 11220 -<br />

In calculations some assumptions were accepted. On economic<br />

faculties (Economy, Finances and Accounting, Logistics,<br />

Management) there are 8 exercises groups in first level<br />

studies and 4 exercises groups in second level studies. On<br />

computer faculties (Informatics, Informatic and Econometrics)<br />

there are 4 exercises groups in both study levels.<br />

Summary<br />

The keynote of projecting and introduction of SMS-B system<br />

was an absorption of modern ICT technologies to preparation<br />

of Business Intelligence educational platform. Rapid evolution<br />

of integrated information systems and data warehouses,<br />

which are a fundament of modern solutions used in commercial<br />

institutions is a reason to project SMS-B system in open<br />

architecture, which is vulnerable for new technologies and<br />

new areas of functionality introductions.<br />

This system offers a wide range of possibilities of professional<br />

teaching in form maximally close to real work environment.<br />

Moreover there, system can be interesting as a alternative<br />

to traditional ways of teaching subjects in Informatics,<br />

Statistics, Econometrics, Finances and Management domains.<br />

Presented in the paper assessments of didactic hours<br />

in study programs in WULS indicate to potentially high possibilities<br />

of SMS-B using in educational pathways.<br />

However, main objective of system is beeing the solution,<br />

which enables to project and introduce educational pathways<br />

dedicated to teaching of professional ICT and analysis specialists<br />

for modern electronic commerce. One of the most important<br />

assumption is that these dedicated pathways will be audited<br />

by main providers of ICT solutions for commercial institutions.<br />

References<br />

[1] Burke M.E.: The Phenomenal Power of Business Intelligence:<br />

Managerial Skills for the 21st Century. Europa Publications Limited,<br />

Taylor & Francis Group, 2nd rev. edition, London, 2003.<br />

[2] Dudycz H., Sierocki R.: Miejsce zaawansowanych systemów informacyjno-analitycznych<br />

w rozwoju systemów informacyjnych<br />

przedsiębiorstw. In: E. Niedzielska, H. Dudycz, M. Dyczkowski<br />

[Ed.] Nowoczesne technologie informacyjne w zarządzaniu. Prace<br />

Naukowe AE we Wrocławiu, 986, Wrocław, 2003 [in Polish].<br />

[3] Feinberg D., Beyer M. A.: Magic Quadrant for Data Warehouse<br />

Database Management Systems. Gartner RAS Core Research<br />

Note, G00151490, Stamford, USA, 2007.<br />

[4] Jałowiecki P., Woźniakowski T., Jałowiecka E.: The Conception<br />

of Enterprise Information Portal as a Part of SMS-B Business Intelligence<br />

Education Platform. In: W. Karwowski, A. Jakubiec, A.<br />

Orłowski (red.): Information Systems in Management. WULS<br />

Press, Warsaw, <strong>2009</strong> (in printing).<br />

[5] Januszewski A.: Funkcjonalność informatycznych systemów<br />

zarządzania, t.2: Business Intelligence. PWN, Warszawa, 2008.<br />

[6] Liautaud B., Hammond M.: E-Business Intelligence. Turning Information<br />

into Knowledge into. Profit, McGraw-Hill, New York 2002.<br />

[7] Light M., Stang D.B.: Magic Quadrant for IT Project and Portfolio<br />

Management. Gartner RAS Core Research Note,<br />

G00149028, Stamford, USA, 2007.<br />

[8] Moss L. T., Atre S.: Business Intelligence Roadmap: The Complete<br />

Project Lifecycle for Decision-Support Applications. Addison-Wesley<br />

Professional, 1st edition, San Francisco, USA, 2003.<br />

[9] Richardson J., Schlegel K., Hostmann B., McMurphy N.: Magic<br />

Quadrant for Business Intelligence Platforms. Gartner RAS Core<br />

Research Note, G00154227, Stamford, USA, 2008.<br />

[10] Williams S., Williams N.: The Profit Impact of Business Intelligence.<br />

Morgan Kaufmann Publishers Inc., 1st edition, San<br />

Fracisco, USA, 2006.<br />

70 ELEKTRONIKA 11/<strong>2009</strong>


Technika próżni i technologie próżniowe<br />

Biuletyn Polskiego Towarzystwa Próżniowego 1 (48) <strong>2009</strong><br />

pod redakcją dr hab. inż. Ryszarda Korbutowicza<br />

e-mail: Ryszard.Korbutowicz@pwr.wroc.pl<br />

http://www.ptp.pwr.wroc.pl<br />

Biuletyn dofinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego<br />

XVII Walne Zebranie Członków Polskiego Towarzystwa Próżniowego<br />

zebranie sprawozdawczo-programowe<br />

Szklarska Poręba, 20.05.<strong>2009</strong> r.<br />

Podczas obrad XI Seminarium Powierzchnia i Struktury<br />

Cienkowarstwowe odbyło się 20.05.<strong>2009</strong> r. w Szklarskiej<br />

Porębie zwołane przez Zarząd Główny Polskiego<br />

Towarzystwa Próżniowego na podstawie uchwały<br />

Zarządu PTP nr 3/<strong>2009</strong>:<br />

Uchwała Zarządu PTP nr 3/<strong>2009</strong><br />

Na podstawie §25 p. 4 statutu PTP Zarząd zwołuje<br />

Walne Zebranie Sprawozdawczo - Programowe<br />

Członków Towarzystwa w Szklarskiej Porębie, w Ośrodku<br />

Konferencyjno-Szkoleniowym „Radość” Politechniki<br />

Wrocławskiej ul. Muzealna 5, 20 maja <strong>2009</strong> r. -<br />

w trakcie XI Seminarium „Powierzchnia i Struktury Cienkowarstwowe”<br />

na godz. 19 45 w I terminie,<br />

na godz. 20 00 w II terminie<br />

z następującym porządkiem obrad:<br />

1. otwarcie zebrania,<br />

2. wybory Sekretarza Walnego Zebrania,<br />

3. przyjęcie porządku obrad,<br />

4. wybór Komisji Wnioskowej,<br />

5. sprawozdanie Zarządu z działalności za 2008 r.<br />

i program działania na <strong>2009</strong> r.,<br />

6. sprawozdanie finansowe za 2008 r.,<br />

7. plan finansowy na <strong>2009</strong> r.,<br />

8. opinia Komisji Rewizyjnej w sprawie działalności<br />

PTP i sprawozdania finansowego za 2008 r.,<br />

9. dyskusja,<br />

10. podjęcie uchwał w sprawie sprawozdania z działalności<br />

PTP i sprawozdania finansowego za 2008 r.<br />

oraz planu działalności i planu finansowego PTP<br />

na <strong>2009</strong> r.,<br />

11. wolne wnioski,<br />

12. sprawozdanie Komisji Wnioskowej,<br />

13. zakończenie Walnego Zebrania.<br />

Zarząd zobowiązuje Sekretarza Organizacyjnego<br />

PTP do zawiadomienia wszystkich Członków Towarzystwa<br />

o terminie, miejscu i porządku Walnego<br />

Zebrania.<br />

Warszawa, 30 stycznia <strong>2009</strong> r.<br />

za Zarząd<br />

dr inż. Katarzyna Olszewska<br />

Sekretarz Organizacyjny Polskiego<br />

Towarzystwa Próżniowego<br />

Miejsce zebrania:<br />

Szklarska Poręba Średnia, ul. Muzealna 5 (Ośrodek<br />

Konferencyjno-Szkoleniowy „Radość” Politechniki<br />

Wrocławskiej).<br />

Termin I:<br />

godz. 19 45 - zebranie nie odbyło się z powodu braku<br />

kworum.<br />

Aktualna liczba członków zwyczajnych PTP:<br />

137 osób - obecnych 16.<br />

Aktualna liczba członków wspierających PTP:<br />

12 - obecnych 5.<br />

Zgodnie z §20 p. 1 Statutu zebranie rozpoczęło się<br />

w terminie II o godz. 20 00 przy obecnych 16 członkach<br />

zwyczajnych i 5 członkach wspierających i miał przebieg<br />

zgodny z Porządkiem Obrad stanowiącym<br />

Załącznik 2 do niniejszego Protokołu.<br />

ELEKTRONIKA 11/<strong>2009</strong> 71


Przebieg zebrania<br />

Ze względu na nieobecność przewodniczącego PTP<br />

prof. Stanisława Hałasa, Walne Zebranie otworzył<br />

przewodniczący elekt prof. Jacek Szuber witając<br />

zebranych, a następnie poprosił o poprowadzenie<br />

Zebrania zastępcę przewodniczącego prof. Marka Szymońskiego.<br />

Przewodniczący Zebrania zaproponował,<br />

aby dr inż. Katarzyna Olszewska została sekretarzem<br />

Walnego Zebrania. Obecni na posiedzeniu w jawnym<br />

głosowaniu jednomyślnie wybrali dr inż. K. Olszewską<br />

na sekretarza Walnego Zebrania. Przewodniczący Zebrania<br />

poddał następnie pod głosowanie przyjęcie zaproponowanego<br />

Porządku Obrad (patrz Załącznik 2)<br />

rozszerzonego o punkt 10a „nadanie godności Honorowego<br />

Członka PTP”. Walne Zebranie jednogłośnie<br />

w głosowaniu jawnym przyjęło zaproponowany<br />

Porządek Obrad. Walne Zebranie również w jawnym<br />

głosowaniu wybrało jednomyślnie Komisję Wnioskową<br />

Zebrania w składzie: dr Janusz Budzioch oraz<br />

dr inż. Beata Ściana.<br />

Przewodniczący elekt PTP prof. J. Szuber przedstawił<br />

Sprawozdanie Zarządu PTP z działalności<br />

w okresie od 22.09.2008 r. do 20.05.<strong>2009</strong> r.<br />

Sprawozdanie Zarządu Polskiego<br />

Towarzystwa Próżniowego z działalności<br />

w okresie od 22 września 2008 r.<br />

do 20 maja <strong>2009</strong> r. w kadencji 2007-2010<br />

W okresie sprawozdawczym Zarząd PTP pracował<br />

w składzie wybranym na Walnym Zebraniu Sprawozdawczo-Wyborczym<br />

we Wrocławiu w dniu 26 kwietnia<br />

2007 r.:<br />

Przewodniczący - od 22 września 2008 - prof. Stanisław<br />

HAŁAS,<br />

Przewodniczący poprzedniej kadencji - prof. Marek<br />

SZYMONSKI,<br />

Przewodniczący Elekt - prof. Jacek SZUBER,<br />

Sekretarz Naukowy - dr hab. inż. Marek TŁACZAŁA,<br />

Sekretarz organizacyjny - dr inż. Katarzyna<br />

OLSZEWSKA,<br />

Skarbnik - dr Mirosław KOZŁOWSKI.<br />

Przewodniczący Sekcji:<br />

dr Ryszard MANIA z AGH - Sekcja Plazmowej<br />

Inżynierii Powierzchni - od 22 września.<br />

Sekcja ta ma honorowego przewodniczącego w osobie<br />

byłego przewodniczącego - prof. Witolda PRECHTA,<br />

dr hab. Zdzisław STĘPIEŃ - Sekcja Nauki o Powierzchni,<br />

prof. Elżbieta CZERWOSZ - Sekcja Techniki Próżni,<br />

dr hab. inż. Regina PASZKIEWICZ - Sekcja Cienkich<br />

Warstw.<br />

Członkowie Zarządu: dr Janusz BUDZIOCH, prof. Antoni<br />

CISZEWSKI, dr inż. Ryszard KORBUTOWICZ,<br />

dr hab. Leszek MARKOWSKI.<br />

Zgodnie z planem pracy przyjętym dla całej kadencji<br />

2007-2010 w okresie sprawozdawczym prace<br />

Zarządu PTP koncentrowały się na następujących<br />

zagadnieniach:<br />

1. działalności naukowej,<br />

2. działalności szkoleniowej,<br />

3. działalności wydawniczej (biuletyn, witryna internetowa<br />

PTP: http://www.ptp.pwr.wroc.pl,<br />

oraz wydawanie materiałów szkoleniowych i edukacyjnych),<br />

4. współpracy z zagranicznymi organizacjami próżniowymi<br />

oraz IUVSTA,<br />

5. sprawach organizacyjno-członkowskich.<br />

Materiały źródłowe:<br />

1. Plan działania PTP na lata 2007-2010<br />

2. Protokoły z Zebrań Zarządu PTP:<br />

• Protokół 3/2008 z posiedzenia Zarządu PTP w Janowie<br />

Lubelskim dniu 22.09.2008 r.<br />

• Protokół Komisji Wnioskowej z Walnego Zebrania<br />

Polskiego Towarzystwa Próżniowego w Janowie<br />

Lubelskim w dniu 22.09.2008 r.<br />

• Protokół 12/2008 z posiedzenia Zarządu PTP<br />

w Warszawie w dniu 30.01.<strong>2009</strong> r.<br />

• Uchwała Zarządu PTP nr 3/<strong>2009</strong><br />

3. Biuletyn PTP opublikowany w nr 1/<strong>2009</strong> Elektroniki<br />

wraz z materiałami z IV Kongresu PTP oraz VII Krajowej<br />

Konferencji Techniki Próżni<br />

4. Witryna internetowa: www.ptp.pwr.wroc.pl<br />

I. Działalność naukowa<br />

Konkurs im. J. Groszkowskiego<br />

Odpowiedzialnym za organizację konkursu jest<br />

prof. Tłaczała, który w tej sprawie podjął energiczne<br />

działania. W związku z przedłużeniem terminu konkursu<br />

za rok 2008 (do 15 marca <strong>2009</strong> r.) komisja<br />

konkursowa zakończyła ostatnie posiedzenie w dniu<br />

13 maja <strong>2009</strong> r. i po zapoznaniu się z dokumentami<br />

oraz opinią powołanego recenzenta ogłosiła swój<br />

werdykt w sprawie wyników kolejnej edycji konkursu<br />

im. J. Groszkowskiego:<br />

1. W dziedzinie prac dyplomowych zgłoszona została<br />

jedna praca dyplomowa magisterska zatytułowana<br />

„Badanie wpływu surfaktantów na wzrost cienkich<br />

warstw w układzie cienkowarstwowym”, której autorem<br />

jest mgr inż. Michał Krupiński z Wydział Fizyki<br />

i Informatyki Stosowanej AGH Kraków.<br />

Komisja konkursowa postanowiła wyróżnić zgłoszoną<br />

pracę I nagrodą za pracę magisterską za rok<br />

2008/<strong>2009</strong> i przyznać nagrodę finansową w wysokości<br />

regulaminowej.<br />

2. W dziedzinie prac doktorskich za rok 2008 nie<br />

została zgłoszona żadna praca. W tym przypadku<br />

komisja nie miała możliwości rozpatrzenia żadnego<br />

72 ELEKTRONIKA 11/<strong>2009</strong>


wniosku i w konsekwencji za rok 2008 nie można<br />

było przyznać nagrody im. J. Groszkowskiego za<br />

najlepszą pracę doktorską.<br />

Konferencje organizowane pod patronatem PTP<br />

Organizacja konferencji naukowych stanowi jedną<br />

z najważniejszych merytorycznie form działania PTP<br />

z powodzeniem realizowaną przez poszczególne<br />

sekcje tematyczne Towarzystwa. W okresie sprawozdawczym<br />

zorganizowano pod patronatem PTP dwie<br />

konferencje krajowe oraz trzy warsztaty naukowe<br />

o zasięgu międzynarodowym. Aktualnie prowadzone<br />

są już prace nad przygotowaniem najbliższych konferencji<br />

naukowych organizowanych przez lub pod auspicjami<br />

PTP.<br />

Rok 2008<br />

* VI International Workshop on Semiconductor Gas<br />

Sensors - SGS2008, Zakopane, 14-19 września<br />

2008 r., której organizatorzy to: Sekcja Nauki o Powierzchni<br />

i Sekcja Cienkich Warstw PTP oraz Europejskie<br />

Centrum Doskonałości CESIS i Krajowe<br />

Centrum Doskonałości NANOMET przy Zakładzie<br />

Technologii Elektronowej Politechniki Śląskiej w Gliwicach.<br />

Warsztaty otrzymały dofinansowanie z Ministerstwa<br />

Nauki i Szkolnictwa Wyższego z wniosku PTP. Dyrektorem<br />

Konferencji był prof. Jacek Szuber z Politechniki<br />

Śląskiej w Gliwicach. W warsztatach SGS 2008 wzięło<br />

udział 53 uczestników, w tym 40 z zagranicy. Materiały<br />

pokonferencyjne zaakceptowane do druku ukazały się<br />

w czasopiśmie Thin Solid Films (Wydawnictwo Elsevier)<br />

w sierpniu <strong>2009</strong> roku.<br />

Szczegółowe informacje o Warsztatach można znaleźć<br />

na stronie internetowej:<br />

http://www.zte.polsl.pl/sgp2008/sgs2008.html<br />

* IV Kongres PTP i VIII Krajowa Konferencja Techniki<br />

Próżni, Janów Lubelski, 21-24 września 2008 r., którą<br />

zorganizowali: Sekcja Techniki Próżni PTP, <strong>Instytut</strong><br />

Tele- i Radiotechniczny w Warszawie, <strong>Instytut</strong> Fizyki<br />

UMCS w Lublinie. Uzyskano dofinansowanie z Ministerstwa<br />

Nauki i Szkolnictwa Wyższego z wniosku PTP.<br />

Dyrektorem Konferencji była prof. Elżbieta Czerwosz<br />

z <strong>Instytut</strong>u Tele- i Radiotechnicznego w Warszawie.<br />

Podczas konferencji wygłoszono referaty plenarne<br />

i komunikaty. Odbyły się także prezentacje na sesji<br />

producentów. Materiały pokonferencyjne ukazały się<br />

w czasopiśmie <strong>Elektronika</strong> nr 12/2008.<br />

* IV Workshop on Hybrid Nanostructured Materials, Advanced<br />

Nanomaterials, Their Preparation and Analysis,<br />

Wrocław, 24-27 październik 2008 r., którego organizatorami<br />

byli: Sekcja Cienkich Warstw PTP oraz Wydział<br />

Elektroniki Mikrosystemów i Fotoniki Politechniki<br />

Wrocławskiej.<br />

Rok <strong>2009</strong><br />

* XI Seminarium Powierzchnia i Struktury Cienkowarstwowe,<br />

Szklarska Poręba, 19-22 maja <strong>2009</strong> r. Seminarium<br />

odbyło się w Szklarskiej Porębie. Do udziału<br />

zgłosiło się ponad 80 osób. Zaplanowano: wygłoszenie<br />

6 referatów plenarnych i kilkanaście referatów sekcyjnych<br />

oraz dwie sesje plakatowe. Uzyskano<br />

dofinansowanie z Ministerstwa Nauki i Szkolnictwa<br />

Wyższego z wniosku PTP. Organizatorami seminarium<br />

są: Sekcja Nauki o Powierzchni i Sekcja Cienkich<br />

Warstw PTP, Wydział Elektroniki Mikrosystemów i Fotoniki<br />

Politechniki Wrocławskiej, Centrum Materiałów<br />

Zaawansowanych i Nanotechnologii Politechniki<br />

Wrocławskiej.<br />

Kolejne planowane imprezy naukowe w tym roku to:<br />

• III Krajowa Konferencja Nanotechnologii w Warszawie<br />

• IV Symposium on Vacuum Based Science and Technology<br />

• SEMICONDUCTOR SURFACE PASSIVATION 6th<br />

International Workshop.<br />

II. Działalność szkoleniowa<br />

Działalność szkoleniowa jest jednym z najważniejszych<br />

zadań statutowych Towarzystwa. Działalność ta jest<br />

ściśle związana z zadaniami statutowymi Towarzystwa<br />

jest niezwykle potrzebna i będzie kontynuowana zgodnie<br />

z wcześniejszymi ustaleniami, tj. kolejne cykle szkolenia<br />

będą odbywać się co 2 lata. Następny cykl szkoleń<br />

odbędzie się w okresie wiosennym 2010 r. Odpowiedzialny<br />

za organizację szkoleń jest członek Zarządu<br />

dr Janusz Budzioch.<br />

III. Działalność wydawnicza<br />

Działalność wydawnicza jest również jednym z najważniejszych<br />

zadań statutowych Towarzystwa. W ramach<br />

tej działalności w okresie sprawozdawczym<br />

ukazał się jeden Biuletyn PTP (numer podwójny<br />

46-47/2008) - wraz z numerem 12/2008 czasopisma<br />

<strong>Elektronika</strong>.<br />

Sprawnie działa witryna internetowa PTP<br />

http://www.ptp. pwr.wroc.pl i jest na bieżąco aktualizowana,<br />

nad którą pieczę sprawuje członek Zarządu<br />

PTP - dr hab. inż. Ryszard Korbutowicz. Witryna posiada<br />

linki aktualności, informacji, konferencji, konkursu<br />

im. Janusza Groszkowskiego, biuletynów PTP,<br />

a także ma rubrykę wspomnień. Znajdujemy w niej<br />

wspomnienie o doc. Januszu Sobańskim, jednym<br />

z założycieli Polskiego Towarzystwa Próżniowego,<br />

prof. Piotrze Szweminie oraz prof. Leszku Michalaku.<br />

Są tam także linki do stron internetowych organizacji<br />

i towarzystw próżniowych. Wśród ciekawostek znajdujemy<br />

zredagowany przez prof. Andrzeja Hałasa opis<br />

pierwszego eksperymentu próżniowego przeprowa-<br />

ELEKTRONIKA 11/<strong>2009</strong> 73


dzonego na dworze króla Władysława IV. Dzięki<br />

uprzejmości prof. J. Zdanowskiego zainteresowani<br />

znajdą również szeroki przegląd osiągnięć polskiej<br />

próżni w materiałach „Polska <strong>Elektronika</strong> Próżniowa<br />

Wczoraj i Dziś” wydanych przez Oficynę Wydawniczą<br />

Politechniki Wrocławskiej.<br />

Podsumowując tę część działalności Zarządu<br />

PTP należy podkreślić, że po wielu wysiłkach udało<br />

się pod auspicjami Towarzystwa zgromadzić po raz<br />

pierwszy oryginalne materiały edukacyjne i wydrukować<br />

publikacje szkoleniowe z tematyki próżni. Na<br />

końcowym etapie jest sprawa druku pozycji książkowej<br />

o tej tematyce. Zarząd pragnie gorąco podziękować<br />

prof. Tomaszowi Stobieckiemu za niezwykły<br />

wysiłek włożony w realizację działalności wydawniczej<br />

PTP.<br />

IV. Współpraca z zagranicznymi<br />

organizacjami próżniowymi i IUVSTA<br />

Współpraca z zagranicznymi towarzystwami<br />

próżniowymi<br />

W tym zakresie prowadzono rozmowy z Niemieckim<br />

Towarzystwem Próżniowym, Szwajcarskim Towarzystwem<br />

Próżniowym i Szwedzkim Towarzystwem<br />

Próżniowym na temat zorganizowania we wrześniu<br />

<strong>2009</strong> r. w Koszalinie kolejnej wspólnej konferencji<br />

naukowej pt.: Vacuum Based Science and Technology<br />

oraz wystawy sprzętu próżniowego. Była to kontynuacja<br />

wcześniejszych konferencji z tego cyklu<br />

zorganizowanych w Krakowie (2005) oraz w Darmstadt<br />

(2006).<br />

Współpraca z Międzynarodową Unią IUVSTA<br />

Polskie Towarzystwo Próżniowe współpracuje<br />

z IUVSTA. Wyrazem naszej pozycji w tej organizacji<br />

było zaproszenie Prezesa Polskiego Towarzystwa<br />

Próżniowego do objęcia funkcji Przewodniczącego<br />

Komitetu Reprezentantów Europejskich Towarzystw<br />

Próżniowych, będącego kolegium Prezesów tych<br />

Towarzystw lub ich Zastępców, którego zadaniem jest<br />

zaktywizowanie na płaszczyźnie europejskiej<br />

współpracy naukowej i edukacyjnej w zakresie nauki<br />

o próżni i dziedzinach wykorzystujących próżnię oraz<br />

technologii próżniowych. Istotnym materialnym wymiarem<br />

polskiego uczestnictwa w pracach tego gremium<br />

było uzyskanie aż trzykrotnie dofinansowania IUVSTA<br />

do imprez szkoleniowych i naukowych organizowanych<br />

wcześniej w Polsce pod patronatem PTP na łączną<br />

kwotę 17 tysięcy franków szwajcarskich. Jednocześnie<br />

w wyniku dotychczasowych prac Komitet pod przewodnictwem<br />

przedstawiciela Polski przedstawił swoje ustalenia<br />

Radzie Wykonawczej IUVSTA z rekomendacją,<br />

aby nie podejmować kroków w kierunku utworzenia<br />

nowych struktur organizacyjnych typu Europejskie<br />

Towarzystwo Próżniowe.<br />

W okresie bieżącej kadencji funkcję przedstawiciela<br />

Polski w IUVSTA pełni prof. Marek Szymoński, który<br />

jednak zwrócił się już wcześniej z prośbą o przejęcie<br />

tych obowiązków przez inną osobę z Towarzystwa.<br />

Sprawa ta jest do dyskusji na najbliższym Walnym<br />

Zebraniu PTP.<br />

V. Sprawy organizacyjno-członkowskie<br />

W okresie sprawozdawczym przyjęto 5 nowych<br />

członków indywidualnych PTP: mgr Joannę Rymarczyk<br />

z ITR, dr hab. inż. Elżbietę Godlewską<br />

i mgr inż. Rafała Zybałę z AGH, mgr inż. Wojciecha<br />

Macherzyńskiego z Politechniki Wrocławskiej,<br />

dr hab. Martę Wolny-Marszałek z <strong>Instytut</strong>u Fizyki<br />

Jądrowej PAN w Krakowie.<br />

Obecnie PTP ma 137 członków indywidualnych,<br />

w tym 2 honorowych i 12 członków wspierających.<br />

VI. Realizacja planu działalności Zarządu<br />

PTP na okres kadencji 2007-2010<br />

przyjętego na Walnym Zebraniu<br />

Sprawozdawczo-Wyborczym w dniu<br />

26 kwietnia 2007 r. we Wrocławiu<br />

Zgodnie z planem działalności Zarządu PTP Towarzystwo<br />

miało tak jak do tej pory realizować wszystkie cele<br />

sformułowane w statucie PTP. Szczególna aktywność<br />

Zarządu, poszczególnych Sekcji i Członków miała być<br />

skupiona na następujących celach:<br />

1. Zwiększeniu liczebności PTP przez zainteresowanie<br />

pracami Towarzystwa szczególnie tzw. młodych ludzi<br />

nauki i techniki związanych z szeroko rozumianą<br />

tematyką próżniową. Działania te powinny być prowadzone<br />

między innymi przez:<br />

• kontynuację organizowania konferencji naukowych,<br />

a także szkół i kursów dla użytkowników<br />

urządzeń próżniowych,<br />

• kontynuację aktywności Towarzystwa w relacjach<br />

z IUVSTA, a szczególnie pod kątem zdobywania<br />

środków IUVSTA na działalność szkoleniową,<br />

• szeroką promocję osiągnięć Towarzystwa, jak i poszczególnych<br />

członków,<br />

• lepszą i szerszą promocję nagród PTP. Działaniu<br />

temu powinna towarzyszyć praca nad doskonaleniem<br />

regulaminów nagród.<br />

2. Poprawie sytuacji finansowej Towarzystwa, która<br />

umożliwi jeszcze lepszą Jego promocję; pozwoli rozwinąć<br />

działalność popularyzatorską; zapewni płynność<br />

w przyznawaniu ustanowionych nagród. Działania te<br />

powinny być prowadzone między innymi przez:<br />

• poszukiwanie sponsorów nagród,<br />

• zwiększenie liczby członków.<br />

3. Rozwijaniu kontaktów i współpracy z zagranicznymi<br />

Towarzystwami Próżniowymi oraz krajowymi towarzystwami<br />

o zbliżonej tematyce działalności.<br />

74 ELEKTRONIKA 11/<strong>2009</strong>


Poniżej przedstawiono krótki komentarz do przyjętego<br />

planu działania ilustrujący zakres i stopień realizacji<br />

planowanych działań.<br />

1. Zwiększenie liczebności Towarzystwa<br />

PTP odnotowało wolny, ale stały wzrost liczby członków;<br />

przyjęto 5 nowych członków indywidualnych.<br />

Nastąpiła pewna konsolidacja działalności firm<br />

próżniowych w Polsce w korelacji z działalnością<br />

Towarzystwa. Udało się zaktywizować niektórych<br />

członków wspierających uczestniczących w imprezach<br />

organizowanych przez PTP (szkolenia i wystawy<br />

sprzętu próżniowego przy okazji konferencji organizowanych<br />

pod auspicjami PTP). Należy zwiększyć aktywność<br />

Towarzystwa w relacjach z IUVSTA,<br />

a szczególnie pod kątem zdobywania środków<br />

IUVSTA na działalność konferencyjną i szkoleniową.<br />

Tą sprawą trzeba się zająć w najbliższej przyszłości.<br />

Udało się natomiast przeprowadzić, mimo niespodziewanej<br />

śmierci prof. P. Szwemina - przewodniczącego<br />

Komisji Konkursowej - kolejną edycję<br />

Konkursu im. J. Groszkowskiego za rok 2007, o czym<br />

wspomniano w opisie działalności naukowej Towarzystwa.<br />

Wymagana jest jednak lepsza promocja tej,<br />

a także innych nagród PTP, połączona z doskonaleniem<br />

regulaminów tych nagród.<br />

2. Poprawa sytuacji finansowej Towarzystwa<br />

Zarządowi udało się nieco poprawić sytuację finansowej<br />

PTP, w tym poprzez poprawę ściągalności<br />

składek, zwiększenie liczby członków oraz poszukiwanie<br />

sponsorów nagród Towarzystwa. Sytuacja<br />

finansowa Towarzystwa jest stabilna i zapewnia pokrycie<br />

wszystkich planowanych wydatków, w tym nagród<br />

w Konkursie im. J. Groszkowskiego, za wyjątkiem<br />

nagrody naukowej PTP. Zarząd pozyskał zgodnie<br />

z planem środki z Ministerstwa Nauki i Szkolnictwa<br />

Wyższego na imprezy naukowe organizowane przez<br />

lub pod auspicjami PTP.<br />

3. Rozwijanie współpracy<br />

Ponadto, jak wspomniano przy opisie działalności naukowej,<br />

prowadzone są rozmowy z Niemieckim Towarzystwem<br />

Próżniowym na temat organizacji w <strong>2009</strong> r.<br />

w Koszalinie wspólnej cyklicznej konferencji naukowej<br />

p.t.: Vacuum Based Science and Technology oraz wystawy<br />

sprzętu próżniowego.<br />

Iberyjskie Towarzystwo próżniowe nawiązało kontakt<br />

z PTP w związku z organizacją konferencji w Salamance<br />

we wrześniu 2010 r. Do komitetu naukowego tej<br />

konferencji wszedł prof. Jacek Szuber, a do komitetu<br />

wystawienniczego - doc. Czesław Kiliszek.<br />

Lublin, 16 maja <strong>2009</strong> r.<br />

Przewodniczący Zarządu PTP<br />

Prof. Stanisław Hałas<br />

Następnie sekretarz organizacyjny PTP<br />

dr K. Olszewska przedstawiła w imieniu nieobecnego<br />

na Walnym Zebraniu skarbnika Sprawozdanie<br />

z realizacji budżetu za 2008 r. oraz Sprawozdanie<br />

finansowe za 2008 r. (treść sprawozdania stanowią<br />

zał. 2 i 3 do Uchwały nr 1.), następnie Plan finansowy<br />

na <strong>2009</strong> r. (treść wystąpienia stanowi zał. 1 do<br />

Uchwały nr 2).<br />

Członek Komisji Rewizyjnej prof. Marian Herman<br />

przedstawił Sprawozdanie Komisji Rewizyjnej z kontroli<br />

działalności statutowej i finansowej Zarządu PTP<br />

w okresie od 23.09.2008 do 20.05.<strong>2009</strong> r. Komentując<br />

przedstawione sprawozdania finansowe zauważył, że<br />

znając już wyniki Konkursu im. J. Groszkowskiego należałoby<br />

zaktualizować w preliminarzu kwotę przeznaczoną<br />

na nagrody w tym konkursie (3333 zł zamiast<br />

8000 zł). Zastanawiano się nad przyczyną małej liczby<br />

zgłaszanych prac na Konkurs im. Janusza Groszkowskiego.<br />

Proponowano między innymi podawanie<br />

w ogłoszeniu o konkursie wysokości nagród albo oferty<br />

pracy w firmie próżniowej dla laureata. Komisja Rewizyjna<br />

nie stwierdziła błędów i uchybień formalnych<br />

w gospodarce finansowej Towarzystwa i wnioskowała<br />

o: przyjęcie sprawozdania finansowego Polskiego<br />

Towarzystwa Próżniowego za okres 01.01 -<br />

31.12.2008 r., przyjęcie sprawozdania z Realizacji<br />

budżetu PTP za 2008 rok (Załącznik nr 2 do Uchwały<br />

Zarządu nr 1 z dnia 30.01.<strong>2009</strong> r.) oraz o pozytywne<br />

skwitowanie działalności finansowej Polskiego<br />

Towarzystwa Próżniowego w 2008 r., a także przyjęcie<br />

Preliminarza Polskiego Towarzystwa Próżniowego<br />

na <strong>2009</strong> rok, ze szczególnym zwróceniem uwagi na konieczność<br />

podjęcia działań w sprawie zwiększenia<br />

ściągalności składek członkowskich. Komisja Rewizyjna<br />

biorąc pod uwagę całokształt działalności Zarządu<br />

PTP stwierdza, że w tym bardzo trudnym okresie<br />

wielu zmian w funkcjach kierowniczych, wykazał on<br />

w swej pracy cechy celowości, rzetelności i gospodarności<br />

i w związku z tym przedstawia Walnemu<br />

Zebraniu wniosek o pozytywne skwitowanie<br />

całokształtu działalności Zarządu PTP w bieżącym<br />

okresie sprawozdawczym.<br />

Zebrani w głosowaniu jawnym podjęli jednogłośnie<br />

Uchwałę nr 1 wraz z załącznikami w sprawie sprawozdania<br />

Zarządu i sprawozdania finansowego PTP za<br />

2008 r. (Załącznik nr 4 do Protokołu). Walne Zebranie<br />

w głosowaniu jawnym podjęło jednogłośnie Uchwałę nr 2<br />

wraz z załącznikiem w sprawie budżetu na <strong>2009</strong> r. po<br />

wprowadzeniu zgłoszonej poprawki do preliminarza<br />

(Załącznik nr 5 do Protokołu Walnego Zebrania).<br />

Następnie prof. J. Szuber przedstawił wniosek Zarządu<br />

PTP o nadanie godności Członka Honorowego<br />

PTP doc. Czesławowi Kiliszkowi. Profesor Witold<br />

Precht przedstawił sylwetkę doc. Kiliszka. Następnie<br />

Walne Zebranie w głosowaniu jawnym podjęło jednomyślnie<br />

Uchwałę nr 3 w tej sprawie.<br />

ELEKTRONIKA 11/<strong>2009</strong> 75


Dr Myśliński przedstawił stan przygotowań do<br />

IV Symposium on Vacuum Based Science and Technology.<br />

Poruszono problem koordynacji terminów konferencji,<br />

aby uniknąć czasowego nakładania się tych<br />

imprez.<br />

Ze względu na ograniczenia czasowe Przewodniczący<br />

Walnego Zebrania zaproponował, aby wolne<br />

wnioski zgłaszać do Komisji Wnioskowej na piśmie po<br />

zebraniu. Na podstawie problemów przedstawionych<br />

w wygłoszonych sprawozdaniach oraz w oparciu o dyskusję<br />

i zgłoszone uwagi, Komisja Wnioskowa Zebrania<br />

sformułowała wnioski z Walnego Zebrania.<br />

O godz. 22 30 Walne Zebranie zostało zamknięte.<br />

Sekretarz<br />

Walnego Zebrania<br />

dr inż. Katarzyna Olszewska<br />

Przewodniczący<br />

Walnego Zebrania<br />

prof. dr hab. Marek Szymoński<br />

Walne Zebranie PTP podjęło następujące uchwały:<br />

Uchwała nr 1 z dnia 20 maja <strong>2009</strong><br />

w sprawie sprawozdania Zarządu<br />

i sprawozdania finansowego PTP za 2008 r.<br />

Na podstawie § 26 p. 7 i p. 8 Statutu Polskiego Towarzystwa<br />

Próżniowego Walne Zebranie Członków Towarzystwa:<br />

§1<br />

Przyjmuje sprawozdanie Zarządu z działalności za<br />

okres od 22.09.2008 r. do 20.05.<strong>2009</strong> r., stanowiące<br />

Załącznik nr 1 do niniejszej uchwały i sprawozdanie<br />

z realizacji budżetu za 2008 r. stanowiące Załącznik<br />

nr 2 do niniejszej uchwały<br />

§2<br />

Zatwierdza sprawozdanie finansowe Towarzystwa za<br />

2008 rok, stanowiące Załącznik nr 3 do niniejszej<br />

uchwały, zamykające się po stronie przychodów kwotą<br />

56 288,97 zł (pięćdziesiąt sześć tysięcy dwieście<br />

osiemdziesiąt osiem złotych 97 gr.), a po stronie wydatków<br />

kwotą 55 278,01 zł (pięćdziesiąt pięć tysięcy<br />

dwieście siedemdziesiąt osiem złotych 01 gr.)<br />

Sekretarz<br />

Walnego Zebrania<br />

dr inż. Katarzyna Olszewska<br />

Przewodniczący<br />

Walnego Zebrania<br />

prof. dr hab. Marek Szymoński<br />

Uchwała nr 2 z dnia 20 maja <strong>2009</strong> r.<br />

w sprawie budżetu na <strong>2009</strong> r.<br />

Na podstawie §26 pkt. 6 i pkt. 8 statutu PTP Walne<br />

Zebranie Członków Towarzystwa zatwierdza:<br />

§1<br />

Budżet PTP na <strong>2009</strong> r. stanowiący Załącznik nr 1 do niniejszej<br />

uchwały.<br />

Sekretarz<br />

Walnego Zebrania<br />

dr inż. Katarzyna Olszewska<br />

Przewodniczący<br />

Walnego Zebrania<br />

prof. dr hab. Marek Szymoński<br />

Uchwała nr 3 z dnia 20 maja <strong>2009</strong><br />

w sprawie Honorowego Członkostwa PTP<br />

Na podstawie §14 Statutu PTP i w uznaniu ogromnych<br />

zasług Docenta Czesława Kiliszka dla rozwoju<br />

technologii próżniowych oraz zasług dla Polskiego<br />

Towarzystwa Próżniowego, Walne Zebranie Sprawozdawczo-Programowe<br />

Członków Polskiego Towarzystwa<br />

Próżniowego, na wniosek Zarządu, uchwala co<br />

następuje:<br />

§1<br />

Nadaje się Docentowi Czesławowi Kiliszkowi godność<br />

Członka Honorowego Polskiego Towarzystwa Próżniowego.<br />

Uchwała obowiązuje od 20 maja <strong>2009</strong> roku.<br />

Sekretarz<br />

Walnego Zebrania<br />

dr inż. Katarzyna Olszewska<br />

Przewodniczący<br />

Walnego Zebrania<br />

prof. dr hab. Marek Szymoński<br />

76 ELEKTRONIKA 11/<strong>2009</strong>


Wspomnienie<br />

Edward Leja (1937-<strong>2009</strong>)<br />

Niniejsze wspomnienie jest moją osobistą refleksją,<br />

wdzięcznością i podziękowaniem - za możliwość<br />

wspólnej pracy, korzystania z Twojego ogromnego<br />

doświadczenia zawodowego oraz prostej ludzkiej<br />

życzliwości i przyjaźni - jaką miałem okazje doświadczyć<br />

- dziękuję Ci za to Edwardzie.<br />

Edward Leja urodzony<br />

w 1937 roku w Rakszawie,<br />

powiat Łańcut, mając<br />

10 lat stracił ojca i wraz<br />

z bratem bardzo wcześnie<br />

musieli myśleć o sobie,<br />

musieli stać się samodzielni<br />

i dorośli.<br />

Edward bardzo dobrze<br />

się uczył, wykazując<br />

szczególne zamiłowanie<br />

do malowania oraz uzdolnienia<br />

w kierunku nauk<br />

matematyczno-fizycznych. Po zdanej w 1954 roku maturze<br />

próbował dostać się na Akademię Sztuk Pięknych<br />

w Krakowie, ale Jego dokumenty maturalne z Liceum<br />

Ogólnokształcącego w Żołyni nie dotarły na czas do<br />

Akademii, więc nie został dopuszczony przez komisje<br />

do egzaminu wstępnego i rozmowy kwalifikacyjnej. Nie<br />

zrażając się porażką o wymarzonych studiach, a zarazem<br />

zdając sobie sprawę, że nie stać Go na przerwę<br />

w nauce, bez przygotowania przystąpił do pisemnego<br />

egzaminu z matematyki i fizyki na Wyższej Szkole<br />

Pedagogicznej (WSP) w Krakowie, jedynej w tym czasie<br />

w Krakowie uczelni, która była jeszcze przed egzaminami<br />

na studia.<br />

Podczas egzaminów zwrócił swoją osobą uwagę<br />

komisji, gdyż opuszczał salę oddając rozwiązane zadania<br />

na długo przed wyznaczonym czasem. Niestety,<br />

już po pierwszym roku musiał wraz grupą przyjętych<br />

studentów przenieść się (z ukochanego przez Niego<br />

Krakowa) na WSP do Opola, gdyż zarządzeniami odgórnymi<br />

zamknięto w krakowskiej WSP nauczycielski<br />

kierunek przedmiotu fizyka.<br />

Jak później - Edward mi opowiadał - nie żałował tej<br />

zmiany, bo prawdopodobnie po WSP w Krakowie, gdzie<br />

wykładali profesorowie z UJ zostałby fizykiem jądrowym,<br />

a od wrocławskich profesorów, którzy wykładali<br />

w Opolu nauczył się eksperymentalnych metod fizyki<br />

powierzchni (znana w Polsce szkoła fizyki powierzchni<br />

wrocławskich profesorów: Nikliborca, Sujaka, Lewowskiego).<br />

Od nich też nauczył się fizyki ciała stałego,<br />

dowiedział się jak wytwarzać próżnie, jak w próżni termicznie<br />

naparować cienką warstwę, jak wzbudzać i modyfikować<br />

powierzchnię ciała stałego wiązką<br />

elektronów, jonów, fotonów, stąd dla Edwarda człowieka<br />

z pomysłami, wiedzą inżynierska, fizyczną i chemiczną<br />

(dziś powiedzielibyśmy nanotechnolog materiałowiec)<br />

było już bardzo blisko do konstruowania urządzeń<br />

i opracowywania nowych metod próżniowego nanoszenia<br />

cienkich warstw metali, tlenków (izolatorów)<br />

i półprzewodników. Z bagażem doświadczenia wyniesionym<br />

podczas pracy magisterskiej (1958) Kompleksowa<br />

metoda badania fotoprzewodnictwa tlenku<br />

miedziawego chciał pracować naukowo, ale po szkole<br />

pedagogicznej obowiązywał Go nakaz pracy, został<br />

więc skierowany na posadę nauczyciela fizyki do szkoły<br />

zawodowej w Rudzie Śląskiej (Nowy Bytom). Po ślubie<br />

w październiku 1959 roku z Zofią Marią nauczycielką,<br />

myślał o powrocie do Krakowa i do pracy naukowej,<br />

udało mu się zatrudnić w Zakładzie Fizyki Akademii Medycznej<br />

(1959-62) oraz w Liceum Ogólnokształcącym<br />

nr 9 w Krakowie (1961-64). W swoim podaniu na konkurs<br />

na stanowisko asystenta w Katedrze Fizyki I Wydziału<br />

Metalurgicznego AGH, napisał: ”dwuletnia praca<br />

w Zakładzie Fizyki AM w Krakowie nie przyniosła żadnych<br />

rezultatów, ponieważ Zakład nie posiadał warunków<br />

do podjęcia pracy naukowej...”.<br />

Pisząc w ten sposób dał wyraz swojej determinacji<br />

i przekonaniu, że będzie nie tylko dobrym nauczycielem<br />

akademickim (miał dobre przygotowanie i doświadczenie<br />

pedagogiczne), ale również naukowcem.<br />

Od 1 września 1963 r. został zatrudniony najpierw<br />

jako asystent, po doktoracie (Półprzewodnikowe własności<br />

cienkich warstw SnO 2 domieszkowanych indem<br />

i antymonem w grudniu 1968 r.) na stanowisku adiunkta<br />

(1969-1986), po habilitacji (Otrzymywanie i właściwości<br />

elektryczne przeźroczystych warstw tlenkowych<br />

typu SnO 2 i In 2 O 3 w marcu 1984 r.), na stanowisku docenta<br />

(1986-1999), w końcu na stanowisku profesora<br />

nadzwyczajnego AGH od czerwca 1999 r. do chwili<br />

przejścia na emeryturę (30 września 2007 r.).<br />

Dorobek naukowy Edwarda Leji obejmował łącznie<br />

135 pozycji w tym 94 artykuły, referaty i komunikaty,<br />

2 skrypty, 12 patentów oraz liczne niepublikowane<br />

opracowania naukowe (np. ministerialne projekty<br />

badawcze i wdrożeniowe przyznane drogą konkursową),<br />

opracowania na zamówienie przemysłu.<br />

Wypromował siedmiu doktorów - z tego dwie osoby<br />

są już profesorami oraz bardzo wielu magistrów<br />

i inżynierów fizyki ciała stałego, inżynierii materiałowej,<br />

technologii elektronowej i elektroniki. Był pionierem oraz<br />

uznanym autorytetem w metodach nanoszenia cienkich<br />

warstw technikami jonowymi, specjalizował się szczególnie<br />

w reaktywnym rozpyleniu katodowym. Już<br />

w 1966 roku opublikowali z M. Jachimowskim pracę: On<br />

the Deposition of thin Oxide Films by Reactive Bias<br />

Sputtering (Acta Phys Polon. vol. 29, (1966), 43). Swoją<br />

pasję i doświadczenie w zakresie próżniowych technik<br />

nanoszenia cienkich warstw przekazywał sumiennie na<br />

swoich współpracowników i doktorantów - technologów<br />

i fizyków cienkich warstw, tworząc bardzo silny<br />

naukowo Zakład Fizyki i Technologii Elektronowej (1986-<br />

92) przy Instytucie Elektroniki AGH. W wyniku zmian<br />

strukturalnych uczelni (w 1992 roku nastąpiła zamiana<br />

instytutów na katedry) oraz w wyniku naturalnego pro-<br />

ELEKTRONIKA 11/<strong>2009</strong> 77


cesu postępu, rozwoju i usamodzielniania się młodszej<br />

kadry naukowej zakład kierowany przez doc. Edwarda<br />

Leję przekształcił się w zespoły naukowe zajmujące się:<br />

strukturami optoelektronicznymi, ogniwami słonecznymi,<br />

warstwami magnetycznymi (dla elektroniki spinowej),<br />

warstwami tlenkowmi (na detektory gazowe).<br />

Do najważniejszych osiągnięć Profesora Leji, należy<br />

moim zdaniem zaliczyć Jego prace wdrożeniowe,<br />

takie jak na przykład:<br />

- opracowanie technologii, dokumentacji i budowa<br />

wielokomorowej zautomatyzowanej linii technologicznej<br />

do pokrywania cienkimi warstwami wielkoformatowych<br />

tafli szklanych (współwykonawca<br />

dr K. Marszałek, produkcja uruchomiona w firmie<br />

MARYLAND w Rzeszowie),<br />

- opracowanie technologii nanoszenia warstw absorpcyjno-antystatycznych<br />

na osłony monitorów komputerowych<br />

(produkcja uruchomiona w firmie IDEA we<br />

Wrocławiu),<br />

- opracowanie technologii, dokumentacji i budowa zautomatyzowanego<br />

urządzenia próżniowego z zastosowaniem<br />

techniki łukowej do pokrywania cienkimi<br />

warstwami elementów gospodarstwa domowego<br />

(współwykonawca dr K. Marszałek, produkcja uruchomiona<br />

w firmie ZELMER w Rzeszowie).<br />

Tego rodzaju dużych opracowań zakończonych<br />

wdrożeniem i patentami znajdujemy w dorobku<br />

prof. Leji 12. w latach 1980-1999.<br />

Niestety, tylko część swoich osiągnięć, również te<br />

które były badaniami podstawowymi Prof. Leja opublikował,<br />

wolał realizacje praktyczne i materialne wykonanie<br />

dzieła.<br />

Do ciekawszych opracowań naukowych opublikowanych<br />

lub zreferowanych na konferencjach można<br />

zaliczyć: wykorzystanie efektu elektrochromowego<br />

w pokryciu szyb okiennych - Application of Electrochromic<br />

Structures in Windows Sets (7-th Int. Symp.<br />

On Trends and Applications of Thin Films) lub nowe<br />

wątki z ostatniego okresu Jego działalności badawczej<br />

dotyczące szkieł hybrydowych, których właściwości<br />

modyfikuje się wprowadzając do ich struktury dodatki<br />

organiczne - Structure and optical properties of hybrid<br />

glasses based on tetraethylorthosilicate-trimethoxyoctylsilane<br />

and tetraethylorthosilicate - tetraethylorthotitanate-trimethoxyoctylsilane<br />

systems (Journal of<br />

Molecular Structure vols. 744-747, 2005, 597).<br />

Prof. Leja był bardzo aktywnym członkiem Polskiego<br />

Towarzystwa Próżniowego (PTP), udzielał się w sekcji<br />

Techniki Próżni, na konferencjach tej sekcji i Szkołach<br />

Techniki Próżniowej wygłaszał referaty naukowe i szkoleniowe<br />

- ostatni referat wygłosił w czerwcu w 2006 roku<br />

Przemysłowe Zastosowania Techniki Próżniowej.<br />

Edward był człowiekiem bezinteresownym bardzo<br />

pomocnym w każdej sprawie każdemu, kto się do niego<br />

zwrócił. Przyciągał do siebie ludzi ciekawych wiedzy,<br />

ludzi z pomysłami, On dawał im swoje rady i doświadczenie.<br />

Do końca miał doktorantów - ostatniego wypromował<br />

w maju tego roku. Warto wspomnieć, że dwaj<br />

ostatni (z roku 2008 i <strong>2009</strong>) byli spoza środowiska uniwersyteckiego<br />

- tak jak On pasjonaci i fanatycy rozwiązań<br />

praktycznych.<br />

Edward był bardzo skromny nie zabiegał o stanowiska<br />

i splendory, wystarczała Mu przede wszystkim<br />

satysfakcja z dobrze i solidnie odrobionej roboty. Był<br />

troskliwym, zapobiegliwym i kochającym mężem, ojcem<br />

i dziadkiem.<br />

Edward udzielał się również społecznie, za Jego<br />

działalność edukacyjną, popularyzowania wiedzy<br />

i sztuki dziękowały na pogrzebie stowarzyszenia - Ziemi<br />

Staszowskiej i Miłośników Bronowic.<br />

Na konferencjach (szczególnie tych, które były organizowane<br />

poza aglomeracjami miejskimi) był dla Niego<br />

zawsze przygotowany kącik na mini wystawę namalowanych<br />

akwarel z widokami okolicznych pejzaży, bukietów<br />

kwiatów. Swoimi obrazkami obdarowywał bardzo<br />

spontanicznie nie tylko swoich przyjaciół.<br />

Pejzaż pól beskidzkich, czy bukiet tulipanów, które<br />

wiszą na ścianie mojej pracowni, będą wspomnieniem<br />

naszej przyjaźni i długich lat wspólnej pracy.<br />

Czerwiec 2006 podczas wykładu na Szkole Techniki Próżniowej<br />

organizowanej przez PTP (Kraków Biblioteka Jagiellońska)<br />

Żegnam Cię Panie Profesorze, Wspaniały Przyjacielu<br />

Tomasz Stobiecki, 16 października <strong>2009</strong><br />

78 ELEKTRONIKA 11/<strong>2009</strong>


Zastosowanie technik immunoenzymatycznych<br />

i mikrofluidycznych do amperometrycznego<br />

oznaczania stężenia białka C-reaktywnego<br />

mgr inż. ANNA BARANIECKA 1,2 , mgr BEATA KAZIMIERCZAK 2 , J. KRUK 2 ,<br />

dr inż. hab. DOROTA G. PIJANOWSKA 2 , prof. dr hab. inż. WŁADYSŁAW TORBICZ 2<br />

1 <strong>Instytut</strong> Technologii Elektronowej, Warszawa<br />

2 <strong>Instytut</strong> Biocybernetyki i Inżynierii Biomedycznej PAN, Warszawa<br />

Od czasu odkrycia (1930 r.) i wykrystalizowania (1947 r.)<br />

białka C-reaktywnego (CRP) stale wzrasta jego rola w diagnostyce<br />

medycznej, jako czynnika pozwalającego prognozować<br />

możliwość wystąpienia zawału serca, wykryć stan<br />

zapalny i nekrozę oraz ocenić ryzyko i dynamikę rozwoju choroby.<br />

Białko CRP jest niespecyficznym białkiem ostrej fazy<br />

i jednym z najlepszych niespecyficznych markerów wielu stanów<br />

zapalnych. Jak wskazują wytyczne European Society of<br />

Cardiology z 2005 roku, pożądane są dokładne i szybkie testy<br />

do oznaczeń tego białka.<br />

Cząsteczki CRP mają masę ~120 kDa i są pentametrami,<br />

składają się z 5 identycznych podjednostek o masie cząsteczkowej<br />

~21 kDa (rys. 1). Są one syntetyzowane w hepatocytach<br />

w odpowiedzi na podwyższony poziom interleukiny-6<br />

(IL-6) i są obecne w wątrobie oraz osoczu. W organizmie<br />

białko to prawdopodobnie usprawnia proces immunofagocytozy,<br />

a także w znacznym stopniu przyczynia się do łagodzenia<br />

autoimmunizacji ustroju [1-4]. Synteza CRP może<br />

zachodzić w szybkim tempie, co daje dużą dynamikę zmian<br />

stężenia [1,3], mających często formę piku.<br />

Poziom stężenia CRP jest zmienny - uwarunkowania genetyczne<br />

- oraz zależny od płci i wieku. Polskie laboratoria<br />

uznają za prawidłowe stężenie CRP w surowicy ludzkiej do<br />

10 mg/l [2]. Dotychczas jednak nie zostały określone poziomy<br />

referencyjne CRP, dla których można byłoby przyjąć, że ryzyko<br />

zawału mięśnia sercowego jest minimalne. Według norm<br />

amerykańskich, stężenie poniżej 1 mg/l świadczy o niskim ryzyku<br />

wystąpienia zawału lub ataku serca. Stężenie 1…3 mg/l<br />

może wskazywać na podwyższone ryzyko wystąpienia zawału,<br />

powyżej 3 mg/l wskazuje na wysokie ryzyko tych zdarzeń<br />

[5]. Natomiast stężenie powyżej 10 mg/l może świadczyć<br />

o przewlekłym stanie zapalnym [6]. Podczas ostrych stanów<br />

zapalnych jego stężenie może wzrosnąć nawet do<br />

350…400 mg/l. Największe stężenie białka CRP występuje<br />

u pacjentów z chorobą nowotworową i operacjach stanach<br />

pooperacyjnych. Stężenie białka CRP wzrasta również w chorobie<br />

niedokrwiennej serca i może być markerem określającym<br />

ryzyko, zaawansowanie choroby oraz efekty terapii,<br />

a także przy infekcjach bakteryjnych (40…200 mg/l) [7]. Standardowe<br />

analizy medyczne dotyczące białka CRP są przeprowadzane<br />

przy użyciu immunoenzymatycznych testów<br />

ELISA (Enzyme-Linked Immunoassay) z poziomem detekcji<br />

poniżej 0,2 mg/l [8].<br />

W diagnostyce medycznej chorób serca, obok dużych laboratoriów<br />

stale wzrasta rola systemów diagnostycznych i monitorowania<br />

w miejscu przebywania pacjenta tzw. diagnostyka<br />

przy łóżku pacjenta - point-of-care [9-11]. Oprócz białka CRP,<br />

często monitorowane są inne markery sercowe takie jak: troponina,<br />

mioglobina, kinaza kreatyninowa, hemocysteina czy<br />

fibrynogen [12]. Poza poprawieniem jakości opieki medycznej,<br />

szersze zastosowanie testów na CRP daje wymierne korzyści<br />

środowiskowe i ekonomiczne, ponieważ istnieje związek między<br />

ich stosowaniem, a zmniejszeniem nieuzasadnionego<br />

użycia antybiotyków [13]. Bardzo przydatne stają się w tym<br />

przypadku wielofunkcyjne urządzenia diagnostyczne z szybką<br />

detekcją amperometryczną oraz funkcją wstępnego rozdziału<br />

próbki, np. metodą elektroforezy kapilarnej.<br />

Immunoczujniki CRP<br />

Rys. 1. Białko C-reaktywne (z PDB 1GNH)<br />

Fig. 1. C-reactive protein (from PDB 1GNH)<br />

Od wielu lat są na świecie prowadzone prace nad czujnikami<br />

CRP wykorzystująca różne rodzaje detekcji: optycznej<br />

[14-22], magnetycznej [8], elektrochemicznej [23] czy piezorezystancyjnej<br />

[24,25]. Immunoczujniki enzymatyczne (z prze-<br />

ELEKTRONIKA 11/<strong>2009</strong> 79


ciwciałami znakowanymi enzymem) są czujnikami, które są<br />

stosowane z wyboru w przypadku nieprzezroczystych próbek<br />

zawierających oznaczany analit (płyny ustrojowe). Prace nad<br />

takimi immunoczujnikami prowadzone są we współpracy<br />

<strong>Instytut</strong>u Biocybernetyki i Inżynierii Biomedycznej PAN oraz<br />

<strong>Instytut</strong>u Technologii Elektronowej.<br />

W przypadku nowoczesnych urządzeń analitycznych, takich<br />

jak bioczujniki bardzo istotnymi cechami są: niski koszt<br />

pojedynczego testu, krótki czas oczekiwania na wynik, duża<br />

czułość oraz możliwość analizowania złożonych próbek.<br />

Można to uzyskać poprzez zastosowanie amperometrycznego<br />

systemu detekcji i przeciwciał monoklonalnych oraz<br />

układu mikroprzepływowego w systemie jedno- lub wielomodułowym.<br />

W amperometrycznych immunoczujnikach często<br />

wykorzystywane są trzy rodzaje reakcji: immunologiczna, enzymatyczna<br />

i redoks.<br />

Białko C-reaktywne należy do substancji, których cząsteczki<br />

nie są elektrochemicznie aktywne, dlatego też trudna<br />

jest ich bezpośrednia detekcja amperometryczna. Do ich detekcji<br />

są stosowane złożone testy typu ELISA - bezpośrednie<br />

lub pośrednie, w których pochodzące z próbki cząsteczki CRP<br />

są immobilizowane na podłożu. Inny rodzaj testu ELISA - kanapkowy,<br />

polega na wychwyceniu cząsteczek CRP ze<br />

złożonej próbki przy użyciu przeciwciał. Następnie łączą się<br />

one z drugimi przeciwciałami znakowanymi enzymem np. fosfatazą<br />

alkaliczną (AP). Schematyczny przebieg poszczególnych<br />

rodzajów testów ELISA przedstawiono na rys. 2.<br />

W kolejnym etapie testu prowadzona jest reakcja enzymatyczna.<br />

W przypadku AP - po dodaniu odpowiedniego substratu<br />

np. fosforanu kwasu askorbinowego (AA-P) - następuje<br />

reakcja hydrolizy enzymatycznej, w wyniku której powstaje<br />

elektrochemicznie aktywny związek, jakim jest kwas askorbinowy<br />

(AA). Ulega on elektroutlenieniu (reakcja redoks), które<br />

umożliwia detekcję amperometryczną (pomiar prądu utleniania).<br />

Produktem reakcji redoks jest kwas dehydroaskorbinowy<br />

(DHAA) [26-29].<br />

W IBIB PAN opracowano bezpośredni test immunologiczny<br />

do oznaczania CRP z detekcją amperometryczną, polegający<br />

na: (1) immobilizacji CRP na membranie nitrocelulozowej<br />

i tworzeniu immunokompleksów CRP--IgG-AP; (2), następnie<br />

przeprowadzeniu reakcji enzymatycznej tj. hydrolizy<br />

AA-P, katalizowanej przez fosfatazę alkaliczną (AP) - marker<br />

przeciwciała w immunokompleksie oraz (3) detekcji elektrochemicznego<br />

utleniania produktu reakcji enzymatycznej tj. AA<br />

do DHAA na elektrodzie węglowej:<br />

CRP + IgG-AP (CRP--IgG-AP) immunokompeks<br />

(1)<br />

AA_P + H 2 O AA + H 3 PO 4 (2)<br />

AA - 2H + - 2e - Potencjał<br />

+ ½O utl<br />

2 DHAA + H 2 O (3)<br />

Trójelektrodowe immunoczujniki (do jednorazowego stosowania)<br />

wykonano na folii Autostart metodą sitodruku, w których<br />

elektrodą pracującą (WE) i pomocniczą (CE) są elektrody<br />

a)<br />

b)<br />

AP immunokompleks<br />

Rys. 3. Woltamperogramy dla różnych stężeń IgG-AP, jeden<br />

czujnik (a) i odpowiadająca im uśredniona krzywa kalibracji wyznaczona<br />

dla kilku badanych czujników (b)<br />

Fig. 3. Voltammograms for different concentrations of IgG-AP (a)<br />

and corresponding calibration curve (b)<br />

Rys. 2. Rodzaje testów ELISA stosowane w immunoczujnikach: 1 - bezpośredni, 2 - pośredni, 3 - kanapkowy<br />

Fig. 2. ELISA tests used in immunosensor: 1 - direct, 2- indirect, 3 - sandwich<br />

80 ELEKTRONIKA 11/<strong>2009</strong>


z pasty węglowej, zaś odniesienia (RE) - z pasty srebrnej,<br />

chlorkowanej elektrochemicznie [26-29]. Pomiary wykonano<br />

wykorzystując woltamperometrię cykliczną w zakresie potencjałów<br />

-0,2...+1,0 V. Jako substrat używany był fosforan<br />

kwasu askorbinowego - ze względu na wiele zalet, takich jak:<br />

nietoksyczność, trwałość, dużą rozpuszczalność w roztworach<br />

wodnych, niska cena i brak konieczności stosowania warunków<br />

specjalnych, np. kontrolowanej atmosfery.<br />

Woltamperogramy dla różnych stężeń IgG-AP oznaczanych<br />

z wykorzystaniem czujnika sitodrukowanego z elektrodą<br />

węglową oraz uśrednioną krzywą kalibracji od stężenia<br />

IgG-AP, wyznaczoną dla kilku badanych czujników przedstawiono<br />

na rys. 3. Stwierdzono, że dolna granica amperometrycznego<br />

oznaczania IgG-AP za pomocą wytworzonych<br />

w IBIB PAN węglowych czujników sitodrukowanych wynosiła<br />

około 0,1 mg/l.<br />

Inne specyficzne receptory stosowane<br />

w bioczujnikach CRP<br />

Oprócz przeciwciał w bioczujnikach CRP wykorzystywana<br />

bywa interakcja między tym białkiem a fosfocholiną, która jest<br />

jego klasycznym ligandem [30]. Przydatne okazało się też<br />

białko A, które wykazuje powinowactwo i łączy się z regionem<br />

F C przeciwciał IgG. Wykazano, że może ono być również<br />

narzędziem do specyficznego wiązania białka<br />

C-reaktywnego [31].<br />

Zastosowanie znajdują też pojedyncze syntetyczne krótkie<br />

nici DNA i RNA (oligonukleotydy), zwane aptamerami. W zależności<br />

od rodzaju są one czułe na różne cząsteczki m.in. na<br />

CRP. Bioczujniki bazujące na nich są nazywane aptasensorami<br />

[30,32-34]. Receptory te są selekcjonowane in-vitro<br />

z bibliotek kombinatoryjych techniką SELEX (Systematic Evolution<br />

of Ligands by EXponential enrichment), opracowaną<br />

niezależnie przez trzy laboratoria w 1990 roku [35]. Metoda<br />

ta polega na inkubacji analitu z aptamerami, następnie wymywaniu<br />

aptamerów niespecyficznych i powielaniu specyficznych<br />

za pomocą łańcuchowej reakcji polimerazy (PCR).<br />

Koszt i ryzyko ich wytwarzania są mniejsze niż w przypadku<br />

przeciwciał, jednak progi detekcji w bioczujnikach na nich bazujących<br />

są wyższe niż dla immunoczujników. Zaletą aptamerów<br />

w odróżnieniu od przeciwciał jest ich odporność na<br />

wyższe temperatury i możliwość całkowitej regeneracji po teście<br />

- bez utraty właściwości [36]. Testy z udziałem aptamerów<br />

ELONA - (Enzyme Linked Oligonucleotide Assay) przypominają<br />

testy immunoenzymatyczne ELISA. Aptamery są stosowane<br />

również razem z przeciwciałami w układach kanapkowych<br />

[30,37].<br />

Układy mikrofluidyczne<br />

Układ mikroprzepływowy zapewnia zmniejszenie objętości<br />

reagentów i próbek używanych podczas testu do pojedynczych<br />

mikrolitrów, a duży stosunek powierzchni mikrokanalików<br />

do ich objętości zwiększa intensywność reakcji przebiegających<br />

w układzie. Wśród elektrochemicznych metod pomiaru,<br />

amperometryczny układ detekcji jest najczęściej stosowanym<br />

układem, ze względu na niski poziom szumów tła<br />

i możliwość szybkiej detekcji.<br />

Zastosowanie przeciwciał w immunoczujnikach pozwala<br />

na uzyskanie dużej specyficzności testu - dzięki temu można<br />

zmierzyć stężenie konkretnego analitu w złożonej próbce, takiej<br />

jak np. krew.<br />

Części systemów hybrydowych są wykonywane z różnych<br />

materiałów takich jak: negatywowy fotorezyst SU-8<br />

[38-40], poli(dimethylsiloxan) PDMS [41,42], szkło - np.<br />

Pyrex, Foturan [43], krzem, poli(metylakrylan) PMMA [44,45],<br />

poliwęglany PC, cykliczne olefinowe polimery i kopolimery<br />

[46] oraz polistyren PS [47], Parylen [48] czy Kapton [49,50].<br />

Często wykorzystane są materiały hybrydowe - np. PDMS<br />

jest łączony ze szkłem [51-55]. Ze względu na prosty i mało<br />

kosztowny sposób obróbki, wytwarzania i łączenia, a także<br />

dużą biozgodność, dobre właściwości optyczne oraz dużą<br />

odporność na czynniki chemiczne, najczęściej stosowanym<br />

materiałem jest PDMS.<br />

Układy mikrofluidyczne są często stosowane w układach<br />

z immunoczujnikami m.in. z czujnikami do oznaczeń CRP<br />

[31,32,56].<br />

Immobilizacja receptorów<br />

w bioczujnikach mikrofluidycznych<br />

W immunoczujnikach mikrofluidycznych, immobilizacja receptorów<br />

typu przeciwciała lub aptamery może być przeprowadzona<br />

na elektrodach zintegrowanych z układem, ściankach<br />

mikrokomór reaktorów (adsorpcja, pułapkowanie, wiązanie kowalencyjne)<br />

lub na oddzielnych strukturach typu membrany<br />

o chemicznie zmodyfikowanej rozwiniętej powierzchni wewnętrznej.<br />

Przed immobilizacją za pomocą wiązań kowalencyjnych<br />

jest na ogół przeprowadzana chemiczna modyfikacja<br />

powierzchni w celu uzyskania hydrofilowych grup tiolowych lub<br />

karboksylowych. Jako jednorazowe nośniki immunoreagentów<br />

często są stosowane specjalne membrany o rozwiniętej i zmodyfikowanej<br />

powierzchni, zawierającej grupy karboksylowe -<br />

COOH. Takie rozwiązania są wykorzystywane do przygotowania<br />

różnego typu membran np.: Pall Biodyne C, Pall Immunodyne<br />

ABC, Millipore Affinity Membrane. Czasem stosowane<br />

są również membrany do niespecyficznego wiązania białek<br />

np. wykonane z: polifluorku winylidenu (PVDF), octanu celulozy<br />

(CA) lub hybrydowa CA-PMMA [57].<br />

W literaturze spotkać można wiele przykładów zastosowania<br />

jako podłoży do unieruchamiania immunoreagentów<br />

mikrokuleczek z tworzyw sztucznych np. polistyrenu [58] lub<br />

szkła [59,60]. Mogą one działać w układach jednorazowych<br />

lub przeznaczonych do regeneracji.<br />

Moduł reakcyjny/pomiarowy w zależności od zastosowanych<br />

materiałów może służyć do pomiarów jednorazowych<br />

lub wielokrotnych. Przy użyciu wielokrotnym jego powierzchnia,<br />

po przeprowadzonej reakcji, wymaga regeneracji. Roztwory<br />

regeneracyjne: np. kwaśny roztwór glicyny [58,59],<br />

kwaśny roztwór glicyny z dodatkiem 1% DMSO (pH 2,3) [60],<br />

4 M roztwór mocznika, stężone HCl i NaOH, są roztworami<br />

chemicznie aktywnymi, umożliwiającymi usuwanie kowalencyjnie<br />

związanych immunokompleksów, co zapewnia przygotowanie<br />

powierzchni do ponownej immobilizacji. Regeneracja<br />

powierzchni immunoczujnika po pomiarze i powtórzenie procedur<br />

na ogół nie zapewnia całkowitej powtarzalności wyników.<br />

W wielu opisanych eksperymentach w okresach między<br />

ELEKTRONIKA 11/<strong>2009</strong> 81


pomiarami - po regeneracji lub powtórnej immobilizacji przeciwciał<br />

- immunoczujniki są przechowywane w temperaturze<br />

4ºC. Czas, w którym immunoczujniki wymagające regeneracji<br />

zachowują swoje parametry może być liczony nawet<br />

w miesiącach i może obejmować kilkadziesiąt cykli pomiarowych<br />

i regeneracyjnych. Granicę czasu użytkowania immunoczujnika<br />

wyznacza gwałtowny spadek sygnału.<br />

Należy podkreślić, że aktywność przeciwciał w roztworze<br />

jest na ogół większa niż unieruchomionych na powierzchni.<br />

Dobrym środowiskiem dla białek w tym przeciwciał, okazała<br />

się matryca złożona z koloidalnych cząsteczek złota zawieszonych<br />

w układzie sol-żel, opartym na Al 2 O 3 . Układ ten wykazuje<br />

hydrofilowość, dość znaczną porowatość i dodatni<br />

ładunek powierzchniowy [61].<br />

Podsumowanie<br />

W ciągu ostatnich 20 lat obserwuje się bardzo szybki rozwój<br />

metod analitycznych bazujących na układach mikrofluidycznych.<br />

Mikroprzepływy są stosowane w systemach do bioanaliz,<br />

takich jak: mikroukłady do analizy całościowej - micro-TAS<br />

(micro Total Analysis System) lub wielofunkcyjne układy mikroprzepływowe<br />

tzw. laboratoria na chipie - Lab On a Chip (LOC).<br />

Opracowywane są również narzędzia diagnostyczne i monitoringu<br />

środowiska bazujące na układach mikroprzepływowych<br />

z wykorzystaniem immunoczujników. Jednym z takich<br />

zastosowań jest oznaczanie białka C-reaktywnego w osoczu<br />

pacjentów. W naszych pracach dążymy do uzyskania<br />

czułego, amperometrycznego immunoczujnika CRP, który<br />

mógłby służyć do badań przy łóżku chorego (point-of-care).<br />

Literatura<br />

[1] Marnell, L., C. Mold, and T. W. D. Clos, C-reactive protein: Ligands,<br />

receptors and role in inflammation. Clinical Immunology,<br />

2005, 117, pp. 104-111.<br />

[2] Orzędała-Koszel, U., Bachanek T., Kaczmarek-Borowska B.:<br />

Białko C-reaktywne jako czynnik diagnostyczny w stanach zapalnych<br />

jamy ustnej i chorobach nowotworowych C-Reactive<br />

Protein as a Diagnostic Factorin Inflammatory Processes of Oral<br />

Cavity and Neoplasma Diseases. Dent. Med. Probl., 2005, 42(1),<br />

pp. 131-136.<br />

[3] Volanakis, J. E.: Human C-reactive protein: expression, structure,<br />

and function Molecular Immunology, 2001, 38, pp. 189-197.<br />

[4] Szalai, A. J.: The biological functions of C-reactive protein. Vascular<br />

Pharmacology, 2002, 39, pp. 105-107.<br />

[5] Mora, S. and Ridker P. M.: Justification for the Use of Statins in<br />

Primary Prevention: An Intervention Trial Evaluating Rosuvastatin<br />

(JUPITER) - Can C-Reactive Protein Be Used to Target<br />

Statin Therapy inPrimary Prevention?The American Journal of<br />

Cardiology, 2006, 97(2A), pp. 33A-41A<br />

[6] Wiedener, J. M.: C-reactive protein measurenment in the patient<br />

with vascular disease. Journal of Vascular Nursing 2007, 25, pp.<br />

51-54<br />

[7] Clone B. and Olshaker J. S.: The C-reactive protein. The Journal<br />

of Emergency Medicine, 1999, 17(6), pp. 1019-1025.<br />

[8] Meyer M. et al.: CRP determination based on a novel magnetic<br />

biosensor. Biosensors and Bioelectronics, 2007, 22, pp.<br />

973-979.<br />

[9] Yang Z. and Zhou D. M.: Cardiac markers and their point-of-care<br />

testing for diagnosis of acute myocardial infarction. Clinical Biochemistry,<br />

2006, 39, pp. 771-780.<br />

[10] Lode P.: Point-of-care immunotesting: Approaching the analytical<br />

performance ofcentral laboratory methods Clinical Biochemistry<br />

2005, 38, pp. 591-606.<br />

[11] Kemmler, M., et al.: Compact point-of-care system for clinical diagnosis.<br />

Sensors and Actuators B, <strong>2009</strong>, 139, pp. 44-51.<br />

[12] Bodi V. et. al: Risk stratification in non-ST elevation acute coronary<br />

syndromes. Predictive power of troponin I, C-reactive protein,<br />

fibrinogen and homocysteine. International Journal of<br />

Cardiology, 2005, 98, pp. 277-283.<br />

[13] Takemura, Y. et al.: Economic consequence of immediate testing<br />

for C-reactive protein and leucocyte count in new outpatients with<br />

acute infection. Clinica Chimica Acta, 2005, pp. 114-121.<br />

[14] Meyer, M. Hartmann M., Keusgen M.: SRP-based immunosensor<br />

for the CRP detection - A New metod to detect a<br />

well known protein Biosensors and Bioelectronics, 2006, 21,<br />

pp. 1987-1990.<br />

[15] Vikholm-Lundin I. and Albers W. M.: Site-directed immobilisation<br />

of antibody fragments for detection of C-reactive protein. Biosensors<br />

and Bioelectronics 2006, 21, pp. 1141-1148.<br />

[16] Hu W. P., et al.: Immunodetection of pentamer modified C-reactive<br />

protein using surface plasmon resonance biosensing.<br />

Biosensors and Bioelectronics, 2006, 21, pp. 1631-1637.<br />

[17] Domnanich P. et al.: Protein microarray for the analysis of<br />

human melanoma biomarkers. Sensors and actuators B, <strong>2009</strong>,<br />

139: pp. 2-8.<br />

[18] Brandenburg A., et al.: Biochip readout system for point-of-care<br />

application. Sensors and Actuators B, <strong>2009</strong>, 139, pp. 245-251.<br />

[19] Albrecht, C., Kaeppel N., and Gauglitz G.: Two immunoassay<br />

formats for fully automated CRP detection in human serum. Anal<br />

Bioannal Chem, 2008, 391, pp. 1845-1852.<br />

[20] He X., Dandy D. S., and Henry C. S.: Microfluidic protein patterning<br />

on silicon nitride using solvent-extracted poly(dimethyloxane)<br />

channels. Sensors and Actuators B, 2008, 129, pp.<br />

811-817.<br />

[21] Peoples M. C., Phillips T. M., and Karnes H. T.: Demonstration of<br />

a direct capture immunoaffinity separation for C-reactive protein<br />

using a capillary-based microfluidic device. Journal of Pharmaceutical<br />

and Biomedical Analysis, 2008, 48, pp. 376-382.<br />

[22] Wolf M., et al.: Simultanous detection of C-reactive protein and<br />

other cardiac markers in human plasma using micromosaic immunoassays<br />

and self-regulating microfluidic networks. Biosensors<br />

and Bioelectronics, 2004, 19, pp. 1193-1202.<br />

[23] Hennessy H., et al.: Electrochemical investigations of the interaction<br />

of C-reactive protein (CRP) with a CRP antibody chemically<br />

immobilized on a gold surface. Analytica Chimica Acta,<br />

<strong>2009</strong>, 643, pp. 45-53.<br />

[24] Kurosawa, S., et al., Evaluation of high affinity QCM immunosensor<br />

using antibody fragmentation and 2-methacryloxyethyl<br />

phosphorylcholine (MPC) polymer. Biosensors and<br />

Bioelectronics, 2004, 20, pp. 1134-1139.<br />

[25] Aizawa H., et al.: Conventional diagnosis of C-reactive protein<br />

in serum using latex piezoelectric immunoassay. Sensors and<br />

Actuators B, 2001, 76, pp. 173-176.<br />

[26] Kazimierczak B., Pijanowska G. D., Maliszewska-Mazur M.<br />

Łukowska E., Kruk J., Torbicz W.: Amperometryczne oznaczanie<br />

przeciwciał znakowanych fosfatazą alkaliczną dla potrzeb immunoczujnika<br />

białka C-reaktywnego. Mat. XV Konf. KBIiB,<br />

Wrocław, 2007, pp. 133-136.<br />

[27] Kazimierczak B. and Pijanowska D.: Amperometryczne oznaczanie<br />

przeciwciał anty-CRP znakowanym fosfatazą alkaliczną.<br />

<strong>Elektronika</strong>, 2008, 6, pp. 41-49.<br />

[28] Kazimierczak B. and Pijanowska D.G.: Amperometryczne oznaczanie<br />

przeciwciał anty-CRP znakowanych fosfatazą alkaliczną.<br />

COE 2008, Poznań, 23-25 czerwca, 2008.<br />

[29] Kazimierczak B., Pijanowska D.G., and Torbicz W.: Application<br />

of enzyme labeled antibodies for immunosensors based on<br />

elecetrochemical detection. Pol. J. of Chem, 2008, 82, pp.<br />

1255-1264.<br />

[30] Pultar J., et al.: Aptamer-antibody on chip sandwich immunoassay<br />

for detection of CRP in spiked serum. Biosensors and Bioelectronics,<br />

<strong>2009</strong>, 24, pp. 1456-1461.<br />

[31] Das T., Mandal C.: Protein A - a new ligand for human C-reactive<br />

protein. FEBS Letters, 2004, 576, pp. 107-113.<br />

[32] Yang, Y. N., Lin H. I., Wang J. H., Shieh S. C., Lee G. B. : An integrated<br />

microfluidic system for C-reactive protein measurement.<br />

Biosensors and Bioelectronics, <strong>2009</strong>, 24, pp. 3091-3096.<br />

82 ELEKTRONIKA 11/<strong>2009</strong>


[33] Biani A., Centi S. Tombrlli S., Minunni M., Mascini M.: Development<br />

of an optical RNA-based aptasensor for C-reactive protein.<br />

Anal Bioannal Chem, 2008, 390, pp. 1077-1086.<br />

[34] Kim K. S., et al.: The fabrication, characterization and application<br />

of aptamer-functonalized Si-nanowire FET biosensor. Nanotechnology,<br />

<strong>2009</strong>, 20, pp. 6pp.<br />

[35] Mairal T., et al.: Aptamers: molecular tools for analytical applications.<br />

Anal Bioanal Chem, 2008, 390, pp. 989-1007<br />

[36] Balamurugan S., et al.: Surface immobilization methods for aptamer<br />

diagnostic applications. Anal Bioanal Chem, 2008, 390,<br />

pp. 1009-1021.<br />

[37] Kang Y., et al.: Electrochemical detection of trombin by sandwich<br />

approach using antibody and aptamer. Biochemistry, 2008, 73,<br />

pp. 76-81.<br />

[38] Henares T. G., Mizutani F., and Hisamoto H.: Current development<br />

in microfluidic immunosensing chip. Analytica Chimica<br />

acta, 2008, 6(11), pp. 17-30.<br />

[39] Joshi M., et al.: Silanization and antibody immobilization on SU-<br />

8. Applied Surface Science, 2007, 253, pp. 3127-3132<br />

[40] Blagoi G., et al.: Functionalization of SU-8 photoresist surfaces<br />

with IgG proteins. Applied Surface Science, 2008, 255, pp.<br />

2896-2902.<br />

[41] Meacham K.W., et al.: A Lithographically-Patterned, Elastic Multielectrode<br />

Array for Surface Stimulation of Spinal Cord. Biomed<br />

Microdevices, 2008. 10(2), pp. 259-269.<br />

[42] Baek J. Y., et al.: Flexible polymeric dry electrodes for the longterm<br />

monitoring of ECG. Sensors and Actuators A, 2008, 143,<br />

pp. 423-429.<br />

[43] Illiescu C., Chen B., and Miao J.: On the wet etching of Pyrex<br />

glass. Sensors and Actuators A, 2008, 143, pp. 154-161.<br />

[44] Liu J., et al.: Plasma assisted thermal bonding for PMMA microfluidic<br />

chips with integrated metal microelectrodes. Sensors<br />

and Actuators B, <strong>2009</strong>, 141, pp. 646-651.<br />

[45] Tsai Y. C.,. Ho C. L, and Liao S. W.: Nanobiosensors prepared by<br />

electrodeposition of glucose oxidase in PMMA nanochannels<br />

produced by atomic force microscopy nanolithography. Electrochemistry<br />

Communications, <strong>2009</strong>, 11, pp. 1316-1319.<br />

[46] Castano-Alvarez M., Fernandez-Abedul M. T., and Costa-Garcia<br />

A.: Amperometric detector designs for capillary electrophoresis microchips.<br />

Journal of Chromatography A, 2006, 1109, pp. 291-299.<br />

[47] Ishida A., Natsume M., and Kamidate T.: Microchip reversedphase<br />

liquid chromatography with packed column and electrochemical<br />

flow cell using polystyrene/poly(dimethylsilane). Journal<br />

of Chromatography A, 2008, 1213, pp. 209-217.<br />

[48] Noh H. S., Huang Y., and Hesketh P. J.: Parylene micromolding,<br />

a rapid and low-cost fabrication method for parynele microchannel.<br />

Sensors and Actuators B, 2004, 102, pp. 78-85.<br />

[49] Li C., Han J., and Ahn C. H., Flexible biosensors on spirally rolled<br />

micro tube for cardiovascular in vivo monitoring. Biosensors and<br />

Bioelectronics 2007, 22, pp. 1988-1993.<br />

[50] Woytasik M., et al.: Fabrication of planar and three-dimensional<br />

microcoils on flexible substrates. Microsyst Technol, 2006, 12.<br />

[51] Dawoud, A. A., et al.: Separation of catecholamines and dopaminederived<br />

DNA adduct Rusing a microfluidic device with electrochemical<br />

detection. Sensors and Actuators B 2006, 120, pp. 42-50.<br />

[52] Huang C. J., et al.: Integrated microfluidic systems for automatic<br />

glucose sensing and insulin injection. Sensors and Actuators B<br />

2007, 122, pp. 461-468.<br />

[53] Morin, F., et al.: Constraining the connectivity of neuronal networks<br />

cultured on microelectrode arrays with microfluidic techniques:<br />

A step towards neuron-based functional chips. Biosensors<br />

and Bioelectronics 2006, 21, pp. 1093-1100.<br />

[54] Dawoud, A. A., Kawaguchi T., and Jankowiak R.: In-channel<br />

modification of electrochemical detector for the detection of biotargets<br />

on microchip. Electrochemistry Communications, 2007,<br />

9, pp. 1536-1541.<br />

[55] Liu C. and Cui D. F.: Design amd fabrication of poly(dimethylsiloxane)<br />

electrophoresis microchip with integrated electrodes.<br />

Microsyst Technol, 2005, 11, pp. 1262-1266.<br />

[56] Baldini F., et al.: An optical PMMA biochip based on fluorescence<br />

anisotropy: Application to C-reactive protein assay. Sensors and<br />

Actuators B, <strong>2009</strong>, 139, pp. 64-68.<br />

[57] Rauf S., Ihsan A., Akharat K., Ghuri M. A., Rahman M., Anwar M.<br />

A., Khalid A. M.: Glucose oxidase immobilization on a novel cellulose<br />

acetate-polymethylmetthacrylate membrane, Journal of<br />

Biotechnology 2006,121, pp. 251-360<br />

[58] Kakuta M. H. T., Kazuno S., Murayama K., Ueno T.: Development<br />

of the microchip-based repeatable immunoassay system<br />

for clinical diagnosos. Measurement Science and Technology,<br />

2006, 17, pp. 3189-3194.<br />

[59] Messina G. A., Panini N. V., Martinez N. A., Raba J.: Microfluidic<br />

immunosensor design for the quantification of interleukin-6in<br />

human serum samples. Analytical Biochemistry, 2008, 380, pp.<br />

262-267.<br />

[60] Kandimalla V. B., Necta N. S., Karanth N. G., Thakur M. S.,<br />

Roshini K. R., Reni B. E. A., Pasha A., Karanth N. G. K.: Regeneration<br />

of ethyl parathion antibodies for repeated use in immunosensor:<br />

A study on dissociation of antigens from antibodies.<br />

Biosensors and Bioelectronics, 2004, 20, pp. 902-905.<br />

[61] Liu Y.: Electrochemical detection of prostate-specific antigen<br />

based on gold colloids/alumina derived sol-gel film, Thin Solid<br />

Films, 2008, 516, pp.1803-1808.<br />

ELEKTRONIKA 11/<strong>2009</strong> 83


Ochrona własności przemysłowej w Przemysłowym<br />

Instytucie Telekomunikacji S.A. na przestrzeni 75 lat<br />

Jego historii<br />

inż. JERZY KOBIERZYCKI, WŁADYSŁAW KĘSKA (emeryt)<br />

Przemysłowy <strong>Instytut</strong> Telekomunikacji S.A.<br />

Artykuł ma charakter okolicznościowy z okazji 75 lat istnienia<br />

Przemysłowego <strong>Instytut</strong>u Telekomunikacji S.A. i prezentuje<br />

osiągnięcia <strong>Instytut</strong>u w obszarze ochrony własności przemysłowej.<br />

Na wstępie zawiera rys historyczny, krótko charakteryzuje<br />

politykę patentową PIT S.A. oraz służbę ochrony<br />

własności przemysłowej. Zaprezentowano również osiągnięcia<br />

patentowe PIT S.A., opisano konkurs „Mistrz Wynalazczości<br />

i Racjonalizacji” - organizowany w Instytucie od 1979 roku. Pokazano<br />

sylwetki 10 najbardziej wyróżniających się twórców.<br />

Rys historyczny<br />

Podstawą prawną podjęcia działalności w zakresie ochrony<br />

własności przemysłowej w powołanym w 1934 roku Państwowym<br />

Instytucie Telekomunikacyjnym było Rozporządzenie<br />

Prezydenta Rzeczypospolitej z dnia 22 marca 1928 roku<br />

o ochronie wynalazków, wzorów użytkowych i znaków towarowych<br />

(Dz.U. RP Nr 39 poz. 384) oraz Obwieszczenie Prezesa<br />

Urzędu Patentowego RP z dnia 27 marca 1931 roku<br />

o przepisach obowiązujących przy zgłaszaniu wynalazków,<br />

wzorów i znaków towarowych.<br />

Pierwszym wynalazkiem zgłoszonym przez Państwowy<br />

<strong>Instytut</strong> Telekomunikacyjny w Urzędzie Patentowym RP,<br />

8 marca 1934 r. był Układ telefoniczny, pracujący z częstotliwościami<br />

nośnymi, którego twórcą był Jerzy Kahan.<br />

Na wynalazek ten uzyskano 25 listopada 1936 roku patent<br />

Nr 24231, klasa 21a 4 , 58.<br />

Natomiast pierwszym, uzyskanym przez PIT 6 listopada<br />

1936 roku patentem, był patent Nr 24126, klasa 21a 3 , 63/01<br />

na wynalazek: Układ połączeń elektromagnesów wybierakowych<br />

w samoczynnych centralach telefonicznych, zgłoszony<br />

w Urzędzie Patentowym RP w dniu 14 maja 1934 roku.<br />

Twórcą tego wynalazku był Konstanty Dobrski.<br />

Do roku 1939 Państwowy <strong>Instytut</strong> Telekomunikacyjny<br />

zgłosił do Urzędu Patentowego 11 wynalazków.<br />

Działalność Państwowego <strong>Instytut</strong>u Telekomunikacyjnego<br />

została w okresie okupacji przerwana.<br />

Jesienią 1944 roku Państwowy <strong>Instytut</strong> Telekomunikacyjny<br />

wznowił działalność w bardzo trudnych warunkach - pomieszczenia<br />

były zdewastowane, aparatura rozszabrowana,<br />

kadra rozproszona. W kwietniu 1945 roku na stanowisko Dyrektora<br />

powrócił prof. Janusz Groszkowski.<br />

Pierwszym powojennym wynalazkiem, zgłoszonym przez<br />

PIT 18 grudnia 1946 roku, na który uzyskano patent 24 listopada<br />

1947 roku był: „Elektryczny termoregulator ze sprzężeniem”,<br />

patent Nr 33369, którego twórcą był Juliusz Keller.<br />

Polityka patentowa PIT S.A.<br />

Ochrona własności przemysłowej w Przemysłowym Instytucie<br />

Telekomunikacji (do 1951 roku Państwowym Instytucie Telekomunikacyjnym)<br />

miała dwojaki charakter:<br />

• ochrona własnych oryginalnych rozwiązań poprzez<br />

zgłaszanie wynalazków i wzorów użytkowych do Urzędu<br />

Patentowego;<br />

• śledzenie zgłoszeń innych podmiotów i zgłaszanie przeciwstawień<br />

w przypadkach stwierdzenia kolizji z rozwiązaniami<br />

PIT.<br />

Czasokres ochrony okresowej opatentowanych wynalazków<br />

przyjęty w PIT obejmował w zasadzie 5 lat. Wynikało to<br />

z założenia, że w ciągu pięciu lat technika światowa na tyle intensywnie<br />

się rozwija, że opatentowane wynalazki przestają<br />

już być atrakcyjne i konkurencyjne w stosunku do nowszych<br />

rozwiązań.<br />

Każdy projekt wynalazczy zgłaszany w Przemysłowym Instytucie<br />

Telekomunikacji S.A. w ciągu kilkudziesięciu ostatnich<br />

lat jest rozpatrywany i analizowany przez Komisję<br />

Wynalazczości, powołaną przez Dyrektora jako organ opiniodawczy<br />

i doradczy w obszarze działalności wynalazczej.<br />

Komisja w obecności twórcy i recenzenta opracowującego<br />

opinię techniczną, analizuje wartość techniczną zgłaszanego<br />

wynalazku, jego nowość na tle techniki światowej oraz możliwości<br />

i potrzebę zastosowania w rozwiązaniach projektowych i<br />

konstrukcyjnych <strong>Instytut</strong>u i spodziewane z tego korzyści. Ponadto<br />

komisja wypracowuje zalecenia ewentualnych uzupełnień<br />

i poprawek w dokumentacji zgłoszeniowej wynalazków. Tak<br />

skrupulatna ocena merytoryczna zgłaszanych projektów skutkuje<br />

bardzo małą liczbą zgłoszeń kwestionowanych, lub oddalonych<br />

przez Urząd Patentowy. Wskutek konstruktywnego,<br />

pomocnego twórcom podejścia komisji, również liczba wynalazków<br />

dyskwalifikowanych przez komisję nie była znacząca.<br />

W odniesieniu do wynalazków zastosowanych w PIT S.A. komisja<br />

szacuje ponadto i wnioskuje wysokość wynagrodzenia dla<br />

twórców, biorąc pod uwagę uzyskane lub przewidywane efekty<br />

ekonomiczne oraz niewymierne efekty techniczne.<br />

Komisji Wynalazczości przewodniczyli kolejno: doc. mgr<br />

inż. Jerzy Fiett, dr inż. Zbigniew Maik, mgr inż. Józef Bielski,<br />

a od 1986 roku do chwili obecnej inż. Jerzy Kobierzycki.<br />

Generalnie kierownictwo Przemysłowego <strong>Instytut</strong>u Telekomunikacji<br />

przywiązywało zawsze dużą wagę do działalności<br />

wynalazczej i racjonalizatorskiej w Instytucie, poszukując rozwiązań<br />

pobudzających zainteresowanie potencjalnych twórców<br />

oraz popierając zgłaszane w tym zakresie inicjatywy.<br />

84 ELEKTRONIKA 11/<strong>2009</strong>


Problemem bowiem w pracach instytutowych nie był brak<br />

oryginalnych rozwiązań, ale zachęcenie ich twórców do<br />

zgłaszania tych rozwiązań jako wynalazki. Potwierdzeniem tej<br />

tezy jest prezentowane w dalszej części zestawienie autorów<br />

wynalazków, z którego wynika, że liczba wynalazków zgłaszanych<br />

w poszczególnych obszarach działalności technicznej<br />

zależała bardziej od chęci i umiejętności sformułowania zastrzeżeń<br />

ochronnych przez autorów, niż od ilości oryginalnych<br />

rozwiązań opracowywanych i stosowanych w Instytucie.<br />

W ostatnich latach działalność patentowa miała dodatkowy,<br />

wymierny aspekt, gdyż ilość uzyskanych patentów była<br />

brana pod uwagę przy kategoryzacji jednostek badawczorozwojowych.<br />

Służba ochrony własności przemysłowej<br />

w PIT<br />

Nie zachowały się dane dotyczące pracowników służby<br />

ochrony własności przemysłowej w PIT do lat 50. natomiast<br />

od początku lat 60. działalność ta była prowadzona pod kierunkiem<br />

Pana Henryka Niebojewskiego, kierownika Sekcji Patentowej<br />

i rzecznika patentowego. Z uwagi na łączenie tych<br />

dwóch funkcji Pan Niebojewski potrafił nie tylko wyłuskiwać<br />

z rozwiązań projektowo-konstrukcyjnych nowość i poziom wynalazczy,<br />

ale również wspólnie z twórcą opracować dokumentację<br />

zgłoszeniową. W większości przypadków to nie<br />

twórcy zgłaszali się do komórki patentowej, ale Pan Niebojewski<br />

zgłaszał się do potencjalnych twórców. Jako rzecznik<br />

patentowy opracował dokumentację zgłoszeniową około 200<br />

wynalazków krajowych i 13 zgłaszanych za granicę. W roku<br />

1974, po przejściu Pana Niebojewskiego na emeryturę, kierownictwo<br />

tej komórki przejął Jego wychowanek Pan<br />

Władysław Kęska. Linia programowa uprawiana przez Pana<br />

Niebojewskiego znalazła godnego kontynuatora i była bardzo<br />

wysoko oceniana nie tylko w Instytucie. W latach 70. i 80. PIT<br />

zgłaszał do Urzędu Patentowego 25 do 30 wynalazków rocznie.<br />

W roku 2001 Pan Władysław Kęska został powołany przez<br />

Prezesa Urzędu Patentowego RP na członka kolegium<br />

orzekającego do spraw spornych UP RP. W roku 1978 Sekcja<br />

Patentowa po włączeniu komórki racjonalizacji z ZD PIT, została<br />

przekształcona w Dział Ochrony Własności Przemysłowej.<br />

Aktualnie czynnym rzecznikiem patentowym jest Pani mgr<br />

inż. Anna Żuk. Mgr inż. Anna Żuk opracowała ponad 200 opisów<br />

patentowych, a także osobiście przeforsowała w OHIM<br />

uzyskanie wspólnotowego graficznego znaku towarowego na<br />

używane od kilkudziesięciu lat logo PIT.<br />

Zaangażowanie i wiedza rzeczników patentowych skutkowały<br />

trafnym zdefiniowaniem właściwości patentowych rozwiązań<br />

projektowych i konstrukcyjnych oraz poprawnym<br />

opracowaniem dokumentacji zgłoszeniowej. W postępowaniu<br />

przed Urzędem Patentowym rzecznicy patentowi w ogromnej<br />

większości przypadków potrafili skutecznie bronić zgłaszanych<br />

wynalazków.<br />

Bezpośredni nadzór nad działalnością w zakresie ochrony<br />

własności przemysłowej sprawowali w różnych okresach,<br />

w zależności od przyporządkowania organizacyjnego komórki<br />

patentowej:<br />

- Kierownik Branżowego Ośrodka Informacji Naukowo-Technicznej<br />

i Ekonomicznej mgr inż. Paweł Mosiewicz,<br />

- Dyrektorzy Techniczni - mgr inż. Leszek Szmilewski i inż.<br />

Jerzy Kobierzycki,<br />

- Dyrektorzy Naczelni - doc. mgr inż. Jerzy Fiett i mgr inż.<br />

Józef Machowski,<br />

- Sekretarz Naukowy PIT doc. dr inż. Tadeusz Gawron,<br />

- Dyrektor Naukowy dr hab. inż. Edward Sędek.<br />

Patenty i świadectwa ochronne uzyskane<br />

przez PIT<br />

W latach od 1936 do 2008 PIT uzyskał 647 patentów krajowych,<br />

14 patentów zagranicznych, 198 świadectw ochronnych<br />

na wzory użytkowe oraz 4 świadectwa ochronne na znaki towarowe.<br />

Patenty krajowe<br />

Lata Ilość patentów Lata Ilość patentów<br />

1936 - 1939 11 1980 - 1989 168<br />

1947 - 1959 13 1990 - 1999 104<br />

1960 - 1969 54 2000 - 2008 81<br />

Jak widać z powyższego zestawienia, liczba patentów<br />

uzyskanych w poszczególnych okresach jest bardzo zróżnicowana,<br />

co w znacznym stopniu wynikało z ewolucji obszaru<br />

tematycznego działalności <strong>Instytut</strong>u, a w pewnym stopniu było<br />

również wynikiem okresowych spiętrzeń prac w Urzędzie Patentowym.<br />

Autorami lub współautorami opatentowanych<br />

wynalazków było 359 pracowników <strong>Instytut</strong>u.<br />

Najwięcej patentów dla PIT uzyskali:<br />

L.p.<br />

Imię i nazwisko<br />

Ilość<br />

patentów<br />

Lata<br />

1 inż. Wacław Niemyjski 66 1969 - 2008<br />

2 mgr inż. Anna Czwartacka 44 1971 - 2008<br />

3 dr inż. Wiesław Klembowski 30 1969 - 1990<br />

4 dr inż. Józef Kuliński 28 1969 - 2007<br />

5 mgr inż. Henryk Krepsztul 27 1964 - 1973<br />

6 mgr inż. Jan Piotrowski 25 1967 - 1997<br />

7 mgr inż. Bogdan Stachowski 24 1991 - 2008<br />

Patenty zagraniczne<br />

Zgłaszanie wynalazków PIT za granicą miało incydentalny<br />

charakter ze względu na specjalny charakter prowadzonych<br />

w Instytucie prac. Z kronikarskiego obowiązku należy jednak<br />

odnotować, że były to następujące wynalazki:<br />

ELEKTRONIKA 11/<strong>2009</strong> 85


L.p.<br />

1<br />

2<br />

3<br />

4<br />

Ostatni z wymienionych wynalazków miał początkowo<br />

szanse zrobienia swego rodzaju międzynarodowej kariery, był<br />

nawet zgłaszany m.in. w Japonii, Holandii, Francji, RFN, jednak<br />

problemy z wdrożeniem w Zakładach Radiowych ELTRA<br />

i Zakładach Radiowych im. Marcina Kasprzaka, oraz niekorzystne<br />

warunki do transferu technologii z Polski do krajów<br />

wysokouprzemysłowionych w okresie stanu wojennego i bezpośrednio<br />

po nim, spowodowały jego technologiczne zestarzenie<br />

się. Zaniechano więc dalszych starań o uzyskanie<br />

ochrony patentowej.<br />

Wzory użytkowe<br />

Przemysłowy <strong>Instytut</strong> Telekomunikacji S.A. legitymuje się<br />

198 świadectwami ochronnymi na wzory użytkowe, autorstwa<br />

168 twórców.<br />

Najwięcej wzorów użytkowych zgłosili:<br />

L.p.<br />

Tytuł wynalazku<br />

Sposób rozmieszczania<br />

szczelin w dzielonym rdzeniu<br />

ferromagnetycznym<br />

Uwarstwienie dzielonego<br />

rdzenia ferromagnetycznego<br />

Wzmacniacz parametryczny<br />

wielkiej częstotliwości<br />

Cyfrowy syntetyzer<br />

częstotliwości<br />

Imię i nazwisko<br />

Data<br />

uzyskania<br />

patentu<br />

krajowego<br />

1962<br />

1966<br />

1969<br />

Kraj i data patentu<br />

zagranicznego<br />

Bułgaria<br />

Kuba<br />

Węgry<br />

Rumunia<br />

Indie<br />

NRD<br />

ZSRR<br />

Rumunia<br />

Węgry<br />

NRD<br />

RFN<br />

Jugosławia<br />

Szwecja<br />

1962<br />

1962<br />

1962<br />

1963<br />

1964<br />

1965<br />

1965<br />

1966<br />

1967<br />

1969<br />

1970<br />

1970<br />

1972<br />

1989 NRD 1988<br />

Ilość<br />

wzorów<br />

Lata<br />

1 mgr inż. Kazimierz Suchodolski 22 2005 - 2008<br />

2 mgr inż. Andrzej Jabłoński 21 2003 - 2008<br />

3 mgr inż. Adolf Krasuski 12 1971 - 2000<br />

4 dr inż. Józef Kuliński 10 1977 - 2003<br />

5 Mikołaj Stasiuk 10 1986 - 2000<br />

Znaki towarowe<br />

W okresie od 1970 do 2008 roku Przemysłowy <strong>Instytut</strong> Telekomunikacji<br />

S.A. uzyskał świadectwa ochronne na 4 znaki towarowe.<br />

Dwa pierwsze znaki dotyczyły radiotelefonu Contact<br />

300 - 1970 rok oraz radiotelefonu Kontakt 300 - 1971 rok.<br />

Obydwa świadectwa były pierwotnie wystawione na <strong>Instytut</strong><br />

Tele- i Radiotechniczny, a w 1971, w ramach przeniesienia<br />

z ITR do PIT tematyki radia, telewizji i radiokomunikacji<br />

stały się własnością PIT.<br />

W 1993 roku uzyskano świadectwo ochronne na znak krajowy,<br />

słowno-graficzny (PIT w rombie), stanowiący logo <strong>Instytut</strong>u<br />

od kilkudziesięciu lat (według dostępnych źródeł<br />

przynajmniej od 1949 roku). Prawo z rejestracji tego znaku<br />

trwa od 14 stycznia 1991 roku.<br />

W 2008 roku, w wyniku usilnych starań w OHIM (Urząd<br />

Harmonizacji Rynku Wewnętrznego), szczególnie ze strony<br />

rzecznika patentowego PIT mgr inż. Anny Żuk - uzyskano<br />

wspólnotowy znak towarowy graficzny na to samo logo PIT.<br />

Ochrona znaku obejmuje wspólnotowe (Unii Europejskiej)<br />

klasy towarowe 6, 9 i 42. Trudności w zastrzeżeniu tego znaku<br />

na rzecz PIT wynikały ze zdecydowanego przeciwstawiania<br />

ze strony firmy niemieckiej, legitymującej się podobnym<br />

słownie (ale nie graficznie) skrótowcem „PIT”.<br />

Efekty ekonomiczne<br />

W ostatnich 10 latach zastosowane wynalazki przyniosły następujące<br />

wymierne efekty ekonomiczne:<br />

1999 - 476,488 zł 2004 - 369,101 zł<br />

2000 - 227,413 zł 2005 - 409,431 zł<br />

2001 - 198,346 zł 2006 - 446,571 zł<br />

2002 - 95,724 zł 2007 - 232,492 zł<br />

2003 - 386,997 zł 2008 - 554,877 zł<br />

Konkurs „Mistrz Wynalazczości<br />

i Racjonalizacji Przemysłowego <strong>Instytut</strong>u<br />

Telekomunikacji”<br />

W 1979 roku, z inicjatywy przewodniczącego Klubu Techniki<br />

i Racjonalizacji w PIT mgr inż. Władysława Kolbreckiego, podjętej<br />

przez ówczesnego Dyrektora Technicznego PIT inż. Jerzego<br />

Kobierzyckiego przy znaczącym udziale służby patentowej<br />

PIT, zorganizowano pierwszy konkurs. Celem konkursu<br />

było zachęcenie potencjalnych twórców do zgłaszania projektów<br />

wynalazczych oraz spopularyzowanie wśród pracowników<br />

<strong>Instytut</strong>u działalności wynalazczej i racjonalizatorskiej.<br />

Konkurs spotkał się z żywym zainteresowaniem nie tylko<br />

pracowników naukowo-badawczych, ale również pracowników<br />

produkcji.<br />

Warunkiem uczestnictwa w konkursie było zgłoszenie<br />

w danym roku przynajmniej jednego projektu wynalazczego.<br />

W konkursie liczyła się nie tylko liczba projektów zgłoszonych<br />

w roku konkursowym, ale również ich zastosowanie, a także<br />

uzyskane w tym roku efekty ekonomiczne, patenty lub świadectwa<br />

autorskie z projektów zgłoszonych w poprzednich latach.<br />

Rozstrzygnięcia wyników konkursu dokonuje Komisja Wynalazczości,<br />

działająca na tę okoliczność jako komisja konkursowa.<br />

W każdym z corocznych konkursów uczestniczyło około<br />

30 twórców. Na przestrzeni 30 konkursów nagrodzonych lub<br />

wyróżnionych zostało 125 twórców o bardzo szerokim spektrum<br />

zawodowym - od robotników do docentów.<br />

Mistrzami Wynalazczości i Racjonalizacji w poszczególnych<br />

latach byli:<br />

1979 - Tadeusz Drozd, Elżbieta Galińska<br />

1980 - Adam Kolasiński<br />

1981 - Mieczysław Gajak<br />

1982 - Zenon Kopeć<br />

1983 - Ryszard Dobies<br />

1984 - Zbigniew Czyż<br />

86 ELEKTRONIKA 11/<strong>2009</strong>


1985 - Zdzisław Dorywalski<br />

1986 - Józef Kuliński<br />

1987 - Jerzy Robak<br />

1988 - Elżbieta Rogalska<br />

1989 - Mieczysław Gajak<br />

1990 - Zenon Kopeć<br />

1991 - Józef Kuliński<br />

1992 - Anna Czwartacka, Andrzej Wronka<br />

1993 - Józef Kuliński<br />

1994 - Anna Czwartacka, Bogdan Stachowski<br />

1995 - Aleksander Łabudziński<br />

1996 - Aleksander Łabudziński<br />

1997 - Aleksander Łabudziński<br />

1998 - Lech Niepiekło<br />

1999 - Andrzej Arvaniti<br />

2000 - Aleksander Łabudziński, Wacław Niemyjski<br />

2001 - Anna Czwartacka<br />

2002 - Kazimierz Suchodolski<br />

2003 - Andrzej Jabłoński<br />

2004 - Andrzej Jabłoński<br />

2005 - Kazimierz Suchodolski<br />

2006 - Anna Firląg<br />

2007 - Anna Czwartacka<br />

2008 - Anna Czwartacka<br />

W 30 dotychczas przeprowadzonych konkursach udział<br />

wzięło 125 twórców.<br />

Ranking 11 najlepszych wyników uzyskanych w 30. konkursach „Mistrz Wynalazczości i Racjonalizacji Przemysłowego<br />

<strong>Instytut</strong>u Telekomunikacji S.A.” w latach 1979-2008<br />

Lokata Imię i nazwisko Mistrz I wicemistrz II wicemistrz Punktacja<br />

1 mgr inż. Anna Czwartacka 5 4 1 75<br />

2 dr inż. Józef Kuliński 3 2 2 50<br />

3 mgr inż. Bogdan Stachowski 1 4 1 47<br />

4 inż. Wacław Niemyjski 1 2 2 44<br />

5 mgr inż. Aleksander Łabudziński 4 1 39<br />

6 mgr inż. Andrzej Jabłoński 2 2 1 36<br />

7 mgr inż. Kazimierz Suchodolski 2 2 31<br />

8 mgr inż. Mieczysław Gajak 2 1 21<br />

9 dr inż. Zenon Szczepaniak 1 18<br />

10 mgr inż. Zenon Kopeć 2 17<br />

11 mgr inż. Janusz Pietrzak 2 1 17<br />

Rys. 1. Uroczyste wręczanie świadectw autorskich,oraz nagród w konkursie Mistrz Wynalazczości PIT za rok 1983 (od prawej:<br />

dyrektor PIT doc. Jerzy Fiett, dyrektor CNPEP RADWAR inż. Marian Migdalski, dyrektor techniczny PIT inż. Jerzy Kobierzycki,<br />

kierownik Działu Ochrony Własności Przemysłowej Władysław Kęska)<br />

ELEKTRONIKA 11/<strong>2009</strong> 87


Rys. 2. Uroczystość z okazji uzyskania przez PIT 600-nego patentu połączona z wręczaniem nagród w konkursie Mistrz Wynalazczości<br />

PIT za rok 2004 (od lewej: dr inż. Jerzy Gorzkowski, dr inż. Józef Kuliński, mgr inż. Bogdan Stachowski, mgr inż. Anna<br />

Czwartacka, inż. Wacław Niemyjski, oraz rzecznik patentowy inż. Edward Kozłowski)<br />

Rys. 3. Nagrodzeni w Konkursie Mistrz Wynalazczości 2004 (od lewej: dr inż. Jarosław Małek - wyróżnienie, Andrzej Kostecki,<br />

mgr inż. Lech Niepiekło - V miejsce, mgr inż. Andrzej Jabłoński - mistrz, mgr inż. Kazimierz Suchodolski - II wicemistrz,<br />

mgr inż. Andrzej Jankowski - VI miejsce, Marek Kopczyński - wyróżnienie)<br />

88 ELEKTRONIKA 11/<strong>2009</strong>


Rys. 4. Uroczyste wręczanie świadectw autorskich, oraz nagród w konkursie Mistrz Wynalazczości PIT za rok 2005 (od lewej:<br />

Kierownik Pionu Radiolokacji i Techniki Mikrofalowej mgr inż. Henryk Kantecki, Dyrektor Naukowy PIT dr hab. inż. Edward<br />

Sędek, przewodniczący Komisji Wynalazczości inż. Jerzy Kobierzycki, kierownik Działu Ochrony Własności Przemysłowej<br />

Władysław Kęska.<br />

Rys. 5. Nagradzani twórcy w Konkursie Mistrz Wynalazczości PIT za rok 2005 (od lewej: dr inż. Jarosław Małek - wyróżnienie,<br />

mgr inż. Zbigniew Głuszczak, mgr inż. Andrzej Jabłoński - I wicemistrz, mgr inż. Zbigniew Szkutnik - wyróżnienie, mgr inż. Kazimierz<br />

Suchodolski - mistrz)<br />

ELEKTRONIKA 11/<strong>2009</strong> 89


Rys. 6. Mgr inż. Anna Czwartacka (II wicemistrz) i rzecznik patentowy - mgr inż. Anna Żuk<br />

Najaktywniejsi twórcy (w kolejności alfabetycznej)<br />

Wzory<br />

Miejsca w Konkursie<br />

Imię i Nazwisko<br />

Patenty<br />

użytkowe<br />

I II III<br />

mgr inż. Anna Czwartacka 44 2 5 4 1<br />

W PIT od 1966 r., po studiach na Wydziale Łączności Politechniki Warszawskiej. Wybitna specjalistka w dziedzinie<br />

układów odbiorczych urządzeń radiolokacyjnych, półprzewodnikowych układów mikrofalowych w technice MUS, anten<br />

ścianowych, a w ostatnim okresie również w obszarze radarowych anten aktywnych z elektronicznie formowanymi<br />

wiązkami. W latach 1992-1999 kierownik Zakładu Mikrofalowych Układów Czynnych, następnie projektant wiodący<br />

jednostek antenowych radarów z antenami ścianowymi, aktualnie kieruje pilotowym opracowaniem anteny aktywnej.<br />

dr inż. Jerzy Gorzkowski 15 2<br />

W PIT od 1959 do emerytury w 2001 roku. W Politechnice Warszawskiej tytuł mgr inż.. uzyskał w 1960 roku, a doktora<br />

nauk technicznych w 1976 roku. Specjalizował się w projektowaniu mikrofalowych zespołów falowodowych i współosiowych<br />

(złącza obrotowe, przełączniki ASO, sprzęgacze kierunkowe, filtry, polaryzatory, przesuwniki fazy itp.). Posiada<br />

bardzo dużą wiedzę teoretyczną i wysokie umiejętności posługiwania się w projektowaniu aparatem matematycznym<br />

teorii pola elektromagnetycznego, dzięki czemu z dużym powodzeniem projektował bardzo trudne zespoły traktów<br />

mikrofalowych radarów.<br />

mgr inż. Andrzej Jabłoński 21 2 2 1<br />

Konstruktor mechanik, specjalność samochody i ciągniki. W PIT od 1996 roku (poprzednio od 1974 roku w Przemysłowym<br />

Instytucie Motoryzacji). Konstruktor wiodący jednostki antenowej 3-współrzędnego radaru dalekiego zasięgu.<br />

Autor wielu konstrukcji wyposażenia technologicznego radaru w zakresie ergonomii, transportu, montażu itp.).<br />

Swobodnie posługuje się wspomaganiem komputerowym konstrukcji z wykorzystaniem specjalistycznego<br />

oprogramowania.<br />

90 ELEKTRONIKA 11/<strong>2009</strong>


Imię i Nazwisko<br />

Patenty<br />

Wzory<br />

użytkowe<br />

Miejsca w Konkursie<br />

I II III<br />

dr inż.Wiesław Klembowski 30<br />

W PIT od 1964 r., po studiach na Wydziale Łączności Politechniki Warszawskiej. W latach 1985-2001 Zastępca Dyrektora,<br />

Kierownik Pionu Radiolokacji i Techniki Mikrofalowej, a następnie Zastępca Dyrektora ds. Badawczo-Technicznych.<br />

Wybitny specjalista w zakresie radiolokacji, współautor rodziny stacji radiolokacyjnych dalekiego i średniego<br />

zasięgu dla celów wojskowych i cywilnych. Pod Jego kierunkiem została opracowana 3-współrzędna stacja radiolokacyjna<br />

dalekiego zasięgu z pierwszą w kraju anteną ścianową<br />

mgr inż. Henryk Krepsztul 27<br />

Pracował w PIT od 1958 do 1972 roku. Adiunkt, kierownik pracowni, zastepca głównego projektanta dużej stacji radiolokacyjnej.<br />

Specjalizował się w problematyce elektronicznych metod pomiarowych, projektowaniu i konstrukcji specjalizowanych<br />

przyrządów pomiarowych dla radiolokacji, zagadnień niezawodności aparatury elektronicznej. Był przedstawicielem<br />

PIT w Sekcji Automatyzacji Pomiarów PKPA NOT.<br />

dr inż. Józef Kuliński 28 10 3 2 2<br />

W PIT od 1958 do emerytury w 1996 roku. Od 1964 roku kierownik pracowni linii przesyłowych i obwodów mikrofalowych<br />

w Zakładzie Techniki Mikrofalowej. Tytuł doktora nauk technicznych, oraz specjalizację zawodowa I stopnia uzyskał<br />

w 1978 roku. Specjalizował się w projektowaniu zespołów mikrofalowych falowodowych i współosiowych (złącza<br />

obrotowe, przełączniki ASO, sprzęgacze kierunkowe, przejścia KF, tłumiki, przesuwniki fazy itp.) przeznaczonych do<br />

opracowywanych w PIT radarów.<br />

inż. Wacław Niemyjski 66 6 1 3 2<br />

W PIT od 1959 do emerytury w 2001 roku. Specjalizował się w układach odbiorczych stacji radiolokacyjnych. Od 1970<br />

roku kierownik Pracowni Układów Odbiorczych w Zakładzie Techniki Mikrofalowej. Od 1987 roku kierownik Samodzielnej<br />

Pracowni Zintegrowanych Układów Mikrofalowych, przekształconej w Pracownię Zastosowań Mikrofal. Wybitny<br />

specjalista w dziedzinie mikrofalowych układów półprzewodnikowych, w szczególności mikrofalowych układów<br />

odbiorczych. W kadencji 1969-1971 członek Zarządu Oddziału Warszawskiego Elektroniki i Telekomunikacji SEP<br />

mgr inż. Jan Piotrowski 25<br />

W PIT od 1952 do śmierci w 1977 roku. W Zakładzie Techniki Nadawczej opracowywał modulatory i zespoły sterowania<br />

nadajników urządzeń radiolokacyjnych. W latach 90-tych zastępca Kierownika Pionu Radiolokacji i Techniki Mikrofalowej.<br />

Projektant nadajnika OTB zastosowanego w kilku zagranicznych radarach. Główny projektant radaru<br />

samolotowego ARS-400, projektant wiodący jednostki antenowej mobilnego radaru 3-współrzędnego dla kontrahenta<br />

zagranicznego, oraz nadajnika do tej jednostki<br />

mgr inż. Bogdan Stachowski 24 2 1 4 1<br />

W PIT od 1975 roku, bezpośrednio po studiach na Wydziale Elektroniki Politechniki Warszawskiej. Początkowo projektant<br />

w Zakładzie Techniki Mikrofalowej w pracowni Mikrofalowych Układów Odbiorczych. Od 1992 roku kierownik Pracowni<br />

Układów Półprzewodnikowych w nowoutworzonym Zakładzie Mikrofalowych Układów Czynnych, a od 1999 roku<br />

kierownik tego zakładu. Specjalizował się w projektowaniu, konstrukcji i wdrożeniach układów mikrofalowych czynnych<br />

małej i średniej mocy, przeznaczonych do torów odbiorczych stacji radiolokacyjnych. W ostatnich latach zakres tych prac<br />

rozszerzył się o bloki i podsystemy odbiorcze wielowiązkowych radarów z antenami ścianowymi..<br />

mgr inż. Kazimierz Suchodolski 22 2 2<br />

W PIT od 2001 roku, poprzednio od 1980 roku w Przemysłowym Instytucie Maszyn Budowlanych, gdzie konstruował<br />

m.in. jednostki antenowe do radarów dalekiego zasięgu, opracowywanych w PIT. W PIT kontynuował te prace przy modernizacji<br />

jednostki antenowej stacji radiolokacyjnej dalekiego zasięgu. Konstruktor mechanik, autor wielu konstrukcji<br />

wyposażenia technologicznego stacji radiolokacyjnych m.in. w zakresie montażu i serwisu wielkogabarytowych struktur<br />

antenowych. Mimo relatywnie krótkiego zatrudnienia w PIT był autorem 22 wzorów użytkowych, na które PIT uzyskał<br />

świadectwa ochronne.<br />

ELEKTRONIKA 11/<strong>2009</strong> 91


Wielopoziomowy trening symulacyjny w szkoleniu<br />

operatorów urządzeń. Zastosowanie do szkolenia<br />

operatorów robotów mobilnych<br />

dr inż. ANDRZEJ KACZMARCZYK 1 , dr inż. MAREK KACPRZAK 1 ,<br />

prof. dr hab. inż. ANDRZEJ MASŁOWSKI 1,2<br />

1<br />

<strong>Instytut</strong> Maszyn Matematycznych, Warszawa<br />

2<br />

Politechnika Warszawska, Wydział Mechatroniki, <strong>Instytut</strong> Automatyki i Robotyki<br />

Do szkolenia operatorów urządzeń kosztownych i/lub stwarzających<br />

istotne zagrożenie dla otoczenia w przypadku błędu<br />

operatora używa się trenażerów wykorzystujących symulację<br />

komputerową (symulatory do szkolenia pilotów, kierowców<br />

pojazdów drogowych i szynowych, obsługi broni i innych<br />

urządzeń wojskowych). Zapotrzebowanie na trenażery będzie<br />

rosło z wielu powodów. Po pierwsze pojawiają się nowe<br />

urządzenia i nowe profesje operatorskie. Jednym z takich nowych<br />

obszarów jest szkolenie operatorów robotów zdalnie<br />

sterowanych, znajdujących coraz szersze zastosowanie<br />

w wielu dziedzinach - w wojsku i policji, inspekcji i ratownictwie,<br />

pielęgnacji i medycynie (ze zdalną chirurgią włącznie).<br />

Po drugie - w starych i w nowych profesjach będzie rosła<br />

liczba operatorów do przeszkolenia, gdyż będzie użytkowanych<br />

coraz więcej urządzeń sprzedawanych na rozwijające<br />

się rynki. W miarę doskonalenia technicznego trenażerów<br />

i obniżki ich kosztów, stosowanie ich będzie obniżało koszty<br />

szkolenia operatorów, a więc będzie się rozpowszechniało.<br />

Obniżkę kosztów przy dużej liczbie szkolonych będzie<br />

można uzyskiwać przez stosowanie treningu wielopoziomowego,<br />

z użyciem trenażerów o różnym stopniu perfekcji, wykorzystujących<br />

VR (Virtual Reality) i AR (Augmented Reality);<br />

mniej perfekcyjne i tańsze trenażery będą stosowane w początkowych<br />

etapach szkolenia. Rozwiązaniem wpływającym<br />

w sposób istotny na obniżkę kosztów szkolenia będzie e-trening,<br />

umożliwiający zdalne nabywanie umiejętności operacyjnych<br />

i będący rozszerzeniem e-learningu polegającego na<br />

zdalnym zdobywaniu wiedzy. Symulacja komputerowa z wykorzystaniem<br />

grafiki 3D, technologia gier komputerowych, jak<br />

również 3D Internet są niezbędnymi środkami do opracowania<br />

metodologii e-treningu i zbudowania skutecznych aplikacji.<br />

Zastosowanie e-treningu - co najmniej na pewnych<br />

poziomach w cyklu szkolenia stwarza możliwość opanowania<br />

potrzebnych umiejętności operacyjnych w szkoleniu na skalę<br />

masową, w sposób ekonomiczny, bez wydłużania czasu szkolenia.<br />

Podobnie jak w przypadku e-learningu, systemy e-treningu<br />

umożliwią obsługę dużej liczby szkolonych rozproszonych<br />

geograficznie, korzystanie przez nich z kursów dostępnych<br />

24-godziny na dobę i dostosowanie tempa szkolenia<br />

do indywidualnych możliwości. E-trening umożliwi nie tylko<br />

obniżkę kosztów szkolenia operatorów urządzeń, ale będzie<br />

mógł być użyty, również powodując obniżkę kosztów szkolenia<br />

personelu serwisującego urządzenia (np. do szkolenia<br />

obsługi naziemnej samolotów).<br />

Artykuł niniejszy ma za przedmiot metodykę szkolenia<br />

operatorów robotów inspekcyjno-interwencyjnych najbardziej<br />

dziś rozpowszechnionego typu: robotów mobilnych naziemnych,<br />

wyposażonych w manipulator i zestaw sensorów, w tym<br />

w kamerę wizyjną.<br />

Roboty takie znajdują zastosowanie do wspomagania<br />

działań antyterrorystycznych, militarnych i ratownictwa, w systemach<br />

ochrony nadzorowanych obszarów i granic lądowych<br />

i morskich, a także do ochrony infrastruktury krytycznej. Rozwój<br />

technologii potrzebnych do realizacji tych zastosowań jest istotnym<br />

składnikiem „technologii dla bezpieczeństwa” - jednego<br />

z priorytetowych kierunków badań Krajowego Programu Badań<br />

Naukowych i Prac Rozwojowych. Spożytkowanie wyników prac<br />

badawczych i rozwojowych, tzn. zastosowania robotów na szerokim<br />

polu zapewniania bezpieczeństwa przy ich użyciu powoduje,<br />

że potrzebne będzie szkolenie, a także bieżące<br />

doszkalanie - wynikające z szybko postępujących zmian technologii<br />

- dużej liczby operatorów umiejących posługiwać się robotami,<br />

zarówno w wojsku i służbach mundurowych, jak i wśród<br />

pracowników cywilnych. System szkolenia powinien umożliwiać<br />

certyfikację umiejętności operatorskich, zapewniającą kompetencję<br />

obsługi robotów, od której zależeć będzie - szczególnie<br />

w przypadku działań antyterrorystycznych, ratownictwa oraz inspekcji,<br />

ochrony i remontu infrastruktury krytycznej - życie ludzi<br />

i stan środowiska. Zaproponowana metodyka treningu wielopoziomowego,<br />

uwzględniająca również certyfikację szkolonych<br />

operatorów, została poddana ocenie ankietowej krajowych<br />

użytkowników i producenta robotów. Wyniki tej oceny posłużyły<br />

do korekty metodyki treningu mającej na celu przystosowanie<br />

jej do potrzeb krajowych.<br />

Koncepcja metodyki treningu<br />

Koncepcję metodyki treningu wielopoziomowego opracowano<br />

dla potrzeb projektu badawczo-rozwojowego „Platforma do<br />

projektowania i tworzenia oprogramowania komputerowych<br />

trenażerów do robotów mobilnych inspekcyjno-interwencyjnych”<br />

(nr OR000046040).<br />

Cele szkolenia<br />

Finalnym celem szkolenia jest nabycie przez operatora<br />

biegłości w operowaniu robotem we wszystkich przewidzianych<br />

przez producenta trybach pracy przy wykonywaniu<br />

92 ELEKTRONIKA 11/<strong>2009</strong>


zadań określonych przez użytkownika. Wyróżnić można poniższe<br />

szczegółowe cele, które będą osiągane na poszczególnych<br />

etapach szkolenia operatora:<br />

1) zapoznanie się z robotem, jego interfejsem z operatorem,<br />

funkcjami i trybami pracy;<br />

2) obserwacja - operowanie kamerą (i ewentualnie innymi<br />

sensorami) w celu wykonywania zadań obserwacyjnych,<br />

interpretacja wyników; obserwacja w warunkach zakłóceń<br />

(w tym widoczności ograniczonej np. przez zadymienie);<br />

3) przemieszczanie robota - „jazda” robotem:<br />

- w różnych warunkach terenowych (w tym sypki piasek,<br />

żwir, kałuże),<br />

- przy obserwacji bezpośredniej robota i jazda, gdy operator<br />

widzi tylko obraz z kamery wizyjnej robota,<br />

- przy pełnym sterowaniu ręcznym i przy użyciu procedur<br />

sterowania automatycznego (autopilota);<br />

4) operowanie manipulatorem robota:<br />

- wykonywanie ręczne wszystkich podstawowych ruchów/przemieszczeń<br />

manipulatora robota nieruchomego,<br />

przy obserwacji bezpośredniej oraz za pomocą<br />

kamery wizyjnej i innych sensorów robota,<br />

- programowanie ruchów manipulatora i praca przy sterowaniu<br />

automatycznym,<br />

- operowanie manipulatorem w połączeniu z jazdą.<br />

5) Wykonywanie „misji” robota, typowych dla poszczególnych<br />

użytkowników/zastosowań, według scenariuszy o coraz<br />

większym stopniu komplikacji, uwzględniających występowanie<br />

zakłóceń i niesprawności robota oraz limity czasu.<br />

Środki nauczania<br />

Przedstawiono środki nauczania wykorzystywane na trzech<br />

poziomach treningu realizowanego przy użyciu trenażerów.<br />

Po zakończeniu szkolenia prowadzonego przy użyciu tych<br />

środków, może być przeprowadzony trening uzupełniający/<br />

sprawdzający w warunkach rzeczywistych (rzeczywisty robot,<br />

rzeczywiste otoczenie).<br />

Poziom 1 - trenażer zrealizowany za pomocą PC. Symulowane<br />

jest otoczenie robota, robot oraz interfejs robota (pulpit<br />

sterowniczy). Trenażer taki może być użyty na dwa<br />

sposoby:<br />

1) „klasa elektroniczna” ze stanowiskami szkolonych i stanowiskiem<br />

instruktora, wyposażonymi w PC. Należy rozważyć<br />

zastosowanie PC z dwoma monitorami ekranowymi,<br />

jednym symulującym interfejs robota (pulpit sterowniczy<br />

i wskazania sensorów, w tym obraz z kamery wizyjnej<br />

robota), drugim ukazującym symulację robota<br />

w jego otoczeniu;<br />

2) e-learning w sieci prywatnej lub publicznej (intranet lub Internet).<br />

Standardowy PC z jednym monitorem ekranowym<br />

(w szczególności w sieci publicznej), trening prowadzony<br />

na zasadzie podobnej do uczestnictwa w grze komputerowej,<br />

wraz z punktacją. Bez udziału instruktora-człowieka.<br />

Poziom 2 - rzeczywiste urządzenia interfejsu robota, symulowany<br />

robot i jego otoczenie. Poziom symulacji w sensie przybliżenia<br />

rzeczywistości - wyższy niż na poziomie 1 treningu.<br />

Poziom 3 - zastosowanie rzeczywistości rozszerzonej AR<br />

- rzeczywisty robot w otoczeniu rzeczywistym z elementami<br />

symulowanymi/wirtualnymi; hełm używany przez szkolonego,<br />

zajęcia z instruktorem.<br />

Wykorzystanie środków nauczania do realizacji<br />

celów szkolenia<br />

Koncepcję wykorzystania środków do realizacji celów nauczania<br />

ujmuje indywidualne curriculum szkolonego operatora,<br />

które zawiera następujące etapy szkolenia:<br />

1) zapoznanie się z robotem. Demonstracja rzeczywistego robota<br />

oraz wstępne zajęcia z instruktorem w klasie elektronicznej,<br />

2) indywidualna nauka e-learningowa: obserwacji, jazdy, operowania<br />

manipulatorem i wykonywania podstawowych<br />

misji. Po upływie określonego czasu przeznaczonego na<br />

to szkolenie, szkolony powinien uzyskać określone wyniki<br />

punktowe w rozegranych „grach” i przejść do następnego<br />

etapu treningu,<br />

3) zajęcia sprawdzające - i w razie potrzeby uzupełniające -<br />

w klasie elektronicznej przy udziale instruktora. Po uzyskaniu<br />

zaliczającej oceny (liczby punktów) ze sprawdzianu<br />

szkolony przechodzi do następnego etapu treningu. Etap<br />

ten może być pominięty i całe szkolenie z symulacją w zakresie<br />

obserwacji, jazdy, operowania manipulatorem i wykonywania<br />

podstawowych misji może być przeprowadzone<br />

w klasie elektronicznej,<br />

4) zajęcia na trenażerze poziomu 2, obejmujące krótkie<br />

sprawdzające ćwiczenia z zakresu obserwacji, jazdy i operowania<br />

manipulatorem, a następnie wykonywanie misji<br />

z większą precyzją niż na poziomie 1. Po uzyskaniu zaliczającej<br />

oceny szkolony przechodzi do następnego etapu<br />

treningu,<br />

5) zajęcia na trenażerze poziomu 3. Wykonywanie misji<br />

w rozszerzonej rzeczywistości, przede wszystkim przy<br />

użyciu rzeczywistego robota w otoczeniu z elementami rzeczywistymi<br />

(np. różne rodzaje nawierzchni - piasek, żwir,<br />

kałuże) i wirtualnymi.<br />

Funkcje i właściwości trenażerów<br />

Przed rozpoczęciem pracy trenażer powinien przeprowadzać<br />

automatyczny test sprawności systemu i nie dać się uruchomić<br />

w trybie pracy w przypadku wykrycia niesprawności. Trenażery<br />

poszczególnych poziomów winny umożliwiać:<br />

▪ na poziomie 1:<br />

- widoczną na ekranie monitora symulację w czasie rzeczywistym<br />

następstw użycia przez szkolonego zasymulowanych<br />

organów sterowania robotem w zakresie obserwacji,<br />

jazdy i manipulacji,<br />

- wprowadzanie do trenażera zaprogramowanych scenariuszy<br />

i widoczną na ekranie monitora symulację otoczenia<br />

robota wynikającą z danego scenariusza,<br />

- widoczną na ekranie monitora, lub tylko wykrytą i zasygnalizowaną<br />

koincydencję symulacji robota i symulacji otoczenia,<br />

- rejestrację i odtwarzanie sesji szkoleniowej każdego<br />

uczestnika,<br />

- wykrywanie i pomiar czasu określonych zdarzeń ekranowych,<br />

- prowadzenie według zaprogramowanego wzorca, w sesji<br />

szkoleniowej każdego uczestnika, punktacji wynikającej<br />

z wykrytych zdarzeń ekranowych i czasu ich wystąpienia,<br />

- sporządzanie raportów o przebiegu i wynikach szkolenia<br />

(punktacja) każdego uczestnika.<br />

Ponadto:<br />

(I) w klasie elektronicznej:<br />

ELEKTRONIKA 11/<strong>2009</strong> 93


- wysyłanie ze stanowiska instruktora komunikatów do stanowisk<br />

osób szkolonych oraz podgląd tych stanowisk,<br />

- przerywanie i wznawianie ze stanowiska instruktora pracy<br />

na stanowiskach szkolonych, zmiana scenariusza,<br />

- dostęp na stanowisku instruktora do raportów o przebiegu<br />

i wynikach szkolenia każdego uczestnika;<br />

(II) w e-learningu:<br />

- otwieranie, zamykanie, przerywanie i wznawianie własnej<br />

sesji szkoleniowej przez każdego uczestnika,<br />

- odtwarzanie przebiegu własnej sesji szkoleniowej przez<br />

każdego uczestnika,<br />

- odczytywanie raportów o przebiegu i wynikach własnego<br />

szkolenia przez każdego uczestnika;<br />

▪ na poziomie 2: jak na poziomie 1 w klasie elektronicznej,<br />

z tym, że nie jest potrzebna symulacja organów sterowania<br />

robotem i jej uwidocznianie na ekranie monitora;<br />

▪ na poziomie 3:<br />

- widoczną stereoskopowo na ekranie hełmu symulację elementów<br />

(wirtualnych) nieruchomych w rzeczywistym otoczeniu<br />

robota,<br />

- widoczną na ekranie hełmu koincydencję robota i symulacji<br />

elementów otoczenia,<br />

- podgląd ze stanowiska instruktora (na ekranie monitora)<br />

stanowiska szkolonego,<br />

- przerywanie i wznawianie ze stanowiska instruktora pracy<br />

na stanowisku szkolonego, zmiana scenariusza,<br />

- rejestrację i odtwarzanie (na ekranie monitora) sesji szkoleniowej,<br />

- wykrywanie i pomiar czasu określonych zdarzeń sesji,<br />

- prowadzenie według zaprogramowanego wzorca, w sesji<br />

szkoleniowej uczestnika, punktacji wynikającej z wykrytych<br />

zdarzeń i czasu ich wystąpienia,<br />

- sporządzanie raportów o przebiegu i wynikach szkolenia<br />

i dostęp do nich ze stanowiska instruktora.<br />

Ocena wyników szkolenia - efektywności pracy<br />

operatora<br />

Ocena będzie dokonywana liczbowo przez przyznawanie<br />

szkolonemu pewnej liczby punktów za wykonanie zadania.<br />

Ocena będzie przeprowadzana automatycznie przez trenażer<br />

(w szczególności w e-learningu) lub przez instruktora. W obliczaniu<br />

oceny za większy fragment oraz za całość szkolenia<br />

stosowane będą współczynniki wagowe. System punktacji<br />

winien być zaprojektowany z uwzględnieniem następujących<br />

atrybutów efektywności działań operatora, która winna być<br />

uzyskiwana w wyniku szkolenia:<br />

- elastyczność - zdolność do opanowywania sytuacji w otoczeniu<br />

złożonym, niepewnym, zaskakującym zmianami,<br />

- szybkość - zdolność do podejmowania szybkich decyzji,<br />

często pod presją możliwych niekorzystnych (a nawet groźnych)<br />

skutków decyzji,<br />

- odporność - zdolność do pracy pod działaniem zagrożeń,<br />

niepewności w warunkach stresujących,<br />

- adaptowalność - zdolność do zmiany sposobu działania<br />

i strategii, gdy zmieniają się warunki lub samo zadanie,<br />

- zdolność do podejmowania ryzyka i umiejętność oceny czy<br />

się ono opłaca,<br />

- dokładność - precyzja działania, dobre rozumienie zadań,<br />

efektywna komunikacja.<br />

Certyfikacja przeszkolonych operatorów<br />

Wydaje się uzasadnionym wprowadzenie certyfikacji dla operatorów,<br />

którzy przeszli pomyślnie trening. Należy rozważyć<br />

udzielanie operatorom certyfikatów na trzech poziomach/stopniach:<br />

- certyfikat 1. stopnia - operator uprawniony do pracy z jednym,<br />

określonym typem robota,<br />

- certyfikat 2. stopnia - operator uprawniony do pracy z wieloma<br />

(określonymi) typami robotów,<br />

- certyfikat 3. stopnia - instruktor upoważniony do szkolenia<br />

operatorów.<br />

Utrzymywanie ważności certyfikatów wymagałoby uczestnictwa<br />

w okresowych szkoleniach i/lub bieżącej pracy operatorskiej.<br />

W związku z tym, wraz z certyfikacją należy<br />

wprowadzić książki pracy operatorów, do których wpisywano<br />

by przebyte szkolenia oraz informacje o pacy z robotami<br />

(misje, przepracowane godziny - podobnie jak w żeglarstwie<br />

i lotnictwie).<br />

Ocena ankietowa zaproponowanej<br />

metodyki treningu<br />

Ocenę przeprowadzono w czerwcu 2008. Uzyskano odpowiedzi<br />

od 5 respondentów: 2 aktualnych użytkowników robotów,<br />

2 potencjalnych użytkowników robotów (którzy są<br />

zainteresowani zakupem robotów i treningiem operatorów)<br />

oraz 1 producenta.<br />

Rozmiary potrzeb szkoleniowych i intensywność<br />

szkolenia<br />

Z odpowiedzi respondentów-użytkowników wynika, że w poszczególnych<br />

instytucjach potrzeba zatrudniać po ok. 20 przeszkolonych<br />

operatorów; tyluż operatorów przeszkolono<br />

dotychczas w każdej instytucji użytkującej roboty. Producent<br />

robotów, oferujący podstawowe szkolenie operatorów w ramach<br />

umowy o dostawę robota, przeszkolił dotychczas 135<br />

operatorów.<br />

Całkowity czas szkolenia operatora, zarówno przez producenta<br />

jak i użytkownika wynosi ok. 30 h, w tym po kilka godzin<br />

(od 1 do 8) przeznacza się na zapoznanie się z robotem<br />

oraz czynnościami serwisowymi, a resztę na naukę operowania<br />

robotem.<br />

Szkolenie na pojedynczym urządzeniu odbywa się na ogół<br />

w grupach 3- do 10-osobowych, są przypadki szkolenia indywidualnego.<br />

Zgłaszana jest przez użytkowników potrzeba prowadzenia<br />

szkoleń doskonalących w grupach 3 - 5-osobowych<br />

z intensywnością kilkanaście godz./m-c.<br />

Stosowane obecnie metody szkolenia<br />

Do szkolenia używa się wyłącznie rzeczywistych robotów, trenażery<br />

nie są dotychczas stosowane. Wykorzystuje się także<br />

materiał szkoleniowy na CD dostarczany przez producenta<br />

robota. Procedury treningu nie są określone instrukcjami<br />

w postaci obowiązujących dokumentów. Poziom wykształcenia<br />

szkolonych osób nie jest znany, jeden z respondentówużytkowników<br />

podaje, że przystępujący do szkolenia znają<br />

podstawy posługiwania się komputerem.<br />

94 ELEKTRONIKA 11/<strong>2009</strong>


Ocena sugerowanych w ankiecie metod szkolenia<br />

i postulaty własne respondentów<br />

Respondenci odrzucają szkolenie zdalne jako nieefektywne,<br />

a grę komputerową uważają za nieprzydatną w szkoleniu. Tylko<br />

jeden z respondentów widzi potrzebę szkolenia w klasie elektronicznej<br />

w grupach kilkuosobowych. Szkolenie na stanowisku<br />

z rzeczywistym pulpitem sterowania i symulatorem uważają<br />

respondenci za pożądane, przy czym zgłaszają zapotrzebowanie<br />

na pojedyncze stanowisko, gdyby jego koszt nie przekraczał<br />

10% kosztu robota. Dwóch respondentów uważa za<br />

pożądany „trening oparty na zestawie Augmented Reality”.<br />

W dodatkowych uwagach i postulatach zgłoszonych przez<br />

respondentów podkreśla się raz jeszcze, że praktycznie przydatny<br />

trenażer musi posiadać rzeczywisty pulpit sterowania robota,<br />

natomiast robot i jego otoczenie mogą być symulowane.<br />

Szkolenie operatora powinno być przeprowadzone przy zakupie<br />

robota, a potem powinno być prowadzone doszkalanie co pół<br />

roku. Powinna być prowadzona dokumentacja szkolenia poszczególnych<br />

operatorów - informacja o przebytych szkoleniach<br />

wraz z uzyskaną punktacją. W szkoleniu należy położyć nacisk<br />

na „taktykę użytkowania” robota. Nie należy wprowadzać limitów<br />

czasowych na wykonanie zadań, a jedynie uwzględniać ten<br />

czas w punktacji uzyskiwanej przez szkolonego; należy też stosować<br />

narastająco stopnie trudności zadań.<br />

Trenażer powinien charakteryzować się dobrą grafiką<br />

i umożliwiać symulację przesuwania obiektów, kolizji, interakcji<br />

ze środowiskiem (niszczenie środowiska). Powinien zapewniać<br />

podczas symulacji osiąganie wysokiej realności i precyzji sterowania,<br />

przy uwzględnieniu położenia środka ciężkości.<br />

Respondenci zwracają uwagę na potrzebę symulacji<br />

w trenażerze:<br />

- różnych podłoży i przeszkód, w tym jazdy po schodach,<br />

- różnych warunków terenowych (ślisko, grząsko itp.),<br />

- ciasnych pomieszczeń,<br />

- różnych warunków atmosferycznych,<br />

- zakłóceń i przekłamań w systemach optycznych,<br />

- zakłóceń w komunikacji.<br />

Trenażer winien umożliwiać symulację akcesoriów robota,<br />

a szczególnie:<br />

- wyrzutnika pirotechnicznego,<br />

- zestawu rentgenowskiego,<br />

oraz symulację zaawansowanych misji, w tym:<br />

- otwieranie samochodu,<br />

- neutralizacja terenu,<br />

- wyciąganie bomb, w tym bomb losowo umiejscowionych.<br />

Wnioski z oceny ankietowej i postulaty<br />

rozwoju metod treningu<br />

Obciążenia urządzeń treningowych wynikające z odpowiedzi<br />

respondentów mogą być w sposób ekonomicznie uzasadniony<br />

zrealizowane przy użyciu do szkolenia rzeczywistych robotów.<br />

Potrzeba zastosowania trenażerów wynika jedynie z postulowanych<br />

zadań szkoleniowych trudnych lub niemożliwych do<br />

realizacji przy użyciu rzeczywistego robota na rzeczywistej scenie.<br />

Obecne i przewidywane przez krajowych użytkowników zapotrzebowanie<br />

na trening jest niewielkie i ten rozmiar potrzeb<br />

nie uzasadnia ekonomicznego stosowania treningu wielopoziomowego.<br />

Jednak przeprowadzona ankieta nie daje wiarygodnego<br />

obrazu przyszłego rozwoju rynku usług treningowych<br />

krajowego, jak i zagranicznego dostępnego dla polskich producentów<br />

i usługodawców. Również odrzucany przez respondentów<br />

wariant szkolenia zdalnego przy użyciu PC jako<br />

terminala oraz technik gier komputerowych zapewne okaże się<br />

przydatny gdy zapotrzebowanie na trening będzie rosło. Zastosowanie<br />

szkolenia zdalnego, w którym do szkolenia szeroko<br />

pojętych operatorów z natury rzeczy wykorzystuje się techniki<br />

gier komputerowych, jest przydatne i bardzo rozpowszechnione<br />

w dziedzinach pokrewnych. Tak więc tego typu szkolenie<br />

zdalne jest stosowane w szkoleniu pilotów w lotnictwie. Oprócz<br />

licznej rzeszy amatorów uprawiających hobby wirtualnego latania<br />

w Internecie (po zdalnej nauce pilotażu), którzy nierzadko<br />

łączą to z hobby rzeczywistego latania, profesjonalne szkoły<br />

pilotów wykorzystują szkolenie zdalne na pierwszym etapie<br />

nauki pilotażu. Stosuje tę metodę np. szkoła pilotażu Forder<br />

learn to fly [1] w Toronto (Kanada), używając symulatora MS<br />

Flight Simulator 2002/2004. Wśród amatorów bardzo popularny<br />

jest inny, bezpłatny symulator Microsofta MS Flight Simulator X<br />

[2]. Zastosowanie techniki gier komputerowych w wirtualnych<br />

światach jest szeroko stosowane w treningu personelu<br />

w różnych dziedzinach. Ostatnio wielu użytkowników stosuje<br />

do treningu wojskowego policyjnego, a także medycznego (trening<br />

personelu szpitala w przypadku nagłego napływu poszkodowanych<br />

w wypadku), handlowego (trening w obsłudze<br />

klientów personelu centrów handlowych) i innych oprogramowanie<br />

OLIVE (On-Line Interactive Virtual Environment) [3,4]<br />

firmy Forterra Systems. Zatem w dalszym rozwoju metod treningu<br />

operatorów robotów mobilnych należy uwzględnić możliwość<br />

wykorzystania szkolenia zdalnego, a także zastosowania<br />

technik światów wirtualnych z gier komputerowych.<br />

Ze względu na różnicę pomiędzy obecnymi, realnymi potrzebami<br />

szkoleniowymi i potrzebami perspektywicznymi, należy<br />

w dalszych pracach uwzględnić dwa warianty metodyki:<br />

„metodykę A” odpowiadającą potrzebom obecnym oraz “metodykę<br />

B” odpowiadającą przewidywanym potrzebom przyszłym.<br />

W metodyce A tylko rzeczywisty robot oraz trenażer<br />

złożony z rzeczywistego pulpitu sterowniczego robota oraz<br />

komputera z symulacją robota i jego otoczenia są środkami<br />

nauczania. W metodyce B zachowane są wszystkie środki<br />

nauczania treningu 3-poziomowego:<br />

- trenażer zrealizowany za pomocą PC, w którym symulowane<br />

jest otoczenie robota, robot oraz interfejs robota<br />

z operatorem (klasa elektroniczna i/lub e-learning);<br />

- trenażer złożony z rzeczywistego pulpitu sterowniczego robota<br />

oraz komputera z symulacją robota i jego otoczenia;<br />

- stanowisko treningoweAR z rzeczywistym robotem działającym<br />

w rzeczywistym w środowisku z zasymulowanymi obiektami.<br />

Zagadnienia badawcze związane<br />

z metodyką treningu<br />

Problematyka treningu operatorów wykonujących misje jest<br />

aktualnym polem prac badawczych, przy czym wymieniane<br />

są następujące research questions [5]:<br />

- na jakiej podstawie szkoleni postrzegają podobieństwo sytuacji?<br />

Co uruchamia odpowiednie wzorce w ludzkiej pamięci?<br />

Jak szkoleni pozyskują dodatkowe informacje, jak<br />

współdziałają między sobą w misjach zbiorowych (wymiana<br />

danych i uczenie się od drugich)?<br />

ELEKTRONIKA 11/<strong>2009</strong> 95


- jak wirtualne elementy treningu mogą być zintegrowane<br />

z rzeczywistymi, aby zapewnić pełną efektywność?<br />

- jak wiedza przekazywana w treningu ma być zorganizowana<br />

w wirtualne moduły, aby zapewnić do niej dobry dostęp,<br />

gdy jest potrzebna?<br />

- jak ma być ewaluowana jakość treningu - np. jak można<br />

stwierdzić, że ktoś jest ekspertem?<br />

Wydaje się, że dwa problemy o charakterze badawczym<br />

trzeba będzie zaatakować w dalszych pracach nad metodami<br />

treningu wielopoziomowego operatorów robotów:<br />

- jak określić pożądane osiągi (performance) zespołu robotoperator?<br />

- jak je mierzyć podczas treningu?<br />

Podsumowanie<br />

Można oczekiwać, że robotyka wygeneruje kluczowe w bliskiej<br />

przyszłości zapotrzebowanie na e-trening. Roboty serwisowe<br />

(service robots) o wielorakim zastosowaniu mogą<br />

osiągnąć rozpowszechnienie porównywalne do dzisiejszego<br />

rozpowszechnienia komputerów osobistych, a problem szkolenia<br />

- wraz z certyfikacją - w posługiwaniu się nimi może zyskać<br />

rozmiary porównywalne do rozmiarów szkolenia<br />

w posługiwaniu się PC-tami po ich szerokim wprowadzeniu<br />

do użytku w latach 80. Ale teraz nie kursy prowadzone przez<br />

instruktorów w klasach elektronicznych lecz zdalna nauka na<br />

zasadzie rozgrywania gier treningowych będzie głównym sposobem<br />

nabywania umiejętności.<br />

Literatura<br />

[1] http://www.forderlearntofly.com/.<br />

[2] http://www.flightsimaviation.com/_fs2006/announcement.html.<br />

[3] http://www.forterrainc.com/.<br />

[4] Kushner D.: Winner: Make Your Very Own Virtual World with<br />

OLIVE. IEEE Spectrum. Jan. 2008. http://spectrum.ieee.org/telecom/internet/winner-make-your-very-own-virtual-world-with-olive.<br />

[5] Bell H. H.: The Effectiveness of Distributed Mission Training.<br />

Communications of the ACM. September 1999, vol. 42, no 9.<br />

96 ELEKTRONIKA 11/<strong>2009</strong>


Zaprenumeruj wiedzę fachową<br />

2010<br />

WWW.SIGMA-NOT.PL<br />

Nasze czasopisma według branż<br />

Ceny wersji podstawowej (brutto) prenumeraty rocznej na 2010 r. Prenumerata w pakiecie (z płytą CD)– należy doliczyć 24,40 zł do ceny podstawowej prenumeraty<br />

Przemysł<br />

Spożywczy<br />

Chłodnictwo<br />

228,00 zł<br />

Gazeta Cukrownicza<br />

204,00 zł<br />

Gospodarka Mięsna<br />

234,00 zł<br />

Przegląd<br />

Gastronomiczny<br />

180,00 zł<br />

Przegląd Piekarski<br />

i Cukierniczy<br />

166,92 zł<br />

Przegląd<br />

Zbożowo-Młynarski<br />

276,00 zł<br />

Przemysł Spożywczy<br />

234,00 zł<br />

Przemysł Fermentacyjny<br />

i Owocowo-Warzywny<br />

234,00 zł<br />

Budownictwo<br />

Ciepłownictwo,<br />

Ogrzewnictwo,<br />

Wentylacja<br />

234,00 zł<br />

Gaz, Woda<br />

i Technika Sanitarna<br />

234,00 zł<br />

Materiały Budowlane<br />

228,00 zł<br />

Przegląd Geodezyjny<br />

240,00 zł<br />

Szkło i Ceramika<br />

117,00 zł<br />

Wokół Płytek<br />

Ceramicznych<br />

66,00 zł<br />

<strong>Elektronika</strong>,<br />

Energetyka,<br />

Elektrotechnika<br />

<strong>Elektronika</strong> – Konstrukcje,<br />

Technologie,<br />

Zastosowania<br />

264,00 zł<br />

Przegląd<br />

Elektrotechniczny<br />

264,00 zł<br />

Przegląd<br />

Telekomunikacyjny<br />

+ Wiadomości<br />

Telekomunikacyjne<br />

252,00 zł<br />

Wiadomości<br />

Elektrotechniczne<br />

288,00 zł<br />

Przemysł<br />

Lekki<br />

Przegląd Włókienniczy –<br />

Włókno, Odzież, Skóra<br />

294,00 zł<br />

Hutnictwo,<br />

Górnictwo<br />

Hutnik<br />

+ Wiadomości Hutnicze<br />

252,00 zł<br />

Inżynieria Materiałowa<br />

249,00 zł<br />

Rudy i Metale<br />

Nieżelazne<br />

252,00 zł<br />

Przemysł<br />

Pozostały<br />

Gospodarka Wodna<br />

288,00 zł<br />

Przegląd Papierniczy<br />

222,00 zł<br />

Przemysł Chemiczny<br />

432,00 zł<br />

Zakład Kolportażu Wydawnictwa SIGMA-NOT – ul. Ku Wiśle 7, 00-707 Warszawa,<br />

tel. (22) 840 35 89, 840 30 86, faks (22) 891 13 74, e-mail: kolportaz@sigma-not.pl<br />

Czasopisma<br />

Ogólnotechniczne<br />

Atest<br />

– Ochrona Pracy<br />

216,00 zł<br />

Maszyny, Technologie,<br />

Materiały<br />

78,00 zł<br />

Problemy Jakości<br />

282,00 zł<br />

Przegląd Techniczny<br />

247,00 zł<br />

Czasopisma<br />

Wielobranżowe<br />

Aura<br />

– Ochrona Środowiska<br />

156,00 zł<br />

Dozór Techniczny<br />

141,00 zł<br />

Ochrona Przed Korozją<br />

390,00 zł<br />

Opakowanie<br />

216,00 zł<br />

Dla prenumeratorów<br />

– bezpłatny dostęp do publikacji<br />

i możliwość umieszczenia<br />

wizytówki firmy w Portalu<br />

www.sigma-not.pl


NIEBO POD KONTROLĄ<br />

OD 55 LAT<br />

W roku <strong>2009</strong> przypada 55. rocznica utworzenia<br />

Warszawskich Zakładów Radiowych<br />

RAWAR, z których wywodzi się dzisiejsze<br />

Centrum Naukowo-Produkcyjnego Elektroniki<br />

Profesjonalnej RADWAR SA. Rocznica ta<br />

jest nierozerwalnie związana z początkiem<br />

rodzimego przemysłu radiolokacyjnego,<br />

którego symboliczną datą jest rok 1953, kiedy<br />

to powstał pierwszy polski radar, NYSA-A.<br />

Ten pionierski produkt był bowiem dziełem<br />

konstruktorów z ówczesnych Zakładów Radiowych<br />

im. Marcina Kasprzaka - fabryki,<br />

która stworzyła podwaliny dzisiejszego<br />

CNPEP RADWAR SA.<br />

Nasza działalność to 55 lat doświadczeń<br />

na gruncie projektowania, wdrażania, integracji<br />

i produkcji radarów i systemów dowodzenia<br />

dla wojska, włączając eksport do<br />

kilkunastu krajów z całego świata. Przez cały<br />

okres istnienia firmy opracowaliśmy i wdrożyliśmy<br />

do produkcji ponad sto typów radarów<br />

wojskowych i cywilnych, systemów<br />

dowodzenia i kierowania ogniem, aparatury<br />

systemu identyfikacji „swój-obcy”, urządzeń<br />

kontroli ruchu drogowego oraz innych<br />

urządzeń, jak systemy alarmowe a nawet,<br />

o czym nieliczni tylko pamiętają, kuchenki mikrofalowe.<br />

W sumie wyprodukowaliśmy<br />

ponad 6 tysięcy radarów i kilkaset różnego<br />

typu systemów.<br />

Doświadczenia minionych dziesięcioleci<br />

pokazują, że zawsze potrafiliśmy podążać za<br />

zmianami, dostosowując się do potrzeb<br />

rynku i sytuacji ekonomicznej. Nasze wyroby<br />

budzą wszędzie duże zainteresowanie<br />

i uznanie za ich innowacyjność i profesjonalizm.<br />

Pokazują także różnorodność naszej<br />

dzisiejszej oferty - od radiolokacji poprzez<br />

systemy dowodzenia do środków ogniowych.<br />

Nasze wyroby eksportowaliśmy, promując<br />

już od wczesnych lat 60. ubiegłego<br />

wieku, do krajów wszystkich kontynentów<br />

świata. Nie byłoby to możliwe, gdyby nie kiedyś<br />

biuro konstrukcyjne, a dziś własny<br />

Zakład Badawczo-Rozwojowy, zatrudniający<br />

specjalistów o wysokich kwalifikacjach<br />

i dużym doświadczeniu. Nasz ZBR ma<br />

w swoim dorobku przeszło 150 projektów<br />

badawczo-rozwojowych i na bieżąco realizuje<br />

prace rozwojowe i wdrożeniowe dotyczące:<br />

radiolokacji, zautomatyzowanych<br />

systemów dowodzenia i kierowania ogniem,<br />

przeciwlotniczych zestawów artyleryjskich<br />

i rakietowych oraz inne prace dotyczące<br />

elektroniki profesjonalnej dla wojska i odbiorców<br />

cywilnych, w tym opracowywanie<br />

nowoczesnych, unikatowych technologii do<br />

szerokiego spektrum zastosowań.<br />

Naszymi celami realizowanymi w ramach<br />

polityki jakości są ciągłe doskonalenia systemu<br />

zarządzania, projektowania i wdrażania<br />

do produkcji nowych wyrobów i technologii<br />

oraz spełnianie wymagań odbiorców. Realizujemy<br />

te cele, bazując na doświadczonej kadrze<br />

zarządzającej, kadrze naukowo-badawczej<br />

posiadającej aktualną wiedzę z zakresu konstruowania<br />

wyrobów elektronicznych najnowszej<br />

generacji, jak również doświadczonej<br />

załodze na wydziałach produkcyjnych.<br />

Dzisiejsza oferta Radwaru obejmuje<br />

wszystkie komponenty systemu obrony przeciwlotniczej<br />

decydujące o jego skuteczności.<br />

Głównym kierunkiem naszych działań jest rozszerzenie<br />

oferty produktowej poprzez realizację<br />

prac badawczo-rozwojowych nad nowymi<br />

wyrobami. Jednym z obszarów naszego zainteresowania<br />

są zaawansowane technologie<br />

radarowe, w tym dotyczące radarów pasywnych.<br />

Temu zagadnieniu poświęcony jest artykuł<br />

znajdujący się na następnej stronie.<br />

Jak naprawdę działa radar pasywny -<br />

trudno wyczytać w dostępnych publikacjach.<br />

Ze względu na zupełną nowość tego rozwiązania<br />

oraz to, że w jego opisach dominuje<br />

matematyka i informatyka (a nie fizyka), przeważnie<br />

wymiana myśli odbywa się między<br />

naukowcami w „hermetycznym” języku<br />

trudno zrozumiałym dla przeciętnego technika<br />

czy inżyniera. Dostrzegł to autor prezentowanego<br />

artykułu, który podjął próbę opisania<br />

zasad radiolokacji pasywnej „w prostych<br />

żołnierskich słowach”.<br />

ELEKTRONIKA 11/<strong>2009</strong> 99


Radary pasywne - nowa technika radiolokacji<br />

mgr inż. ZBIGNIEW CZEKAŁA<br />

Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA<br />

Termin „radar pasywny” bywa używany niezbyt precyzyjnie<br />

w odniesieniu do sensorów, które wykrywają i lokalizują<br />

obiekty powietrzne na podstawie promieniowania elektromagnetycznego<br />

emitowanego przez zainstalowane na nich<br />

urządzenia, takie jak radary pokładowe, radiostacje, transpondery<br />

systemu rozpoznawania „swój-obcy”. Dobrze znanymi<br />

sensorami tego typu są urządzenia Tamara i Vera<br />

produkcji czeskiej, a kilka lat temu szczególne zasłynął ukraiński<br />

system Kolczuga. Niefortunność terminologii polega tu<br />

na tym, że tego typu urządzenia w istocie nie są radarami,<br />

gdyż nie wykorzystują energii odbitej od wykrywanych obiektów,<br />

tylko energię bezpośrednio przez nie emitowaną. Chociaż<br />

z pierwotnego znaczenia angielskiego terminu „radar”<br />

jako skrótu od radio detection and ranging nie wynika niezbędność<br />

wykorzystywania energii odbitej, podobnie jak nie<br />

wynika to z terminu „radiolokacja”, to jednak w tejże radiolokacji<br />

występują tak podstawowe pojęcia jak: „echo” czy „skuteczna<br />

powierzchnia odbicia”, które jednoznacznie wskazują<br />

na to, że nie każde urządzenie lokalizujące obiekty przy pomocy<br />

fal radiowych jest radarem. Z drugiej strony echo radarowe<br />

nie musi być efektem promieniowania własnego<br />

nadajnika radaru. Jeśli jest „okazja” wykorzystania ech spowodowanych<br />

promieniowaniem różnorodnych nadajników<br />

funkcjonujących w otoczeniu, to niewątpliwie można to uznać<br />

jako „czystą” radiolokację, a radar który z takiej okazji korzysta<br />

- radarem pasywnym.<br />

W odróżnieniu od wspomnianych na początku urządzeń<br />

„nasłuchowych”, które funkcjonują od dziesięcioleci, prawdziwa<br />

radiolokacja pasywna jest ciągle w stadium narodzin,<br />

gdyż wymaga ona poziomu techniki dostępnego dopiero<br />

w ostatnich latach. Tego typu radary są określane zamiennie<br />

dwoma terminami angielskimi: Passive Coherent Location<br />

(PCL) lub Passive Covert Radar (PCR). Pierwszy tłumaczy<br />

się jako „pasywna radiolokacja koherentna” i wskazuje na<br />

stosowaną technikę, a drugi jako „pasywny radar skryty”, co<br />

podkreśla jego walory jako radaru trudno wykrywalnego.<br />

Celem tego artykułu jest przybliżenie technicznych rozwiązań<br />

radaru pasywnego, dlatego zasadne będzie posługiwanie się<br />

skrótem PCL.<br />

Radar pasywny<br />

Radar pasywny to taki, który nie ma własnego nadajnika, lecz<br />

jakby „pasożytniczo” wykorzystuje tzw. okazjonalne źródła<br />

promieniowania elektromagnetycznego. Współczesna cywilizacja<br />

wytworzyła wiele takich źródeł: nadajniki telewizji i radiofonii,<br />

stacje bazowe telefonii komórkowej - by wymienić<br />

najbardziej na co dzień użyteczne. Ich dość gęsta sieć stwarza<br />

korzystne warunki dla budowy radarów pasywnych. Sama<br />

idea radaru pasywnego nie jest nowa i podobnie jak wiele innych<br />

pomysłowych rozwiązań została wypróbowana już u zarania<br />

rozwoju radiolokacji.<br />

W roku 1935 w Wielkiej Brytanii słynny Sir Robert Watson-<br />

Watt, jeden z pionierów radiolokacji, w miejscowości Daventry<br />

zademonstrował wykrywanie bombowca Heyford na<br />

odległości ok. 15 km przez obserwację jego echa w wyniku<br />

opromieniowania przez nadajnik rozgłośni krótkofalowej BBC<br />

Empire znajdujący się w odległości ok. 10 km. Ten eksperyment<br />

zrobił duże wrażenie na Komitecie Badań Naukowych<br />

dla Obrony Powietrznej w ówczesnym brytyjskim Ministerstwie<br />

Spraw Powietrznych (Air Ministry), który niezwłocznie<br />

wyasygnował sumę 10 tysięcy funtów na poważne wsparcie<br />

opracowania radaru. W ciągu roku zespół Watsona Watta<br />

opracował radar aktywny z nadajnikiem o mocy 200 kW,<br />

zdolny do wykrywania samolotów z odległości 180 km.<br />

Eksperyment z Daventry był pierwszym brytyjskim eksperymentem<br />

radarowym, a zarazem pierwszą próbą radaru pasywnego<br />

wykorzystującego okazjonalny nadajnik do<br />

wykrywania obiektów powietrznych. Ze względu na właściwe<br />

dla takiego systemu trudności, o których będzie mowa w tym<br />

artykule, uzyskany zasięg wykrywania był niewielki, a ponadto<br />

ten system potrafił tylko pokazać obecność echa samolotu,<br />

nie był jednak w stanie wskazać jego położenia. W czasie drugiej<br />

wojny światowej Niemcy wykorzystywali ideę radaru pasywnego,<br />

budując urządzenia „Klein Heidelberg”, które<br />

wykorzystywały sygnały emitowane z angielskich radarów<br />

CHAIN HOME. Po wojnie, ze względu na trudności realizacji<br />

radarów pasywnych, idea wykorzystania przypadkowych nadajników<br />

w radiolokacji została zarzucona i przez następne<br />

pół wieku traktowana jako historyczna osobliwość w rozwoju<br />

radiolokacji, a badania skoncentrowały się na radarach z nadajnikami<br />

impulsowymi. Do jej wskrzeszenia przyczyniła się<br />

firma IBM, która na początku lat 80. XX wieku opracowała prototyp<br />

radaru pasywnego zdolny do wykrywania i śledzenia samolotów<br />

w czasie nierzeczywistym w wyniku analizy ech<br />

nadajnika telewizyjnego. Od tamtego czasu obserwuje się<br />

wzrost zainteresowania radarem pasywnym.<br />

Powrót do idei radaru pasywnego wynika z jednej strony<br />

z szybkiego rozwoju elektroniki, a z drugiej strony z oczekiwań<br />

związanych z wykrywaniem samolotów „niewidzialnych”<br />

(stealth) dla klasycznych radarów. To oczekiwanie wiąże się<br />

z bistatyczną konfiguracją takiego radaru oraz faktu, że wykorzystuje<br />

on głównie nadajniki emitujące fale w pasmach<br />

VHF i UHF, gdzie technika stealth wydaje się być znacznie<br />

mniej skuteczna.<br />

Technika PCL<br />

Dla tych, którzy zetknęli się praktycznie z klasyczną techniką<br />

radiolokacji, a zwłaszcza tych, którzy przywiązali się do powszechnie<br />

prezentowanych opisów funkcjonowania radaru,<br />

PCL może na początku zdawać się wywracać ich wyobrażenia<br />

do góry nogami. Wszyscy wiedzą, że „normalny” radar wysyła<br />

w przestrzeń krótki impuls fali elektromagnetycznej o znanych<br />

parametrach, tzn. częstotliwości nośnej i szerokości, a następnie<br />

czeka na odbiór jego mikroskopijnej kopii, czyli echa.<br />

Mierząc czas tego oczekiwania, określa odległość obiektu, od<br />

którego nadeszło echo. Znajomość parametrów wysłanego impulsu<br />

jest tu kluczowa, gdyż pozwala dostroić radar do odbioru<br />

tylko jego ech, eliminując bardziej lub mniej skutecznie inne<br />

sygnały zakłócające, zaś moment wysłania impulsu jest oczywiście<br />

niezbędny, aby zacząć mierzyć czas oczekiwania na<br />

echo. Wszystko tu jest zrozumiałe i logiczne. PCL rzeczywiście<br />

wywraca ten uporządkowany obraz.<br />

100 ELEKTRONIKA 11/<strong>2009</strong>


a)<br />

b)<br />

Rys. 1. Wykorzystanie promieniowania nadajnika radiofonii do radiolokacji<br />

Fig. 1. Use of a radio broadcasting transmitter for radiolocation<br />

Po pierwsze radar PCL nie wysyła żadnego sygnału sondującego<br />

- robią to za niego przypadkowe nadajniki fal elektromagnetycznych<br />

znajdujące się w okolicy; PCL tylko odbiera<br />

echa sygnałów nadawanych przez te nadajniki, a dodatkowo<br />

odbiera sygnały bezpośrednio przez nie promieniowane. Po<br />

drugie te obce sygnały sondujące nie mają formy regularnych<br />

impulsów; są to sygnały o zupełnie przypadkowej treści i formie<br />

- jakieś fragmenty muzyki lub mowy albo obrazu telewizyjnego<br />

przesyłane na falach eteru. A jednak to działa! Jeśli<br />

tak, to znaczy, że utrwalony powszechnie obraz radaru impulsowego<br />

jest tylko jedną z możliwych realizacji radaru<br />

w ogóle. Tak jest w istocie.<br />

Okazuje się, że właściwie każdy sygnał może być wykorzystany<br />

do wytworzenia użytecznego echa radarowego<br />

służącego do lokalizacji obiektów w przestrzeni. Jedno<br />

wszakże pozostaje w zgodzie z utrwaloną znana koncepcją -<br />

ten sygnał musi być znany, co jednak nie oznacza, że radar<br />

musi go sam wyprodukować. Rozpatrzmy najprostszy<br />

przykład pokazany na rys. 1.<br />

W tym przykładzie nadajnik radiofonii UKF emituje dookoła<br />

audycje radiowe. W pewnej odległości od niego ustawiony<br />

jest odbiornik tej emisji, który ma dwa kanały odbioru.<br />

Jeden kanał ma charakterystykę anteny nakierowaną na odbiór<br />

tylko sygnału docierającego bezpośrednio z nadajnika.<br />

Drugi kanał ma charakterystykę anteny ukształtowaną tak,<br />

aby odbierać sygnały ech odbite od wykrywanych obiektów<br />

oświetlonych przez ten nadajnik, ale - w miarę możliwości -<br />

nie odbierać sygnału bezpośredniego z nadajnika. W takim<br />

dwukanałowym odbiorniku mamy do dyspozycji „oryginał”<br />

sygnału nadawanego oraz jego „kopie” jako echa. Czy to wystarczy<br />

do zlokalizowania obiektów odbijających? Wracając<br />

do porównania z radarem impulsowym, można zapytać, cóż<br />

warte są te sygnały, kiedy są to zupełnie przypadkowe sygnały<br />

jakiejś stacji radiofonicznej, w dodatku są to sygnały<br />

ciągłe - bez określonego początku i końca? Okazuje się, że<br />

właściwie każdy sygnał nadaje się do radiolokacji, o ile tylko<br />

ma się do dyspozycji sygnał oryginalny i jego echo.<br />

Problem podstawowy - wykryć echo<br />

przypadkowego sygnału sondującego<br />

Zasadniczy problem w procesie wykrywania echa radarowego<br />

sprowadza się do wyselekcjonowania, spośród wszystkich sygnałów<br />

dochodzących do odbiornika, echa sygnału wysłanego.<br />

Ta selekcja polega zawsze na wykorzystaniu pewnych cech<br />

Rys. 2. Wyznaczanie funkcji korelacji<br />

Fig. 2. Determining the correlation function<br />

sygnału wysłanego, przy założeniu że inne sygnały tych cech<br />

nie mają. Najbardziej uniwersalna reguła wypracowana przez<br />

teoretyków od wykrywania sygnałów użytecznych na tle różnorodnych<br />

sygnałów zbędnych, czyli zakłócających, polega na<br />

obliczeniu tzw. funkcji korelacji sygnałów nadawanego i odebranego.<br />

W odróżnieniu od innych opracowań tutaj nie zaczniemy<br />

od odwołania się do matematycznej formuły funkcji<br />

korelacji, gdyż ten sformalizowany zapis dla większości Czytelników<br />

jest zwykle odstraszający i nie sprzyja zrozumieniu zagadnienia.<br />

Intuicyjnie rzecz jest dość zrozumiała.<br />

Korelacja w ogólnym rozumieniu znaczy nic innego jak<br />

wzajemny związek, co w szczególności może oznaczać podobieństwo.<br />

W przetwarzaniu sygnałów korelacja to określanie<br />

stopnia dopasowania dwóch przebiegów w dziedzinie<br />

czasu i wyznaczania momentu czasowego, w którym następuje<br />

największy współczynnik ich wzajemnej korelacji, czyli<br />

najlepsze ich dopasowanie. W przypadku radaru PCL chodzi<br />

o poszukiwanie podobieństwa między sygnałem oryginalnym<br />

odebranym jedną anteną, a sygnałem echa odebranym drugą<br />

anteną, aby spośród wielu sygnałów zidentyfikować echa,<br />

które pochodzą od tegoż oryginału. Interpretację funkcji korelacji<br />

najlepiej zaprezentować na przykładzie. Na rys. 2a pokazane<br />

są dwa przebiegi, które na pierwszy rzut oka wykazują<br />

pewne podobieństwo. Zobaczmy, jak to podobieństwo zostanie<br />

zwymiarowane poprzez funkcję korelacji.<br />

Aby wyznaczyć funkcję korelacji wzajemnej obydwu sygnałów,<br />

należy:<br />

a) podzielić obydwa przebiegi na możliwie krótkie odcinki czasowe;<br />

teoretycznie ich długość powinna dążyć do zera, ale<br />

w praktyce trzeba pracować na skończonym przedziale<br />

czasowym,<br />

b) rozstawić obydwa przebiegi względem siebie tak, aby nie<br />

pokrywały się,<br />

ELEKTRONIKA 11/<strong>2009</strong> 101


c) stopniowo przesuwać jeden przebieg względem drugiego<br />

o kolejne odcinki; po każdym kroku obliczyć iloczyn<br />

obydwu przebiegów i pole powierzchni pod tym iloczynem,<br />

d) proces kończy się, kiedy oba przebiegi przestają się pokrywać<br />

- rozsunięte po przeciwny stronach niż w punkcie (a).<br />

Matematycznie ten proces oznacza mnożenie jednego<br />

przebiegu x(t) przez przesuniętą w czasie kopię drugiego<br />

przebiegu, którą na rys. 2a reprezentuje zapis y(t +τ), i sumowanie<br />

kolejnych iloczynów. Dla każdego przesunięcia<br />

τ otrzymuje się wartość proporcjonalną do pola powierzchni<br />

zachodzących na siebie przebiegów, a w rezultacie powstaje<br />

nowa funkcja, której dziedziną jest nie czas t, lecz przesunięcie<br />

τ, i to jest właśnie funkcja korelacji. Na rys. 2a pokazano<br />

siedem kroków procesu wyznaczania funkcji korelacji, a wyniki<br />

poszczególnych kroków pokazane są na rys. 2b.<br />

Jeśli oba sygnały mają podobny charakter, to stopień ich<br />

dopasowania sygnałów jest tym większy, im „szczuplejsza”<br />

i wyższa jest funkcja korelacji. Chociaż w pokazanym przykładzie<br />

wykorzystano sygnały o przebiegu, który można nazwać regularnym,<br />

podobny uzyskuje się dla dowolnego przebiegu,<br />

a więc także zupełnie przypadkowego sygnału promieniowanego<br />

przez stację radiofonii UKF. Aby to pokazać, na rys. 3procesowi<br />

korelacji poddano najbardziej przypadkowy sygnał, jaki<br />

można sobie wyobrazić, czyli szum. W tym celu wygenerowano<br />

1000 próbek szumu o standardowym odchyleniu równym jeden<br />

i poddano korelacji ten sygnał z samym sobą, czyli tzw. autokorelacji.<br />

Na końcu sekwencji 1000 próbek występuje wąski impuls<br />

funkcji korelacji. Na tym samym rysunku pokazano także<br />

efekt korelacji fragmentu przebiegu szumowego, ale z inną realizacją<br />

przebiegu szumowego o takim samym czasie trwania.<br />

Widać, że w tym przypadku efekt korelacji praktycznie nie zachodzi.<br />

Pokazuje to, że fragment sygnału losowego może<br />

posłużyć do wykrycia jego kopii, czyli echa.<br />

Skutek procesu korelacji można porównywać do efektu<br />

kompresji, powodującego kumulację jego energii w wąskim<br />

impulsie. Dzięki temu właśnie możliwe jest „wyłuskanie” sygnału<br />

użytecznego spośród innych odebranych, które nie wykazują<br />

właściwości korelacyjnych z sygnałem oryginalnym<br />

(sondującym). Od razu nasuwa się pytanie o ilościową „siłę”<br />

tego efektu kompresji, czyli amplitudę impulsu wyjściowego<br />

(po korelacji), co niewątpliwie będzie wpływać na zasięg<br />

radaru typu PCL.<br />

Intuicyjnie zrozumiałe jest, że amplituda impulsu będącego<br />

wynikiem procesu korelacji powinna rosnąć ze wzrostem<br />

czasu trwania przebiegu podlegającego korelacji, czyli tzw.<br />

czasu integracji. Istotnie, na rys. 4 pokazane są dwa przykłady<br />

Rys. 4. Porównanie efektu korelacji dwóch par jednakowych przebiegów<br />

szumowych różniących się dwukrotnie czasem trwania<br />

Fig. 4. Comparison of the correlation effect of two pairs of identical<br />

noise-like signals of twofold difference in length<br />

a)<br />

a)<br />

b)<br />

b)<br />

Rys. 3. Porównanie efektu korelacji przebiegów szumowych:<br />

a) dwa identyczne przebiegi, b) dwa różne przebiegi<br />

Fig. 3. Comparison of the correlation effect of noise-like signals;<br />

a) two identical signals, b) two different signals<br />

Rys. 5. Funkcja korelacji przebiegu szumowego o różnych szerokościach<br />

widma<br />

Fig. 5. The correlation function of a noise-like signal with different<br />

spectrum widths<br />

102 ELEKTRONIKA 11/<strong>2009</strong>


Przebieg czasowy<br />

Opis sygnału<br />

Typowe parametry i zysk<br />

przetwarzania<br />

Prosty impuls radiowy o czasie trwania t i i mocy<br />

szczytowej P i<br />

P i = 1 MW<br />

t i = 1 µs<br />

B ≅ 1/t i = 1 MHz<br />

k ≅ 1 = 0 dB<br />

Impuls z liniową modulacją częstotliwości<br />

o dewiacji ∆F, czasie trwania t i i mocy<br />

szczytowej P i<br />

P i = 100 kW<br />

t i = 10 µs<br />

B = ∆F = 3 MHz<br />

k ≅ 30 = 15 dB<br />

Sygnał stacji radiofonii FM o mocy średniej P<br />

i paśmie częstotliwości B poddany integracji<br />

w czasie t i<br />

P = 20 kW<br />

t i = 1 s<br />

B = 100 kHz<br />

k = 100 000 = 50 dB<br />

korelacji przebiegów różniących się 2-krotnie czasem trwania.<br />

Amplitudy impulsów po korelacji pokazują spodziewaną<br />

2-krotną różnicę.<br />

Charakterystyczne dla pokazanych przykładów jest to, że<br />

funkcja korelacji jest bardzo wąską „szpilką”; dokładniejsze<br />

przyjrzenie się jej pokazuje, że jest to pojedyncza próbka, a jej<br />

amplituda jest równa liczbie próbek sygnału wejściowego. Wygląda<br />

na to, że amplitudy wszystkich próbek skumulowały się<br />

w wąskiej „szpilce” funkcji korelacji.<br />

Taki idealny efekt wystąpił dlatego, że wygenerowany<br />

szum był tzw. szumem białym, który charakteryzuje się bardzo<br />

szerokim, teoretycznie nieskończonym widmem. W rzeczywistych<br />

warunkach zawsze mamy do czynienia z sygnałami<br />

o ograniczonym widmie. Jak ograniczenie widma wpływa na<br />

efekt korelacji, pokazuje rys. 5. Ten sam przebieg szumowy<br />

został poddany filtracji ograniczającej jego widmo, przy czym<br />

w realizacji (a) zastosowany był filtr od dwukrotnie szerszym<br />

paśmie przenoszenia. Na rysunkach pokazano pełny przebieg<br />

funkcji korelacji oraz rozciągnięty fragment centralny.<br />

Widać, że w obydwu przypadkach funkcja korelacji jest<br />

znacznie szersza niż poprzednio, a ponadto łatwo oszacować,<br />

że w przypadku (a) jest 2-krotnie węższa niż w przypadku<br />

(b). Jednocześnie widać, że węższa funkcja korelacji<br />

ma 2-krotnie większą amplitudę. Uwzględniwszy wcześniej<br />

pokazaną zależność od czasu integracji, dochodzimy do<br />

wniosku, że całkowity efekt procesu korelacji jest proporcjonalny<br />

do iloczynu czasu trwania integracji i szerokości widma<br />

sygnału. Ten iloczyn jest określany jako zysk procesu korelacji<br />

i zapisywany wzorem k=B⋅t i , gdzie: B jest szerokością<br />

widma sygnału, a t i - czasem integracji.<br />

Proces korelacji jest uogólnieniem procesu filtracji dopasowanej,<br />

która jest stosowana także w tradycyjnych radarach<br />

impulsowych. W tabeli zestawiono trzy rodzaje sygnału sondującego<br />

- dwa stosowane w radiolokacji bardziej tradycyjnej<br />

i sygnał nadajnika stacji radiofonicznej FM.<br />

W pierwszym wierszu tabeli mamy najbardziej tradycyjny<br />

prostokątny impuls sondujący o czasie trwania t i wypełniony<br />

sinusoidalną falą nośną. Ponieważ sygnał sondujący jest<br />

znany - wiadomo, jak optymalnie odbierać jego echo - należy<br />

zastosować filtr dopasowany, który w tym przypadku jest prostym<br />

filtrem selektywnym nastrojonym na częstotliwość fali<br />

nośnej i o szerokości pasma przenoszenia w przybliżeniu równej<br />

odwrotności szerokości impulsu sondującego, B =1/t i . Odbiór<br />

korelacyjny echa takiego impulsu dałby ten sam efekt, ale<br />

rzecz jasna zastosowanie filtru selektywnego jest znacznie<br />

prostsze i tańsze w realizacji. Naturalnie zysk procesu korelacji<br />

jest w tym przypadku równy 1.<br />

W drugim wierszu tabeli mamy przypadek typowy dla<br />

współczesnych radarów - impuls sondujący wypełniony jest<br />

falą nośną, której częstotliwość zmienia się w czasie trwania<br />

impulsu o wartość ∆F. W tym przypadku do optymalnego odbioru<br />

echa potrzebny jest filtr dopasowany do charakterystyki<br />

zmian częstotliwości wewnątrz impulsu; jeśli w impulsie<br />

sondującym częstotliwość narasta z czasem, filtr opóźnia<br />

najmniej sygnały o najwyższej częstotliwości i odpowiednio<br />

więcej opóźnia sygnały o niższych częstotliwościach.<br />

W efekcie wszystkie częstotliwości składowe jakby kumulują<br />

się w tym samym krótkim czasie, powodując tzw. kompresję<br />

impulsu. Energia impulsu na wyjściu filtru kumuluje się<br />

w czasie wielokrotnie krótszym niż czas trwania impulsu<br />

przed kompresją, a moc szczytowa impulsu na wyjściu odpowiednio<br />

rośnie, co daje zysk procesu korelacji k=∆F•t i .<br />

Chociaż występuje tu zysk korelacji, to konstruktorom tego<br />

typu radarów daje się uniknąć liczenia funkcji korelacji. Ponieważ<br />

i tym razem oczekiwany sygnał jest dokładnie znany,<br />

można tak zaprojektować filtr dopasowany, że jego działanie<br />

jest ekwiwalentne procesowi korelacji. Najbardziej znaną<br />

realizacją takiego filtru w radiolokacji jest linia dyspersyjna<br />

z akustyczną falą powierzchniową, dziś wypierana przez cyfrowe<br />

filtry kompresji.<br />

ELEKTRONIKA 11/<strong>2009</strong> 103


W przypadku wykorzystania nadajnika stacji radiowej FM<br />

mamy do czynienia z sygnałem zupełnie odmiennym od<br />

dwóch pozostałych. Po pierwsze jest to sygnał całkowicie nieprzewidywalny.<br />

Po drugie, jak wynika z podanych w powyższej<br />

tabeli typowych wartości liczbowych, czas t i (w tym<br />

przypadku t i trudno nazywać czasem trwania impulsu, natomiast<br />

jest to czas integracji echa, więc sam symbol t i zachowuje<br />

swoją literową logikę) jest bardzo długi w stosunku do<br />

oczekiwanej maksymalnej odległości echa. Zwraca uwagę<br />

duży zysk przetwarzania, który w tym przypadku jest osiągany<br />

za cenę właśnie bardzo długiego czasu integracji - o kilka rzędów<br />

wielkości dłuższego niż w zwykłych radarach aktywnych.<br />

Długi czas integracji i wysoki zysk przetwarzania w PCL<br />

są niezbędne, aby skompensować różne braki stacji radiowej<br />

jako nadajnika: stosunkowo niska moc najczęściej dostępnych<br />

nadajników, mały zysk anteny stacji nadawczej, która<br />

musi emitować energię dookoła, ale także podobnie mały<br />

zysk anteny odbiorczej. Jedynym sposobem uzyskania sensownego<br />

zasięgu wykrywania jest odpowiednio wysoki zysk<br />

przetwarzania. Szerokość pasma stacji FM też nie jest imponująca.<br />

Teoretycznie przynależne stacji z modulacją FM<br />

pasmo ok. 150 kHz jest zwykle wykorzystane w nie więcej niż<br />

50%, co wynika z treści większości nadawanych programów<br />

radiowych. Aby zapewnić wymagany zysk przetwarzania, pozostaje<br />

tylko odpowiednie wydłużenie czasu integracji. Pozostawmy<br />

jednak na razie problematykę zasięgu radarów<br />

PCL, zanim do końca nie wyjaśni się, jak one działają. Dotychczas<br />

wyjaśniło się zaledwie tyle, że echo całkowicie przypadkowego<br />

sygnału „okazyjnego” nadajnika można wykryć<br />

pośród innych sygnałów przez poddanie go procesowi korelacji.<br />

Teraz należałoby pokazać, jak w naprawdę działa radar<br />

PCL, ale jeszcze wcześniej trzeba uściślić podstawowe pojęcia<br />

stosowane w radiolokacji.<br />

azymutalnym. Te przykładowe obiekty zostaną wykorzystane<br />

do ważnych wywodów w dalszej części artykułu. Tymczasem<br />

z tego rysunku wynikają już dwie istotne obserwacje.<br />

Pierwsza jest taka, że w radarze PCL (a szerzej - w radarze<br />

bistatycznym) nie ma praktycznego zastosowania tradycyjnie<br />

pojmowana odległość celu od radaru. Jest to<br />

zrozumiałe, bo w systemie bistatycznym właściwie nie wiadomo,<br />

gdzie mieści się ten radar - w lokalizacji nadajnika, czy<br />

odbiornika? Niewielka to jednak strata, gdyż w istocie tradycyjne<br />

współrzędne celu widziane względem lokalizacji radaru<br />

miały tylko charakter lokalny i tymczasowy; dalszy proces<br />

uogólniania informacji zawsze prowadził do wyznaczania lokalizacji<br />

celu na mapie. Druga obserwacja ma większą wagę:<br />

okazuje się, że korzystając z jednego nadajnika, nie da się<br />

jednoznacznie wyznaczyć lokalizacji celu. Problem można<br />

rozwiązać na dwa sposoby.<br />

Odległość i częstotliwość Dopplera w PCL<br />

Z tego, że PCL posługuje się nie swoimi nadajnikami, wynika<br />

- oprócz opisanych problemów z przetwarzaniem sygnału -<br />

inna trudność, związana z „geometrią” takiego systemu radiolokacyjnego.<br />

Wyznaczenie odległości do celu na podstawie<br />

czasu opóźnienia echa względem momentu sondowania<br />

jest proste w zwykłym radarze, gdzie sygnał sondujący biegnie<br />

do celu i z powrotem. Tak nie jest w przypadku PCL, co<br />

widać na rys. 1. Sygnał bezpośredni z nadajnika do odbiornika<br />

przebywa drogę R 0 , natomiast jego echo pokonuje drogę<br />

równą sumie R 1 i R 2 . W odbiorniku można zmierzyć tylko<br />

różnicę opóźnień echa i sygnału bezpośredniego. Jeżeli<br />

znamy R 0 , możemy wyznaczyć jedynie wartość wyrażenia<br />

R 1 + R 2 - R 0 . Liczba położeń celu dająca jednakową wartość<br />

jest teoretycznie nieskończona.<br />

Z lekcji geometrii wiadomo, że zbiór punktów, dla których<br />

suma R 1 + R 2 jest wielkością stałą utworzy elipsę, której<br />

ogniska znajdują się w lokalizacjach nadajnika i odbiornika.<br />

Różnym wartościom tej sumy będą odpowiadały różne elipsy.<br />

Uwzględnienie stałego składnika R 0 to tylko kwestia opisu<br />

danej elipsy. W przykładzie pokazanym na rys. 6. odległość<br />

między nadajnikiem a odbiornikiem wynosi 20 km, a elipsy dla<br />

kilku wartości różnicy opóźnień R 1 + R 2 - R 0 są wykreślone<br />

z zachowaniem skali. Elipsa zerowej różnicy opóźnień redukuje<br />

się do odcinka linii łączącej nadajnik z odbiornikiem.<br />

Z kolei dla znacznych wartości różnicy opóźnień elipsa jest<br />

bliska okręgowi; jednak rzeczywistym okręgiem byłaby tylko<br />

wtedy, gdyby odległość ognisk stała się zerowa. Na rysunku 6.<br />

zaznaczono dwa obiekty oznaczone symbolami A i B, które<br />

z lokalizacji odbiornika widziane są na zbliżonym kierunku<br />

Rys. 6. Przykładowe elipsy stałych różnic opóźnień sygnału bezpośredniego<br />

i jego echa<br />

Fig. 6. Exemplary ellipses of constant differences of delays between<br />

the direct signal and its echo<br />

Rys. 7. Wyznaczanie lokalizacji celu<br />

Fig. 7. Determining the location of a target<br />

104 ELEKTRONIKA 11/<strong>2009</strong>


Jeśli wykorzysta się dwa nadajniki dostatecznie odległe od<br />

siebie i od odbiornika, to uzyska się dwie przecinające się elipsy<br />

o jednym wspólnym ognisku, gdzie mieści się odbiornik; dwa<br />

punkty przecięcia obydwu elips wyznaczają potencjalne lokalizacje<br />

celu (rys. 7). Jeżeli skorzystać z trzech nadajników, trzecia<br />

elipsa przetnie się z drugą w jednym z tych punktów, co wyznaczy<br />

poszukiwane położenie obiektu. Naturalnie dla każdej pary<br />

ognisk można poprowadzić teoretycznie nieskończenie wiele<br />

elips. Przetwarzanie sygnałów każdego nadajnika prowadzi do<br />

wykrycia ech, dla których znane są wartości ∆R=R 1 + R 2 -R 0 .<br />

Te wartości z poszczególnych kanałów przetwarzania należy<br />

skojarzyć, aby wyznaczyć położenia wykrytych ech. Warto zauważyć,<br />

że w zależności od dokładności wyznaczania ∆R kojarzenie<br />

może być mniej lub bardziej jednoznaczne. Różne<br />

średnice okręgów kojarzenia na rys. 7 sygnalizują ten problem.<br />

Alternatywnie położenie celu (dwie współrzędne) można<br />

wyznaczyć z użyciem jednego nadajnika, jeśli znany jest kąt<br />

azymutu celu odniesiony do tzw. linii bazowej, łączącej nadajnik<br />

z odbiornikiem (Θ a na rys. 1). Wtedy, znając długość<br />

jednego boku (R 0 ) trójkąta, sumę dwóch pozostałych jego<br />

boków (R 1 + R 2 ) oraz kąt Θ a , można wyznaczyć odległość R 2 .<br />

Podobnie jak problem odległości skomplikowana sprawa<br />

jest z częstotliwością Dopplera. Po pierwsze trzeba ją zdefiniować.<br />

W radarze klasycznym jest to różnica częstotliwości<br />

nośnych sygnałów nadawanego i echa. W radarze PCL definiuje<br />

się ją jako różnicę częstotliwości sygnału bezpośredniego<br />

i echa. Ponowny rzut oka na rys. 1 pozwala ocenić, że jej wyznaczenie<br />

teoretycznie nie powinno być zbyt trudne. Różnica<br />

częstotliwości dwóch sygnałów jest szybkością zmian w czasie<br />

ich względnego przesunięcia fazowego. Jeden sygnał ma<br />

fazę stałą, gdyż przychodzi bezpośrednio od stacjonarnego<br />

nadajnika, a faza drugiego sygnału zależy od długości drogi,<br />

jaką przebywa echo, czyli sumy R 1 + R 2 . W efekcie częstotliwość<br />

Dopplera jest proporcjonalna do szybkości zmian odległości<br />

sumarycznej R s = R 1 + R 2 i wyraża się wzorem<br />

F d = ∆R s /(∆t⋅λ), gdzie: symbole ∆R s i ∆t oznaczają chwilowe<br />

zmiany odpowiednio drogi i czasu, a λ - długość fali. Wynika<br />

z tego, że w radarze PCL cele poruszające się po elipsach<br />

takich jak na rys. 6 mają zerową częstotliwość Dopplera, analogicznie<br />

jak w klasycznym radarze cele poruszające się po<br />

okręgu ze środkiem w lokalizacji radaru. Cele poruszające do<br />

wnętrza elipsy mają częstotliwość Dopplera dodatnią, a cele<br />

poruszające się w kierunku na zewnątrz - ujemną.<br />

Jako interesującą z użytkowego punktu widzenia należy<br />

uznać odległość R 2 , jednak w ogólnym przypadku zmianom<br />

R 2 nieodłącznie towarzyszą zmiany R 1 . Dlatego właściwości<br />

zasięgowe radaru PCL zwykle pokazuje się w formie graficznej<br />

jako zbiór punktów spełniających jego równanie zasięgu.<br />

Był już podobny problem przy pomiarze odległości do obiektu,<br />

gdzie występowała suma R 1 + R 2 , a odpowiednie zbiory<br />

punktów leżały na elipsach. Tutaj równanie zasięgu wyznacza<br />

zbiór punktów, dla których iloczyn kwadratów odległości<br />

do dwóch punktów (lokalizacje nadajnika i odbiornika) jest<br />

wielkością stałą. Okazuje się, że zbiór punktów o takiej właściwości<br />

jest podobny do elipsy, a nazywa się w matematyce<br />

owalem Cassiniego.<br />

Na rysunku 8 pokazany jest zestaw owali Cassiniego dla<br />

ognisk umieszczonych symetrycznie względem osi Y w odległości<br />

równej 1. Parametr podany przy poszczególnych<br />

krzywych oznacza wartość iloczynu w równaniu R 1 2 R 2 2 = b 2<br />

opisującym owal Cassiniego. Pokazane owale trzeba przeskalować<br />

do konkretnego przypadku, tak aby odległość między<br />

ogniskami odpowiadała odległości między nadajnikiem<br />

a odbiornikiem; wtedy odpowiednio zmienią się parametry<br />

owali oznaczone b 2 . Na przykład przemnażając skale na<br />

osiach przez 10 i stosując jako jednostkę odległości kilometr<br />

(co oznacza odległość między odbiornikiem a nadajnikiem<br />

20 km), trzeba przemnożyć parametry b 2 przez 100. Warto<br />

zauważyć, że z podanego równania zasięgu wynika, że wartość<br />

R 1 2 R 2 2 jest wprost proporcjonalna do SPO, więc parametry<br />

b 2 na wykresie na rys. 8 mogą być przeliczone na<br />

wartości SPO. Daje to możliwość szybkiej oceny maksymalnego<br />

zasięgu dla różnych obiektów powietrznych.<br />

Należy tu podkreślić, że zestaw owalów Cassiniego przedstawia<br />

tylko potencjalne zasięgi radaru. Zasięgi rzeczywiste<br />

będą zależały od charakterystyk antenowych, czyli liczby,<br />

kształtu i rozkładu uformowanych wiązek obserwacyjnych.<br />

W następnych punktach tego opisu okaże się, że formowanie<br />

każdej wiązki obserwacyjnej angażuje odpowiednie zasoby<br />

sprzętowe i oprogramowanie. Jeśli w najprostszym przypadku<br />

radar ma tylko jedna wiązkę obserwacyjną, pokrycie zasięgowe<br />

będzie tylko takie, ile ta jedna wiązka „wybierze” z całej<br />

powierzchni owalu odpowiadającego danej SPO, jak to zostało<br />

przykładowo zilustrowane na rys. 8. Także warto pod-<br />

Zasięg radaru PCL<br />

Nie wdając się w szczegóły obliczeń zasięgowych, warto<br />

zająć się charakterystyczną cechą radaru PCL pod tym względem.<br />

W każdym klasycznym radarze obliczenie zasięg sprowadza<br />

się do prostego równania:<br />

S/N min = Aσ/R 4<br />

gdzie: S/N min - minimalny stosunek sygnału do szumu wymagany<br />

do wykrycia obiektu (z określonym prawdopodobieństwem<br />

wykrycia i prawdopodobieństwem fałszywego<br />

alarmu), A - stała wielkość zależna od parametrów radaru,<br />

σ - skuteczna powierzchnia odbicia (SPO) obiektu, R - odległość<br />

wykrywanego obiektu.<br />

W radarze PCL to równanie przyjmuje formę:<br />

S/N min = Aσ/(R 1 2 R 2 2 )<br />

gdzie: R 1 i R 2 są odległościami obiektu odpowiednio od nadajnika<br />

i odbiornika (rys. 1).<br />

Rys. 8. Owale Cassiniego wyznaczające maksymalne pokrycie zasięgowe<br />

i wiązka obserwacyjna wyznaczająca realny obszar wykrywania<br />

Fig. 8. Cassini ovals indicating the maximum range coverage and<br />

a surveillance beam<br />

ELEKTRONIKA 11/<strong>2009</strong> 105


kreślić to, że owale Cassiniego i charakterystyka anteny określają<br />

tylko kształt pokrycia zasięgowego. Ilościowe wyznaczenie<br />

zasięgów na poszczególnych kierunkach dla określonego typu<br />

obiektu zależy od mocy nadajnika, czułości odbiornika i zysku<br />

przetwarzania. Szczególne znaczenie ma efektywna czułość<br />

odbiornika, którą w technice PCL należy rozpatrywać<br />

z uwzględnieniem bardzo trudnego problemu maskowania<br />

słabych ech użytecznych przez sygnał bezpośredni z nadajnika<br />

i echa stałe. Ten problem będzie poruszony dalej, przy<br />

prezentowaniu aparatury radaru PCL i jej funkcjonowania.<br />

Jak działa radar PCL<br />

Spróbujmy zacząć opis działania radaru PCL tradycyjnie od<br />

schematu blokowego. Jest w tym pewna trudność, dlatego że<br />

podział na fizyczne bloki niewiele by pokazał. Jeśli jednak<br />

przyjąć, że w tym schemacie bloki to kolejno realizowane funkcje,<br />

to taki schemat wyglądałby jak na rys. 9. Jest to przykładowa<br />

struktura funkcjonalna z anteną 8-elementową, np. taką<br />

jaką pokazano dalej na fotografii. Z tej 8-elementowej anteny<br />

formowane są trzy wiązki obserwacyjne (na schemacie Wo1 -<br />

Wo3) oraz jedna wiązka skierowana na nadajnik, czyli wiązka<br />

referencyjna (Wr). W kolejnych punktach zostaną omówione poszczególne<br />

bloki funkcjonalne tego schematu.<br />

Funkcjonowanie radaru normalnie zaczyna się w nadajniku,<br />

ale tutaj rzecz jasna takiego nie ma. Musi natomiast<br />

radar PCL mieć antenę i to taką o odpowiednich charakterystykach,<br />

a wiąże się to ściśle ze szczególnym sygnałem, jaki<br />

ten radar wykorzystuje. Porównajmy dwa przebiegi na rys. 10,<br />

obydwa sporządzone dla radarów o zasięgu maksymalnego<br />

ok. 100 km.<br />

W radarze impulsowym (rys. 10a) sygnał nadawany pojawia<br />

się na krótką chwilę (tutaj 10 µs) i znika, a radar przechodzi<br />

do trybu odbioru echa. Dotąd było zrozumiałe, że jak się<br />

nadaje, to się nie odbiera i odwrotnie, a czas trwania impulsu<br />

nadajnika wyznacza martwą strefę, gdzie radar po prostu nie<br />

widzi. Tak komfortowej sytuacji nie ma radar typu PCL<br />

(rys. 10b). Tutaj do odbiornika dociera praktycznie jednocześnie<br />

echo i sygnał sondujący. Warto zwrócić uwagę, że potrzebna<br />

do wykrycia obiektu porcja sygnału, którą mierzy się<br />

grubymi ułamkami lub całymi sekundami (tutaj 1 sekunda), jest<br />

o trzy rzędy wielkości dłuższa od czasu opóźnienia najdalszego<br />

echa, który zazwyczaj ledwie osiąga milisekundę. Musi zatem<br />

wystąpić nakładanie się w czasie sygnału bezpośredniego (nadawanego)<br />

i sygnału echa. Oczywiście nie można dopuścić do<br />

odbioru echa razem z sygnałem bezpośrednim, gdyż ten<br />

ostatni jest zwykle o wiele rzędów wielkości (nawet do 100 dB)<br />

silniejszy od echa i całkowicie zamaskowałby jego obecność.<br />

Ponieważ zarówno echo, jak i sygnał bezpośredni są jednakowo<br />

niezbędne do funkcjonowania PCL, trzeba je odebrać<br />

oddzielnymi, wzajemnie odseparowanymi kanałami. Jest przy<br />

tym bardzo ważne, aby każdy z kanałów odbierał jak najmniej<br />

sygnału dla niego nie przeznaczonego. W praktyce oznacza<br />

to, że charakterystyka anteny odbierającej echa powinna wykazywać<br />

jak najgłębsze minimum na kierunku nadajnika.<br />

W praktyce okazuje się, że nie można dostatecznie skutecznie<br />

stłumić sygnału bezpośredniego charakterystyką anteny<br />

i trzeba stosować dodatkowe „tricki” kompensujące jego obecność<br />

przez odpowiednią obróbkę sygnału.<br />

Antena i odbiór sygnałów<br />

bezpośredniego i echa<br />

Rys. 9. Schemat blokowy radaru PCL z ośmioelementową anteną<br />

i trzema wiązkami obserwacyjnymi<br />

Fig. 9. Block diagram of a PCL radar with an 8-element antenna<br />

and three surveillance beams<br />

Jako dobry przykład na rys. 11 pokazana jest antena demonstratora<br />

radaru PCL wykonanego w Instytucie Systemów<br />

<strong>Elektronicznych</strong> Politechniki Warszawskiej. W tym przypadku<br />

antenę tworzy szyk ośmiu typowych anten radiowych UKF<br />

rozmieszczonych równomiernie na okręgu o średnicy ok.<br />

2,4 m. Widoczne na rysunku anteny Yagi stanowią dodatkowe<br />

wyposażenie przeznaczone do eksperymentowania z nadajnikami<br />

telewizji.<br />

Rys. 10. Porównanie zależności czasowych w radarze impulsowym<br />

i PCL<br />

Fig. 10. Comparison of timing in a pulse radar and PCL<br />

Rys. 11. Antena demonstratora PCL wykonanego w Instytucie Systemów<br />

<strong>Elektronicznych</strong> Politechniki Warszawskiej<br />

Fig. 11. The antenna of the PCL demonstrator built in the Institute<br />

of Electronic Systems of the Warsaw University of Technology<br />

106 ELEKTRONIKA 11/<strong>2009</strong>


Jak widać, sama instalacja antenowa jest bardzo prosta, ale<br />

w radarze PCL system antenowy to nie tylko sam szyk antenowy.<br />

W formowaniu charakterystyk kierunkowych uczestniczy cały<br />

system odbiorczy i cyfrowego przetwarzania sygnału. Każdy element<br />

antenowy jest połączony z oddzielnym odbiornikiem cyfrowym,<br />

a kształtowanie charakterystyk dobywa się cyfrowo.<br />

Sygnał z każdego elementu antenowego jest podłączony<br />

kablem koncentrycznym do wzmacniacza selektywnego, a następnie<br />

jest poddawany bezpośrednio przetwarzaniu na postać<br />

cyfrową. Pasmo przenoszenia wzmacniacza powinno obejmować<br />

częstotliwości wszystkich potencjalnych stacji nadawczych,<br />

których sygnał będzie wykorzystywany. W przypadku<br />

stacji radiowych FM będzie to pasmo 88...108 MHz. Do przetworzenia<br />

na formę cyfrową można wykorzystać dostępne komercyjnie<br />

gotowe tzw. moduły akwizycji danych, z szybkimi<br />

przetwornikami analogowo-cyfrowymi. Przy paśmie odbieranego<br />

sygnału 20 MHz (pasmo UKF: 88…108 MHz) wystarczająco<br />

szybkie byłoby przetwarzanie z częstotliwością ok.<br />

40 MHz, jednak wyższa częstotliwość przetwarzania sprzyja<br />

jakości obróbki. W omawianym demonstratorze zastosowano<br />

14-bitowe przetworniki A/C z częstotliwością próbkowania<br />

250 MHz, co nie jest dziś wielkim wyzwaniem technicznym.<br />

Moduł akwizycji danych w istocie realizuje funkcje<br />

urządzenia określanego angielskim terminem Software Defined<br />

Radio (SDR), co po polsku można nazwać programowym<br />

odbiornikiem radiowym. Taki odbiornik jest połączony z komputerem<br />

za pomocą typowego łącza, np. USB, którym w jedną<br />

stronę przesyłany jest sygnał wyjściowy, a w drugą stronę<br />

z komputera przekazywane są polecenia wymagane do nastrojenia<br />

odbiornika na odpowiednią stację radiową FM, przy<br />

czym wybór stacji następuje za pomocą cyfrowego filtru pasmowego.<br />

Szerokość pasma przenoszenia tego filtru jest odpowiednia<br />

do widma transmitowanego sygnału FM, czyli ok.<br />

100 kHz. Takie ograniczenie pasma pozwala obniżyć częstotliwość<br />

próbkowania w dalszej obróbce do ok. 200 kHz.<br />

W tym miejscu zasadne jest pytanie, jak funkcjonuje system<br />

akwizycji danych, kiedy radar PCL wykorzystuje kilka nadajników.<br />

Możliwe są dwa rozwiązania. W pierwszym -<br />

najbardziej komfortowym stosuje się odpowiednią liczbę równolegle<br />

pracujących odbiorników - każdy nastrojony na inną<br />

stację. W drugim - oszczędnościowym - jeden odbiornik jest<br />

sekwencyjnie przestrajany na kolejną stację po zebraniu danych<br />

z poprzedniej. Także dalsza obróbka może odbywać się<br />

równolegle w kilku systemach komputerowych lub sekwencyjnie.<br />

W tym drugim przypadku trzeba wyznaczyć i zapamiętać<br />

elipsy odległości z każdej pary nadajnik-odbiornik,<br />

a następnie skojarzyć je, aby wyznaczyć lokalizację celu.<br />

Rzecz jasna moduł akwizycji danych nie musi realizować<br />

pełnej funkcjonalności radia programowego. Ponieważ celem<br />

nie jest odtworzenie nadawanego przez daną stację programu,<br />

lecz tylko wykorzystanie pełnego widma rozsiewanego sygnału,<br />

sygnał cyfrowy w paśmie częstotliwości nośnej jest poddawany<br />

demodulacji kwadraturowej. Ten zabieg przetwarza sygnał pasmowy<br />

na dwie składowe: synfazową i kwadraturową, oznaczane<br />

odpowiedni symbolami I (In phase) oraz Q (Quadrature),<br />

z których można odczytać pełną informację o amplitudzie i fazie<br />

sygnału oryginalnego na podstawie ich wartości chwilowych<br />

(próbek). Technika detekcji fazowej I/Q jest stosowana także<br />

w tradycyjnych radarach i nie jest celowe jej wyjaśnianie.<br />

Różnica jest tylko taka, że dotychczas zwykle była ona realizowana<br />

układami analogowymi, a tutaj jest to realizowane cyfrowo.<br />

Znajomość amplitudy i fazy sygnału jest potrzebna do<br />

zasadniczego procesu korelacji, prowadzącego do wykrycia<br />

echa, ale najpierw jest ona wykorzystywana do formowania charakterystyk<br />

anteny.<br />

Elektroniczne formowanie charakterystyk<br />

anteny<br />

Idea elektronicznego formowania wiązek charakterystyki<br />

anteny jest znana i stosowana w radiolokacji od kilku dziesięcioleci.<br />

Cyfrowe formowanie wiązek jest szczególną realizacją<br />

tej idei - również dobrze znaną w radarach, choć nie od tak<br />

dawna. Pomimo, że nie jest to najbardziej wyróżniająca właściwość<br />

radaru PCL, cyfrowe formowanie wiązek może być na<br />

tyle nowe dla Czytelnika, że warto poświęcić mu trochę<br />

miejsca. W omawianym radarze PCL antena jest kołowym<br />

szykiem elementów, a nie płaskim jak w większości radarów,<br />

ale dobrze jest zacząć od anteny fazowanej w postaci szyku<br />

płaskiego jak na rys. 12a.<br />

Elementy anteny odbierają falę płaską padającą pod<br />

określonym kierunkiem Θ względem kierunku prostopadłego<br />

do linii szyku. Sygnały z poszczególnych elementów są wprowadzone<br />

do sumatora poprzez sterowane przesuwniki fazy.<br />

Gdy fala pada pod kątem prostym (Θ = 0), dociera do<br />

wszystkich elementów jednocześnie. Jeśli wszystkie przesuwniki<br />

fazy są ustawione na zero, tzn. sygnały są sumowane<br />

bezpośrednio - tak jak przychodzą - nastąpi koherentna kumulacja<br />

sygnału wyjściowego. Stopień tej kumulacji, czyli zysk<br />

kierunkowy anteny zależy od liczby elementów w szyku, a ponieważ<br />

wymagana jest określona odległość między elementami<br />

(zbliżona do połowy długości fali), zysk anteny rośnie ze<br />

wzrostem rozpiętości anteny.<br />

Jeśli fala pada pod katem innym niż prostopadle, dociera<br />

do poszczególnych elementów niejednocześnie - najpierw do<br />

elementu N, potem sąsiedniego, a na końcu do elementu<br />

pierwszego. Różnica czasu pobudzenia kolejnych elementów<br />

przekłada się na różnicę fazy sygnałów pobudzających. Bezpośrednie<br />

zsumowanie tych sygnałów (z zerowymi ustawieniami<br />

przesuwników fazy) nie prowadzi wtedy do kumulacji<br />

sygnału na wyjściu. Aby taka kumulacja nastąpiła, należy<br />

wprowadzić dla kolejnych sygnałów przesunięcia fazy kompensujące<br />

przesunięcie fazy sygnałów pobudzających.<br />

a)<br />

b)<br />

Rys. 12. Zasada działania anteny fazowanej: a) szyk liniowy,<br />

b) fragment szyku kołowego<br />

Fig. 12. Principle of operation of a phased array antenna: a) linear<br />

array, b) circular array<br />

ELEKTRONIKA 11/<strong>2009</strong> 107


Dla każdego kierunku odbieranej fali można tak wysterować<br />

przesuwniki fazy, aby maksymalizować czułość odbioru<br />

z tego kierunku. Ten efekt zwykle określa się w inny sposób:<br />

odpowiednie ustawienie przesuwników fazy formuje wiązkę<br />

charakterystyki anteny skierowaną pod wymaganym kątem Θ.<br />

Według tego schematu można uformować wiele wiązek „nastrojonych”<br />

na różne kąty Θ. Aby to osiągnąć, trzeba sygnały<br />

z poszczególnych elementów doprowadzić do wielu układów<br />

formowania wiązki (UFW), każdy z niezależnym zestawem<br />

przesuwników fazy i sumatorem. Aby nie stracić czułości<br />

wskutek rozdziału sygnałów na wiele kanałów formowania<br />

wiązek, należy je najpierw wzmocnić.<br />

Analogicznie działa formowanie wiązek w antenie<br />

z kołowym szykiem elementów, jednak występują tu dodatkowe<br />

istotne utrudnienia. Po pierwsze, rozmieszczenie elementów<br />

na okręgu (rys. 8b) powoduje, że bardziej skomplikowane jest<br />

wyznaczenie przesunięć fazy dla poszczególnych ścieżek. Po<br />

drugie, ponieważ charakterystyki poszczególnych elementów<br />

są bezkierunkowe w rozpatrywanej płaszczyźnie, mocno ujawniają<br />

się tu wzajemne sprzężenia między nimi, co jeszcze bardziej<br />

komplikuje wyznaczenie przesunięć fazy w funkcji<br />

kierunku wiązki. Kiedy jednak te trudności się pokona, antena<br />

z szykiem kołowym daje bardzo cenną właściwość - pozwala<br />

uformować wiązkę na dowolnym kącie azymutu, gdyż niezależnie<br />

od kierunku prezentuje ona takie same rozmiary fizyczne.<br />

W przypadku szyku liniowego ten zakres kątów jest<br />

praktycznie ograniczony do ±45° względem kierunku prostopadłego;<br />

na kierunkach bardziej odległych od prostopadłego<br />

szyk liniowy prezentuje tak małą fizyczną rozpiętość, że jego<br />

zysk szybko maleje.<br />

Cyfrowe formowanie wiązek<br />

Pokazany na rys. 12 schemat formowania wiązki jest najbardziej<br />

podstawowym układem elektronicznego formowania<br />

wiązek, funkcjonującym na częstotliwości radiowej odbieranego<br />

sygnału. Widać, że jest on trudny w realizacji, gdyż wymaga<br />

stosowania oddzielnego analogowego UFW dla<br />

każdego kierunku, a poszczególne komponenty UFW zajmują<br />

dużo miejsca, są kosztowne i niezbyt dokładne. To samo<br />

można uzyskać mniejszym kosztem i z większą dokładnością,<br />

stosując cyfrowe formowanie wiązek. W tym miejscu<br />

trzeba powrócić do wyjścia układów pozyskiwania sygnałów.<br />

Pozyskiwanie sygnału kończy się na etapie wytworzenia<br />

cyfrowych składowych I/Q sygnałów odebranych przez<br />

wszystkie elementy anteny. Sekwencja kolejnych próbek tych<br />

sygnałów odebranych w całym stosunkowo długim czasie obserwacji<br />

(np. jednej sekundy) jest przesyłana do komputera<br />

i zapisywana w pamięci. Dalszą część przetwarzania realizuje<br />

odpowiednie oprogramowanie komputera, a pierwszym etapem<br />

jest cyfrowe formowanie wiązek.<br />

Jak pokazano na rys. 12. formowanie wiązki polega na<br />

sumowaniu sygnałów z odpowiednimi przesunięciami fazowymi.<br />

Dodatkowo należy wspomnieć, że zwykle w sumatorach<br />

UFW realizuje się odpowiednie ważenie amplitudowe<br />

poszczególnych sygnałów. Przesunięcia fazy decydują o kierunku<br />

osi wiązki, zaś ważenie amplitudowe służy nadaniu<br />

wiązce wymaganego kształtu, czyli szerokości i poziomu tzw.<br />

listków bocznych. Nietrudno zauważyć analogię tego procesu<br />

do filtracji cyfrowej. Filtracja cyfrowa też polega na sumowaniu<br />

sygnałów z określonymi przesunięciami fazy i wagami,<br />

a zestaw tych wag i przesunięć fazy nazywa się współczynnikami<br />

filtru. Różnica jest tylko taka, że w filtracji cyfrowej poszczególne<br />

sygnały podlegające sumowaniu to właściwie<br />

próbki tego samego sygnału z różnymi opóźnieniami, natomiast<br />

w UFW są to sygnały z kolejnych elementów anteny. Ta<br />

różnica nie przeszkadza, by całą potęgę techniki cyfrowej filtracji<br />

sygnałów wykorzystać do cyfrowego formowania<br />

wiązek. Warto zauważyć, jak bardzo uproszcza to praktyczną<br />

realizację wielu wiązek.<br />

Na schemacie blokowym z rys. 9 sygnały I/Q z ośmiu kanałów<br />

odbiorczych wprowadza się do czterech równoległych<br />

układów formowania wiązki (UFW). Każdy UFW realizuje filtr<br />

takiego rzędu, ile jest elementów anteny, przetwarzając próbki<br />

otrzymane z poszczególnych elementów w tym samym momencie<br />

czasu. W efekcie na wyjściu cyfrowego UFW otrzymuje<br />

się ciągi próbek sygnałów odebranych z kierunków<br />

pokrytych przez poszczególne wiązki. Wszystkie te próbki<br />

muszą być ponownie zapisane do pamięci, gdyż tylko dostęp<br />

do wszystkich umożliwi dalszą obróbkę. Jednocześnie pierwotne<br />

próbki sygnałów z poszczególnych odbiorników przestają<br />

być potrzebne, a zwolniona pamięć może być<br />

wykorzystana do zapisania sygnałów wyjściowych z UFW.<br />

Ile wiązek trzeba uformować - zależy od liczby wykorzystywanych<br />

nadajników. Dla każdego nadajnika trzeba uformować<br />

jedną wiązkę do odbioru sygnału bezpośredniego,<br />

a liczba i kierunki wiązek obserwacyjnych, czyli służących do<br />

odbioru ech, zależą od obszaru, gdzie powinny być wykrywane<br />

obiekty. Istotne jest przy tym, aby wiązki obserwacyjne<br />

miały jak najmniejszą czułość na kierunkach nadajników.<br />

W najprostszym przypadku pracy z jednym nadajnikiem<br />

wiązki mogą być uformowane jak poniżej na rys. 13.<br />

Uformowanie wiązek powinno uwzględniać realnie<br />

możliwy zasięg wykrywania na poszczególnych kierunkach,<br />

a także występowanie silnych ech stałych zakłócających<br />

odbiór ech użytecznych. W pokazanym przykładzie wiązki obserwacyjne<br />

(kolor czerwony) są tak uformowane, że minimalizują<br />

odbiór sygnału bezpośredniego nadajnika, a dodatkowo<br />

mają minima na kierunkach znanych obiektów stałych<br />

dających silne echo. Wiązka referencyjna, służąca do odbioru<br />

sygnału bezpośredniego (kolor niebieski), nie jest tu uformowana<br />

zbyt starannie, wykazując dość wysoki poziom listków<br />

bocznych, jednak to nie przeszkadza w funkcjonowaniu radaru,<br />

gdyż sygnał bezpośredni będzie dominujący. W schemacie<br />

pokazanym na rys. 8 formowane są trzy wiązki<br />

obserwacyjne i jedna referencyjna.<br />

Rys. 13. Przykładowe wiązki charakterystyki anteny w płaszczyźnie<br />

poziomej<br />

Fig. 13. Sample antenna pattern beams in the horizontal plane<br />

108 ELEKTRONIKA 11/<strong>2009</strong>


Adaptacyjne tłumienie ech od obiektów<br />

stałych<br />

Do tej pory ten problem był przemilczany, ale bez pozbycia<br />

się ech stałych cała idea radaru PCL byłaby mało przydatna.<br />

Wspomniano już wprawdzie, że formując wiązki obserwacyjne,<br />

można zadbać o to, aby miały one minima na kierunkach<br />

obiektów stałych, ale w praktyce jest to trudne i ma<br />

ograniczoną skuteczność. Można próbować uformować minimum<br />

na kierunku jednego czy dwóch obiektów stałych, ale takich<br />

obiektów może być w okolicy wiele i trudno jest<br />

uformować minimum charakterystyki na kierunku każdego<br />

z nich. Formowanie minimów charakterystyki anteny jest tylko<br />

pomocą w rozwiązaniu problemu, ale nie zapewnia jego skutecznego<br />

rozwiązania. Z techniki klasycznych radarów wiadomo,<br />

że staranne zaprojektowanie charakterystyki może<br />

w sprzyjających warunkach dać minimum o głębokości rzędu<br />

30…40 dB względem maksimum. To jest, jak się okazuje, daleko<br />

niewystarczające w przypadku PCL. Warto to powrócić<br />

do rys. 10, aby uświadomić sobie, w czym jest problem.<br />

W klasycznym radarze silne echa stałe, jeśli nie zostaną<br />

skutecznie stłumione, powodują maskowanie obecności<br />

słabych ech użytecznych w ograniczonym obszarze. W najgorszym<br />

przypadku obserwacja może być utrudniona nawet<br />

w pełnym kącie azymutu wokół radaru do pewnej odległości,<br />

np. 30 km, ale dalej echa stałe znikają za horyzontem i na<br />

wskaźniku już jest „czysto”. W radarze PCL nie można liczyć<br />

na taki komfort. Silne echo stałe jest obecne w całym zakresie<br />

obserwacji, działając podobnie jak przenikanie sygnału<br />

bezpośredniego z nadajnika, czyli podwyższając szum, na tle<br />

którego są wykrywane echa ruchome.<br />

Aby pokazać ten problem powróćmy do przykładu<br />

z rys. 6, gdzie nadajnik jest odległy od odbiornika o 20 km.<br />

Rozpatrzmy obiekt stały A o bardzo dużej SPO, np. 100 m 2 ,<br />

położony blisko linii bazowej, na elipsie gdzie: R A1 +R A2 =<br />

23,5 km oraz obiekt powietrzny B o małej SPO, np. 1 m 2 ,<br />

znajdujący się na tym podobnym kierunku względem odbiornika,<br />

zlokalizowany tak, że R B1 +R B2 = 56 km. Z wcześniejszych<br />

rozważań dotyczących zasięgu wynika, że stosunek<br />

mocy obydwu ech wyniesie 100(R B1 R B2 ) 2 /(R A1 R A2 ) 2 . W podanej<br />

sytuacji R A1 =R A2 = 11,75 km oraz R B1 = 22,5 km,<br />

R B2 = 33,5 km, a stosunek mocy ech od obiektów B i A wyniesie<br />

100•22,5 2 •33,5 2 /11,75 4 ≅ 35 dB. Na rysunku 14 pokazano,<br />

jak suma ech od tych dwóch obiektów zostanie<br />

przetworzona na funkcję korelacji po zasymulowaniu sygnału<br />

nadajnika szumem.<br />

W symulacji zastosowano realistyczny czas obserwacji<br />

równy jednej sekundzie przy częstotliwości próbkowania<br />

200 kHz, czyli przetwarzaniu poddano 200 tys. próbek. Pierwsze,<br />

co rzuca się w oczy, to brak rozróżnienia obydwu ech<br />

w głównej części wykresu. Jest to praktyczny skutek tego, co<br />

zostało zasygnalizowane wcześniej (por. rys. 10). W czasie sekundy<br />

fala przebywa drogę 300 tys. km, więc próbki sygnału odmierzają<br />

odcinki drogi 1,5 km. Numery próbek na wykresie są<br />

miarą opóźnienia sygnału względem momentu jego emisji przez<br />

nadajnik (bez odjęcia czasu opóźnienia sygnału bezpośredniego).<br />

W tej skali wszystkie wykrywane echa, przebywające<br />

drogę dziesiątek kilometrów, będą skupione w obrębie kilkudziesięciu<br />

próbek. Bliższe echo (A) rozpatrywanego przykładu<br />

reprezentuje próbka nr 15, a dalsze (B) - próbka nr 37. Dopiero<br />

mocny „zoom”, pokazany w dodatkowym oknie wykresu, pozwala<br />

je odróżnić. Jednak decydująca jest tu inna obserwacja.<br />

Widać na rys. 14, że silne echo, poza wąską „szpilką”<br />

funkcji korelacji, daje pewne tło tzw. czasowych listków bocznych.<br />

Jest ono relatywnie niskie w porównaniu do amplitudy<br />

Rys. 14. Funkcja korelacji sumy ech dwóch obiektów, silnego<br />

i słabego<br />

Fig. 14. Correlation function of the sum of two, strong and weak,<br />

target echoes<br />

tej szpilki; przy czasie integracji jednej sekundy jest to ok.<br />

-45 dB. Jednak listki boczne silnego echa są porównywalne<br />

do amplitudy echa słabego. W przypadku dwóch rozpatrywanych<br />

obiektów A i B widać jeszcze szansę wykrycia echa słabszego,<br />

ale już na granicy wymaganego prawdopodobieństwa.<br />

Echa bardziej odległych małych obiektów powietrznych będą<br />

jeszcze słabsze i mogą być w „towarzystwie” silnych ech<br />

stałych niewykrywalne, zwłaszcza że przykładowe echo odpowiadające<br />

100 m 2 SPO nie należy do najsilniejszych.<br />

Oprócz obiektów punktowych o znacznie większej SPO należy<br />

się liczyć z bardzo silnym echem o charakterze powierzchniowym,<br />

wynikającym z oświetlenia powierzchni ziemi<br />

bardzo szeroką wiązką przy znacznym rozmiarze (1…2 km)<br />

komórki rozdzielczości odległościowej.<br />

Warto tu zauważyć, że jako szczególnie silne echo stałe<br />

można traktować sygnał bezpośredni nadajnika. Dlatego problem<br />

usuwania sygnału bezpośredniego i silnych ech stałych<br />

należy rozpatrywać łącznie. Metodyka usuwania tej kategorii<br />

niepożądanych sygnałów generalnie opiera się na ich stabilnym<br />

charakterze. Tworzy się powierzchniową mapę takich<br />

sygnałów, aby następnie poddać je wektorowemu odejmowaniu<br />

od bieżącego sygnału; sygnały o niezmiennych amplitudach<br />

i fazach zostają zredukowane, a sygnały użyteczne<br />

ech ruchomych przechodzą z nieznacznymi stratami. Jest to<br />

określane jako adaptacyjne tłumienie ech stałych. Opisywanie<br />

tej techniki nie byłoby tu ani ciekawe, ani celowe. Cały wywód<br />

w tym punkcie ma tylko pokazać, jak ważne jest skuteczne<br />

osłabienie silnych ech stałych, aby można było mówić o sensownie<br />

użytecznym zasięgu wykrywania celów powietrznych.<br />

Dopiero po tej operacji można przystąpić do zasadniczej fazy,<br />

czyli wykrywania obiektów powietrznych poprzez korelację<br />

sygnału bezpośredniego z sygnałem echa.<br />

Korelacja dwuwymiarowa R x D<br />

Wiemy już, że funkcja korelacji daje maksymalną wartość<br />

w momencie, kiedy dwa sygnały wykazujące podobieństwo<br />

dokładnie „nakładają się” w procesie jej obliczania (krok nr 4<br />

na rys. 2). Można by na tej podstawie oczekiwać, że poddając<br />

procesowi korelacji sygnał bezpośredni z nadajnika i sygnał<br />

zawierający echa od obiektów powietrznych otrzymamy<br />

pewną liczbę „wyskoków” funkcji korelacji, każdy z nich reprezentujący<br />

określone echo o innym opóźnieniu, jeśli wszystkie<br />

z nich są kopiami sygnału nadajnika. Kłopot jednak polega<br />

na tym, że nie są. Rozważamy przecież echa od obiektów ru-<br />

ELEKTRONIKA 11/<strong>2009</strong> 109


chomych, które w ogólnym przypadku różnią się częstotliwością<br />

Dopplera. Sygnał echa z przesunięciem Dopplera nie<br />

jest już kopią sygnału nadajnika i proces korelacji nie doprowadzi<br />

do jego wykrycia. To prowadzi do schematu dwuwymiarowego<br />

obliczania funkcji korelacji, gdzie jednym<br />

wymiarem jest suma odległości R 1 + R 2 , określona wcześniej<br />

symbolem R s , a drugim częstotliwość Dopplera. Jedną<br />

z możliwych realizacji takiego schematu pokazuje rys. 15.<br />

Pierwsza operacja polega na opóźnieniu sygnału z kanału<br />

obserwacyjnego o stały czas odpowiadający odległości R 0<br />

między nadajnikiem i odbiornikiem. W efekcie następuje wyrównanie<br />

opóźnień sygnału referencyjnego i sygnału echa, tak<br />

że zmierzone dalej opóźnienie echa będzie reprezentować odległość<br />

R s . Sygnał bezpośredni z nadajnika (referencyjny) jest<br />

poddawany opóźnieniu w kolejnych sekcjach umownej linii<br />

opóźniającej z odczepami. Każda z sekcji opóźnia ten sygnał<br />

o czas odpowiadający rozróżnialności odległościowej systemu<br />

∆R, która - w przypadku wykorzystania nadajnika radiofonii FM<br />

o paśmie 100 kHz - wynosi ok. 3000 m. Warto tu podkreślić, że<br />

opóźnianiu podlega tu cała rozpatrywana przykładowo porcja<br />

sygnału odebrana w ciągu jednej sekundy i licząca 200 tys.<br />

próbek. Liczba sekcji opóźnienia M wynika z podziału maksymalnej<br />

oczekiwanej wartości R s (odpowiednik zasięgu instrumentalnego<br />

w typowym radarze) przez ∆R. Sygnał referencyjny<br />

z poszczególnych sekcji opóźnienia i sygnał z kanału<br />

obserwacyjnego są doprowadzone do układów mnożących.<br />

Należy się tu wyjaśnienie, że w omawianym schemacie obliczanie<br />

funkcji korelacji odbywa się nieco inaczej niż zostało to<br />

opisane w punkcie definiującym to pojęcie.<br />

Nie ma tu fazy kolejnych wzajemnych przesunięć obydwu<br />

sygnałów w granicach czasu ich trwania i poszukiwania momentu<br />

ich korelacji; w zamian momenty korelacji są tu<br />

„sztywno” określone przez poszczególne sekcje opóźniające.<br />

W układach mnożących obliczane są kolejno, dla tych samych<br />

numerów próbek, iloczyny odpowiednio zmodyfikowanego sygnału<br />

referencyjnego i sygnału echa, a suma tych iloczynów jest<br />

miarą korelacji sygnałów. Załóżmy chwilowo, że wykrywany jest<br />

obiekt o zerowej częstotliwości Dopplera (taki obiekt poruszałby<br />

się po elipsie, której ogniskami są lokalizacje nadajnika i odbiornika).<br />

Echo takiego obiektu jest miniaturową kopią sygnału<br />

nadajnika opóźnioną o czas odpowiadający odległości R s . Wykrycie<br />

tego obiektu spowoduje „wyskok” funkcji korelacji tylko<br />

dla określonej sekcji opóźnienia sygnału referencyjnego - takiej,<br />

gdzie oba sygnały nałożą się dostatecznie dokładnie.<br />

W pozostałych komórkach pojawią się większe (w komórkach<br />

sąsiednich) lub mniejsze (w komórkach bardziej odległych)<br />

resztki sygnału, czyli czasowe listki boczne procesu korelacji.<br />

Zerowy Doppler echa to jednak przypadek bardzo szczególny;<br />

radar musi być przygotowany na odbiór ech wykazujących<br />

dowolną realną częstotliwość Dopplera, które - jak<br />

już było wspominane - nie są kopiami sygnału nadawanego.<br />

Naturalne i domyślne podejście w takim przypadku to konfiguracja<br />

wielokanałowa, w której poszczególne kanały są „nastrojone”<br />

na odpowiednio wąskie pasma wartości F d<br />

pokrywające cały realny ich przedział. Trzeba jednocześnie<br />

zaznaczyć, że taka wielokanałowa konfiguracja musi być zastosowana<br />

po każdym odczepie opóźnienia sygnału referencyjnego.<br />

W ten sposobem dochodzimy do schematu<br />

dwuwymiarowej korelacji pokazanego na rys. 15.<br />

W każdej pionowej gałęzi tego schematu zastosowane<br />

jest szybkie cyfrowe przekształcenie Fouriera, oznaczone bardzo<br />

już utrwalonym w Polsce angielskim skrótem FFT (Fast<br />

Fourier Transform). Jak wiadomo, N-punktowa FFT dekomponuje<br />

sygnał wejściowy na N składowych jego widma, co pokazano<br />

na rys. 15 jako N wyjść o numerach 0, 1, 2…N-1. Im<br />

więcej punktów ma FFT, tzn. im więcej próbek sygnału podda<br />

się tej dekompozycji, tym więcej składowych widma, odpowiednio<br />

węższych, można otrzymać. Z przykładowych 200 tysięcy<br />

próbek jednosekundowej porcji sygnału można uzyskać<br />

teoretycznie 200 tysięcy kanałów częstotliwościowych, każdy<br />

o rozdzielczości będącej odwrotnością jednej sekundy, czyli<br />

1 Hz. W paśmie stacji radiowych FM (długość fali ok. 3 m) odpowiada<br />

to prędkości 3 m/s. Taka rozdzielczość dopplerowska<br />

jest bardzo atrakcyjna i nietrudno zauważyć, że praktycznie<br />

nieosiągalna w tradycyjnych radarach impulsowych.<br />

Ale warto też zauważyć, że FFT sygnału o długości<br />

200 tys. próbek pozwala na jednoznaczny pomiar częstotliwości<br />

Dopplera w zakresie ±100 kHz (połowa częstotliwości<br />

próbkowania); dla 3-metrowej fali przelicza się to na zakres<br />

prędkości ±300 000 m/s - dużo za dużo niż prędkości<br />

osiągane przez realne statki powietrzne. Ten zbędny nadmiar<br />

powodowałby znaczne obciążenie procesu przetwarzania.<br />

Dlatego w praktycznych rozwiązaniach sygnał przed FFT poddaje<br />

się dodatkowej obróbce, w której, po pierwsze, zmniejsza<br />

się liczbę próbek sygnału, pobierając co którąś próbkę zamiast<br />

kolejnych, a po drugie odfiltrowuje częstotliwości Dopplera<br />

nie osiągane przez echa od rzeczywistych obiektów<br />

powietrznych. W danym przypadku można „rozrzedzić” analizowany<br />

ciąg do 2048 próbek (przedtem uzupełniając ciąg<br />

wejściowy zerowymi próbkami, aby miał liczbę próbek będącą<br />

Rys. 15. Realizacja dwuwymiarowej funkcji korelacji R x D<br />

Fig. 15. Implementation of the two-dimensional R x D correlation<br />

function<br />

Rys. 16. Graficzna interpretacja dwuwymiarowej funkcji korelacji<br />

R x D; rysunek zrekonstruowany na podstawie artykułu [5]<br />

Fig. 16. Graphical interpretation of the two-dimensional R x D correlation<br />

function; the graph reconstructed from the article [5]<br />

110 ELEKTRONIKA 11/<strong>2009</strong>


całkowitą potęgą dwójki, gdyż tego wymaga obliczanie FFT),<br />

i odfiltrować składowe poza pasmem ±500 Hz, aby ograniczyć<br />

przedział prędkości obiektów powietrznych do realnych wartości<br />

z zakresu ±1500 m/s, a następnie zrealizować 2048-<br />

punktową FFT. Trzeba podkreślić, że rozdzielczość częstotliwościowa<br />

nie ulegnie w tym procesie żadnemu pogorszeniu,<br />

gdyż czas trwania sygnału pozostaje niezmienny<br />

W wyniku obliczenia FFT dla każdego odczepu ∆R powstaje<br />

dwuwymiarowa macierz sygnału wyjściowego, którą<br />

zilustrowano na rys. 16. Wykryte obiekty są widoczne jako<br />

„szczyty” funkcji korelacji zlokalizowane na płaszczyźnie odległość<br />

- prędkość odpowiednio do mierzonej odległości bistatycznej<br />

i częstotliwości Dopplera.<br />

w czasie nierzeczywistym na bazie sygnałów nadajnika telewizyjnego.<br />

Znane są dwie konstrukcje radaru firmy Lockheed<br />

Martin: Silent Sentry 2 i Silent Sentry 3, skrótowo oznaczanymi<br />

odpowiednio jako SS2 i SS3.<br />

Pierwsza powstała w 1997 r. i obejmowała wersję stacjonarną<br />

z anteną mocowaną na budynkach oraz wersję przewoźną.<br />

W obydwu wersjach zastosowano płaski szyk<br />

antenowy o rozmiarach 9 x2m (rys. 17) do odbioru ech, co<br />

ograniczało przestrzeń wykrywania do sektora ok. 100° w azymucie.<br />

Do odbioru sygnału bezpośredniego z nadajników<br />

służyły dodatkowe anteny Yagi zamontowane powyżej. O SS2<br />

Dalej już jest prawie „normalnie”<br />

Dalsze przetwarzanie sygnału w radarze PCL nie odbiega zasadniczo<br />

od tego, co znamy z typowych radarów impulsowych<br />

- trzeba wydzielić te „szczyty” funkcji korelacji, które można<br />

potraktować jako echa użyteczne, na tle pozostałych „nierówności”.<br />

Znajdują tu zastosowanie typowe techniki detekcji,<br />

a zatem stabilizacja poziomu fałszywego alarmu (SPFA),<br />

np. przez uśrednienie wartości sygnału z otoczenia badanej<br />

komórki, a następnie ustalenie progu detekcji i ewentualnie<br />

jego adaptacyjna regulacja. Różnica w porównaniu do analogicznych<br />

technik z tradycyjnej radiolokacji polega na tym, że<br />

SPFA należy przeprowadzić w dwóch dziedzinach: odległościowej<br />

i częstotliwościowej. Rzecz jasna trzeba pamiętać, że<br />

opisany w ostatnich punktach skomplikowany proces wykrywania<br />

dotyczył ech tylko jednego nadajnika. Aby zapewnić pokrycie<br />

przestrzeni nadające się do praktycznego wykorzystania<br />

i uzyskać jednoznaczną lokalizację wykrytych obiektów,<br />

trzeba ten proces zwielokrotnić dla kilku nadajników.<br />

Wykryte obiekty poddaje się procesowi śledzenia tras,<br />

który też zasadniczo nie różni się od tego, co jest znane z tradycyjnej<br />

współczesnej radiolokacji. Można tylko dodać, że<br />

proces śledzenia jest utrudniony ze względu na słabą rozdzielczość<br />

odległościową radaru PCL bazującego na sygnałach<br />

dostępnych nadajników (pojedyncze kilometry), ale<br />

z drugiej strony mocno wspomaga go bardzo dobra dokładność<br />

i rozdzielczość pomiaru częstotliwości Dopplera, której<br />

nie znają tradycyjne radary. Wobec znacznego ładunku nowości<br />

wynikającej z samej idei PCL opisywanie ogólnie znanych<br />

rozwiązań przetwarzania podetekcyjnego można tu<br />

uznać za zbędne.<br />

Praktyczne realizacje radarów PCL<br />

Jak już było wspomniane wcześniej, technika PCL jest jeszcze<br />

w stadium intensywnego rozwoju i powstało niewiele komercyjnych<br />

rozwiązań. Niemniej jednak kilka takich rozwiązań<br />

jest znanych. Przodujące firmy to amerykański Lockhee Martin,<br />

francuski Thales, europejska korporacja EADS, brytyjska<br />

firma BAE, oraz niemiecka FGAN-FHR. Zostaną tu zaprezentowane<br />

dwa rozwiązania, o których udało się zebrać trochę<br />

interesujących szczegółów.<br />

Silent Sentry<br />

Amerykańska firma Lockheed Martin jako pierwsza zaczęła<br />

oferować radary PCL, znane pod nazwą Silent Centry (cichy<br />

wartownik). Jako ciekawostkę warto wspomnieć, że Lockheed<br />

Martin przejął w latach 80. XX w. oddział IBM, który kilka lat<br />

wcześniej podjął zapomnianą ideę radaru pasywnego i zbudował<br />

radar zdolny do wykrywania i śledzenia samolotów<br />

Rys. 17. Systemy antenowe i aparatura radaru Silent Sentry 2; foto<br />

- Lockheed Martin [9]<br />

Fig. 17. Antenna systems and electronic equipment of the Silent<br />

Sentry 2 radar; photo - Lockheed Martin [9]<br />

ELEKTRONIKA 11/<strong>2009</strong> 111


Rys. 19. Fragment zobrazowania SS3 pokazujący śledzone trasy<br />

celów powietrznych; foto - Lockheed Martin [8]<br />

Fig. 19. Fragment of an SS3 radar picture showing tracked air targets;<br />

photo - Lockheed Martin [8]<br />

można mówić w czasie przeszłym, gdyż w 2002 r. zastąpił go<br />

znacznie nowocześniejszy i bardziej funkcjonalny SS3, ale<br />

obie wersje warto przedstawić, tym bardziej że są one stosunkowo<br />

dobrze opisane w dostępnych materiałach.<br />

Aparaturę SS2 zbudowano z komercyjnie dostępnych<br />

komponentów: procesory firmy Silicon Graphics z oprogramowaniem<br />

analizy sygnału i zobrazowania firmy Autometric<br />

Edge Product Family, a odbiorniki zostały opracowane w Lockheed<br />

Martin z elementów komercyjnych. SS2 przystosowano<br />

do wykorzystania nadajników stacji radiowych FM i nadajników<br />

telewizyjnych. Przy wykorzystaniu jednego nadajnika<br />

radar był zdolny do zgrubnego śledzenia celów powietrznych<br />

w dwóch współrzędnych (azymut, odległość). Podwyższona<br />

dokładność wymagała obróbki sygnału z co najmniej dwóch<br />

nadajników odpowiednio rozlokowanych względem lokalizacji<br />

radaru. Przy obserwacji ech trzech nadajników możliwe było<br />

śledzenie celów w trzech współrzędnych. Radar przystosowano<br />

do współpracy z trzema nadajnikami, przy czym czas<br />

obserwacji ech każdego nadajnika wynosi jedną sekundę.<br />

Według założeń projektantów system powinien wykrywać<br />

cele o powierzchni skutecznej 10 m 2 do odległości 200 km<br />

przy założeniu mocy współpracującego nadajnika 50 kW.<br />

W zależności od odległości celu różne są dokładności jego lokalizacji.<br />

W płaszczyźnie poziomej określa się promień<br />

okręgu, w którym 50% pomiarów jest prawidłowych i dla<br />

100 km ten promień wynosi 650 m przy dwóch współpracujących<br />

nadajnikach. W płaszczyźnie pionowej określa się<br />

przedział wysokości, w którym 50% pomiarów jest prawidłowych;<br />

na odległości 100 km wynosi on ±2000 m. Jak<br />

widać, osiągi tego urządzenia nie są imponujące, zwłaszcza<br />

jeśli uwzględnić fakt, że są one definiowane dla stosunkowo<br />

dużego obiektu powietrznego.<br />

Nowa wersja radaru SS3, to przede wszystkim daleko idąca<br />

miniaturyzacja przy jednocześnie większych możliwościach.<br />

Aparatura wcześniejszej wersji zajmowała cztery duże stojaki<br />

(rys. 17) i pozwalała przetwarzać echa maksymalnie trzech nadajników,<br />

SS3 może współpracować z ośmioma, a jego aparatura<br />

mieści się w trzech blokach o wymiarach walizek<br />

transportowych i jest 3-krotnie tańsza od poprzedniej. Ocenia<br />

się, że najnowsza technologia pozwoli wkrótce zmieścić całą<br />

aparaturę w jednej takiej walizce. Zmieniono również antenę,<br />

która pozwala na obserwację w pełnym zakresie kątów azymutu<br />

i lepiej nadaje się do zastosowań mobilnych. Większa<br />

liczba obsługiwanych nadajników pozwala uzyskać lepsze<br />

dokładności pomiaru współrzędnych. Według podawanych informacji<br />

dokładność lokalizacji w płaszczyźnie poziomej wynosi<br />

250 m, a dokładność pomiaru wysokości - 1000 m.<br />

CORA<br />

Rys. 18. Wygląd zewnętrzny i aparatura radaru Silent Sentry 3;<br />

foto - Lockheed Martin [8]<br />

Fig. 18. General view and equipment of the Silent Sentry 3 radar;<br />

photo - Lockheed Martin [8]<br />

CORA to skrót od Covert Radar. Jest to tzw. demonstrator<br />

technologii opracowany przez Niemiecki <strong>Instytut</strong> Fizyki Wysokich<br />

Częstotliwości i Technik Radarowych Stowarzyszenia<br />

Stosowanych Nauk Przyrodniczych w skrócie FGAN-FHR -<br />

od nazwy niemieckiej [7]. CORA wykorzystuje nadajniki programów<br />

radiofonii cyfrowej w paśmie VHF (150...350 MHz)<br />

i telewizji cyfrowej w paśmie UHF (400...700 MHz). Zestaw<br />

radarowy tworzą przyczepa z rozkładanym systemem antenowym<br />

i mikrobus z aparaturą elektroniczną (rys. 20).<br />

Antena składa się z 16 paneli z elementami promieniującymi<br />

tworzących szyk kołowy. Każdy panel ma dwie<br />

części. Dolna część, ze skrzyżowanymi dipolami, umożliwia<br />

odbiór fali o polaryzacji poziomej i pionowej w paśmie radiofonii<br />

cyfrowej. Każdy element współpracuje z oddzielnym<br />

torem odbiorczym, co pozwala formować cyfrowo wiązkę charakterystyki<br />

kierunkowej w pełnym kącie 360°. Górna część<br />

obsługuje pasmo telewizji cyfrowej o polaryzacji pionowej. Na<br />

każdym panelu są umieszczone dwa elementy w szyku poziomym,<br />

co pozwala formować nimi wiązkę sterowaną w sektorze<br />

azymutalnym ±90°. Alternatywnie w górnej części mogą<br />

być zamontowane elementy pracujące w paśmie radiofonii<br />

cyfrowej; wtedy na każdym panelu są dwa jednakowe elementy<br />

tworzące szyk pionowy, co umożliwia formowanie<br />

wiązki w płaszczyźnie elewacji.<br />

W systemie antenowym umieszczono 16 kompletnych<br />

torów odbiorczych, z których każdy obejmuje część w.cz. ze<br />

wzmacniaczem niskoszumnym i filtrem pasmowym, prze-<br />

112 ELEKTRONIKA 11/<strong>2009</strong>


twornik A/C, cyfrowy filtr wyboru kanału radiowego i układ decymacji.<br />

14-bitowe przetworniki A/C przetwarzają bezpośrednio<br />

sygnał w.cz. z częstotliwością próbkowania 100 MHz.<br />

Ponieważ telewizja cyfrowa wykorzystuje pasmo ok. 8 MHz<br />

wyjściowa częstotliwość próbkowania (po decymacji) też musi<br />

być odpowiednio wyższa niż 200 kHz, które wystarczało do<br />

przetwarzania sygnału analogowej radiofonii FM. W urządzeniu<br />

CORA stosuje się częstotliwość próbkowania 18,4 MHz.<br />

Całą tę aparaturę części antenowej tworzy blok w.cz. i cztery<br />

płyty przetwarzania cyfrowego, po cztery kanały obróbki na<br />

każdej. Strumień danych wyjściowych z każdej płyty jest przesyłany<br />

oddzielnym łączem optycznym do dalszego przetwarzania<br />

w mikrobusie. Oddzielnymi łączami optycznymi<br />

przesyłane są sygnały zegarowe i sterujące.<br />

Cztery strumienie danych z systemu antenowego są<br />

obsługiwane przez cztery serwery Quad Opteron. W każdym<br />

serwerze dane są zapisywane na dwóch twardych dyskach,<br />

każdy o pojemności 1000 GB, co daje w sumie przestrzeń<br />

zapisu 8000 GB. Dalsze przetwarzanie wykorzystuje sieć<br />

twardych dysków RAID (Redundant Array of Independent<br />

Disks) o sumarycznej pojemności ponad 15000 GB. Podane<br />

liczby dają wyobrażenie, jak potężne zasoby muszą być zaangażowane<br />

do sterowania przetwarzaniem sygnału cyfrowego,<br />

formowania charakterystyk antenowych i procesu<br />

korelacji prowadzącego do detekcji echa.<br />

Demonstrator CORA był poddany testom z wykorzystaniem<br />

cyfrowych stacji radiofonicznych (DAB). Uzyskano tzw.<br />

odległość bistatyczną (różnica dróg sygnału echa i sygnału<br />

bezpośredniego) wykrywania samolotów rejsowych do<br />

120 km. Mały samolot Cessna lecący na wysokości 300 m był<br />

wykrywany na odległości bistatycznej 30 km. Na rys. 21 pokazane<br />

są zarejestrowane wykrycia przelatujących samolotów<br />

rejsowych, sięgające odległości bistatycznej 120 km. Powiększony<br />

fragment pokazuje obserwowany przez 7 minut lot samolotu<br />

Cessna w czasie oddalania (ujemny Doppler) - słabiej<br />

widoczny zygzakowaty ślad trasy biegnący prawie pionowo.<br />

Warto zauważyć, że liczba oznaczająca zasięg bistatyczny<br />

właściwie nie daje pojęcia o odległości obiektu od<br />

miejsca, gdzie prowadzi się jego wykrywanie, czyli o tym, co<br />

chciałoby się nazwać tradycyjnie rozumianym zasięgiem. Przy<br />

tej samej odległości bistatycznej odległości obiektu od odbiornika<br />

mogą różnić się kilkakrotnie (por. rys. 6), a zarazem<br />

zmieniają się szanse wykrycia obiektu (por. rys. 8). Nawet jeśli<br />

status demonstratora nie daje możliwości określenia pełnej<br />

lokalizacji obiektu, jego rzeczywistą odległość można łatwo<br />

uzyskać innymi metodami pomiarowymi. Niestety, autorzy<br />

publikujący osiągnięcia swoich rozwiązań PCL z reguły nie<br />

podają tak wydawałoby się oczywistych i istotnych danych.<br />

Być może dlatego, że dzięki temu podawane liczby wyglądają<br />

bardziej optymistycznie.<br />

Rys. 20. Zestaw demonstratora radaru pasywnego CORA; foto -<br />

FGAN-FHR [7,10]<br />

Fig. 20. CORA passive radar demonstrator set; photo - FGAN-FHR<br />

[7,10]<br />

Rys. 21. Zarejestrowane wykrycia samolotów przez radar CORA;<br />

foto - FGAN-FHR [10]<br />

Fig. 21. Aircraft detections recorded by the CORA radar; photo -<br />

FGAN-FHR [10]<br />

ELEKTRONIKA 11/<strong>2009</strong> 113


Zbigniew Czekała jest projektantem urządzeń radiolokacyjnych<br />

w Centrum Naukowo-Produkcyjnym Elektroniki Profesjonalnej<br />

RADWAR SA. od ponad 35 lat. Uczestniczył<br />

w projektowaniu i badaniach kilku generacji radarów wojskowych,<br />

transferując dostępną w danym czasie myśl techniczną<br />

do konkretnych rozwiązań. Jako praktyk dobrze czuje oczekiwania<br />

użytkowników, także od strony opisowej. Jest autorem<br />

wydanej przed 10 laty książki „Parada radarów”, która<br />

została bardzo dobrze przyjęta w szeroko rozumianym środowisku<br />

techników radiolokacji.<br />

W podobnym stylu prezentuje autor zasady działania radiolokacji<br />

pasywnej. Sam doświadczając trudności przestawienia<br />

się z pewnych „kolein” pojęciowych właściwych dla<br />

radaru impulsowego, w wielu miejscach podkreśla istotne<br />

różnice obu technik. Starannie wystrzegając się hurraoptymizmu<br />

charakterystycznego dla propagatorów nowej techniki,<br />

z pozycji całkowicie neutralnej i tylko przy okazji rzetelnego<br />

opisu ukazuje zarówno jej zalety, jak i wady, a także słabe<br />

punkty jeszcze do końca nie wyjaśnione lub przemilczane.<br />

Autor dziękuje kol. dr. hab. inż. Krzysztofowi Kulpie - bez wątpienia<br />

najlepszemu w Polsce znawcy problematyki PCL - za konsultacje<br />

i cenne uwagi przy opracowaniu tego artykułu.<br />

Praca częściowo finansowana przez Narodowe Centrum Badań<br />

i Rozwoju w latach 2007-2010 jako Projekt Badawczy Zamawiany<br />

PBZ-MNiSW-DBO-04/I/2007<br />

Literatura<br />

[1] Howland P. E.: Target tracking using television-based bistatic radar.<br />

IEE Proc. - Radar Sonar and Navigation, vol. 146, no 3, June 1999.<br />

[2] Griffiths H. D., Baker C. J.: Passive coherent location radar systems.<br />

Part 1: Performance prediction. IEE Proc. - Radar, Sonar<br />

and Navigation, vol. 152, no 3, June 2005.<br />

[3] Baker C. J., Griffiths H. D., Papoutsis I.: Passive coherent location<br />

radar systems. Part 2: Waveform properties. IEE Proc. -<br />

Radar Sonar and Navigation,.vol. 152, no 3, June 2005.<br />

[4] Howland P. E., Maksimiuk D., Reitsma G.: FM radio based bistatic<br />

radar. IEE Proc. - Radar, Sonar and Navigation, vol. 152, no<br />

3, June 2005.<br />

[5] Mousavil M. R., A. J., Nayebi M. M.: Fast and Accurate Method<br />

for PCL Radar Detection in Noisy Environment. Proceedings of<br />

the 3rd European Radar Conference, September 2006, Manchester,<br />

UK.<br />

[6] Ringer M. A., Frazer G. J., Anderson S. J.: Waveform Analysis of<br />

Transmitters of Opportunity for Passive Radar. Published by Department<br />

of Defence, Defence Science and Technology Organisation<br />

(DSTO), Electronics and Surveillance Research<br />

Laboratory, Salisbury, Australia, June, 1999.<br />

[7] Kuschel H., Heckenbach J., Müller St., Appel R.: On the potentials<br />

of passive, multistatic, low frequency radars to counter<br />

stealth and detect low flying targets. Radar Conference, 2008.<br />

RADAR ‘08. IEEE.<br />

[8] Lockheed Martin Corp. Silent Sentry. Innovative Technology for<br />

Passive, Persistent Surveillance. http://www.lockheedmartin.<br />

com/data/assets/10644.pdf.<br />

[9] Lockheed Martin Corp. PCL-Silent Sentry Introduction. Passive<br />

radar workshop 2007, FGAN, Wachtberg, Germany, 22<br />

August 2007.<br />

[10] Kuschel H.: Overview of system concepts and general aspects.<br />

Passive radar workshop 2007, FGAN, Wachtberg, Germany, 22<br />

August 2007.<br />

[11] Malanowski M., Mazurek G., Kulpa K., Misiurewicz J.: FM based<br />

PCL radar demonstrator. International Radar Symposium 2007,<br />

Cologne, Germany.<br />

114 ELEKTRONIKA 11/<strong>2009</strong>


System dalekosiężnej identyfikacji i śledzenia statków<br />

dr hab. inż. JERZY CZAJKOWSKI prof. AM, mgr inż. KAROL ŁYSZYK<br />

Akademia Morska w Gdyni<br />

Opisując dziesięciolecie istnienia Światowego Morskiego Systemu<br />

Łączności Alarmowej i Bezpieczeństwa - GMDSS (Global<br />

Maritime Distress and Safety System) w artykule<br />

opublikowanym w numerze 5/<strong>2009</strong> Elektroniki autorzy oprócz<br />

przedstawienia ogólnej charakterystyki systemu, podsystemów<br />

składowych i realizowanych funkcji scharakteryzowali tematykę<br />

obrad Podkomitetu IMO (International Maritime<br />

Organization) ds. radiokomunikacji ratownictwa - COMSAR<br />

(Communication Search and Rescue). Podkomitet ten na<br />

przestrzeni ostatnich dziesięciu lat podejmował sprawy które<br />

związane były z ciągłym rozwojem systemu GMDSS - zarówno<br />

dotyczących nowych technologii, jak i systemów zwiększających<br />

bezpieczeństwo żeglugi. Między innymi w artykule<br />

wspomniano o radiowych systemach do ochrony statków<br />

i portów, a jednym z nich jest - system dalekosiężnej identyfikacji<br />

i śledzenia statków - LRIT (Long Range Identification and<br />

Tracking of chips), którego powstanie było związane z terrorystycznymi<br />

zamachami 11 września 2001 r. w Stanach Zjednoczonych.<br />

Chociaż system ten nie jest podsystemem<br />

składowym GMDSS - to korzysta z rozwiązań radiokomunikacyjnych,<br />

które stanowią istotę jego działania. Zadaniem<br />

tego systemu jest stworzenie globalnego monitoringu ruchu<br />

statków w celu poprawienia bezpieczeństwa żeglugi. Celem<br />

artykułu jest przedstawienie zarówno założeń teoretycznych<br />

systemu LRIT jak i jego charakterystyka techniczna.<br />

Ogólna koncepcja systemu<br />

Koncepcja utworzenia systemu LRIT była szczegółowo rozpatrywana<br />

przez Podkomitet COMSAR podczas licznych sesji w latach<br />

2001-2007. Rozpatrywano architekturę systemu, która miała<br />

składać się z licznych baz danych (narodowych, regionalnych)<br />

opartych na współpracy międzynarodowej. Bazy te powinny być<br />

zdolne do wymiany danych pomiędzy sobą poprzez centrum wymiany<br />

danych oraz dostarczenia informacji LRIT użytkownikom<br />

systemu (państwom członkowskim lub służbom SAR).<br />

Podkomitet zaakceptował również główne wymagania stawiane<br />

bazom danych:<br />

• gromadzenie i archiwizowanie informacji przesyłanych<br />

przez statki, które wybrały jedną z baz,<br />

• dostarczanie swoim użytkownikom stosownych informacji<br />

z LRIT,<br />

• uzyskiwanie (gdy zajdzie taka potrzeba) informacji LRIT<br />

z innej bazy z wykorzystaniem międzynarodowego centrum<br />

wymiany danych,<br />

• wykonanie lub retransmitowanie, gdy jest to konieczne,<br />

żądania transmisji informacji LRIT.<br />

Komitet Bezpieczeństwa Morskiego MSC (Maritime Safety<br />

Committee) działający w IMO i zatwierdzający wyniki prac<br />

Podkomitetu COMSAR w odniesieniu do systemu LRIT podjął<br />

istotne decyzje w dziedzinie:<br />

Rys.1. Ilustracja architektury systemu LRIT<br />

ELEKTRONIKA 11/<strong>2009</strong> 115


• wytypowaniu statków zobowiązanych do przesyłania informacji,<br />

• zawartości przesyłanych informacji,<br />

• poufności informacji LRIT,<br />

• dostępności do informacji przez państwa członkowskie,<br />

• specyfikacji technicznej komponentów systemu LRIC:<br />

- międzynarodowego centrum wymiany danych IDE (International<br />

Data Exchange),<br />

- międzynarodowej bazy danych IDC (International Data<br />

Centre),<br />

• komunikacji wewnątrz systemu LRIT,<br />

• sporządzania protokołów z testowania systemu LRIT oraz<br />

z integracji nowych baz danych do systemu.<br />

Ostateczny kształt systemu LRIT został przyjęty przez Komitet<br />

Bezpieczeństwa Morskiego i zatwierdzony w okólniku<br />

MSC.1/1219. Na rys. 1 przedstawiono ostateczną architekturę<br />

systemu LRIT.<br />

Komitet MSC postanowił powołać koordynatora systemu<br />

LRIT, który byłby zobowiązany do dokonywania przeglądów<br />

określonych funkcji systemu oraz przeprowadzania badań<br />

oraz dokonywania analizy prawdziwości i rzetelności informacji.<br />

Koordynatorem tym została organizacja IMSO (International<br />

Mobile Satelite Organization) Międzynarodowa<br />

Organizacja Ruchomej Łączności Satelitarnej.<br />

Struktura i zasada działania systemu LRIT<br />

Konfiguracja systemu, jego części składowe oraz ich współzależność<br />

logiczną przedstawiono na rys. 2.<br />

Jak wynika z rysunku 2 system składa się z:<br />

• urządzeń statkowych wykorzystywanych do transmisji<br />

danych,<br />

• dostawców usług radiokomunikacyjnych CSP (Communication<br />

Service Provider),<br />

• dostawców usług aplikacyjnych ASP (Application Service<br />

Provider),<br />

• krajowych, regionalnych i międzynarodowych baz danych<br />

obejmujących systemy monitorowania statków VMS (Vessel<br />

Monitoring System). Bazy te zwane są centrum danych<br />

LRIT (LRIT Data Centres),<br />

• międzynarodowego centrum wymiany danych - IDE (International<br />

Data Exchange),<br />

• użytkowników systemu LRIT (Data Users).<br />

Funkcjonowanie systemu jest następujące:<br />

Informacje LRIT dostarczane ze statków, których współrzędne<br />

geograficzne ich położenia są określane za pomocą satelitarnego<br />

systemu nawigacji satelitarnej - przekazywane są państwom<br />

członkowskim oraz instytucji SAR upoważnionych do<br />

odbioru informacji. Wiadomości te przekazywane są za pośrednictwem<br />

dostawcy usług aplikacyjnych (ASP) przy wykorzystaniu<br />

infrastruktury radiokomunikacyjnej zapewnionej<br />

przez dostawcę usług radiokomunikacyjnych (CSP). Autoryzowany<br />

ASP po odbiorze informacji ze statku przeprowadza<br />

jego identyfikację, a następnie w postaci przekazu danych dostarcza<br />

do odpowiedniej bazy danych systemu LRIT. Bazy danych<br />

gromadzą i przechowują informacje uzyskane od<br />

statków, przeprowadzają analizę w oparciu o wytyczne zawarte<br />

w planie dystrybucji danych LRIT (DDP - Data Distribution<br />

Plan) - określają użytkowników systemu i informacje te<br />

przekazują. Ponadto tzw. niemiędzynarodowe centra mogą<br />

jednocześnie uzupełniać systemy monitoringu statków (VMS)<br />

lub też służbę kontroli ruchu statków (VTS).<br />

Struktura LRIT w założeniu posiada międzynarodowe centrum<br />

wymiany danych umożliwiające rozprowadzanie informacji<br />

między bazami zgodnie z planem dystrybucji.<br />

Uproszczony schemat LRIT przedstawiono na rys. 3.<br />

Rys. 3. Uproszczony schemat LRIT<br />

Charakterystyka funkcjonalnych<br />

składowych LRIT<br />

Dostawca usług aplikacyjnych ASP<br />

Rys. 2. Schemat systemu LRIT<br />

Usługi aplikacyjne prowadzone są wobec:<br />

• narodowych baz danych, ustanowionych i zaaprobowanych<br />

przez administrację państwa członkowskiego,<br />

• regionalnych bądź współpracujących baz danych, ustanowionych<br />

i zaaprobowanych przez administrację państw<br />

członkowskich,<br />

116 ELEKTRONIKA 11/<strong>2009</strong>


• międzynarodowej bazy danych, uznanej przez Komitet<br />

Bezpieczeństwa Morskiego (MSC).<br />

Państwa członkowskie przedkładają IMO spis dostawców<br />

usług aplikacyjnych (ASP) wraz z danymi kontaktowymi i warunkami<br />

ich uznania.<br />

Organizacja potwierdza te informacje, ponadto przekazuje<br />

identyczne dane o dostawcy usług aplikacyjnych, powołanego<br />

dla międzynarodowej bazy danych, państwom członkowskim,<br />

międzynarodowemu centrum wymiany danych, koordynatorowi<br />

systemu, a także pozostałym bazom LRIT: narodowym,<br />

regionalnym bądź kooperującym.<br />

Funkcje dostawców usług aplikacyjnych ASP (Application<br />

Service Provider):<br />

• prowadzą protokół łącza komunikacyjnego pomiędzy dostawcami<br />

usług radiokomunikacyjnych CSP (Communication<br />

Service Provider(s)), a bazą danych LRIT, aby<br />

realizować następujące zadania:<br />

- zdalnej integracji sprzętu statkowego danych LRIT,<br />

- automatycznej konfiguracji transmitowanych informacji<br />

LRIT,<br />

- automatycznej zmiany odstępów pomiędzy kolejnymi<br />

transmisjami,<br />

- automatycznego zawieszenie transmisji informacji LRIT,<br />

- wysyłania informacji na żądanie,<br />

- automatycznego odbioru i zarządzania transmisją,<br />

• prowadzą system zarządzania operacjami monitorowania<br />

przepustowości i przebiegu informacji LRIT,<br />

• zapewniają gromadzenie danych LRIT, ich przechowywanie<br />

i kierowanie w niezawodny i bezpieczny sposób.<br />

Dostawcy usług radiokomunikacyjnych<br />

Dostawcy usług radiokomunikacyjnych odpowiadają za<br />

łączność pomiędzy poszczególnymi segmentami systemu<br />

LRIT stosują protokoły komunikacyjne, w celu zapewnienia<br />

Parametry<br />

Identyfikacja statku<br />

Nazwa statku<br />

Matryca czasowa nr 2<br />

Matryca czasowa nr 3<br />

Identyfikator bazy<br />

danych LRIT<br />

Matryca czasowa nr 4<br />

Matryca czasowa nr 5<br />

Tab. 1. Informacje uzupełniane przez ASP<br />

Uwagi<br />

Numer identyfikacji statkowej IMO<br />

i numer MMSI (Maritime Mobile Service<br />

Identity) - identyfikator morskiej służby<br />

ruchomej<br />

Nazwa statku w języku angielskim, przy<br />

wykorzystaniu liter łacińskich i systemu<br />

kodującego UTF-8<br />

Data i czas transmisji informacji LRIT<br />

odebranej przez ASP (występuje dla<br />

określonego rodzaju komunikacji)<br />

Data i czas odebranej w informacji LRIT,<br />

którą przesłano z ASP do odpowiedniej<br />

bazy danych LRIT (występuje dla<br />

określonego rodzaju komunikacji)<br />

Identyfikacja bazy danych LRIT<br />

dokonywana jest za pomocą unikalnego<br />

identyfikatora<br />

Data i czas transmisji informacji LRIT<br />

odebranej przez bazę danych LRIT<br />

Data i czas informacji LRIT przesłanej<br />

z bazy danych LRIT do użytkownika<br />

całkowitego bezpieczeństwa podczas przesyłania informacji<br />

LRIT, wykluczone jest zastosowanie systemu nadawania niezabezpieczonego.<br />

Dostawcy usług aplikacyjnych uzupełniają informacje LRIT<br />

o dane przedstawione w tabeli 1.<br />

Dodatkowo administracja, państwo członkowskie i Komitet<br />

mogą ustalić szczególne wymagania wobec którychkolwiek<br />

dostawców usług aplikacyjnych.<br />

Bazy danych LRIT<br />

Wymagania stawiane wszystkim bazom danych:<br />

• ustanowienie i stałe utrzymanie systemu w sposób, który<br />

zapewni nieprzerwane dostarczanie informacji tylko uprawnionym<br />

użytkownikom LRIT (LRIT Data Centres - DCs),<br />

• gromadzenie informacji LRIT ze statków określonych przez<br />

administrację państwa,<br />

• uzyskanie przez jedną bazę danych, po żądaniu, wiadomości<br />

LRIT innej bazy danych z udziałem międzynarodowego<br />

centrum wymiany danych,<br />

• udostępnienie przez jedną bazę danych po żądaniu, wiadomości<br />

LRIT innej bazie danych przez system wymiany<br />

informacji LRIT (IDE),<br />

• wykonanie żądania otrzymanego od użytkownika LRIT dotyczące<br />

odzewu lub zmiany odstępów pomiędzy transmisjami<br />

informacji LRIT, które kierowane są do statku lub<br />

grupy statków przypisanych do tej bazy danych,<br />

• przekazanie żądania odebranego od użytkownika LRIT,<br />

przy udziale centrum wymiany danych dla odzewu informacji<br />

LRIT (tzw. polling) lub w celu zmiany odstępów pomiędzy<br />

transmisjami informacji LRIT, które kierowane są<br />

do statku lub grupy statków przypisanych innej bazie,<br />

• rozpowszechnienie na żądanie użytkownikom LRIT informacji<br />

odpowiednio zaaranżowanej i zgłoszenie użytkownikom<br />

LRIT lub administracji o zatrzymaniu transmisji<br />

informacji LRIT z określonego statku,<br />

• archiwizowanie informacji LRIT ze statków za okres przynajmniej<br />

jednego roku,<br />

• i aż do czasu kiedy Komitet oceni, a następnie zaakceptuje<br />

coroczne sprawozdanie z przeprowadzonej przez koordynatora<br />

LRIT kontroli funkcjonowania systemu LRIT.<br />

Wszak, archiwizowane informacje LRIT powinny dostarczać<br />

pełny zapis wszelkich czynności bazy w okresie pomiędzy<br />

dwoma kolejnymi kontrolami,<br />

Tab.2. Wymagania łącznościowe stawiane bazom danych<br />

Warunek<br />

Używanie standardowego<br />

protokołu komunikacyjnego oraz<br />

uzgodnionych protokołów w celu<br />

zapewnienia łączności z...<br />

Zastosowanie standardowych<br />

metod ochrony transmisji<br />

realizowanych z...<br />

Stosowanie bezpiecznych metod<br />

legalizacji z...<br />

Używanie standardowego formatu<br />

wiadomości z zastosowaniem<br />

trybu rozkazującego przy<br />

komunikacji z...<br />

Element składowy systemu<br />

- międzynarodowym centrum<br />

wymiany danych (IDE)<br />

- serwerem planu rozdziału<br />

danych (DDP)<br />

- międzynarodowym centrum<br />

wymiany danych (IDE),<br />

- serwerem planu rozdziału<br />

danych (DDP)<br />

użytkownikiem danych LRIT<br />

- międzynarodowym centrum<br />

wymiany danych (IDE),<br />

- serwerem planu rozdziału<br />

danych (DDP)<br />

ELEKTRONIKA 11/<strong>2009</strong> 117


• używanie właściwego osprzętu i oprogramowania do<br />

sporządzania w regularnych odstępach zapasowej kopii informacji<br />

LRIT, ich magazynowania w pobocznych komórkach<br />

pamięci, które to w sytuacji awaryjnej będą dostępne<br />

w sposób możliwie najszybszy, aby utrzymać ciągłość<br />

transmisji,<br />

• utrzymanie listy statków, które transmitują informacje LRIT<br />

do bazy. Lista powinna zawierać nazwę statku, numer<br />

identyfikacyjny IMO, sygnał wywoławczy oraz numer MMSI<br />

- identyfikator morskiej służby ruchomej,<br />

• użycie niezawodnego łącza (np. typu TCP 4 ) transmisji informacji<br />

LRIT,<br />

• zdolność do uzupełniania informacji LRIT o dane z tabeli 2.<br />

podczas każdej transmisji,<br />

• posiadanie dostępu do obecnego planu rozdziału danych<br />

(DDP), a także do wcześniejszych wersji,<br />

• wymagania stawiane bazie danych w relacji do innych elementów<br />

systemu LRIT zebrano w tabeli 2.<br />

Środki radiokomunikacyjne w systemie LRIT<br />

Realizacja łączności w systemie LRIT odbywa się w złożonej<br />

sieci różnorodnych połączeń pomiędzy poszczególnymi komponentami,<br />

w których ma miejsce przesyłanie wiadomości<br />

LRIT. W zależności od rodzaju wiadomości przy jej przetwarzaniu<br />

uczestniczą różne elementy składowe systemu. Inaczej<br />

wygląda przebieg informacji LRIT dla standardowego<br />

zawiadomienia o pozycji, inaczej dla wiadomości żądanej,<br />

a zupełnie inaczej dla pomocniczej.<br />

W praktyce wykorzystano 3 segmenty komunikacji, które<br />

zostały ze sobą zintegrowane:<br />

1. morski, czyli nadawanie informacji z ruchomych stacji -<br />

statków,<br />

2. kosmiczny poprzez pośredniczenie stacji satelitarnych<br />

w przekazie informacji,<br />

3. lądowej sieci połączeń od stacji naziemnej, która odbiera<br />

informacje do użytkowników tych informacji.<br />

Fundamentalną regułą komunikowania się w systemie<br />

LRIT jest dobór takiego systemu komunikacyjnego, który zapewni<br />

przesyłanie informacji o statkach z każdego miejsca na<br />

kuli ziemskiej, które odbywają podróże międzynarodowe w<br />

obszarach Al, A2, A3 oraz A4. W ten sposób dano możliwość<br />

tworzenia medium otwartego, które nie zostało ograniczone<br />

do jednego określonego typu.<br />

Na tej podstawie wykorzystano dwa rodzaje komunikacji:<br />

1. radiokomunikacja naziemna z wykorzystaniem pasma fal<br />

krótkich HF,<br />

2. radiokomunikacja satelitarna: INMARSAT - będąca częścią<br />

składową systemu GMDSS oraz system IRYDIUM.<br />

IRYDIUM korzysta z systemu satelitów niskoorbitalnych<br />

rozmieszczonych na wysokości 780 km w liczbie 66. Krążą<br />

one na 6 orbitach w płaszczyznach biegunowych w równomiernych<br />

odstępach od Ziemi oraz nawzajem od siebie. Ustawione<br />

są w logicznym układzie, który zapewnia dobrą<br />

widzialność satelitów z powierzchni Ziemi. Pojedynczy satelita<br />

okrąża Ziemię w ciągu 100 minut z prędkością ok.<br />

27 000 km/h. W momencie, gdy satelita znika z pola widzenia,<br />

transmisja przekazywana jest innemu - będącemu w zasięgu<br />

widzialności.<br />

Satelity tworzą sieć połączeń między sobą z terminalami<br />

ruchomymi oraz ze stacjami naziemnymi. Każdy z nich<br />

połączony jest do czterech innych - z dwoma na tej samej orbicie<br />

oraz dwoma z orbit na płaszczyznach sąsiednich. Pomiędzy<br />

satelitami występuje kanał prowadzenia rozmów.<br />

Między satelitą a stacją naziemną utrzymywana jest łączność<br />

Rys. 4. Realizacja łączności w systemie IRYDIUM<br />

sygnalizacyjna oraz informacyjna. Satelita z abonentem (tutaj<br />

terminalem statkowym) prowadzi transmisję w odpowiednich<br />

odcinkach czasowych. Z kolei stacje naziemne poprzez<br />

układy komutacyjne włączone są w sieć lądową.<br />

Strukturę łączności w systemie IRYDIUM dla morskiego<br />

abonenta przedstawiono na rys. 4.<br />

Łącza międzysatelitarne działają w paśmie 23 GHz i wykorzystują<br />

cztery anteny. System IRYDIUM stosuje zasadę<br />

wielokrotnego dostępu FDMA/TDMA. Podporządkowane<br />

ramki TDMA oraz algorytmów analizy i syntezy powoduje<br />

opóźnienie około 90 ms przy łączności terminal naziemny -<br />

terminal kosmiczny. Satelita używa anteny z 48 wiązkami, którymi<br />

może sterować. Pozwala to skoncentrować promień<br />

w odpowiednim momencie czasowym na obszarze określonej<br />

komórki. Transmisja odbywa się we wspomnianym odcinku<br />

czasowym do/od abonenta (statek morski) w paśmie L,<br />

za pomocą modulacji QPSK.<br />

Statkowe urządzenia radiowe systemu LRIT<br />

Do przekazywania informacji w systemie LRIT mogą być wykorzystywane<br />

urządzenia radiowe systemu GMDSS, pod warunkiem<br />

iż muszą spełniać następujące wymagania:<br />

• zdolność do automatycznej i niewymagającej ludzkiej ingerencji<br />

na statku transmisji informacji LRIT, w zadanych<br />

odstępach czasowych (np. co 6 godzin) - do bazy danych<br />

LRIT,<br />

• możliwość zmiany częstotliwości przesyłania informacji<br />

w odstępach od 15-minutowych do 6-godzinnych,<br />

• możliwość transmisji informacji LRIT po odebraniu komendy<br />

typu polling (tryb odzewowy),<br />

• posiadać łącze bezpośrednie z globalnym systemem satelitarnym,<br />

bądź zamontowanym wewnętrznym systemom<br />

pozycjonowania statku z włączeniem czasu, w którym<br />

określana była pozycja statku,<br />

• posiadać jednoznaczną identyfikację urządzenia radiokomunikacyjnego<br />

pozwalającą na jednoznaczne określenie<br />

źródła z którego informacja była nadana,<br />

• spełniać warunki rezolucji A.813(19) odnośnie elektromagnetycznej<br />

kompatybilności wszystkich elektrycznych<br />

i elektronicznych urządzeń,<br />

• korzystać z systemu radiokomunikacyjnego, który zapewnia<br />

pokrycie całości obszaru, w którym statek odbywa<br />

podróże,<br />

• w przypadku odbywania podróży na obszarach morskich<br />

powyżej szerokości geograficznej 70º może być dla potrzeb<br />

LRIT stosowany system IRYDIUM.<br />

118 ELEKTRONIKA 11/<strong>2009</strong>


Podsumowanie<br />

System LRIT jest systemem, który umożliwia licznym podmiotom<br />

w pełni wywiązywać się z ich zadań w zakresie:<br />

• bezpieczeństwa nawigacji,<br />

• poszukiwania i ratowania osób w niebezpieczeństwie,<br />

• ochrony środowiska,<br />

• zapobiegania aktom przestępczym, w tym terrorystycznym<br />

w portach i na morzach.<br />

System globalnej obserwacji w swoim założeniu ma<br />

przede wszystkim poprawiać bezpieczeństwo państw nadbrzeżnych<br />

i państw do których zawijają statki, poprzez dostarczanie<br />

informacji o ruchu statków z wystarczającym<br />

wyprzedzeniem czasowym tak, aby konkretne państwo było<br />

w stanie podjąć odpowiednie działania.<br />

Literatura<br />

[1] Czajkowski J., Korcz K.: Dziesięciolecie systemu GMDSS w<br />

świetle obrad Podkomitetu IMO-COMSAR <strong>Elektronika</strong> nr 5,<br />

<strong>2009</strong>.<br />

[2] Łyszyk K.: Koncepcja systemu dalekosiężnej identyfikacji i śledzenia<br />

statków - LRIT. Praca dyplomowa AM Gdynia - czerwiec<br />

<strong>2009</strong>.<br />

[3] Rezolucja MSC.264(84), 16 maja 2008 r.: Establishment of the<br />

International LRIT Data Exchange on an interim basic.<br />

[4] Rezolucja MSC.276(85), 05 grudnia 2008 r.: Operation of the international<br />

LRIT data exchange on an interim basic.<br />

[5] Okólnik MSC.1/Circ.1259, 8 grudnia 2008 r.: Long range Identification<br />

and Tracking System, Technical Documentation (part I).<br />

[6] Wawruch R.: Światowy system identyfikacji i śledzenia statków.<br />

Przegląd Telekomunikacyjny nr 1, <strong>2009</strong>.<br />

Szkło dla fotoniki. Część 14.<br />

Parametry szklanego włókna optycznego<br />

dr hab. inż. RYSZARD ROMANIUK prof. PW<br />

Politechnika Warszawska, <strong>Instytut</strong> Systemów <strong>Elektronicznych</strong><br />

Rodzaje szklanych włókien optycznych<br />

Szklane włókno optyczne jest popularnie uważane za dość prosty<br />

optyczny lub optoelektroniczny obiekt pasywny przeznaczony<br />

do transmisji fali EM. W powszechnym rozumieniu<br />

parametry włókna optycznego decydujące o jego wszystkich<br />

właściwościach to: tłumienność, średnica i refrakcja. W sensie<br />

ekonomicznym znaczną dominantę stanowią włókniste szklane<br />

światłowody telekomunikacyjne wytwarzane zaledwie w kilku<br />

podstawowych rodzajach ściśle opisanych przez stosowne<br />

normy przemysłowe. Wśród światłowodów telekomunikacyjnych<br />

dominującą ekonomicznie grupą są skompensowane dyspersyjnie<br />

światłowody jednomodowe szerokopasmowe<br />

przeznaczone do transmisji fali optycznej z podziałem falowym<br />

DWDM. Drugim głównym rodzajem włókien telekomunikacyjnych<br />

są znacznie tańsze światłowody wielomodowe przeznaczone<br />

do budowy sieci lokalnych, w tym typu Ethernet IP LAN.<br />

Coraz większe znaczenie zaczyna odgrywać w technice<br />

światłowodowej rozszerzająca się grupa optycznych włókien<br />

szklanych instrumentalnych (ze szkła nieorganicznego i organicznego)<br />

o znacznej i szybko powiększającej się rozmaitości<br />

rodzajów. Współczesny szklany światłowód włóknowy do zastosowań<br />

instrumentalnych, wymagających zaawansowanego<br />

przetwarzania fali optycznej, staje się jednym z najbardziej zaawansowanych<br />

obiektów inżynierii materiałowej.<br />

Światłowody telekomunikacyjne<br />

Celem światłowodu telekomunikacyjnego jest niezniekształcona,<br />

niskostratna transmisja, na ogół wielokrotnego, modulowanego<br />

metodami WDM oraz TDM, cyfrowego sygnału<br />

optycznego. Możliwość umieszczenia większej ilości kanałów<br />

transmisyjnych WDM w światłowodzie jednomodowym zależy<br />

od jednorodności spektralnej jego pasma transmisji.<br />

Oznacza to brak w materiale światłowodu wąskich pasm absorpcji<br />

związanych z zanieczyszczeniami. Szerokie wielokanałowe<br />

pasmo transmisyjne wymaga niskiej dyspersji chromatycznej<br />

sygnału we włóknie szklanym. Dyspersja chromatyczna<br />

jest parametrem złożonym ze składnika materiałowego<br />

i falowodowego. Składnik falowodowy zależy od<br />

różnicowej dyspersji materiałowej pomiędzy rdzeniem i płaszczem<br />

oraz od konstrukcji włókna. Składnik falowodowy dyspersji<br />

może kompensować punktowo lub pasmowo składnik<br />

materiałowy. Istotą kompensacji dyspersyjnej szklanego<br />

włókna optycznego jest obniżenie dyspersji całkowitej w paśmie<br />

najniższych strat włókna. Pozostawienie pewnej dyspersji<br />

resztkowej jest korzystne z punktu widzenia występowania<br />

we włóknie nieliniowych zjawisk optycznych. W przypadku<br />

całkowitego braku dyspersji fale optyczne o różnych<br />

częstotliwościach we włóknie optycznym łatwiej spełniają warunek<br />

synfazowości, konieczny dla wystąpienia wielu koherentnych<br />

(fazowych) zjawisk nieliniowych. W przypadku<br />

istnienia dyspersji fale te ulegają ciągłej wzajemnej precesji<br />

utrudniając spełnienie warunku fazy.<br />

Kolejnym kryterium i związanym z nim grupą parametrów<br />

jest jak najniższy poziom przesłuchu pomiędzy sąsiadującymi<br />

transmitowanymi pasmami falowymi. Brak przesłuchów wymaga<br />

jak najniższego poziomu indukowanych nierezonansowych<br />

optycznych zjawisk nieliniowych w szkle światłowodu.<br />

Z kolei możliwość upakowania jak największej ilości<br />

kanałów falowych (nazywanych kanałami o różnych kolorach)<br />

wymaga przesyłania włóknem szklanym jak największej gęstości<br />

mocy optycznej. Po przekroczeniu pewnej, charakterystycznej<br />

dla danego rodzaju szkła, wartości gęstości mocy,<br />

następuje samoistna generacja różnych zjawisk nieliniowych.<br />

Niektóre z tych zjawisk prowadzą do generacji nowych fal<br />

o przesuniętych częstotliwościach optycznych sumacyjnych<br />

i różnicowych wobec częstotliwości fal wejściowych. Prowadzi<br />

to do silnego wzrostu przesłuchów międzykanałowych<br />

i zaniku transmisji WDM.<br />

ELEKTRONIKA 11/<strong>2009</strong> 119


W jednomodowym szklanym włóknie transmisyjnym nie<br />

tyle istotny jest wymiar rdzenia optycznego (zdefiniowany przy<br />

pomocy profilu refrakcyjnego), ile efektywna średnica modowa.<br />

Zazwyczaj jest ona nieco (światłowody o dużym kontraście<br />

refrakcyjnym) lub znacznie większa (włókna o małym<br />

kontraście) od średnicy rdzenia. Średnica modu podstawowego<br />

i kontrast określają odporność włókna na mikrozgięcia,<br />

straty łączenia oddzielnych odcinków włókna. Duża efektywna<br />

średnica modu podstawowego pozwala na upakowanie większej<br />

ilości kanałów WDM w takim włóknie z powodu zmniejszenia<br />

gęstości mocy optycznej w rdzeniu.<br />

Światłowody izotropowe<br />

W praktyce takie światłowody idealne - dokładnie izotropowe<br />

- nie istnieją. Każda technologia wprowadza rezydualną niejednorodność<br />

kształtu, anizotropię refrakcyjną, optyczną, niejednorodności<br />

mechaniczno-termiczne, chemiczne, gęstości<br />

i składu lokalnego szkła, itp. Tego typu niejednorodności dotyczą<br />

w znacznym stopniu światłowodów jednomodowych, na<br />

ogół przeznaczonych dla celów telekomunikacyjnych, tzn.<br />

o znacznej długości. Niejednorodności wprowadzane we<br />

włókno szklane przez rzeczywistą technologię w różny sposób<br />

przekładają się na użytkowe parametry światłowodu. Rezydualna<br />

eliptyczność rdzenia powoduje rozdzielenie dwóch polaryzantów<br />

modu podstawowego. Przypadkowy rozkład<br />

eliptyczności wzdłuż włókna (lub innego rodzaju zaburzeń<br />

średnicy) powoduje fluktuacje polaryzacji fali optycznej. Fluktuacje<br />

polaryzacji z kolei są powodem dalszych zjawisk we<br />

włóknie jednomodowym, jak polaryzacyjnie zależne straty<br />

transmitowanej fali. Inne niejednorodności np. naprężeń mechanicznych<br />

i indukowanych termicznie przekładają się na<br />

fluktuacje anizotropii refrakcyjnej i w rezultacie na szum fazowy<br />

transmitowanej fali.<br />

Światłowody instrumentalne<br />

Coraz większą grupę pod względem ekonomicznym stanowią<br />

szklane włóknowe światłowody instrumentalne. Wiele z tych<br />

rodzajów włókien szklanych służy do transmisji sygnałów analogowych<br />

w odróżnieniu od transmisji wyłącznie sygnałów cyfrowych<br />

w światłowodach telekomunikacyjnych. Obejmują one<br />

trzy główne grupy światłowodów: aktywne, przeznaczone do<br />

budowy elementów funkcjonalnych fotoniki światłowodowej<br />

oraz czujnikowe. Te trzy grupy szklanych włókien optycznych<br />

podlegają intensywnemu rozwojowi pod względem technologicznym,<br />

stosowanych materiałów, konstrukcji i możliwości zastosowań.<br />

Szklane światłowody instrumentalne, w odróżnieniu<br />

od w miarę jednorodnych włókien telekomunikacyjnych, posiadają<br />

zupełnie odmienne parametry pomiędzy różnymi typami<br />

przeznaczonymi dla różnych celów. Następuje ich ciągła<br />

dywersyfikacja typów, rodzajów i konstrukcji. Wiele z nich jest<br />

uczulanych na pewne rodzaje fizykochemicznych oddziaływań<br />

zewnętrznych podczas, gdy inne są znieczulane na pewne<br />

grupy oddziaływań zewnętrznych.<br />

Światłowody polaryzujące<br />

Jednym z ważnych i powszechnie stosowanych w układach<br />

optycznych rodzajów światłowodów instrumentalnych są<br />

szklane włókna optyczne polaryzujące. Są to szklane włókna<br />

optyczne jednomodowe, w których poprzez zamrożone nie izotropowe<br />

mechaniczne naprężenie wewnętrzne wprowadzono<br />

anizotropię optyczną. Istnienie takiej anizotropii prowadzi do<br />

możliwości usunięcia jednego polaryzanta modu podstawowego.<br />

Światłowód jest jednomodowy jednopolaryzacyjny, w odróżnieniu<br />

od światłowodu jednomodowego izotropowego.<br />

Światłowód jednomodowy izotropowy prowadzi dwa polaryzanty<br />

ortogonalne modu podstawowego lewo i prawoskrętną.<br />

Światłowody dziurawe<br />

Szklane włókno optyczne posiada otwór ciągnący się wzdłuż<br />

włókna, położony osiowo symetrycznie (światłowody kapilarne),<br />

bądź położony niesymetrycznie w pobliżu rdzenia<br />

optycznego (światłowód z bocznym otworem). Światłowód kapilarny<br />

może być wypełniony niskostratnym płynem tworzącym<br />

ciekły rdzeń optyczny. W otworze może być<br />

transmitowana metodą fotoniczną fala optyczna i materialna<br />

fala deBroglia. W otworze bocznym w pobliżu rdzenia można<br />

oddziaływać na propagowaną falę zanikającą.<br />

Światłowody deBroglia<br />

Rodzaj kapilarnych szklanych włókien optycznych, w których<br />

fala materialna koherentnych zimnych atomów jest prowadzona<br />

ciemną wiązką światła. Ciemna wiązka światła posiada<br />

minimum natężenia na osi światłowodu. Wiązka światła jest odstrojona<br />

w częstotliwości od pasm absorpcji transmitowanych<br />

atomów w taki sposób, że atomy są utrzymywane na osi wiązki.<br />

Światłowody aktywne<br />

Światłowody aktywne służą do budowy laserów światłowodowych,<br />

wzmacniaczy optycznych dyskretnych o znacznym<br />

wzmocnieniu jednostkowym [dB/m W] i rozłożonych o niewielkim<br />

wzmocnieniu właściwym, a zatem o znacznej długości.<br />

Szklane włókna aktywne są wykonywane z niskostratnych<br />

szkieł światłowodowych domieszkowanych jonami aktywatorami,<br />

jak jony ziem rzadkich. Dobór szkła osnowy jest podstawą<br />

do budowy efektywnego lasera światłowodowego<br />

bowiem w niektórych szkłach pewne poziomy laserowe nie<br />

mogą być ujawnione ze względu na wpływ struktury energetycznej<br />

osnowy a w szczególności dużą wartość energii fali fononowej<br />

w szkle. Lasery i wzmacniacze światłowodowe<br />

działają z wykorzystaniem następujących dwóch głównych<br />

mechanizmów: samowzmacniania emisji stymulowanej<br />

w określonym paśmie częstotliwości (analogicznie do klasycznych<br />

laserów objętościowych) oraz stymulowanego niezależnego<br />

od pasma nieelastycznego rozpraszania Ramana<br />

(wzmacniacze Ramana). Szklane włókno aktywne musi łączyć<br />

w sobie pod względem technologicznym i konstrukcyjnym jednocześnie<br />

kilka funkcji optycznych. Możliwość sprawnego<br />

pompowania optycznego zapewnia wielomodowa konstrukcja<br />

obszaru pompowanego włókna o niesymetrycznym kształcie<br />

tak, aby jak największa część mocy była sprzęgana do jednomodowego<br />

obszaru generacji lub wzmacniania. Szklane<br />

włókno aktywne o tak skomplikowanej strukturze konstrukcyjnej,<br />

materiałowej, refrakcyjnej i termiczno-mechanicznej musi<br />

posiadać zwierciadła Bragga na obu końcach (lub w pewnych<br />

fragmentach swojej długości) w celu zapewnienia sprzężenia<br />

zwrotnego dla akcji laserowej. Zapisanie siatki Bragga wewnątrz<br />

tak skomplikowanej, wielowarstwowej i niejednorodnej<br />

struktury jest bardzo trudnym zagadnieniem technologicznym.<br />

Światłowody fotoniczne<br />

Włókna optyczne fotoniczne są wykonywane ze szkieł fotonicznych<br />

(nazywanych częściej kryształami fotonicznymi). Są<br />

to materiały o mieszanej strukturze: mikroskopowo amorficz-<br />

120 ELEKTRONIKA 11/<strong>2009</strong>


nej i makroskopowo morficznej. Propagacja światła jest determinowana<br />

nie bezpośrednio przez refrakcję, ale przez<br />

strukturę materiału. Struktura materiału jest zdefiniowana<br />

przez periodyczny rozkład znacznego kontrastu refrakcji, na<br />

ogół między szkłem i powietrzem. Wymiar charakterystycznej<br />

struktury kontrastu refrakcji i defektów w tej strukturze jest<br />

rzędu połowy długości propagowanej fali optycznej. Fala<br />

optyczna jest propagowana mechanizmem refrakcyjnym<br />

w defekcie struktury fotonicznej lub przy pomocy mechanizmu<br />

refleksyjno-dyfrakcyjno-interferencyjnego, w tzw. tworzonym<br />

w materiale paśmie fotonicznym będącym analogiem pasma<br />

dozwolonego i zabronionego dla elektronów w półprzewodniku.<br />

Parametrami światłowodowego szkła fotonicznego jest<br />

kontrast refrakcji, okres i kształt zaburzenia fotonicznego, rodzaj<br />

defektu struktury fotonicznej, rodzaj fotonicznego pasma<br />

zabronionego, gęstość struktury fotonicznej.<br />

Istotnym parametrem jest gęstość struktury fotonicznej.<br />

W granicznym przypadku gęstości bardzo małej, fala świetlna<br />

jest prowadzona w znacznej mierze w powietrzu (próżni, impregnacie),<br />

a nie w szkle.<br />

Światłowody Bragga poprzeczne i podłużne<br />

Szklane włókna optyczne można uczulać na oddziaływanie<br />

fali UV w taki sposób, że metodą interferencyjną lub siatki fazowej<br />

tworzona jest wewnątrz włókna w miarę trwała siatka<br />

refrakcyjna Bragga o relatywnie niewielkim kontraście refrakcyjnym.<br />

Włókna z poprzeczną siatką Bragga stanowią filtry<br />

i selektywne zwierciadła rozłożone o niewielkiej szerokości<br />

spektralnej rzędu nm i znacznej wysokości rzędu kilkudziesięciu<br />

dB. Włókna szklane o podłużnej osiowo symetrycznej<br />

siatce Bragga są w pewnym sensie analogami światłowodów<br />

fotonicznych.<br />

Światłowody dużej mocy<br />

Szklane włókna optyczne o odpowiedniej konstrukcji mogą<br />

służyć do transmisji dużej mocy fali optycznej w różnych zakresach<br />

spektralnych, głównie średniej i dalekiej podczerwieni.<br />

Światłowody dużej mocy powinny posiadać relatywnie<br />

dużą średnicę rdzenia, jak najmniejsze straty, w tym brak zlokalizowanych<br />

defektów. Przy dużych poziomach transmitowanej<br />

mocy włókna szklane powinny być efektywnie<br />

chłodzone np. cieczą. Powinny być zabezpieczone przed wyjściem<br />

wiązki światła poza włókno szklane. Typowe zastosowania<br />

włókien szklanych dużej mocy to: oświetleniowe, do<br />

zdalnej detonacji, zapłonu optycznego, zasilania optycznego,<br />

spawania, cięcia, jako lancety medyczne, itp.<br />

Światłowody nieliniowe<br />

Szkło światłowodowe jest charakteryzowane przy pomocy<br />

nieliniowego współczynnika refrakcji (a także nieliniowego<br />

współczynnika absorpcji), zależnej od natężenia transmitowanej<br />

fali optycznej. Współczynnik nieliniowości włókna<br />

optycznego zależy dodatkowo od efektywnej średnicy pola<br />

modowego (w światłowodzie jednomodowym) oraz od średnicy<br />

rdzenia (w światłowodzie wielomodowym). Światłowodowe<br />

szkła niskorefrakcyjne posiadają jednocześnie<br />

niewielką wartość nieliniowego współczynnika refrakcji.<br />

Ogólnie światłowody nieliniowe można podzielić na dwie<br />

główne grupy: nierezonansowe i rezonansowe. Zjawiska nieliniowe<br />

we włóknach szklanych dzielimy ponadto na amplitudowe<br />

(niezależne od fazy) oraz fazowe (koherentne) ściśle<br />

zależne od fazy oddziaływujących czynników (kilku fal<br />

optycznych, sprzężonego fononu i fotonu, itp.). Inna klasyfikacja<br />

rozróżnia zjawiska nieliniowe refrakcyjne i absorpcyjne,<br />

wzajemnie zależne od siebie poprzez całkowe<br />

relacje Kramersa-Kroniga.<br />

W światłowodach nieliniowych nierezonansowych występują<br />

optyczne zjawiska parametryczne pierwszego i wyższych<br />

rzędów. Zjawiska nieliniowe nierezonansowe są związane<br />

z wirtualnym pobudzeniem szkła światłowodu o zakresie<br />

energetycznym nie przekraczającym pasma zabronionego.<br />

Pobudzenie może być statyczne lub dynamiczne i może mieć<br />

sprzężony charakter elektromagnetyczny, magnetyczny, elektryczny,<br />

termiczny i mechaniczny. Niektóre z tych rodzajów<br />

pobudzeń prowadzą do częściowej, chwilowej, lokalnej morfizacji<br />

szkła rdzenia światłowodu i najczęściej związane są<br />

z procesami fotonowo-fononowymi. Nieliniowe zjawiska nierezonansowe<br />

pierwszego rzędu obejmują np. optyczny efekt<br />

Kerra, mikrosoczewkowanie, samomodulację fazy, skrośną<br />

modulację fazy, mieszanie zdegenerowane i niezdegenerowane<br />

czterofalowe (ogólnie wielofalowe), przemianę częstotliwości<br />

w tym upkonwersję, nieelastyczne rozpraszanie fali<br />

spontaniczne lub stymulowane w tym rozpraszanie Brillouina<br />

i Ramana. Zjawiskiem wyższego rzędu jest np. generacja superkontinuum<br />

optycznego w światłowodzie.<br />

Jednym z fazowych zjawisk nieliniowych w szklanym<br />

włóknie optycznym jest generacja impulsu solitarnego (solitonu)<br />

z normalnego impulsu dyspersyjnego. Soliton podczas<br />

propagacji wzdłuż włókna nie podlega zmianom kształtu czyli<br />

dyspersji. Naturalne rozszerzenie impulsu optycznego jest<br />

kompensowane przez zapadanie się (zawężanie) impulsu<br />

spowodowane zjawiskiem nieliniowym. Ciekawym zagadnieniem<br />

jest propagacja we włóknie szklanym gęstego ciągu solitonów<br />

femtosekundowych.<br />

Światłowody nieliniowe rezonansowe<br />

Zjawiska nieliniowe rezonansowe wysokoenergetyczne<br />

w szkle światłowodu, związane są ze sprzężonymi procesami<br />

elektronowo-fotonowymi i ewentualnie fononowymi. Występują<br />

one w warunkach silnego lub słabego kwantowego ograniczenia<br />

objętościowego rozważanego obiektu nieliniowego.<br />

Dotyczą przejścia przez całe pasmo zabronione szkła<br />

osnowy. Związane są często z domieszką aktywującą w szkle<br />

i tworzeniem pasm pułapkowych w paśmie zabronionym szkła<br />

osnowy. Takie szkło jest w pewnym sensie materiałem kompozytowym,<br />

zawierającym np. nanokrystality lub jony (molekuły)<br />

aktywatora otoczone osnową amorficzną.<br />

Światłowody z metaszkieł<br />

Dodatkowa założona komplikacja takiej struktury amorficzno-morficznej,<br />

w celu otrzymania konkretnych właściwości<br />

refrakcyjnych, prowadzi do metamateriału i metaszkła<br />

o anomalnych właściwościach dyspersyjnych i refrakcyjnych.<br />

Komplikacja struktury metaszkła może np. polegać na otoczeniu<br />

nanokrystalitu (podlegającemu kwantowemu ograniczeniu<br />

objętościowemu) przez lokalną osnowę amorficzną<br />

o zupełnie innych właściwościach od amorficznej osnowy<br />

globalnej. Osnowa lokalna tworzy odpowiednie warunki<br />

sprzężenia fotonowo-fononowego lub plazmonowego.<br />

Osnowa globalna tworzy odpwoiednią strukturę mechaniczną<br />

i optyczną włókna, tak aby fala optyczna mogła być<br />

efektywnie transmitowana niskostratnie na odpowiednią odległość.<br />

Zjawiska nieliniowe rezonansowe są związane z rezonansami<br />

ekscytonowymi i plazmonowymi, transmisją<br />

polaronów i polarytonów, itp.<br />

ELEKTRONIKA 11/<strong>2009</strong> 121


Światłowody scyntylacyjne<br />

W środowiskach o podwyższonym poziomie promieniowania jonizującego<br />

wykorzystywane są do pomiarów rozłożonych<br />

światłowody scyntylacyjne. Domieszka scyntylacyjna (najczęściej<br />

w światłowodzie z PMMA) jest powodem generacji światła we<br />

włóknie. Generowane światło jest prowadzone z sieci czujników<br />

światłowodowych do detektorów promieniowania. Optyczna sieć<br />

pomiarowa włókna integruje promieniowanie jonizujące w znacznym<br />

obszarze z możliwością badania rozkładu przestrzennego.<br />

Światłowody Czerenkowa<br />

Szklane włókna optyczne Czerenkowa są analogiczne do ultraniskostratnych<br />

wielomodowych światłowodów telekomunikacyjnych,<br />

tylko posiadają większą wartość apertury numerycznej.<br />

Umieszczenie takiego światłowodu w obszarze rozprzestrzeniania<br />

się lub rozpraszania wysokoenergetycznych cząstek elementarnych<br />

np. elektronów powoduje generację w światłowodzie<br />

promieniowania Czerenkowa. Promieniowanie Czerenkowa<br />

detekowane na końcu matrycy światłowodów pozwala na<br />

pomiar energii cząstek i kierunku ich rozprzestrzeniania się.<br />

Elastyczne obrazowody światłowodowe<br />

Rozdzielczość elastycznych obrazowodów światłowodowych<br />

złożonych z wielu luźnych włókien szklanych o niewielkiej średnicy<br />

rzędu 20 µm, osiąga kilkaset tysięcy pikseli przy wymiarach<br />

poprzecznych rzędu pojedynczych mm i podłużnych rzędu<br />

2 m. Włókna nie mogą splątać się ani elektryzować we wspólnej<br />

obudowie. Są pokryte środkiem poślizgowym i zapobiegającym<br />

przesłuchom optycznym pomiędzy nimi, np. grafitem.<br />

Podstawowe parametry to rozdzielczość w parach linii na mm,<br />

odporność mechaniczna, neutralność barwowa, odporność na<br />

promieniowanie RTG, integracja ze światłowodami oświetlającymi,<br />

itp. Wydaje się, że bezpośrednie systemy endowizyjne<br />

w medycynie i technice będą w przyszłości bazowały na<br />

subminiaturowych detektorach ccd i zimnym oświetleniu led.<br />

Światłowody funkcjonalne<br />

Włókna optyczne funkcjonalne obejmują rozszerzające się spektrum<br />

elementów takich jak: sprzęgacze, rozgałęziacze, elementy<br />

gradientowe typu grin, transformatory modowe, i wiele innych.<br />

Światłowody czujnikowe<br />

Włókna optyczne uczulane, specjalizowane do detekcji wielkości<br />

mechanicznych i termicznych; optycznych jak refrakcji<br />

i koloru, mętności, strat; chemicznych jak stężenia jonów;<br />

geometrycznych jak kształtu, odległości, pozycji, ruchu, itp.<br />

Światłowody znieczulane<br />

W pewnym sensie odwrotnością światłowodów czujnikowych<br />

są włókna optyczne znieczulane uodporniane na konkretne<br />

oddziaływania np. na promieniowanie jonizujące, atermiczne<br />

dla dystrybucji wzorcowych sygnałów zegarowych, itp.<br />

Światłowody krótkie<br />

Odmienna specyfika zastosowań takich światłowodów każe wyróżnić<br />

je spośród innych rodzajów włókien szklanych. Mogą<br />

służyć do szybkich multigigabitowych połączeń optycznych wewnątrz<br />

szaf elektroniki, pomiędzy płytami a nawet wewnątrz płyt.<br />

Moc optyczna w szkle światłowodowym<br />

Podstawowym przeznaczeniem niskostratnego szkła światłowodowego<br />

jest niezniekształcona transmisja ciągłej fali lub<br />

modulowanego sygnału optycznego, o dość znacznej gęstości<br />

mocy optycznej, na znaczne odległości. Szkło jest uformowane<br />

w postaci włókna optycznego o cylindrycznym<br />

gradiencie refrakcji. Moc optyczna jest ograniczona refrakcyjnie<br />

w szkle klasycznym lub dyfrakcyjnie i interferencyjnie<br />

w szkle fotonicznym do obszaru rdzenia optycznego o typowej<br />

średnicy w światłowodach transmisyjnych 50...62,5 µm<br />

(pole fali optycznej jest równe obszarowi rdzenia) we włóknie<br />

wielomodowym i ok. 5...10 µm we włóknie jednomodowym<br />

(pole fali optycznej jest nieco większe od obszaru rdzenia -<br />

ze względu na w wnikanie w obszar płaszcza). W światłowodach<br />

szklanych przeznaczonych do transmisji dużej mocy<br />

optycznej średnica rdzenia jest większa np. 100...700 µm.<br />

W transmisyjnych szklanych włóknach optycznych, szczególnie<br />

jednomodowych, gęstość mocy optycznej może być<br />

znaczna, na pograniczu efektów nieliniowych w szkle, z powodu<br />

małej powierzchni rdzenia optycznego. Dlatego istotna<br />

jest znajomość zasad wprowadzania mocy optycznej i jej<br />

ilości do włókna optycznego ze szkła światłowodowego.<br />

Dla szklanego włókna optycznego z gradientem refrakcji<br />

można zdefiniować przestrzeń fazową o współrzędnych:<br />

kwadrat apertury numerycznej NA 2 jako rzędną i odległość radialną<br />

od osi włókna szklanego w kwadracie r 2 jako odciętą.<br />

Ta przestrzeń definiuje moc optyczną możliwą do wprowadzenia<br />

we włókno szklane. Przestrzeń ta dla szkła światłowodowego<br />

jest ograniczona poprzez wartość apertury<br />

numerycznej włókna, zmiany apertury numerycznej lokalnej,<br />

oraz przez promień rdzenia optycznego a. Maksymalna wartość<br />

apertury numerycznej (z definicji) występuje w szklanym<br />

włóknie gradientowym na osi, gdyż ogólnie zachodzi we<br />

włóknie gradientowym zależność NA = NA(r) i zwyczajowo za<br />

NA (bez oznaczeń) przyjmuje się wartość NA(r = 0) = sinθ max ,<br />

gdzie θ max - maksymalny kąt akceptacji promienia światła<br />

przez włókno szklane. Wartość apertury numerycznej w szklanym<br />

włóknie optycznym gradientowym, na granicy rdzeń -<br />

płaszcz, tam gdzie ulega zrównaniu refrakcja obu obszarów<br />

NA(a) = 0. Efektywna część przestrzeni fazowej jest tym obszarem,<br />

w którym moc optyczna może się rozprzestrzeniać<br />

w szkle bez tzw. strat falowodowych. Straty falowodowe to są<br />

straty we włóknie nie wynikające z absorpcji fali optycznej<br />

w szkle, a z wypromieniowania na zewnątrz szkła. Cała efektywna<br />

przestrzeń fazowa szklanego włókna optycznego może<br />

być podzielona na pewne podobszary, związane z charakterystycznymi<br />

wielkościami NA, a oraz strat falowodowych. Na<br />

rysunku przedstawiono obrazy przestrzeni fazowych dla<br />

włókien optycznych ze szkieł światłowodowych o dwóch<br />

różnych gradientach refrakcji - skokowym i parabolicznym.<br />

W szklanym włóknie optycznym z gradientem refrakcji,<br />

w którym istnieje efektywny mechanizm objętościowego<br />

ograniczenia kwantowego fali świetlnej, rozprzestrzeniające<br />

się wewnątrz promienie światła można zgrupować w kilka<br />

kategorii. Po pierwsze dzielimy promienie na silnie związane<br />

z włóknem szklanym (podlegające silnemu ograniczeniu<br />

kwantowemu) oraz słabo związane z włóknem (podlegające<br />

ograniczeniu coraz słabszemu aż w ogóle nie podlegające<br />

takiemu ograniczeniu). Wszystkie promienie zajmują obszar<br />

ograniczony prostokątem - rys. a dla włókna szklanego<br />

o skokowym profilu refrakcji i trójkątny dla profilu refrakcji<br />

parabolicznego - rys. b. Nie koniecznie cały dostępny obszar<br />

w przestrzeni fazowej włókna szklanego musi być pobudzony.<br />

Na rys. c przedstawiono przypadek pobudzenia<br />

122 ELEKTRONIKA 11/<strong>2009</strong>


a)<br />

b)<br />

c)<br />

włókna szklanego falą świetlną tylko do połowy wartości<br />

apertury numerycznej oraz do połowy promienia obszaru<br />

rdzeniowego.<br />

Na rysunku d jako i i ii oznaczono promienie światła ściśle<br />

związane z włóknem szklanym, czyli ściśle podlegające ograniczeniu<br />

kwantowemu. W tym, i- są to promienie niskiego rzędu<br />

znajdujące się cały czas wzdłuż włókna szklanego blisko jego<br />

osi. Jako ii- oznaczono promienie wysokiego rzędu odległe od<br />

osi włókna szklanego, a bliskie granicy obszarów szkła rdzeńpłaszcz.<br />

Jako iii - oznaczono promienie światła częściowo<br />

związane z włóknem szklanym, słabo podlegające ograniczeniu<br />

kwantowemu. Moc optyczna takich promieni powoli opuszcza<br />

włókno szklane, stąd mówimy o nich jako o promieniach<br />

radiacyjnych, co jest równoważne z ich wysokimi stratami. Na<br />

rysunku zaznaczono umownie wzrastający poziom strat radiacyjnych<br />

promieni światła słabo związanych z włóknem szklanym.<br />

W ujęciu optyki geometrycznej mówimy, że te promienie<br />

posiadają kaustykę na promieniowanie. Im promienie są słabiej<br />

związane z włóknem tym ta kaustyka jest bardziej odległa od<br />

osi światłowodu i tym głębiej wchodzi w obszar płaszcza. Kaustyka<br />

promieni niskiego rzędu (i) tworzy powierzchnię cylindryczną<br />

(lub elipsoidalną) znajdującą się całkowicie wewnątrz<br />

obszaru szkła rdzeniowego i położoną blisko osi włókna. Kaustyka<br />

promieni wyższego rzędu powoli zbliża się do granicy<br />

szkieł rdzeń-płaszcz. Po przekroczeniu tej granicy promienie<br />

światła o takiej kaustyce zaczynają wypromieniowywać moc<br />

optyczną na zewnątrz włókna szklanego. Ilość i sposób wypromieniowywanej<br />

fali świetlnej z włókna szklanego (przez powierzchnię<br />

boczną) zależy od sposobu i zakresu (obszaru)<br />

przecięcia kaustyki z granicą szkieł rdzeń-płaszcz.<br />

Grupy parametrów szklanego włókna<br />

optycznego<br />

d)<br />

Przestrzeń fazowa (obszar pobudzania mocą optyczną w przekroju<br />

poprzecznym) dla optycznego, wielomodowego włókna szklanego;<br />

a) włókno szklane o skokowej zmianie refrakcji, b) włókno szklane<br />

o parabolicznej zmianie refrakcji, c) pobudzenie połowiczne włókna<br />

szklanego mocą optyczną do wartości połowy kąta aperturowego<br />

włókna, d) zobrazowanie rodzajów fal (skwantowanych promieni<br />

światła) w optycznym włóknie szklanym: i i ii - promienie silnie<br />

związane z włóknem szklanym niskiego i wysokiego rzędu, iii - promienie<br />

słabo związane z włóknem szklanym<br />

Phase space of a multimode optical fiber defined as a geometrical<br />

and angular area in the fiber cross section excited by optical<br />

power; Angular acceptance capabilities of optical fiber is defined<br />

by numerical aperture NA and geometry by diameter of optical core<br />

2a; a) optical fiber of step index profile; b) optical fiber of parabolic<br />

refractive index profile; c) excitation of an optical fiber up to the<br />

half value of numerical aperture; d) imaging of optical fiber wave<br />

modes: i and ii wave modes strongly bound to the optical fiber refractive<br />

structure, iii - wave modes weakly bound to the fibre -<br />

called leaking<br />

Szkło światłowodowe w postaci objętościowej i najczęściej<br />

bez gradientu refrakcji nie ma sensu. W niniejszym artykule<br />

rozpatrujemy szkło światłowodowe w postaci objętościowej<br />

wyłącznie jako forma przejściowa preformy światłowodowej<br />

prowadząca do wytworzenia szklanego włókna optycznego.<br />

Tak więc rozpatrywanie właściwości szkła światłowodowego<br />

jest równoważne z rozpatrywaniem tego szkła w postaci<br />

włókna optycznego. To zmienia wiele, a podstawowe przyczyny<br />

to znaczna długość drogi optycznej fali świetlnej w szkle<br />

oraz poprzeczne ograniczenie refrakcyjne i geometryczne dla<br />

fali. Parametry szklanego włókna optycznego zawierają grupy<br />

wielkości mechanicznych, termicznych, optycznych i wrażliwościowych,<br />

analogicznych do parametrów wyjściowego<br />

szkła światłowodowego, a oprócz tego zawierają wiele wielkości<br />

związanych wyłącznie ze strukturą włóknistą ośrodka<br />

szklanego. Te ostatnie parametry nazywamy falowodowymi<br />

(światłowodowymi).<br />

Wśród parametrów światłowodowych można wyróżnić<br />

wielkości materiałowe i sygnałowe:<br />

• parametry czasowe i częstotliwościowe: grupowy czas<br />

opóźnienia, pasmo, dyspersja materiałowa, falowodowa,<br />

chromatyczna, dyspersja profilu refrakcji, dyspersja polaryzacyjna,<br />

• parametry energetyczne: gęstość transmitowanej mocy<br />

optycznej, poziom zjawisk nieliniowych, rozpraszanie stymulowane,<br />

• parametry refrakcyjne i falowe: długość fali odcięcia, polaryzacja,<br />

średnica pola modowego, profil refrakcyjny,<br />

tłumienność i zakres spektralny przezroczystości,<br />

• parametry wrażliwościowe: czułość na oddziaływania środowiskowe,<br />

trwałość, dewitryfikacja, itp.<br />

ELEKTRONIKA 11/<strong>2009</strong> 123


Parametry materiałowe szklanego włókna<br />

optycznego<br />

Materiały składowe szkła wyjściowego na włókno optyczne<br />

determinują podstawowe właściwości szkła wieloskładnikowego.<br />

Parametrami są tu: zawartość i układ podstawowych<br />

tlenków (fluorków) szkłotwórczych, zawartość tlenków (fluorków)<br />

modyfikatorów, poziomy domieszkowania szkła aktywatorami,<br />

skład chemiczny, dobór szkieł do układu płaszczrdzeń,<br />

parametry różnicowe układu szkieł rdzeń-płaszcz, itp.<br />

Fundamentalne znaczenie dla właściwości włókna szklanego<br />

mają parametry różnicowe szkieł składowych. Przede wszystkim<br />

szkła muszą być dobrane pod względem refrakcyjnym<br />

oraz mechaniczno-termicznym.<br />

Geometria szklanego włókna optycznego<br />

Geometria włókna optycznego obejmuje takie parametry jak<br />

średnicę rdzenia i płaszcza, średnice innych obszarów pomocniczych<br />

(makro- i mikrootworów, obszarów szkła naprężającego,<br />

itp.) w światłowodzie. Kształt rdzenia na ogół cylindryczny może<br />

być także eliptyczny lub złożony kompozytowy jednomodowowielomodowy<br />

jak w światłowodach aktywnych.<br />

Refrakcja szklanego włókna optycznego<br />

i parametry optyczne<br />

Parametry optyczne włókna szklanego obejmują: aperturę numeryczną,<br />

częstotliwość znormalizowaną, długość fali odcięcia,<br />

refrakcje bazowe (piedestałowe) i przyrostowe, refrakcje<br />

różnicowe bezwzględne i względne, efektywną średnicę modową<br />

rdzenia, maksymalną dopuszczalną gęstość mocy<br />

optycznej, przezroczystość spektralną, podatność na zjawiska<br />

nieliniowe, itp.<br />

Dyspersja szklanego włókna optycznego<br />

i parametry czasowe<br />

Dyspersja szklanego włókna optycznego posiada kilka różnych<br />

składników: międzymodowy, wewnątrzmodowy, polaryzacyjny,<br />

materiałowy i falowodowy, chromatyczny. Część ze składników<br />

podlega kompensacji wzajemnej lub z efektami nieliniowymi. Parametrami<br />

dyspersyjnymi włókna szklanego są: długość fali zerowej<br />

dyspersji chromatycznej, przesunięcie dyspersji, spłaszczenie<br />

charakterystyki dyspersji, pasmo dyspersji spłaszczonej,<br />

rodzaj spłaszczenia - jednopunktowe, dwupunktowe, wielopunktowe;<br />

pochodne refrakcji grupowej. Parametrami dyspersyjnymi<br />

wyższego rzędu są: wyższe pochodne refrakcji<br />

grupowej, dyspersja profilu refrakcyjnego, itp. Parametrami czasowymi<br />

są dyspersja w dziedzinie czasu, rozszerzenie (lub inne<br />

zniekształcenie) impulsu propagowanego w światłowodzie, itp.<br />

Tłumienie szklanego włókna optycznego<br />

Charakterystyka spektralna transmisji włókna optycznego, jej<br />

szczegółowy kształt dla poszczególnych obszarów widma<br />

transmisji decyduje o możliwościach zastosowania światłowodu<br />

w systemie WDM lub do celów instrumentalnych.<br />

Parametry termiczne i mechaniczne szklanego<br />

włókna optycznego<br />

Parametry mechaniczne i termiczne szklanego włókna<br />

optycznego to: liniowa rozszerzalność termiczna, termiczna<br />

dyspersja refrakcji, dylatacyjna zmiana długości drogi optycznej<br />

we włóknie szklanym, odporność na szok termiczny dla<br />

włókien aktywnych, dopasowanie termiczno-mechaniczne dla<br />

układu szkieł rdzeń-płaszcz, itp.<br />

Wrażliwość środowiskowa szklanego włókna<br />

optycznego<br />

Wrażliwość środowiskowa obejmuje między innymi takie parametry<br />

jak: odporność na narażenia chemiczne włókna<br />

optycznego w pokryciu indywidualnym i obudowie, odporność<br />

na zaburzenia elektromagnetyczne transmisji optycznej, odporność<br />

na mikrozgięcia i naprężenia mechaniczne, zmiany<br />

termiczne, promieniowanie jonizujące, itp.<br />

Parametry szklanego włókna optycznego<br />

kablowanego<br />

W zastosowaniach praktycznych szklane włókno optyczne jedynie<br />

relatywnie rzadko występuje w postaci odsłoniętej. Takie<br />

przypadki dotyczą np. czujników światłowodowych w których<br />

warunkiem koniecznym procesu pomiarowego jest oddziaływanie<br />

czynnika zewnętrznego na powierzchnię szkła.<br />

Zazwyczaj włókno szklane znajduje się wewnątrz struktury<br />

kabla o odpowiedniej do zastosowania konstrukcji. Bezpośrednie<br />

zabezpieczenie włókna jest np. miękko-twarde.<br />

W tabeli zebrano podstawowe parametry syntetycznego<br />

ultraniskostratnego, krzemionkowego szkła światłowodowego<br />

dostępnego w postaci preformy oraz włókien optycznych wyciąganych<br />

z takiego szkła światłowodowego niedomieszkowanego<br />

i słabo domieszkowanego. W niektórych miejscach<br />

tabeli zawarto porównanie odpowiednich parametrów szkieł<br />

i światłowodów SiO 2 oraz ZBLAN. Wydawałoby się zwykłe<br />

ukształtowanie szkła światłowodowego we włókno optyczne<br />

z poprzecznym gradientem refrakcji (bez gradientu wzdłużnego)<br />

nie może aż tak komplikować i wzbogacać właściwości<br />

takiej struktury szkła. Z tabeli widać, że to nie jest prawda.<br />

Szklane światłowodowe włókno optyczne jest elementem<br />

optycznym o bardzo skomplikowanych właściwościach, o dziesiątkach<br />

powiązanych ze sobą parametrach optycznych, mechanicznych,<br />

termicznych, wrażliwościowych, itp. A główne<br />

parametry włókna szklanego są zdeterminowane przez wyjściowe<br />

szkła światłowodowe (co najmniej dwa n 1 i n 2 lub wbudowany<br />

gradient refrakcji n(r)) wprowadzający obszar<br />

ograniczenia refrakcyjnego (energetycznego) dla fali oraz<br />

przez strukturę geometryczną wprowadzającą obszar ograniczenia<br />

objętościowego r max = a, a ≈ λ. Współmierność tych<br />

ograniczeń w szkle światłowodowym z długością transmitowanej<br />

fali optycznej prowadzi do zjawisk kwantowych - nieobecnych<br />

w takiej postaci w izorefrakcyjnym, izotropowym<br />

optycznym szkle objętościowym.<br />

Podsumowanie<br />

Współczesne światłowody włóknowe podlegają ciągłemu<br />

różnicowaniu rodzajów, optymalizowanych do zastosowania.<br />

Światłowody telekomunikacyjne są poddane ścisłemu rygorowi<br />

przemysłowego procesu normalizacji. Wprowadzenie nowego<br />

rodzaju światłowodu wymaga uzgodnień normalizacyjnych<br />

w szerokiej skali. Światłowody instrumentalne nie<br />

podlegają takiemu rygorowi. Rodzajów takich światłowodów<br />

jest coraz więcej. Wykonywane są ze szkieł tlenkowych, halogenkowych,<br />

chalkogenkowych, mieszanych, dewitryfikatów,<br />

szkieł fotonicznych, metaszkieł. Obecnie w technice trwa dalszy<br />

silny proces dywersyfikacji rodzajów szkieł na światłowody<br />

instrumentalne oraz rodzajów tych światłowodów.<br />

124 ELEKTRONIKA 11/<strong>2009</strong>


ELEKTRONIKA 11/<strong>2009</strong> 125


126 ELEKTRONIKA 11/<strong>2009</strong>


ELEKTRONIKA 11/<strong>2009</strong> 127


Literatura<br />

[1] Yamane M., Asahara Y.: Glasses for photonics. Cambridge University<br />

Press, 2000.<br />

[2] Agraval G.P.: Nonlinear fiber optics. Academic Press, Boston<br />

1989.<br />

[3] Fournier J., Snitzer E.: The nonlinear refractive index of glasses.<br />

IEEE J. on Quantum Electronics, May 1974, vol. 10, issue 5, pp.<br />

473-475.<br />

[4] Weber M.J.: Handbook of optical materials. CRC Press, New<br />

York, 2003.<br />

[5] Musikant S, Thompson B. J.: Optical materials. A series of advances,<br />

vol. 1, Marcel Dekker, New York, 1999.<br />

[6] Szwedowski A.: Materiałoznawstwo optyczne i optoelektroniczne.<br />

WNT, Warszawa, 1996.<br />

[7] Szwedowski A., Romaniuk R.: Szkło optyczne i fotoniczne, właściwości<br />

techniczne. WNT, Warszawa <strong>2009</strong>.<br />

128 ELEKTRONIKA 11/<strong>2009</strong>


Wpływ konstrukcji cyfrowych układów scalonych<br />

na generację zaburzeń elektromagnetycznych<br />

dr JULIUSZ SZCZĘSNY<br />

<strong>Instytut</strong> Technologii Elektronowej, Warszawa<br />

W artykule przedstawiono wyniki pomiarów emisji zmiennych<br />

pól EM w funkcji częstotliwości taktowania, generowanych<br />

przez układy scalone w formie matryc FPGA, zawierające<br />

często spotykane bloki funkcjonalne, rozmieszczone<br />

w różnych miejscach struktury półprzewodnikowej [1,2]. Opracowano<br />

w tym celu dwa projekty układów scalonych mających<br />

za zadanie mnożenie liczb w nieskończonej pętli programowej.<br />

Pierwszy z projektów wykorzystywał algorytm mnożenia<br />

kombinacyjnego a drugi sekwencyjnego. Projekty te były dodatkowo<br />

modyfikowane w celu zmiany liczby i topologii aktywnych<br />

bramek logicznych. Każdy projekt układu scalonego<br />

był implementowany do matrycy cyfrowej Xilinx typu XCV 800.<br />

Zmiany konfiguracji oraz liczby bloków funkcjonalnych wykorzystywanych<br />

przez każdy z projektów pozwoliły określić<br />

wpływ ich rozmieszczania na indukcyjność doprowadzeń,<br />

a tym samym na poziom generowanych zaburzeń.<br />

Układy pomiarowe<br />

Do badania wykorzystano matrycę cyfrową firmy Xilinx z rodziny<br />

Virtex, typu XCV 800. Jej podstawową zaletą w tego typu<br />

badaniach jest możliwość wielokrotnego programowania tzn.<br />

zmiany konfiguracji bloków logicznych za pomocą firmowego<br />

oprogramowania, zainstalowanego w zewnętrznym komputerze<br />

typu PC [3,4]. Matryca (800 000 bramek [5]) jest układem<br />

scalonym wielkiej skali integracji, wykonanym w technologii<br />

CMOS 0,22 µm z pięcioma poziomami metalizacji.<br />

Płytka obwodu aplikacyjnego została wykonana z laminatu<br />

jednowarstwowego i zawiera podstawowe obwody elektryczne<br />

i wyprowadzenia umożliwiające matrycy cyfrowej stabilną<br />

pracę i komunikację z zewnętrznymi urządzeniami.<br />

Sondy pomiarowe<br />

Do pomiarów emisji EM wykorzystano mikrosondę magnetyczną<br />

i elektryczną firmy Langer EMV-Technik. Mikrosonda<br />

elektryczna typu RF 2,5-2 przeznaczona jest do pomiarów<br />

zmiennych pól magnetycznych o częstotliwościach od<br />

100 kHz do 1 GHz. Elementem czynnym jest tu pętla indukcyjna<br />

o średnicy około 0,5 mm. Małe rozmiary elementu<br />

czynnego tej sondy pozwalają na pomiary rozkładów składowej<br />

zmiennej pola magnetycznego emitowanego z niewielkiej<br />

powierzchni. Sonda elektryczna typu RF E05<br />

przeznaczona jest natomiast do pomiarów składowych<br />

zmiennych pola elektrycznego w takim samym paśmie częstotliwości.<br />

Element czynny tej sondy ma wymiary 2 x8mm.<br />

Obydwie sondy zakończone są przewodem współosiowym<br />

i wtykiem BNC o impedancji 50 Ω. W celu zwiększenia<br />

czułości sond zastosowano szerokopasmowy przedwzmacniacz<br />

20 dB typu PA 201. Wartości składowej magnetycznej<br />

i elektrycznej pola EM przedstawiono graficznie w jednostkach<br />

napięcia indukowanego w każdej z sond, gdyż firma<br />

Langer EMV-Technik nie udostępnia krzywych kalibracyjnych<br />

do używanych tu sond pomiarowych.<br />

Układ do pomiaru poziomu emisji pola EM<br />

Pomiary poziomu emisji składowej H i składowej E emitowanego<br />

pola EM przeprowadzono za pomocą sondy magnetycznej<br />

typu RF 2,5-2 i elektrycznej typu RF E05 wraz<br />

z przedwzmacniaczem typu PA 201 oraz cyfrowym oscyloskopem<br />

firmy LeCroy typu 9374L. W celu uniknięcia zafałszowywania<br />

wyników pomiarowych przez przypadkowe<br />

impulsy zewnętrzne, które w czasie pomiarów mogą przeniknąć<br />

do układu pomiarowego z sieci energetycznej lub otoczenia,<br />

każdy z pomiarów powtórzono około 100 razy i obliczono<br />

wartość średnią.<br />

Układ do pomiaru widma składowej H i E pola EM<br />

Układy do pomiaru widma częstotliwości składowych H i E<br />

pola EM składają się z omówionych wyżej sond pomiarowych<br />

wraz z przedwzmacniaczem, wirtualnego analizatora widma<br />

firmy EMC Master typu ST100W wraz z oprogramowaniem<br />

firmowym i komputera sterującego klasy PC. Pasmo pracy<br />

analizatora widma wynosi 0,15 MHz...1 GHz pokrywa się<br />

z pasmem pracy sond pomiarowych i przedwzmacniacza.<br />

Projekty układów scalonych<br />

Do badań poziomu generowanych zaburzeń opracowano dwa<br />

projekty układów scalonych do mnożenia liczb, wykorzystujące<br />

metodę kombinacyjną, zwaną również równoległą (projekty<br />

comb) i metodę sekwencyjną (projekty seq). Obydwa<br />

sposoby mnożenia liczb są często wykorzystywane w dużych<br />

projektach układów scalonych. Mimo tego, że wykonują to<br />

samo działanie matematyczne, różnią się stopniem skomplikowania<br />

struktury logicznej oraz szybkością działania. Metoda<br />

mnożenia kombinacyjnego charakteryzuje się większą szybkością<br />

działania niż metoda mnożenia sekwencyjnego, dlatego<br />

znajduje zastosowanie w projektach, w których<br />

wymagany jest krótki czas wykonania działań na liczbach.<br />

Metoda mnożenia sekwencyjnego jest zwykle wolniejsza, ale<br />

bardziej uniwersalna, gdyż daje się zrealizować w postaci pozwalającej<br />

wykonywać jeszcze inne działania arytmetyczne.<br />

Do opracowania projektu układów mnożących wykorzystano<br />

relatywnie niewielką liczbę bramek, dzięki czemu można<br />

było zaobserwować wpływ zmian rozmieszczenia i liczby bloków<br />

funkcjonalnych w obszarze matrycy cyfrowej na poziom<br />

generowanych zaburzeń [6,7]. Przy prowadzeniu badań porównawczych<br />

nie są istotne szczegóły dotyczące realizacji<br />

każdego z projektów. Ważne jest natomiast to, żeby we<br />

wszystkich badanych projektach układów scalonych były wykonywane<br />

modyfikacje według tych samych reguł. Dlatego<br />

w procesie kompilacji plików źródłowych wykorzystano standardowe<br />

procedury optymalizacji pod kątem minimalizacji<br />

liczby bloków funkcjonalnych i szybkości działania. Modyfikacje<br />

dotyczące zmniejszenia liczby aktywnych bloków, polegały<br />

również na usunięciu bloków I/O z badanych projektów.<br />

ELEKTRONIKA 11/<strong>2009</strong> 129


Rys.1. Przebiegi testowe na wyprowadzeniach układu scalonego<br />

do realizacji mnożenia kombinacyjnego<br />

Fig. 1. Test signals on the pins for combinational multiplication circuits<br />

Rys. 3. Mapy aktywnych bloków logicznych w obszarze matrycy<br />

FPGA<br />

Fig. 3. The plans (floorplans) of the active logical blocks of examined<br />

circuits inside the FPGA<br />

Tab. 1. Porównanie parametrów logicznych badanych projetów<br />

(Z - zgrupowane, R - rozproszone)<br />

Tabl. 1. Comparison of logical design features of tested circuits<br />

(Z - grouped, R - scattered)<br />

Projekt układu<br />

scalonego<br />

Bramki Struktury Bloki<br />

Konfiguracja<br />

bloków<br />

comb_area 9 453 724 412 Z + R<br />

comb_area_replaced 9 453 724 412 Z + R<br />

comb_speed 9 775 725 496 Z + R<br />

comb_no_io_area 12 552 893 569 Z<br />

comb_no_io_speed 13 448 893 719 Z<br />

seq_area 3 404 260 178 R<br />

Rys. 2. Przebiegi testowe na wyprowadzeniach układu scalonego<br />

do realizacji mnożenia sekwencyjnego<br />

Fig. 2. Test signals on the pins for sequential multiplication circuits<br />

W ten sposób uzyskano pięć wersji projektów mnożenia kombinacyjnego<br />

i cztery wersje projektów mnożenia sekwencyjnego,<br />

różniące się liczbą i rozmieszczeniem bloków logicznych<br />

w obszarze matrycy:<br />

• comb_area - projekt układu scalonego do realizacji mnożenia<br />

kombinacyjnego, zoptymalizowany pod kątem minimalizacji<br />

liczby aktywnych bloków, zawiera obsługę<br />

interfejsu szeregowego,<br />

• comb_area_replaced - projekt układu scalonego comb_<br />

area, w którym część bloków logicznych została przemieszczona,<br />

• comb_speed - projekt układu scalonego do realizacji mnożenia<br />

kombinacyjnego, zoptymalizowany pod kątem szybkości<br />

działania, zawiera obsługę interfejsu szeregowego,<br />

• comb_no_io_area - projekt układu scalonego do realizacji<br />

mnożenia kombinacyjnego bez obsługi portu szeregowego,<br />

zoptymalizowany pod kątem minimalizacji liczby aktywnych<br />

bloków,<br />

• comb_no_io_speed - projekt układu scalonego do realizacji<br />

mnożenia kombinacyjnego bez obsługi portu szeregowego,<br />

zoptymalizowany pod kątem szybkości działania,<br />

• seq_area - projekt układu scalonego do realizacji mnożenia<br />

sekwencyjnego, zoptymalizowany pod kątem minimalizacji<br />

liczby aktywnych bloków, zawiera obsługę interfejsu szeregowego,<br />

seq_speed 3 423 268 183 R<br />

seq_no_io_area 6 071 609 367 Z + R<br />

seq_no_io_speed 7 145 730 460 Z + R<br />

• seq_speed - projekt układu scalonego do realizacji mnożenia<br />

sekwencyjnego, zoptymalizowany pod kątem szybkości<br />

działania, zawiera obsługę interfejsu szeregowego,<br />

• seq_no_io_area - projekt układu scalonego do realizacji<br />

mnożenia sekwencyjnego bez obsługi portu szeregowego,<br />

zoptymalizowany pod kątem minimalizacji liczby aktywnych<br />

bloków,<br />

• seq_no_io_speed - projekt układu scalonego do realizacji<br />

mnożenia sekwencyjnego bez obsługi portu szeregowego,<br />

zoptymalizowany pod kątem szybkości działania.<br />

Przebiegi testowe dla projektów układów scalonych do<br />

mnożenia kombinacyjnego i sekwencyjnego przedstawiono<br />

odpowiednio na rys. 1 i 2. Rozkłady bloków logicznych w obszarze<br />

matrycy poszczególnych projektów przedstawiono na<br />

rys. 3, a główne parametry zebrano w tab. 1.<br />

Pomiary generowanych zaburzeń<br />

Pomiary zaburzeń w dziedzinie czasu<br />

Wyniki pomiarów średniej wartości amplitudy (pik-to-pik)<br />

składowej E i składowej H pola EM w dziedzinie czasu, towarzyszących<br />

przepływowi zaburzających prądów w.cz. przez<br />

130 ELEKTRONIKA 11/<strong>2009</strong>


Zmiany poziomów emisji składowych pola EM dla pozostałych<br />

projektów układów scalonych miały podobny charakter,<br />

chociaż różniły się wartościami. Z porównania poziomów<br />

emisji składowej E i składowej H badanych projektów układów<br />

scalonych nie wynika wprost proporcjonalna zależność pomiędzy<br />

liczbą bramek lub bloków funkcjonalnych, a wartością<br />

poziomu generowanych zaburzeń nad badanymi punktami<br />

obwodu aplikacyjnego.<br />

Pomiary zaburzeń w dziedzinie częstotliwości<br />

Rys. 4. Poziom emisji składowej E z układu wg projektu<br />

comb_area w funkcji częstotliwości taktowania<br />

Fig. 4. comb_area circuit E field disturbances as a funcion clock<br />

frequency<br />

Rys. 5. Poziom emisji składowej H z układu wg projektu<br />

comb_area w funkcji częstotliwości taktowania<br />

Fig. 5. comb_area circuit H field disturbances as a funcion clock<br />

frequency<br />

ścieżkę masy, zasilania i przez obudowę układu scalonego<br />

dla projektu comb_area i seq_area w funkcji częstotliwości<br />

zegara przedstawiono na rys. 4 i 5.<br />

Ze wzrostem częstotliwości taktowania do około 30 MHz,<br />

poziom emisji składowej E zmieniał się w niewielkim zakresie.<br />

Największy poziom składowej E wystąpił nad ścieżką masy,<br />

zaś najniższy nad środkiem obudowy układu scalonego. Wartości<br />

poziomów emisji składowej E nad ścieżką masy i ścieżką<br />

zasilania był około dwukrotnie większe niż nad środkiem obudowy<br />

układu scalonego. Powyżej częstotliwości taktowania<br />

30 MHz zaobserwowano wyraźny wzrost składowej E. Największą<br />

wartość tej składowej zaobserwowano nad ścieżką<br />

masy przy częstotliwości taktowania około 40 MHz, tj. mniejszej<br />

o około 5 MHz od składowej E nad ścieżką zasilania i nad<br />

środkiem obudowy układu scalonego. Na wykresie składowej<br />

E nad ścieżką masy wystąpiło dodatkowo minimum lokalne<br />

przy częstotliwości taktowania około 45 MHz, towarzyszące<br />

maksimum emisji składowej E nad ścieżką zasilania i nad<br />

środkiem obudowy układu scalonego.<br />

Zmiany poziomu emisji składowej H (rys. 5) w funkcji częstotliwości<br />

taktowania miały podobny charakter jak na rys. 4.<br />

Najwyższą wartość tej składowej odnotowano nad ścieżką zasilania<br />

przy częstotliwości taktowania około 45 MHz. Była ona<br />

około dwukrotnie większa niż nad ścieżką masy i o około 15%<br />

niż nad środkiem obudowy układu scalonego. W zakresie<br />

częstotliwości taktowania 5…30 MHz obserwowano niewielki<br />

wzrost składowej H nad badanymi punktami obwodu aplikacyjnego.<br />

Największe wartości osiągała tu składowa H nad<br />

ścieżką zasilania. Były one blisko dwukrotnie większe niż najmniejsze<br />

wartości, występujące nad ścieżką masy.<br />

Przy małych częstotliwościach taktowania liczba częstotliwości<br />

harmonicznych, jak i ich amplitudy były relatywnie małe.<br />

Pierwsze harmoniczne pojawiały się w paśmie 200…300 MHz<br />

przy częstotliwości zegara około 1 MHz. Ze wzrostem częstotliwości<br />

taktowania następował szybki wzrost liczby i amplitudy<br />

harmonicznych oraz szerokości ich pasma. Już przy<br />

częstotliwości taktowania 10 MHz obserwowano harmoniczne<br />

w całym paśmie pracy analizatora widma tj. do 1 GHz. W górnej<br />

części przedziału częstotliwości zegara tj. 40…50 MHz,<br />

nieoczekiwanie następowało zauważalne zmniejszenie liczby<br />

i amplitudy częstotliwości harmonicznych oraz zawężało się<br />

również pasmo do około 450 MHz (rys. 6). W przypadku projektów<br />

comb_no_io_speed i seq_no_io_speed powyższej prawidłowości<br />

nie zaobserwowano. Wraz ze wzrostem częstotliwości<br />

taktowania obserwowano ciągły wzrost liczby i amplitudy<br />

harmocznicznych. Najwięcej harmonicznych było w paśmie<br />

200…600 MHz nad ścieżką zasilania i w paśmie<br />

100...500 MHz nad ścieżką masy.<br />

Większą liczbę częstotliwości harmonicznych i o nieco<br />

większych amplitudach obserwowano nad ścieżkami masy<br />

i zasilania w przypadku projektów seq niż comb. Widmo o największych<br />

amplitudach częstotliwości harmonicznych uzyskano<br />

w projekcie seq_no_io_speed tj. projekcie mnożenia<br />

sekwencyjnego o największej liczbie bloków logicznych. Najmniejszy<br />

poziom emisji uzyskano w przypadku projektów o najmniejszej<br />

liczbie bloków logicznych: seq_area i seq_speed.<br />

Ponieważ źródłem generacji prądów w.cz. jest również<br />

struktura półprzewodnikowa układu scalonego matrycy, wykonano<br />

pomiary widma składowej pola EM emitowanego nad<br />

środkiem obudowy układu scalonego matrycy. W widmie tym<br />

liczba pików i ich amplitudy zwiększały się wraz ze wzrostem<br />

częstotliwości taktowania do 30 MHz. Rozszerzało się rów-<br />

a) b)<br />

c)<br />

Rys. 6. Widmo HF nad ścieżką zasilania dla projektu comb_area<br />

circuit przy częstotliwościach taktowania: a) 1 MHz; b) 25 MHz;<br />

c) 50 MHz (skala: 10 dB/działkę)<br />

Fig. 6. comb_area circuit - spectrum of HF current in power supply<br />

pin for the clock frequency: a) 1 MHz, b) 25 MHz, c) 50 MHz<br />

(10 dB/division)<br />

ELEKTRONIKA 11/<strong>2009</strong> 131


nież pasmo emisji od około 500 MHz do 1 GHz. Z dalszym<br />

wzrostem częstotliwości taktowania obserwowano zmniejszenie<br />

amplitud i liczby pików w widmie. Największą liczbę<br />

częstotliwości harmonicznych zanotowano przy taktowaniu<br />

z częstotliwością 25 MHz.<br />

Z porównania widma składowej E i składowej H nad<br />

ścieżkami i nad środkiem obudowy układu scalonego wynika,<br />

że charakter ich zmian w funkcji częstotliwości taktowania był<br />

bardzo podobny. Do częstotliwości taktowania 25…30 MHz<br />

obserwowano wzrost liczby, amplitudy i pasma emisji harmonicznych.<br />

Z dalszym wzrostem częstotliwości taktowania<br />

30…50 MHz następowało zmniejszenie liczby i amplitudy harmonicznych<br />

oraz ograniczenie ich pasma.<br />

Największa liczba częstotliwości harmonicznych wystąpiła<br />

w widmach nad ścieżką masy natomiast najmniejszą odnotowano<br />

nad środkiem obudowy układu scalonego. Z przedstawionych<br />

pomiarów widm wynika, że najwięcej harmonicznych<br />

występowało w paśmie 200…700 MHz dla projektów mnożenia<br />

kombinacyjnego, podczas gdy dla projektów mnożenia sekwencyjnego<br />

pasmo to zawęża się do około 150…300 MHz.<br />

Pomiary prądów zasilania<br />

Pracujące układy scalone wytwarzają zaburzenia przewodzone<br />

i promieniowane. Obydwa rodzaje zaburzeń niosą ze<br />

sobą energię, której część zostaje zamieniona na energię<br />

cieplną oraz energię pola EM i bezpowrotnie utracona. Energia<br />

ta pochodzi z układu zasilania obwodu aplikacyjnego<br />

i może być wyznaczona na podstawie pomiarów prądu zasilania<br />

w funkcji częstotliwości taktowania - rys. 7.<br />

Wartości prądów zasilania narastały liniowo w funkcji częstotliwości<br />

taktowania we wszystkich badanych projektach<br />

układów scalonych. Wzrosty prądów zaczynały się od wartości<br />

120 mA, którą uzyskano przy zerowej częstotliwości taktowania<br />

i przyjęto za wartość odniesienia. Prąd ten był wykorzystywany<br />

do zasilania podzespołów znajdujących się na płytce<br />

drukowanej obwodu aplikacyjnego, jak np. sygnalizacyjne<br />

diody LED. Dopiero prąd zasilania powyżej 120 mA był wykorzystany<br />

przez bramki logiczne matrycy cyfrowej do realizacji<br />

mnożenia. W projektach realizujących metodę mnożenia kombinacyjnego<br />

(comb) największy prąd zasilania w funkcji<br />

częstotliwości taktowania był pobierany przez projekt<br />

comb_no_io_speed. Nieco mniejszy prąd zasilania potrzebny<br />

był do pracy projektu comb_no_io_area. Te projekty układów<br />

scalonych wykorzystywały odpowiednio 13 448 i 12 552<br />

bramki logiczne tj. największą ich liczbę z grona badanych,<br />

modelowych układów scalonych. Mniejsze wartości prądów<br />

zasilania były pobierane przez pozostałe projekty układów scalonych<br />

realizujące mnożenie metodą kombinacyjną i wykorzystujące<br />

proporcjonalnie mniejszą liczbę bramek logicznych.<br />

Podobne zależności pomiędzy wartościami prądów zasilania<br />

i liczbą wykorzystywanych bramek logicznych zaobserwowano<br />

w projektach układów scalonych realizujących<br />

metodę mnożenia sekwencyjnego. Projekty układów scalonych<br />

o największej liczbie bramek logicznych seq_no_io_area<br />

i seq_no_io_speed pobierały większe prądy zasilania niż projekty<br />

seq_area i seq_speed. Wynika stąd, że wartość prądu<br />

zasilania wzrasta z liczbą wykorzystanych bramek logicznych.<br />

Nie jest to jednak zależność wprost proporcjonalna, co zostało<br />

przedstawione w tab. 2. W kolumnie 2 zestawiono średnie<br />

wartości prądu przypadającego na jedną bramkę logiczną<br />

przy częstotliwości taktowania 50 MHz. Do obliczeń przyjęto<br />

prądy zasilania z rys. 7 pomniejszone o 120 mA (kolumna 4).<br />

Tab. 2. Średnia wartość prądu zasilania na jedną bramkę logiczną<br />

przy częstotliwości taktowania 50 MHz<br />

Tabl. 2. The averge values of power supply currens on one logic<br />

gate at the clock rate 50 MHz<br />

a)<br />

Projekt układu<br />

scalonego<br />

Prąd/bramka<br />

[mA]<br />

Liczba<br />

bramek<br />

Prąd zasilania<br />

[mA]<br />

Comb_area 3,8 9 453 36<br />

Comb_area_replaced 3,9 9 453 37<br />

Comb_speed 4,2 9 775 41<br />

Comb_no_io_area 6,7 12 552 84<br />

Comb_no_io_speed 8,1 13 448 109<br />

Seq_area 11,2 3 404 38<br />

b)<br />

Seq_speed 11,1 3 423 38<br />

Seq_no_io_area 14,2 6 071 86<br />

Seq_no_io_speed 14,3 7 145 102<br />

Rys. 7. Prądy zasilania projektów układów scalonych w funkcji<br />

częstotliwości zegara: a) comb, b) seq<br />

Fig. 7. Power supply currents as a function of the lock frequency:<br />

a) comb, b) seq<br />

Największe wartości prądów na jedną bramkę logiczną odnotowano<br />

w projektach seq_no_io_area i seq_no_io_speed,<br />

które wykorzystywały prawie dwukrotnie mniejszą liczbę<br />

bramek logicznych niż projekty comb_no_io_area i comb_no_<br />

io_speed. Z tabeli 2 wynika, że wyraźnie większe wartości<br />

prądu na jedną bramkę logiczną przypadały w projektach<br />

układów scalonych realizujących mnożenie metodą sekwencyjną<br />

niż kombinacyjną. Większe prądy na bramkę logiczną<br />

zaobserwowano jednak w projektach nie zawierających<br />

obsługę interfejsu szeregowego do transmisji danych pomiędzy<br />

matrycą i komputerem PC. Nie można zatem wniosko-<br />

132 ELEKTRONIKA 11/<strong>2009</strong>


wać, że prąd zasilania pobierany przez matrycę cyfrową<br />

wzrastał wprost proporcjonalnie do liczby wykorzystywanych<br />

bramek logicznych. Zależał on raczej od sposobu realizacji<br />

zadania. W ramach kombinacyjnej metody mnożenia wykonuje<br />

się bowiem równoległe działania na bitach mnożonych<br />

liczb i dlatego w jednym takcie zegarowym było wykorzystywanych<br />

więcej bramek logicznych niż w projektach mnożenia<br />

metodą sekwencyjną. Konsekwencją takiego trybu pracy była<br />

mniejsza średnia wartość prądu zasilania, przypadająca na<br />

jedną bramkę logiczną. Można również przypuszczać, że<br />

w projektach realizujących metodę mnożenia kombinacyjnego,<br />

w jednym takcie zegarowym pracowała mniejsza liczba<br />

bramek logicznych niż w projektach realizujących metodę<br />

mnożenia sekwencyjnego. W projektach układów scalonych<br />

pobierających mniejszy prąd zasilania obserwowano niższy<br />

poziom generowanych zaburzeń niż w projektach zasilanych<br />

większym prądem.<br />

Wnioski<br />

Opracowano dwa projekty układów scalonych do mnożenia<br />

liczb metodą kombinacyjną i sekwencyjną, w których dokonano<br />

drobnych modyfikacji oraz zoptymalizowano je w procesie<br />

kompilacji pod kątem minimalizacji liczby bloków<br />

funkcjonalnych lub szybkości działania. W ten sposób uzyskano<br />

9 różnych wersji projektów układów scalonych. Wykorzystywały<br />

one niewielką liczbę bloków logicznych (1…7%)<br />

w porównaniu z liczbą dostępnych w matrycy cyfrowej firmy<br />

Xilinx z rodziny Virtex, typu XCV 800, dzięki czemu można<br />

było rozlokować je na wiele sposobów. Projekty różniły się<br />

między sobą głównie liczbą wykorzystanych bramek logicznych<br />

i topografią aktywnych bloków logicznych w obszarze<br />

matrycy cyfrowej.<br />

Z przeprowadzonych pomiarów poziomu emisji składowej<br />

E i składowej H pola EM nad ścieżkami masy i zasilania obwodu<br />

aplikacyjnego oraz nad środkiem obudowy układu scalonego<br />

wynika, że nie zmieniał się on liniowo w funkcji<br />

częstotliwości taktowania. W zakresie częstotliwości taktowania<br />

około 10…30 MHz uzyskano prawie stały poziomu<br />

emisji pola EM. Ten przedział częstotliwości taktowania<br />

można wykorzystywać do optymalizacji poziomu generowanych<br />

zaburzeń na etapie projektowania układu scalonego<br />

i obwodu aplikacyjnego. Z dalszym wzrostem częstotliwości<br />

taktowania obserwowano szybkie narastanie poziomu emisji<br />

do wartości maksymalnej, którą osiągał w zakresie<br />

40…45 MHz. Powyższym zmianom poziomu emisji pola EM<br />

towarzyszyło rozszerzanie się pasma częstotliwości harmonicznych<br />

składowych pola E i H, które po uzyskaniu maksimum,<br />

zawężało się wraz ze wzrostem częstotliwości taktowania.<br />

Obserwacje te wskazują na występowanie rezonansów<br />

w matrycy towarzyszących pracy badanych projektów<br />

układów scalonych w tym dość wysokim zakresie częstotliwości<br />

taktowania.<br />

W projektach układów scalonych o zwartym rozkładzie<br />

bloków logicznych, indukcyjność doprowadzeń na strukturze<br />

była według szacunków nawet kilkukrotnie mniejsza niż w projektach<br />

o rozrzuconych blokach logicznych na dużym obszarze<br />

matrycy cyfrowej. Wykorzystywały jednak one większą<br />

liczbę bramek logicznych oraz pobierały większy prąd zasilania.<br />

Większy był też poziom emisji składowej E i składowej<br />

H pola EM w funkcji częstotliwości taktowania, a w widmach<br />

wystąpiła większa liczba częstotliwości harmonicznych. Należy<br />

sądzić, że mała indukcyjność i rezystywność tych doprowadzeń<br />

oraz relatywnie duża liczba bramek logicznych<br />

skupionych w jednym miejscu matrycy cyfrowej były przyczyną<br />

powstania pętli prądowych w obwodzie zasilania, które<br />

zamykały się przez strukturę półprzewodnikową. Pętle te stały<br />

się skutecznym źródłem promieniowania (antenami) zaburzeń<br />

EM, o czym świadczył relatywnie duży poziom emisji zaburzeń<br />

oraz pobór prądu zasilania.<br />

Pomiary porównawcze prądów zasilania pobieranych<br />

przez testową matrycę cyfrową oraz emisje pól EM w wybranych<br />

miejscach układu scalonego i obwodu aplikacyjnego powinny<br />

być pomocne do optymalizacji poziomu emitowanych<br />

zaburzeń. Pomiary te mogą nawet stanowić wstępny sposób<br />

weryfikacji opracowywanego projektu układu scalonego ze<br />

względu na poziomy emisji zaburzeń EM.<br />

Literatura<br />

[1] Kołodziejski J. F., Szczęsny J.: Electromagnetic Emissions of Integrated<br />

Circuits and PCBs. IEEE EMC Newsletter, pp. 34-39,<br />

Spring Issue 2004.<br />

[2] Gong S. et al.: Packaging impact on switching noise in high-speed<br />

digital systems. IEE Proc. Circuits Devices Syst., vol. 145, no 6 ,<br />

pp. 446-452, Dec. 1998.<br />

[3] Xilinx 5 Software Manuals Online, ISE 5.1i.<br />

[4] The Programmable Logic Data Book 1999, Xilinx Inc., 1999.<br />

[5] DataSource CD-ROM rev. 8 Q1-2003.<br />

[6] Dong X., Deng S., Beetner D., Hubing T.: The Influence of IC<br />

Power Bus Design and Floor Planning on High-Frequency Package<br />

Current, sent to IEEE Trans. EMC.<br />

[7] Szczęsny J., Kołodziejski J. F., Obrębski D.: Electromagnetic<br />

Emissions of Digital Circuits Implemented in Xilinx FPGAs 4025E<br />

and XCV 800. Electron Technology Internet Journal 36, 2, pp. 1-<br />

6, 2004.<br />

Przypominamy o prenumeracie miesięcznika <strong>Elektronika</strong> na 2010 r.<br />

ELEKTRONIKA 11/<strong>2009</strong> 133

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!