Elektronika 2009-11.pdf - Instytut Systemów Elektronicznych
Elektronika 2009-11.pdf - Instytut Systemów Elektronicznych
Elektronika 2009-11.pdf - Instytut Systemów Elektronicznych
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
konstrukcje technologie zastosowania<br />
MIESIECZNIK NAUKOWO-TECHNICZNY<br />
rok L nr 11/<strong>2009</strong><br />
• MATERIAŁY • KONSTRUKCJE • UKŁADY<br />
• SYSTEMY • MIKROELEKTRONIKA<br />
• OPTOELEKTRONIKA • FOTONIKA<br />
• ELEKTRONIKA MIKROFALOWA<br />
• MECHATRONIKA<br />
• ENERGOELEKTRONIKA • INFORMATYKA<br />
ZESPÓŁ REDAKCYJNY<br />
prof. dr hab. inż. Jerzy Klamka - redaktor naczelny,<br />
Bożena Lachowicz - sekretarz redakcji<br />
Stali współpracownicy: mgr inż. Wiesław Jabłoński,<br />
mgr inż. Krzysztof Kowalski, mgr inż. Cezary Rudnicki, dr Juliusz Szczęsny<br />
Adres redakcji: ul. Chmielna 6 m.6, 00-020 Warszawa,<br />
tel./fax: (022) 827 38 79; tel.: (022) 826 65 64,<br />
e-mail: elektronika@red.pl.pl, www.elektronika.orf.pl<br />
Zamówienia na reklamę przyjmuje redakcja lub Dział Reklamy<br />
i Marketingu, ul. Mazowiecka 12, 00-950 Warszawa, skr. 1004,<br />
tel./fax (022) 8274366, 8268016, e-mail: reklama@sigma-not.pl<br />
Kolportaż: ul. Ku Wiśle 7, 00-716 Warszawa, tel.: (022) 840 35 89;<br />
tel./fax:: (022) 840 59 49, (022)891 13 74<br />
RADA PROGRAMOWA<br />
prof. dr hab. inż. Władysław Torbicz (PAN) - przewodniczący<br />
prof. dr hab. inż. Leonard Bolc, prof. dr hab. Zdzisław Drozd, prof. dr<br />
hab. inż. Jerzy Fraczek, dr inż. Józef Gromek, mgr inż. Jan Grzybowski,<br />
prof. dr hab. Ryszard Jachowicz, prof. dr hab. Włodzimierz<br />
Janke, prof. dr hab. Andrzej Jakubowski, prof. dr hab. Włodzimierz<br />
Kalifa, inż. Stefan Kamiński, prof. dr hab. inż. Marian P. Kaźmierkowski,<br />
dr inż. Wojciech Kocańda, prof. dr hab. Bogdan Kosmowski, mgr<br />
inż. Zbigniew Lange, prof. dr hab. Benedykt Licznerski, dr inż. Zygmunt<br />
Łuczyński, prof. dr hab. inż. Józef Modelski, prof. dr hab. Tadeusz<br />
Morawski, prof. dr hab. Bohdan Mroziewicz, prof. dr hab. Andrzej<br />
Napieralski, prof. dr hab. Tadeusz Pałko, prof. dr hab. inż. Marian<br />
Pasko, prof. dr hab. Józef Piotrowski, dr hab. inż. Ryszard Romaniuk,<br />
dr hab. inż. Grzegorz Różański, prof. dr hab. inż. Edward Sędek,<br />
prof. dr hab. Ludwik Spiralski, prof. dr hab. inż. Zdzisław Trzaska,<br />
mgr inż. Józef Wiechowski, prof. dr hab. inż. Marian Wnuk, prof.<br />
dr hab. inż. Janusz Zarębski<br />
Czasopismo dotowane przez Ministerstwo Nauki<br />
i Szkolnictwa Wyższego. Za opublikowane w nim artykuły<br />
MNiSzW przyznaje 6 punktów.<br />
“<strong>Elektronika</strong>” jest wydawana<br />
przy współpracy Komitetu Elektroniki<br />
i Telekomunikacji Polskiej Akademii Nauk<br />
IEEE<br />
WYDAWNICTWO<br />
CZASOPISM I KSIĄŻEK<br />
TECHNICZNYCH<br />
SIGMA - NOT<br />
Spółka z o. o.<br />
00-950 Warszawa<br />
skrytka pocztowa 1004<br />
ul. Ratuszowa 11<br />
tel.: (0 22)818 09 18, 818 98 32<br />
fax: (0 22) 619 21 87<br />
Internet<br />
http://www.sigma-not.pl<br />
Prenumerata<br />
e-mail: kolportaz@sigma-not.pl<br />
Informacja<br />
e-mail: informacja@sigma-not.pl<br />
Redakcja współpracuje<br />
z Polską Sekcją IEEE<br />
“<strong>Elektronika</strong>” jest notowana<br />
w międzynarodowej bazie IEE<br />
Inspec<br />
Publikowane artykuły nukowe były<br />
recenzowane przez samodzielnych<br />
pracowników nauki<br />
Redakcja nie ponosi odpowiedzialności<br />
za treść ogłoszeń. Zastrzega<br />
sobie prawo do skracania i adjustacji<br />
nadesłanych materiałów.<br />
Indeks 35722<br />
Nakład do 2000 egz.<br />
Druk: Drukarnia SIGMA-NOT Sp. z o.o.<br />
SPIS TREŚCI • CONTENTS<br />
Medical pattern intelligent recognition based on linguistic<br />
modelling of 3D coronary vessels visualisations (Lingwistyczne<br />
modelowanie przestrzennych rekonstrukcji unaczynienia<br />
wieńcowego w inteligentnym rozpoznawaniu zmian patologicznych)<br />
- M. Trzupek, M. R. Ogiela, R. Tadeusioewicz ................<br />
Average Individual Classification Probability Function (Przeciętna<br />
indywidualna funkcja prawdopodobieństwa klasyfikacji) -<br />
M. Landowski, A. Piegat ............................................................<br />
Evolutionary sets of cooperating ship trajectories: open waters<br />
and restricted waters (Ewolucyjne zbiory bezpiecznych<br />
trajektorii statków dla wód otwartych i obszarów ograniczonych)<br />
- R. Szłapczyński ....................................................................<br />
The role of fuzzy modeling in creation of knowledge base’s<br />
for intelligent decision’s support systems in the conditions<br />
of the dangerous hydrometeorological phenomenon threat<br />
(Rola modelowania rozmytego w kształtowaniu baz wiedzy dla<br />
inteligentnych systemów wspomagania decyzji w warunkach zagrożenia<br />
niebezpiecznym zjawiskiem natury) - T. Tretyakova .....<br />
Generation of harmonic sequences in accordance to tonal<br />
harmony rules with artificial neural networks (Generacja<br />
sekwencji harmonicznych w zgodzie z zasadami harmonii tonalnej<br />
przy użyciu sieci neuronowych) - W. Zabierowski,<br />
A. Napieralski ..........................................................................<br />
The correction of digital images obtained by means of low<br />
quality scanner using FIR filter generated by a neural network<br />
in opposition to the digital images obtained by means<br />
of model scanner (Poprawa obrazów cyfrowych pozyskanych<br />
skanerem niskiej klasy z wykorzystaniem filtru FIR generowanym<br />
przez siec neuronową) - J. Peksiński, G. Mikołajczak .........<br />
Global multicriteria optimization in weather routing (Wielokryterialna<br />
optymalizacja globalna w nawigacji meteorologicznej)<br />
- J. Szłapczyńska .............................................................<br />
Signed electronic document and its probative value in certificate<br />
and certificateless public key cryptosystem infrastructures<br />
(Podpisany dokument elektroniczny i jego wartość<br />
dowodowa w certyfikatowej i bezcertyfikatowej infrastrukturze<br />
kryptosystemu klucza publicznego) - J. Pejaś .........................<br />
Ontology-based approach to scada systems vulnerabilities<br />
representation for CIP (Podejście ontologiczne do reprezentacji<br />
podatności systemów scada dla ochrony infrastruktur krytycznych)<br />
- M. Choraś, A. Stachowicz, R. Kozik, A. Flizikowski,<br />
R. Renk ..................................................................................<br />
Synthesis and management of system with parallel multiprocessors<br />
and fault tolerance (Synteza i zarządzanie komputerowych<br />
systemów z równoległymi wieloprocesorami<br />
i tolerowaniem uszkodzeń) - M. Drabowski ...............................<br />
The security level of particular blind steganographic systems<br />
(Zabezpieczenie określonego poziomu niewidoczności<br />
w systemach steganograficznych) - J. Korostil ...........................<br />
The efficient data authentication in Web GIS (Efektywne uwierzytelnianie<br />
danych w systemach Web GIS) - W. Maćków ..........<br />
An experiment of implementation of DLP system working as<br />
a Linux kernel loadable module (Próba implementacji systemu<br />
ochrony przed utratą danych (DLP) pracującego na poziomie<br />
jądra dla systemu Linux) - A. Rakowski, I. El Fray .....<br />
A buffer thresholds policy in linked in series servers with<br />
blocking (Buforowanie z progami w połączonych serwerach<br />
z blokadami) - W. Oniszczuk ..................................................<br />
9<br />
12<br />
15<br />
18<br />
22<br />
25<br />
27<br />
30<br />
35<br />
38<br />
41<br />
45<br />
48<br />
51<br />
ELEKTRONIKA 11/<strong>2009</strong> 1
A system automating repairs of IT systems (System automatyzujący<br />
naprawy systemów IT) - M. Kamiński ...........................<br />
Influence of the number of bins on the recognition results<br />
using Point Distance Histogram (Wpływ liczby przedziałów<br />
w histogramie na wyniki rozpoznawania z użyciem algorytmu<br />
Point Distance Histogram) - D. Frejlichowski .............................<br />
Open Virtual Steganographic Laboratory (Otwarte Wirtualne Laboratorium<br />
Steganograficzne) - P. Forczmański, M. Węgrzyn .......<br />
The use of speech recognition and user verification in<br />
closed-circuit television systems (Zastosowanie rozpoznawania<br />
mowy i weryfikacji użytkownika w systemach telewizji<br />
przemysłowej) - M. Kubanek ....................................................<br />
SMS-B project of educational platform for e-business (Projekt<br />
systemu SMS-B jako platformy edukacyjnej dla e-biznesu) -<br />
P. Jałowiecki, T. Woźniakowski, A. Orłowski ...............................<br />
TECHNIKA PRÓŻNI I TECHNOLOGIE PRÓŻNIOWE: Biuletyn<br />
Polskiego Towarzystwa Próżniowego 1 (48) <strong>2009</strong> ................<br />
TECHNIKA SENSOROWA: Zastosowanie technik immunoenzymatycznych<br />
i mikrofluidycznych do amperometrycznego<br />
oznaczania stężenia białka C-reaktywnego (Application of immunoenzymatic<br />
and microfluidic techniques for amperometric determination<br />
of C-reactive protein concentration) - A. Baraniecka,<br />
B. Kazimierczak, J. Kruk, D. G. Pijanowska, W. Torbicz ................<br />
54<br />
58<br />
60<br />
65<br />
68<br />
71<br />
79<br />
TECHNIKA MIKROFALOWA I RADIOLOKACJA: Ochrona własności<br />
przemysłowej w Przemysłowym Instytucie Telekomunikacji<br />
S.A. na przestrzeni 75 lat Jego historii -<br />
J. Kobierzycki, W. Kęska ............................................................ 84<br />
TECHNIKA INFORMATYCZNA: Wielopoziomowy trening symulacyjny<br />
w szkoleniu operatorów urządzeń. Zastosowanie<br />
do szkolenia operatorów robotów mobilnych (Multi-level<br />
simulation training of devices operators. An application to mobile<br />
robots operators) - A. Kaczmarczyk, M. Kacprzak,<br />
A. Masłowski ............................................................................... 92<br />
Radary pasywne - nowa technika radiolokacji (Passive radars<br />
- a new radar technology) - Z. Czekała ........................................ 100<br />
System dalekosiężnej identyfikacji i śledzenia statków (Long<br />
Range Identification and Tracking of ships) - J. Czajkowski,<br />
K. Łyszyk .................................................................................... 115<br />
Szkło dla fotoniki. Część 14. Parametry szklanego włókna<br />
optycznego (Glasses for photonics. Part 14. Parameters of<br />
glass optical fibers) - R. Romaniuk .............................................. 119<br />
Wpływ konstrukcji cyfrowych układów scalonych na generację<br />
zaburzeń elektromagnetycznych (Influence of the IC<br />
construcion on electromagnetic disturbance) - J. Szczęsny ....... 129<br />
Streszczenia artykułów • Summaries of the articles<br />
TRZUPEK M., OGIELA M. R., TADEUSIEWICZ R.: Lingwistyczne<br />
modelowanie przestrzennych rekonstrukcji unaczynienia wieńcowego<br />
w inteligentnym rozpoznawaniu zmian patologicznych<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 9<br />
Celem artykułu jest przedstawienie sposobów rozwinięcia metodyki<br />
wcześniej opracowanej dla potrzeb automatycznego rozumienia dwuwymiarowych<br />
zobrazowań medycznych na zobrazowania 3D. Badana<br />
dają możliwości zdefiniowania w tych zobrazowaniach<br />
elementów opisu morfologii zmian patologicznych oraz możliwości<br />
zastosowania lingwistycznego podejścia, a także kognitywnej analizy<br />
obrazów do opisu i modelowania przestrzennych struktur biomedycznych.<br />
Rozważania w warstwie szczegółowej nawiązywać będą<br />
do trójwymiarowej struktury drzewa naczyń wieńcowych, która opisywana<br />
będzie z wykorzystaniem grafowych języków opisu cech<br />
kształtów.<br />
Słowa kluczowe: rozumienie zobrazowań medycznych, sztuczna<br />
inteligencja, inżynieria biomedyczna, lingwistyka matematyczna<br />
LANDOWSKI M., PIEGAT A.: Przeciętna indywidualna funkcja<br />
prawdopodobieństwa klasyfikacji<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 12<br />
Jednym z głównych zadań sztucznej inteligencji jest stworzenie<br />
sztucznego komputerowego mózgu realizującego sztuczne myślenie<br />
bazujące na konceptach lingwistycznych. Podstawą realizacji tego<br />
zadania jest opracowanie modelu ludzkich percepcji wyrażonego<br />
w formie kwantyfikatorów lingwistycznych. Artykuł prezentuje metodę<br />
tworzenia przeciętnej indywidualnej funkcji prawdopodobieństwa klasyfikacji.<br />
Funkcja ta przedstawia funkcję klasyfikacji przeciętnej indywidualnej<br />
osoby w grupie (populacji). Według wiedzy autorów<br />
przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji jest<br />
nowością w literaturze światowej.<br />
Słowa kluczowe: teoria prawdopodobieństwa, model probabilistyczny,<br />
przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji,<br />
koncept lingwistyczny<br />
TRZUPEK M., OGIELA M. R., TADEUSIEWICZ R.: Medical pattern<br />
intelligent recognition based on linguistic modelling of 3D coronary<br />
vessels visualisations<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 9<br />
The goal of this article is to present the ways of taking the methodology<br />
that has been developed earlier for the needs of automatic understanding<br />
of 2D medical visualisations to the level of 3D<br />
visualisations. The research will cover the potential of defining, in<br />
these visualisations, of elements describing the morphology of pathologic<br />
changes and the possibility of applying the linguistic approach as<br />
well as cognitive image analysis for the description and modelling of<br />
spatially visualised coronary vessels. The considerations will make<br />
reference especially to the 3D structure of the coronary vascular tree,<br />
which will be described with the use of graph-based languages of<br />
shape feature description.<br />
Keywords: syntactic pattern analysis, medical image understanding,<br />
artificial intelligence, Computer-Aided Diagnosis<br />
LANDOWSKI M., PIEGAT A.: Average Individual Classification<br />
Probability Function<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 12<br />
One of the main tasks of artificial intelligence is the creation of artificial<br />
computer brain able to realize artificial thinking based on linguistic<br />
concept. The basis of the realization of this task is the working out<br />
of models of human perception expressed in the form of linguistic<br />
quantifiers. The article presents the method of finding average individual<br />
classification probability function. The function is to present<br />
classification function of the average person in the group (population).<br />
According to the authors’ knowledge average individual classification<br />
probability function are the novelty in the word literature.<br />
Keywords: probability theory, probabilistic model, average individual<br />
classification probability function, linguistic concept<br />
2 ELEKTRONIKA 11/<strong>2009</strong>
Streszczenia artykułów • Summaries of the articles<br />
SZŁAPCZYŃSKI R.: Ewolucyjne zbiory bezpiecznych trajektorii<br />
statków dla wód otwartych i obszarów ograniczonych<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 15<br />
W artykule przedstawiono nową metodę rozwiązywania sytuacji spotkań<br />
wielu statków na wodach otwartych i wodach ograniczonych. Metoda<br />
łączy niektóre z elementów podejścia opartego na teorii gier<br />
z programowaniem ewolucyjnym i szuka optymalnego zbioru bezpiecznych<br />
trajektorii wszystkich statków zaangażowanych w potencjalną<br />
sytuację kolizyjną. Pozwala ona nawigatorowi przewidzieć<br />
najbardziej prawdopodobne zachowanie statków obcych i zaplanować<br />
z wyprzedzeniem manewry statku własnego.<br />
Słowa kluczowe: algorytmy ewolucyjne, unikanie kolizji statków,<br />
optymalne trajektorie statków<br />
TRETYAKOVA T.: Rola modelowania rozmytego w kształtowaniu<br />
baz wiedzy dla inteligentnych systemów wspomagania decyzji<br />
w warunkach zagrożenia niebezpiecznym zjawiskiem natury<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 18<br />
Do przygotowania zawartości baz wiedzy inteligentnych systemów<br />
doradczych i nauczania (trenażerów), wykorzystując wyniki estymacji<br />
informacji hydrometeorologicznej proponuje się wykorzystywać<br />
zbiory rozmyte i logikę rozmytą Lotfi Zadeha, które pozwalają sformalizować<br />
wiedzę jakościową i operować tą wiedzą. W artykule<br />
przedstawiono schemat blokowy procesu wyboru strategii reagowania<br />
na niebezpieczne zjawiska natury oraz przykładowe zbiory rozmyte<br />
i zmienne lingwistyczne, pozwalające sformalizować wiedzę<br />
jakościową dla inteligentnych systemów tej klasy.<br />
Słowa kluczowe: inteligentne systemy, modele rozmyte, wspomaganie<br />
decyzji, informacja hydrometeorologiczna<br />
ZABIEROWSKI W., NAPIERALSKI A.: Generacja sekwencji harmonicznych<br />
w zgodzie z zasadami harmonii tonalnej przy użyciu<br />
sieci neuronowych<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 22<br />
Artykuł przedstawia badania w dziedzinie Computer Generated<br />
Music [1], a dokładnie w zakresie generacji sekwencji harmonicznych.<br />
Do uzyskania postawionego celu zostały użyte sieci neuronowe.<br />
Do przygotowania danych użyto mechanizmów MIDI wraz<br />
z syntezatorem muzycznym. Artykuł zawiera także dyskusję otrzymanych<br />
wyników w odniesieniu do rzeczywistego procesu kompozycji<br />
utworów muzycznych.<br />
Słowa kluczowe: harmonia tonalna, muzyka, sieci neuronowe, muzyka<br />
komputerowa<br />
PEKSIŃSKI J., MIKOŁAJCZAK G.: Poprawa obrazów cyfrowych<br />
pozyskanych skanerem niskiej klasy z wykorzystaniem filtru FIR<br />
generowanym przez siec neuronową<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 25<br />
Dynamiczny rozwój sprzętu akwizycji obrazów opartego na matrycach<br />
CCD (Charge Coupled Device) doprowadził do tego, że stał się<br />
on obecny niemal w każdym domu. Jakość obrazów pozyskanych za<br />
pomocą takiego sprzętu w dużej stopniu zależy od jakości zastosowanej<br />
matrycy. Celem artykułu jest zaprezentowanie sposobu poprawy<br />
jakości obrazów cyfrowych pozyskanych skanerem o niskich<br />
parametrach tak, aby ich jakość zbliżyła się do obrazów pozyskanych<br />
przy pomocy skanera wysokiej klasy.<br />
Słowa kluczowe: obraz cyfrowy, siec neuronowa, błąd średniokwadratowy<br />
SZŁAPCZYŃSKI R.: Evolutionary sets of cooperating ship trajectories:<br />
open waters and restricted waters<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 15<br />
The paper presents a new method of solving multi-ship encounter situations<br />
for both open waters and restricted water regions. The method<br />
combines some of the assumptions of game theory with evolutionary<br />
programming and aims to find optimal set of cooperating trajectories<br />
of all ships involved in an encounter situation. It enables the navigator<br />
to predict the most probable behaviour of target ships and to plan<br />
the own manoeuvres in advance.<br />
Keywords: evolutionary algorithm, collision avoidance, optimal ship<br />
trajectories<br />
TRETYAKOVA T.: The role of fuzzy modeling in creation of knowledge<br />
base’s for intelligent decision’s support systems in the conditions<br />
of the dangerous hydrometeorological phenomenon<br />
threat<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 18<br />
The design of fuzzy models is one of the problems in creation of the<br />
intelligent systems supporting a choice of strategy of reaction to<br />
threats of the nature. In this paper are submitted some methodological<br />
approaches for creation of knowledge bases for intelligent decision<br />
support systems for bodies of regional management which are intended<br />
to realization of protective actions.<br />
Keywords: intelligent systems, fuzzy models, decision support, hydrometeorological<br />
information<br />
ZABIEROWSKI W., NAPIERALSKI A.: Generation of harmonic sequences<br />
in accordance to tonal harmony rules with artificial neural<br />
networks<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>. p. 22<br />
The article presents research in the domain of Computer Generated<br />
Music [1], more precisely - in the area of harmonic sequences generation.<br />
To achieve the goal set for the research, artificial neural networks<br />
were used. Research data have been made using MIDI<br />
mechanisms and a musical synthesizer. In addition, the article contains<br />
a discussion of obtained results in regard to actual process of<br />
composing musical works as done by a human.<br />
Keywords: tonal harmony, music, neural network, computer generated<br />
music<br />
PEKSIŃSKI J., MIKOŁAJCZAK G.: The correction of digital images<br />
obtained by means of low quality scanner using FIR filter<br />
generated by a neural network in opposition to the digital images<br />
obtained by means of model scanner<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 25<br />
Dynamic development of the image acquisition equipment, which<br />
bases on CCD matrice, that has occurred in recent years was the<br />
cause of the abundance of those devices in household usage. However,<br />
this equipment has many disadvantages caused mainly by the<br />
quality of the CCD matrice and electronics used to build it. Professional<br />
equipment that has high quality parameters and truly mapps<br />
an image is still expensive and is owned mainly by professional companies<br />
that deal with digital image processing. The aim of this article<br />
is to present the possibilities of improvement the quality of images acquired<br />
by low class devices, so that their quality is comparable to images<br />
acquired by high class devices.<br />
Keywords: digital image, neural network, mean square error<br />
ELEKTRONIKA 11/<strong>2009</strong> 3
Streszczenia artykułów • Summaries of the articles<br />
SZŁAPCZYŃSKA J.: Wielokryterialna optymalizacja globalna<br />
w nawigacji meteorologicznej<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 27<br />
Proces optymalizacji tras statku zdefiniować można jako wielokryterialne<br />
zadanie optymalizacyjne z ograniczeniami. W artykule prezentowane<br />
jest, zaimplementowane wcześniej, narzędzie służące do<br />
rozwiązywania zadania optymalizacji tras. Wykorzystuje ono dwa mechanizmy<br />
optymalizacji wielokryterialnej: ewolucyjny algorytm SPEA<br />
oraz metodę rankingową Fuzzy TOPSIS. Uzyskane wyniki badań prezentowanego<br />
narzędzia wskazują na konieczność redukcji łącznego<br />
czasu wykonania algorytmu. Dlatego też w artykule przedstawiono<br />
przegląd alternatywnych metod optymalizacji wielokryterialnej, możliwych<br />
do zastosowania w badanym przypadku. Dodatkowo podjęto<br />
próbę wskazania rozwiązania najkorzystniejszego z punktu wiedzenia<br />
rozpatrywanego problemu.<br />
SZŁAPCZYŃSKA J.: Global multicriteria optimization in weather<br />
routing<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 27<br />
Route optimization for ships may be defined as a constrained multicriteria<br />
optimization problem. This paper presents an already implemented<br />
solution to the problem based on a multicriteria evolutionary<br />
algorithm (SPEA) and a ranking method (Fuzzy TOPSIS). Research<br />
results of the solution indicate the necessity of reduction of total execution<br />
time of the algorithm. Thus, in the paper applicable alternative<br />
optimization methods in weather routing are reviewed and the most<br />
suitable methods are appointed in the final conclusions.<br />
Keywords: global optimization, multicriteria optimization, weather<br />
routing<br />
Słowa kluczowe: optymalizacja globalna, optymalizacja wielokryterialna,<br />
nawigacja meteorologiczna<br />
PEJAŚ J.: Podpisany dokument elektroniczny i jego wartość dowodowa<br />
w certyfikatowej i bezcertyfikatowej infrastrukturze<br />
kryptosystemu klucza publicznego<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 30<br />
W artykule zaproponowano model długookresowego certyfikowanego<br />
elektronicznego schematu podpisu (LT-CESS), będącego rozwinię -<br />
ciem standardowego certyfikatowanego schematu podpisu elektronicznego<br />
(CESS). Zaproponowany schemat LT-CESS może być<br />
stosowany zarówno w certyfikatowym kryptosystemie klucza pu blicznego<br />
(PKC), opartym na jawnych certyfikatach klucza publicznego,<br />
jak również w bezcertyfikatowym kryptosystemie klucza publicznego<br />
(CL-PKC), opartym na niejawnych certyfikatach klucza publicznego<br />
Słowa kluczowe: schemat podpisu elektronicznego, długookresowa<br />
wartość dowodowa dokumentu elektronicznego, kryptografia oparta<br />
na tożsamości, certyfikatowy i bezcertyfikatowy kryptosystem klucza<br />
publicznego.<br />
CHORAŚ M., STACHOWICZ A., KOZIK R., FLIZIKOWSKI A., RENK<br />
R.: Podejście ontologiczne do reprezentacji podatności systemów<br />
scada dla ochrony infrastruktur krytycznych<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 35<br />
W niniejszym artykule przedstawiono opis podatności systemów<br />
SCADA będący częścią projektu mającego na celu ochronę infrastruktur<br />
krytycznych CIP (Critical Infrastructure Protection). Zastosowane<br />
w tym celu ontologiczne podejście zapewnia klasyfikacje,<br />
relacje i wnioskowanie na temat podatności i ich powiązań z innymi<br />
zagadnieniami bezpieczeństwa. Zaprojektowano także INSPIRE DAT<br />
(Decision Aid Tool) - narzędzie wspomagające decyzje dot. ochrony<br />
systemów SCADA i krytycznych infrastruktur.<br />
Słowa kluczowe: ontologia, podatności, ochrona krytycznych infrastruktur,<br />
SCADA, bezpieczeństwo<br />
DRABOWSKI M.: Synteza i zarządzanie komputerowych systemów<br />
z równoległymi wieloprocesorami i tolerowaniem uszkodzeń<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 38<br />
Artykuł prezentuje spójne podejście do rozwiązania problemów<br />
współbieżnego szeregowania w kompleksie procesów i zasobów.<br />
Takie problemy są charakterystyczne dla syntezy i zarządzania systemów<br />
wieloprocesorowych i tolerujących uszkodzenia. Złożoność<br />
obliczeniowa takich problemów jest NP-zupełna. Artykuł prezentuje<br />
model dla syntezy i zarządzania oraz praktyczny przykład rozwiązywania<br />
takich problemów.<br />
Słowa kluczowe: operacje, zasoby, szeregowanie, wieloprocesorowość,<br />
tolerancja uszkodzeń<br />
PEJAŚ J.: Signed electronic document and its probative value<br />
in certificate and certificateless public key cryptosystem infrastructures<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 30<br />
The paper contains a proposal of a new model of a long-term certificate<br />
electronic signature scheme (LT-CESS) being an extension of a<br />
standard certificate electronic signature scheme (CESS). The LT-<br />
CESS scheme can be used in a certificate Public Key Cryptosystem<br />
(PKC) based on explicit public key certificates and in a Certificateless<br />
Public Key Cryptosystem (CL-PKC) based on implicit public key certificates<br />
as well.<br />
Keywords: electronic signature scheme, long-term probative value<br />
of an electronic document, identity-based cryptography, certificate and<br />
certificateless public key cryptosystem<br />
CHORAŚ M., STACHOWICZ A., KOZIK R., FLIZIKOWSKI A., RENK<br />
R.: Ontology-based approach to scada systems vulnerabilities<br />
representation for CIP<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 35<br />
In this paper description of vulnerabilities in SCADA systems for CIP<br />
(Critical Infrastructure Protection) will be presented. Ontology-based<br />
approach applied for this purpose provides classification, relationships<br />
and reasoning about vulnerabilities and their connections with other<br />
security issues. Our approach is connected with solutions proposed<br />
in INSPIRE Project for increasing security and protection through infrastructure<br />
resilience.<br />
Keywords: ontology, vulnerabilities, critical infrastructure protection,<br />
SCADA, security<br />
DRABOWSKI M.: Synthesis and management of system with parallel<br />
multiprocessors and fault tolerance<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 38<br />
The paper presents a coherent approach to solving the problems of<br />
concurrent scheduling of complex of operations and resources frameworks.<br />
These problems are specific for synthesis and management of<br />
system with multiprocessors and fault tolerance. Computational complexity<br />
of those problems is in general NP-complete. The paper presents<br />
model for synthesis and management and presents practical<br />
example for solving problems of this system.<br />
Keywords: operations, resources, scheduling, multiprocessors, foult<br />
tolerance<br />
4 ELEKTRONIKA 11/<strong>2009</strong>
Streszczenia artykułów • Summaries of the articles<br />
KOROSTIL J., NOZDRZYKOWSKI Ł.: Zabezpieczenie określonego<br />
poziomu niewidoczności w systemach steganograficznych<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 41<br />
W artykule przedstawiono sposób wykorzystania ocen jakości obrazów<br />
zgodnych z percepcją ludzkiego systemu wzrokowego, do określania<br />
niewidoczności zniekształceń powodowanych przez steganograficzne<br />
ukrywanie informacji w kolorowych obrazach cyfrowych.<br />
Przez wykorzystanie metod oceny niewidoczności istnieje możliwość,<br />
aby użytkownik żądając otrzymania danego poziomu niewidoczności,<br />
otrzymywał ją. Obraz wykorzystywany w celach steganograficznych<br />
powinien być starannie wybierany, aby fakt steganograficznego ukrycia<br />
wiadomości, nie był możliwy do wizualnego wykrycia [1].<br />
Słowa kluczowe: steganografia, obrazy cyfrowe, ukrywanie informacji<br />
MAĆKÓW W.: Efektywne uwierzytelnianie danych w systemach<br />
Web GIS<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 45<br />
W artykule przedstawiono wydajny schemat uwierzytelniania danych<br />
geograficznych. Schemat oparty jest na podpisie cyfrowym i łańcuchowaniu<br />
skrótów. Jest on dedykowany dla internetowych systemów<br />
GIS, umożliwiając uwierzytelnianie danych geograficznych przesyłanych<br />
z internetowych serwisów mapowych w odpowiedzi na zapytania<br />
klienta. Odpowiedzi serwera mogą być generowane np.<br />
podczas sesji WMS lub WFS.<br />
KOROSTIL J., NOZDRZYKOWSKI Ł.: The security level of particular<br />
blind steganographic systems<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 41<br />
This article illustrates the utilization of evaluation of images quality in<br />
accordance with the perception of human visual system and to determine<br />
the invisibility of distortions caused by the steganographic information<br />
hiding in digital color images. There is a possibility that the<br />
user could get certain level of invisibility through the use of blind assessment<br />
method. The image used for the purpose of steganography<br />
should be carefully chosen that steganographic information hiding<br />
could not be possible to visual detection [1].<br />
Keywords: steganography, digital image, information hiding<br />
MAĆKÓW W.: The efficient data authentication in Web GIS<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 45<br />
The article presents a scheme of efficient geodata authentication,<br />
based on digital signature and hash chaining. The proposal is dedicated<br />
to the Web GIS systems, for authentication of geographical data<br />
send by web mapping services as an answer to user requests. Server<br />
responses could be generated for example during WMS or WFS communication<br />
session.<br />
Keywords: hash chaining, data authentication, web mapping<br />
Słowa kluczowe: łańcuchowanie skrótów, uwierzytelnianie danych,<br />
webmapping<br />
RAKOWSKI A., EL FRAY l.: Próba implementacji systemu<br />
ochrony przed utratą danych (DLP) pracującego na poziomie<br />
jądra dla systemu Linux<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 48<br />
W pracy omówiono ogólnie ideę systemów DLP i kilku wybranych realizacji<br />
programowych dedykowanych platformie Windows. W artykule<br />
opisano także możliwe kanały wycieku informacji wrażliwej oraz<br />
przedstawiono autorską próbę utworzenia prostego systemu zapobiegania<br />
przed utratą danych. Utworzony system o nazwie PXX jest<br />
aplikacją złożoną z modułu jądra dla systemu Linux rodziny 2.6 oraz<br />
daemonem pracującym w przestrzeni administratora. Celem pracy<br />
jest określenie możliwości realizacji seryjnego i biznesowego rozwiązania<br />
rodziny DLP dla systemu Linux.<br />
Słowa kluczowe: System ochrony przed utratą danych, wyciek danych,<br />
bezpieczeństwo informacji<br />
ONISZCZUK W.: Buforowanie z progami w połączonych serwerach<br />
z blokadami<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 51<br />
Zastosowania progów w buforach, koncepcja blokad i odpowiednia<br />
strategia obsługi, to szeroko używane sposoby przeciwdziałania przeciążeniom<br />
w systemach komputerowych. Często więc, obiektami<br />
badań są kolejkowe systemy obsługi z blokadami, recyklingiem<br />
(obsługa priorytetowa) i ograniczonymi buforami z dynamicznymi progami.<br />
W niniejszej pracy założono, że zewnętrzny strumień zadań jest<br />
strumieniem Poissona, a losowe czasy obsługi mają rozkład wykładniczy.<br />
Badana sieć składa się z trzech węzłów, a w buforach mamy<br />
progi o rozmiarach tm1 i tm2. Na bazie formalizmów łańcuchów Markowa,<br />
powstały efektywne modele analityczne takich systemów<br />
obsługi, a seria eksperymentów numerycznych pokazała, że koncepcja<br />
blokad, recyklingu z priorytetami, oraz z dynamicznymi progami<br />
dobrze opisuje procesy obsługi w takich systemach.<br />
Słowa kluczowe: sieci z progami, kontrola przeciążeń, łańcuchy Markowa,<br />
blokady<br />
RAKOWSKI A., EL FRAY l.: An experiment of implementation of<br />
DLP system working as a Linux kernel loadable module<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 48<br />
This article covers general description of DLP systems and some software<br />
implementations dedicated to Windows operating system. Also<br />
possible channels of loss of sensitive data were mentioned and described.<br />
Authors discuss their own experiment of creating simple data<br />
loss prevention system. Created system called PXX is made up of<br />
Linux’s kernel loadable module for 2.6 family and root space daemon.<br />
The aim was to determine possibility of implementation of universal<br />
Linux-based business DLP solution.<br />
Keywords: data loss prevention (DLP), data leakage, information security<br />
ONISZCZUK W.: A buffer thresholds policy in linked in series<br />
servers with blocking<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 51<br />
The use of buffer thresholds, blocking and adequate service strategies<br />
are well-known techniques for computer networks traffic congestion<br />
control. This motivates the study of series queues with<br />
blocking, feedback (service under Head of Line (HoL) priority discipline)<br />
and finite capacity buffers with thresholds. In this paper, the external<br />
traffic is modelled using the Poisson process and the service<br />
times have been modelled using the exponential distribution. We consider<br />
a three-station network with two finite buffers, for which a set of<br />
thresholds (tm1 and tm2) is defined. Using an open Markovian queuing<br />
schema with blocking, priority feedback service and thresholds,<br />
a closed form cost-effective analytical solution is obtained. Based on<br />
numerical experiments and collected results we conclude that the<br />
proposed model with blocking, feedback and thresholds can provide<br />
accurate performance estimates of linked in series servers.<br />
Keywords: threshold-base networks, congestion control, Markov<br />
chains, blocking<br />
ELEKTRONIKA 11/<strong>2009</strong> 5
KAMIŃSKI M.: System automatyzujący naprawy systemów IT<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 54<br />
Artykuł ten dotyczy dwóch istotnych problemów: problemu monitorowania<br />
systemów IT oraz problemu ich naprawiania. Zaprezentowano<br />
w nim rozwiązanie umożliwiające automatyzację istniejących procesów<br />
naprawczych oraz ich integrację z przemysłowymi systemami<br />
i mechanizmami monitorującymi. Opisane rozwiązanie jest częścią<br />
większego projektu, nazwanego RMF (Repair Management Framework).<br />
W artykule tym zamieszczono również skrótowe studium przypadku<br />
dotyczące wytworzonego oraz zaimplementowanego systemu,<br />
pokazujące w jaki sposób został on użyty do rozwiązywania rzeczywistego<br />
problemu dotyczącego funkcjonowania systemów zarządzania<br />
bazami danych.<br />
Słowa kluczowe: systemy IT, wytwarzanie oprogramowania, metody<br />
formalne, monitorowanie i naprawa<br />
FREJLICHOWSKI D.: Wpływ liczby przedziałów w histogramie na<br />
wyniki rozpoznawania z użyciem algorytmu Point Distance Histogram<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 58<br />
Artykuł przedstawia wyniki eksperymentu przeprowadzonego<br />
z użyciem konturowych kształtów znaków firmowych a oparciu o algorytm<br />
Point Distance Histogram. Jednym z ważnych elementów tego<br />
algorytmu jest wybór liczby przedziałów (oznaczonej jako r) w wynikowym<br />
histogramie. W trakcie eksperymentów badano wpływ zmiennej<br />
wartości tego parametru na rezultaty rozpoznawania. Głónym<br />
celem badań było ustalenie najlepszych wartości współczynnika r dla<br />
małych konturowych kształtów binarnych. Jako ogólne podejście do<br />
problemu rozpoznawania wybrano porównywanie ze wzorcami (ang.<br />
template matching).<br />
Słowa kluczowe: opis kształtu, rozpoznawanie znaków firmowych,<br />
histogram, współrzędne biegunowe<br />
FORCZMAŃSKI P., WĘGRZYN M.: Otwarte Wirtualne Laboratorium<br />
Steganograficzne<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 60<br />
Jednym z najbardziej popularnych i wydajnych podejść do steganografii<br />
jest ukrywanie wiadomości w obrazach cyfrowych. Niestety większość<br />
z programów, które oferują szeroki zakres metod bazujących<br />
na LSB (osadzanie w najmniej znaczącym bicie) lub algorytmie JPEG<br />
jest podatna na współczesną steganalizę. Z drugiej strony, na rynku<br />
brakuje oprogramowania, które pozwalałoby na symulowanie i badanie<br />
różnych innych metod steganoraficznych i steganalitycznych. Powyższe<br />
potrzeby wymusiły powstanie oprogramowania opisanego w<br />
niniejszej pracy, które pozwala na ukrywanie informacji w danych graficznych,<br />
przeprowadzanie procedury steganalizy i umożliwia użycie<br />
tzw. wtyczek (plug-in). W opracowanym laboratorium przetwarzanie<br />
może odbywać się w sposób zarówno sekwencyjny, jak i równoległy.<br />
Aplikacja może być obsługiwana przez stosunkowo mało doświadczonych<br />
użytkowników, ponieważ dysponuje graficznym interfejsem<br />
użytkownika (zgodnym z technologią drag-and-drop). Może być wykorzystana<br />
w badaniach naukowych i edukacji.<br />
Słowa kluczowe: wirtualne laboratorium, steganografia, staganaliza,<br />
znakowanie wodne, Java<br />
KUBANEK M.: Zastosowanie rozpoznawania mowy i weryfikacji<br />
użytkownika w systemach telewizji przemysłowej<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 65<br />
Systemy rozpoznawania mowy i weryfikacji osób na podstawie mowy<br />
niezależnej są coraz częściej powszechnie używane. W systemach<br />
rozpoznawania mowy musimy wiedzieć, co zostało wypowiedziane<br />
przez testowaną osobę. Takie rozpoznane słowa można stosować do<br />
sterowania różnymi urządzeniami, kontrolowanymi przez komputer.<br />
W przypadku weryfikacji tożsamości nie jest ważne, co zostało wypowiedziane,<br />
ale kto to wypowiedział. W systemach weryfikacji tożsamości,<br />
gdzie każdy z zarejestrowanych użytkowników posiada swój<br />
własny unikalny login, zarejestrowana wypowiedź weryfikowanego<br />
użytkownika jest porównywana z wszystkimi wypowiedziami z bazy.<br />
Jeśli login się zgadza i charakterystyki głosowe są zgodne, wówczas<br />
system akceptuje weryfikowaną osobę.<br />
W artykule zaproponowano rozpoznawanie mowy do sterowania<br />
ruchem kamery przemysłowej, oraz weryfikację użytkownika na podstawie<br />
mowy niezależnej do logowania do systemu. Do ekstrakcji i kodowania<br />
charakterystyk głosowych zastosowano analizę cepstralną<br />
mowy. Jako aparat rozpoznający przyjęto ukryte modele Markowa.<br />
Głównym zadaniem tej pracy - oprócz oczywiście praktycznej implementacji<br />
opisanych metod - jest pokazanie, w jaki sposób należy<br />
zmodyfikować mechanizm analizy cepstralnej na potrzeby rozpoznawania<br />
mowy, a w jaki sposób na potrzeby weryfikacji tożsamości na<br />
podstawie mowy niezależnej.<br />
Słowa kluczowe: weryfikacja użytkownika, rozpoznawanie mowy,<br />
mowa niezależna, kodowanie mowy<br />
KAMIŃSKI M.: A system automating repairs of IT systems<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 54<br />
This paper presents two problems that are important nowadays: the<br />
problem of IT systems monitoring and the problem of repairing them.<br />
It shows the developed solution, aimed to automate the existing industrial<br />
repair process and to integrate it with the existing monitoring<br />
solutions and mechanisms. Described solution is a part of a bigger<br />
whole, called the Repair Management Framework (RMF). This paper<br />
presents also briefly a case study related to the developed and implemented<br />
system, showing how it was used to solve the real problem<br />
regarding the functioning of database management systems.<br />
Keywords: IT systems, software development, formal methods, monitoring<br />
and repair<br />
FREJLICHOWSKI D.: Influence of the number of bins on the<br />
recognition results using Point Distance Histogram<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 58<br />
The paper presents the results of an experiment performed on trademark<br />
contour shapes using Point Distance Histogram. One of the important<br />
stages in the algorithm is the selection of the number of bins<br />
(denoted as r) in the resultant histogram. The experiments explored<br />
the influence of this varying value on the recognition results. The main<br />
goal was to establish the best value for small binary contour shapes.<br />
The template matching was used as the whole approach to the recognition<br />
problem.<br />
Keywords: shape description, trademark recognition, histogram,<br />
polar coordinates<br />
FORCZMAŃSKI P., WĘGRZYN M.: Open Virtual Steganographic<br />
Laboratory<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 60<br />
One of the most popular and efficient steganographic approaches is<br />
to embed messages into digital images. However, most of available<br />
applications that provide wide range of Least Significant Bit methods<br />
or different JPEG techniques no longer resist modern steganalysis.<br />
On the other hand, there is no application for still images, that could<br />
simulate and test multiple methods both steganographic and steganalytic,<br />
thus the purpose of this paper is to propose a software for hiding<br />
and detecting data in digital images that uses several different<br />
adjustable steganographic techniques, allows testing their security<br />
level with steganalysis and provides simple plug-in architecture. The<br />
processing can be performed in both batch and parallel form. The application<br />
can be operated even by relatively inexperienced users since<br />
it provides legible graphical user interface (conforming with drag-anddrop<br />
technology) and it can be employed both in research and in educational<br />
areas.<br />
Keywords: virtual laboratory, steganography, steganalysis, watermarking,<br />
Java<br />
KUBANEK M.: The use of speech recognition and user verification<br />
in closed-circuit television systems<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 65<br />
Speech recognition systems, and the verification of persons on the<br />
basis of independent speech are widely used. In the speech recognition<br />
systems, we need to know what said examined person. These<br />
recognized words we can used to controlling any devices, which is<br />
controlled by computer. In a speaker verification, the prime interest is<br />
not in recognizing the words but determining who is speaking the<br />
words. In systems of speaker verification, a test of signal from an<br />
known speaker, user gives his own login, is compared to all known<br />
speaker signals in the set. If the vocal is the same and the user login<br />
is the same, the system accepts the user.<br />
In this work, it was proposed use speech recognition method to<br />
control the movement of the camera of closed-circuit television<br />
system, and use user verification method to log on to this system. Extraction<br />
of the audio features of person’s speech is done using modified<br />
mechanism of cepstral speech analysis. Speech recognition is<br />
done using hidden Markov models.<br />
The main aim of this work, excepting the practical implementation<br />
of both methods, is show, how to modify the MFCC for speech<br />
recognition and user verification.<br />
Keywords: user verification, speech recognition, independent<br />
speech, speech coding<br />
6 ELEKTRONIKA 11/<strong>2009</strong>
Streszczenia artykułów • Summaries of the articles<br />
JAŁOWIECKI P., WOŹNIAKOWSKI T., ORŁOWSKI A.: Projekt systemu<br />
SMS-B jako platformy edukacyjnej dla e-biznesu<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 68<br />
Funkcjonowanie współczesnych instytucji i organizacji komercyjnych<br />
opiera się na systemach informatycznych zaliczanych do kategorii<br />
Business Intelligence. Wydaje się, że pożyteczne jest oparcie procesu<br />
edukacji na takich kierunkach studiów jak: ekonomia, finanse<br />
i rachunkowość, informatyka, ekonometria oraz zarządzanie<br />
o dedykowane platformy IT wystarczająco wiernie odtwarzające<br />
rzeczywiste, informatyczne środowisko pracy.<br />
W pracy przedstawiono koncepcję systemu SMS-B (System Modelowania<br />
i Symulacji Biznesowych) zaprojektowanego do symulowania<br />
procesów biznesowych jako propozycję platformy edukacyjnej<br />
oferującej zintegrowane rozwiązania współczesnych systemów informatycznych<br />
klasy BI. Architektura systemu SMS-B tak blisko jak to<br />
możliwe imituje rzeczywiste środowisko pracy w dużych instytucjach<br />
finansowych. Funkcjonalność systemu zakłada wykorzystywanie<br />
danych generowanych w oparciu o biznesowe modele symulacyjne.<br />
Możliwości oferowane przez system w zakresie zastosowań<br />
edukacyjnych stanowią połączenie funkcjonalności oferowanej przez<br />
rzeczywiste, współczesne systemy IT wielu kategoriom użytkowników<br />
końcowych, w szczególności pracownikom obsługi IT, użytkownikom<br />
biznesowym, analitykom i różnym kategoriom konsumentów informacji.<br />
Ponadto system SMS-B oferuje różne możliwości użytkownikom<br />
szczebla kierowniczego z zakresu statystyki, ekonometrii<br />
i zarządzania organizacjami.<br />
JAŁOWIECKI P., WOŹNIAKOWSKI T., ORŁOWSKI A.: SMS-B pro -<br />
ject of educational platform for e-business<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 68<br />
Present institutions and commercial organizations work is based on<br />
systems count to Business Intelligence class. It seems to be advisable<br />
to base education process in such faculties as: economy, finance and<br />
accounting, computer science, econometrics and management on the<br />
dedicated modeling IT platform suitable to achieve practical experience<br />
in real market environment.<br />
In this article we present the concept of system designated to simulate<br />
business processes SMS-B (Simulation and Modeling System<br />
for Business) as proposition of educational platform offering integrated<br />
end-to-end solution of modern BI computer system. SMS-B architecture<br />
as close as possible to the real world imitates essential processes<br />
meet in financial enterprise. These functions operate on the base on<br />
data generated by business simulation models.<br />
The capabilities offered by system for educational purposes are<br />
essential for many categories of end-users worked every day with information<br />
systems. Especially for IT people, business users, analysts<br />
and other sorts of information consumers. The SMS-B system offers<br />
as well as a range of executive services for studies such as statistics,<br />
econometrics and enterprise management.<br />
Keywords: business Intelligence, Information Technologies, educational<br />
platform<br />
Słowa kluczowe: informacja zarządcza, technologie informacyjne,<br />
platforma edukacyjna<br />
BARANIECKA A., KAZIMIERCZAK B., KRUK J., PIJANOWSKA D.<br />
G., TORBICZ W.: Zastosowanie technik immunoenzymatycznych<br />
i mikrofluidycznych do amperometrycznego oznaczania stężenia<br />
białka C-reaktywnego<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 79<br />
CRP jest białkiem ostrej fazy i jednym z najlepszych niespecyficznych<br />
markerów określającym ryzyko oraz zaawansowanie choroby niedokrwiennej<br />
serca. Bardzo przydatne stają się w tym przypadku wielofunkcyjne<br />
urządzenia diagnostyczne z szybką amperometryczną<br />
detekcją oraz funkcją wstępnego rozdziału próbki. Układy mikroprzepływowe<br />
umożliwiają taki rozdział przy małej objętości badanych<br />
próbek i reagentów, co znacząco obniża koszty testu. Z wyjątkiem<br />
nowych aptaczujników, jedynie immunoczujniki zapewniają specyficzność<br />
wobec poszukiwanego analitu w próbce. W nieprzezroczys -<br />
tych próbkach, jakimi są płyny fizjologiczne, niemożliwe jest<br />
zastosowanie optycznych metod detekcji, stąd konieczne jest zastosowanie<br />
metody znakowania enzymem przeciwciał w immunoczujnikach<br />
i użycie innego rodzaju detekcji np. elektrochemicznej. Ze<br />
względu na niski poziom szumów tła i możliwość szybkiej detekcji,<br />
najczęściej stosuje się detekcję amperometryczną. Celem naszych<br />
prac jest opracowanie amperometrycznych immunoczujników mikroprzepływowych<br />
do diagnostyki medycznej do oznaczania CRP.<br />
BARANIECKA A., KAZIMIERCZAK B., KRUK J., PIJANOWSKA D.<br />
G., TORBICZ W.: Application of immunoenzymatic and microfluidic<br />
techniques for amperometric determination of C-reactive<br />
protein concentration<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 79<br />
CRP is acute phase protein and one of the best nonspecific diagnostic<br />
markers in heart diseases. Microfluidic systems offer function of<br />
preliminary probe separation with small consumption of probes and<br />
reagents, which decrease cost of unit test. Except newly developed<br />
aptasensors, only immunosensors provide specificity to determined<br />
analit in composed analyzed probe. In the case of nontransparent<br />
samples, like physiological fluids, immunosensors with electrochemical<br />
detection are sensors of choice, e.g. amperometric. For electrochemical<br />
detection enzyme labeled antibody is used. In order to<br />
decrease background noise and obtain fast response, amperometric<br />
sensors are mostly applied. An aim of our research is development of<br />
microfluidic type amperometric immunosensors for medical diagnostics,<br />
in particular for CRP determination.<br />
Keywords: C-reactive protein, immunosensor, microfluidic system,<br />
amperometric detection, ELISA test<br />
Słowa kluczowe: białko C-reaktywne, immunoczujnik, układ mikrofluidyczny,<br />
detekcja amperometryczna, test ELISA<br />
KACZMARCZYK A., KACPRZAK M., MASŁOWSKI A.: Wielopoziomowy<br />
trening symulacyjny w szkoleniu operatorów urządzeń.<br />
Zastosowanie do szkolenia operatorów robotów mobilnych<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 92<br />
Wielopoziomowy trening symulacyjny ma umożliwiać efektywne - co<br />
do kosztów i czasu przygotowanie wysokokwalifikowanych operatorów<br />
urządzeń dzięki użyciu tańszego wyposażenia i metod treningu<br />
do nabycia podstawowych umiejętności i bardziej złożonych do ich<br />
doskonalenia. Przedstawiono koncepcję treningu wielopoziomowego<br />
operatorów robotów mobilnych naziemnych, wyposażonych w kamerę<br />
TV i inne sensory oraz manipulator. Ponadto, artykuł zawiera<br />
ocenę tej koncepcji dokonaną przez polskiego producenta i użytkowników<br />
takich robotów oraz wnioski dotyczące rozwoju metod treningu.<br />
Słowa kluczowe: e-trening, wielopoziomowy trening symulacyjny,<br />
szkolenie operatorów urządzeń (robotów mobilnych)<br />
KACZMARCZYK A., KACPRZAK M., MASŁOWSKI A.: Multi-level<br />
simulation training of devices operators. An application to mobile<br />
robots operators<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 92<br />
Multi-level simulation training is to enable cost and time efficient<br />
preparation of a great number of devices operators with advanced<br />
skills thanks to use of no costly equipment and methods to get basic<br />
expertise, and more sophisticated ones to perfect it. A concept of<br />
multi-level training of operators of the on-earth-mobile robots<br />
equipped with TV-cameras, other sensors, and manipulator arm is<br />
presented. Moreover, results of this concept evaluation by a Polish<br />
manufacturer and users of such robots, and conclusions related to<br />
the development of training methods are included in the paper.<br />
Keywords: e-training, multi-level simulation training, training of devices<br />
(mobile robots) operators<br />
ELEKTRONIKA 11/<strong>2009</strong> 7
Streszczenia artykułów • Summaries of the articles<br />
CZEKAŁA Z.: Radary pasywne - nowa technika radiolokacji<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 100<br />
Artykuł przedstawia podstawy funkcjonowania radarów pasywnych,<br />
które nie mają własnego nadajnika, lecz wykorzystują fale radiowe<br />
promieniowane przez „okazjonalne” nadajniki przeznaczone do innych<br />
celów. Wskazano istotne różnice w działaniu radaru impulsowego<br />
i radaru przetwarzającego sygnał ciągły o charakterze szumu.<br />
Wyjaśniono zasady odbioru korelacyjnego i przetwarzania sygnału<br />
oraz wyznaczania odległości echa. Opisano poszczególne komponenty<br />
radaru pasywnego na podstawie zrealizowanego demonstratora.<br />
Pokazano i skomentowano przykłady praktycznej realizacji<br />
znanych radarów pasywnych.<br />
Słowa kluczowe: radar pasywny, PCL, radar szumowy, funkcja korelacji,<br />
oval Cassiniego,<br />
CZAJKOWSKI J., ŁYSZYK K.: System dalekosiężnej identyfikacji<br />
i śledzenia statków<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 115<br />
W artykule przedstawiono system dalekosiężnej identyfikacji i śledzenia<br />
statków, którego celem jest zapewnienie światowego monitoringu<br />
ruchu statków w celu poprawienia bezpieczeństwa żeglugi.<br />
Opisano ostateczną koncepcję systemu, omówiono przyjętą strukturę<br />
oraz części składowe. Przedstawiono charakterystykę funkcjonalnych<br />
składowych systemu LRIT.<br />
Słowa kluczowe: bezpieczeństwo żeglugi, monitoring statków<br />
ROMANIUK R.: Szkło dla fotoniki. Część 14. Parametry szklanego<br />
włókna optycznego<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 119<br />
Szkła, obok półprzewodników i metali, są podstawowym materiałem<br />
do budowy elementów w optoelektronice i mikroelektronice. Praktyczna<br />
wiedza o szkłach rozszerza się wraz z silnym rozwojem ich<br />
zastosowań w telekomunikacji, czujnikach i budowie mikrosystemów.<br />
Wiele elementów funkcjonalnych fotoniki budowanych jest ze szkieł<br />
laserowych. Optyczne zjawiska nieliniowe indukowane w szkle pozwalają<br />
na budowę nowych mikro-elementów fotonicznych zastępujących<br />
złożone rozwiązania klasycznej optyki objętościowej. Szkła<br />
gradientowe zastępują klasyczne szkła optyczne.<br />
W artykule, który jest czternastą częścią cyklu prac o szkłach dla<br />
fotoniki, dokonano przeglądu parametrów szklanych włókien optycznych<br />
dla celów transmisyjnych i instrumentalnych. W powszechnym<br />
mniemaniu włókno szklane jest prostym optycznym elementem biernym,<br />
którego głównym parametrem jest tłumienność i średnica rdzenia<br />
oraz refrakcja. Nic bardziej błędnego. Artykuł pokazuje kilkadziesiąt<br />
ważnych parametrów włókna szklanego, które jest jednym<br />
z bardziej zaawansowanych obiektów inżynierii materiałowej.<br />
Słowa kluczowe: szkła optyczne, fotonika, szkła światłowodowe,<br />
szklane włókna optyczne, parametry światłowodu szklanego, apertura<br />
numeryczna, częstotliwość znormalizowana, dyspersja chromatyczna<br />
światłowodu, światłowody aktywne, światłowody polaryzacyjne<br />
SZCZĘSNY J.: Wpływ konstrukcji cyfrowych układów scalonych<br />
na generację zaburzeń elektromagnetycznych<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 129<br />
Przedstawiono wyniki pomiarów emisji pól EM w funkcji częstotliwości<br />
zegara taktującego ze ścieżek zasilania, masy oraz ze środka<br />
obudowy układu scalonego matrycy cyfrowej FPGA realizującej<br />
mnożenie metodą sekwencyjną i kombinacyjną. Porównano poziomy<br />
emisji zaburzeń opracowanych projektów IC w zależności od rozmieszczenia<br />
bloków logicznych w obszarze matrycy, liczby aktywnych<br />
bloków logicznych i wielkości prądów zasilania w funkcji<br />
częstotliwości taktowania.<br />
CZEKAŁA Z.: Passive radars - a new radar technology<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 100<br />
The article presents fundamentals of operation of passive radars,<br />
which have no dedicated transmitter, but use radio waves radiated by<br />
transmitters of opportunity that normally serve other purposes. Important<br />
differences in operation of a pulsed radar and one that<br />
processes continuous noise-like signal have been indicated. Principles<br />
of the correlation reception, signal processing and target range<br />
finding have been explained. The particular components of a passive<br />
radar have been described, basing on a real demonstrator. Examples<br />
of practical implementation of well-known passive radars have been<br />
shown and commented.<br />
Keywords: passive radar, PCL, noise radar, correlation function,<br />
Cassini oval<br />
CZAJKOWSKI J., ŁYSZYK K.: Long Range Identification and<br />
Tracking of ships<br />
<strong>Elektronika</strong> (L), nr 11/<strong>2009</strong>, s. 115<br />
The article presents the main assumption of the Long Range Identification<br />
and Tracking of ships. The maim aim of the system is to improve<br />
the safety of navigation and to create global ships monitoring<br />
system. The main function preformed by the by the subsystems have<br />
been also presented.<br />
Key words: safety of navigation, global ships monitoring system<br />
ROMANIUK R.: Glasses for photonics. Part 14. Parameters of<br />
glass optical fibers<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 119<br />
Glasses, together with semiconductors and metals, are fundamental<br />
materials for building of components for optoelectronics and microelectronics.<br />
Practical knowledge about glasses extends considerably<br />
with strong development of their applications in telecommunications,<br />
sensors and the construction of microsystems. Many functional components<br />
of the photonics is manufactured of laser glasses. Nonlinear<br />
optical phenomena induced in glasses allow for building of new microcomponents,<br />
replacing complex solutions of classical volume optics.<br />
Gradient glasses are replacing classical optical glasses.<br />
The paper, which is the fourteenth part of a cycle on glasses for<br />
photonics, is a concise review of the most frequently used parameters<br />
of optical fibers used for transmission and instrumentation purposes.<br />
A common belief is that an optical fiber is a simple passive optical object<br />
with the major parameters such as: losses, core dimension and<br />
refraction. It is a big mistake. The papers discusses a few tens of parameters<br />
of optical fibers used to characterize this very complex component.<br />
Advanced optical fibers are nowadays very complex products<br />
of material engineering.<br />
Keywords: optical glasses, photonics, optical fiber glasses, glass optical<br />
fibers, parameters of optical fibers, numerical aperture, normalized<br />
frequency, optical fiber chromatic dispersion, active optical fibers,<br />
polarization maintaining optical fibers<br />
SZCZĘSNY J.: Influence of the IC construcion on electromagnetic<br />
disturbance<br />
<strong>Elektronika</strong> (L), no 11/<strong>2009</strong>, p. 129<br />
In the paper some investigations of the electromagnetic emission from<br />
supply and ground pins of the circuits and middle zone of the Xilinx<br />
FPGA XCV800 package as a function of the clock rate are presented.<br />
To check the influence of IC floor plan, number of logic blocs and the<br />
circuit function on its electromagnetic emissions was tested.<br />
Keywords: Digital circuits, electromagnetic emission, FPGA floor plan<br />
and electric function, disturbances<br />
Słowa kluczowe: układy scalone, emisja elektromagnetyczna,<br />
FPGA, mapa bloków logicznych, zaburzenia EM<br />
8 ELEKTRONIKA 11/<strong>2009</strong>
Medical pattern intelligent recognition based<br />
on linguistic modelling of 3D coronary vessels<br />
visualisations<br />
(Lingwistyczne modelowanie przestrzennych rekonstrukcji unaczynienia<br />
wieńcowego w inteligentnym rozpoznawaniu zmian patologicznych)<br />
mgr inż. MIROSŁAW TRZUPEK, prof. dr hab. MAREK R. OGIELA,<br />
prof. dr hab. inż. RYSZARD TADEUSIEWICZ<br />
AGH University of Science and Technology, Institute of Automatics, Bio-Cybernetics Laboratory, Krakow<br />
Characteristic for the coronary vessels in different patients with<br />
various pathologic forms observed on flat, i.e. 2D, images is a<br />
certain level of repetitiveness and regularity. The same images<br />
registered by a machine rendering 3D images (helical CT<br />
scanner) feature a much greater number of visible details,<br />
which, however, results also in the increase of the number of<br />
both individual differences and those between various examinations<br />
of the same patient. Having considering these difficulties,<br />
a decision was made to apply the methods of automatic<br />
image understanding for the interpretation of the images considered,<br />
which consequently leads to their semantic descriptions.<br />
Thanks to such posing of the problem, the diagnosis put<br />
forth (being naturally but a suggestion for the physician making<br />
the actual decision) will account for a greater number of<br />
factors and use better the available medical information.<br />
Additionally, it is worth pointing out that - even though this<br />
is not the main focus of the work presented here - that the solution<br />
of problems related to the automatic production of intelligent<br />
(cognitive) descriptions of the 3D medical images in<br />
question may be a significant contribution to solving at least<br />
some of the problems connected to the smart archiving of this<br />
type of data and the finding of semantic image data meeting<br />
the semantic criteria delivered through sample image patterns<br />
in medical multimedia databases.<br />
The goal of research and description<br />
of the problem<br />
Problems of modelling biomedical structure shapes are extremely<br />
interesting from the scientific point of view, but also in<br />
connection with the development of medical diagnostic support<br />
systems. They concern various structures diagnosed<br />
using various modalities. However, in such research, we extremely<br />
frequently see the use of an approach based on neutral<br />
networks for shape modelling. For instance, such models<br />
can be built using Kohonen networks [1]. However, it is worth<br />
noting that such solutions are usually limited by the network<br />
topology, which, although it allows you to operate on vectors<br />
of features informative for the objects researched, does not<br />
allow the image to be analysed or the organ to be reconstructed<br />
in a holistic fashion, i.e. taking into account the full<br />
dimensions of the image [2-4]. This only becomes possible<br />
when we create linguistic descriptions using image grammars<br />
based on graph formalisms. By definition, such grammars<br />
have been dedicated for analysing image scenes, which in the<br />
case of medical visualisation means that they can be used to<br />
model multi-object structures or to conduct the meaning analysis<br />
of spatial reconstructions of heart tomograms, which will be<br />
demonstrated later in this publication.<br />
Graph-based semantic models<br />
of the heart’s coronary vessels<br />
In order to analyze a 3D reconstruction (visualisations for various<br />
patients obtained during diagnostic examinations of the<br />
heart with a helical CT scanner with 64 detectors), it becomes<br />
necessary to select the appropriate projection showing lesions<br />
in vessels in a way that enables them to be analysed on<br />
a plane. In our research we have attempted to automate the<br />
procedure of finding such a projection by using selected geometric<br />
transformations during image processing. Next, to enable<br />
a linguistic representation of the spatial reconstructions<br />
studied, the coronary vessels shown in them had been subjected<br />
to the operation of thinning, referred to as skeletonizing.<br />
This operation allows us to obtain a skeleton of the arteries<br />
under consideration with the thickness of one unit. This skeleton<br />
can then be subjected to the operation of labelling, which<br />
determines the start and end points of main and surrounding<br />
branches of coronary arteries in it. These points will constitute<br />
the peaks of a graph modelling the spatial structure of the<br />
coronary vessels of the heart.<br />
The next step is labeling them by giving each located informative<br />
point the appropriate label from the set of peak labels<br />
which unambiguously identify individual coronary arteries<br />
forming parts of the structure analysed. For the left coronary<br />
artery they have been defined as follows: LCA - left coronary<br />
artery, LAD - anterior interventricular branch (left anterior descending),<br />
CX - circumflex branch, L - lateral branch, LM - left<br />
marginal branch. And for the right coronary artery they have<br />
been defined as follows: RCA - right coronary artery, A - atrial<br />
branch, RM - right marginal branch, PI - posterior interventricular<br />
branch, RP - right posterolateral branch. This way, all<br />
initial and final points of coronary vessels as well as all points<br />
where main vessels branch or change into lower level vessels<br />
have been determined and labelled as appropriate. After this<br />
operation, the coronary vascularization tree is divided into<br />
sections which constitute the edges of a graph modelling the<br />
examined coronary arteries. Mutual spatial relations that may<br />
occur between elements of the vascular structure represented<br />
by a graph are described by the set of edge labels. The elements<br />
of this set have been defined by introducing the appropriate<br />
spatial relations; vertical - defined by the set of labels<br />
α, β,…, µ and horizontal - defined by the set of labels 1, 2,…,<br />
24 on a hypothetical sphere surrounding the heart muscle.<br />
These labels designate individual final intervals, each of which<br />
has the angular spread of 15°. Then, depending on the location,<br />
terminal edge labels are assigned to all branches identified<br />
by the beginnings and ends of the appropriate sections of<br />
coronary arteries.<br />
ELEKTRONIKA 11/<strong>2009</strong> 9
The presented methodology draws upon the method of<br />
determining the location of a point on the surface of our planet<br />
in the system of geographic coordinates, where a similar cartographic<br />
projection is used to make topographic maps. This<br />
representation of mutual spatial relationships between the<br />
analysed arteries yields a convenient access to and a unanimous<br />
description of all elements of the vascular structure.<br />
As the structure of coronary vascularization may be characterised<br />
by three different types of artery distribution over the<br />
heart surface, in the following part we will propose a grammar<br />
for the left dominance artery distribution. The left dominance<br />
artery distribution is present in on average 10...14% of cases,<br />
with a variety of intermediate forms possible. Before we define<br />
the representation of the analysed image in the form of IE<br />
graphs, we have to introduce the following order relationship<br />
1 ≤ 2 ≤ 3 ≤ … ≤ 24 and α ≤ β ≤ γ ≤ … ≤ µ in the set of Г edge<br />
labels shown in Fig. 1. This way, we index all peaks according<br />
to the ≤ relationship in the set of edge labels which connect<br />
the main peak marked 1 to the adjacent peaks and we index<br />
in the ascending order (i = 2, 3, …, n). This gives us IE graphs<br />
for the right and the left coronary arteries, respectively, presented<br />
in Fig. 1.<br />
When graphs shown in Fig. 1 are represented by their<br />
characteristic descriptions, they look as follows:<br />
For the right coronary artery:<br />
The graph structure created in this way will form elements<br />
of a graph language defining the spatial topology of the heart<br />
muscle vascularization including its possible morphological<br />
changes.<br />
For IE graphs defined as above, in order to locate the<br />
place where stenoses occur in the case of a balanced artery<br />
distribution, the graph grammar may take the following form:<br />
for the right coronary artery:<br />
G P = (S, ∆, Γ, P, Z)<br />
S = {ST, RCA, PI, RM, C_Right},<br />
D = {ST, RCA, PI, RM},<br />
G = {16η, 11ι, 12λ, 14ε}<br />
The start graph Z and the set of productions shown in Fig. 2.<br />
for the left coronary artery:<br />
G L = (S, ∆, Γ, P, Z)<br />
S = {ST, LCA, LM_CX, L_LAD, CX, LM, L, LAD, C_Left,<br />
C_Left_ant, C_Left_circum}<br />
For the left coronary artery:<br />
ST 1 RCA 2 PI 3 RM 4 ST 1 LCA 2 LM_CX 3 L_LAD 4 CX 5 LM 6 L 7 LAD 8<br />
1 2 1 - 1 2 2 2 1 - 1 -<br />
16η 11ι 12λ 1ε - 2κ 13ι 16ι 13θ 1λ 2λ 18ι 22κ - 23η -<br />
2 3 4 4 - 2 3 4 5 6 7 8 6 - 8 -<br />
Fig. 1. The representation of the right (A) and the left (B) coronary artery using IE graphs<br />
Rys. 1. Reprezentacja prawej (A) oraz lewej (B) tętnicy wieńcowej za pomocą grafów IE<br />
10 ELEKTRONIKA 11/<strong>2009</strong>
Fig. 2. Start graph Z and the set of productions for grammar G P Rys. 2. Graf startowy Z i zbiór produkcji dla gramatyki G P<br />
D = {ST, LCA, LM_CX, L_LAD, CX, LM, L, LAD},<br />
G = {2κ, 13ι, 16ι, 13θ, 22κ, 1λ, 2λ, 18ι, 23η}<br />
Z is the start graph shown in Fig. 3. P is the set of productions<br />
shown in Fig. 4.<br />
This way, we have defined a mechanism in the form of<br />
ETPL(k) graph grammars which create a certain linguistic representation<br />
of each analysed image in the form of an IE graph.<br />
The set of all representations of images generated by this<br />
grammar is treated as a certain language. Consequently, we<br />
Fig. 3. Start graph Z for grammar G L<br />
Rys. 3. Graf startowy Z dla gramatyki G L<br />
can built a syntax analyzer based on the proposed graph<br />
grammar which will recognize elements of this language. The<br />
syntax analyzer is the proper program which will recognize<br />
the changes looked for in the lumen of coronary arteries. It is,<br />
of course, the most important and difficult (from the implementation<br />
point of view) part in the whole task especially for<br />
the graph and tree grammars [5-7]. The difficulties with implementing<br />
syntax analysers based on graph grammars are<br />
due to the lack of ready grammar compilers, like those available<br />
for context-free grammars. As a result, it becomes necessary<br />
to independently execute syntax analysis procedures<br />
for the proposed grammars. The authors have used in their<br />
research a prototype computer system which allows graph descriptions<br />
to be generated, and then used to create their corresponding<br />
parsers. This system was developed as part of<br />
one of the scientific projects dedicated to problems of automating<br />
grammatical reasoning processes described in publication<br />
[5-7]. The entire such syntax and semantic analysis<br />
can be completed in the multinomial time, both for strictly defined<br />
patterns, and also for fuzzy patterns, as the grammars<br />
described can be extended to probabilistic forms.<br />
Fig. 4. Set of productions for grammar G L Rys. 4. Zbiór produkcji dla gramatyki G L<br />
ELEKTRONIKA 11/<strong>2009</strong> 11
Summary<br />
The image set of recognition data, which has been used in<br />
order to determine in percentage figures the efficiency of<br />
a correct recognition of the size of stenoses in coronary arteries,<br />
included 16 different spatial reconstructions obtained<br />
for patients with heart disease (mostly ischemia). In this set,<br />
we considered image sequences of patients previously<br />
analysed at the stage of the grammar construction and the<br />
recognising analyser. In order to avoid analysing identical reconstructions<br />
we selected separate images occurring after<br />
slight positions rotation (different projection) the ones used<br />
originally (from spatial helical CT scans). The remaining images<br />
in the test data have been obtained for a new group of<br />
patients. The objective of an analysis of these data was to determine<br />
in percentage the efficiency of the correct recognition<br />
of artery stenosis and to determine their size with the use of<br />
the grammar introduced. The recognition of such stenoses,<br />
including the determination of their locations, lumens of the<br />
artery, and the types (concentric or eccentric), was conducted<br />
in such a way that while reasoning out the grammar for the<br />
graph representation of the coronary vascularization, particular<br />
edges of the graph determined the actual beginnings and<br />
ends of particular sections of coronary arteries. During the<br />
grammar reasoning and the course of the transform of embedding<br />
graph representations on the actual images, the corresponding<br />
sections of arteries were analysed with regard to<br />
the presence of potential stenoses in them. The method of<br />
this analysis also consisted in applying a context-free sequential<br />
grammar to detect stenoses in 2D coronarography<br />
images. Such a grammar has been defined in publications<br />
[7-8]. Applying such a grammar to analyse particular sections<br />
of arteries in the obtained spatial reconstructions turned out to<br />
be quite effective, as it allowed the unanimous On the image<br />
data tested, the efficiency of recognition amounted to 85%.<br />
The value of the efficiency of recognition is determined by the<br />
percentage fraction of the accurately recognized and measured<br />
vessel stenoses compared to the number of all images<br />
analyzed in the test. The recognition itself meant locating and<br />
defining the type of stenosis, e.g. concentric or eccentric.<br />
This work has been supported by the Ministry of Science and<br />
Higher Education, Republic of Poland, under project number<br />
N519 007 32/0978<br />
References<br />
[1] Ferrarini L. i in.: GAMEs: Growing and adaptive meshes for fully<br />
automatic shape modeling and analysis. Medical Image Analysis,<br />
11, 2007, 302-314.<br />
[2] Seghers D. i in.: Minimal shape and intensity cost path segmentation.<br />
IEEE Trans. on Medical Imaging, 26, 2007, 1115-<br />
1129.<br />
[3] Loeckx D. i in.: Temporal subtraction of thorax CR images using<br />
a statistical deformation model. IEEE Trans. on Medical Imaging,<br />
22, 2003, 1490-1504.<br />
[4] Higgins W.E. i in.: System for analyzing true three-dimensional<br />
angiograms. IEEE Trans. Med. Imag. 15, 1996, 377-385.<br />
[5] Skomorowski M.: A Syntactic-Statistical Approach to Recognition<br />
of Distorted Patterns. Jagiellonian University, Krakow, 2000.<br />
[6] Tadeusiewicz R., Flasiński M.: Pattern Recognition. Warsaw,<br />
1991.<br />
[7] Ogiela M. R., Tadeusiewicz R.: Modern Computational Intelligence<br />
Methods for the Interpretation of Medical Images.<br />
Springer-Verlag, Berlin Heidelberg, 2008.<br />
[8] Tadeusiewicz R., Ogiela M. R.: Medical Image Understanding<br />
Technology. Springer Verlag, Berlin-Heidelberg, 2004.<br />
Average individual classification probability function<br />
(Przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji)<br />
dr inż. MAREK LANDOWSKI 1,2 , prof. dr hab. inż. ANDRZEJ PIEGAT 2<br />
1 Quantitative Methods Institute, Szczecin Maritime University, Szczecin<br />
2 Faculty of Computer Science and Information Systems, West Pomeranian University of Technology, Szczecin<br />
In everyday life people use different words to make various<br />
mental calculations. Therefore the proper description of<br />
a word is a crucial problem. There are two types of models of<br />
linguistic concept: possibilistic model and probabilistic model.<br />
In the possibilistic theory models of linguistic concept are described<br />
by the membership function [1], whereas in probability<br />
theory models of linguistic concept are described by<br />
classification probability function [2,3]. Possibilistic models described<br />
by the membership function are mainly used in fuzzy<br />
control and in modeling input-output relation of an object like<br />
y = f(x 1 , x 2 , …, x n ). Probabilistic models describing linguistic<br />
concepts by classification probability function seem to perform<br />
better in automatic thinking and decision making theory. Fuzzy<br />
sets theory and probability theory are complementary and not<br />
exclusive theories. These theories can work together though<br />
they model semantic concepts differently [4].<br />
The article focuses on probabilistic model of linguistic concept<br />
[5], in particular on finding the average individual classification<br />
probability function. According to the authors’ knowledge<br />
average individual classification probability function are<br />
the novelty in the word literature.<br />
In the article there is the following order. Firstly the two<br />
kinds of models of linguistics concepts are presented. Next<br />
the interpretation is given as well as the methods of identification<br />
average individual classification probability function.<br />
Then the features of average individual classification probability<br />
function received from the experiments are introduced.<br />
Finally the conclusions are presented.<br />
Probabilistic models of linguistic concept<br />
from the group of people (population)<br />
We distinguish two kinds of models of linguistic concept received<br />
from the group of people (population):<br />
• group (population) model,<br />
• average, individual model of an average person of the group.<br />
12 ELEKTRONIKA 11/<strong>2009</strong>
Both models are created of the basis of data received<br />
from the group of people or a group of technical measurement<br />
machines for classification. Classifiers can be a form of<br />
2 people, 3 people … a group of people or the population of<br />
a whole country etc. On the basis of empirical or declared results<br />
we receive average individual model of group from<br />
which the data was taken or average individual model of the<br />
person of the group [5].<br />
Group model is usually used when we do not know from<br />
whom exactly the linguistic information is received. We only<br />
know that the information comes from of the group (population)<br />
which the person belongs to. The model represents the<br />
whole group of people (the whole population). Whereas the<br />
average individual model of a person of group represents only<br />
the average person of the group (population), it does not represent<br />
the whole group of people (the whole population).<br />
Average individual probability<br />
classification functions from the group<br />
of people (population)<br />
In the group of people classification function of particular<br />
members are usually a bit different. For example in the group<br />
of 3 people each of them can differently understand the concept<br />
“medium” (Fig. 1).<br />
The question arises, what does the average individual classification<br />
function of one typical person of the group look like,<br />
in other words the most frequently found person in the group?<br />
Classification function of such person are most similar to<br />
the function of the majority of people in the examined population.<br />
Similarly the height of majority of people in a population<br />
is usually close to medium height. It means classification function<br />
of the majority people in the population are most similar<br />
to the function of the average person in the group.<br />
In the example presented in Fig. 1 the average individual<br />
classification function is drown in thick line.<br />
Average individual classification probability function answers<br />
the question: what is the probability the average (most<br />
frequently found) person in the group qualifies numerical value<br />
to the given linguistic concept.<br />
The different between the group classification function of<br />
linguistic concept and the average individual classification<br />
function is that the group function expresses the average value<br />
of classification probability by the whole group and the average<br />
individual classification function expresses the average classification<br />
probability by the average person from the group.<br />
Next the method of the identification of the average individual<br />
classification function to linguistic quantifiers is presented.<br />
In this methods the support of the linguistic concept are divided<br />
to the equal number of interval, then the integral of the<br />
function on every of support interval is computed (area on the<br />
interval limited by classification function and axis x). Next the<br />
average area for i-th interval of n linguistic concept is computed.<br />
where: n - the number of individual linguistics concept, f k (x) -<br />
classification function of individual linguistic concept, e.g.<br />
“small probability”.<br />
Average individual classification probability function will be<br />
created from average support intervals and the average area<br />
in the particular interval. The support and the area of the average<br />
individual classification probability function will be the<br />
mean of individual classification function. In the last stage having<br />
computed all the average quantifiers included in the dictionary<br />
of classification probability function we normalized<br />
them, so that the sum of all quantifiers is one. In many cases<br />
the normalization does not change anything because the sum<br />
of quantifiers is already one.<br />
Example 1. In the below example we will look into two<br />
quantifiers of classification function. For better understanding<br />
of the method the quantifiers are in the form of step function,<br />
Fig. 2. On the basis of the given quantifiers the average<br />
individual quantifier of classification function will be determined,<br />
using (1).<br />
The points of the support F_aver are the average points<br />
which divide the supports F1 and F2 (dotted line):<br />
The surface area of rectangles which create the function<br />
F_aver are the average surface area marked with doted line<br />
rectangles in F1 and F2, respectively, thus the heights of the<br />
rectangles are:<br />
(1)<br />
(2)<br />
(3)<br />
Fig. 1. The illustration of the sense of average individual classification<br />
probability function (thick line)<br />
Rys. 1. Ilustracja przeciętnej indywidualnej funkcji klasyfikacji<br />
(linia pogrubiona)<br />
Fig. 3, 4 and 5 presents application of method of determining<br />
the average individual probability classification function using<br />
individual probability classification function received on the<br />
basis of the experiment which was carried out by the authors.<br />
Individual classification function show the models of individual<br />
people taking part of the experiment.<br />
ELEKTRONIKA 11/<strong>2009</strong> 13
In the average individual classification probability function<br />
the following relation are found:<br />
• average individual classification probability function presents<br />
classification probability to linguistic quantifiers one of the<br />
average person of the group (a person typical of the group),<br />
• in many cases quantifier supports overlap,<br />
• the beginning and the end of the average quantifier supports<br />
is a mean value of the beginnings and ends values<br />
the appropriate individual quantifiers,<br />
• the height of the average linguistic quantifiers usually increase<br />
from medium quantifiers to border quantifiers,<br />
• because values of quantifiers need to add up to one, they<br />
are strongly dependent on the quantifier supports,<br />
• surface area of the average individual quantifiers equals<br />
the average surface area of individual quantifiers,<br />
a)<br />
Fig. 2. The quantifiers of classification function F1 and F2 in the<br />
form of step function and calculated on the basis of F1 and F2<br />
average individual quantifier F_aver of classification function<br />
Rys. 2. Kwantyfikatory funkcji klasyfikacji F1 i F2 w formie funkcji<br />
schodkowej oraz obliczony na podstawie F1 i F2 przeciętny indywidualny<br />
kwantyfikator F_aver funkcji klasyfikacji<br />
b)<br />
a)<br />
Fig. 4. The examples of the individual classification probability<br />
function (dotted line) and the average individual classification<br />
probability function (continuous line) received from the individual<br />
models, the functions of 5-element dictionaries<br />
Rys. 4. Przykłady indywidualnych funkcji prawdopodobieństwa<br />
klasyfikacji (linia przerywana) i przeciętna indywidualna funkcja<br />
prawdopodobieństwa klasyfikacji (linia ciągła) otrzymana z modeli<br />
indywidualnych, funkcje o słowniku 5-elementowym<br />
b)<br />
Fig. 3. The examples of the individual classification probability<br />
function (dotted line) and the average individual classification<br />
probability function (continuous line) received from the individual<br />
models, the functions of 3-element dictionaries<br />
Rys. 3. Przykłady indywidualnych funkcji prawdopodobieństwa<br />
klasyfikacji (linia przerywana) i przeciętna indywidualna funkcja<br />
prawdopodobieństwa klasyfikacji (linia ciągła) otrzymana z modeli<br />
indywidualnych, funkcje o słowniku 3-elementowym<br />
Fig. 5. The examples of the 40 individual classification probability<br />
function, (dotted line) and the average individual classification<br />
probability function (thick line) received on the basis of the experiment<br />
Rys. 5. Przykłady 40 indywidualnych funkcji prawdopodobieństwa<br />
klasyfikacji (linia przerywana) i przeciętna indywidualna funkcja<br />
prawdopodobieństwa klasyfikacji (linia ciągła) otrzymana na podstawie<br />
eksperymentu<br />
14 ELEKTRONIKA 11/<strong>2009</strong>
• in some cases in the methods of determining the average<br />
individual classification function it is necessary to normalize<br />
the average individual quantifiers, so that they ad up to one,<br />
• it is crucial that the identification of the probability identification<br />
function is made with the whole dictionaries<br />
because the shapes and supports of the received models<br />
of linguistics concept depend on quantity of elements in<br />
dictionaries.<br />
The question arises, when do we apply the group definition<br />
of linguistic quantifiers and when average individual definitions?<br />
It depend on the examined problem. If the problem has to<br />
be based on the understanding of linguistic concept by the<br />
whole group we apply the group model of the concept. If the<br />
solution is to be based on the average individual understanding<br />
of the concept we need to apply the average individual<br />
model. The person solving the problem decides on the model<br />
to be used. Solving the problem using the group model we receive<br />
the safer but more uncertain result. When we solve the<br />
problem using the average individual model the obtained result<br />
is less uncertain. The result will be correct in most cases<br />
however there is a limited risk that the result has a large error.<br />
The problem is typical of the probability theory and is similar<br />
to the problem of calculating the results of final values y on<br />
the bases of whole distributions of probable input data of the<br />
variable x i or only on the basis of the center of gravity of these<br />
distributions.<br />
Conclusion<br />
In the article the method identifying the average individual<br />
classification probability function is presented as well as the<br />
relations that occur in the average individual function. The received<br />
on the basis of the presented method functions are<br />
vital in probabilistic reasoning and in the decision making theory<br />
because the received probabilistic model of linguistic concept<br />
describes perception of an average person in a group<br />
(population). We need to state that it is not the average model<br />
of the group of people. According to the author’s knowledge<br />
the concept of the individual classification probability function<br />
is new in the world scientific literature.<br />
References<br />
[1] Zadeh L. A.: Fuzzy Sets, Information and Control 8 (1965) 338-<br />
353.<br />
[2] Hisdal E.: Are Grades of Membership Probabilities. Fuzzy Sets<br />
and Systems 25 (1988), 325-348, North-Holland.<br />
[3] Cheeseman P.: An inquiry into computer understanding. Comput.<br />
Intell. 1988, vol. 4, 58-66.<br />
[4] Kandel A., Martins A., Pacheco R.: On the Very Real Distinction<br />
Between Fuzzy and Statistical Methods. Technometrics, August<br />
1995, vol. 37, no 3, 276-281.<br />
[5] Piegat A., A New Definition of the Fuzzy Set, Int. J. Appl. Math.<br />
Comput. Sci. 2005, vol. 15. no 1, 125-140.<br />
Evolutionary sets of cooperating ship trajectories:<br />
open waters and restricted waters<br />
(Ewolucyjne zbiory bezpiecznych trajektorii statków dla wód otwartych<br />
i obszarów ograniczonych)<br />
dr inż. RAFAŁ SZŁAPCZYŃSKI<br />
Gdańsk University of Technology, Faculty of Ocean Engineering and Ship Technology<br />
The paper contains a description of an already developed, revised<br />
version of the method, which has been first presented by<br />
the author in its early version in [1]. The method combines<br />
some of the assumptions of game theory approach to this<br />
problem [2] with evolutionary programming approach [3] and<br />
aims to find an optimal set of cooperating trajectories of all<br />
ships involved in an encounter situation, by means of evolutionary<br />
algorithms. Depending, whether we are focusing on<br />
restricted water regions or open waters, specific methods of<br />
generating the initial population, various ship domains and different<br />
sets of specialised operators have been used throughout<br />
the research presented here.<br />
Optimisation problem<br />
It is assumed that we are given the following data: stationary<br />
constraints (obstacles and other constraints modelled as polygons),<br />
positions, courses and speeds of all ships involved,<br />
ship domains and times necessary for accepting and executing<br />
the proposed manoeuvres. A ship domain can be computed,<br />
based on the ship’s length, its motion parameters and<br />
the type of a water region. Ship domain has been first defined<br />
as a two-dimensional area surrounding a ship, which other<br />
ships must avoid. Since a domain shape depends on the type<br />
of a water region, the author has decided to use a domain<br />
model by Davis [4] for open waters and a domain model by<br />
Coldwell [5] for restricted waters.<br />
Knowing all the parameters values, the goal is to find a set<br />
of trajectories, which minimizes the average way loss spent on<br />
manoeuvring, while fulfilling the following conditions:<br />
• none of the stationary constraints are violated (restricted<br />
waters only),<br />
• none of the ship domains are violated,<br />
• the minimal acceptable course alteration is not lesser than<br />
15 degrees,<br />
• the maximal acceptable course alteration is not larger than<br />
60 degrees,<br />
• speed alterations are not to be applied unless necessary,<br />
• ship manoeuvres only when she is obliged to,<br />
• manoeuvres to starboard are favoured over manoeuvres<br />
to port board.<br />
As for the first two conditions, all obstacles have to be avoided<br />
and the domains should not be violated by definition. All other<br />
conditions are imposed by COLREGS [6] or by the economics.<br />
ELEKTRONIKA 11/<strong>2009</strong> 15
The structure of an individual and<br />
its evaluation<br />
Each individual (a population member) is a set of all ship trajectories.<br />
Each trajectory is a sequence of nodes, each node<br />
containing geographical coordinates x and y and the speed<br />
between the current and the next node.<br />
The basic piece of data used during the evaluation phase<br />
of the evolutionary process is the average way loss computed<br />
for each individual (a set of cooperating trajectories). Some of<br />
the constraints also must be taken into account during the<br />
evaluation. These include violations of ship domains and violations<br />
of stationary constraints: they must be penalized and<br />
those penalties must be reflected in the fitness function. However,<br />
the other constraints are handled by applying additional<br />
rules when generating the initial population, during mutation<br />
and by fixing functions operating on individuals prior to their<br />
evaluation. Those fixing functions analyse each trajectory of<br />
an individual and in case of unacceptable manoeuvres, the<br />
nodes being responsible are moved so as to round a manoeuvre<br />
up or down to an acceptable value.<br />
As for violations of the first two constraints (stationary ones<br />
and ship domains), they are penalized as follows. For each<br />
ship and its set of stationary constraint violations, an obstacle<br />
collision factor is computed as given by (4). Analogically, for<br />
each ship and its set of prioritised targets a ship collision factor<br />
is computed as given by (3). The reason, why only collisions<br />
with prioritised targets are represented in evaluation is<br />
because the manoeuvres must be compliant with COLREGS.<br />
If a ship is supposed to stay on its course according to the<br />
rules, the collision is ignored so as not to encourage an unlawful<br />
manoeuvre.<br />
In case of collision with prioritised target, the author’s<br />
measure - approach factor f min [7] is used to assess the risk<br />
of a crash. Based on this approach factor values and other<br />
parameters, each individual is assigned a value of the fitness<br />
function (1):<br />
where:<br />
sf i - ship collision factor of the i-th ship computed over all prioritised<br />
targets:<br />
fmin i,j - the approach factor value for an encounter of ships<br />
i and j [/], of i - obstacle collision factor of the i-th ship computed<br />
over all stationary constraints:<br />
n - the number of ships [/], m - the number of stationary constraints<br />
[/], i, j - the indexes of the current ship and [/] and its<br />
target, k - the index of a stationary constraint [/],<br />
(1)<br />
(2)<br />
(3)<br />
(4)<br />
collision_course_range - the range of forbidden courses of the<br />
ship i computed for the stationary constraint j in the node directly<br />
preceding the collision. [/].<br />
The only differences between open waters and restricted<br />
waters here are different domain models and obstacle collision<br />
factor of i being equal to 1 for open waters. To detect stationary<br />
constraint violations of an individual, all of the<br />
trajectories are checked against all of the constraints (which<br />
are modelled as polygons) and the collision points are found.<br />
Analogically, to detect the domain violations of an individual,<br />
all of its trajectories are checked against each other to find potential<br />
collision points.<br />
Evolutionary process<br />
Generating the initial population<br />
The initial population contains three types of individuals:<br />
• a set of original ship trajectories - segments joining the start<br />
and destination points,<br />
• sets of safe trajectories determined by other methods,<br />
• randomly modified versions of the first two types - sets of<br />
trajectories with additional nodes, or with some nodes<br />
moved from their original geographical positions.<br />
The first type results in an immediate solution in case of no<br />
collisions, or in faster convergence in case of only constraint<br />
violations. The second type provides sets of safe (though not<br />
optimal) trajectories. They are generated either by the method<br />
of planning a trajectory on raster grids [8], which enables<br />
avoiding collisions with other ships as well as with stationary<br />
obstacles (for restricted waters) or by the method of planning<br />
a sequence of necessary manoeuvres [9] (for open waters).<br />
Finally, the third type of individuals (randomly modified individuals<br />
of the previous two types) is used to generate the majority<br />
of a diverse initial population and thus to ensure the vast<br />
searching space.<br />
Specialised operators<br />
The evolutionary operators, used here, can be divided into the<br />
following groups:<br />
1. Two types of crossing operators, both operating on pairs<br />
of individuals:<br />
a) an offspring inherits whole trajectories from both parents,<br />
b) each of the trajectories of the offspring is a crossing of<br />
the parents trajectories.<br />
2. Three types of operators avoiding collisions with prioritised<br />
ships, all operating on single trajectories. If a collision<br />
with a prioritised ship has been registered,<br />
depending on the circumstances, one of the following<br />
operators is chosen:<br />
a) a node which is closest to the collision point is moved<br />
away from it,<br />
b) a segment moving (two nodes, closest to the collision<br />
point) is moved,<br />
c) a new node is inserted between the two nodes closest<br />
to the collision point, none of these operations guarantees<br />
avoiding the collision with a target but they are<br />
likely to do so and therefore statistically effective and<br />
suitable for the evolutionary purposes.<br />
3. An operator avoiding collisions with stationary obstacles<br />
(restricted waters only). A course alteration manoeuvre is<br />
made (a new node is inserted) in such a way, that the new<br />
trajectory segment does not cross a given edge of an obstacle<br />
(polygon).<br />
16 ELEKTRONIKA 11/<strong>2009</strong>
4. Random operators: three types of operators, all operating<br />
on single trajectories:<br />
a) node insertion: a node is inserted randomly into the trajectory,<br />
b) node deletion: a randomly selected node is deleted,<br />
c) nodes joining: two neighbouring nodes are joined,<br />
d) node mutation: the polar coordinates of a node are altered.<br />
A trajectory mutation probability decreases with the increase<br />
of the trajectory fitness value (2), so as to mutate the<br />
worst trajectories of each individual first, without spoiling its best<br />
trajectories. In the early phase of the evolution all random<br />
operators: the node insertion, deletion, joining and mutation are<br />
equally probable. In the later phase node mutation dominates<br />
with its course alterations and distance changes decreasing<br />
with the number of generations. For node insertion and node<br />
mutation instead of Cartesian coordinates x and y, the polar coordinates<br />
(course alteration and distance) are mutated in such<br />
a way that the new manoeuvres are between 15 and 60 degrees.<br />
Thus, fruitless mutations (the ones leaving to invalid trajectories)<br />
are avoided for these two operators. Operating on<br />
polar coordinates (course and distance) instead of Cartesian<br />
x and y coordinates also makes it more likely to escape the<br />
local optimums because manoeuvres both valid and largely differing<br />
from the past ones are more likely to be generated.<br />
Selection and stop condition<br />
A number of selection methods have been tried, but the initially<br />
chosen truncation method (with the truncation threshold<br />
of 50%), has proven to be most successful, because of its fast<br />
convergence to a solution.<br />
The evolutionary process is stopped if one of the following<br />
happens: the maximum number of generations is reached, the<br />
time limit is reached or further evolution does not bring significant<br />
improvement.<br />
Simulation tests<br />
For open waters version, the following types of test scenarios<br />
have been designed:<br />
1. basic encounter situations involving two ships: head-on,<br />
crossing, overtaking,<br />
2. encountering a group of targets of the same or similar<br />
courses. Again, various encounter types course combinations<br />
have been checked,<br />
3. encountering targets of the various courses, with the times<br />
of encountering particular ships differing considerably and<br />
some of the targets colliding with each other,<br />
4. encountering targets of the various courses, with the times<br />
of encountering being close to each other and some of the<br />
targets colliding with each other.<br />
Similar types of scenarios only including additional stationary<br />
constraints have been prepared for restricted waters<br />
version. For scenario types 3 and 4 some of the targets have<br />
initially collided with each other as well as with obstacles.<br />
Simulation results for open waters version<br />
Correct but unsurprising behaviour of the ships has been registered<br />
for the first group of test scenarios. The own ship<br />
would manoeuvre only, when direct collision threat with a target<br />
would occur and the own ship would be the “give-way”<br />
ship according to COLREGS. As for the second group, the<br />
same tendency was also true, but there were two additional<br />
aspects due to larger number of ships involved:<br />
• in case of largely differing encounter times with various targets,<br />
the own ship would avoid collision by a sequence of<br />
manoeuvres so as to minimize the way loss,<br />
• in case of encounter times with various targets being close,<br />
the own ship would avoid collision with a group of targets<br />
by a single manoeuvre to avoid confusing the targets.<br />
For the last two groups the own ship or some of the targets<br />
would often manoeuvre even if initially their courses did not<br />
collide with courses of other prioritised targets. The reason for<br />
such behaviour has been the correct prediction of the prioritised<br />
targets manoeuvres, some targets being “give way”<br />
ships in relation to other targets.<br />
For all test scenarios safe sets of trajectories have been<br />
found, with the average way loss over all ships ranging from<br />
1% to 5% of the initial trajectory length, depending on the<br />
number of ships in a particular scenario and the sizes of their<br />
domains.<br />
Simulation results for restricted waters<br />
version<br />
Even the relatively simple cases from the first group of test<br />
scenarios brought interesting results. Usually the own ship<br />
would manoeuvre only when direct collision threat with a target<br />
would occur and the own ship would be a “give-way” ship<br />
according to COLREGS. However, occasionally, the own ship<br />
would manoeuvre, even if initially its course did not collide<br />
with course of a target. The reason for such behaviour has<br />
been the correct prediction of the prioritised target manoeuvres,<br />
due to this target altering its course to avoid collision<br />
with an obstacle. As for the second group of test scenarios,<br />
the general tendency of behaviour typical for the first group<br />
was also true. Giving way to a prioritised target because of<br />
predicting its future manoeuvre occurred more often because<br />
of more targets being involved.<br />
The abovementioned tendencies of behaviour of the own<br />
ship and targets were more significant with the advancing<br />
complexity of the test scenarios. For the last two groups of<br />
test scenarios, usually, all of the targets would manoeuvre to<br />
avoid collisions with each other and the obstacles. Due to<br />
a larger number of ships and obstacles, it was sometimes impossible<br />
to tell for a certain manoeuvre of a ship, with which<br />
target exactly it avoids a collision. The trajectories contained<br />
mostly up to 3 course alterations followed by a final course alteration<br />
- a return to the original trajectory. The first manoeuvre<br />
was usually to the starboard, as enforced by COLREGS,<br />
unless a manoeuvre to port board was the only possibility, due<br />
to an obstacle position, size and shape.<br />
For all test scenarios safe sets of trajectories have been<br />
found, with the average way loss over all ships ranging from<br />
3% to 10% of the initial trajectory length, depending on the<br />
number of ships, the number and the size of the obstacles and<br />
the sizes of the ship domains.<br />
Number of generations<br />
and computational time<br />
The computational times, registered on a standard PC, have<br />
been acceptable (below 1 minute) for all test scenarios. For<br />
simple scenarios and for open waters, the maximum number<br />
of generations was rarely reached, with the optimal solution<br />
being found much earlier - in about half of the maximum generation<br />
number, with the following generations bringing minor<br />
improvements to the solution. For more complex cases<br />
(especially on restricted waters) the maximum number of ge-<br />
ELEKTRONIKA 11/<strong>2009</strong> 17
nerations has almost always been reached, and occasionally<br />
improvements have been registered until the last generation,<br />
suggesting that the final solution is sub-optimal. However,<br />
adding more generations did not improve the final solution<br />
considerably and the solution found originally was always<br />
close enough to be accepted.<br />
Summary and conclusions<br />
The method, described here, is a generalization of evolutionary<br />
trajectory determining. A set of trajectories of all ships, instead<br />
of just the own trajectory, is determined. The method<br />
avoids violating ship domains and stationary constraints, while<br />
minimizing way loss and obeying COLREGS. Because of its<br />
low computational time, it can be applied to ARPA (Automatic<br />
Radar Plotting Aids) systems as well as VTS (Vessel Traffic<br />
Service) systems. In case of simple scenarios (where ship<br />
priorities are clearly described by COLREGS), the method is<br />
able to predict the probable manoeuvres of targets and plan<br />
own ship manoeuvre in advance. In the most complex cases,<br />
with a high density of ships and obstacles, it can be impossible<br />
to predict behaviour of all targets correctly and thus - to fully<br />
take advantage of the method. However, the method could<br />
still be used in ARPA systems to predict at least the tendencies<br />
of the targets manoeuvres (manoeuvres to starboard, to<br />
port board or lack of manoeuvres). And - it could be fully utilized<br />
by VTS systems to plan sets of cooperating ship trajectories<br />
in harbour areas. In the latter case it could successfully<br />
solve any given scenario involving multiple ships and stationary<br />
constraints.<br />
References<br />
[1] Szłapczyński R.: Evolutionary Approach to solving multi-ship encounter<br />
situations. Polish Journal of Environmental Studies,<br />
2008, vol. 4C.<br />
[2] Lisowski J.: Dynamic games methods in navigator decision support<br />
system for safety navigation. Proceedings of the European<br />
Safety and Reliability Conference vol. 2, pp. 1285-1292, 2005.<br />
[3] Śmierzchalski R.: Synteza metod i algorytmów wspomagania decyzji<br />
nawigatora w sytuacji kolizyjnej na morzu. Prace Naukowe<br />
Wyższej Szkoły Morskiej w Gdyni, 1998.<br />
[4] Davis P. V., Dove M. J., Stockel C. T. (1982). A Computer Simulation<br />
of multi-Ship Encounters. The Journal of Navigation, 35,<br />
347-352.<br />
[5] Coldwell T. G.: Marine Traffic Behaviour in restricted Waters.<br />
Journal of Navigation, issue 36, pp. 431-444, 1982.<br />
[6] Cockroft A. N., Lameijer J. N. F.: A Guide to Collision Avoidance<br />
Rules. Butterworth-Heinemann Ltd., 1993.<br />
[7] Szłapczyński R.: A unified measure of collision risk derived from<br />
the concept of a ship domain. Journal of Navigation, 59, issue 3,<br />
2006.<br />
[8] Szłapczyński R.: A new method of ship routing on raster grids,<br />
with turn penalties and collision avoidance. Journal of Navigation,<br />
59, issue 1, 2006.<br />
[9] Szłapczyński R.: A new method of planning collision avoidance<br />
manoeuvres for multi target encounter situations. Journal of Navigation,<br />
61, issue 2, 2008.<br />
The role of fuzzy modeling in creation of knowledge<br />
base’s for intelligent decision’s support systems<br />
in the conditions of the dangerous<br />
hydrometeorological phenomenon threat<br />
(Rola modelowania rozmytego w kształtowaniu baz wiedzy dla<br />
inteligentnych systemów wspomagania decyzji w warunkach zagrożenia<br />
niebezpiecznym zjawiskiem natury)<br />
dr inż. TATIANA TRETYAKOVA<br />
West Pomeranien University of Technology, Szczecin<br />
The hydrometeorological information is one of many types of<br />
information used in the decision of a different sort of problems<br />
issues. It is well known, that this type of information should be<br />
used to avoid or reduction of the negative consequences connected<br />
to influence of hydrometeorological factors on functioning<br />
of economic objects (industrial, service, social and<br />
cultural). The probable variant of a chain of the consequences<br />
connected to influence of hydrometeorological factors on economic<br />
object, could be presented as follows: influence of the<br />
dangerous hydrometeorological phenomenon → damage of<br />
subsystems of the economic object → abnormality of functioning<br />
of the object → negative influence on the ecological<br />
environment and people’s health → the damage connected<br />
to loss of productive capacity → an expense, connected to repair<br />
of object, and also with victims treatment or with loss of<br />
life → partners loss →..., etc.<br />
It shall be noticed, that this chain could be changed depending<br />
on force of the natural phenomenon and types of economic<br />
objects. In any case taking into account the hydrometeorological<br />
information it should be considered decreasing of possible loss.<br />
The decision making having this information is carrying out more<br />
often in situations when consequences of the accepted decisions<br />
are not known to the end. Frequently, the hydrometeorological information<br />
appears incomplete and imprecise. By virtue of uniqueness<br />
of the natural phenomena it is not always possible to<br />
foresee a degree of influence of hydrometeorological factors on<br />
economic objects in conditions of particular region.<br />
For this reason the clear algorithm of a reaction to the<br />
choice strategy with this type of information does not exist up<br />
to the end of the process. In such cases the use of the intelligent<br />
computer systems, which take into account the hydrometeorological<br />
information in acceptance of decisions, is rather<br />
18 ELEKTRONIKA 11/<strong>2009</strong>
useful. In work [1] is stressed, that the choice of correct strategy<br />
- the rational decision - depends on relative importance of<br />
the various purposes, and from a degree of confidence that<br />
they can be achieved. The intelligent decision support systems<br />
are used in conditions of uncertainty for a degree of confidence<br />
increasing of the persons accepting the decisions concerning<br />
a choice of strategy of reaction to calls of a nature.<br />
In regional management such decisions are accepting concerning<br />
the preventive or protective actions with the purpose of<br />
reduction or avoidance of influence of the dangerous hydrometeorological<br />
phenomena on economic objects, and also concerning<br />
accommodation of economic objects at strategic<br />
planning. Today, in conditions of climate changing and shortage<br />
of water and power resources, such strategic decisions as accommodation<br />
of economic objects seem to be very important [2].<br />
In regional management and in management of economic<br />
objects the support systems of decision’s acceptance are<br />
used for a long time [3]. The main requirement made for intelligent<br />
decision support systems with taking into account of<br />
the hydrometeorological information, is presence of models<br />
set in content of knowledge bases, including fuzzy models,<br />
which support a strategy choice of reaction in conditions of<br />
existing threats from the nature.<br />
The usage of such systems is especially useful to the territories<br />
subject influenced by the dangerous natural phenomena.<br />
The intelligent decision support systems can be included<br />
in structure of information systems of regional management<br />
and cities, economic objects as local intelligent subsystems<br />
[4]. In the case of need these subsystems, by loss of their localness,<br />
it is possible to connect with other subsystems of information<br />
system, or with external databases with help of<br />
modern technologies OLAP and GIS [5].<br />
The local intelligent systems could be used not only at<br />
strategy choice of reaction to the warning of hydrometeorological<br />
services on threat of the dangerous natural phenomenon,<br />
they could be used for acceptance of decisions on<br />
accommodation of economic objects - in strategic planning<br />
also. Besides, the processed initial hydrometeorological information<br />
is taking into account in designing, transport, power,<br />
agriculture and other branches [6]. The one more purpose of<br />
usage the local intelligent systems in conditions of threats<br />
existence on the part of a nature is personnel training with the<br />
purpose of formation of skills necessary in case of influence<br />
of the dangerous hydrometeorological phenomenon. In this<br />
case these systems act as simulators (systems of training).<br />
Their use provides the best adaptation of management all personnel<br />
to dangerous situations. Thus the contents of knowledge<br />
bases of local intelligent systems - simulators should<br />
include models, the facts and the rules used during training.<br />
The presented work shows the representation of some fuzzy<br />
components of the knowledge base approaches. These components<br />
appeared during construction of infological model and<br />
trees of decisions for the issue: “decision making on strategy<br />
choice of reaction in view of estimations of the hydrometeorological<br />
information”. Thus the opportunity of occurrence of hydrometeorological<br />
situations of a different degree of the danger,<br />
provided in the appropriate scripts is taken into account also.<br />
Fuzzy sets and fuzzy logic<br />
for formalization of the knowledge used<br />
in the decision making on the base<br />
of the hydrometeorological information<br />
In the paper [5] the formal model of decision-making task<br />
M DEC was submitted:<br />
M DEC = {D J , C J n ,OJ n , AJ n , KJ n } (1)<br />
where: D J - problem area in which the decision was made ;<br />
C J n - the purposes of the task connected to the decision of<br />
problem in the given area; O J n - restrictions on the task; AJ n -<br />
set of alternative variants of the decision; K J n - set of criteria<br />
according to which the choice of the decision was carried out.<br />
The expression (1) presents, that the construction of infological<br />
models of process of decision-making is directly connected<br />
to the description of its problem area D J . Problem area<br />
D J should be submitted by subject domain Р J and by tasks<br />
Z J i , which are decisive in this subject domain: DJ = {Р J , Z J i }.<br />
The results of structurization of a subject domain and construction<br />
of trees of decisions allow to pass to definition of content’s<br />
structure of the knowledge bases, necessary for<br />
acceptance of decisions. However the knowledge of experts<br />
revealed as a result of their search at structurization of a subject<br />
domain has subjective character. It concerns areas in<br />
which the hydrometeorological information is taken into account<br />
in choice of strategy of reaction, too. Thus ambiguity of<br />
the description of qualitative characteristics of objects and influence<br />
consequences of hydrometeorological factors could<br />
act. Besides, the hydrometeorological information too can be<br />
also incomplete and imprecise. For this reason in creation of<br />
knowledge bases content of local intelligent decision support<br />
systems, accepted on the basis of the hydrometeorological<br />
information, fuzzy sets and fuzzy logic of Lotfi Zadeh [7,8]<br />
could be used.<br />
Methodological bases and examples of modeling with use<br />
of fuzzy sets and fuzzy logic are widely presented and described<br />
in world literature, for example, by J. Kacprzyk [9,10],<br />
A. Pegat [11], S. Russell and P. Norvig [1], A. Leonenkov [12].<br />
It was pointed that acceptance of decisions in view of the<br />
hydrometeorological information occurs in conditions of use of<br />
incomplete and unreliable information. Taking into account this<br />
fact, the block diagram of process of decision-making about<br />
protective actions in conditions of dangerous natural phenomenon<br />
threats it is possible to present as it shows Fig.<br />
Figure presents, that during decision-making about strategy<br />
of reaction to the dangerous natural phenomena fuzzy<br />
models are used. The structure of some of them is considered<br />
in paragraphs 2, 3.<br />
Fuzzy modeling of the dangerous natural<br />
phenomenon caused<br />
by hydrometeorological factors<br />
The dangerous natural phenomenon we shall present, as<br />
fuzzy set:<br />
DNP i = {p i ,µ DNPi (p i )} (2)<br />
where: p i - the parameters of the dangerous phenomenon<br />
submitted as linguistic variables, m DNPi - membership function<br />
of parameter p i to an interval, which is determined by borders<br />
of linguistic variables.<br />
In case of usage of estimations of the indistinct hydrometeorological<br />
information in decision-making such fuzzy linguistic<br />
variables, as, for example, intensity of the hydrometeorological<br />
phenomenon can be used. As an example of a linguistic<br />
variable it should be presented it is possible to present<br />
subjective estimation of intensity of such hydrometeorological<br />
phenomenon, as mudflow avalanche. The intensity (volume)<br />
of mudflow avalanche is measured in м 3 . Formalization of an<br />
estimation of intensity of an avalanche can be executed with<br />
ELEKTRONIKA 11/<strong>2009</strong> 19
The block diagram of decision-making on realization of protective actions in conditions of the dangerous natural phenomenon threat<br />
Schemat blokowy procesu wyboru projektów przedsięwzięć ochronnych lub zapobiegawczych w warunkach zagrożenia niebezpiecznym<br />
zjawiskiem natury<br />
the help of a linguistic variable {β, T, C, G, M}, where: β - the<br />
name of fuzzy linguistic variable: for example, intensity of<br />
mudflow avalanche; T - set of values of a linguistic variable,<br />
each of which represents the name of a separate fuzzy variable:<br />
“small”, ”average”, “large”, “catastrophic”; X - range of<br />
definition of fuzzy variables which enter into definition of a linguistic<br />
variable β: X=[0, 5•10 6 ]; G - syntactic procedure of<br />
formation of new terms with the help of logic relations “AND”,<br />
“OR”, “NOT” etc., for example: “small or average intensity of<br />
an avalanche”, M - semantic procedure, tasks on X = [0,<br />
5•10 6 ] fuzzy variables: α 1 - “low intensity”, α 2 - “average intensity”,<br />
α 3 - “the large intensity”, α 4 - “catastrophic intensity<br />
”, and also the appropriate fuzzy sets A ~ = {x/µ A (x)} from terms<br />
G (T) according to rules of translation fuzzy relations and modifiers<br />
“AND”, “OR”, “NO” etc.<br />
Fuzzy models of an estimation of<br />
the damage connected to the dangerous<br />
hydrometeorological phenomenon<br />
As existing threat of the dangerous natural phenomenon<br />
(flooding, mudflow, … etc.) under its influence can be a territory<br />
with the economic objects<br />
. Among the<br />
models for an estimation of probable damage, there should<br />
be models, which allow determination of objects that find oneself<br />
under influence of the given natural phenomenon at its<br />
predicted intensity. The losses connected to influence of the<br />
dangerous phenomenon on each of objects depend on intensity<br />
of the phenomenon. We shall present sets of objects,<br />
which can appear under influence of the hydrometeorological<br />
phenomenon at different intensity, as fuzzy sets (tabl. 1).<br />
20 ELEKTRONIKA 11/<strong>2009</strong>
Tabl. 1. Fuzzy sets of the objects, which are taking place in a dangerous<br />
zone of different intensity of the hydrometeorological phenomenon<br />
Tab. 1. Zbiory rozmyte zagrożonych obiektów w zależności od siły<br />
niebezpiecznego zjawiska natury spowodowanego czynnikami hydrometeorologicznymi<br />
Intensity of the<br />
hydrometeorological<br />
phenomenon<br />
Small<br />
Average<br />
Large<br />
Catastrophic<br />
Fuzzy set of objects in a dangerous zone<br />
It is possible to write down, that A ~ ⊂ B ~ ⊂ C ~ ⊂ D ~ , as m A (x i )<br />
≤ m B (x i ) ≤ m C (x i ) ≤ m D (x i ), as is shown in tabl. 2. Data in tabl. 2<br />
are example of representation of a fuzziness of subjective experts<br />
estimation, where there is a concrete object under the<br />
dangerous phenomenon influence.<br />
Fuzzy logic for formalization<br />
of knowledge of intelligent systems<br />
of the decision support accepted in view<br />
of the hydrometeorological information<br />
For an estimation of a degree of the validity of any fuzzy statement<br />
concerning an opportunity of influence of the dangerous<br />
phenomenon we shall enter representation of the validity of<br />
fuzzy statements Т which operates from set of considered<br />
fuzzy statements concerning existence of threat of dangerous<br />
phenomenon U to an interval [0,1], i.e. T: U → [0,1]. In this<br />
case value of the validity of the fuzzy statement concerning<br />
threat of dangerous phenomenon A ∈ U we shall designate<br />
as T(A). Then, for example, for statements A ~ 1 , A~ 2 , A~ 3 , A~ 4 , concerning<br />
threat mudflow avalanches it is possible to present<br />
the validity of these statements as follows:<br />
A ~ 1 - strong long-term rains cause a mudflow avalanche: T(A~ 1 )<br />
= 0.6,<br />
A ~ 2 - the growing temperature of air at the big stocks of snow<br />
in mountains causes a mudflow avalanche: T(A ~ 2 ) = 0.7,<br />
A ~ 3 - strong rains and growing temperature of air at the big<br />
stocks of snow in mountains cause a mudflow avalanche:<br />
T(A ~ 3 ) = 0.8,<br />
A ~ 4 - a high level of water in mountains lakes, the strong rains,<br />
growing temperature of air at the big stocks of snow in<br />
mountains cause a mudflow avalanche: T(A ~ 4 ) = 0.9.<br />
At fuzzy modeling of statements concerning of threat of<br />
mudflow avalanches should be take into account not only an<br />
illegibility of a linguistic variable “intensity of mudflow avalanches”,<br />
but also other statements used in a submitted example:<br />
a high level of water in mountains lakes; the big stocks<br />
of snow; strong rains; growing temperature of air. It is necessary<br />
to set those value areas of variables, which influence on<br />
the process of mudflow avalanches formation.<br />
On the basis of the analysis of decisions trees, using fuzzy<br />
statements, rules of conclusions are developing for base of<br />
knowledge of intelligent systems of decision’s support with<br />
taking into account of the hydrometeorological information.<br />
The received conclusions will help to make the final decision<br />
concerning a choice of strategy of reaction to dangerous natural<br />
phenomena.<br />
Summary<br />
The knowledge used in intelligent systems of decision’s support<br />
according to the hydrometeorological information, can<br />
have subjective character. This knowledge also can be incomplete<br />
and uncertain by virtue of feature of the hydrometeorological<br />
information, and also uncertainty of estimations<br />
of hydrometeorological factors influence on economic objects<br />
functioning. Development of fuzzy models for systems of this<br />
class will allow avoiding some difficulties in creation a component<br />
of their knowledge bases. In particular, creation of the<br />
fuzzy models supporting decision-making process on a choice<br />
of strategy of reaction in conditions of the dangerous hydrometeorological<br />
phenomenon threat seems to be necessary.<br />
These decisions can be accepted concerning accommodation<br />
of economic objects and their protection, and also in designing<br />
objects, in agriculture, transport, in power industry etc.<br />
In this paper the block diagram of this process at a choice of<br />
the decision on protective actions at a regional level is presented.<br />
In the article some methodological aspects of construction<br />
of models with use of fuzzy sets and fuzzy logic by<br />
Lotfi Zadeh are considered.<br />
Tabl. 2. Membership functions of objects in the area subject to danger of mudflow avalanche’s influence<br />
Tab. 2. Funkcja przynależności dla obiektów w strefie wpływu niebezpiecznego zjawiska natury<br />
NN<br />
Objects of the territory subject to<br />
danger of mudflow avalanche’s<br />
influence<br />
Membership funсtion µ: Χ → [0,1] at the appropriate intensity of mudflow avalanches:<br />
Small Average Large Catastrophic<br />
1<br />
2<br />
10<br />
50<br />
n<br />
x 1<br />
0.1<br />
x 2<br />
0.2<br />
x 10<br />
0.1<br />
x 50<br />
0.1<br />
x n 0.2<br />
0.2<br />
0.4<br />
0.3<br />
0.3<br />
0.4<br />
0.5<br />
0.6<br />
0.4<br />
0.5<br />
0.7<br />
0.6<br />
0.8<br />
0.6<br />
0.7<br />
0.8<br />
ELEKTRONIKA 11/<strong>2009</strong> 21
References<br />
[1] Russel S., Norvig P.: (2003) Artificial Intelligence. A Modern Approach.<br />
Prentice Hall, New Jersej.<br />
[2] Zielona Księga dla Rady Parlamentu Europejskiego, Europejskiego<br />
Komitetu Ekonomiczno-Społecznego i Komitetu regionów.<br />
Adaptacja do zmian klimatycznych w europie-warianty<br />
działań na szczeblu UE. Komisja Wspólnot Eropejskich (KWE),<br />
Bruksela, 29.06.2007 (in Polish).<br />
[3] Fiuk G., Budziński R.: (1995) Model Systemu Informatycznej Obsługi<br />
Miasta Szczecin. W ks.: Systemy Informatyczne w Zarządzaniu<br />
Aglomeracjami Miejskimi. PAN IBS, Oddział w<br />
Szczecinie, Warszawa-Szczecin (in Polish).<br />
[4] Tretyakova T.: (<strong>2009</strong>) Wiedza i modele dla inteligentnych lokalnych<br />
składników systemu wspomagania decyzji. Studia i materiały<br />
Polskiego Stowarzyszenia Zarządzania Wiedzą nr 18.<br />
PSZW, Bydgoszcz (in Polish).<br />
[5] Tretyakova T., Zair A.: (2008) The Structure and Knowledge of the Intelligent<br />
System of Warning and Decision’s Support that Includes Local<br />
Systems. Polish Journal of Environment Studies, vol. 17, no 4C.<br />
[6] Tretyakova T. (2005). Knowledge base of expert system “HMDecision<br />
“ in information system of class DSS - the objective approach<br />
to designing. Proceeding of 6-th International Conference<br />
“ the Analysis, forecasting and management in complex systems”,<br />
St Petersburg (in Russian).<br />
[7] Zadeh L. (1965) Fuzzy sets. Information and Control, vol. 8.<br />
[8] Zadeh L. (1988) Fuzzy logic. IEEE Transactions on Computers,<br />
vol. 21, no 4.<br />
[9] Kacprzyk J. (2006) Komputerowe systemy wspomagania decyzji<br />
dla potrzeb zarządzania wiedzą. W ks. Pod red. R.Kulikowski,<br />
Z.Bubnicki, J.Kacprzyk. Systemowe-komputerowe wspomaganie<br />
zarządzania wiedzą. ELIT, Warszawa (in Polish).<br />
[10] Yu X., Kacprzyk J. (2008) Applied Decision Support with Soft<br />
Computing, Springer.<br />
[11] Piegat A. (2001) Fuzzy Modeling and Control, Physica-Verlag<br />
Heidelberg, New York.<br />
[12] Leonenkov A. (2003) Fuzzy modeling in the environment MAT-<br />
LAB and fuzzyTECH. BHV- -Petersburg (in Russian).<br />
Generation of harmonic sequences in accordance<br />
to tonal harmony rules<br />
with artificial neural networks<br />
(Generacja sekwencji harmonicznych w zgodzie z zasadami harmonii<br />
tonalnej przy użyciu sieci neuronowych)<br />
dr inż. WOJCIECH ZABIEROWSKI, prof. dr hab. inż. ANDRZEJ NAPIERALSKI<br />
Technical University of Lodz, Department of Microelectronics and Computer Science<br />
There has been a continuous research throughout the world.<br />
in the field of computer generated music. Many implementations<br />
has appeared as well as a lot of disputes on this topic,<br />
and it is now perceived as a branch of science.<br />
The computer participation in the process of music creation<br />
is not only restricted to being an aid for the composer. In<br />
fact, a machine is able to replace human in the creation<br />
process. There are some realizations that are purely machinegenerated<br />
and which were able to reach the top of pop music<br />
lists, successfully competing with human-made works.<br />
The elements of the branch of science mentioned above<br />
include musicological analysis of musical opus and automatic<br />
harmonization of the melody line. The research presented<br />
below can be applied in particular in these areas.<br />
Problem specification<br />
A musical piece can be described by a number of various parameters.<br />
These parameters determine, what is later called,<br />
a musical work - an art. Music is not a sole matter of putting<br />
together notes and resulting sounds (and vice versa). Moreover,<br />
even if these sounds are combined in chords, they still<br />
remain just a set of more or less ordered tones.<br />
One of the most basic parameters, determining whether<br />
what we obtain can really be called music, is the harmonic<br />
meaning of mentioned elements.<br />
More precisely, this meaning is, of course, a harmonic<br />
meaning in musical sense - an accordance of tones. Basic<br />
harmonic constructions [2-4], also known as functions, form<br />
together a harmonic triad and, depending on the musical scale<br />
degree on which one builds them, they are called: tonic (T),<br />
subdominant (S) and dominant (D) correspondingly.<br />
Only by combining these harmonic functions into sequence,<br />
we obtain music. Secondary functions may be distinguished<br />
as well. These secondary functions retain similarity to<br />
the main functions, and hence, they received similar names,<br />
such as T II - tonic of second degree. By using secondary functions,<br />
a harmonic sequence can be greatly enriched.<br />
There is, of course, a strict (depending on a chosen harmonic)<br />
set of rules for progression of chords that have specific<br />
harmonic functions. Table 1 contains the basic rules for<br />
harmonic function progressions.<br />
Tabl. 1. Basic functional progressions<br />
Tab. 1. Podstawowe następstwa funkcyjne<br />
Harmonic function<br />
Tonic<br />
Subdominant<br />
Dominant<br />
Allowed consequent function<br />
S, D, T<br />
T, (D)<br />
T<br />
22 ELEKTRONIKA 11/<strong>2009</strong>
In addition, one has to remember that a musical work<br />
always begins with a tonic (T), and each stress build up by<br />
a dominant is resolved to a tonic (T). In short, creating music<br />
is a matter of choosing such progressions.<br />
Input data preparation<br />
An idea was born to try, in accordance with Computer Generated<br />
Music trends, to implement (simplified) tonal harmony<br />
rules in generation of harmonic sequences as an initial phase<br />
of further research in the area of Computer Generated Music.<br />
To achieve this, neural networks have been used. After performing<br />
extensive evaluation and testing, a three layer perceptron<br />
model with 32 neurons in hidden layer has been<br />
chosen. Each of 16 input neurons and 16 output neurons has<br />
been assigned a corresponding value from the learning sets.<br />
An example of such mapping is presented in Table 2.<br />
Tabl. 2. Exemplary values of corresponding input and output neurons<br />
used in the network architecture<br />
Tab. 2. Przykładowe wartości odpowiednich neuronów wejściowych<br />
i wyjściowych w użytej architekturze sieci<br />
Neurons In<br />
In1 In2 In3 In4 In5 … In14 In15 In16<br />
1 0 0 0 1 0 1 0 0<br />
Neurons Out<br />
Ou1 Ou2 ... Ou8 Ou9 … Ou14 Ou15 Ou16<br />
0 0 0 1 0 0 1 0 0<br />
To represent the corresponding tones in chords of given<br />
harmonic meaning, a MIDI notation was used (see tabl. 2),<br />
more precisely - the part of information stored in the voice<br />
messages. Occurence of a certain value in a voice message<br />
has led to a ‘1’ as an input for a given neuron. No tone was<br />
equivalent to ‘0’ as an input.<br />
Tabl. 3. Values corresponding to sounds in MIDI notation<br />
Tab. 3. Wartości MIDI odpowiadające wartościom dźwiękowym<br />
Note MIDI value (hex) Decimal value (dec)<br />
C 3c 60<br />
D 3e 62<br />
E 40 64<br />
F 41 65<br />
G 43 67<br />
A 45 69<br />
H 47 71<br />
Data was prepared in accordance with tonal harmony<br />
rules using a synthesizer, which was utilized to obtain the desired<br />
groups of dependencies as sets for teaching the neural<br />
network. The sets contained from 50 sequences, in a simplest<br />
case, up to 300 in a case that considered dependencies between<br />
triads in I and II position of the secondary functions.<br />
Input data was tested according to the rule that three tones<br />
making a chord have specified harmonic meaning. In the course<br />
of using a taught network to generate harmonic sequences,<br />
the input consisted of the two tones plus the harmonic<br />
meaning of the previous tonal sequence, in a hope that the<br />
network would point the correct tone for filling in the specified<br />
harmonic value. The tonal range was limited to a single octave<br />
to simplify the occurring dependencies.<br />
The research<br />
The learning process, depending on the method used,<br />
consisted of up to 40 000 iterations. In the process [6,7] the<br />
following methods were taken into consideration:<br />
• gradient descent back-propagation, (with and without momentum),<br />
• resilient back-propagation,<br />
In addition, the following transfer functions were used there [5]:<br />
• log-sigmoid transfer function - Matlab - logsig(n);<br />
• hyperbolic tangent sigmoid transfer function - Matlab<br />
tansig(n).<br />
As a result of teaching the neural network, a good match,<br />
measured with the mean squared error (MSE) and the number<br />
of erratic classifications, was obtained (see tabl. 4). The<br />
magnitude of the classification error Er means the number of<br />
direct error matches with respect to the expected precise<br />
answers and can be defined in the following manner:<br />
where: er - number of erratic classifications, L - test set size<br />
Tabl. 4. The results of learning processes and their Er error values<br />
Tab. 4. Wyniki uczenia wraz z wartościami błędu Er<br />
Network<br />
architecture<br />
Learning<br />
time<br />
(iterations)<br />
16/32/16 40 000<br />
16/32/16 40 000<br />
16/32/16 500<br />
Transfer<br />
Function<br />
tansig/<br />
tansig/tansig<br />
tansig/<br />
tansig/tansig<br />
tansig/<br />
tansig/tansig<br />
Teaching<br />
Function<br />
MSE<br />
The most interesting results for an architecture with one<br />
hidden layer and 32 neurons in the layer, as well as obtained<br />
adjustment and mean squared error (MSE), is shown in<br />
tabl. 4. The architecture of presented solution was chosen<br />
empirically. All of the sets were prepared with default network<br />
parameters taken into account. Various network configurations<br />
with different numbers of neurons per hidden layer were<br />
tried out. Many more setups were investigated , but not all of<br />
them are included because of the unsatisfactory results they<br />
produced.<br />
Concluding from the tabl. 4, the reached level of mean<br />
squared error of learning process for this issue is, in fact, the<br />
same in every case. The same can be observed for the Er<br />
classification error, which shows similar values in different network<br />
configurations. Due to this, more attention has to be paid<br />
to the configurations that allow to obtain similar level of adjustment<br />
with less calculation overhead.<br />
(1)<br />
(2)<br />
(3)<br />
Er<br />
traingd 0,0214148 8<br />
taingdm 0,021857 8<br />
trainrp 0,0182302 8<br />
ELEKTRONIKA 11/<strong>2009</strong> 23
Generated harmonic sequence in the metrum of 3/8 Wygenerowana sekwencja harmoniczna w metrum 3/8<br />
After thorough analysis in accordance to the theory of<br />
tonal harmony it turned out that alleged matching errors are<br />
non-existent or minimal.<br />
As a matter of fact, it turned out that, in some cases, for<br />
certain combinations of harmonic progressions and for some<br />
tones (see tabl. 5) there was no obvious solution proposed by<br />
the network, e.g. the network proposed two possible harmonic<br />
functions. After performing the data analysis, it also turned out<br />
that in some combinations of the input data, there were also<br />
two tones proposed by the network. This means that it was<br />
possible to choose among different tones or harmonic functions<br />
to fullfil tonal harmony rules.<br />
Comparing observed behavior to the real composing<br />
process, human composers are facing the same dilemma [8].<br />
It’s their genius, their mind, that, depending on the emotions<br />
that are being poured down into a piece of art, makes a decision<br />
on the tonal content, the chord, and the harmonic dependencies.<br />
Tabl. 5. Results generated by neural network - border case<br />
Tab. 5. Wyniki wygenerowane przez sieć - przypadek skrajny<br />
Sounds Meaning<br />
Network results<br />
-0.0000<br />
-0.0000<br />
D 0.5000<br />
-0.0000<br />
E 0.5000<br />
0.0000<br />
0.0000<br />
0.0000<br />
0.0000<br />
-0.0000<br />
-0.0000<br />
0.0000<br />
0.0000<br />
Tonic 0.5000<br />
0.0000<br />
Dominant 0.5000<br />
A neural network is emotionless. It can be taught about<br />
some dependencies and rules, e.g. that a particular tune is<br />
sad while another is cheerful and bright. It has to be remembered,<br />
though, that this is a subjective feeling.<br />
How to resolve this problem?<br />
It can be done in two ways. One of them would be to<br />
prepare another decision degree, implemented in the neural<br />
network, that would reflect the knowledge about emotions.<br />
The second solution, which is considered better at this<br />
stage, is to implement some random mechanisms, that will<br />
automatically make the decision based on the received data.<br />
This second solution has been chosen. In the example<br />
presented, a harmonic sequence with the random choice of<br />
the solution in case of a conflict is shown.<br />
To complement the presentation of the results obtained<br />
from designed neural network and applied procedures of input<br />
and output data processing, a musical effect is shown in the<br />
form of scores with the assumption of using different rhythmical<br />
values.<br />
As it can be observed, the effect is not perfect, because of<br />
the visible parallelism, but this aspect of harmonic rules was<br />
not implemented in the described issue, however it has no impact<br />
on the conclusions made on the whole process.<br />
Summary<br />
It has been shown that computer with implemented neural network<br />
methods is a useful tool to create and generate music.<br />
Of course, these are only basics, only fundamental creation,<br />
but with further research it will lead to the handling of more<br />
complicated and wider musical aspects.<br />
Because of the fundamentals of octave notation, the resolution<br />
obtained is automatically transposable up and down the<br />
scale, and requires only minor modifications in case of an<br />
extension of the tone domain on more than one octave. In the<br />
future, further work in the field of using neural networks for Computer<br />
Generated Music is planned, as well as an attempt to implement<br />
other parameters of musical opus, such as rhythm,<br />
rhythmical values, or tempo. Also, attempts will be made to determine<br />
and write emotions in a way that would allow their<br />
acquirement by a neural network - even in a limited form.<br />
This research will certainly contribute to the development<br />
in the area of Computer Generated Music, both in Poland and<br />
abroad, in the aspect of using the methods of computer<br />
science in musicology. One can see also some possible commercial<br />
uses of this research results in musical instruments, in<br />
composing tools and maybe even in rehabilitation praxis.<br />
References<br />
[1] Baggi L. D.: Computer-Generated Music. IEEE Computer, 1991.<br />
[2] Lerdahl F., Jakedoff R.: A Generative Theory of Tonal Music. MIT<br />
Press, 1983.<br />
[3] Sikorski K.: Harmonia cz. I. Polskie Wydawnictwo Muzyczne,<br />
1991.<br />
[4] Wesołowski Fr.: Zasady muzyki. Polskie Wydawnictwo Muzyczne,<br />
Kraków 2004.<br />
[5] Demuth H., Beale M.: Neural Network Toolbox: User’s guide version<br />
4. The MathWorks, Inc., 2000.<br />
[6] Tadeusiewicz R.: Sieci neuronowe. BG AGH, Kraków, 2000.<br />
[7] Rutkowski L.: Metody i techniki sztucznej inteligencji. PWN, Warszawa,<br />
2006.<br />
[8] Gang D., Lehamnn D.: Melody Harmonization with Neural Nets.<br />
International Computer Music Conference, Banff, 1995.<br />
24 ELEKTRONIKA 11/<strong>2009</strong>
The correction of digital images obtained by means<br />
of low quality scanner using FIR filter generated by<br />
a neural network in opposition to the digital images<br />
obtained by means of model scanner<br />
(Poprawa obrazów cyfrowych pozyskanych skanerem niskiej klasy<br />
z wykorzystaniem filtru FIR generowanym przez siec neuronową)<br />
dr inż. JAKUB PEKSIŃSKI, dr inż. GRZEGORZ MIKOŁAJCZAK<br />
Zachodniopomorski Uniwersytet Technologiczny, Wydział Elektryczny Zakład Teorii Obwodów i Systemów Telekomunikacji,<br />
Szczecin<br />
In this article authors will present the problem of improvement<br />
of the quality of the image acquired by acquisition devices,<br />
which construction is based on CCD matrice (Charge Coupled<br />
Device). Nowadays on the market a large group of those<br />
devices can be found and their prices vary from very cheap to<br />
very expensive. Obviously, very cheap equipment applied<br />
mainly in household usage considerably diverges in quality<br />
from expensive high class devices. It is clear, that images<br />
(photos) acquired by cheap equipment considerably diverge<br />
from images acquired by an expensive devices (high class<br />
devices). It is caused by many factors depending mainly on<br />
the quality of CCD matrice used and device’s electronics. Following<br />
factors are responsible for the quality of images acquired<br />
by those devices [1]:<br />
• number of pixels (resolution),<br />
• quantum efficiency (sensitivity),<br />
• noises in matrice,<br />
• quality of the A/C converter.<br />
The evidence of the fact that images acquired by a cheap<br />
device of low class considerably diverge in quality from the<br />
images acquired by expensive devices of high class can be<br />
observed in the results presented in table 1 and 2. Tables contain<br />
results of digital image quality criteria measured between<br />
image acquired by a low class device and image acquired by<br />
high class scanner (called consequently a model one). For the<br />
needs of the experiment two popular digital image quality<br />
measures [2] were used:<br />
• NMSE (normalized mean square terror) - formula no 1:<br />
• MD (maximum difference) described by formula no 2:<br />
MD = Max(|f(x,y) - f(x,y)|) (2)<br />
where: M N - display; f(x,y) - good image; f’(x,y) - bad image.<br />
Tabl. 1. NMSE error between images<br />
NMSE<br />
Images 1 0.217<br />
Images 2 0.219<br />
Images 3 0.208<br />
Images 4 0.275<br />
Images 5 0.215<br />
(1)<br />
Tabl. 2. MD error between images<br />
Analyzing quality indicators presented in tables 1 and 2 it<br />
can be found clearly that images acquired by low class scanner<br />
diverge in quality from images acquired by model scanner.<br />
To improve the quality of low class image, so that it is comparable<br />
to images from high class scanner, the authors used<br />
neural network. The task of the neural network was to generate<br />
impulse response in form of a filter with 5 x 5 mask, provided<br />
that this filter must realize the operation of discrete<br />
tangle described by formula no 3 [3]:<br />
where: yout(x,y) - image after filtration; yin(x,y) - image before<br />
filtration; w(i, j) - filter mask.<br />
Neural network configuration<br />
MD<br />
Images 1 161<br />
Images 2 169<br />
Images 3 143<br />
Images 4 187<br />
Images 5 166<br />
To obtain a digital filter with 5 x 5 mask the authors of the article<br />
have used one direction neural network working in mode<br />
with teacher - Figure 1. This network has 25 inputs (x0, x1,...,<br />
x24), into which in the course of learning, we give image acquired<br />
by low class scanner (y1). In the course of learning, in<br />
which the actualization of wages was based on recurrent presentation<br />
of the images acquired by low class scanner, the<br />
change in wage rate of the neural network occurred (w0,<br />
w1, ..., w24) according to formula no 4 [4].<br />
where: j - step number, n - learning parameter, w i (j) - wage,<br />
δ µ - error described by formula no 5, y - result value.<br />
(3)<br />
(4)<br />
(5)<br />
ELEKTRONIKA 11/<strong>2009</strong> 25
This image has undergone the process of scanning by two<br />
scanners of low quality and model one. The initial values of<br />
quality criteria between image amounted accordingly:<br />
NMSE 0.217<br />
MD 161<br />
In the course of learning process of the network a filter of ratios<br />
showed on picture no 3 was obtained.<br />
Fig. 1. Neural network configuration<br />
Rys. 1 Konfiguracja sieci neuronowej<br />
The whole learning process continues according to the following<br />
steps:<br />
• input of an image of low quality,<br />
• determining an error according to formula no 5,<br />
• determining new wages according to formula no 4,<br />
• repeating steps no 1 to 3 as long as the error becomes satisfactorily<br />
small.<br />
The result of the operation of the neural network is the filter<br />
of 5 x 5 mask (25 wages), which in the course of realization<br />
of discrete tangle operation described by formula no 3,<br />
improve the quality of digital images acquired by low class<br />
scanner in such a way, that they will correspond with images<br />
from the model scanner.<br />
Experimental research results<br />
In this point the result of the experimental research will be presented.<br />
For the needs of experiment, two scanners, which<br />
construction is based on CCD matrice, were used:<br />
• low quality scanner,<br />
• high quality scanner - model scanner.<br />
In the learning process of neural network, digital image<br />
Man.bmp (Fig. 2) was used.<br />
0.0090 0.0244 0.0369 0.0224 0.0139<br />
0.0263 0.0588 0.0890 0.0564 0.0301<br />
0.0544 0.0998 0.1653 0.0965 0.0570<br />
0.0272 0.0507 0.0836 0.0549 0.0251<br />
0.0132 0.0206 0.0369 0.0256 0.0095<br />
Control criteria values for two images after applying linear<br />
filtration amounted accordingly:<br />
NMSE 0.097<br />
MD 54<br />
Amplitude characteristic of the filter is presented on the<br />
Figure 3. Analyzing the values of mask ratios and looking at<br />
amplitude characteristic of the filter it can be stated that it is<br />
a filter of a down capacity character. It means that the disturbances<br />
in the CCD matrice of a low class scanner mainly have<br />
the character of noises.<br />
To check the correctness of operation of the filter generated<br />
by network, ten pairs of image acquired by two scanners<br />
were examined, the results are presented in table 3 and 4.<br />
Tabl. 3. NMSE error before and after filtration<br />
Tab. 3. Błąd NMSE po filtracji<br />
NMSE before filtration<br />
NMSE after filtration<br />
Images 1 0.217 0.097<br />
Images 2 0.219 0.101<br />
Images 3 0.208 0.099<br />
Images 4 0.275 0.121<br />
Images 5 0.215 0.089<br />
Fig. 2. Image Man.bmp Rys. 2. Obraz Man.bmp<br />
Fig. 3. Amplitude characteristic of the filter<br />
Rys. 3 Charakterystyka amplitudowa filtru<br />
26 ELEKTRONIKA 11/<strong>2009</strong>
Tabl. 4. MD error before and after filtration<br />
Tab. 4. Błąd MD przed i po filtracji<br />
All images were scanned with 600 dpi resolution. Plustek<br />
OpticPro A320 was used as the model scanner and Canon<br />
LiDE100 as the low quality scanner.<br />
Conclusion<br />
MD before filtration<br />
MD after filtration<br />
Images 1 161 54<br />
Images 2 169 57<br />
Images 3 143 43<br />
Images 4 187 67<br />
Images 5 166 57<br />
Analyzing the results presented in tables 3 and 4, it can be<br />
stated that the digital filter of 5 x 5 mask obtained in the course<br />
of learning process of the neural network fulfils its task. After<br />
applying tangle operation, images acquired by low class scanner<br />
have become comparable in quality with model images.<br />
Surely, there is no 100 percent improvement, because the filter<br />
mask is relatively small. However, the advantage of it is<br />
that through realization of the discrete tangle operation, it can<br />
be used in popular programmes for image procession such<br />
as CorelDraw or Photoshop.<br />
Of course, the learning process of the neural network is<br />
long but it occurs only once and filter obtained in such a way<br />
can be applied in signal processors, so that the improvement<br />
of photos can be implemented practically in real time.<br />
References<br />
[1] Tadeusiewicz R., Kohoroda P.: Komputerowa analiza i przetwarzanie<br />
obrazów. Wydawnictwo Fundacji i Rozwoju Telekomunikacji,<br />
Kraków 1997.<br />
[2] Kornatowski E.: Probabilistyczna miara wierności odwzorowania<br />
sygnału Kwartalnik <strong>Elektronika</strong> i Telekomunikacja 1999.<br />
[3] Zieliński T.: Cyfrowe przetwarzanie obrazów. Wydawnictwo Komunikacji<br />
i Łączności, Warszawa 2005.<br />
[4] Osowski S.: Sieci neuronowe do przetwarzania informacji. Oficyna<br />
Wydawnicza Politechniki Warszawskiej, Warszawa 2000.<br />
[5] Bishop C.: Neural Network for Pattern Recognition. Oxford: Caledron<br />
Press 1995.<br />
[6] Korbicz J., Obuchowicz A., Ucińskii D. A.: Sztuczne sieci neuronowe.<br />
Akademicka oficyna wydawnicza PLJ, Warszawa 1994.<br />
[7] Praca zbiorowa: Sieci neuronowe. Akademicka oficyna wydawnicza<br />
EXIT, Warszawa 2000.<br />
[8] Shenn N.: Neural network for system identification. Int. J. Syst.<br />
Sci., v. 23, no 12, pp. 2171-2186 1992.<br />
[9] Winter R, Widrow B.: Madaline Rule II: A training algorithm for<br />
neural networks. Proc. IEEE 2nd Int. Conf. Neural Networks, San<br />
Diego, CA, v. 1, pp. 401-408, 1988.<br />
[10] Hopfield J., Tank D.: Neural computations of decisions in optimization<br />
problems. Biological Cybernetics vol. 52, pp 141-152,<br />
1985.<br />
Global multicriteria optimization in weather routing<br />
(Wielokryterialna optymalizacja globalna w nawigacji meteorologicznej)<br />
dr inż. JOANNA SZŁAPCZYŃSKA<br />
Akademia Morska w Gdyni, Wydział Nawigacyjny<br />
A task of finding a global optimum in a complex, non-linear optimization<br />
problem with constraints belongs to NP-hard problem<br />
class. Hence, selecting a global optimization method reliable<br />
and suitable for given problem might be a challenge [1]. The<br />
problem becomes even more complicated when it is defined as<br />
a multicriteria (aka multiobjective) optimization problem (MOP).<br />
Possible approaches include goal function linearization, interactive<br />
optimization techniques and multicriteria searching for<br />
Pareto-optimal solutions. The latter scheme is the most popular<br />
and often performed by metaheuristic methods.<br />
Ship route optimization in weather routing is an example of<br />
a real life MOP class problem. The term “weather routing” refers<br />
to a process of finding the most convenient route for a ship<br />
while taking into account available weather forecasts. The<br />
weather routing optimization problem has already been defined<br />
in terms of MOP [2]. This paper presents the comprehensive,<br />
already implemented solution to finding a global optimum in<br />
weather routing. In addition to that, it includes a discussion on<br />
efficiency of current solution and other possible approaches towards<br />
global optimization. The final conclusions try to appoint<br />
alternative optimization methods being able to improve the efficiency<br />
of current solution.<br />
Problem definition in weather routing<br />
The criteria set in weather routing models the following elements:<br />
passage time (min), fuel consumption (min) and voyage<br />
risk (min). The constraint set include four elements describing<br />
natural obstacles and navigational constraints. A detailed description<br />
of the constrained multicriteria problem definition in<br />
weather routing has been already given in [2].<br />
Multicriteria evolutionary algorithms<br />
and ranking methods in weather routing<br />
The solution [2] to the weather routing optimization problem<br />
comprises two optimization techniques: multicriteria evolutionary<br />
algorithm (SPEA) and multicriteria ranking method<br />
(Fuzzy TOPSIS). The former is responsible for finding a set of<br />
Pareto-optimal solutions, while the latter is utilized to narrow<br />
the vast set of (Pareto-optimal) routes to a single route recommendation.<br />
It is worth noticing that preferences of decisionmaker<br />
towards optimization criteria influence only the ranking<br />
method, leaving the main evolutionary optimization procedure<br />
not affected. The following subsections provide a more de-<br />
ELEKTRONIKA 11/<strong>2009</strong> 27
tailed description of the optimization techniques utilized in the<br />
weather routing solution as well as a discussion on efficiency<br />
of the solution.<br />
Strength Pareto Evolutionary Algorithm<br />
The Strength Pareto Evolutionary Algorithm (SPEA) [3], is<br />
a multiobjective evolutionary algorithm with “a posteriori” decision-maker<br />
preference articulation. In SPEA decisionmaker’s<br />
preferences do not influence the core optimization<br />
procedures. The result of the evolutionary process is a set of<br />
Pareto-optimal individuals, consisting of nondominated elements.<br />
An individual is called a nondominated one if, and only<br />
if, it is superior to all the other individuals for at least one criterion<br />
and not worse for all the other criteria. In SPEA algorithm<br />
two populations are maintained throughout the evolution<br />
process, namely the basic population P and the secondary<br />
one - N. The main purpose of the latter is to sustain all nondominated<br />
individuals (Pareto-optimal ones) during the complete<br />
generation process.<br />
SPEA customization to the weather routing optimization<br />
problem required the following steps:<br />
1. designing problem-related chromosome structure. Here an<br />
individual is a representation of a route. The route is defined<br />
as an ordered list of waypoints, each holding a set of<br />
corresponding vales such as geographical coordinates,<br />
propulsion settings, velocity, time of reaching, etc,<br />
2. designing the process of initial population creation. Having<br />
determined departure and destination ports a set of basic<br />
routes between these ports is generated. The set consists<br />
of a loxodrome, orthodrome and an isochrone route (found<br />
by an isochrone method). Initial population is then generated<br />
by random modifications (including mutation and<br />
crossover) on the basic routes set,<br />
3. constructing operators specialized to the chromosome<br />
structure. Three evolutionary operators amending given<br />
chromosome structure have been implemented, namely<br />
mutation, crossover and smoothing,<br />
4. introducing a mechanism for avoiding constraint violations.<br />
Original SPEA method has no such mechanism, thus the<br />
following have been applied to remedy the problem:<br />
a) constraint-dominance by Deb [4] has replaced typical<br />
Pareto-dominance,<br />
b) supporting algorithms have been implemented, ensuring<br />
that only feasible individuals participate in the selection<br />
process. The algorithms include a general fixing<br />
algorithm and a remove loops algorithm.<br />
Details on each of the abovementioned steps have been<br />
given in [2].<br />
Fuzzy Technique for Order Preference<br />
by Similarity to Ideal Solution<br />
Original Technique for Order Preference by Similarity to an<br />
Ideal Solution - TOPSIS is a ranking method with “a priori” decision-maker<br />
preference articulation. The best alternative<br />
among given set of alternatives is sought, having given a vector<br />
of optimization criteria and a corresponding vector of<br />
weights assigned to the given criteria. The TOPSIS method is<br />
based on a concept that the best alternative among the available<br />
alternative set is the closest to the best possible solution<br />
and the farthest from the worst possible solution simultaneously.<br />
Fuzzy TOPSIS [5] extends this approach by introducing<br />
a possibility to model the elements of criteria and weight vectors<br />
by fuzzy sets.<br />
The Fuzzy TOPSIS method has been utilized in the solution<br />
to weather routing optimization problem as a selection tool.<br />
It allows the decision-maker (e.g. a captain) to choose the most<br />
suitable route among all the Pareto-optimal routes previously<br />
found by the SPEA algorithm. The decision-maker must define<br />
their preferences to the given optimization criteria to perform<br />
the selection. This process is facilitated by a mechanism of assigning<br />
linguistic values (such as “important” or “less important”)<br />
to each criterion. The values have corresponding fuzzy<br />
sets assigned, which allows to automatically fill in the weight<br />
vector based on the linguistic values selected by the decisionmaker.<br />
As a result Fuzzy TOPSIS creates a ranking of routes,<br />
in which the first element is the most suitable route according<br />
to given decision-maker’s preferences.<br />
Research of the solution to weather<br />
routing optimization problem<br />
The proposed solution to weather routing optimization problem<br />
has been already implemented as computer software.<br />
The solution applied for a ship with hybrid propulsion has been<br />
researched [6] towards:<br />
• comparison with a standard weather routing technique: the<br />
isochrone method,<br />
• comparison of results for a ship with hybrid and standard<br />
(motor only) propulsion,<br />
• verifying of usage in case of multi-source weather data.<br />
The results obtained during the research proved the supremacy<br />
of the new method over traditional, single-criterion<br />
one. Especially, the approach to global optimization via finding<br />
the approximation of Pareto-front introduces immense flexibility<br />
to the optimization. The decision-maker is able to change<br />
their mind simply by re-assigning linguistic variables to the criteria<br />
and obtain new route recommendations immediately.<br />
However, in this case the cost of such a solution is the time<br />
required to collect Pareto-optimal routes. These routes should<br />
have images forming an adequate approximation of Paretofront.<br />
During the research the execution time for a typical PC<br />
desktop (AMD Turion 64 X2, 2.00 GHz, 2.00 GB RAM) varied<br />
from 14 min. up to 4 min. in the most complicated cases.<br />
Thus, it is recommended to consider, select and research alternative<br />
optimization methods to find Pareto-optimal solutions<br />
that may allow reducing the total execution time of the weather<br />
routing algorithm.<br />
Alternative solutions for global optimization<br />
in weather routing<br />
Parallelization is the most intuitive solution towards execution<br />
time reduction in weather routing algorithm. A multiprocessor<br />
platform may significantly increase performance of a solution to<br />
a problem comparing to a regular PC desktop. But only, if the<br />
problem can be divided into a set of sub-problems and there exists<br />
a way to build a general solution from a set of sub-solutions.<br />
The general idea of parallel multicriteria evolutionary algorithms<br />
(pMOEA) was described in detail in [7]. There are<br />
three paradigms of parallel processors cooperation in<br />
pMOEA, namely master-slave, diffusion and island models.<br />
In the master-slave paradigm fitness calculations are split between<br />
a set of slave processors, while master processor is responsible<br />
to distribute the tasks and gather all the resulting<br />
objective values. The diffusion model extends the idea of<br />
a single population, but here the individuals are distributed<br />
among the processors. An arbitrary selected topology defines<br />
a neighbourhood relationship between individuals. The rela-<br />
28 ELEKTRONIKA 11/<strong>2009</strong>
tionship then determines which individuals evolve via evolutionary<br />
operators. Unlike the former, the island model mimics<br />
the phenomenon of natural populations evolving in relative<br />
isolation. Here the processors perform the evolution in possibly<br />
reduced search space separately. However, some limited<br />
communication between the populations (islands) is permitted.<br />
The island model of parallelization has been already applied<br />
to SPEA [8].<br />
Besides the parallelization techniques, it is also well<br />
founded to consider alternative optimization methods for application<br />
to the weather routing solution. These methods<br />
should allow finding an approximation of Pareto-front and be<br />
applicable in the assumed optimization problem. Thus, the<br />
considered set of global optimization techniques includes<br />
three multicriteria metaheuristics: ant colony optimization,<br />
tabu search and simulated annealing. The next subsections<br />
present a review of these methods from the standpoint of possible<br />
application to the weather routing optimization.<br />
Multicriteria ant colony optimization<br />
The majority of multicriteria ant colony optimization (ACO) extensions<br />
are designed particularly for a two criteria optimization<br />
problem. Unfortunately their possible extension to<br />
a greater number of criteria is non trivial. A detailed review of<br />
such methods is given in [7].<br />
An example of more universal approach towards multicriteria<br />
ant colony optimization, called MOAQ [9], assumes utilization<br />
of a serial set of ant families. Each family is<br />
responsible for a single optimization criterion and tries to modify<br />
solutions in terms of the assigned criterion with respect to<br />
a negotiation mechanism. The criteria are solved in an incremental<br />
fashion, which may be considered as a disadvantage<br />
in situations where no lexicographic order can be imposed<br />
upon given optimization problem.<br />
Another extension of ACO, called PACO [10], is a population-based<br />
multicriteria approach. A new population is created<br />
based on all nondominated (Pareto-optimal) solutions found<br />
so far. The first generation of ants works the same as in standard<br />
ACO with the only difference that there is no pheromone<br />
evaporation. The best solution of the generation is collected in<br />
corresponding population then the process is repeated for<br />
a predefined number of generations. An average-rank-weight<br />
method is used for selecting elements of the next population.<br />
Despite its agent-based nature, the reviewed multicriteria<br />
ACO solutions do not have any parallelization mechanisms<br />
and it is doubtful if such mechanisms could be constructed<br />
and successfully applied.<br />
Multicriteria tabu search<br />
There are two possible approaches to solving multicriteria<br />
problems by tabu search algorithms (TS), namely by weighted<br />
scalarization of objective function or by utilizing Pareto-optimality<br />
concept. The former group of solutions, presented e.g.<br />
in [11], converts multicriteria problem into a single-criterion<br />
one by linear weighted aggregation. The weights are updated<br />
each iteration and may be dependent on improvement gained<br />
for every criterion. The latter approach to tabu search is based<br />
on selecting a new solution from the neighbourhood by means<br />
of Pareto dominance. In a paper by Armentano et al. [12]<br />
a parallel multicriteria tabu search with Pareto dominance is<br />
proposed. The method performs several parallel searches (replaces<br />
a single tabu list by a set of such lists) to obtain a welldistributed<br />
Pareto front.<br />
Multicriteria simulated annealing<br />
Various multicriteria extensions to the simulated annealing<br />
(SA) have been proposed, with SMOSA [13], PSA [14],<br />
WMOSA [15] among others. These methods model multiobjective<br />
nature of optimization by changing the approach to calculate<br />
the probability of a new solution acceptance. SMOSA<br />
and PSA calculate the probability as a multiplication of probabilities<br />
in each dimension (criterion), where PSA includes<br />
also a weighting scheme to the multiplication. WMOSA also<br />
utilize a weight vector to calculate the probability, but unlike<br />
PSA, it takes into account the number of constraints violated<br />
by the new solution when adjusting the weights.<br />
A well known property of single-criterion SA algorithms is<br />
the possibility of their parallel implementation. However, no<br />
such mechanisms has been applied to the reviewed multicriteria<br />
SA methods.<br />
Conclusions<br />
Based on the reviewed alternative optimization methods finding<br />
Pareto-optimal solutions the following conclusions can be<br />
drawn:<br />
1. Only methods with possible parallel implementation should<br />
be considered to achieve reduction of the algorithm’s execution<br />
time.<br />
2. It is recommended in the first place to implement in weather<br />
routing the parallel version of SPEA method, which could<br />
probably allow achieving the efficiency goal with low additional<br />
implementation expenditure.<br />
3. The parallel multicriteria tabu search is an additional solution<br />
worth considering in the weather routing optimization,<br />
although the required implementation effort is much higher<br />
in this case. It is advisable to implement the method in<br />
weather routing together with multicriteria SPEA and compare<br />
their efficiency.<br />
The conclusions listed above will be further verified by appropriate<br />
software development and numerical simulations.<br />
The results of those tests will allow for a more definitive comparison<br />
of the analysed methods and complete assessment of<br />
their usability for multicriteria optimization in weather routing.<br />
References<br />
[1] Perez J., Pazos R., Frausto J. et al.: Comparison and Selection<br />
of Exact and Heuristic Algorithms. Lecture Notes in Computer<br />
Science, vol. 3045, Springer-Verlag, pp. 415-424, 2004.<br />
[2] Szłapczyńska, J., Śmierzchalski, R.: Multiobjective Evolutionary<br />
Optimization with Constraints in Weather Routing. Polish Journal<br />
of Environmental Studies, vol. 17. no 4C, 2008.<br />
[3] Zitzler, E., Thiele, L.: Multiobjective Evolutionary Algorithms:<br />
A Comparative Case Study and the Strength Pareto Approach.<br />
IEEE Transactions on Evolutionary Computation no 3 vol. 4, pp.<br />
257-271, 1999.<br />
[4] Deb, K. An Efficient Constraint-handling Method for Genetic Algorithms.<br />
Computer Methods in Applied Mechanics and Engineering,<br />
vol. 186(2-4), pp. 311-338, 2000.<br />
[5] Chu T. C., Lin Y. C.: A Fuzzy TOPSIS Method for Robot Selection.<br />
The International Journal Of Advanced Manufacturing Technology,<br />
Springer-Verlag, 2003.<br />
[6] Szłapczyńska J.:, PhD thesis: Application of evolutionary algorithms<br />
and ranking methods in weather routing for a ship with hybrid<br />
propulsion. West Pomeranian University of Technology,<br />
Szczecin, <strong>2009</strong>.<br />
[7] Coello C. A., Lamont G. B., Van Veldhuizen D. A.: Evolutionary<br />
Algorithms for Solving Multi-Objective Problems. Springer,<br />
2007.<br />
ELEKTRONIKA 11/<strong>2009</strong> 29
[8] Gonzalez O., Leon C., Miranda G. et al.: A Parallel Skeleton for<br />
the Strength Pareto Multiobjective Evolutionary Algorithm 2. Proceedings<br />
of 15th EUROMICRO International Conference on Parallel,<br />
Distributed and Network-Based Processing (PDP’07), pp.<br />
434-441. IEEE Computer Society, 2007.<br />
[9] Mariano C. E., Morales E.: MOAQ anAnt-QAlgorithm for Multiple Objective<br />
Optimization Problems. Genetic and Evolutionary Computing<br />
Conference (GECCO 99), vol. 1, pp. 894-901, San Francisco, 1999.<br />
[10] Guntsch M., Middendorf M.: Solving Multi-criteria Optimization<br />
Problems with Population-Based ACO. Lecture Notes in Computer<br />
Science, vol. 2632, pp. 464-478, Springer, 2003.<br />
[11] Hansen M. P.: Use of Substitute Scalarizing Functions to Guide a<br />
Local Search Based Heuristic: The Case of moTSP. Journal of<br />
Heuristics, vol. 6, pp. 419-431, Kluwer Academic Publishers, 2000.<br />
[12] Armentano V. A., Arroyo J. E. C.: An Application of a Multi-Objective<br />
Tabu Search Algorithm to a Bicriteria Flowshop Problem.<br />
Journal of Heuristics, vol. 10, pp. 463-481, Kluwer Academic<br />
Publishers, 2004.<br />
[13] Suppapitnarm A., Seffen K. A., Parks, G. T. et al.: Simulated annealing:<br />
An alternative approach to true multiobjective optimization.<br />
Engineering Optimization, vol. 33, no 59, 2000.<br />
[14] Czyżak P., Jaszkiewicz, A.: Pareto simulated annealing - A metaheuristic<br />
technique for multiple-objective combinatorial optimization.<br />
Journal of Multicriteria Decision Analysis, vol. 7, no 34, 1998.<br />
[15] Suman, B.: Multiobjective simulated annealing - A metaheuristic<br />
technique for multiobjective optimization of a constrained problem.<br />
Foundations of Computing and Decision Sciences, vol. 27,<br />
no 171, 2002.<br />
Signed electronic document and its probative value<br />
in certificate and certificateless public key<br />
cryptosystem infrastructures<br />
(Podpisany dokument elektroniczny i jego wartość dowodowa<br />
w certyfikatowej i bezcertyfikatowej infrastrukturze kryptosystemu<br />
klucza publicznego)<br />
dr inż. JERZY PEJAŚ<br />
Zachodniopomorski Uniwersytet Technologiczny, Wydział Informatyki, Szczecin<br />
1. Introduction<br />
The Art. 5, paragraph 1 of the Act on Electronic Signature from<br />
September 18 th , 2001 (see [1]) states that the secure electronic<br />
signature based on a qualified certificate (shortly, the<br />
qualified electronic signature) evokes legal effects defined by<br />
Act if it was created in the validity period of this certificate. This<br />
regulation doesn’t apply to the certificate after period of its validity<br />
or from the day of its revocation and in the period of its<br />
suspension unless there is possible to prove that the signature<br />
was created before end of the validity period of the certificate<br />
or its revocation or suspension (i.e. to avoid a signature to become<br />
unduly questionable or even rejected in the future, the<br />
point in time when it was issued may require to be provable).<br />
The requirement for proving a time of an electronic signature<br />
generation becomes a crucial element for signature validity<br />
and for a probative value of an electronic document related<br />
to this signature (1) . This is crucial also for the sake of decreasing<br />
evidence value of an electronic document that with the time<br />
elapsed does not have the same longevity properties as physical<br />
documents. Particularly, it results from two reasons at least:<br />
• cryptographic algorithms and keys used for an electronic<br />
signature creation can become weak and not sufficiently<br />
resistant against different attacks,<br />
• information necessary for an electronic signature verification<br />
and validation is not accessible (e.g. due to the lack of access<br />
to CA certificates, CRLs, electronic documents, etc.).<br />
After many years facts stated above could make impossible<br />
to verify formerly created electronic signatures, what could<br />
result in the lack of total probative value of an electronic document<br />
(of course, if such a value was possessed by the document<br />
at storage time).<br />
Further, we assume that the probative value of a signed<br />
electronic document consists of document content, additional<br />
security elements and a context (particularly a legal context).<br />
The probative value of an electronic document has to be preserved.<br />
It means using organizational and technical measures<br />
guaranteeing the keeping an electronic signature verifiable<br />
over long period or the retrieving a reliable information on its<br />
status, and enabling the verification of the electronic document<br />
authenticity related to this signature.<br />
The rest of the paper is organized as follow. In Section 2, we<br />
formulate the model of a certified electronic signature scheme<br />
(CESS) describing a signature creation and verification process<br />
in the traditional Public Key Cryptosystem (PKC) and in Certificateless<br />
Public Key Cryptography (CL-PKC). Section 3 shows<br />
that usage of technical measures for the keeping the probative<br />
value of an electronic document needs some extension of CESS<br />
model to the form LT-CESS as well as including a Virtual Signed<br />
Electronic Document (V-SED), providing a provable authenticity<br />
of an electronic document over long period. Then two practical<br />
examples of V-SED development based on time stamp chains<br />
and a sequence of archive time stamps are presented (see Section<br />
4 and 5). Finally, we conclude the paper in Section 6.<br />
2. Electronic signature schemes<br />
The first thing to notice is that any electronic signature scheme<br />
will never be able to exist without a Trusted Authority (TA). This<br />
is because the TA is required to guarantee the authenticity of<br />
users’ public keys.<br />
In the traditional Public Key Cryptosystem (PKC), a Certificate<br />
Authority (CA) issuing a digitally signed explicit certificate<br />
binding an identity and a public key of a user achieves<br />
30 ELEKTRONIKA 11/<strong>2009</strong>
this goal. A user’s public key authenticity should be certified<br />
because his or her public key is generated from some random<br />
information that is unrelated to his or her identity. However,<br />
the need for Public Key Infrastructure (PKI) supporting certificates<br />
is considered the main difficulty on the deployment and<br />
management of a traditional PKC.<br />
Theoretically, the identity (ID) based public key cryptography<br />
(ID-PKC) introduced by Shamir [4] should solve the problem<br />
stated above. In that approach instead of using a random<br />
integer as the user’s public key as in the traditional public-key<br />
systems, the user’s real identity (e.g. the user’s name or email<br />
address) becomes the user’s public key, while a trusted third<br />
party called the Private Key Generator (PKG) manages the<br />
generation and distribution of all system’s parameters including<br />
the user’s private key. Although the complexity caused by<br />
certificates is gone (there is no need to generate the certificate),<br />
all ID-PKCs have the inherent key escrow problem, that is private<br />
key generator (PKG) knows the private key of each user.<br />
To solve the key escrow problem of the ID-PKC and to preserve<br />
the benefits of the ID-PKC, Certificateless Public Key<br />
Cryptography (CL-PKC) was introduced (S. Al-Riyami, K. Paterson<br />
[5]). Certificateless Public Key Cryptography (CL-PKC)<br />
is an intermediate between ID-PKC and PKC. In CL-PKC, Key<br />
Generation Center (KGC) is involved in issuing user partial<br />
private key computed from the master secret. The user also<br />
independently generates an additional user’s secret value and<br />
finally calculates the private key, and the corresponding public<br />
key. Therefore, even if KGC knows the user partial private<br />
key, impersonation is not possible.<br />
In CL-PKC the user’s public key can be made available to<br />
other users by transmitting it along with the messages or by<br />
placing it in a public directory. There is no explicit authentication<br />
required for the public keys and, in particular, there is no explicit<br />
certificate for each public key. However, the system is no<br />
longer identity-based, because the public key cannot be computed<br />
from the user’s identity alone (L. Harn et al. [6], S. Al-<br />
Riyami, K. Paterson [5]). Therefore such public key requires the<br />
use of an implicit certificate that allows avoiding the explicit verification<br />
of the bindings between public keys and identities. Note<br />
that an implicit certificate is valid to the end of validity period of<br />
the user’s identifier or until the revocation of this identifier.<br />
Let us assume that there is the Trusted Authority (TA) related<br />
with PKC or CL-PKC systems and a set of users. Each<br />
user has a unique identity ID ∈ {0,1} * that may contain auxiliary<br />
information like the validity period of the identity (the implicit<br />
certificate) or of the explicit certificate. This is the case<br />
when an effective usage of any electronic signature scheme<br />
needs at least the following components of PKC or CL-PKC<br />
infrastructure to be present (A. Boldyreva, et al. [3]):<br />
• Trusted Authority (TA). Each i-th TA i holds a public key<br />
pk TA (i) and a corresponding secret key sk TA (i). We assume<br />
that the public key is authenticated and known to all parties,<br />
i.e. once it is published the adversary cannot change it.<br />
This is usually accomplished by a hierarchical arrangement<br />
of TAs, each intermediate TA certifying the validity of the<br />
public key of its successor. Only the key of the root TA has<br />
to be authenticated by other means,<br />
• keys’ registration. Each user can register keys with the CA<br />
by running the registration protocol. The required validation<br />
of the user’s identity ID is usually done before by socalled<br />
registration authority (RA). Checking the identity of<br />
the user wishing to register its public key is typically performed<br />
by RA by of means personal identification and<br />
physical validation (e.g., with help of a passport or a driver<br />
license). After registration the user obtains a certificate cert<br />
that, classically, is an explicit certificate of X.509 type, including<br />
the CA’s signature or an implicit certificate cert<br />
which should be rather thought of as an arbitrary, possibly<br />
empty string. We assume, however, that each pair (ID, pk),<br />
where a public key pk is registered, is unique.<br />
Based on mentioned above PKC or CL-PKC infrastructure<br />
we can define a certified electronic signature scheme (CESS).<br />
Certified electronic signature scheme is a tuple CESS =<br />
(Setup, K, (C,U), Σ, V), where the constituent algorithms run in<br />
polynomial time and are defined as follows (see A. Boldyreva,<br />
et al. [3]):<br />
• Setup: a randomized parameter-generation algorithm that<br />
takes as an input 1 k , where k is the security parameter, and<br />
outputs some global scheme parameters params, available<br />
to all parties; the parameters params define also a finite<br />
message space, M and a finite signing space, S;<br />
• Key-Generation (K): a randomized key-generation algorithm<br />
that takes as an input params, and outputs a pair<br />
(pk TA (i), sk TA (i)) consisting of a verification key (a public<br />
key) and a signing key (a private key), i.e.<br />
• (C,U) - a pair of interactive randomized algorithms forming<br />
the (two-party) public-key registration protocol; C - an algorithm<br />
that takes as an input a private key pk TA (i); V - an<br />
algorithm takes as an input an identity ID U of a user and the<br />
public key pk TA (i) corresponding to sk TA (i); the result of this<br />
interaction can be formally written as follows:<br />
where: pk IDU is a public key of a user ID U , sk IDU - a corresponding<br />
private key and cert is an issued (explicit or<br />
implicit) certificate.<br />
• Sign (Σ): a (possibly) randomized signing algorithm that<br />
takes input scheme parameters params, an identity ID U ,<br />
a secret key sk IDU , a certificate cert and an electronic document<br />
D ∈ {0,1} * ∈ M, and outputs an electronic signature<br />
Σ ∈ S in one of the well formed format.<br />
• Verify (V): a deterministic verification algorithm that takes<br />
input scheme parameters params, an identity ID U , a public<br />
key pk IDU , a certificate cert, a public key pk TA (i) and an<br />
electronic document D ∈ {0,1} * ∈ M, and outputs valid or invalid<br />
information about a signature Σ ∈ S:<br />
The electronic signatures should be created on the base of<br />
well-defined formats, e.g. CAdES [7], XAdES [8] or PAdES<br />
[9]. Their verification requires the checking of a certificate validity<br />
(the case of traditional PKC) or a validity of a signer’s<br />
identity (the case of CL-PKC). First type of the verification requires<br />
checking a signing certificate authenticity and its presence<br />
on the certificate revocation list. In the case of the<br />
second type of verification any verifier should check whether<br />
the identifier, a component of the identifier (such as an address<br />
attribute), or the public key of a particular entity has not<br />
been revoked and then additionally verify the authenticity of<br />
the public key taken from the repository of the TA(i).<br />
(1)<br />
(2)<br />
(3)<br />
ELEKTRONIKA 11/<strong>2009</strong> 31
In the context of CL-PKC, the idea of appending validity<br />
periods (for example, year, date or time) to identifiers ID U can<br />
be used ensuring that any partial private key, and hence any<br />
private key, has a limited lifetime. Then the revocation in CL-<br />
PKC systems can be handled in the same way as in ID-PKC<br />
systems using standard certificate-based revocation techniques.<br />
For example, this can be done by deploying an analogue<br />
of an online certificate status protocol (e.g. OCSP) or<br />
variants of certificate revocation lists (CRLs).<br />
3. Keeping the probative value<br />
of electronic documents<br />
Ensuring a long-term validity of stored electronic documents<br />
depends on both organizational and technical measures (see<br />
e.g. CWA 15579 [14]). When technical measures are used to<br />
keep the probative value of electronic documents then first of<br />
all there is necessary to apply the strong cryptographic algorithms<br />
and to provide additional and sufficient information -<br />
a certificate set (all certificates needed to generate a path that<br />
leads to a point the verifier trusts) and the relevant revocation<br />
information (2) (e.g. CRLs) related to this certificate set and to<br />
all other involved certificates. Trusted third party (TTP) providing<br />
a service of keeping the probative value of an electronic<br />
document over long period has to issue the evidence records<br />
attached to the electronic attestations (Section 5) and associated<br />
with a given document or a group of documents. All these<br />
electronic attestations and time stamp tokens cyclically created<br />
for all stored evidences are needed later for making a<br />
long-term verification, i.e. verifications when the signing certificate<br />
has expired. In this case only the verifier can independently<br />
perform the complete verification of a given<br />
document authenticity and the validity of all signatures and<br />
other evidences (e.g. time stamp tokens) related to it.<br />
The storage mechanisms used by a trusted third party<br />
(TTP) should be based on a long-term electronic signature<br />
scheme (LT-CESS) like this:<br />
The LT-CESS scheme in comparison to the CESS (see Section<br />
2) contains two additional elements:<br />
• (IV,SV) - a pair of interactive deterministic algorithms forming<br />
the verification protocol (e.g. CWA 14171 [11]); IV - an<br />
initial (or a short term) verification algorithm performed by<br />
a verifier after an electronic signature is generated in order<br />
to consolidate the signature by capturing additional information<br />
that will support its subsequent verification; SV -<br />
a subsequent (or a long-term) verification algorithm performed<br />
by a verifier some time after the initial application of<br />
a signature, to assess a signature’s validity, based on the<br />
data collected at initial verification time;<br />
• Preserve (P): a deterministic algorithm for long-term preservation<br />
of the probative value of electronic signatures/documents;<br />
this algorithm is based on the initial or subsequent<br />
verification algorithm and makes the additional activities<br />
needed to protect electronic signatures/documents from effects<br />
of their deterioration, technology obsolescence, and<br />
fading human recall.<br />
Preserve and (IV,SV) algorithms generate the evidence<br />
records attached to the electronic attestations. These elements<br />
are subsequently linked to each preserved electronic document<br />
and jointly form Virtual Signed Electronic Document (V-SED).<br />
V-SED document should fulfil the following requirements:<br />
(4)<br />
• each electronic document D is stored where produced<br />
(local repository) or in a deposit (regional repository);<br />
• V-SED contains the references to the electronic documents,<br />
the signatures associated with this document, the<br />
time stamp tokens and other evidences references allowing<br />
the creation of a real (complete) SED on demand.<br />
Storing the references allows the values of V-SED elements<br />
to be kept elsewhere, reducing the entire size of V-SED<br />
document. A virtual document with above properties is a tuple:<br />
where: ID R - the V-SED identifier in a repository, D R - the references<br />
to the documents and their attachments, S R - the references<br />
to the electronic signatures, E R - the references to the<br />
evidences related to an electronic signature and a document<br />
(including the references to the electronic attestations and the<br />
evidence records linked to them). For V-SED the following definition<br />
can be formulated:<br />
Definition. The electronic document is a long-term provable<br />
authentic, if exist a polynomial time Verify(V) algorithm<br />
that takes as an input the certification scheme CS (i.e. PKC or<br />
CL-PKC), the services related to a electronic signature TSI<br />
(Trusted Services Infrastructure), V-SED, the verification policy<br />
VP (Verification Policy), and outputs a value of each electronic<br />
signature {valid, invalid}:<br />
where: V is one from two algorithms being a member of the pair<br />
(IV,SV), while the notation array[1…n] means the verification of<br />
each electronic signature referenced in V-SED structure.<br />
Note that CS parameter in Equation (6) includes the parameters<br />
params of an electronic signature scheme, while V-<br />
SED structure - (D, Σ, pk IDU ,cert) parameters; compare the<br />
Equation (3).<br />
4. Timestamp chain and sequence<br />
The basic elements of V-SED structure, i.e. the electronic attestations<br />
and the evidence records linked to them, can be<br />
built in different ways. The most often used approach is based<br />
on the appropriate mechanisms of the time stamp chains<br />
building. These mechanisms have to ensure the requirements<br />
counted in the definition of the provable authentic document<br />
(see Section 3).<br />
The starting point for the timestamp chains creation is an<br />
archival electronic signature form CAdES-A [7], XAdES-A [8]<br />
or other equivalent form (e.g. PAdES [9]). Each of these forms<br />
should contain a time stamp of a system for preserving electronic<br />
document for long periods of time (an archive mark for<br />
shortly). This mark has the same meaning as the archive timestamp<br />
that are included into the archival signature forms<br />
CAdES-A or XAdES-A.<br />
The archive timestamp is added to the CAdES or XadES<br />
form as an unsigned attribute. The hash value related to this<br />
archive timestamp is the result of using the hash algorithm to<br />
the CAdES-X or XadES-X form. The first archive timestamp of<br />
the obtained archival form CAdES or XAdES includes all necessary<br />
information required for every signature verification and<br />
so called an initial archive timestamp. This timestamp can become<br />
invalid when a public key algorithm, or a hash function<br />
used respectively to creation of the hash value or the timestamp:<br />
(5)<br />
(6)<br />
32 ELEKTRONIKA 11/<strong>2009</strong>
a) will be or could be broken, or<br />
b) a public key certificate of a time stamping authority will be<br />
expired soon or is revoked.<br />
Prior to such an event, the trust to existing time stamps<br />
has to be reassured by means of new time stamping of the<br />
previous archive timestamp. Two types of the time stamp renewal<br />
are used (see details in Section 5):<br />
a) time stamp renewal: the new archive timestamp is generated,<br />
which is related to the previous one; subsequent<br />
timestamps obtained in this renewal procedure form the<br />
archive timestamp chain for a data object or a group of<br />
data objects;<br />
b) hash value renewal: the new time stamp for the archival<br />
form is generated; it is related to previous timestamps and<br />
to data objects stamped with the initial archive timestamp<br />
for the archival form as well; the new set of the archive<br />
timestamp chain is created; the set of one or more archive<br />
timestamp chains forms the archive timestamp sequence.<br />
5. Some technical examples<br />
of the timestamp and hash value renewal<br />
Two standards are presented below (ETSI TS 101 733 [7] and<br />
RFC 4998 [15]). Each of them can be used both for the timestamp<br />
and the hash value renewal. However, while the first<br />
standard is applied mainly to a single data object (an electronic<br />
document or signature), the second one can cover a group of<br />
data objects. In both cases the evidence records are generated<br />
(CAdES-A and EvidenceRecord structures, respectively)<br />
and thent available on each request of the authorized entities.<br />
5.1 ETSI TS 101 733 (CAdES) standard<br />
To keep the probative value of an electronic document the<br />
specification of the archival form CAdES [7] is used. The<br />
archive timestamp is related to each of the SignerInfo data<br />
element that is included into the SignedData. The value of<br />
the messageImprint field of the TimeStampToken (3) structure<br />
contains the hash value returned by the hash algorithm applied<br />
to an input argument being the concatenation of the following<br />
elements:<br />
a) the encapContentInfo field of the SignedData sequence;<br />
when the field is absent, the content is stored outside of<br />
this field, but its value is protected by the signature value located<br />
in the SignedData sequence;<br />
b) the Certificates and crls fields of the SignedData sequence,<br />
if these fields are present in this sequence,<br />
c) all data elements of the SignerInfo sequence, which should<br />
be protected by the generated timestamp token, including<br />
all signed and unsigned attributes.<br />
The SignerInfo can contain more then one instance of<br />
archive-time-stamp attributes. Furthermore, each successive<br />
timestamp protects all timestamps made previously. It means<br />
that the CAdES archival form allows to renew the archive<br />
timestamp using mechanism like this presented on Fig. 1.<br />
Fig. 1. The idea of renewal of an archival timestamps form (CAdES<br />
[7])<br />
Rys. 1. Idea odnawiania znaczników czasu archiwum (CAdES [7])<br />
Each subsequent archive timestamp covers all existing<br />
timestamps, so the archive-time-stamp attribute can be used<br />
also to build the new hash value: it is sufficient to choose the<br />
new stronger hash function, calculate the new hash values<br />
and obtain the new archive timestamps.<br />
5.2 RFC 4998 de facto standard<br />
The proposal published in RFC 4998 [15] contains the following<br />
structure of the evidence record syntax (ERS):<br />
EvidenceRecord ::= SEQUENCE {<br />
version INTEGER { v1(1) },<br />
digestAlgorithms SEQUENCE OF AlgorithmIdentifier,<br />
cryptoInfos [0] CryptoInfos OPTIONAL,<br />
encryptionInfo [1] EncryptionInfo OPTIONAL,<br />
archiveTimeStampSequence ArchiveTimeStampSequence<br />
}<br />
This structure can be treated as an unsigned attribute and<br />
appears only once in each SignerInfo element of the Signed-<br />
Data structure (see the specification of archival form CAdES-A).<br />
The evidence record contains the ArchiveTimeStampSequence<br />
field, which is a sequence of archive timestamp chains:<br />
ArchiveTimeStampSequence ::= SEQUENCE OF<br />
ArchiveTimeStampChain<br />
ArchiveTimeStampChain ::= SEQUENCE OF<br />
ArchiveTimeStamp<br />
The ArchiveTimeStampChain structure contains the<br />
archive timestamps generated as the result of the timestamp<br />
renewal, while the ArchiveTimeStampSequence structure- as<br />
the result of the hash value renewal. The archive timestamp<br />
ArchiveTimestamp includes the timestamp and a set of lists of<br />
hash values and its verification must give a point of time when<br />
a given data object or a group of data objects has existed.<br />
The evidence record EvidenceRecord allows the implementation<br />
of timestamp and hash renewal procedures. The<br />
Fig. 2 is some example of the timestamp renewal used to the<br />
electronic documents divided into groups. Various methods<br />
can be applied to aggregate the group of documents (data objects).<br />
The most effective are this based on an authenticated<br />
dictionary [18], i.e. on data structures viewed simultaneously<br />
as the structured aggregate of all protected information and<br />
the proof of the authenticity and validity of these information.<br />
The initial archive timestamp generated for such aggregated<br />
groups of data is related to lists of hash values, which<br />
allow the verification of the existence of a data object or a<br />
group of data objects at a certain time. The lists of hash values<br />
are generated usually by reduction of an ordered Merkle<br />
hash tree (RFC 4998 [15], M. T. Goodrich, et al. [18]).<br />
7. Conclusions<br />
In order to model a long-term electronic signature scheme LT-<br />
CESS (as defined by Section 3) there is necessary to create<br />
so-called Virtual Signed Electronic Document (V-SED) and introduce<br />
an electronic signature verification algorithm as given<br />
in Equation (6). If there can be found an effective signature<br />
verification algorithm of the form (6), then for a given point in<br />
time it is always possible to assert the authenticity of an electronic<br />
document related to this V-SED and its existence before<br />
a certain moment in the past (in Section 3 a document<br />
ELEKTRONIKA 11/<strong>2009</strong> 33
Fig. 2. An example of data groups aggregation into the one group<br />
consisting of three electronic documents and two separated electronic<br />
documents; Merkle tree is used (notation: h(...) - cryptographic<br />
hash function, || - concatenation) (compare with [18])<br />
Rys. 2. Przykład agregacji grup danych za pomocą drzewa Merkla<br />
z jedną grupą składająca się z trzech obiektów danych i dwóch pojedynczych<br />
obiektów danych (oznaczenia: h(...) - kryptograficzna<br />
funkcja skrótu, || - operator konkatenacji) (porównaj [18])<br />
with such properties was called the long-term provable authentic<br />
document). Note that V-SED idea is independent of<br />
the public key cryptography infrastructure, and particularly can<br />
be implemented in very promising environment of Certificateless<br />
Public Key Cryptosystem (CL-PKC).<br />
The implementation of the long-term electronic signature<br />
scheme LT-CESS requires a wide range of new complex services<br />
of TSI (Trusted Services Infrastructure) related to electronic<br />
signatures, documents of V-SED type and signature<br />
verification policies (VP) (see Section 3). Examples of possible<br />
technical solutions for an implementation of a long-term<br />
keeping the probative value of a signed electronic document<br />
(Section 5) are enough to demonstrate the opportunity to build<br />
such components. Theirs complexity depends on a trust level<br />
of the storage managing organization and usually requires the<br />
use of methods presented in Section 5.<br />
References<br />
[1] Act on electronic signature from September 18 th , 2001, Law<br />
Diary - Dz.U. 2001 no 130, pos. 1450 with later amendments (in<br />
Polish).<br />
[2] EU Directive 1999/93/EC of the European Parliament and the<br />
Council of 13 December 1999 on a Community framework for<br />
electronic signatures.<br />
[3] Boldyreva A., Fischlin M., Palacio A., Warinschi B.: A Closer Look<br />
at PKI: Security and Efficiency, Lecture Notes in Computer Science,<br />
Vol. 4450/2007, pp. 458-475, Public Key Cryptography -<br />
PKC 2007, 10th International Conference on Practice and Theory<br />
in Public-Key Cryptography, Beijing, China, April 16-20, 2007.<br />
[4] Shamir A.: Identity-based cryptosystems and signature<br />
schemes, Advances in Cryptology - Crypto’84, LNCS, vol. 196.<br />
pp. 47-53, Springer-Verlag, 1984.<br />
[5] Al-Riyami S., Paterson K.: Certificateless public key cryptography,<br />
Advances in Cryptology - AsiaCrypt, LNCS, vol. 2894, pp.<br />
452-473, Springer-Verlag, 2003.<br />
[6] Harn L., Ren J., Lin Ch.: Design of DL-based certificateless digital<br />
signatures, The Journal of Systems and Software, vol. 82,<br />
pp. 789-793, <strong>2009</strong>.<br />
[7] ETSI TS 101 733 Electronic Signatures and Infrastructures<br />
(ESI); CMS Advanced Electronic Signatures (CAdES), v. 1.7.4,<br />
July 2008.<br />
[8] ETSI TS 101 903 XML Advanced Electronic Signatures<br />
(XAdES), v1.4.1, June <strong>2009</strong>.<br />
[9] ETSI TS 102 778-5 Electronic Signatures and Infrastructures<br />
(ESI); PDF Advanced Electronic Signature Profiles, v. 1.1.1, July<br />
<strong>2009</strong>.<br />
[10] Gentry C., Silverberg A.: Hierarchical ID-based cryptography, in<br />
Y. Zheng, editor, Advances in Cryptology - ASIACRYPT 2002,<br />
Lecture Notes in Computer Science, vol. 2501, pp. 548-566.<br />
Springer-Verlag, 2002.<br />
[11] CWA 14171 General guidelines for electronic signature verification,<br />
May 2004.<br />
[12] Regulation of Ministry Council from August, 7th, 2002 on technical<br />
and organizational requirements for qualified certification<br />
authorities, certification policies for qualified certificates issued<br />
by them, and technical requirements for secure signature creation<br />
and verification devices (Low Diary -Dz.U. 2002 no 128,<br />
pos. 1094).<br />
[13] RFC 5280 Internet X.509 Public Key Infrastructure Certificate<br />
and Certificate Revocation List (CRL) Profile, May 2008.<br />
[14] CWA 15579 E-invoices and digital signatures, July 2006.<br />
[15] RFC 4998 Evidence Record Syntax (ERS), August 2007.<br />
[16] RFC 3161 Time-Stamp Protocol (TSP), August 2001.<br />
[17] ETSI TS 101 861 Time stamping profile, v1.3.1, January 2006.<br />
[18] Goodrich M. T., Tamassia R., Hasic J.: An Efficient Dynamic and<br />
Distributed Cryptographic Accumulator, in Information Security,<br />
5th International Conference, pp. 372-388, Sao Paulo, Brazil,<br />
September 30 - October 2002.<br />
(1) Above problems apply to electronic documents based both upon<br />
a qualified and non-qualified certificate<br />
(2) This requirement is directly related to the certificate electronic signature<br />
scheme CESS used in the PKC infrastructure (explicit certificates),<br />
but can be also applied indirectly in the CL-PKC infrastructure (implicit<br />
certificates).<br />
(3) TimeStampToken is an archive timestamp issued according to RFC<br />
3161 [16] or ETSI TS 101 861 [17].<br />
Przypominamy o prenumeracie miesięcznika <strong>Elektronika</strong> na 2010 r.<br />
34 ELEKTRONIKA 11/<strong>2009</strong>
Ontology-based approach to scada systems<br />
vulnerabilities representation for CIP<br />
(Podejście ontologiczne do reprezentacji podatności systemów scada<br />
dla ochrony infrastruktur krytycznych)<br />
dr inż. MICHAŁ CHORAŚ 1,3 , mgr inż. ANNA STACHOWICZ 1 , mgr inż. RAFAŁ KOZIK 1,3 ,<br />
mgr inż. ADAM FLIZIKOWSKI 1,3 , mgr inż. RAFAŁ RENK 1,2<br />
1 ITTI Sp. z o.o.<br />
2 Adam Mickiewicz University, Poznań<br />
3 Institute of Telecommunications, UT&LS, Bydgoszcz<br />
Critical Infrastructures are the organizations delivering goods<br />
and services in an economy that are fundamental to the functioning<br />
of society and the economy [1]. As for types of critical<br />
infrastructures, there are some domains within an economy<br />
that are considered crucial and most important. The loss of or<br />
disaster within a CI will affect a part or all society. Some of<br />
critical sectors described in [2] are agriculture and food, water,<br />
public health and defence.<br />
The INSPIRE Project focuses on telecommunication, energy<br />
and transportation sectors. CI are now identified and protected<br />
by national and international law and regulations<br />
(nationally in e.g. Poland by Ministry of Infrastructure in Crisis<br />
Management regulations [3]; internationally e.g. by NATO and<br />
by EU) [4-6]. Most of them are also intuitively recognized as<br />
critical by societies. Unfortunately, not all phenomenon and<br />
aspects within CI are well recognized. It is not possible to create<br />
mathematical equations fully describing CI - their functioning<br />
and dependencies. CI are nonlinear and chaotic: it<br />
means that small change may cause enormous effects (as in<br />
the butterfly effect). Even if we had equations describing CI,<br />
small increase or decrease of non-important tiny factors, could<br />
cause enormous change in the overall result [1].<br />
Complexity and wide range of critical infrastructures implies<br />
huge problems in their reliability and security. In dispersed<br />
critical infrastructures like electric power, water, railway<br />
or telecommunication sectors SCADA (Supervisory Control<br />
and Data Acquisition) systems are commonly used. SCADA is<br />
a monitoring, supervisory and controlling system with data acquisition<br />
from remote data fields. On the contrary to other control<br />
systems like for e.g. Distributed Control Systems (DCS),<br />
SCADA is intended especially to geographical dispersed systems.<br />
Control, measure and monitoring remote field data elements<br />
are provided by Remote Terminal Units (RTUs).<br />
Communication of RTUs with other SCADA components like<br />
Master Terminal Units, Operation Control Centres is provided<br />
by telecommunication network.<br />
Three generations of SCADA systems can be distinguished<br />
according to [7]:<br />
• 1 st generation - SCADA systems are monolithic and performed<br />
all computing functions themselves without connectivity<br />
with other systems;<br />
• 2 nd generation - SCADA systems are distributed, taking advantages<br />
of LocalArea Network, which connected multiple stations<br />
with different functions shared information in real-time;<br />
• 3 rd generation - it is extension of 2 nd generation in a way<br />
that system architecture became open, utilized open standards<br />
and protocols and connectivity of SCADA station and<br />
functions was moved from LAN to WAN.<br />
Nowadays most of SCADA development comply with 3 rd<br />
generation SCADA systems. SCADA systems have been designed<br />
without security considerations for many years. Nowadays,<br />
more and more SCADA systems have connections with<br />
business systems, corporate networks, which showed a risk,<br />
that unauthorized, unintended entities may have access to<br />
critical SCADA data information. The great benefit of integration,<br />
the communication between SCADA systems and corporate<br />
networks or Internet, which increase efficiency of<br />
business processes became a great risk and source of vulnerabilities.<br />
Therefore, there is an emerging need of identifying<br />
SCADA vulnerabilities and understanding interdependencies<br />
between them, especially these implied by SCADA systems<br />
interconnection with telecommunication infrastructures. In this<br />
paper we present an ontology-based approach to tackle this<br />
difficult task.<br />
Motivation to ontology-based approach<br />
Interoperation with different network technologies and various<br />
applications causes SCADA systems inherit typical network<br />
and application vulnerabilities. That is why security aspects in<br />
SCADA systems are not so different than in network security.<br />
One of the most important aspects in security are vulnerabilities.<br />
Vulnerabilities are the weak points in (SCADA) system<br />
components, which can be exploited by an attack. Definitions<br />
of vulnerability and threat according to ISO/IEC 13335-1:2004<br />
standard are as follows [8]:<br />
• vulnerability: “includes a weakness of an asset or group of<br />
assets which can be exploited by a threat”;<br />
• threat: “a potential cause of an unwanted incident which<br />
may result in harm to a system or organization”.<br />
Threats and attacks exploit vulnerabilities, so identification<br />
of vulnerabilities is a key aspect of security consideration and<br />
risk assessment. Known vulnerabilities can be fixed and potential<br />
attack can be prevented. There are several sources of<br />
vulnerabilities, for e.g. vulnerability repositories such as National<br />
Vulnerability Database (NVD) [9] or Open Source Vulnerability<br />
Database (OSVDB) [10]. However they do not<br />
express all security issues, their properties and relations. That<br />
is why we find ontology as a suitable tool for showing identified<br />
vulnerabilities as a classification and their connections<br />
with other security aspects like threats, attacks, SCADA resources<br />
and communication infrastructure [11]. Ontology is a<br />
form of knowledge representation in a form of data model that<br />
provides a decryption of domain and relations between domain<br />
concepts.<br />
ELEKTRONIKA 11/<strong>2009</strong> 35
Knowledge in ontology is represented by:<br />
• classes - a general concepts;<br />
• properties of these concepts;<br />
• individuals - basic entities of concepts.<br />
Ontology can be created in OWL language, using Protégé<br />
application. There are many tools and software to support ontology<br />
functionalities. Knowledge enrichment can be improved<br />
by rules in SWRL (Semantic Web Rule Language) [11]. Rules<br />
in SWRL applied to OWL ontology give possibility to extend<br />
existing knowledge with new properties. This option enables<br />
individuals to be reclassified and makes process of filling-up<br />
properties of new individuals more automatic. Reasoning<br />
about ontology concepts can be provided by semantic reasoners.<br />
Relevant knowledge is also given by restrictions: relationships<br />
or constraints.<br />
Proposition of the ontology<br />
In this section our ontology approach with special consideration<br />
and emphasis on vulnerabilities is presented. Ontology<br />
has been created in OWL-DL language using Protégé 3.4. application.<br />
SCADA ontology aims at addressing the following key<br />
SCADA issues:<br />
• what are vulnerabilities of special SCADA components, architecture<br />
or protocols,<br />
• how these vulnerabilities affect SCADA resources,<br />
• which threats/attacks may occur and what damage they<br />
can cause?<br />
According to ISO/IEC 13335-1:2004 standard [8] vulnerabilities<br />
are considered as a part of network security system. In<br />
this approach SCADA resources, components have weak<br />
points named vulnerabilities. These vulnerabilities can be exploited<br />
by threats, leading to attacks. This security system is<br />
depicted into a form of classification with properties and relationships<br />
among security issues.<br />
Main concepts, which compose main classes of proposed<br />
ontology following ISO/IEC 13335-1:2004 standard are:<br />
• SCADA systems,<br />
• SCADA resources,<br />
• vulnerabilities,<br />
• threats and attacks,<br />
• source of attacks,<br />
• safeguards.<br />
The proposed hierarchy of ontology classes is presented<br />
in Fig. 1. These classes are connected properties. Properties<br />
show relations, dependence of one class on another or can<br />
represent some attributes. Main classes, named also superclasses<br />
have sub-classes. Sub-classes are specifications of<br />
super-classes and inherit their features.<br />
Going down the hierarchy, lower levels of subclasses<br />
make ontology information more detailed. Properties of “Vulnerabilities”<br />
class created in Protégé are presented in Fig. 2.<br />
Visualization of ontology with some relations between different<br />
classes is presented in Fig. 3. Subclasses of main<br />
classes are also shown there.<br />
Classification of key class of ontology - “Vulnerabilities”<br />
has been based on vulnerability description given in [12]. Thus<br />
SCADA vulnerabilities are grouped into five sub-classes of<br />
“Vulnerabilities” class in proposed ontology:<br />
• network Vulnerabilities,<br />
• platforms Vulnerabilities,<br />
• security and Administration Vulnerabilities,<br />
• data vulnerabilities,<br />
• architecture Vulnerabilities.<br />
These areas of vulnerabilities correspond with particular<br />
system components and can be connected with design, implementation,<br />
misconfiguration and procedural problems. Hi-<br />
Fig. 2. Properties of “Vulnerabilities” class created in Protégé<br />
Rys. 2. Właściwości klasy “Vulnerabilities” stworzone w aplikacji<br />
Protégé<br />
Fig. 3. Main classes visualized in Jambalaya plug-in<br />
Rys. 3. Główne klasy zwizualizowane w zakładce Jambalaya<br />
Fig. 1. Existing class hierarchy<br />
Rys. 1. Istniejąca hierarchia klas<br />
Fig. 4. Proposed vulnerabilities classification<br />
Rys. 4. Proponowana klasyfikacja podatności<br />
36 ELEKTRONIKA 11/<strong>2009</strong>
erarchy of vulnerability classes with first and second subclasses<br />
levels is presented in Fig. 4. Subclasses of “Vulnerabilities”<br />
class are also presented in Fig. 5.<br />
SCADA systems created as an industry system has its<br />
own dedicated communication protocols like Modbus,<br />
Profibus or DNP3. These special protocols also produce Vulnerabilities<br />
characteristic for them. Classification of these protocols<br />
is presented in Fig. 6.<br />
Knowledge, which is relevant and useful for cooperation<br />
with some security management system, in ontology is provided<br />
by individuals - basic objects of classes. Main classes,<br />
concepts of vulnerability classification should be fulfilled with<br />
individuals.<br />
Particular vulnerabilities related with SCADA systems in<br />
described ontology are based on “D2.2 - Identification of Vulnerabilities”<br />
deliverable of the INSPIRE Project [13]. They are<br />
instantiated as individuals in proposed ontology. Although our<br />
approach is based on [12], vulnerabilities identified in [13] respond<br />
with proposed ontology.<br />
Some of these individuals are:<br />
Application vulnerabilities (referred to Architectural Vulnerabilities<br />
in [12] approach):<br />
• advisory CA-2001-07 File Globing Vulnerabilities in Various<br />
FTP Servers;<br />
• denial of Service in Automated Solutions Modbus TCP Slave;<br />
• automated Solutions Modbus TCP Slave ActiveX Control<br />
Vulnerability;<br />
• citect CitectSCADA ODBC service buffer overflow - CVE-<br />
2008-2639;<br />
• GE Fanuc Proficy HMI/SCADA iFIX uses insecure authentication<br />
techniques.<br />
Fig. 5. Subclasses of “Vulnerabilities” class<br />
Rys. 5. Podklasy klasy “Vulnerabilities”<br />
Operating System Vulnerabilities (referred to Platform Vulnerabilities<br />
in [12] approach):<br />
• buffer overflows in HP Software Distributor,<br />
• privilege escalation in WindowsNT,<br />
• buffer overflow in CSAdmin module in CiscoSecure ACS<br />
Server 2.4,<br />
• injection vulnerability in Solaris 10 and 11.<br />
Network Vulnerabilities:<br />
• stop alarm events using DNP3 protocol,<br />
• unauthorized access to DNP3 devices,<br />
• unauthorized access to Modbus server information,<br />
• NETxAutomation Vulnerabilities,<br />
To improve effectiveness of ontology using we applied also<br />
rules in SWRL Language. The sample rule is given below:<br />
Resources(?x) Resources_has_Vulnerability(?x, ?y) Attacks_exploit_vulnerabilities(?z,<br />
?y) →<br />
Attacks_are_realted_with_reacources(?z, ?x)<br />
The above rule can be read as: when individuals of “Resources”<br />
has “Vulnerabilities” and some “Attacks” exploit<br />
these “Vulnerabilities” it implicates that these “Attacks” are related<br />
with “Resources”. Rules act on individuals level, but individuals<br />
have to be included in the ontology classes. Rules<br />
enable adding knowledge to very complicated and complex<br />
ontologies, because some properties of concepts can be filled<br />
up automatically by particular individuals.<br />
Ontology-based INSPIRE Decision<br />
Aid Tooltool<br />
Ontology shows complicated relationships among SCADA<br />
components and security aspects. That is why ontology can<br />
support security solutions. However, the ontology is just a representation<br />
of relationships between particular classes (or instances)<br />
and as it is, can not provide any knowledge based<br />
reasoning or give feedback to its operator.<br />
The solution is to develop the decision support tool that<br />
will map the proposed ontology into set of rules, which will be<br />
the input for the inference engine. The engine can be described<br />
as a form of finite state machine with a cycle consisting<br />
of three action states:<br />
• match rules,<br />
• select rules,<br />
• execute rules.<br />
In the “match rule” state the engine searches all rules that<br />
are matching the current content data store, which are also<br />
called facts. The single fact represents the single property of<br />
the real world e.g.: the operator has SCADA network named<br />
“ABC” which has vulnerability “CDF” that is mapped to proper<br />
state of engine’s data store.<br />
The selected rules are the candidates to be executed, but<br />
the engine, by applying some selection strategy, determines<br />
which rule will be exactly fired. Finally, when the rule is executed,<br />
it is being passed the facts.<br />
Fig. 6. Protocols of SCADA systems<br />
Rys. 6. Protokoły systemów SCADA<br />
Fig. 7. Decision-aid tool - logical diagram<br />
Rys. 7. Diagram logiczny narzędzia wspomagającego decyzję<br />
ELEKTRONIKA 11/<strong>2009</strong> 37
As is it shown in Fig. 7, the decision-aid will analyse the<br />
ontology and generate the facts and rules. Actually, the ontology<br />
instances will be mapped to facts and the SWRL rules will<br />
be mapped to engine’s rules.<br />
In that manner, the tool will be facilitated with information<br />
that will allow to:<br />
• measure dynamically (the value will not be hard coded into<br />
ontology) the vulnerability likelihood,<br />
• dynamically rank the vulnerabilities,<br />
• inform the operator what may cause the fault in SCADA<br />
system,<br />
• what element of the network needs some attention and<br />
safeguards.<br />
By defining the additional (tool build-in) rules there will be<br />
possibility to realize the customized features of the aid tool:<br />
• proposing the action plans with information how to minimize<br />
the likelihood of the vulnerability,<br />
• apply some appropriate countermeasures to minimize the<br />
probability of most likely attack,<br />
• evaluate the SCADA system condition based on standards.<br />
Conclusions<br />
In this paper ontology-based approach for description of<br />
SCADA systems vulnerabilities has been presented. Functionalities<br />
of ontology applied to knowledge representation for<br />
security and protection of critical infrastructures have been<br />
shown. Our solution has been developed within research in<br />
the INSPIRE Project that aims to increase security and protection<br />
through infrastructure resilience. Presented ontology<br />
approach will be basis for Decision - aid tool which is a part of<br />
INSPIRE security framework.<br />
The research leading to these results has received funding from the<br />
European Community’s Seventh Framework Programme (FP7/2007-<br />
2013) under grant agreement no. 225553 (INSPIRE Project).<br />
References<br />
[1] Critical infrastructure: Understanding Its Component Parts, Vulnerabilities,<br />
Operating Risks, and Interdependencies, Tyson<br />
Macaulay, August 2008.<br />
[2] Lewis T. G.: Critical Infrastructure Protection in Homeland Security:<br />
Defending a Networked Nation, Wiley-Interscience,<br />
2006.<br />
[3] Ustawa z dnia 26 kwietnia 2007 r. o zarządzaniu kryzysowym,<br />
Opracowano na podstawie: Dz.U. z 2007 r. nr 89, poz. 590.<br />
[4] Homeland Security Presidential Directive/Hspd-7, December 17,<br />
2003.<br />
[5] European Parliament legislative resolution of 10 July 2007 on<br />
the proposal for a Council directive on the identification and designation<br />
of European Critical Infrastructure and the assessment<br />
of the need to improve their protection (COM(2006)0787 - C6-<br />
0053/2007 - 2006/0276(CNS)).<br />
[6] EU Critical Infrastructure Protection (CIP), Council of the European<br />
Union, Brussels, 28 October 2005.<br />
[7] McClanahan Robert H. :“The benefits of networked SCADA systems<br />
utilizing IP-enabled networks”, Arkansas Electric Cooperative<br />
Corporation, IEEE, 2002.<br />
[8] ISO/IEC 13335-1:2004, Information Technology - Security Techniques<br />
- Management of information and communications technology<br />
security - Part 1: Concepts and models for information<br />
and communications technology security management.<br />
[9] http://nvd.nist.gov/.<br />
[10] http://osvdb.org/.<br />
[11] Choraś M., Renk R., Flizikowski A., Hołubowicz W.: Ontologybased<br />
description of networks vulnerabilities, Polish Journal of<br />
Environmental Studies, vol. 5c, 2008.<br />
[12] SWRL: A Semantic Web Rule Language Combning OWL and<br />
RuleML. W3C Member Submission, http://www.w3.org/Submission/SWRL/.<br />
[13] Stamp J., Dillinger J., Young W.: Common vulnerabilities in critical<br />
infrastructure control systems. Networked Systems Survivability<br />
and Assurance Department, Jennifer DePoy, Information<br />
Operations Red Team & Assessments Department, Sandia National<br />
Laboratories, 22 May 2003.<br />
[14] “D2.2 - Identification of Vulnerabilities” , INSPIRE Project, July<br />
<strong>2009</strong>.<br />
Synthesis and management of system with<br />
parallel multiprocessors and fault tolerance<br />
(Synteza i zarządzanie komputerowych systemów z równoległymi wieloprocesorami<br />
i tolerowaniem uszkodzeń)<br />
dr MIECZYSŁAW DRABOWSKI<br />
Cracow University of Technology, Faculty of Electrical and Computer Engineering<br />
The management of computer systems [1,2] is an issue the<br />
basic objective of which is to find an optimum solution, satisfy<br />
the requirements and limitations enforced by the given specification<br />
of operations (tasks) and resources. The following criteria<br />
of optimality are usually considered: the costs of planning in<br />
execution of operations, its operating speed and reliability. The<br />
problems of operations and resources scheduling are one of<br />
the most significant issues occurring at the procedure planning<br />
of operating system responsible for controlling the distribution<br />
of tasks and resources in computer systems. The problem of<br />
control in resources requires the list of available hardware resources<br />
- the set describing resources - which can be used to<br />
realization of operations. The starting point for constructing our<br />
approach to the issues of fault tolerance system is the deterministic<br />
theory of task scheduling [3]. Accordingly, decomposition<br />
of the general task scheduling model is suggested,<br />
adequate to the problems of fault tolerance system [4]. We will<br />
discuss the system: ∑={R,T,C}, where: R - resources, T - tasks<br />
and C - optimality criteria. We assume that processor set<br />
P={P 1 ,P 2 ,…,P m } consists of m elements and additional resources<br />
set A = { A 1 ,A 2 ,…,A p } consist of p elements). We consider<br />
a set of n tasks to be processed with a set of resources<br />
38 ELEKTRONIKA 11/<strong>2009</strong>
and the set of tasks is divided into 2 subsets [5]: T 1 =<br />
{T 1 1 ,T 2 1 ,…,T n1 1 }, T 2 = {T 1 2 ,T 2 2 ,…,T n2 2 }, n = n1 + n2 and each<br />
task T i 1 (i = 1,2,…,n1) requires one arbitrary processor for its<br />
processing and its processing time is equal to t i 1 , however each<br />
task T i 2 (i = 1,2,…,n2) requires 2 arbitrary processors simultaneously<br />
for its processing during a period of time whose length<br />
is equal to t i 2 ; thus, tasks T i 2 are called width-2 tasks or T 2 -<br />
tasks. We shall assume its minimum cost and maximum operating<br />
speed. The proposed model may be used for defining<br />
problems for fault tolerance system. The model of a system in<br />
this approach, typical for the theory of task scheduling, consists<br />
of a set of operations (tasks) and existing relationships between<br />
them (related to their order, required resources, time, readiness<br />
and completion deadlines, priority etc.).<br />
The management procedure contains the following<br />
phases: identification of hardware and software resources for<br />
task execution, defining the processing time, defining the conflict-free<br />
task schedule and defining the level of resource cosharing<br />
and the degree of concurrency in task performance.<br />
A schedule is called feasible if, besides the usual conditions,<br />
each task T i 1 is processed by one processor and each task T i<br />
2<br />
is processed by 2 processors at a time. A feasible schedule is<br />
optimal, if its length is a minimum and it is implemented using<br />
minimum resource cost. Each task is defined by a set of parameters:<br />
resource requirements, execution time, ready time<br />
and deadline, attribute - preemptable or nonpreemptable. The<br />
tasks set may contain defined precedence constraints represented<br />
by a digraph with nodes representing tasks, and directed<br />
edges representing precedence constraints. If there is<br />
at least one precedence constraint in a task set, we shall refer<br />
it to as a set of dependent tasks; otherwise they are a set of<br />
independent tasks. Let us assume that fault tolerance system<br />
resources include universal parallel processors and other specialized<br />
resources. As for tasks, we assume one-processor<br />
tasks used for modeling usable preemptable/nonpreemptable<br />
and dependent tasks, and two-processor tasks, for which we<br />
assume time and resource. Two-processor tasks model the<br />
system testing tasks (e.g. one processor checks the other).<br />
Testing tasks may be dependent on the defined time moments<br />
of readiness to perform and to complete assigned tasks. Twoprocessor<br />
tasks may realize a defined strategy of testing<br />
a computer system and its fault tolerance characteristics.<br />
In fault tolerance systems an appropriate strategy of selftesting<br />
during regular exploitation must be provided. In general,<br />
architectures of fault tolerance computer systems are<br />
multiprocessor ones. The objective of operating systems in<br />
multiprocessor systems is scheduling tasks and their allocation<br />
to system resources. For fault tolerance systems, this<br />
means scheduling usable and testing tasks, that should detect<br />
errors of executive modules, in particular processors. As<br />
a result of testing, the operating system may receive the information<br />
about incorrect operation and may locate, by the<br />
proper analysis, a faulty module automatically. Consequently,<br />
the operating system can make a decision about repair strategy,<br />
for instance system reconfiguration (ignore damaged resources<br />
for execution of tasks). The management of networks<br />
with multiprocessors and fault tolerance consists of following<br />
stages (Fig. 1).<br />
So far [6] resources selection, task scheduling and task<br />
and resources allocation have been realized independently in<br />
sequence: in the first place resource division and tasks scheduling<br />
next - Fig. 2.<br />
In this paper is presented approach, in which resources<br />
selection, task scheduling, allocation of tasks and resources,<br />
as well as system optimization are realized coherently - Fig. 3.<br />
In concurrent approach once the tasks have been scheduled<br />
and allocated, the resources are reselected, changing<br />
the ones chosen previously, in search of a satisfactory solution<br />
meeting all the established criteria.<br />
This concurrent approach - presented in this paper - based<br />
on two algorithms behaving variously in different ways lets you<br />
not only find the sub-optimal solution, but also verify this solution.<br />
Presented algorithms let us find the solution, but at the same<br />
time they let us evaluate the algorithms themselves. This way<br />
we can tell which of the algorithms is faster in finding better and<br />
better solutions, which algorithm is more tolerant to modifications<br />
of system parameters, and also which of them enables fast adaptation<br />
to new parameters, while the system changes dynamically.<br />
Fig. 1. The management of system with multiprocessors and fault<br />
tolerance<br />
Rys. 1. Zarządzanie wieloprocesorowym systemem komputerowym<br />
z tolerancją uszkodzeń<br />
Fig. 2. Independent allocation resource and scheduling of task<br />
Rys. 2. Niezależne alokacje zasobów i szeregowanie zadań<br />
Fig. 3. Concurrent allocation resource and scheduling of task<br />
Rys. 3. Współbieżne alokacje zasobów i szeregowanie zadań<br />
ELEKTRONIKA 11/<strong>2009</strong> 39
Example of concurrent resource<br />
allocation and task scheduling<br />
Let us discuss a simple example for management of multiprocessors<br />
system with fault tolerant where assuming that<br />
tasks (with applications requirements) of the system are given<br />
by the tasks graph. The digraph presented in Fig. 4 defines<br />
the precedence constraints of tasks of the modeled system.<br />
Fig. 4. Task digraph Rys. 4. Graf zadań<br />
The optimality criterion is the minimum of the task processing<br />
time, i.e. a minimum of the task schedule length. An<br />
additional criterion is cost, related to the number of used resources.<br />
We shall define constraints of the resources available.<br />
Compilation of all operations [6] of the system, the<br />
characteristics of available resources and database (with resource<br />
allocations in the past) give us the times of task processing<br />
(we assume conventional time units).<br />
We assume the following times of individual tasks for a<br />
standard processor: t 0 = 3, t 1 = 2, t 2 = 2, t 3 = 1, t 4 = 3, t 5 = 3,<br />
t 6 = 4, t 7 = 3, t 8 = 1, t 9 = 1. Let us assume that the cost of one<br />
executive module is:<br />
C = C P + i • C M (1)<br />
where: C P - processor cost, C M - memory module cost,<br />
i - number of memory modules.<br />
The requirements for realizing all operations of the system<br />
shall be specified as follows:<br />
• the acceptable deadline for performing all tasks without any<br />
delays is 13 time units;<br />
• it is necessary to perform task T 6 indivisibly in time;<br />
• it is necessary to provide a deadline for task T 6 equal<br />
9 time units;<br />
• the desirable deadline for performing all tasks without any<br />
delays is at most 10 time units.<br />
The cost of the system should be as low as possible, and<br />
the structure conformable to the fault tolerance system model<br />
with two-processor testing tasks. We shall denote processor<br />
testing tasks by T gh , if processor P g is testing processor P h .<br />
The first step of the planning has to determine the number<br />
of parallel processors needed for the execution of all requirements<br />
and constraints. The structure of four parallel<br />
processors shall be assumed. This structure of a fault tolerance<br />
the system satisfying the requirement “1.” is shown in<br />
Fig. 5 (variant a).<br />
Fig. 5. Structures of fault tolerance multiprocessor system<br />
Rys. 5. Struktury wieloprocesorowe z tolerancją uszkodzeń<br />
The optimum tasks schedule for such architecture is presented<br />
in Table 1. Taking into account the requirement “2.”,<br />
a correction is done to the task schedule. The system structure<br />
and costs remain unchanged.<br />
The next requirement “3.” is reflected in a corrected<br />
schedule presented in Table 1. Please notice that the system<br />
architecture and costs remain unchanged. Only tasks schedule<br />
is modified.<br />
In order to carry out the requirement “4.”, a change of the<br />
system structure is necessary. Two variants of the structure<br />
shall be proposed. The first structure consists of five identical<br />
parallel processors, with two-processor testing tasks Fig. 2 -<br />
variant b). Task schedule in such structure is depicted in<br />
Table 2 (variant b). In the second variant, a specialized module<br />
(ASIC - if is available) is applied that can perform the<br />
Tabl. 1. Schedule of task in a four-processors (structure: variant a) satisfying<br />
the requirement “1.”= (1) and “1.”+”2.”+”3.” = (3) (X - idle time)<br />
Tab. 1. Uszeregowanie zadań na 4 procesorach (struktura: wariant a)<br />
zgodnie z wymaganiami ”1.” = (1) i “1.”+”2.”+”3.” = (3) (X - czas przestoju<br />
procesora)<br />
time P1 (1) P2 (1) P3 (1) P4 (1) P1 (3) P2 (3) P3 (3) P4 (3)<br />
1 T12 T12 T0 X T12 T12 T0 X<br />
2 T0 T23 T23 X T0 T23 T23 X<br />
3 T0 X T34 T34 T0 X T34 T34<br />
4 T13 T1 T13 T2 T13 T1 T13 T2<br />
5 T1 T24 T2 T24 T1 T24 T2 T24<br />
6 T31 T4 T31 T3 T31 T6 T31 T3<br />
7 T14 T4 T5 T14 T14 T6 T5 T14<br />
8 T21 T21 T4 T6 T21 T21 T4 T6<br />
9 T7 T32 T32 T6 T7 T32 T32 T6<br />
10 T41 T6 T5 T41 T41 T4 T5 T41<br />
11 T7 T42 T5 T42 T4 T42 T5 T42<br />
12 T6 T8 T43 T43 T6 T8 T43 T43<br />
13 T12 T12 T7 T9 T12 T12 T7 T9<br />
Tabl. 2. Schedule of tasks in a five-processors (structure: variant b)<br />
and in a three-processors with specialized ASIC processor (structure:<br />
variant c) satisfying the requirements “1.”+”2.”+”3.”+”4.” (X - idle time)<br />
Tab. 2. Uszeregowanie zadań na 5 procesorach (struktura: wariant b)<br />
i na 3 procesorach z procesorem specjalizowanym ASIC (struktura<br />
wariant c) zgodnie z wymaganiami “1.”+”2.”+”3.” +”4.” (X - czas przestoju<br />
procesora)<br />
time P1 (b) P2 (b) P3 (b) P4 (b) P5 (b) P1 (c) P2 (c) P3 (c) ASIC (c)<br />
1 T12 T12 X T0 X T12 T12 X T0<br />
2 X T23 T23 T0 X T2 T23 T23 X<br />
3 X X T34 T34 T0 T13 T2 T13 X<br />
4 T1 T2 T6 T45 T45 T21 T21 T6 T4<br />
5 T13 T2 T13 T1 T6 T1 T32 T32 T6<br />
6 T3 T24 T5 T24 T6 T31 T1 T31 X<br />
7 T4 T5 T35 T6 T35 T12 T12 T3 T5<br />
8 T14 T5 T4 T14 T7 T8 T23 T23 T7<br />
9 T9 T25 T4 T7 T25 T13 T13 T9 X<br />
10 T15 T8 T9 T7 T15 X X X X<br />
11 T21 T21 X X X X X X X<br />
12 X T32 T32 X X X X X X<br />
13 X X T43 T43 X X X X X<br />
40 ELEKTRONIKA 11/<strong>2009</strong>
tasks: T 0 , T 4 , T 5 , T 6 and T 7 with a triple speed (as compared<br />
to the standard universal processor). The system structure<br />
and schedule are shown in Fig. 5 (variant c) and Table 2 (variant<br />
c), respectively. Please notice, that in such variant the<br />
specialized resource is assigned no function in the time period<br />
2-3, 6 and 9, and the universal processor completes processing<br />
of usable tasks in 9 time units, while ASIC processor<br />
completes performing its function in 8 time units. Accordingly,<br />
the required deadline was reached in 9 units.<br />
The cost of the other structure shall be estimated as follows.<br />
If we assume that each usable task performed by a universal<br />
processor needs one memory unit dedicated to such<br />
task, and task assigned to ASIC processor do not need dedicated<br />
memory units the system cost is:<br />
C S = m • C P + n u • C M + p • C ASIC (2)<br />
where: m - the number of identical parallel processors, n u - the<br />
number of tasks assigned to universal processors, p - the number<br />
of specialized ASIC processors devoted for processing remaining<br />
n - n u tasks. For the requirements: “1.”, “2.”, “3.”, “4.”: m =<br />
4, n u = 10, p = 0. For the requirements: “1.” + “2.” + “3.” + “4.”, in<br />
the first variant, m = 5, n u = 10, p = 0. In the second variant, where<br />
one ASIC processor is applied, m = 3, n u = 6 and p = 1.<br />
The paper describes concurrent allocation of resources<br />
and of tasks in complex frameworks. Moreover, this paper<br />
presents simple, practical example of synthesis and management<br />
of system with fault tolerance. The strategy of self testing<br />
based at multiprocessors structure and application of<br />
two-processors tasks.<br />
This work was supported by the Polish Ministry of Science and<br />
High Education as a 2007-2010 research project.<br />
References<br />
[1] Blazewicz J., Ecker K., Plateau B., Trystram D.: Handbook on<br />
parallel and distributed processing. Springer-Verlag, Heidelberg<br />
(2000).<br />
[2] Nabrzyski J., Schopf J., Weglarz J.: Grid Resource Management:<br />
State of the Art and Future Trend. Kluwer Academic Publishers,<br />
Boston (2003).<br />
[3] Coffman E. G., Jr.: Computer and Job-shop scheduling theory.<br />
John Wiley&Sons, Inc. New York (1976).<br />
[4] Blazewicz J., Drabowski M., Weglarz J.: Scheduling multiprocessor<br />
tasks to minimize schedule length. IEEE Trans. Computers<br />
C-35, No.5, pp. 389-393 (1986).<br />
[5] Blazewicz J., Ecker K., Pesch E., G. Schmidt, Węglarz J.: Handbook<br />
on scheduling. Springer-Verlag, Heidelberg (2007).<br />
[6] Dick R. P., Jha N. K., MOGAC: A Multiobjective Genetic Algorithm<br />
for Hardware-Software Cosynthesis of Hierarchical Heterogeneous<br />
Distributed Embedded Systems. in: IEEE<br />
Transactions on Computer-Aided Design of Integrated Circuits<br />
and Systems, vol. 17, no 10, pp. 920 - 935 (1998).<br />
[7] Golub M., Kasapovic S.: Scheduling multiprocessor with genetic<br />
algorithms. Proceedings of the IASTED Applied Informatics Conference,<br />
Innsbruck (2002).<br />
[8] Hyunok Oh., Soonhoi Ha.: Hardware-software cosynthesis of<br />
multi-mode multi-task embedded systems with real-time constraints.<br />
Proceedings of the IEEE/ACM Conference on Hardware<br />
Software Codesign, Estes Park, Colorado, (2002).<br />
[9] Yhang Z., Dick R., Chakrabarty: Energy-aware deterministic fault<br />
tolerance in distributed real-time embedded systems. 41st Proc.<br />
Design Automation Conf., Anaheim, California, (2004).<br />
The security level of particular blind<br />
steganographic systems<br />
(Zabezpieczenie określonego poziomu niewidoczności<br />
w systemach steganograficznych)<br />
prof. dr hab. inż. JERZY KOROSTIL, mgr inż. ŁUKASZ NOZDRZYKOWSKI<br />
Faculty of Computer Science, West Pomeranian University of Technology, Szczecin<br />
Steganographic hidden messages in digital graphic image should<br />
not lead to visible distortions in the resulting image [1,2]. There<br />
are many methods of reducing the occurrence of distortion. One<br />
of these methods is presented in the article [3], where by using of<br />
specified threshold values it rejects blocks which statistical metrics<br />
reveal the existence of a single structure. Hidden messages<br />
in such block would result in the occurrence of visible distortions.<br />
This article proposes the utilization of human visual perception<br />
and its limits that the message is hidden below the<br />
threshold of human vision. It enables the examination of proposed<br />
steganographic methods to ensure a proper level of<br />
concealment of hidden message.<br />
Determining the size of distortions<br />
caused by steganographic hiding<br />
messages<br />
Steganographic hiding messages in digital images can cause<br />
significant distortion of the resulting image, what disqualifies<br />
the method or the picture in which the data are hidden. Particularly<br />
important are the distortions visible by the human<br />
eye. It can take different measures to determine the changes<br />
which arise as a result of steganographic algorithm, and what<br />
does not always reflect the actual level of distortion visible to<br />
human being.<br />
ELEKTRONIKA 11/<strong>2009</strong> 41
Considering human visual perception<br />
for determination of distortion<br />
One of the indicators defining the quality of images and the<br />
level of introduced distortions is a coefficient PSNR (Peak Signal<br />
to Noise Ratio). Good quality images with hidden messages<br />
have the coefficient of PSNR ≥ 30 [4]. The<br />
disadvantage of this index is low correlation with visual perception<br />
of a recipient. In studies of human vision for evaluation<br />
of the quality of vision two measures are used: visual acuity<br />
and contrast threshold [5].<br />
Visual acuity, called VISUS determines the size of the smallest<br />
character called optotype, which is correctly recognized by<br />
human from a certain distance. This measure determines the<br />
fraction of Sandella, which is the quotient of the distance from<br />
the test chart to the distance from which the optotype is recognized<br />
at 5 minutes angle. Visus measure equals 5/5 signifies<br />
correct human sight. If Sandella fraction is 5/15 it means person<br />
with poor sight. [5]. If the visual acuity is 1 (6/6) then the spatial<br />
frequency is 20/20 cycle/degree. If the visual acuity is 0.1 (6/60)<br />
then the spatial frequency is 20/200 cycle/degree.<br />
Examination of visual acuity is held at maximum contrast,<br />
where optotype having a black color is placed on a white<br />
background. Because the conditions of the observation usually<br />
do not allow the observations at maximum contrast therefore<br />
more important measure for determining the quality of<br />
sight is the contrast [5].<br />
Contrast characterizes the degree of distinguishing of the<br />
subject from the background and the clarity of its details. Contrast<br />
measure can be calculated based on relation (Michaelson’s):<br />
(1)<br />
2.5%, 1.25%, 0.6%. In this way optotype chart is used for<br />
examining the acuity as a chart for examining the sensitivity of<br />
an eye to changes of contrast. If recognized contrast is 2.5%<br />
then contrast sensitivity is 100/2.5 = 40 and if it is 0.6% equals<br />
100/0.6 = 167 respectively.<br />
The changes of contrast are noticeable between the acuity<br />
values of 0 (high optotype symbols) and 1 (small optotypes).<br />
All changes in contrast above 1 (20/20 cycle/degree)<br />
are imperceptible. Hiding information in the area above<br />
1 cycle/degree does not lead to visible distortions in the resulting<br />
image. The biggest changes are noticeable in the area<br />
of visual acuity for optotypes 0.03 (20/600) and 0.1 (20/200),<br />
where the contrast sensitivity is the greatest.<br />
A modified form of the determination of invisibility to the<br />
human eye of the fact of steganographic hidden messages in<br />
pictures is the utilization of standardized contrast sensitivity<br />
function CSF proposed by Manos and Sakrisona [8]. This<br />
function is defined in formula:<br />
This function indicates the sensitivity of the human eye to different<br />
frequency of visual impulses, which expresses the contrast.<br />
The higher frequency of impulse changes, the worse<br />
pattern recognition. Recognizing patterns is also aggravated<br />
in case of rare impulse changes. Maximum sensitivity is additionally<br />
dependent on viewing angle. If the viewing angle will<br />
decrease, extreme of the function moves slightly towards<br />
higher frequencies. In case of increase of viewing angle, the<br />
extreme moves in the other direction [8]. Contrast sensitivity<br />
chart is shown in Fig. 1.<br />
(3)<br />
where: I max means an object with maximum brightness and<br />
I min the object with minimum brightness. Contrast equals<br />
1 means a black object on a white background. Contrast with<br />
lower values means gray object on a gray background. When<br />
K = 0 then the object is imperceptible from the background.<br />
The ability to recognize complex objects determines the sensitivity<br />
to contrast function. This function determines the contrast<br />
scale at what certain optotype is recognizable. Contrast<br />
sensitivity relation is expressed in a formula:<br />
C=1/K p (2)<br />
where: K p defines the contrast threshold. It sets the limit of<br />
discrimination of the observed object from the background [5].<br />
The relation between sensitivity and contrast and the scale of<br />
optotype represents the contrast sensitivity function. This<br />
function is presented in a logarithmic scale in regard of its high<br />
value of contrast sensitivity and non-linear characteristics. It<br />
allows estimation of a degree of deterioration in sight efficiency<br />
at reduced contrast. Its shape determines the test<br />
charts with optotypes of different contrast against background.<br />
Contrast sensitivity can be examined using an optotypes chart<br />
with use of two charts [6]:<br />
• with symbols of the same size, but with variable contrast<br />
(Pelli-Robson chart [7]),<br />
• with symbols of the same level of contrast, but with a variable<br />
size of letters.<br />
Chart (2) for examining the contrast sensitivity is created<br />
on the basis of visual acuity examination charts by taking rows<br />
of all sizes of letters to a relevant level of contrast. Contrast<br />
levels for optotype chart are as follows: 100%, 25%, 10%, 5%,<br />
Fig. 1. Optotype chart to examine the sense of contrast<br />
Rys. 1. Tablica optotypów do badań poczucia kontrastu<br />
Fig. 2. The graph on the contrast sensitivity function [5]<br />
Rys. 2. Wykres funkcji wrażliwości na kontrast [5]<br />
42 ELEKTRONIKA 11/<strong>2009</strong>
According to presented function CSF reaches crest value<br />
at about f = 8, in turn frequencies above 60 cycles per degree<br />
(angle equal to 1) are meaningless. Above f = 60 the human<br />
eye does not distinguish any changes [6].<br />
This function is based on a strip acuity and covers much<br />
larger sight view than optotype one. In addition another part of<br />
the brain deals with it. Therefore a variable strip values should<br />
not be transferred into those deriving from optotype charts (9)<br />
Noise as a hidden message in the image<br />
There are a wide range of algorithms of hiding information in<br />
the image. In order to provide independence from a chosen algorithm<br />
or the method of hiding information in pictures itself,<br />
the fact of concealment can be simulated by adding noise to<br />
the image input. The noise can be generated using different<br />
types of distribution. Hereinafter to the images Poisson and<br />
Gaussian noise will be added.<br />
Poisson noise is generated on the basis of samples that<br />
have a Poisson distribution. Parameter of this distribution is λ,<br />
and it identifies the expected value. Poisson distribution is defined<br />
by the equation:<br />
Another type of noise is Gaussian noise called white noise.<br />
The noise of this type constitutes string of random variables<br />
that have zero expected value and constant variance. Gaussian<br />
noise determines the function:<br />
where: σ - standard deviation, µ - expected value.<br />
Generated noise can be added to the image and consequently<br />
the simulation of steganographic addition of secret information<br />
to the image can be obtained.<br />
Determining the message visibility using<br />
the characteristics of human visual<br />
perception<br />
Two types of noise are used in the studies to simulate<br />
steganographic hiding information in digital color images.<br />
There were the noise of the Gauss and Poisson distribution.<br />
To determine the level of distortion the standardized contrast<br />
sensitivity function is used. For the studies, from many<br />
color digital image measures the contrast’s been chosen because<br />
its changes better reflects the visibility of changes introduced<br />
in the image [5]. Such an application of quality<br />
evaluation methods of the image can be easily adapted to any<br />
steganographic algorithm e.g. based on DCT transform and<br />
modification of its coefficients in order to hide the message [3].<br />
By determination of the frequency of visual impulses the<br />
power of distortion that generates hiding of the message can<br />
be calculated.<br />
The best type of images used for steganography purposes<br />
are 24-bit images, which feature is natural noise [2]. In the<br />
studies hiding information in a given RGB image color was<br />
simulated with the aid of noise addition. For example a red<br />
color image can be chosen. This choice is dictated by the fact<br />
that the human eye is the most susceptible to changes in<br />
green color; in turn concealing information in blue color can<br />
cause a loss of secret messages during dissipative image<br />
(4)<br />
(5)<br />
compression. The image was divided into blocks of 8 x 8 pixels<br />
on the basis of what the strength of distortion were calculated.<br />
The size of the block simulated usually met size of<br />
blocks in steganographic algorithms.<br />
Added noise can set a variable power of inserting messages<br />
causing more or less distortion. This modification can<br />
be made by changing the parameters of the generated noise.<br />
The strength of distortions and its visibility can be determined<br />
with use of CSF function on the basis of a comparison<br />
of the source and resulting image.<br />
This simulation can be described as following. In selected<br />
color for entire color digital image a certain kind of noise is<br />
added with certain parameters. Noise is considered as a hidden<br />
message in the image. By determining contrast changes<br />
in individual pixels and use of standardized contrast sensitivity<br />
function it can be concluded whether given message (the<br />
noise here) caused increased number of visible changes in<br />
the resulting image in compare to the source image.<br />
For an image with a hidden message (noise inserted)<br />
change of contrast DK can be defined by equation:<br />
DK = DP’ - DP (6)<br />
where: DP determines change of contrast between the blocks<br />
in the source image and DP’ determines change of contrast<br />
between the same blocks in the resulting image with hidden<br />
message. The change in contrast between adjacent blocks of<br />
the original image is determined by the equation:<br />
DP = |K 1 - K 2 | (7)<br />
where: K 1 and K 2 means the contrast of two adjacent blocks<br />
of the image chosen to hide the message. The change in contrast<br />
between adjacent blocks of the resulting image is determined<br />
by the equation:<br />
DP’ = |K’ 1 - K’ 2 | (8)<br />
where: K’ 1 and K’ 2 are the contrasts of two adjacent blocks of<br />
the noised image.<br />
If change of contrast DK between the source and the resulting<br />
image lies above contrast graph CSF (3) or in range of<br />
volume change for given optotype in the simplified model<br />
(Fig. 4), it can be concluded that changes of contrast between<br />
the blocks are imperceptible.<br />
Control of visibility and thus the strength of hiding steganographic<br />
messages can be run by the volume of changes between<br />
the levels of contrast on the optotype chart.<br />
Fig. 3. Visibility of changes in image contrast determined by the<br />
change<br />
Rys. 3. Widoczność zmian w obrazie określona przez zmianę<br />
kontrastu<br />
ELEKTRONIKA 11/<strong>2009</strong> 43
a)<br />
Fig. 4. Source image<br />
Rys. 4. Obraz źródłowy<br />
can cause visible distortions. Images with the added noise are<br />
shown in Fig. 5.<br />
After adding Gaussian noise received information that:<br />
• number of blocks of recognizable changes of contrast:<br />
5562,<br />
• number of blocks of invisible changes of contrast: 6726.<br />
By adding Poisson noise to the source image obtained information<br />
that:<br />
• number of blocks of recognizable change of contrast: 5733,<br />
• number of blocks of invisible changes of contrast: 6555.<br />
In both cases the number of blocks, in which visible<br />
changes can be seen significantly increased, what reflecting<br />
the reality of distortions introduced by the noise.<br />
It is also worth noting that usage as the sensitivity parameter<br />
of visibility criterion to changes in contrast allows controlling<br />
the strength of inserting messages. This can be done<br />
by local increase or reduction of data amount hidden in selected<br />
piece of the image in a way that the distortion level was<br />
below human eye sensitivity to local changes of contrast. Introduction<br />
of changes by adding noise to the source image<br />
(hiding messages) may not cause visible changes within a single<br />
block, but it can cause changes in comparison to the<br />
image of adjacent blocks in resulted image.<br />
Summary<br />
b)<br />
Steganographic hiding information in images should not cause<br />
visible distortions to the human eye. The fact of hidden message<br />
can be regarded as noise, which is different for particular<br />
algorithms. Application of quality evaluation methods of the<br />
images based on the human eye perception, such as contrast<br />
threshold and contrast sensitivity function allows the determination<br />
of the quality of the resulting images and the steganographic<br />
method used whether it ensures required level of<br />
invisibility of hidden message.<br />
In addition by evaluating the quality of the source image it<br />
can be judged whether a certain picture is useful for hiding the<br />
information in or which areas are not suitable for this purpose.<br />
References<br />
Fig. 5. The image of the added noise: a) Gaussian noise, b) Poisson<br />
noise with λ = 0.1<br />
Rys. 5. Obraz z dodanym szumem: a) szumem Gaussa, b) szumem<br />
Poissona z λ = 0,1<br />
For example for a typical image with the town view shown<br />
in Fig. 4, with a size of 1024 x 768 pixels it can get data:<br />
• number of blocks of recognizable changes of contrast: 3742,<br />
• number of blocks of invisible changes of contrast: 8546.<br />
Number of blocks of imperceptive contrast to the human<br />
eye signifies the uniform areas. In these areas it should not<br />
make changes because the steganographic algorithm action<br />
[1] Bailey K. et al: An evaluation of image based steganography<br />
methods; Multimedia Tools and Applications vol. 30, Issue: 1,<br />
July 2006, pp. 55-88.<br />
[2] Conway M.: Code wars: Steganography, signals intelligence, and<br />
terrorism Knowledge; Technology & Policy vol. 16, Issue: 2, June<br />
2003, pp. 45-62.<br />
[3] Korostil J. et al: Opracowanie rozproszonego klucza steganograficznego.<br />
XII Sesja Naukowa Informatyki, Metody Informatyki<br />
Stosowanej. Kwartalnik Komisji Informatyki PAN Oddział<br />
w Gdańsku, nr 1/2008 (Tom 13), Szczecin 2008, ss. 75-82.<br />
[4] Obiektywne metody oceny jakości sygnału wideo. http://cygnus.<br />
tele.pw.edu.pl/dymarski/ptmt-old/video_quality.doc.<br />
[5] Zając M.: Funkcja wrażliwości na kontrast jako miara jakości<br />
widzenia; III Kongres Optyków zrzeszonych w Krajowej<br />
Rzemieślniczej Izbie Optycznej. Zakopane 2001.<br />
[6] Pyka K.: Uwarunkowania fizjologiczne i techniczne wpływające<br />
na percepcję obrazu obserwowanego na ekranie monitora.<br />
http://home.agh.edu.pl/~zfiit/publikacje_pliki/Pyka_2005b.pdf.<br />
[7] Pelli D.G. et al.: The design of a new letter chart for measuring<br />
contrast sensitivity; Vlin. Vision Sci. vol. 2, no 3, 1988, pp.<br />
187-199.<br />
[8] Mannos J. L. et al: The Effects of a Visual Fidelity Criterion on the<br />
Encoding of Images; IEEE Transactions on Information Theory,<br />
vol. 20, no 4, (1974) , pp. 525-535.<br />
[9] Zając M.: Badanie wzroku u dzieci. Seminarium z Optometrii.<br />
Politechnika Wrocławska. Wrocław 2003. ww.if.pwr.wroc.pl/optyka/optometria/seminarium/badanie_dzieci.pdf.<br />
44 ELEKTRONIKA 11/<strong>2009</strong>
The efficient data authentication in Web GIS<br />
(Efektywne uwierzytelnianie danych w systemach Web GIS)<br />
dr WITOLD MAĆKÓW<br />
West Pomeranian University of Technology, Faculty of Computer Science, Szczecin<br />
The web mapping and Web GIS are relatively new phenomena.<br />
They may be treated as a branch of development of classical<br />
GIS (Geographic Information System). On the one hand,<br />
their appearance was forced by increasing public demand for<br />
accessible and fresh spatial data, and on the other hand rapid<br />
development of internet technologies made it possible. Although<br />
terms web mapping and web GIS are often used alternatively,<br />
their meanings is slightly different. Web mapping<br />
is usually understood as a process of designing, generating<br />
and distributing spatial data in form of a map across internet.<br />
Web GIS basses on the similar foundations, but the special<br />
emphasis is put on possibility on processing and analyzing of<br />
spatial data by end user [1]. Sometimes web mapping may be<br />
treated as a frontend of more sophisticated web GIS system.<br />
The one of the major advantages of web GIS systems over<br />
traditional ones is access to up-to-date data using relatively<br />
chip hardware and software. Results accessible for end user<br />
could be a combination of different, distributed data sources,<br />
real-time processed (for example data from weather stations or<br />
information about traffic on motorways). There are also some<br />
advantages typical for internet systems: cross-systems and<br />
cross-browsers portability or possibility of resulting map usage<br />
as a hub for hyperlinks or multimedia data. The most of currently<br />
available web mapping solutions allow customization of<br />
maps (for example layers styling thanks to SLD [4]) and user<br />
interface by end user, what is an additional advantage.<br />
Thanks to described features web GIS systems are suitable<br />
for realtime maps (for example weather maps or traffic<br />
maps) in urban and regional planning (for example presenting<br />
planned investments to the public) or in classical task like routing,<br />
address matching or location based services.<br />
Despite all mentioned advantages web GIS architecture<br />
is not free from problems. The reliability of these systems depends<br />
directly on reliability of network components and still is<br />
unsatisfying. High complexity of the architecture is a serious<br />
problem on project and implementation stages. Additionally<br />
some kinds of geodata are rather expensive (for example geodesic<br />
materials) what results in price growth of such solutions.<br />
Geodata privacy, security and authenticity are almost<br />
completely ignored, also. There’s a few initiatives in the field<br />
of geodata access control (for example GEO-RBAC or<br />
GeoSpatial Authorization Model [3]) but generally security and<br />
safety of web GIS isn’t treated seriously enough.<br />
Potential security threats<br />
There’s no particular obligatory architecture of Web GIS system.<br />
The same software modules give us an opportunity to<br />
create almost infinite set of different architectures (both client<br />
and server side). Usually final architecture is drawn up on the<br />
base of some kind of template to solve specific problem.<br />
However we could point some type of core of Web GIS architecture<br />
and describe a few permanent elements of this architecture<br />
(Fig. 1). Server and client communicate via the<br />
Internet. Usually standard Web browser is used on the client<br />
Fig. 1. Basic Web GIS architecture<br />
Rys. 1. Podstawowa architektura Web GIS<br />
side, sometimes with additional JavaScript libraries (i.e. Open-<br />
Layers: http://openlayers.org/) or Java applets. On the server<br />
side at least mapping server module is present (i.e. Geoserver:<br />
http://geoserver.org/display/GEOS/Welcome), which is responsible<br />
for creating responses to client requests (i.e. in form<br />
of generated parts of a map). Clients can communicate with<br />
server directly (i.e. via SOAP) or with help of additional Web<br />
Server. The mapping server prepares responses for clients on<br />
the base of information collected in dedicated databases (i.e.<br />
Postgis technology: http://postgis.refractions.net/), information<br />
gathered as ready vector or raster maps or information provided<br />
by another mapping servers.<br />
The one of the most interesting from many currently<br />
being developed web maping standards is Web Map Sevice<br />
(WMS) published by Open Geospatial Consortium (OGC)<br />
[6]. WMS server should serve at least two mandatory types<br />
of client requests:<br />
• GetCapabilities - which returns information about this<br />
server and the available map layers;<br />
• GetMap - which returns for provided parameters map combined<br />
by server from some different data; map may be returned<br />
in form of raster image (i.e. JPEG, PNG, GIF) or<br />
vector graphic (i.e. Scalable Vector Graphic SVG or Web<br />
Computer Geographic Metafile WebCGM); map format depends<br />
on server capabilities and provided parameters;<br />
The basic WMS standard is extended by Web Feature<br />
Service (WFS) [5], enabling clients to modify geodata stored<br />
by mapping server.<br />
GetMap command will be most important in case of WMS<br />
standard usage. During the session client sends many requests<br />
of this type to the Server, changing formal parameters<br />
only. Each map moving, zooming, changing layers visibility,<br />
etc. imply generation of new map by server, which should be<br />
send to the client again.<br />
ELEKTRONIKA 11/<strong>2009</strong> 45
The client may be interested on authenticity verification of<br />
received geodata. Server communicates simultaneously with<br />
many clients, and each client generates many requests during<br />
his session. In such situation standard methods of securing<br />
data authenticity are not suitable, digital signing of each<br />
response wouldnt be effective. The proposal of efficient data<br />
authentication method relevant to the described Web GIS architecture<br />
is presented in the next section.<br />
Data authentication schema<br />
The most of communication in described model is confined to<br />
receiving by client geodata or ready map fragments from<br />
server (e.g. by WMS GetMap call), how it was mentioned<br />
above. Presented scheme should enable authenticity verification<br />
of geodata received from server. Whole communication<br />
process between client and server, which is referred to as<br />
a session, consists of geodeta transmission stage, authenticity<br />
proofs publication stage and received geodata authenticity.<br />
We assume that during one session client may ask for and<br />
receive geodata many times, but authenticity verification is<br />
done once at the end of the session. Process of proofs publication<br />
is done in fixe time intervals, independently of running<br />
sessions. Server serves simultaneously many session, potentially<br />
with different clients.<br />
Downloading geodata from server<br />
Course of i-th session between client C and server M is presented<br />
in Fig. 2. For our schema we introduces following symbols:<br />
C - client, M - map server, sid i - identifier of i-th session,<br />
q i,j - j-th question during i-th session, α i,j - j-th geodata answer<br />
during i-th session, st i - time of i-th session begining, et i - time<br />
of i-th session ending, ct i - time of i-th session authenticity<br />
proof publication, p i - authenticity proof.<br />
The session is started by a client, which sends to server<br />
StartSession call. As an answer server sends back StartSessionAcknowledgment<br />
with new session identifier sid i and time<br />
of session beginning st i .<br />
Then client begins sending Request calls to the server<br />
(appropriate for particular server type geodata request e.g.<br />
WMS GetMap). Single Request contains of right question q i,j<br />
and current session indetifier sid i . Server sends back<br />
Response for each Request. Single Response contains demanded<br />
geodata α i,j .<br />
The session is ended by a client. It sends to server End-<br />
Session with session identifier sid i . In answer server sends<br />
back EndSessionAcknowledgment, which contain among others<br />
session end time et i and time ct i of next authenticity proofs<br />
publication. In this publication will be present authenticity information<br />
for the session.<br />
Client sends GetSessionProof just after ct i moment of time<br />
(which was pointed by server in EndSessionAcknowledgment)<br />
and in response it receives SessionProof containing p i data<br />
necessary to verification of geodata transmitted in this session.<br />
Server proof publication<br />
The server serves simultaneously many session and many<br />
different clients. It publishes authenticity proofs in fixed time intervals.<br />
The time period between two following publishing<br />
points will be called a round.<br />
We introduce additional symbols: h - cryptographic hash<br />
function, h 2 - two-argument cryptographic hash function, h 3 -<br />
three argument cryptographic hash function, d i,j - in-round<br />
message digest for pair (q i,j , α i,j ), f i,k - k-th round-ending message<br />
digest for i-th session, f i,k - k-th round-ending message<br />
digest for i-th session, s k - round-ending signature, T k - Merkle<br />
hash tree for k-th round, P i,k - path from leaf to root of T k tree<br />
for i-th session.<br />
At the beginning of each session client and server initialize<br />
theirs local copies of first in-round message digest using session<br />
identifier:<br />
During the session for each (q i,j , α i,j ) request/response pair<br />
client and servers creates their local copies of digests:<br />
Optionally client may store in its local archives all pairs<br />
(q i,j , α i,j ) generated during the session and compute right digest<br />
in a moment of geodata authenticity verification.<br />
At the end of the round server checks which sessions were<br />
active during this time period. Then server creates Merkle<br />
hash tree [7], using as leafs last digest of each active in-round<br />
session. Cryptographic functions h and h 2 are used for tree<br />
creation.<br />
Creation of T k tree for k-th round runs as follows. At the<br />
beginning are created digest for first level nodes (leafs):<br />
(1)<br />
(2)<br />
Digest for second level nodes are computed on the bases of<br />
first level nodes values:<br />
This procedure is repeated for each next level (number of levels<br />
depends on number of first level nodes which equel sessions<br />
number). Proccess ends on the last level, which<br />
contains one and only node, accumulating all previous digest<br />
(tree root):<br />
(3)<br />
(4)<br />
Fig. 2. i-th session between client C and server M<br />
Rys. 2 . i-ta sesja pomiędzy klientem C a serwerem M<br />
(5)<br />
46 ELEKTRONIKA 11/<strong>2009</strong>
Fig. 3. Example run of three rounds of i sessions<br />
Rys. 3. Przykładowy przebieg trzech rund z i sesjami<br />
Root is signed by server private key and published:<br />
(6)<br />
There is example run of three rounds of i sessions presented<br />
in Fig. 3.<br />
Geodata authenticity verification<br />
We introduces additional symbol: C i,k - complete to path P i,k (set<br />
of nodes necessary for reconstructing path on the base of d i,last ).<br />
After sending EndSession request client receives from<br />
server information about closing time of current round (time<br />
ct i ). At this pointed moment client sends to server request Get-<br />
SessionProof and gets back information p i necessarry for authenticity<br />
verification of all pairss (q i,j , α i,j ) transmited during<br />
finished session:<br />
(7)<br />
Client reconstructs path from leaf (local copy of f i,k ) to root of<br />
T k tree for i-th session using received complement C i,k . Reconstructed<br />
f’ k root is verified with digital signature:<br />
(8)<br />
Example process of path reconstruction is shown in Fig. 4.<br />
Client wants to verify authenticity of data transmitted during<br />
his 3-th session. It received form server complement C 3,1 =<br />
Fig. 4. Example of P 4,1 path reconstruction<br />
Rys. 4. Przykład rekonstrukcji ścieżki P 4,1<br />
{f 4,1 , f 1:2,1 , f i-3:1,1 }. Client reconstructs f’ 3:4,1 digest from local<br />
copy of digest f’ 3,1 and received digest f 4,1 and continues this<br />
process till obtain root digest f’ 1:i,1 .<br />
Conclusions<br />
The authenticity is today a major problem when dealing with<br />
information transmitted through internet. It’s obvious not every<br />
received data can be trusted. Proposed schema could be successfully<br />
used to publish geodata in authenticated way and to<br />
create proof of their origin. Presented method is simple, safe,<br />
efficient and reliable. It could be easily adapted to into existing<br />
WB GIS architectures.<br />
Implementation of the method should be our next concern.<br />
Currently integration of this schema with Geoserver and<br />
OpenLayers solutions is considered. More examination must<br />
be made to verify methods weaknesses and strengths.<br />
References<br />
[1] Neumann A.: Web Mapping and Web Cartography. Encyclopedia<br />
of GIS, pp.1261-1273, Springer 2008.<br />
[2] Thuraisingham B., Khan L., Subbiah G., Alam A., Kantarcioglu<br />
M.: Privacy and Security Challenges in GIS. Encyclopedia of<br />
GIS, pp. 898-902, Springer 2008.<br />
[3] Ae Chun S., Alturi V., Geospatial Security Models. Encyclopedia<br />
of GIS, pp. 1028-1035, Springer 2008.<br />
[4] http://www.opengeospatial.org/standards/sld, Open GIS Consortium<br />
Inc., Styled Layer Descriptor profile of the Web Map<br />
Service Implementation Specification. OpenGIS® Implementation<br />
Specification, Final version, v. 1.1.0, June 2007, Accessed<br />
20 April <strong>2009</strong>.<br />
[5] http://www.opengeospatial.org/standards/wfs, Open GIS Consortium<br />
Inc., Web Feature Service Implementation Specification.<br />
OpenGIS® Implementation Specification, Recommendation<br />
Paper, v. 1.1.0, May 2005, Accessed 20 April <strong>2009</strong>.<br />
[6] http://www.opengeospatial.org/standards/wms,Open GIS Consortium<br />
Inc., OGC Web Map Service Interface. OpenGIS® Implementation<br />
Specification, Recommendation Paper, v. 1.3.0,<br />
January 2004, Accessed 20 April <strong>2009</strong>.<br />
[7] Merkle R. C.: A certified digital signature. In CRYPTO ’89: Proceedings<br />
on Advances in cryptology, pp.218-238, Springer-Verlag<br />
New York, Inc. 1989.<br />
ELEKTRONIKA 11/<strong>2009</strong> 47
An experiment of implementation of DLP system<br />
working as a Linux kernel loadable module<br />
(Próba implementacji systemu ochrony przed utratą danych (DLP)<br />
pracującego na poziomie jądra dla systemu Linux)<br />
ADAM RAKOWSKI student, dr inż. IMED EL FRAY<br />
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, Wydział Informatyki<br />
Computerization in business is a fact. A perspective of shortening<br />
the time of document flow between company units, improving<br />
internal communication and enhancement of management<br />
processes is expectation of many managers. Due to increased<br />
role of computers in business, the need of better care of data security<br />
- from physical security till access control is a fact.<br />
Each computerized corporation stores the critical confident<br />
data about its contracts, staff, technology, security procedures<br />
etc... An enterprise shares important data to many people, so<br />
the risk of information leakage caused by disloyality or human<br />
error is significantly increased. Published in 2006 „Deloitte’s<br />
2006 Global Security Survey” [1] tells that the second most frequent<br />
reason of internal IT security violation is data leakage<br />
caused by qualified person (28%). Only the viruses and malware<br />
are the reason of more incidents (31%). The same report<br />
published one year later [2] describes data leakage or intellectual<br />
property theft as the incident happening once in 5% of surveyed<br />
companies, while in 8% of companies - several times.<br />
Due to „CSI Computer Crime and Security Survey” (September<br />
2007) a cost of sacrifice caused by electronic crimes was in average<br />
$345 000 per company, about $175 000 more than a year<br />
before. A global cost of confidential data leakage in company or<br />
data theft caused by qualified person was $13.6 million [10].<br />
DLP systems are a response to data leakage risk caused<br />
by employee working with sensitive data. Current IT business<br />
applications and systems can authorize user and share important<br />
documents to him if administrator allowed him to use<br />
that data. After successful authorization the actions performed<br />
on protected file usually are not traced or logged, system also<br />
is not able to prevent data leakage. There are many possible<br />
channels the thief can use: socket, removable memory, screen<br />
capture or printing. Well working DLP system should prevent<br />
data loss or at least log that try and notify administrator.<br />
Data loss prevention system can be made in one of following<br />
architectures: host control architecture or DLP network.<br />
In first architecture administrator has to install controlling software<br />
on each of computer working in network, where protected<br />
documents are shared. When user logs in the system<br />
and reads from the database set of user’s permissions and<br />
privileges to protected documents, then the system starts tracing<br />
user’s activities. Administrator can set actions performed<br />
in case of policy violation.<br />
DLP network is based on another idea. All the hosts are free<br />
of controlling software, but it is installed on a network gateway,<br />
so the data is analyzed only when tries to get out of network [3].<br />
Data identification<br />
According to DLP definition given by Securosis [4] - an independent<br />
IT security research laboratory - “Products that,<br />
based on central policies, identify, monitor, and protect data at<br />
rest, in motion, and in use, through deep content analysis”.<br />
Most important problem is document comparison and classification<br />
of the file to protected files group. When employee<br />
attempts to send a confidential information to inappropriate<br />
recipient, system has to detect this violation. Trusted DLP application<br />
should recognize also a snippets of protected documents,<br />
or protected files modified a bit, or even encrypted.<br />
Recognition and similarity determination is implemented using<br />
deep analysis, dictionary methods, regular expressions, statistical<br />
methods or watermarks [3,4]. Good DLP implementation<br />
can also extract data from compressed archive and<br />
analyze data the archive contains. Side effect of watermarking<br />
are possible delays in documents access caused by huge<br />
quantity of connections to database [4].<br />
Additional technique can be embedding metadata in protected<br />
file, but in can be cumbersome. Any application working<br />
with such protected file should “know” if this file is<br />
protected or not. It implicates on a DLP system vendor need<br />
of creating dedicated viewers, browsers which can interpret<br />
metadata and edit these documents. Disadvantage of this solution<br />
is that user can use only selected applications, tools and<br />
formats. Better idea could be keeping in memory the information<br />
which files are protected and taking control on external<br />
editor (browser) to inform DLP system that any application<br />
tries to get access to protected file.<br />
Possible scenarios<br />
Fig. 1. A difference between DLP host protection and DLP Network<br />
Rys. 1. Porównanie koncepcji DLP host protection i DLP Network<br />
Available channels of potential data loss are: instant messagers,<br />
chats, e-mail, webmail, sending data by ftp/http, printing confident<br />
data or screen capture. If user knows that supervisor application<br />
use heuristic analysis and similarity comparison, he<br />
should get any ciphering application to save text as encrypted<br />
file, also steganography application could be helpful. DLP system<br />
can trace (and manage with) copies of protected file. The<br />
most terrible scenario may looks like following one.<br />
48 ELEKTRONIKA 11/<strong>2009</strong>
Fig. 2. Possible scenarios of data leakage<br />
Rys. 2. Możliwe scenariusze celowej utraty danych<br />
User takes some screen captures of confident data. Images<br />
are stored in clipboard by default. User copies these images<br />
do graphics editor and perform some changes (cropping,<br />
adding some random points). Performed operations can reduce<br />
the probability of positive matching the screen captures<br />
taken by user in case of embedded watermark in print screen.<br />
Later user writes the screenshots to file and creates encrypted<br />
archive. After all the archive is sent using SSL protocol.<br />
Alternative scenario can be like this: user copies a fragment<br />
of protected text document to clipboard. Then he performs<br />
a simple, reversible obfuscation of this text. Text after<br />
obfuscation is directed to input of steganography application.<br />
The result of this operation is image. This image is sent by instant<br />
messager.<br />
Analysis of example scenarios show how wide range of IT<br />
system has to be mentioned and controlled. It also shows that<br />
protecting only some selected output channels will only delay<br />
the discreditation of DLP system.<br />
Available solutions<br />
Nowadays DLP system can be software implementation (for<br />
Windows) or hardware.<br />
Software implementation are offered by (e.g.): Websense,<br />
RSA, McAffe, Symantec, Nitrobit, Trend Micro i GSS. The<br />
leader of DLP software for Windows is Websence. It’s Data<br />
Security package is made of four fully integrated components:<br />
Data Discover, Data Monitor, Data Protect and Data Endpoint.<br />
System is based on user policies and rules. Policy determines<br />
access range for each group of users to documents (context)<br />
and allowed output channels. The PreciseID technology using<br />
ThreatSeeker solution (determines whether remote source of<br />
data is safe or can be dangerous to computer) makes possible<br />
classifying corporation data on workstation (end-point protection)<br />
and also in whole the Internet.<br />
Controlled channels are network traffic (HTTP, SMTP and<br />
IM) and workstation supervision (removable storages, printing,<br />
print screen, clipboard). Administrator set the policies used in<br />
case of violation. Some of possible actions are force encryption<br />
when writing to removable storage, denial or quarantine [7].<br />
Another solution in data loss prevention comes from Nitrobit<br />
company and is called Policy Extension. Due it’s name<br />
it is a set of policies which extends standard Windows security<br />
policies. This software is available for Windows OS version<br />
2000 to Vista, 32 and 64 bits. It supports removable media,<br />
system registry, services and network storages. Removable<br />
media can be configured using it’s serial number, type and<br />
vendor [8]. Disadvantage is less flexibility of configuration.<br />
Popular solution for Windows platform is security policies<br />
based package LeakProof made by Micro Trend company. It<br />
is made of three components: DataDNA Technology (documents<br />
watermarking), Server and Client module (installed on<br />
employees’ computers). Both DLP network and end-point protection<br />
modes are supported. This software allows to control<br />
removable media, also plugged to COM and LPT ports and<br />
printers. Blocking print screen is also possible.<br />
Features of control: removable media, optical discs drives,<br />
USB memory, e-mail and webmail (also encrypted), HTTPS<br />
and FTP protocols, IM protocols. An interesting feature is controlling<br />
Bluetooth interfaces and WiFi networks. LeakProof can<br />
also work with on- and off-line computers.<br />
System can deny disloyal or absent-minded employee, or<br />
display on his screen a message window with policy information<br />
and message that try of violation is possible. When such<br />
employee tries to move data to removable media, system can<br />
force encryption of file [9].<br />
All the above solutions, despite the fact they can not guarantee<br />
full security of sensitive or confident information, they reduce<br />
the risk of consequences caused by neglect of employees.<br />
For computer geeks hacking DLP system is possible. Main<br />
problem and the topic of this paper is a question why there is<br />
no DLP system for Linux similar to described or released as<br />
Open Source.<br />
Experiment of implementation DLP<br />
solution for Linux<br />
Others also were looking for an answer to this question [5],<br />
we started searching a reason of this fact. General idea of the<br />
experiment was to find out why the vendors of DLP systems<br />
for Windows have not tried to take over the market of DLP solutions<br />
for Linux platform. Is this fact for the reasons of difficulties<br />
related to Linux, or maybe because of unwillingness of<br />
business to Linux caused by many myths about this system?<br />
To find it out, a small DLP system for Linux have been written.<br />
It’s aim is to keep sensitive corporate data within the company.<br />
System PXX works in end-point mode with same laws<br />
for each user. It’s task is to block all the possible output channels<br />
for selected processes to prevent data leakage, but without<br />
making any problem to user. PXX is made of two<br />
components. First - PXX-lkm is a loadable Linux kernel module<br />
(2.6.18 and higher). His task is exchanging original system<br />
calls of open, close, send, sendto and sendmsg functions with<br />
own implementations, and communication with second component<br />
- PXX daemon. The service is responsible for parsing<br />
configuration file with paths of protected files and logging the<br />
incidents in local log and system log. Both elements communicate<br />
by netlink socket. This communication architecture allows<br />
tear the components apart to insert own element<br />
between to improve functionality.<br />
Fig. 3. Architecture Rys. 3. Architektura<br />
After launching the service and loading kernel module<br />
service tries to access /etc/files files, which contains protected<br />
files list. The module swaps original kernel’s system calls with<br />
own functions (listing 1).<br />
sys_call_table[__NR_open]=my_sys_open;<br />
sys_open=sys_call_table[__NR_open];<br />
sys_close=sys_call_table[__NR_close];<br />
sys_call_table[__NR_close]=my_sys_close;<br />
ELEKTRONIKA 11/<strong>2009</strong> 49
sys_write=sys_call_table[__NR_write];<br />
sys_call_table[__NR_write]=my_sys_write;<br />
sys_send=sys_call_table[PXX_SEND_ADDR];<br />
sys_call_table[PXX_SEND_ADDR]=my_sys_send;<br />
sys_sendmsg=sys_call_table[PXX_SENDMSG_ADDR];<br />
sys_call_table[PXX_SENDMSG_ADDR]=my_sys_sendmsg;<br />
sys_sendto=sys_call_table[PXX_SENDTO_ADDR];<br />
sys_call_table[PXX_SENDTO_ADDR]=my_sys_sendto;<br />
The service and module exchange their names and software<br />
version. Initialization is done.<br />
In second phase module waits for any application to call<br />
system function open. Disk files are identified by i-node values.<br />
Function which gets i-node value from file descriptor is<br />
shown in listing 2.<br />
static unsigned long get_ino(int fd)<br />
{<br />
unsigned long ino=0;<br />
struct file * f;<br />
}<br />
if (fdf_dentry->d_inode->i_ino;<br />
fput(f);<br />
}<br />
return ino;<br />
A PID number of parent process and it’s father’s is pushed<br />
to the array of PID of applications whose requested opening<br />
protected file.<br />
If any application tries to call any data write function or<br />
send it using socket, kernel module looks for it’s or it’s father<br />
PID in PID array. If found, kernel module sends application’s<br />
PID to daemon, which logs the event. Module rejects to execute<br />
write/send function.<br />
When an application calls close function, it’s PID number<br />
(and it’s father’s PID) are pulled from a PID list.<br />
An array of protected files’ i-nodes (got using absolute<br />
path) is created once when PXX daemon starts. Each path is<br />
parsed to check whether it is correct. After all PXX daemon<br />
fills the protected files structure (listing 3).<br />
struct protected_files<br />
{<br />
unsigned int qty;<br />
ino_t * inos_t;<br />
char ** names_t;<br />
};<br />
An array containing i-node values is taken from protected_files<br />
structure and send to kernel module via netlink<br />
socket.<br />
Difficulties related with implementation<br />
of full functional DLP system for Linux<br />
The discussed solution bases on i-nodes despite of it is neither<br />
perfect one, nor unequivocal. The values of i-node are unique<br />
but only in one filesystem, but there is no better solution.<br />
An experiment drove to some conclusion. One of these<br />
can be an answer to question why there is still no DLP application<br />
to Linux. Most important are discussed below.<br />
It was not possible to write full functional, working in kernel<br />
space function, which can preprocess any path to absolute<br />
path, cause it is impossible to determine caller’s work directory<br />
from kernel space. Another idea is using algorithm implemented<br />
in Tomoyo [6] Linux, which has realpath function, but<br />
also this solution could not be good enough because of hard<br />
links, whose can be wrong interpreted by this function. Apparently<br />
best solution could be mapping file to pair disk-block, but<br />
in filesystem other than “ext” this method could be not well<br />
working because of block suballocation (e.g.: Reiser 4). Block<br />
suballocation is used to more effective management with files<br />
which are smaller than size of block. In filesystem with no block<br />
suballocation occupies one block, so the disk space is wasted.<br />
Block suballocation let keep some small files in single block.<br />
Unfortunately - relation between file and block is ambiguous.<br />
None effective method of blocking the clipboard have been<br />
found. This „tiny” weak point determines the weakness of<br />
whole system. Clipboard works in user space and is managed<br />
by window manager. To block possibility of making copies to<br />
clipboard source of window manager and it’s recompilation is<br />
required. In Windows system it is possible, because there is<br />
only one window manager. Linux users has a freedom of<br />
choice one of many solutions (GNOME, KDE, XFCE etc.)<br />
System does not protect files in situation, when protected<br />
file is opened, then it’s content is saved to memory and after<br />
that file is closed. An effective implementation of protecting<br />
files in such situation were not implemented yet.<br />
Most important problem related with developed system is<br />
it’s disability to work in real-life environment where aggressor<br />
has wide knowledge and suitable tools. For computer<br />
geek who understand idea of DLP system cracking this implementation<br />
is a matter of time. It is important to mention<br />
that aim of this project was implementation of only a stub of<br />
project, which will be developed by more programmers. The<br />
aim was to begin talk about DLP system for Linux and determining<br />
it’s hardest challenges and difficulties caused by<br />
specificity of Linux.<br />
Conclusions<br />
The experiment of implementation DLP system for Linux<br />
could be recognized as successful, but authors feel insufficiently.<br />
The implemented system is not cross-platform and<br />
does not look like it could be soon. Only the implementation<br />
done for specific architecture, kernel version and graphical<br />
interface. Currently it can not be recognized as universal solution<br />
even within single distribution because of unsupported<br />
protection of clipboard.<br />
The hardest thing for DLP system for Linux creator is -<br />
irony of fate - an architecture of Linux. It’s kernel has many<br />
variants, some of distributions (e.g. Ubuntu) provides it’s own<br />
implementation of kernel. The problem is leak of uniform specification<br />
which could describe all the kernels of all distributions.<br />
This is the expression of Linux’s freedom, but on the other<br />
hand - serious hindrance. Often changes in kernel architecture<br />
also are not helpful.<br />
Creating perfect one DLP application for Linux would require<br />
remaking of significant part of Linux Kernel to allow to<br />
“transport” in process information additional flags related with<br />
security. After that only these filesystems could be accepted,<br />
which allow to identify any disk file using uniform value. To get<br />
this idea done, recompilation of graphical environment would<br />
50 ELEKTRONIKA 11/<strong>2009</strong>
e necessary, in worst case - also system tools and user application<br />
had to be modified and recompiled. Kernel modification<br />
would also affect VFS filesystem, to make possible<br />
determine a file within all the mounted filesystems, remote<br />
filesystems too.<br />
References<br />
[1] Delolitte’s 2006 Global Security Survey, http://www.deloitte.com/<br />
dtt/cda/doc/content/cz_fsi_security_survey_250706.pdf.<br />
[2] Delolitte’s 2007 Global Security Survey, http://www.deloitte.com/<br />
dtt/cda/doc/content/ca_en_Global_Security_Survey.final.en.pdf.<br />
[3] Wikipedia - Data Loss Prevention, http://en.wikipedia.org/wiki/<br />
Data_Loss_Prevention.<br />
[4] R. Mogull - “Understanding and Selecting a Data Loss Prevention<br />
Solution”, http://www.websense.com/Docs/WhitePapers/<br />
Mogull_DLP_WP.pdf.<br />
[5] Securosis’ Blog - http://securosis.com/blog/is-there-any-dlp-ordata-security-on-maclinux/.<br />
[6] Tomoyo Linux Homepage - http://tomoyo.sourceforge.jp/.<br />
[7] Websense Data Security Solutions, http://www.websense.<br />
com/site/docs/brochures/WBSN_DataSecurity_Web.pdf.<br />
[8] Nitrobit Policy Extensions - http://nitrobit.com/policyextension.html.<br />
[9] Leveraging Data Leak Prevention Technology to Secure Corporate<br />
Assets, http://us.trendmicro.com/imperia/md/content/us/pdf/<br />
products/enterprise/leakproof/wp01_leakproof_080123us.pdf.<br />
[10] 2007 CSI Computer Crime and Security Survey, http://www.<br />
gocsi.com/press/ 20070913.jhtml.<br />
A buffer thresholds policy in linked in series<br />
servers with blocking<br />
(Buforowanie z progami w połączonych serwerach z blokadami)<br />
The aim of this paper is to build up an analytical model of computer<br />
networks with blocking, feedback priority service and<br />
threshold policies; seeking to obtain high network utilization,<br />
acceptable delay time, and some degree of fairness among<br />
users. In the past couple of years, there has been a strong<br />
demand for computer networks that can provide adequate<br />
quality of service (QoS) among users. Such demand initiated<br />
a need for a solution where the servers play an active role in<br />
congestion control. A series of threshold policies and congestion<br />
control procedures were proposed to control queue<br />
lengths and to promote fairness among task generating<br />
sources [1,6]. Queuing network models (QNMs) with finite capacity<br />
queues and blocking provide powerful and practical<br />
tools for performance evaluation and predication of discrete<br />
flow systems as computer systems and networks. The traditional<br />
analyses of the ONMs with blocking are based on the<br />
Markov Chain approach [2,5]. In addition, many interesting<br />
theories and models appeared in a variety of journals and at<br />
worldwide conferences in the field of computer science, traffic<br />
engineering and communication engineering [4,7,10]. Despite<br />
all the research done so far, there are still many<br />
important and interesting models to be studied. One such<br />
model is finite capacity queues under various blocking mechanisms<br />
and synchronization constraints, such as those involving<br />
feedback service or priority scheduling. In this kind of<br />
model, a task with a fixed probability can return to the previous<br />
node immediately after its service at the current node. Although<br />
feedback queues have already been extensively<br />
studied in literature see [6,8,9], series queues with priority<br />
feedback are more complex object for research than the<br />
queues without feedback. The introduction of multiple-thresholds<br />
can give rise to inter-dependency between the thresholds<br />
setting, which are also dependent on the service<br />
discipline used. The main aim of this paper is to formulate<br />
such a model with multiple queue thresholds and examine the<br />
queuing behaviour under a priority service discipline for feed<br />
backed tasks.<br />
doc dr inż. WALENTY ONISZCZUK<br />
Bialystok Technical University, Faculty of Computer Science<br />
Model description<br />
The general model description is:<br />
• the arrival process from source station is Poisson,<br />
• two stations provide service that is exponentially distributed,<br />
• all queues have finite capacity m1 and m2 with thresholds<br />
tm1 and tm2.<br />
Figure 1. presents a simplified three-station (source, station<br />
A and station B) description of the proposed model. Tasks<br />
arrive from the source at station A according to the Poisson<br />
process with rate λ and they are processed in a FIFO manner.<br />
The service received by station A is as follows. The task first<br />
receives an exponentially distributed service with rate µ 1A . After<br />
service completion at station A, the task precedes to station B<br />
(exponentially distributed service with rate µ B ). Once it finishes<br />
at station B, it gets sent back to station A for re-processing with<br />
probability σ (exponentially distributed service with rate µ 2A -<br />
according to HoL priority discipline). Once finished, each reprocessed<br />
task departs from the network. We are also assuming<br />
that tasks after being processed in the station B leave<br />
the network with 1 - σ probability. A feed backed task is served<br />
at station A according to a non-pre-emptive priority scheme<br />
(HoL). It is served independently of all other events if the number<br />
of tasks in the second buffer exceeds a threshold tm2 and<br />
the number of task in the first buffer is less than tm1. If the<br />
number of tasks in second buffer is less than tm2 and the number<br />
of tasks in the first buffer exceeds tm1, another procedure<br />
is applied. This no two priority services in succession procedure<br />
prevents a possible overflow in the first buffer. The HoL<br />
priority service means that a task cannot get into service at<br />
station A (it waits at station B - blocking factor) until the task<br />
currently in service is completed. The successive service times<br />
at both stations are assumed to be mutually independent and<br />
they are independent of the state of the network.<br />
In such networks, another one blocking factor may occurs<br />
when a station reaches its maximum capacity, which, in turn,<br />
may momentarily stop the traffic of all incoming tasks to that<br />
ELEKTRONIKA 11/<strong>2009</strong> 51
Fig.1. Illustration of the three-station network model with blocking,<br />
priority feedback service and thresholds<br />
Rys.1. Trójwęzłowa sieć z blokadami, recyklingiem z priorytetem<br />
i progami<br />
station. Let us say that between station A and station B, there<br />
is a waiting buffer with finite capacity m2. When the buffer fills<br />
up completely, the accumulation of new tasks from the first station<br />
is temporarily suspended. Similarly, if the first buffer (with<br />
capacity m1) in front of the first station gets full, then that<br />
source station is momentarily blocked. This is a classical<br />
mechanism for controlling the intensity of an arriving task<br />
streams from a source station. According to our model specification<br />
(see Fig. 1), when either of the buffers is full, any task<br />
upon completion of service at the source station or at station<br />
A, is forced to wait at its station. The task flows from the source<br />
station to station A or from the first station-to-station B is depending<br />
on service process in stations A or B respectively.<br />
Deadlocks can occur in a multistage network with feedback<br />
and blocking - as depicted above. For example, assume<br />
that station A is blocked by station B (the second buffer is full).<br />
In such situation, it is possible that a task in station B, upon its<br />
completion may get send back to station A, which in turn, will<br />
cause a deadlock. In this paper, we assume that deadlocks<br />
are detected and resolved instantaneously without any delay,<br />
simply by exchanging the blocked tasks.<br />
Fig. 2. Two-dimensional network state diagram (first part)<br />
Rys. 2. Dwuwymiarowy diagram stanów sieci (część pierwsza)<br />
Queuing model<br />
Markov processes constitute the fundamental theory underlying<br />
the concept of queuing systems and provide very flexible,<br />
powerful, and efficient means for the description and analysis<br />
of dynamic computer network properties. Each queuing system<br />
can, in principle, be mapped onto an instance of a Markov<br />
process and then mathematically evaluated in terms of this<br />
process. Our model described on the Section 2, can be represented<br />
by a continuous-time Markov chain, in which the underlying<br />
Markov process can analyze the stationary and<br />
transient behavior of the network. We consider this network in<br />
its stationary conditions. As such, the queuing network model<br />
reaches a steady-state condition and the underlying Markov<br />
chain has a stationary state distribution. If each queue has finite<br />
capacity, the underlying process yields finite state space.<br />
The solution of the Markov chain representation may then be<br />
computed and the desired performance characteristics, such<br />
as queue length distribution, utilizations, and throughputs, obtained<br />
directly from the stationary probability vector. In addition,<br />
features such as blocking, priority feedback service,<br />
thresholds, may be incorporated into a Markov chain representation<br />
- although the effect of doing so will increase the size<br />
of the state space. The state of the queuing network with blocking,<br />
priority feedback service and thresholds (see Fig. 2 and<br />
Fig. 3) can be described by random variables (i,j,k), where i in-<br />
Fig. 3. Two-dimensional network state diagram (second part)<br />
Rys. 3. Dwuwymiarowy diagram stanów sieci (część druga)<br />
52 ELEKTRONIKA 11/<strong>2009</strong>
dicates the number of tasks at the first station, j indicates the<br />
number of tasks at second server and k represents the state of<br />
each server. Here, the index k may have the following values:<br />
0, 1, 2, 3, 4 (0 - idle network; 1 - regular task service for i ≤ m1<br />
+ 1 and source blocking for i = m1 + 2; 2 - priority task service<br />
for i ≤ m1 + 1 and source blocking for i = m1 + 2; 3 - blocking<br />
one node and regular task service at the other one; 4 - blocking<br />
one node and priority task service at the other one).<br />
Based on an analysis the state space diagrams, we can<br />
construct the steady-state equations in the Markov model.<br />
Here, a linked in series network with blocking is formulated as<br />
a Markov process and the stationary probability vector can<br />
be obtained using numerical methods for linear systems of<br />
equations [3,11]. In the next step, calculated state probabilities<br />
are assigned to each state shown on the two-dimensional<br />
state graphs.<br />
Selected performance measures<br />
The different types of queuing systems are analyzed mathematically<br />
to determine performance measure from the description<br />
of the system. The selected performance measures are:<br />
1. Idle probability p idle :<br />
2. Station A blocking probability p blA :<br />
p idle = p 0,0,0 (1)<br />
3. Source station blocking probability p blS :<br />
(2)<br />
Fig. 4. Graphs of QoS parameters, where, blA-pr is the station A<br />
blocking probability, blS-pr is the source station blocking probability,<br />
blB-pr is the station B blocking probability, blAS-pr is the simultaneous<br />
blocking probability of the source station and station<br />
A, blBS-pr is the simultaneous blocking probability of the source<br />
station and station B and idle-pr is idle network probability<br />
Rys. 4. Wykresy parametrów jakości obsługi, gdzie blA-pr - prawdopodobieństwo<br />
blokady serwera A, blS-pr - prawdopodobieństwo<br />
blokady źródeł, blB-pr - prawdopodobieństwo blokady<br />
serwera B, blAS-pr - prawdopodobieństwo jednoczesnej blokady<br />
źródeł i serwera A, blBS-pr - prawdopodobieństwo jednoczesnej<br />
blokady źródeł i serwera B, idle-pr - prawdopodobieństwo przestoju<br />
serwerów<br />
within a range from 1 to 9 for tm2 (tm1 + tm2 is constant).<br />
The inter-arrival rate λ from the source station to station A is<br />
chosen as equal to 2.5. The service rates in station A and<br />
station B are equal to µ 1A = 3.0, µ 2A = 2.5, µ B = 2.0. Based on<br />
such parameters, the following results were obtained and<br />
presented in Fig. 4. This Figure depicts the Quality of Service<br />
(QoS) parameters as a function of the thresholds policy<br />
and of the feedback probability value. In this figure, the<br />
buffers size is taken as m1 = 16 and m2 = 10.<br />
Conclusions<br />
4. Both stations (source and station A) simultaneous blocking<br />
probability p blAS :<br />
5. Station B blocking probability p blB :<br />
p blS = p m1+1,m2+2.3 (4)<br />
6. Both stations (source and station B) simultaneous blocking<br />
probability p blBS :<br />
Numerical results<br />
To demonstrate our analysis procedures of a three-station<br />
network with blocking, priority feedback service and thresholds<br />
proposed in Section 3, we have performed numerous<br />
calculations. The main series of calculations were realized<br />
for many parameters combinations by varying the feedback<br />
probability σ within a range from 0.1 to 0.9 and by varying<br />
both threshold values within a range from 9 to 1 for tm1, plus<br />
(3)<br />
(5)<br />
(6)<br />
In this paper, we investigated the problem of analytical (mathematical)<br />
modelling and calculation of the stationary state<br />
probabilities for a multistage network with recycling task,<br />
blocking and threshold policy. We have developed an analytical,<br />
queuing-base model for the blocking characteristics in<br />
a series computer network. In particular, we modelled the<br />
threshold-based buffers filling control algorithm. Tasks blocking<br />
probabilities of such network were derived, followed by numerical<br />
examples. The results confirm importance of a special<br />
treatment for the models with blocking, with HOL feedback<br />
service, and threshold policy in finite capacity buffers, which<br />
justifies this research. The results can be used for capacity<br />
planning and performance evaluation of real-time computer<br />
networks where blocking, feedback and thresholds are present.<br />
Moreover, this proposal is useful in designing buffer sizes<br />
or channel capacities for a given blocking probability requirement<br />
constraint.<br />
This work is supported by the Bialystok Technical University<br />
W/WI/5/09 grant.<br />
References<br />
[1] Awen I.: Analysis of multiple-threshold queues for congestion<br />
control of heterogeneous traffic streams. Simulation Modelling<br />
Practice and Theory, vol. 14, pp. 712-724, 2006.<br />
[2] Balsamo S., i in.: A review on queuing network models with finite<br />
capacity queues for software architectures performance predication.<br />
Performance Evaluation, vol. 51(2-4), pp. 269-288, 2003.<br />
[3] Bolch G., i in.: Queueing Networks and Markov Chains. Modelling<br />
and Performance Evaluation with Computer Science Applications.<br />
John Wiley: New York, 1998.<br />
ELEKTRONIKA 11/<strong>2009</strong> 53
[4] Bose A., i in.: Analysis of manufacturing blocking systems with<br />
Network Calculus. Performance Evaluation, vol. 63, pp. 1216-<br />
1234, 2006.<br />
[5] Economou A., Fakinos D. Product form stationary distributions<br />
for queuing networks with blocking and rerouting. Queuing Systems,<br />
vol. 30(3/4), pp. 251-260, 1998.<br />
[6] Gomez-Corral A., Matros M. E. Performance of two-stage tandem<br />
queues with blocking: The impact of several flows of signals.<br />
Performance Evaluation, vol. 63, pp. 910-938, 2006.<br />
[7] Gupta U. C., i in. Discrete-time single-server finite-buffer under<br />
discrete Markovian arrival process with vacations. Performance<br />
Evaluation, vol. 64, pp. 1-19, 2007.<br />
[8] Kim C. S., i in. The BMAP/G/1-> ·/PH/1/M tandem queue with<br />
feedback and losses. Performance Evaluation, vol. 64, pp. 802-<br />
818, 2007.<br />
[9] Mei van der R. D., i in. Response times in a two-node queuing<br />
network with feedback. Performance Evaluation, vol. 49, pp. 99-<br />
110, 2002.<br />
[10] Oniszczuk W. Analysis of an Open Linked Series Three-Station<br />
Network with Blocking. In Advances in Information Processing<br />
and Protection, J. Pejaś, K. Saeed (Eds), Springer: New York,<br />
pp. 419-429, 2007.<br />
[11] Stewart W. J. Introduction to the Numerical Solution of Markov<br />
Chains. Princeton University Press: New Jersey, 1994.<br />
A system automating repairs of IT systems<br />
(System automatyzujący naprawy systemów IT)<br />
MSc MAREK KAMIŃSKI<br />
Gdańsk University of Technology Technology, Faculty of Electronics, Telecommunication<br />
Lufthansa Systems Poland, Sp. z o.o., Gdańsk<br />
Very fast and progressive informatization of almost all domains<br />
of our lives became an undisputed fact. Because huge<br />
number of IT systems of various kinds needs supervision and<br />
maintenance 24 hours a day and 365 days a year, many IT<br />
companies provide nowadays to their customers a new service<br />
offer of remote monitoring, technical support and assistance<br />
in taking care of their systems.<br />
Monitoring is relatively easy in realization because lots of<br />
monitoring systems have been already developed [1] and they<br />
usually accomplish their task in a satisfactory way. We distinguish<br />
traditional monitoring systems [2-7] (usually having centralized<br />
monitoring logic), and ones dedicated to monitoring<br />
grid or cluster structures [8-11] (usually having monitoring<br />
logic distributed), but regardless of the kind of monitoring system,<br />
monitoring aims to give administrators of monitored systems<br />
a clear indication of what is wrong. The next step is to<br />
solve the problem (to repair the system), so integrating monitoring<br />
and repair aspects seems natural.<br />
However, repairs are usually more complicated than monitoring,<br />
as they often involve manual and time-consuming interventions<br />
of administrators, but observations made by the<br />
author of this article show that, in many cases, even they can<br />
be automated and, moreover, integrated with the monitoring<br />
task. Their automation is a complex problem, which is still the<br />
area of active research. The already proposed solutions are<br />
usually too trivial to handle complex repairs in the real world<br />
situations. Others have vulnerabilities, excluding their industrial<br />
application. Some solutions use the concept of timeouts<br />
or retrying failed actions finite number of times, hoping the<br />
problem will not reoccur, or the concept of event handlers<br />
[4-6], being simple executions of remote commands [7], telling<br />
the system which program to execute on undesired monitoring<br />
results. Some solutions address only automation of administrative<br />
tasks [12,13] and do not integrate with monitoring.<br />
Other attempts focus on describing the architecture the system<br />
should have, to facilitate automatic repair [14-16]. Also efforts<br />
were made to integrate the Nagios Monitoring System<br />
[4-6] with the CFengine system (in particular situation, regarding<br />
network problems [17]), and some works show the directions,<br />
monitoring and healing (repairing) can go [18].<br />
Goal and context<br />
This article focuses mainly on the Repair Management System<br />
(RMS), that is one of the parts of the developed Repair<br />
Management Framework, aming at automating the process<br />
of repairing IT systems. The RMF consists also of the Repair<br />
Management Model (RMM) and the repair library. Both of<br />
them were formally and precisely specified, using the Z notation<br />
[19-21] and are described in [22]. The RMM introduces<br />
two mathematical models (model of monitoring and model of<br />
repair processes), general enough to cover the existing problems<br />
and solutions, while RMS, with its complex architecture,<br />
uses those concepts as fundamentals, to incorporate and exploit<br />
existing monitoring solutions into triggering and conducting<br />
repairs automatically. The repair library introduces the<br />
abstraction layer (in a form of API = Application Programmers<br />
Interface), to allow for easy constructing of the repair algorithms,<br />
taking advantage of the programming language, they<br />
are embedded in, and of set of predefined routines (procedures<br />
and function), hiding away from programmers many<br />
unimportant details, regarding monitoring and repair of those<br />
particular problems they solve. All parts of the RMF have been<br />
already instantiated and are under tests in the Lufthansa Systems<br />
Poland Company.<br />
Definition of the solved problem<br />
The problem addressed in this article may be briefly defined<br />
as follows:<br />
• IT company continuously supervises work of many objects<br />
of various kinds,<br />
54 ELEKTRONIKA 11/<strong>2009</strong>
• information on their state comes from various sources (e.g.:<br />
monitoring systems, emails being sent by maintenance<br />
tasks executed regularly, customers),<br />
• those objects exist on machines connected by network<br />
having complex topology,<br />
• undesired state of specified objects or their combination indicates<br />
problems that must be solved (usually as soon as<br />
possible),<br />
• big number of repairs is conducted manually, while they are<br />
repeatable and it is noticeable that they may be formally<br />
and precisely specified.<br />
Main ideas and terms<br />
The following subsections contain explanation of main ideas<br />
and terms used in the developed solution and introduce unified<br />
naming convention, regarding both of discussed problems:<br />
Monitoring<br />
Analysis of multiple monitoring systems allowed for creating<br />
more general description of monitoring, which can be perceived<br />
as a process of examining states of groups of objects<br />
of any kind, and of informing about any abnormalities. Each<br />
object may assume precisely determined number of, mutually<br />
exclusive, states taking their values from precisely determined<br />
domain. Some values mean the states are correct, while the<br />
other ones mean the object is associated with a problem that<br />
needs resolving.<br />
We may introduce simple method of identification of those<br />
objects, consisting on associating each of them with the complex<br />
variable of precisely determined name. Monitoring becomes<br />
then a process of continuous checking (or observing)<br />
the values of many variables, and of extracting from their<br />
space, those variables that do not fulfill required constraints.<br />
Binding the names of those variables with the real monitored<br />
objects is done in monitoring procedures. Because most of<br />
those objects may be placed in leaves of a tree, representing<br />
hierarchy of the monitored world, it is convenient to create<br />
space of variables with qualified names, resembling directory<br />
structure of hard disk drive, the DNS (Domain Name System<br />
of Internet names), or the MIB tree of SNMP (Simple Net Management<br />
Protocol). Staying with the analogy of directory structure,<br />
objects (so variables) are represented by files, while<br />
directories represent units grouping them.<br />
eclipse.oracle.TESTDB.fs.usage may be, for example,<br />
a variable representing percent usage of filesystem of<br />
machine eclipse, belonging to DBMS (DataBase Management<br />
System) oracle, identified by SID (System IDentifier)<br />
TESTDB. Values of those variables are changeable in time and<br />
frequency of their changes depends on applied monitoring<br />
mechanisms, on frequency of processing by them the data<br />
coming from monitored objects, on stability of their states and<br />
on their character. Sometimes, there is also a need to bind<br />
a state with some details. Summarizing, we may say:<br />
• state of monitored object is represented by a value of complex<br />
variable associated with it,<br />
• each variable has a name, identifying its position in a monitoring<br />
tree unambiguously,<br />
• their values are changeable in time and can be assigned<br />
optional details.<br />
Monitoring is a process of continuous checking (or observing)<br />
the values of variables making up the monitoring tree.<br />
Problem is a situation when one or more variables have undesired<br />
values. Undesired values, so problems, are expressed<br />
by predicates of problem-related variables of the monitoring<br />
tree. Precisely saying, problem is defined as a situation when<br />
any of those predicates is unfulfilled (when it is false), and<br />
a scope of problem is a term referring to a set of problem-related<br />
variables, falsifying the problem-related predicate.<br />
Repair<br />
Each problem, the RMS is able to solve, is associated with<br />
one or more repair procedures and repair is the process of<br />
using those procedures to bring monitored objects back from<br />
undesired states to desired states. Repair is initiated (triggered)<br />
by detecting in the monitoring tree set of such unprocessed<br />
variables, that make up the scope of the problem,<br />
that has been associated with at least one repair procedure.<br />
Repair procedures are interactive algorithms, written in<br />
high-level programming language, using the standard flow<br />
control instructions and taking advantage of other features of<br />
language, they are embedded in. Those algorithms execute,<br />
so called, corrective steps, whose invocations may be perceived<br />
as calls of external routines (procedures or functions).<br />
External routines are well-known programming languages concept<br />
and, like internal ones, they resemble black boxes having<br />
precisely determined interface (getting determined input and<br />
returning determined output) but, unlike internal ones, having<br />
their bodies defined outside the algorithms calling them. In<br />
case of the RMS system, they are exported, before their executions,<br />
to remote machines, related to problems that need<br />
them to be solved, and they are executed on those machines<br />
with access rights of users defined in repair algorithms.<br />
Programmers writing repair procedures may use means<br />
of expressions encapsulated in routines provided by the repair<br />
library (the repair API), and each repair is started up in<br />
environment containing all necessary information on the particular<br />
problem initiating it (and with the use of the repair library,<br />
this information is easily retrievable).<br />
Construction of the RMS<br />
Ideas and considerations drafted in the previous subsections, as<br />
well as existing industrial reality and already employed monitoring<br />
systems, have lead to the following construction of the RMS:<br />
Architecture of the RMS<br />
Architecture of the RMS has been shown in the Figure 1. MON-<br />
JAMI and HVRMONITOR correspond to systems described in<br />
[2,3]. The RMS collects data coming from various sources, initializes<br />
repairs, manages their whole lifecycle and each repair<br />
may assume one of the following states:<br />
• pending: need for repair was detected and appropriate repair<br />
is awaiting its starting up,<br />
• running: repair has been started up and its realization is in<br />
progress,<br />
• suspended: it has been suspended, as it needs additional<br />
information,<br />
• finished: it has been finished (regardless of its result) and<br />
its result has been saved.<br />
Features of the RMS<br />
The most important features of the RMS are the following:<br />
• it starts up subsequent repairs in parallel (not sequentially),<br />
• starting up follows the order requests for repairs are coming<br />
into the repairs queue,<br />
ELEKTRONIKA 11/<strong>2009</strong> 55
• multithreading within a single repair is also allowed,<br />
• connections lasting too long may be disconnected (timed out),<br />
• bigger arguments for corrective steps are sent in files,<br />
• smaller ones are sent directly in invocations of those steps,<br />
• those steps are grouped in actions, each of which resides<br />
in a single file,<br />
• files with actions and bigger arguments are resent over the<br />
network to remote machines, only if their checksums differ<br />
from checksums of their local counterparts.<br />
The RMS database, besides storing information on the<br />
states of repairs, stores also other information, relevant to<br />
monitoring and repair activities, such as:<br />
• incoming monitoring results (monitoring tree),<br />
• the way problems and their scopes are detected (defined<br />
as set of, already mentioned, predicates, stored in definitions<br />
of undesired results),<br />
• data generated by running repairs (output),<br />
• data retrieved by them from the real world (input),<br />
Fig. 1. Architecture of the Repair Management System<br />
Rys. 1. Architektura Systemu Zarządzania Naprawami<br />
Fig. 2. Flowchart of exemplary repair algorithm<br />
Rys. 2. Przepływ sterowania w przykładowym algorytmie naprawczym<br />
56 ELEKTRONIKA 11/<strong>2009</strong>
• data regarding their identity (details of repairs): their<br />
names, times their threads were started up and finished,<br />
PIDs (Process IDentifiers) of those threads, names of related<br />
scripts, with repair algorithms, binding repairs with<br />
scopes of problems triggering them,<br />
• information on making connections (with particular machines<br />
and as particular users) in the complex topology<br />
network, existing in the enterprise (connection tree).<br />
Case study of exemplary repair<br />
This subsection contains description and repair algorithm of<br />
exemplary problem.<br />
Brief description of the solved problem<br />
The examined problem is databases-related and may be characterized<br />
as follows:<br />
• each change in database is added to journal files (known<br />
also as redo log files),<br />
• once a day, after successful backup of the whole database<br />
(called here checkpoint) is made, journal files are deleted<br />
and their creation starts from scratch again,<br />
• creating and enlarging of the journal files is realized by<br />
a database archiver process,<br />
• lack of space in the filesystem, where those files exist,<br />
stops the database.<br />
Flowchart of the solution<br />
The way this problem is solved has been depicted in the Fig. 2.<br />
Conclusions<br />
The RMS and all other components of the RMF have been<br />
successfully implemented. Formal specifications of the RMM<br />
and the repair library formed the base for further development<br />
and left room for different implementations, sharing the<br />
same idea. The RMS with the prototype repair library (the<br />
repair API) are under tests in the Lufthansa Systems Poland<br />
Company. The API was implemented in the Perl programming<br />
language and the first experiments show that the system<br />
and its API meet the expectations of providing adequate<br />
support to the repair process. Experiments involved mentioned<br />
problem and its repair procedure which was easily implemented<br />
(using routines, derived from formal model), after<br />
representing it by a flowchart.<br />
Further experiments aiming at assessment of the effectiveness<br />
and efficiency of the RMS and benchmarking it with<br />
the traditional approaches are in the planning phase. Among<br />
expected benefits of the proposed approach are increase of<br />
reuse of repair procedures, better reliability of the repair<br />
process, significant increase of performance and better manageability<br />
due to improved documentation. The RMS incorporates<br />
existing monitoring systems and it is noticeable that<br />
repairs became faster, well-documented (so their results can<br />
be included in the internal reporting systems), and that administrators<br />
may focus on more complicated tasks.<br />
References<br />
[1] Škiljan, Z., Radič, B.: Monitoring systems: Concepts and tools.<br />
University Computing Centre, Croatia (2004).<br />
[2] Kamiński, M.: XML-based monitoring and its implementation in<br />
Perl. Proceedings of the 2nd National TPD Conference, Politechnika<br />
Poznańska Press, Poland (2007).<br />
[3] Kamiński, M.: HVRmonitor - data replication monitoring method.<br />
Proceedings of the 2nd AIS SIGSAND European Symposium on<br />
Systems Analysis and Design, University of Gdańsk Press,<br />
Poland (2007).<br />
[4] Barth, W.: Nagios. System and Network Monitoring. O’Reilly<br />
Press, USA (2006).<br />
[5] David, J.: Building a monitoring infrastructure with Nagios. Prentice-Hall,<br />
Great Britain (2007).<br />
[6] Turnbull, J.: Pro Nagios 2.0, Apress, USA (2006).<br />
[7] Zabbix reference manual: http://www.zabbix.com/documentation.php.<br />
[8] Zanikolas, S., Sakellariou, R.: A taxonomy of grid monitoring systems.<br />
School of Computer Science. The University of Manchester,<br />
Great Britain (2004).<br />
[9] Ceccanti, A., Panzieri, F.: Content-Based Monitoring in Grid Environments.<br />
Proceedings of the 13th IEEE International Workshops<br />
on Enabling Technologies. Department of Computer<br />
Science, University of Bologna, Italy (2004).<br />
[10] Jianwei, L., Hongbin, C., Pandeng, J., Meirong, C.: Design and<br />
Implementation of Grid Monitoring System Based on GMA. Proceedings<br />
of the 6th IEEE International Conference on Parallel<br />
and Distributed Computing. Applications and Technologies College<br />
of Computer Science, and University of Electronic Science<br />
and Technology. China (2006).<br />
[11] Cooke, A., Nutt, W., Magowan, J., Taylor, P., Leake, J., Byrom,<br />
R., Field, L., Hicks, S., Soni, M., Wilson, A., Cordenonsi, R.,<br />
Cornwall, L., Djaoui, A., Fisher, S., Podhorszki, N., Coghlan, B.,<br />
Kenny, S., O’Callaghan, D., Ryan, J.: Relational Grid Monitoring<br />
Architecture (R-GMA), Joint article published in GridPP. University<br />
of London, Great Britain (2003).<br />
[12] Campi, N., Bauer, K.: Automating Linux and Unix System Administration.<br />
Apress. USA (<strong>2009</strong>).<br />
[13] Strejcek, B.: Automate admin tasks with the powerful CFengine<br />
framework: http://www.linuxpromagazine.com/issues/<strong>2009</strong>/<br />
101/big_engine.<br />
[14] Gerlan, D., Schmerl, B.: Model-based Adaptation for Self-Healing<br />
Systems. School of Computer Science, Carnegie Mellon University,<br />
USA (2002).<br />
[15] Gerlan, D., Shang-Wen, C., Schmerl, B.: Increasing System Dependability<br />
through Architecture-based Self-repair, School of<br />
Computer Science, Carnegie Mellon University, USA (2003).<br />
[16] Gerlan, D., Shang-Wen, C., Schmerl, B., Sousa, J. P., Spitznagel,<br />
B., Steenkiste, P.: Using Architectural Style as a Basis for<br />
System Self-repair, School of Computer Science. Carnegie Mellon<br />
University, USA (2002).<br />
[17] Retkowski, G.: Building a Self-Healing Network: http://www.onlamp.com/pub/a/onlamp/2006/05/25/self-healing-networks.html.<br />
[18] Pervilä, M.: Using Nagios to monitor faults in a self-healing environment,<br />
Department of Computer Science, Helsinki University,<br />
Finland (2007).<br />
[19] Woodcock, J., Davies, J.: Using Z.: Specification, Refinement,<br />
and Proof, University of Oxford, Great Britain (1999).<br />
[20] Potter, B., Sinclair, J., Till, D.: An Introduction to Formal Specification<br />
and Z, International series in computer science, Prentice-<br />
Hall. Great Britain (1991).<br />
[21] Spivey, J.M.: The Z notation - A Reference Manual, Prentice-<br />
Hall. Great Britain (1992).<br />
[22] Kamiński, M.: Towards automating repairs of IT systems, article<br />
accepted (basing on its abstract) and submitted to the 30th International<br />
ISAT Conference (Information Systems., Architecture,<br />
and Technology). Poland (<strong>2009</strong>): http://www.isat.pwr.wroc.pl/.<br />
ELEKTRONIKA 11/<strong>2009</strong> 57
Influence of the number of bins on the recognition<br />
results using Point Distance Histogram<br />
(Wpływ liczby przedziałów w histogramie na wyniki rozpoznawania<br />
z użyciem algorytmu Point Distance Histogram)<br />
dr inż. DARIUSZ FREJLICHOWSKI<br />
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, Wydział Informatyki<br />
The shape is one of the features of an object that can be used<br />
for its recognition. In the template matching approach a shape<br />
has to be properly represented. It means that it has to be described<br />
in a way making the process of recognition easier.<br />
Usually, the shape description algorithm has to be invariant to<br />
some of its deformations, e.g. scaling or rotation. The most desirable<br />
approaches are robust to all shape deformations. However,<br />
there are not many of that kind, because it is really difficult<br />
to construct an algorithm solving so many various problems.<br />
Moreover, in many cases not all shape distortions arise. Sometimes<br />
the invariance to a few selected problems is sufficient.<br />
Nowadays, the number of shape descriptors applied in the<br />
pattern recognition area is innumerable (an exemplary exhaustive<br />
survey on this topic can be found in [1]). There are<br />
several hundreds various algorithms, Point Distance Histogram<br />
(PDH) being one of them. It was proposed in [2] and<br />
it draws benefits from two very useful solutions: polar transformation<br />
and histogram. It was successfully applied e.g. in<br />
recognition of erythrocyte shapes [3]. The polar transform is<br />
particularly effective in description and recognition of binary<br />
images [4,5]. Thanks to this, the most important property of<br />
the described algorithm is the invariance to selection of the<br />
starting point and rotation (thanks to the usage of histogram),<br />
scaling (thanks to the normalisation) and translation (usage<br />
of the particular point inside an object as an origin of the transform).<br />
Moreover, the method is able to indicate small differences<br />
between similar objects.<br />
The combination of polar coordinates and histogram for<br />
recognition of shapes is not new. Two similar to PDH methods<br />
can be mentioned. The first one is the Distance Histogram -<br />
DH [6]. It calculates the Euclidean distance between the centroid<br />
and all pixels within the object. Every distance is normalized<br />
with respect to the maximal one. The algorithm is very<br />
simple, yet quite effective for example for CBIR applications.<br />
The second proposal: Polar Histogram - PH [7] is almost the<br />
same as the previous one. Only the method for deriving it is<br />
different - it uses transformation from Cartesian to polar coordinates<br />
as more important step. The described solutions are<br />
the most similar to PDH. However, they both work on the<br />
whole shape, with its interior. As it is described in literature<br />
[1,8] the second shape representation - the contour - is possible.<br />
In fact, in the Point Distance Histogram the contour is<br />
used, which makes the algorithm much faster.<br />
At one of the stages during derivation of the shape description<br />
using PDH one has to decide how many bins in a histogram<br />
are used. This parameter is denoted as r. The most<br />
important goal of the experiment described in this paper was<br />
the investigation of the influence of this number on the recognition<br />
results. In order to attain that goal, deformed (rotated<br />
and scaled) trademark shapes were explored. Few examples<br />
of shapes and achieved PDH descriptions for them are provided<br />
in Fig.1.<br />
Description of the Point Distance<br />
Histogram algorithm<br />
The original PDH algorithm uses the centroid as the origin of<br />
the calculations [2]. However, the method is not limited to this<br />
one and if it is desirable any point can be used. This selection<br />
should indicate the name of the descriptor, e.g. in the original<br />
method the complete name is centroid-PDH. The centre of an<br />
object is denoted as O and for centroid it is derived using the<br />
formula [2]:<br />
where: n - number of points in a contour, x i , y i - Cartesian coordinates<br />
of the i-th point.<br />
Having the centre of an object derived we can start the<br />
calculation of the polar co-ordinates: Θ i for angles and Ρ i for<br />
radii [2]:<br />
(1)<br />
(2)<br />
(3)<br />
The values in Θ i are converted into nearest integers [2]:<br />
(4)<br />
Fig.1. Exemplary trademark shapes and PDH descriptions<br />
achieved for them<br />
Rys.1. Przykładowe znaki firmowe i wyznaczone dla nich deksryptory<br />
PDH<br />
The elements in Θ i and Ρ i are now rearranged, according to<br />
increasing values in Θ i , and denoted as Θ j , Ρ j . If some elements<br />
in Θ j are equal, only the one with the highest corresponding<br />
value Ρ j is selected. That gives a vector with at most<br />
360 elements, one for each integer angle. For further work<br />
only the vector of radii is needed. We denote it as Ρ k , where<br />
58 ELEKTRONIKA 11/<strong>2009</strong>
k = 1, 2, ..., m and m is the number of elements in Ρ k (m is<br />
less or equal to 360). Then, the normalisation of elements in<br />
vector Ρ k is performed [2]:<br />
The elements in Ρ k are assigned to bins in histogram (ρ k to l k ) [2]:<br />
where r is the predetermined number of bins.<br />
The next step is the normalisation of the values in bins,<br />
according to the highest one [2]:<br />
(5)<br />
(6)<br />
(7)<br />
The examination of the PDH descriptor, using varying value of<br />
the parameter r was performed on binary contour images belonging<br />
to 50 various classes of trademarks, represented in<br />
bitmaps of size 100 by 100 pixels. A couple of examples were<br />
provided in Fig. 1.<br />
According to the template matching approach not affected<br />
contour shapes played the role of base elements. Then, they<br />
were artificially distorted. Three separate tests were performed.<br />
Firstly, the rotation was explored. The angle was selected<br />
randomly. Secondly, the reduction in size (twice). And<br />
finally, scaling up a shape (twice, again).<br />
In each case, deformations were performed on shapes<br />
represented in bitmaps, therefore additionally influence of<br />
noise into the coordinates being extracted during the process<br />
of vectorisation was noticeable.<br />
In all cases one common property was reported. The<br />
recognition rate (RR) was at first increasing rapidly according<br />
to increasing value of r. Then, for r above 8 it was almost stable<br />
and oscillating around 90…95%. After the parameter r had<br />
reached 60 the recognition results became worse. It is clearly<br />
visible in Fig. 2. The best overall average result was RR = 95%<br />
and it was achieved for r = 18, 20, 25, 29, 38 and 51. Because<br />
this result was noticed mainly amongst smaller values of r the<br />
parameter should be taken from them, e.g. r = 18, 20 or 25.<br />
The final histogram representing a shape can be formally written<br />
as a function h(l k ) [2]:<br />
(8)<br />
where [2]:<br />
(9)<br />
Various measures can be used to compare two histograms,<br />
e.g. L 0 , L 1 , L 2 , Matusita, Divergence [9]. In the experiment described<br />
in the following section, the L 2 norm was taken to derive<br />
the dissimilarity between the two descriptions received<br />
using PDH algorithm [9]:<br />
Fig. 3. Recognition rates for rotation and increasing value of r<br />
Rys. 3. Współczynniki rozpoznawania dla obrotu i rosnących<br />
wartości parametru r<br />
(10)<br />
h 1 , h 2 - PDH descriptions being matched, i = 1... r.<br />
Conditions and results of the experiment<br />
Fig. 2. Average recognition rates for increasing value of r<br />
Rys. 2. Średnie współczynniki rozpoznawania dla rosnących wartości<br />
parametru r<br />
Fig.4. Recognition rates for scaling (up and down) and increasing<br />
value of r<br />
Rys.4. Współczynniki rozpoznawania dla skalowania (powiększania<br />
i pomniejszania) i rosnących wartości parametru r<br />
ELEKTRONIKA 11/<strong>2009</strong> 59
The achieved results can be explained easily. Very small<br />
values of r (from 1 to 10) obviously gave poor recognition results,<br />
because small number of bins in histogram leads to small<br />
discrimination property. On the other hand, large number of<br />
bins taken into consideration gave worse results as well. It can<br />
be explained by the small number of points under processing<br />
in the examined objects. The test contours had usually about<br />
hundred points, which resulted in worse rates for higher values<br />
of r. The important conclusion here is the necessity of usage<br />
of shapes with higher number of points (at least several hundreds)<br />
or usage of small number of bins in PDH descriptor.<br />
As we can see in Fig. 2. the best results are achieved<br />
when r is between 9 and 60. Therefore the exact analysis of<br />
three performed tests will be presented for r ranging from 1 to<br />
60. This will help in noticing the characteristics of the PDH descriptor<br />
in the presence of various shape distortions.<br />
A very interesting property can be noticed when small<br />
number of bins is used. The recognition is far from ideal in that<br />
case. However, even the small value of r gives surprisingly<br />
good recognition rate, i.e. for r higher than 4 the described<br />
factor is above 80%. That proves the good characteristics of<br />
a histogram in pattern recognition.<br />
The recognition results for rotation are presented in Fig. 3.,<br />
and for scaling (down and up) in Fig. 4. As we can see, results<br />
for rotation and scaling up are similar. The perfect result<br />
(100%) is achieved several times. However, the scaling down<br />
deformation is much more challenging - only for r between 13<br />
and 20 the results are acceptable. After the parameter exceeds<br />
20 they are getting worse. Again, it is a result of the<br />
small number of pixels under processing.<br />
Conclusions<br />
In the paper the results of an experiment on deformed binary<br />
trademarks were presented. The goal of the research was to<br />
find the best values of numbers of bins (parameter r) in the<br />
histogram when using Point Distance Histogram (PDH) for<br />
small shapes. Three tests were performed. Firstly the randomly<br />
rotated objects were explored, then, scaled down and<br />
up. In each case, the influence of extraction of points from<br />
bitmaps was noticeable as well.<br />
As it turned out, small size of a test object, more precisely<br />
- small number of points to process in a contour had the most<br />
significant influence on recognition rates (RR). The results<br />
were worse for scaling down (the best RR was equal to 90%)<br />
than for scaling up and rotation (100% several times). The<br />
analysis of the RR under varying values of parameter r indicated<br />
that for small contours the best value is r = 18, 20 or 25.<br />
This results primarily from the parameters established for scaling<br />
down. In the case of another two tests - for rotation and<br />
scaling up, the maximal suggested parameter value should<br />
be r = 51, since for the higher values the results were worse.<br />
To sum up, if we cannot ensure the appropriate size of<br />
objects to recognise, the parameter r from 18 to 25 should<br />
be used. If objects are larger the value close to 50 is a better<br />
choice.<br />
Another issue is worth noticing. During the experiments<br />
the obvious property of PDH method was confirmed. It works<br />
better for objects with larger number of points. Therefore, the<br />
usage of larger contours, if possible, is advised. However, in<br />
real situations sometimes the extracted shapes are small. In<br />
that case the values established using the experiments presented<br />
in this paper should be used.<br />
References<br />
[1] Zhang D., Lu G.: Review of shape representation and description<br />
techniques. Pattern Recognition, vol. 37, iss. 1, 2004,<br />
pp. 1-19.<br />
[2] Frejlichowski D.: Shape Representation Using Point Distance<br />
Histogram. Polish Journal of Environmental Studies, vol. 16, no.<br />
4A, 2007, pp. 90-93.<br />
[3] Frejlichowski D.: The Point Distance Histogram for Analysis of<br />
Erythrocyte Shapes. Polish Journal of Environmental Studies,<br />
vol. 16, no. 5B, 2007, pp. 261-264.<br />
[4] Kuchariew G., Przetwarzanie i analiza obrazów cyfrowych, Wydawnictwo<br />
Uczelniane Politechniki Szczecińskiej, 1998.<br />
[5] Luengo-Oroz M. A., Angulo J., Flandrin G., Klossa J.: Mathematical<br />
Morphology in Polar-Logarithmic Coordinates. Application<br />
to Erythrocyte Shape Analysis. LNCS, vol. 3523, 2005, pp.<br />
199-205.<br />
[6] Saykol E., Gudukbay U., Ulusoy O.: A histogram-based approach<br />
for object-based query-by-shape-and-color in image and<br />
video databases. Image and Vision Computing, vol. 23, 2005,<br />
pp. 1170-1180.<br />
[7] Suau P.: Robust artificial landmark recognition using polar histograms.<br />
LNAI, vol. 3808, 2005, pp. 455-461.<br />
[8] Loncaric S.: A survey on shape analysis techniques. Pattern<br />
Recognition, vol. 31, iss. 8, 1998, pp. 983-1001.<br />
[9] Mikłasz M., Aleksiun P., Rytwiński T., Sinkiewicz P.: Image<br />
Recognition Using the Histogram Analyser. Computing, Multimedia<br />
and Intelligent Techniques, vol.1 no.1, 2005, pp. 74-86.<br />
Open virtual steganographic laboratory<br />
(Otwarte wirtualne laboratorium steganograficzne)<br />
dr inż. PAWEŁ FORCZMAŃSKI, mgr inż. MICHAŁ WĘGRZYN<br />
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, Wydział Informatyki<br />
Among many different applications where data hiding techniques<br />
can be used, one that has received huge attention in recent<br />
years is steganography. In that scenario, not just the<br />
embedded message is hidden, but the communication process<br />
itself is tried to be concealed. Steganography is both art. and<br />
science of undetectable communication [1]. Opposed to cryptography<br />
which encrypts a message, steganography achieves<br />
private communication by hiding message in cover object so<br />
not only content is known but also very existence of message.<br />
Throughout the history many different media types have been<br />
used to hide information. Nowadays steganographic applications<br />
[9,16] are using computer file system, transmission protocols,<br />
audio files, video files, text files or images, which are the<br />
most popular cover objects. Discovering the presence of hidden<br />
messages and determining their attributes are goals of<br />
steganalysis, which, in general, involves visual analysis and<br />
60 ELEKTRONIKA 11/<strong>2009</strong>
more powerful statistical (algorithmic) analysis. Both steganography<br />
and steganalysis in digital images include wide variety of<br />
methods that emerged during last years [11,24]. The most popular<br />
approaches in steganography and steganalysis are briefly<br />
reviewed further in this section. There are many applications<br />
for steganography or steganalysis, however, despite few good<br />
applications for steganalysis there is no application that provides<br />
secure steganographic methods. Also, according to our<br />
knowledge, there is no application that allows adjusting and<br />
testing methods and provides simple addition of other ones.<br />
Brief review of techniques for digital images<br />
Images are the most popular digital cover media for steganography.<br />
In practice, applied technique depends on the image<br />
format, therefore an approach used for uncompressed bitmap<br />
image (such as BMP) is different that for the format with compression<br />
(such as JPEG) and both will differ from one used<br />
for palette images which are usually stored in GIF files. Literature<br />
survey shows that there are many general approaches<br />
aimed at still image steganography and watermarking<br />
[4,5,7,11,17,19]. All of them work in either spatial domain [4]<br />
or in certain spectrum domain (FFT, DFT, DCT, Wavelets<br />
[3,5,10,12]). The most popular yet not very effective method is<br />
a LSB insertion, which alters the least important elements of<br />
the cover image. The main problem with LSB and other similar<br />
methods is the robustness to typical visual manipulations,<br />
e.g. changes of intensity, contrast and focus as well as lossy<br />
re-compression and framing. Therefore these methods are not<br />
applicable to watermarking tasks. On the other hand, there is<br />
a problem of steganalysis, which is a non-trivial task, especially<br />
with low embedding rate, low computational complexity<br />
requirement and without knowledge of cover image. Generally,<br />
aforementioned methods are strongly dependent on the<br />
destination file format. Moreover, for a specific file format several<br />
dedicated techniques (or modifications of known ones)<br />
can be chosen. Current steganalysis methods can be divided<br />
into two main categories: embedding specific or universal.<br />
While universal steganalysis attempts to detect the presence<br />
of an embedded message no matter of the embedding algorithm<br />
and, ideally, the image format, embedding specific approaches<br />
to steganalysis take advantage of particular<br />
algorithmic details of the embedding algorithm [15].<br />
above confirm this observation - all of them are command line<br />
programs hard to operate for beginners. Admittedly, there are<br />
GUI versions of F5, JSteg and JP Hide&Seek (see Fig. 1)<br />
available, however they have very simplified interfaces which<br />
provide only single embedding or extraction at one time, thus<br />
more sophisticated operations or sequences of processing are<br />
impossible to be performed.<br />
The lack of applications providing a capability of complex<br />
testing both embedding and message extraction leads to the<br />
idea of steganographic laboratory as a virtual environment described<br />
in the following sections. Our experience shows that<br />
such an idea can be very attractive for many users not only<br />
from the educational circles.<br />
a)<br />
b)<br />
Existing applications<br />
There are many computer programs, distributed as both free<br />
and proprietary software that incorporate different steganography<br />
techniques available today. Most of them are written for<br />
Windows and Unix-like operating systems. As it was mentioned<br />
in the introduction, most of available steganographic<br />
applications for digital images use the simplest but also the<br />
most insecure LSB method or its modification [9,16]. Part of<br />
them uses more sophisticated methods for JPEG files like<br />
Steghide [6], Outguess [18], F5 [25], JP Hide&Seek [13]. Despite<br />
the fact that all of them are easy to detect even at so<br />
small embedding rate as 0.05 bpac (bits per non-zero AC coefficient),<br />
there are some methods still secure but not widely<br />
used in current applications [5,12]. On the other hand, among<br />
many standalone applications, there is hardly no software that<br />
incorporates easy methods linking, adjusting parameters, testing,<br />
and readable and friendly graphical user interface.<br />
Almost all steganographic software applications are basically<br />
command line tools performing single steganographic<br />
and/or steganalytic algorithm. All the applications mentioned<br />
Fig. 1. GUI front-ends of JP Hide&Seek (a) and F5 (b)<br />
Rys. 1. Graficzne interfejsy użtkownika programów JP Hide&Seek<br />
(a) i F5 (b)<br />
Virtual laboratory for still images<br />
Initial assumptions<br />
Nowadays, with the development of new computer technologies,<br />
e.g. Java - an interactive multimedia programming language,<br />
and the broadband Internet (giving an access to rich<br />
web applications) it is possible to simulate engineering and<br />
science laboratory projects on a desktop computer.<br />
ELEKTRONIKA 11/<strong>2009</strong> 61
With Internet access, it is now possible to offer scientists<br />
and students virtual laboratories from a distance, via the World<br />
Wide Web. Experiment-oriented problems can be offered<br />
without the overhead incurred when maintaining a full laboratory<br />
or a set of independent applications, often incompatible<br />
with each other. According to the rather general definition presented<br />
in the literature [14], virtual laboratory is a heterogeneous,<br />
distributed environment making possible to conduct<br />
experiments in a similar way to the physical laboratory. The<br />
main objective of the virtual laboratory is to introduce scientists<br />
and students to experimentation, problem solving, data<br />
gathering, and scientific interpretation. Experiments performed<br />
in the laboratory may be fully interactive, making possible<br />
to change all parameters, giving access to any<br />
intermediate results and producing detailed reports.<br />
Virtual laboratories can also benefit from some collaboration<br />
techniques as tele-immersion [26]. Because of the specific<br />
character of the tasks realized in the field of computer<br />
science, virtual laboratories are often focused on the information<br />
processing problems rather than access to physical<br />
tools. The most appreciated feature of such laboratory is its<br />
modular architecture, which allows to increase the system capabilities<br />
(e.g. by adding new functions and modules) without<br />
the necessity to recompile the whole application. A user of<br />
such laboratory should have the minimal knowledge of the API<br />
(Application Programming Interface) provided by virtual laboratory<br />
framework to create new plugins or modules. He does<br />
not have to create all additional input-output procedures and<br />
visual layer, hence he can focus on the actual problem.<br />
Architecture and communication<br />
Proposed Open Virtual Steganographic Laboratory VSL (Application<br />
has been released under the open-source GPL licence<br />
at http://vsl.sourceforge.net/_). for digital images is a set<br />
of applications which form a distributed system aimed at computations.<br />
This idea is motivated by a observation that each<br />
procedure involved in the steganography/steganalysis can by<br />
represented by a determinable process realizing specific action,<br />
e.g. message embedding, message extraction, steganographic<br />
attack, image distortion, data transfer, etc. The main<br />
application of VSL which provides communication between<br />
components and a user interface gives an ability to build a processing<br />
flow that incorporates all needed modules and to simulate<br />
an experiment. High-level package diagram (conforming<br />
to Universal Modeling Language) representing system’s architecture<br />
is presented in Fig. 2. The system package contains<br />
main sub-package which is a core of logic. Main sub-package<br />
communicates with other major packages: steganography, steganalysis,<br />
distortions and tools. The first three elements can<br />
consist of zero or more proper subsystems i.e. steganography<br />
package contains external steganographic subsystems (standalone<br />
modules which can be used independently regardless<br />
of whole system), steganalysis package includes separate steganalysis<br />
subsystems and distortions package - distortions<br />
subsystems respectively. The last major package (tools) contains<br />
various additional laboratory instruments needed to perform<br />
entire experiment. Since cover images can be stored in<br />
various file formats, input package responsible for reading and<br />
preparing image to processing is needed. Display tool allows<br />
to show processed images in a specific, important for the user<br />
moment of experiment flow - before, after or between arranged<br />
operations. In fact, it is just a simple image viewer integrated<br />
into VSL. A user can examine images processed in any given<br />
places of flow and easily compare them, for instance an image<br />
before and after embedding. Output functionality makes it possible<br />
to write results to a file.<br />
The last proposed tool is Report. It provides image features<br />
such as spatial resolution, color depth, name, etc., message<br />
features (size of message, maximum length of message)<br />
and image quality measures. Today, one of the most popular<br />
distortion measures, due to the simplicity of the metric, is Peak<br />
Fig. 2. High-level UML diagram of Virtual Steganographic Laboratory<br />
Rys. 2. Diagram UML wysokiego poziomu wirtualnego laboratorium steganograficznego<br />
62 ELEKTRONIKA 11/<strong>2009</strong>
Signal to Noise Ratio (PSNR). We propose it along with one<br />
of the most appropriate distortion metrics, which is correlated<br />
with the Human Visual System (HVS) [2] i.e. Relative Peak<br />
Signal to Noise Ratio (RPSNR). Also, report module can contain<br />
other useful informations such as size of decoded message<br />
or output of steganalysis modules. Because of the fact<br />
that the robustness is a crucial requirement for digital watermarking,<br />
investigating the resistance against typical signal<br />
processing methods can be useful and thus the VSL contains<br />
some popular image processing algorithms. Within application,<br />
hidden content (e.g. invisible watermark) could be attacked<br />
with noise addition (Gaussian noise, Salt-and-Pepper<br />
noise), resizing (using most popular bicubic interpolation),<br />
cropping, JPEG lossy compression, median filtering, Gaussian<br />
blurring, gamma correction or sharpening. Any parameter<br />
of the distortion method can be easily adjusted.<br />
All tools presented above are designated to replace any<br />
external software like image viewers, file managers, text editors,<br />
etc. All these elements form the entire, fully independent<br />
workbench making possible to conduct any type of steganographic<br />
experiment.<br />
The initial assumption regarding architecture was to use<br />
SOAP (Simple Object Access Protocol) for communication,<br />
as it provides mechanisms for exchanging structured and<br />
typed information between peers in a decentralized, distributed<br />
environment such as proposed virtual laboratory [20].<br />
Each workbench element (node) can be treated as a peer<br />
which exchanges SOAP messages, formally specified as an<br />
XML structures, which provide an abstract description of its<br />
contents. Despite SOAP is fundamentally a stateless, oneway<br />
message exchange paradigm, our idea is to create more<br />
complex interaction patterns (e.g., request/response, request/multiple<br />
responses, etc.) by combining such one-way<br />
exchanges with features provided by an underlying protocol<br />
and/or application-specific information [22]. Because of the<br />
concept of an open and distributed processing, the first, and<br />
the most obvious idea was to build the VSL as Web Services<br />
which are defined by the W3C as a software system designed<br />
to support interoperable machine-to-machine interaction over<br />
a network [23]. The VSL was meant to be a set of Web Services<br />
with one privileged core Web Service, which exactly represents<br />
the proposed architecture. Initial framework was build<br />
using Java API for XML Web Services (JAX-WS) [21], however<br />
the system in this form had significant limitations. The<br />
main two constraints were a complexity of API and a lack of<br />
possibility to construct plugin architecture. Those restrictions<br />
could be a great disadvantage for potential users regarding<br />
extending and/or altering the whole system. Another inconvenience<br />
was communication issue - Web Services should<br />
use in this case secure transfer protocol. In result, we<br />
changed system architecture to a main application and a set<br />
of plugins which are also standalone applications that can run<br />
independently (typical to the client-server approach). Thanks<br />
to Java, which provides multi-platform compatibility, the VSL<br />
application can be executed on almost every personal computer<br />
running any popular operating system (MS Windows,<br />
MacOS, Linux). It is an often unnoticeable, yet very important<br />
economical aspect of research. Basic programming skills, together<br />
with given architecture make possible for everyone to<br />
build his own plugin, without much effort (regardless of the<br />
type - steganographic, steganalytic or distortion module) and<br />
to attach it to the main application of VSL. Free and open<br />
source of VSL (along with openness of technologies used for<br />
development) and its modularity, make it useful and adequate<br />
tool for both scientists and students.<br />
User interface<br />
Graphical user interface of the application is shown in figures<br />
below (see Fig. 3-5). It was build with the usage of typical<br />
Swing GUI gadgets, however thanks to the look-an-feel technology,<br />
it can be easily switched to standard MS Windows or<br />
MacOS visual schemes. It features drag-and-drop technology<br />
which means it is easy to operate by any, even not advanced<br />
user. The main window of laboratory contains plain workspace<br />
and a list of block elements (Modules). Each block element<br />
represents corresponding operation i.e. block named LSB<br />
processes an image with Least Significant Bit embedding. Any<br />
processing starts from the Input block which has a list of input<br />
files designated for processing (the processing flow is sequentially<br />
performed for all input files). Between any two<br />
blocks a package of control data is being transferred - every<br />
block performs its own operations on data and transfers the<br />
data package further to the next block. All parameters and<br />
properties of an operation represented by a block, can be easily<br />
adjusted, simply by showing the parameters dialog after<br />
the double-click on the block that needs to be configured. The<br />
application provides both batch and parallel processing, and<br />
loops as well, hence it should be noticed that considerably<br />
complex flows, as described in next section, are available to<br />
be arranged by users. Moreover, all specific properties of an<br />
application (i.e. file formats, size of blocks, area of workspace,<br />
colors, etc.) can be specified in an external, freely editable<br />
configuration file.<br />
Sample experiments<br />
The virtual laboratory has one considerable advantage over<br />
typical set of individual applications since it makes it possible<br />
to conduct experiments in a flow form. Each operation being<br />
a part of the flow can be performed once or several times, giving<br />
an opportunity to change its parameters during each iteration<br />
and passing the results to the next stage. Thus, it is more<br />
usable for scientific and educational purposes, where the experiments<br />
involve many time-consuming and often not clearly<br />
determined investigations. Figures below provide sample<br />
flows of processing. Figure 3 shows a simple process of embedding<br />
after which cover image is distorted three times. Then<br />
it is stored in a Display module and a LSB Decoder tries to<br />
read the hidden message. In the end report is created from<br />
whole process.<br />
Fig. 3. Example flow of experiment representing an attack on chosen<br />
steganographic method<br />
Rys. 3. Przykładowy przebieg eksperymentu odpowiadającemu<br />
atakowi na wybraną metodę staganograficzną<br />
ELEKTRONIKA 11/<strong>2009</strong> 63
conducting wide range of experiments involving different types<br />
of message embedding, diverse attacks (employing image<br />
processing algorithms) and steganalysis with the use of popular<br />
methods. Although the main purpose of VSL is to provide<br />
efficient yet easy tool for scientists and students, it can be<br />
used for learning and extended by everyone. With the help of<br />
VSL, any new steganographic/steganalytic/watermarking<br />
method may be investigated. Thanks to that, people can be<br />
more aware of current information hiding problems, which is<br />
instantly gaining more popularity. It is an important aspect, especially<br />
nowadays, when successive privacy issues are continually<br />
emerging and civil liberties and rights are more and<br />
more often not taken into consideration.<br />
Fig. 4. Example flow of distortion modeling<br />
Rys. 4. Przykład przebiegu modelowania zakłóceń<br />
Fig. 5. Example flow of parallel message embedding with two<br />
methods<br />
Rys. 5. Przykładowy przebieg równoległego osadzania informacji<br />
dwiema metodami<br />
Another scenario is shown in Fig. 4. Cover object is<br />
processed in an iterative manner. In every cycle it is used for<br />
embedding, distorted and stored. Finally, the message is recovered,<br />
so the robustness could be tested. On the right side<br />
the Display module window is presented. The next figure<br />
(Fig. 5) demonstrates a concept of parallel processing in<br />
which many operations on different sets of images can be<br />
done separately at one time for easy and clear further comparison.<br />
Example usage of this kind of processing could be<br />
performing embedding on two different sets of images: e.g.<br />
for training and testing classifier or comparing results of embedding<br />
with same technique but different parameters.<br />
The experiments presented in this section as simplified<br />
flows do not exhaust the possible field of applications of the<br />
VSL. An open architecture of the environment and an idea of<br />
flexible connections gives the possibility to create many more<br />
schemes of processing, employing lots of different modules.<br />
According to the assumption presented in the beginning, the<br />
architecture of VSL allows many extra modules to be attached<br />
to the main application. Thanks to open VSL API and<br />
popular Java programming language one can create his own<br />
steganographic/ steganalysis plugin and profit from the automatic<br />
processing.<br />
Summary<br />
Proposed Virtual Steganographic Laboratory is a novel approach<br />
to steganographic experiments performed on digital<br />
images. It gives scientists and students a powerful tool for<br />
References<br />
[1] Artz, D.: Digital Steganography, Hiding Data within Data. Proc.<br />
IEEE Internet Computing, 5(3), 75-80, 2001.<br />
[2] Chemak, C., Bouhlel, M., Lapayre, J.: A new scheme of robust<br />
image watermarking: ”The double watermarking algorithm”.<br />
Summer Computer Simulation Conference: San Diego/California,<br />
1201-1208, 2007.<br />
[3] Chen, W. Y.: Color image steganography scheme using DFT, SPIHT<br />
codec, and modified differential phase-shift keying techniques. Applied<br />
Mathematics and Computation 196(1), 40-54, 2008.<br />
[4] Cheung, W.: Digital Image Watermarking in Spatial and Transform<br />
Domains. Proc. TENCON, 374-378, 2000.<br />
[5] Fridrich, J., Pevny, T., Kodovsky, J.: Statistically undetectable<br />
jpeg steganography: dead ends challenges, and opportunities.<br />
MM&Sec, 3-14, 2007.<br />
[6] Hetzl, S., Mutzel, P.: A graph-theoretic approach to steganography.<br />
CMS 2005, LNCS 3677, 119-128, 2005.<br />
[7] Johnson, N. F., Jajodia, S.: Steganography: Seeing the Unseen.<br />
IEEE Computer, 26-34, 1998.<br />
[8] Johnson, N., Duric, Z., Jajodia, S.: Information hiding: steganography<br />
and watermarking: attacks and countermeasures Springer.<br />
ISBN 978-0-7923-7204-2, 2001.<br />
[9] Johnson, N.: Steganography Software Website http://www.<br />
jjtc.com/Steganography/tools.html, 2008.<br />
[10] Kaarna, A., Toivanen, P.: Digital Watermarking of Spectral Images<br />
in PCA/Wavelet Transform Domain In: Proc. IGARSS,<br />
3564-3567, 2003<br />
[11] Katzenbeisser, S., Petitcolas, F.: Information hiding techniques<br />
for steganography and digital watermarking, Artech House<br />
Books, 2000.<br />
[12] Kim, Y., Duric, Z., Richards, D.: Modified Matrix Encoding Technique<br />
for Minimal Distortion Steganography. Proceedings of the<br />
8th International Workshop on Information Hiding. LNCS vol.<br />
4437, 314-327, 2006.<br />
[13] Latham, A.: Steganography: Jphide and Jpseek<br />
http://linux01.gwdg.de/alatham/stego.html, 1999.<br />
[14] Lawenda, M., Meyer, N., Rajtar, T., Okoń, M., Stokłosa, D.,<br />
Kaliszan, D., Stroiński, M.: Generalization aspects in the virtual<br />
laboratory system. Remote Engineering and Virtual Instrumentation<br />
Villach, Austria, 28-29 September, 2004.<br />
[15] Lyu, S., Farid, H.: Steganalysis using higher-order image statistics.<br />
IEEE Transactions on Information Forensics and Security,<br />
vol. 1, no. 1, 111-119, 2006.<br />
[16] Milbrandt, E.: Steganography Software Website http://www.stegoarchive.com/,<br />
2008.<br />
[17] Podilchuk, C., Delp, E.: Digital Watermarking Algorithms and Applications.<br />
Proc. IEEE Signal Processing Magazine, 18(4), 33-<br />
46, 2001.<br />
[18] Provos, N.: Defending against statistical steganalysis. 10th<br />
USENIX Security Symposium, Washington, DC, 2001.<br />
[19] Rocha, A., Goldenstein, S.: Steganography and Steganalysis in<br />
Digital Multimedia: Hype or Hallelujah? Journal of Theoretical<br />
and Applied Computing - RITA 15(1), 83-110, 2008.<br />
[20] Sun Microsystems, Inc.: SOAP/TCP v1.0, http://java.sun.com/<br />
webservices /reference/apis-docs /soap-tcp-v1.0.pdf, 2008.<br />
[21] Sun Microsystems, Inc.: Java API for XML Web Services (JAX-WS)<br />
Overview https://jaxws.dev.java.net/nonav/2.1/docs/index.html,<br />
2008.<br />
[22] W3C Recommendation, SOAP Version 1.2 Part 0: Primer (Second<br />
Edition), http://www.w3.org/TR/2007/ REC-soap12-part0-<br />
20070427/, 27 April, 2007.<br />
64 ELEKTRONIKA 11/<strong>2009</strong>
[23] W3C - Web Services Glossary - http://www.w3.org/TR/ws-gloss/,<br />
<strong>2009</strong>.<br />
[24] Wayner, P.: Disappearing cryptography 3rd Edition: information<br />
hiding: steganography & watermarking. Amsterdam: MK/Morgan<br />
Kaufmann Publishers. ISBN 978-0123744791, <strong>2009</strong>.<br />
[25] Westfeld, A., High capacity despite better steganalysis (F5-a<br />
steganographic algorithm). Information Hiding, 4th International<br />
Workshop, volume 2137 of LNCS, Springer-Verlag, New York,<br />
289-302, 2001.<br />
[26] Wu, W., Yang, Z., Nahrstedt, K., Kurillo, G., Bajcsy, R.: Towards<br />
multi-site collaboration in tele-immersive environments.<br />
Proc. of ACM Multimedia (MM’07) (short paper), Augsburg,<br />
Germany, 2007.<br />
The use of speech recognition and user verification<br />
in closed-circuit television systems<br />
(Zastosowanie rozpoznawania mowy i weryfikacji użytkownika<br />
w systemach telewizji przemysłowej)<br />
dr inż. MARIUSZ KUBANEK<br />
Politechnika Częstochowska, <strong>Instytut</strong> Informatyki Teoretycznej i Stosowanej<br />
Speech recognition systems, and the verification of persons<br />
on the basis of independent speech are widely used. Speech<br />
is the most natural way for humans to communicate with each<br />
other. Over the past decade, much work has been done in<br />
man-machine communications in order to incorporate speech<br />
as a new modality in multimedia applications. The greatest interest<br />
is in two areas which have received considerable interest:<br />
speech recognition, in which the aim is for the machine to<br />
extract and understand the linguistic message in the speech,<br />
and speaker recognition, where the goal is to identify, recognize<br />
or verify the speaker responsible for producing the<br />
speech. Speech recognition systems are used in mobile<br />
phones for dial voice, in operating systems to voice control of<br />
different applications, in text editors to impose sentences, to<br />
recognize voice commands in cars, etc. User identification and<br />
verification based on speech are most often used in access<br />
control systems. The variety of applications of automatic<br />
speech recognition systems, for human computer interfaces,<br />
telephony, or robotics has driven the research of a large scientific<br />
community [1,3].<br />
The most important problem in process of speech recognition<br />
and speaker identification or verification is suitable coding<br />
of signal audio [4]. In general, speech coding is a procedure to<br />
represent a digitized speech signal using a few bits as possible,<br />
maintaining at the same time a reasonable level of speech quality.<br />
Speech coding has matured to the point where it now constitutes<br />
an important application area of signal processing. Due<br />
to the increasing demand for speech communication, speech<br />
coding technology has received augmenting levels of interest<br />
from the research, standardization, and business communities.<br />
Advances in microelectronics and the vast availability of lowcost<br />
programmable processors and dedicated chips have enabled<br />
rapid technology transfer from research to product<br />
development; this encourages the research community to investigate<br />
alternative schemes for speech coding, with the objectives<br />
of overcoming deficiencies and limitations. To<br />
standardization community pursues the establishment of standard<br />
speech coding methods for various applications that will<br />
be widely accepted and implemented by the industry. The business<br />
communities capitalize on the ever-increasing demand<br />
and opportunities in the consumer, corporate and network environments<br />
for speech processing products [1,4].<br />
In this work, it was proposed use speech recognition<br />
method to control the movement of the camera of closed-circuit<br />
television system, and use user verification method to log<br />
on to this system. To extraction of the audio features of person’s<br />
speech, in this work it was applied modified mechanism<br />
of cepstral speech analysis. For acoustic speech coding was<br />
used twenty dimensional MFCC (Mel Frequency Cepstral Coefficients)<br />
as the standard audio features. Speech recognition<br />
is done using hidden Markov models.<br />
Preliminary process of signal<br />
Analysis of audio channel one should to begin from filtration<br />
of signal, removing elements of signal being him disturbances.<br />
In working system in conditions approximate to ideal it was<br />
been possible to skip stage of preliminary filtration in aim of<br />
acceleration of working. In real conditions of work, signal of<br />
audio speech is often considerably disturbed, therefore in<br />
work was applied preliminary filtration [2].<br />
In system of recognizing of isolated word to control the<br />
movement of the camera of closed-circuit television, during<br />
recordings is necessary making a short-lived but clear pauses<br />
in form of silence among individual words. In view of remember<br />
kind of recognizing, after preliminary filtration of signal<br />
next stage is emission clean, proper audio signal, across removal<br />
of silence from before and behind signal [2]. In this<br />
work, it was applied two joint methods of removing of redundancy<br />
silence. First, from the base on calculation energy of<br />
signal and rejection of all samples, no exceeding receive<br />
threshold of energy. Entrance signal is divided onto frame<br />
boxes of 256 samples. Size of frame boxes depends from frequency<br />
of sampling. It was applied frequency of sampling<br />
8000 Hz. Then for every frame box is counted her energy.<br />
Choosing suitably threshold it was been possible to mark<br />
frame box, including beginning of recorded word. Such frame<br />
box crosses receive threshold of energy. Since in moment of<br />
beginning of recording, first some frame boxes contain only<br />
silence, it was been possible to mark threshold of energy on<br />
basis of initial frame boxes. In work, it was accepted doubled<br />
sum of energy of three first frame boxes as threshold. Second<br />
from methods counts number of changes of value of samples<br />
of signal from smaller on larger and onto retreat, in<br />
ELEKTRONIKA 11/<strong>2009</strong> 65
definite temporary partition. Use of this two methods permits<br />
onto proper emission of signal audio, and correct realizing remaining<br />
stages of system. Suitable connection of both methods<br />
permits onto correct delimitation of beginning and end of<br />
signal. After delimitation of beginning and end of polish word, to<br />
further operation signal is design without superfluous silence.<br />
The non-stationary nature of the speech signal caused by<br />
dynamic proprieties of human speech result in dependence<br />
of the next stage on use of division of entrance signal onto<br />
stationary frame boxes [5]. Signal is stationary in short temporary<br />
partitions (10 ± 30 ms) [7]. Every such stationary frame<br />
box was replaced by symbol of observation in process of create<br />
of vectors of observation. In created system it was assumed<br />
that length of every frame box equals 30 ms, what at<br />
given sampling of signal (8 kHz) remove 240 samples. For<br />
speech recognition, in aim of keeping stationary of signal, it<br />
was assumed that every next frame box is sew on previous<br />
with delay. It was accepted, that 80 last samples of signal of<br />
previous frame box are simultaneously 80 samples of next<br />
frame box. For speaker verification, in aim to keep all the detail<br />
signal, all frame boxes do not overlap.<br />
The mechanism of cepstral speech analysis<br />
Speech processing applications require specific representations<br />
of speech information. A wide range of possibilities exists<br />
for parametrically representing the speech signal. Among<br />
these the most important parametric representation of speech<br />
is short time spectral envelope [5,7]. Linear Predictive Coding<br />
(LPC) and Mel Frequency Cepstral Coefficients (MFCC)<br />
spectral analysis models have been used widely for speech<br />
recognition applications. Usually together with MFCC coefficients,<br />
first and second order derivatives are also used to take<br />
into account the dynamic evolution of the speech signal, which<br />
carries relevant information for speech recognition.<br />
In the mel-cepstrum, the spectrum were first passed<br />
through mel-frequency-bandpass-filters before they were<br />
transformed to the frequency domain [8]:<br />
The characteristics of filters followed the characteristics old<br />
human auditory system [8]. The filters had triangular bandpass<br />
frequency responses. For speech recognition, it was<br />
used filters with width 300 mels, and transferred with a delay<br />
150 mels. For speaker verification, it was used filters with<br />
width 200 mels, and transferred with a delay 100 mels, for<br />
a more detailed analysis of low frequency. The bands of filters<br />
were spaced linearly for bandwidth below 1000 Hz and increased<br />
logarithmically after the 1000 Hz. In the mel-frequency<br />
scaling, all the filter bands had the same width, which<br />
were equal to the intended characteristic of the filters, when<br />
they were in normal frequency scaling. Spectrum of signal of<br />
every frame boxes obtained by Fast Fourier Transform<br />
(FFT,512) comes under process of filtration by bank of filters.<br />
The next step was to calculate the members of each filter by<br />
multiplying the filter’s amplitude with the average power spectrum<br />
of the corresponding frequency of the voice input. The<br />
summation of all members of a filters is:<br />
(1)<br />
(2)<br />
Finally, the mel-frequency cepstrum coefficients (MFCC) was<br />
derived by taking the log of the mel-power-spectrum coefficients<br />
S k then convert them back to time (frequency) domain<br />
using Discrete Cosine Transform (DCT). The number of melcoefficients<br />
K used, for speaker recognition purposes, was<br />
usually from 12 to 20 [8]:<br />
In practice, removing this one from the formula gave<br />
a better performance, both for speech recognition, and verification<br />
of user.<br />
In this work, for speech cooding, it was used twenty dimensional<br />
MFCC as the standard audio features. For speech<br />
recognition, aim of analysis of signal audio was coding of signal<br />
audio, and obtaining of entrance data in form of vectors of<br />
observation. Polish language contains 37 different phonems,<br />
therefore to coding of signal audio it was applied codebook<br />
including 37 code symbols. At frequency of sampling 8 kHz,<br />
instead of 8000 values, signal audio will be coded by about<br />
50 values. It was applied Lloyd algorithm to vector quantization.<br />
One from basic operation during vector quantization is<br />
delimitation of distance of next vector of observation from all<br />
center of gravity of codebook. To measurement of distance it<br />
was applied Euclidean measure. For speaker verification, obtained<br />
for all frame boxes cepstrum coefficients add upped<br />
properly. In this expedient all independent statement one<br />
coded by twenty cepstral coefficients.<br />
Vector quantization with use Lloyd<br />
algorithm<br />
In use of loss-free compression, generated data by source<br />
have to be represented by one from small number of code<br />
words. Number of possible different data is generally larger<br />
from number of code word, design to them of representing.<br />
Process of representing of large collection of value by collection<br />
considerably smaller is called quantization [9]. A vector<br />
quantizer Q of dimension M and size N is a mapping from<br />
a vector x in M-dimensional Euclidean space R M into a finite<br />
set Y containing NM-dimensional outputs or reproduction<br />
points, called code vectors or code words. Thus:<br />
where:<br />
Y is known as the codebook of the quantizer. The mapping<br />
action is written as:<br />
(3)<br />
(4)<br />
(5)<br />
(6)<br />
66 ELEKTRONIKA 11/<strong>2009</strong>
Associated with every N-point M-dimensional vector quantizer<br />
is a partition of R M into N regions or cells, R i , i =1,...,N. The<br />
i-th cell is defined by:<br />
For a given codebook Y of size N, the optimal partition cells<br />
satisfy:<br />
where i, j =1,...,N and i = j. That is, Q(x) = y i only if d(x,y i ) ≤<br />
d(x,y j ). Thus given the codebook Y, the encoder contains<br />
a minimum distortion or nearest-neighbor mapping with:<br />
For making of measurement of distance, it is necessary qualification<br />
of center of gravity of area, considered as similar. It<br />
was defined the centroid cent(R o ), of any nonempty set<br />
R o ∈ R M as the vector y o (if it exists) that minimizes the distortion<br />
between a point X ∈ R o and y o , averaged over the<br />
probability distribution of X given X ∈ R o . Thus:<br />
for every y ∈ R M . For a given partition {R i ; i =1,...,N}, the optimal<br />
code vectors satisfy:<br />
(7)<br />
(8)<br />
(9)<br />
(10)<br />
Practical results<br />
In this work, it was proposed use speech recognition method<br />
to control the movement of the camera of closed-circuit television<br />
system, and use user verification method to log on to<br />
this system. Scheme of this system was showed on Figures.<br />
In system, during the registering, user must enter his<br />
unique login and read the three long randomly generated expressions.<br />
When registered in the system user logs on, also<br />
must enter his registered login and read one long randomly<br />
generated expression. If this statement is similar to at least<br />
two speeches given by the user login with highest probability,<br />
the system accepts the login into the system correctly. After<br />
adding a new user, the system makes code book, based on<br />
the recorded speech. Next, user must learn in the selected<br />
commands to control camera movement. It was selected the<br />
following commands to control: left, right, top, bottom, zoom,<br />
plus, minus, start, stop, recording, and the numerical values of<br />
the angle of rotation. Each of the commands, during the learning<br />
system, user must repeat five times. For the registered<br />
user, system controls the movement of the camera, using the<br />
database commands created by this user.<br />
Samples were taken at frequency of 8 kHz and 16-bit encoding.<br />
The system includes thirty five different posts, which<br />
are randomly selected during registration or login. In aim to<br />
eliminate harmful interference, the recording of expression is<br />
effected by means of a microphone, equipped with the filter<br />
code and the external processor DSP. For registered users,<br />
the system correctly recognizes all the commands to control<br />
the camera movement.<br />
Area including similar elements, except center of gravity it has<br />
to possess also boundary. Given the partition cells R i , i =<br />
1,...,N, the boundary set is defined as:<br />
for all i, j =1,...,N. Thus, the boundary consists of points that<br />
are equally close to both y j and to some other y i and hence do<br />
not have a unique nearest neighbor. A necessary condition for<br />
a codebook to be optimal for a given source distribution is:<br />
That is, the boundary set must be empty. Alter natively:<br />
(11)<br />
(12)<br />
(13)<br />
(14)<br />
for all i, j = 1,...,N.<br />
Suppose that the boundary set is non empty and hence<br />
there is at least one x that is equidistant to the code vectors y i<br />
and y j . Mapping x to y i or y j will yield two encoding schemes<br />
with the same average distortion. By including the nonzero<br />
probability input point x into either cell (R i and R j associated<br />
with y i and y j , respectively) will necessarily modify the centroids<br />
of R i and R j , meaning that the codebook is no longer optimal<br />
for the new partition. Given a codebook Y of size N, it is desired<br />
to find the input partition cells R i and codewords such that the<br />
average distortion D = E {d(X,Q(X))} is minimized, where X is<br />
the input random vector with a given PDF (Probability Density<br />
Function). All method of vector quantization with use Lloyd algorithm<br />
it was described on base work [4].<br />
Scheme of closed-circuit television system with speech recognition<br />
and and speaker verification<br />
Schemat systemu telewizji przemysłowej z systemem rozpoznawania<br />
mowy i głosowej weryfikacji użytkownika<br />
Conclusion and future work<br />
Now that speech signals are recorded with a frequency of<br />
8000 Hz, the next step in the development of this system will<br />
be able to log into the system and traffic control cameras by<br />
the Internet. Encoded as the recorded sound, and send over<br />
the network should not be a problem. Next, the system will be<br />
equipped with a module to automatically locate the face, eyes<br />
and mouth of person, contained in the frame of the camera.<br />
The given data will be used to verify the identity of persons<br />
on the basis of facial asymmetry.<br />
ELEKTRONIKA 11/<strong>2009</strong> 67
References<br />
[1] Kubanek M.: Analysis of Signal of Audio Speech i Process of<br />
Speech Recognition. Computing, Multimedia and Intelligent<br />
Techniques, 2, pp. 5564, 2006.<br />
[2] Kubanek M.: Method of Speech Recognition and Speaker<br />
Identification with use Audio-Visual Polish Speech and Hidden<br />
Markov Models. Biometrics, Computer Security Systems and<br />
Artificial Intelligence Applications, Saeed, K., Pejas, J., Mosdorof,<br />
R., Springer Science + Business Media, New York, pp.<br />
45-55, 2006.<br />
[3] Aydin Y., Nakajama H.: Realistic articulated character positioning<br />
and balance control in interactive environments. Proceedings<br />
Computer Animation, pp. 160-168, 1999.<br />
[4] Chu Wai C.: Speech coding algorithms. Foundation and Evolution<br />
of Standardized Coders. A John Wiley & Sons, New Jersey 2000.<br />
[5] Rabiner L., Yuang B. H.: Fundamentals of Speech Recognition.<br />
Prentice Hall Signal Processing Series, 1993.<br />
[6] Wisniewski A. M.: Hidden Markov Models in Speech Recognition.<br />
Bulletin IAiR WAT, 7, Wroclaw 1997 [In Polish].<br />
[7] Kanyak M. N. N., Zhi Q., Cheok A., D., Sengupta K., Chung K.<br />
C.: Audio-Visual Modeling for Bimodal Speech Recognition.<br />
Proc. Symp. Time Series Analysis, 2001.<br />
[8] Wahab A., See Ng G., Dickiyanto R.: Speaker Verification System<br />
Based on Human Auditory and Fuzzy Neural Network System.<br />
Neurocomputing Manuscript Draft, Singapore.<br />
[9] Sayood K.: Data compression - introduction. Publisher RM. Warsaw,<br />
2002 [In Polish].<br />
SMS-B project of educational platform for e-business<br />
(Projekt systemu SMS-B jako platformy edukacyjnej dla e-biznesu)<br />
dr inż. PIOTR JAŁOWIECKI 1,2 , dr inż. TOMASZ WOŹNIAKOWSKI 1 ,<br />
dr hab. ARKADIUSZ ORŁOWSKI 1,3 prof. SGGW<br />
1 Warsaw University of Life Sciences<br />
2 The College of Finance and Management in Siedlce<br />
3 Institute of Physics - Polish Academy of Sciences<br />
Nowadays companies and enterprises collects and stores<br />
huge amounts of data. However according to different evaluations<br />
until recently only not much over 7% of these informations<br />
were using in business strategic decisions making<br />
processes [1,6]. Change of this situation became possible with<br />
popularizing the Business Intelligence (BI) technologies.<br />
Originally the BI applications were understood only as<br />
a specialized systems of the information management. Currently,<br />
BI systems still are being used in their primal role to deliver<br />
information for management support processes but more<br />
often these systems constitutes wide connecting of applications<br />
and technologies used for collecting, aggregation, selection,<br />
analysis and suitable presentation of the business information<br />
derived from different internal and external sources for the purposes<br />
of different business activities of the enterprise [2].<br />
BI systems are the way of the realization of computer/information<br />
integrated systems functioning in the scale of the entire<br />
institution. The reasons are great elasticity and high possibilities<br />
of the company functions optimization of these systems in<br />
many aspects on many organizational levels. BI systems more<br />
and more often make their stores available outside going beyond<br />
organizational structures of companies [8,10].<br />
Characteristic feature of BI systems is using Data Warehouse<br />
technology with advanced mechanisms of automatic<br />
data loading from source databases, data integration and<br />
transfer to central base, On-Line Analytical Processing<br />
(OLAP) multidimensional data analysis tools, and Data Mining<br />
exploration techniques [5].<br />
Objectives<br />
The lack of abilities to obtain practical skills of designing and<br />
using integrated computer information systems in real operating<br />
environment is a stipulation often put forward in relation<br />
to programs of some higher education faculties like a Informatics,<br />
Informatics and Econometrics, Economics, Finances<br />
and Management. The main reason is a lack of appropriate<br />
educational platforms enabling to conduct exercises in form<br />
similar enough to real tasks in job.<br />
The main objective of this paper is a presentation of the<br />
Simulation and Modeling System for Business (SMS-B) conception<br />
as the proposal of the educational platform offering to<br />
the possibilities real integrated information systems. The SMS-<br />
B System is copying architecture and the specificity of the real,<br />
information operating environment of the company/institution<br />
functioning based on generated data simulating real data in the<br />
amount, which is enough to conduct the teaching processes.<br />
In the paper possibilities offered by the SMS-B system are<br />
presented in obtaining of specialized knowledge and professional<br />
skills necessary for different user categories of real computer<br />
information systems: computer team, business users,<br />
business analysts, information consumers. The SMS-B system<br />
can be also successfully used as a computer tool for informatics,<br />
statistics, econometrics and management courses,<br />
especially practical exercises.<br />
In the paper an assessment of courses and teaching hours<br />
number proposed to use of SMS-B in educational platform<br />
character on real faculties in Warsaw University of Life Sciences<br />
in 2008/<strong>2009</strong> academic year is also presented.<br />
System architecture and functionality<br />
The architecture of SMS-B system is characteristic for a structure<br />
of integrated computer information systems functioning<br />
in commercial banks. The final architecture is presented in<br />
Figure. The system was planned to build and introduce in<br />
three main phases. In the first phase a foundation version<br />
signed in Fig. by solid line is building. In the second phase the<br />
68 ELEKTRONIKA 11/<strong>2009</strong>
The SMS-B system architecture (Source: Own preparation)<br />
system is supplemented by additional modules signed in Fig.<br />
by dotted line. In the third phase the most important modules<br />
of the system are decentralized between separated machines<br />
due to current needs and financial possibilities. There are<br />
metadata, Extraction Transformation Loading (ETL), OLAP<br />
analysis and report distribution servers.<br />
Data loaded into real BI systems comes from many different<br />
external sources, primarily from transactional systems. According<br />
to procedural, legal, but first technical, circumstances<br />
there are no possibilities of using real data by SMS-B system.<br />
Therefore data for the purposes of the system is being generated<br />
randomly according to scripts and structures designed<br />
on the basis of real data structures.<br />
The range of data includes such areas as: attributes of customers<br />
in the form of financial reports, involvement to different<br />
products, account balances, security details, debt collections<br />
and the sets of market data. Generated data are loaded to data<br />
warehouse, which apart from central data base is equipped<br />
with data compatibility control, data supplement, data aggregation<br />
and limited support of data management mechanisms.<br />
Data from data warehouse are processed by ETL server<br />
according to scenarios, which enables to gain data extracts<br />
necessary for analytical processes. Generated data extracts<br />
are saved and stored in common layer divided to repositories<br />
used by different system modules. Its structures are optimized<br />
for specific analysis categories.<br />
A management of ETL processes, data extracts and data<br />
circulation in SMS-B system are supported and optimized by<br />
metadata server, which is introduced to system structure in<br />
the second phase of realization.<br />
The analytical server consists of applications which implements<br />
selected methods of statistical data analysis, data<br />
mining, multidimensional data analysis and forecasting models.<br />
Standard analytical methods are implemented with using<br />
the analytical software to build the basic functionality of analytical<br />
server. Advanced analytical methods dedicated to concrete<br />
analytical models are implemented during introduction of<br />
SMS-B areas of functionality and new analytical methodologies<br />
introduced in real financial institutions. In the third phase<br />
of system implementation part of analytical server responsible<br />
for multidimensional analysis and results presentation is<br />
moved to the separate, dedicated OLAP server.<br />
The Report Distribution Server is dedicated for management<br />
of analysis results in the form of Enterprise Information<br />
Portal (EIP), which enables a hierarchical distribution of reports<br />
for different system user groups. In the first phase the<br />
Enterprise Integration Platform (EIIP) is implemented, which is<br />
dedicated to integration of data destined to present as a enduser<br />
information. In the second phase main EIP module is introduced<br />
and integrated with additional parts of the SMS-B<br />
system: administration and end-user stations. In the third<br />
phase EIP/EIIP module is upgraded and supplemented by<br />
new techniques of business report presentations, for example<br />
management dashboards. The conception of introduction<br />
of EIP/EIIP platform as a part of SMS-B system is described<br />
in other paper [4].<br />
Because the SMS-B system simulates information environment<br />
of commercial bank, system introduction process<br />
was preceded by analysis of software and solutions market<br />
dedicated to information systems in polish banks. In analysis<br />
in wide range case studies of Gartner Group prepared with<br />
using of Magic Quadrants methodology were used [3,7,9].<br />
System objectives<br />
Main objective of SMS-B system is a simulation of information<br />
environment in commercial bank by reconstruction of its<br />
components and preparation of data structures generated on<br />
the base of real structures. Integrated information environment<br />
is used to provide didactic pathways and single subjects<br />
dedicated to areas of interesting specific for different categories<br />
of real integrated information systems users.<br />
The first category are Information and Communication<br />
Technologies (ICT) service users, which consists of:<br />
• ICT Administrators, which administrate and manage of user<br />
accounts hierarchy, software and report distribution;<br />
• Data Modelers, which manage of business views, create<br />
physically data schemes, program in programming languages,<br />
e.g. SQL;<br />
• Report Administrators, which project of report schemes,<br />
create reports, control and monitor of queries;<br />
• Application Developers, which create Web and system applications.<br />
The second category are Business Users, which consists of:<br />
• Business Analysts, which typically objectives are: advanced<br />
worksheet using, e.g. Excel, ad-hoc queries, OLAP<br />
analysis, report publication, business processes projecting;<br />
• Power Users, which typically objectives are: some programming<br />
objectives, advanced worksheets using, ad-hoc<br />
queries, specialized reports preparation, data modeling<br />
and analysis, management of business activity areas.<br />
The third category are Information Consumers, which consists<br />
of:<br />
• C-Level Executives, which project business strategies,<br />
control and monitor business processes;<br />
• Middle Management, which interpret of business indicators<br />
and parameters;<br />
• Operational Consumers, which typically objectives are connected<br />
with sales, marketing, service, financial activity,<br />
technical support.<br />
Apart from subjects dedicated to practically using of SMS-<br />
B system for concrete real user group needs, a different parts<br />
of system can be effectively used to providing of subjects,<br />
ELEKTRONIKA 11/<strong>2009</strong> 69
which are realized in traditional way, e.g. databases, computer<br />
networks, operational systems, statistics, econometrics,<br />
management.<br />
System perspectives in WULS<br />
Before SMS-B system introduction, an analysis of possibility<br />
of system using to different subjects on different faculties of<br />
Warsaw University of Life Sciences (WULS) was provided.<br />
The subjects were divided to three categories:<br />
• A Category contains subjects dedicated to SMS-B using;<br />
• B Category contains subjects, which may be supported by<br />
SMS-B using;<br />
• C Category contains facultative subjects, which may be an<br />
additional significant area of SMS-B using.<br />
Because the conception for SMS-B system was dedicated<br />
to economic and computer faculties in the table possibilities of<br />
system using to provide of three categories of subjects are<br />
presented for six faculties on Faculty of Economic Sciences<br />
and on Faculty of Applied Informatics and Mathematics according<br />
to study programs for 2007/08 academic year.<br />
Possibilities of SMS-B using to provide subjects in six economic<br />
and computer faculties for all year groups in one academic year in<br />
WULS<br />
Faculty A Category B Category C Category<br />
hours<br />
Source: Own preparation<br />
% of all<br />
hours on<br />
faculty<br />
hours<br />
% of all<br />
hours on<br />
faculty<br />
hours<br />
% of all<br />
hours on<br />
faculty<br />
Economics 135 1,7% 1140 9.9% 2600 33.1%<br />
Finances and<br />
Accounting<br />
495 5.9% 1005 8.1% 2600 32.3%<br />
Informatics 135 3.9% 480 14.8% 1410 36.8%<br />
Informatics<br />
and Econometrics<br />
930 10.9% 1590 15.7% 810 14.3%<br />
Logistics 270 5.3% 540 10.5% 2000 52.6%<br />
Management 360 4.5% 1050 13.0% 1800 19.0%<br />
TOTAL: 2325 - 5805 - 11220 -<br />
In calculations some assumptions were accepted. On economic<br />
faculties (Economy, Finances and Accounting, Logistics,<br />
Management) there are 8 exercises groups in first level<br />
studies and 4 exercises groups in second level studies. On<br />
computer faculties (Informatics, Informatic and Econometrics)<br />
there are 4 exercises groups in both study levels.<br />
Summary<br />
The keynote of projecting and introduction of SMS-B system<br />
was an absorption of modern ICT technologies to preparation<br />
of Business Intelligence educational platform. Rapid evolution<br />
of integrated information systems and data warehouses,<br />
which are a fundament of modern solutions used in commercial<br />
institutions is a reason to project SMS-B system in open<br />
architecture, which is vulnerable for new technologies and<br />
new areas of functionality introductions.<br />
This system offers a wide range of possibilities of professional<br />
teaching in form maximally close to real work environment.<br />
Moreover there, system can be interesting as a alternative<br />
to traditional ways of teaching subjects in Informatics,<br />
Statistics, Econometrics, Finances and Management domains.<br />
Presented in the paper assessments of didactic hours<br />
in study programs in WULS indicate to potentially high possibilities<br />
of SMS-B using in educational pathways.<br />
However, main objective of system is beeing the solution,<br />
which enables to project and introduce educational pathways<br />
dedicated to teaching of professional ICT and analysis specialists<br />
for modern electronic commerce. One of the most important<br />
assumption is that these dedicated pathways will be audited<br />
by main providers of ICT solutions for commercial institutions.<br />
References<br />
[1] Burke M.E.: The Phenomenal Power of Business Intelligence:<br />
Managerial Skills for the 21st Century. Europa Publications Limited,<br />
Taylor & Francis Group, 2nd rev. edition, London, 2003.<br />
[2] Dudycz H., Sierocki R.: Miejsce zaawansowanych systemów informacyjno-analitycznych<br />
w rozwoju systemów informacyjnych<br />
przedsiębiorstw. In: E. Niedzielska, H. Dudycz, M. Dyczkowski<br />
[Ed.] Nowoczesne technologie informacyjne w zarządzaniu. Prace<br />
Naukowe AE we Wrocławiu, 986, Wrocław, 2003 [in Polish].<br />
[3] Feinberg D., Beyer M. A.: Magic Quadrant for Data Warehouse<br />
Database Management Systems. Gartner RAS Core Research<br />
Note, G00151490, Stamford, USA, 2007.<br />
[4] Jałowiecki P., Woźniakowski T., Jałowiecka E.: The Conception<br />
of Enterprise Information Portal as a Part of SMS-B Business Intelligence<br />
Education Platform. In: W. Karwowski, A. Jakubiec, A.<br />
Orłowski (red.): Information Systems in Management. WULS<br />
Press, Warsaw, <strong>2009</strong> (in printing).<br />
[5] Januszewski A.: Funkcjonalność informatycznych systemów<br />
zarządzania, t.2: Business Intelligence. PWN, Warszawa, 2008.<br />
[6] Liautaud B., Hammond M.: E-Business Intelligence. Turning Information<br />
into Knowledge into. Profit, McGraw-Hill, New York 2002.<br />
[7] Light M., Stang D.B.: Magic Quadrant for IT Project and Portfolio<br />
Management. Gartner RAS Core Research Note,<br />
G00149028, Stamford, USA, 2007.<br />
[8] Moss L. T., Atre S.: Business Intelligence Roadmap: The Complete<br />
Project Lifecycle for Decision-Support Applications. Addison-Wesley<br />
Professional, 1st edition, San Francisco, USA, 2003.<br />
[9] Richardson J., Schlegel K., Hostmann B., McMurphy N.: Magic<br />
Quadrant for Business Intelligence Platforms. Gartner RAS Core<br />
Research Note, G00154227, Stamford, USA, 2008.<br />
[10] Williams S., Williams N.: The Profit Impact of Business Intelligence.<br />
Morgan Kaufmann Publishers Inc., 1st edition, San<br />
Fracisco, USA, 2006.<br />
70 ELEKTRONIKA 11/<strong>2009</strong>
Technika próżni i technologie próżniowe<br />
Biuletyn Polskiego Towarzystwa Próżniowego 1 (48) <strong>2009</strong><br />
pod redakcją dr hab. inż. Ryszarda Korbutowicza<br />
e-mail: Ryszard.Korbutowicz@pwr.wroc.pl<br />
http://www.ptp.pwr.wroc.pl<br />
Biuletyn dofinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego<br />
XVII Walne Zebranie Członków Polskiego Towarzystwa Próżniowego<br />
zebranie sprawozdawczo-programowe<br />
Szklarska Poręba, 20.05.<strong>2009</strong> r.<br />
Podczas obrad XI Seminarium Powierzchnia i Struktury<br />
Cienkowarstwowe odbyło się 20.05.<strong>2009</strong> r. w Szklarskiej<br />
Porębie zwołane przez Zarząd Główny Polskiego<br />
Towarzystwa Próżniowego na podstawie uchwały<br />
Zarządu PTP nr 3/<strong>2009</strong>:<br />
Uchwała Zarządu PTP nr 3/<strong>2009</strong><br />
Na podstawie §25 p. 4 statutu PTP Zarząd zwołuje<br />
Walne Zebranie Sprawozdawczo - Programowe<br />
Członków Towarzystwa w Szklarskiej Porębie, w Ośrodku<br />
Konferencyjno-Szkoleniowym „Radość” Politechniki<br />
Wrocławskiej ul. Muzealna 5, 20 maja <strong>2009</strong> r. -<br />
w trakcie XI Seminarium „Powierzchnia i Struktury Cienkowarstwowe”<br />
na godz. 19 45 w I terminie,<br />
na godz. 20 00 w II terminie<br />
z następującym porządkiem obrad:<br />
1. otwarcie zebrania,<br />
2. wybory Sekretarza Walnego Zebrania,<br />
3. przyjęcie porządku obrad,<br />
4. wybór Komisji Wnioskowej,<br />
5. sprawozdanie Zarządu z działalności za 2008 r.<br />
i program działania na <strong>2009</strong> r.,<br />
6. sprawozdanie finansowe za 2008 r.,<br />
7. plan finansowy na <strong>2009</strong> r.,<br />
8. opinia Komisji Rewizyjnej w sprawie działalności<br />
PTP i sprawozdania finansowego za 2008 r.,<br />
9. dyskusja,<br />
10. podjęcie uchwał w sprawie sprawozdania z działalności<br />
PTP i sprawozdania finansowego za 2008 r.<br />
oraz planu działalności i planu finansowego PTP<br />
na <strong>2009</strong> r.,<br />
11. wolne wnioski,<br />
12. sprawozdanie Komisji Wnioskowej,<br />
13. zakończenie Walnego Zebrania.<br />
Zarząd zobowiązuje Sekretarza Organizacyjnego<br />
PTP do zawiadomienia wszystkich Członków Towarzystwa<br />
o terminie, miejscu i porządku Walnego<br />
Zebrania.<br />
Warszawa, 30 stycznia <strong>2009</strong> r.<br />
za Zarząd<br />
dr inż. Katarzyna Olszewska<br />
Sekretarz Organizacyjny Polskiego<br />
Towarzystwa Próżniowego<br />
Miejsce zebrania:<br />
Szklarska Poręba Średnia, ul. Muzealna 5 (Ośrodek<br />
Konferencyjno-Szkoleniowy „Radość” Politechniki<br />
Wrocławskiej).<br />
Termin I:<br />
godz. 19 45 - zebranie nie odbyło się z powodu braku<br />
kworum.<br />
Aktualna liczba członków zwyczajnych PTP:<br />
137 osób - obecnych 16.<br />
Aktualna liczba członków wspierających PTP:<br />
12 - obecnych 5.<br />
Zgodnie z §20 p. 1 Statutu zebranie rozpoczęło się<br />
w terminie II o godz. 20 00 przy obecnych 16 członkach<br />
zwyczajnych i 5 członkach wspierających i miał przebieg<br />
zgodny z Porządkiem Obrad stanowiącym<br />
Załącznik 2 do niniejszego Protokołu.<br />
ELEKTRONIKA 11/<strong>2009</strong> 71
Przebieg zebrania<br />
Ze względu na nieobecność przewodniczącego PTP<br />
prof. Stanisława Hałasa, Walne Zebranie otworzył<br />
przewodniczący elekt prof. Jacek Szuber witając<br />
zebranych, a następnie poprosił o poprowadzenie<br />
Zebrania zastępcę przewodniczącego prof. Marka Szymońskiego.<br />
Przewodniczący Zebrania zaproponował,<br />
aby dr inż. Katarzyna Olszewska została sekretarzem<br />
Walnego Zebrania. Obecni na posiedzeniu w jawnym<br />
głosowaniu jednomyślnie wybrali dr inż. K. Olszewską<br />
na sekretarza Walnego Zebrania. Przewodniczący Zebrania<br />
poddał następnie pod głosowanie przyjęcie zaproponowanego<br />
Porządku Obrad (patrz Załącznik 2)<br />
rozszerzonego o punkt 10a „nadanie godności Honorowego<br />
Członka PTP”. Walne Zebranie jednogłośnie<br />
w głosowaniu jawnym przyjęło zaproponowany<br />
Porządek Obrad. Walne Zebranie również w jawnym<br />
głosowaniu wybrało jednomyślnie Komisję Wnioskową<br />
Zebrania w składzie: dr Janusz Budzioch oraz<br />
dr inż. Beata Ściana.<br />
Przewodniczący elekt PTP prof. J. Szuber przedstawił<br />
Sprawozdanie Zarządu PTP z działalności<br />
w okresie od 22.09.2008 r. do 20.05.<strong>2009</strong> r.<br />
Sprawozdanie Zarządu Polskiego<br />
Towarzystwa Próżniowego z działalności<br />
w okresie od 22 września 2008 r.<br />
do 20 maja <strong>2009</strong> r. w kadencji 2007-2010<br />
W okresie sprawozdawczym Zarząd PTP pracował<br />
w składzie wybranym na Walnym Zebraniu Sprawozdawczo-Wyborczym<br />
we Wrocławiu w dniu 26 kwietnia<br />
2007 r.:<br />
Przewodniczący - od 22 września 2008 - prof. Stanisław<br />
HAŁAS,<br />
Przewodniczący poprzedniej kadencji - prof. Marek<br />
SZYMONSKI,<br />
Przewodniczący Elekt - prof. Jacek SZUBER,<br />
Sekretarz Naukowy - dr hab. inż. Marek TŁACZAŁA,<br />
Sekretarz organizacyjny - dr inż. Katarzyna<br />
OLSZEWSKA,<br />
Skarbnik - dr Mirosław KOZŁOWSKI.<br />
Przewodniczący Sekcji:<br />
dr Ryszard MANIA z AGH - Sekcja Plazmowej<br />
Inżynierii Powierzchni - od 22 września.<br />
Sekcja ta ma honorowego przewodniczącego w osobie<br />
byłego przewodniczącego - prof. Witolda PRECHTA,<br />
dr hab. Zdzisław STĘPIEŃ - Sekcja Nauki o Powierzchni,<br />
prof. Elżbieta CZERWOSZ - Sekcja Techniki Próżni,<br />
dr hab. inż. Regina PASZKIEWICZ - Sekcja Cienkich<br />
Warstw.<br />
Członkowie Zarządu: dr Janusz BUDZIOCH, prof. Antoni<br />
CISZEWSKI, dr inż. Ryszard KORBUTOWICZ,<br />
dr hab. Leszek MARKOWSKI.<br />
Zgodnie z planem pracy przyjętym dla całej kadencji<br />
2007-2010 w okresie sprawozdawczym prace<br />
Zarządu PTP koncentrowały się na następujących<br />
zagadnieniach:<br />
1. działalności naukowej,<br />
2. działalności szkoleniowej,<br />
3. działalności wydawniczej (biuletyn, witryna internetowa<br />
PTP: http://www.ptp.pwr.wroc.pl,<br />
oraz wydawanie materiałów szkoleniowych i edukacyjnych),<br />
4. współpracy z zagranicznymi organizacjami próżniowymi<br />
oraz IUVSTA,<br />
5. sprawach organizacyjno-członkowskich.<br />
Materiały źródłowe:<br />
1. Plan działania PTP na lata 2007-2010<br />
2. Protokoły z Zebrań Zarządu PTP:<br />
• Protokół 3/2008 z posiedzenia Zarządu PTP w Janowie<br />
Lubelskim dniu 22.09.2008 r.<br />
• Protokół Komisji Wnioskowej z Walnego Zebrania<br />
Polskiego Towarzystwa Próżniowego w Janowie<br />
Lubelskim w dniu 22.09.2008 r.<br />
• Protokół 12/2008 z posiedzenia Zarządu PTP<br />
w Warszawie w dniu 30.01.<strong>2009</strong> r.<br />
• Uchwała Zarządu PTP nr 3/<strong>2009</strong><br />
3. Biuletyn PTP opublikowany w nr 1/<strong>2009</strong> Elektroniki<br />
wraz z materiałami z IV Kongresu PTP oraz VII Krajowej<br />
Konferencji Techniki Próżni<br />
4. Witryna internetowa: www.ptp.pwr.wroc.pl<br />
I. Działalność naukowa<br />
Konkurs im. J. Groszkowskiego<br />
Odpowiedzialnym za organizację konkursu jest<br />
prof. Tłaczała, który w tej sprawie podjął energiczne<br />
działania. W związku z przedłużeniem terminu konkursu<br />
za rok 2008 (do 15 marca <strong>2009</strong> r.) komisja<br />
konkursowa zakończyła ostatnie posiedzenie w dniu<br />
13 maja <strong>2009</strong> r. i po zapoznaniu się z dokumentami<br />
oraz opinią powołanego recenzenta ogłosiła swój<br />
werdykt w sprawie wyników kolejnej edycji konkursu<br />
im. J. Groszkowskiego:<br />
1. W dziedzinie prac dyplomowych zgłoszona została<br />
jedna praca dyplomowa magisterska zatytułowana<br />
„Badanie wpływu surfaktantów na wzrost cienkich<br />
warstw w układzie cienkowarstwowym”, której autorem<br />
jest mgr inż. Michał Krupiński z Wydział Fizyki<br />
i Informatyki Stosowanej AGH Kraków.<br />
Komisja konkursowa postanowiła wyróżnić zgłoszoną<br />
pracę I nagrodą za pracę magisterską za rok<br />
2008/<strong>2009</strong> i przyznać nagrodę finansową w wysokości<br />
regulaminowej.<br />
2. W dziedzinie prac doktorskich za rok 2008 nie<br />
została zgłoszona żadna praca. W tym przypadku<br />
komisja nie miała możliwości rozpatrzenia żadnego<br />
72 ELEKTRONIKA 11/<strong>2009</strong>
wniosku i w konsekwencji za rok 2008 nie można<br />
było przyznać nagrody im. J. Groszkowskiego za<br />
najlepszą pracę doktorską.<br />
Konferencje organizowane pod patronatem PTP<br />
Organizacja konferencji naukowych stanowi jedną<br />
z najważniejszych merytorycznie form działania PTP<br />
z powodzeniem realizowaną przez poszczególne<br />
sekcje tematyczne Towarzystwa. W okresie sprawozdawczym<br />
zorganizowano pod patronatem PTP dwie<br />
konferencje krajowe oraz trzy warsztaty naukowe<br />
o zasięgu międzynarodowym. Aktualnie prowadzone<br />
są już prace nad przygotowaniem najbliższych konferencji<br />
naukowych organizowanych przez lub pod auspicjami<br />
PTP.<br />
Rok 2008<br />
* VI International Workshop on Semiconductor Gas<br />
Sensors - SGS2008, Zakopane, 14-19 września<br />
2008 r., której organizatorzy to: Sekcja Nauki o Powierzchni<br />
i Sekcja Cienkich Warstw PTP oraz Europejskie<br />
Centrum Doskonałości CESIS i Krajowe<br />
Centrum Doskonałości NANOMET przy Zakładzie<br />
Technologii Elektronowej Politechniki Śląskiej w Gliwicach.<br />
Warsztaty otrzymały dofinansowanie z Ministerstwa<br />
Nauki i Szkolnictwa Wyższego z wniosku PTP. Dyrektorem<br />
Konferencji był prof. Jacek Szuber z Politechniki<br />
Śląskiej w Gliwicach. W warsztatach SGS 2008 wzięło<br />
udział 53 uczestników, w tym 40 z zagranicy. Materiały<br />
pokonferencyjne zaakceptowane do druku ukazały się<br />
w czasopiśmie Thin Solid Films (Wydawnictwo Elsevier)<br />
w sierpniu <strong>2009</strong> roku.<br />
Szczegółowe informacje o Warsztatach można znaleźć<br />
na stronie internetowej:<br />
http://www.zte.polsl.pl/sgp2008/sgs2008.html<br />
* IV Kongres PTP i VIII Krajowa Konferencja Techniki<br />
Próżni, Janów Lubelski, 21-24 września 2008 r., którą<br />
zorganizowali: Sekcja Techniki Próżni PTP, <strong>Instytut</strong><br />
Tele- i Radiotechniczny w Warszawie, <strong>Instytut</strong> Fizyki<br />
UMCS w Lublinie. Uzyskano dofinansowanie z Ministerstwa<br />
Nauki i Szkolnictwa Wyższego z wniosku PTP.<br />
Dyrektorem Konferencji była prof. Elżbieta Czerwosz<br />
z <strong>Instytut</strong>u Tele- i Radiotechnicznego w Warszawie.<br />
Podczas konferencji wygłoszono referaty plenarne<br />
i komunikaty. Odbyły się także prezentacje na sesji<br />
producentów. Materiały pokonferencyjne ukazały się<br />
w czasopiśmie <strong>Elektronika</strong> nr 12/2008.<br />
* IV Workshop on Hybrid Nanostructured Materials, Advanced<br />
Nanomaterials, Their Preparation and Analysis,<br />
Wrocław, 24-27 październik 2008 r., którego organizatorami<br />
byli: Sekcja Cienkich Warstw PTP oraz Wydział<br />
Elektroniki Mikrosystemów i Fotoniki Politechniki<br />
Wrocławskiej.<br />
Rok <strong>2009</strong><br />
* XI Seminarium Powierzchnia i Struktury Cienkowarstwowe,<br />
Szklarska Poręba, 19-22 maja <strong>2009</strong> r. Seminarium<br />
odbyło się w Szklarskiej Porębie. Do udziału<br />
zgłosiło się ponad 80 osób. Zaplanowano: wygłoszenie<br />
6 referatów plenarnych i kilkanaście referatów sekcyjnych<br />
oraz dwie sesje plakatowe. Uzyskano<br />
dofinansowanie z Ministerstwa Nauki i Szkolnictwa<br />
Wyższego z wniosku PTP. Organizatorami seminarium<br />
są: Sekcja Nauki o Powierzchni i Sekcja Cienkich<br />
Warstw PTP, Wydział Elektroniki Mikrosystemów i Fotoniki<br />
Politechniki Wrocławskiej, Centrum Materiałów<br />
Zaawansowanych i Nanotechnologii Politechniki<br />
Wrocławskiej.<br />
Kolejne planowane imprezy naukowe w tym roku to:<br />
• III Krajowa Konferencja Nanotechnologii w Warszawie<br />
• IV Symposium on Vacuum Based Science and Technology<br />
• SEMICONDUCTOR SURFACE PASSIVATION 6th<br />
International Workshop.<br />
II. Działalność szkoleniowa<br />
Działalność szkoleniowa jest jednym z najważniejszych<br />
zadań statutowych Towarzystwa. Działalność ta jest<br />
ściśle związana z zadaniami statutowymi Towarzystwa<br />
jest niezwykle potrzebna i będzie kontynuowana zgodnie<br />
z wcześniejszymi ustaleniami, tj. kolejne cykle szkolenia<br />
będą odbywać się co 2 lata. Następny cykl szkoleń<br />
odbędzie się w okresie wiosennym 2010 r. Odpowiedzialny<br />
za organizację szkoleń jest członek Zarządu<br />
dr Janusz Budzioch.<br />
III. Działalność wydawnicza<br />
Działalność wydawnicza jest również jednym z najważniejszych<br />
zadań statutowych Towarzystwa. W ramach<br />
tej działalności w okresie sprawozdawczym<br />
ukazał się jeden Biuletyn PTP (numer podwójny<br />
46-47/2008) - wraz z numerem 12/2008 czasopisma<br />
<strong>Elektronika</strong>.<br />
Sprawnie działa witryna internetowa PTP<br />
http://www.ptp. pwr.wroc.pl i jest na bieżąco aktualizowana,<br />
nad którą pieczę sprawuje członek Zarządu<br />
PTP - dr hab. inż. Ryszard Korbutowicz. Witryna posiada<br />
linki aktualności, informacji, konferencji, konkursu<br />
im. Janusza Groszkowskiego, biuletynów PTP,<br />
a także ma rubrykę wspomnień. Znajdujemy w niej<br />
wspomnienie o doc. Januszu Sobańskim, jednym<br />
z założycieli Polskiego Towarzystwa Próżniowego,<br />
prof. Piotrze Szweminie oraz prof. Leszku Michalaku.<br />
Są tam także linki do stron internetowych organizacji<br />
i towarzystw próżniowych. Wśród ciekawostek znajdujemy<br />
zredagowany przez prof. Andrzeja Hałasa opis<br />
pierwszego eksperymentu próżniowego przeprowa-<br />
ELEKTRONIKA 11/<strong>2009</strong> 73
dzonego na dworze króla Władysława IV. Dzięki<br />
uprzejmości prof. J. Zdanowskiego zainteresowani<br />
znajdą również szeroki przegląd osiągnięć polskiej<br />
próżni w materiałach „Polska <strong>Elektronika</strong> Próżniowa<br />
Wczoraj i Dziś” wydanych przez Oficynę Wydawniczą<br />
Politechniki Wrocławskiej.<br />
Podsumowując tę część działalności Zarządu<br />
PTP należy podkreślić, że po wielu wysiłkach udało<br />
się pod auspicjami Towarzystwa zgromadzić po raz<br />
pierwszy oryginalne materiały edukacyjne i wydrukować<br />
publikacje szkoleniowe z tematyki próżni. Na<br />
końcowym etapie jest sprawa druku pozycji książkowej<br />
o tej tematyce. Zarząd pragnie gorąco podziękować<br />
prof. Tomaszowi Stobieckiemu za niezwykły<br />
wysiłek włożony w realizację działalności wydawniczej<br />
PTP.<br />
IV. Współpraca z zagranicznymi<br />
organizacjami próżniowymi i IUVSTA<br />
Współpraca z zagranicznymi towarzystwami<br />
próżniowymi<br />
W tym zakresie prowadzono rozmowy z Niemieckim<br />
Towarzystwem Próżniowym, Szwajcarskim Towarzystwem<br />
Próżniowym i Szwedzkim Towarzystwem<br />
Próżniowym na temat zorganizowania we wrześniu<br />
<strong>2009</strong> r. w Koszalinie kolejnej wspólnej konferencji<br />
naukowej pt.: Vacuum Based Science and Technology<br />
oraz wystawy sprzętu próżniowego. Była to kontynuacja<br />
wcześniejszych konferencji z tego cyklu<br />
zorganizowanych w Krakowie (2005) oraz w Darmstadt<br />
(2006).<br />
Współpraca z Międzynarodową Unią IUVSTA<br />
Polskie Towarzystwo Próżniowe współpracuje<br />
z IUVSTA. Wyrazem naszej pozycji w tej organizacji<br />
było zaproszenie Prezesa Polskiego Towarzystwa<br />
Próżniowego do objęcia funkcji Przewodniczącego<br />
Komitetu Reprezentantów Europejskich Towarzystw<br />
Próżniowych, będącego kolegium Prezesów tych<br />
Towarzystw lub ich Zastępców, którego zadaniem jest<br />
zaktywizowanie na płaszczyźnie europejskiej<br />
współpracy naukowej i edukacyjnej w zakresie nauki<br />
o próżni i dziedzinach wykorzystujących próżnię oraz<br />
technologii próżniowych. Istotnym materialnym wymiarem<br />
polskiego uczestnictwa w pracach tego gremium<br />
było uzyskanie aż trzykrotnie dofinansowania IUVSTA<br />
do imprez szkoleniowych i naukowych organizowanych<br />
wcześniej w Polsce pod patronatem PTP na łączną<br />
kwotę 17 tysięcy franków szwajcarskich. Jednocześnie<br />
w wyniku dotychczasowych prac Komitet pod przewodnictwem<br />
przedstawiciela Polski przedstawił swoje ustalenia<br />
Radzie Wykonawczej IUVSTA z rekomendacją,<br />
aby nie podejmować kroków w kierunku utworzenia<br />
nowych struktur organizacyjnych typu Europejskie<br />
Towarzystwo Próżniowe.<br />
W okresie bieżącej kadencji funkcję przedstawiciela<br />
Polski w IUVSTA pełni prof. Marek Szymoński, który<br />
jednak zwrócił się już wcześniej z prośbą o przejęcie<br />
tych obowiązków przez inną osobę z Towarzystwa.<br />
Sprawa ta jest do dyskusji na najbliższym Walnym<br />
Zebraniu PTP.<br />
V. Sprawy organizacyjno-członkowskie<br />
W okresie sprawozdawczym przyjęto 5 nowych<br />
członków indywidualnych PTP: mgr Joannę Rymarczyk<br />
z ITR, dr hab. inż. Elżbietę Godlewską<br />
i mgr inż. Rafała Zybałę z AGH, mgr inż. Wojciecha<br />
Macherzyńskiego z Politechniki Wrocławskiej,<br />
dr hab. Martę Wolny-Marszałek z <strong>Instytut</strong>u Fizyki<br />
Jądrowej PAN w Krakowie.<br />
Obecnie PTP ma 137 członków indywidualnych,<br />
w tym 2 honorowych i 12 członków wspierających.<br />
VI. Realizacja planu działalności Zarządu<br />
PTP na okres kadencji 2007-2010<br />
przyjętego na Walnym Zebraniu<br />
Sprawozdawczo-Wyborczym w dniu<br />
26 kwietnia 2007 r. we Wrocławiu<br />
Zgodnie z planem działalności Zarządu PTP Towarzystwo<br />
miało tak jak do tej pory realizować wszystkie cele<br />
sformułowane w statucie PTP. Szczególna aktywność<br />
Zarządu, poszczególnych Sekcji i Członków miała być<br />
skupiona na następujących celach:<br />
1. Zwiększeniu liczebności PTP przez zainteresowanie<br />
pracami Towarzystwa szczególnie tzw. młodych ludzi<br />
nauki i techniki związanych z szeroko rozumianą<br />
tematyką próżniową. Działania te powinny być prowadzone<br />
między innymi przez:<br />
• kontynuację organizowania konferencji naukowych,<br />
a także szkół i kursów dla użytkowników<br />
urządzeń próżniowych,<br />
• kontynuację aktywności Towarzystwa w relacjach<br />
z IUVSTA, a szczególnie pod kątem zdobywania<br />
środków IUVSTA na działalność szkoleniową,<br />
• szeroką promocję osiągnięć Towarzystwa, jak i poszczególnych<br />
członków,<br />
• lepszą i szerszą promocję nagród PTP. Działaniu<br />
temu powinna towarzyszyć praca nad doskonaleniem<br />
regulaminów nagród.<br />
2. Poprawie sytuacji finansowej Towarzystwa, która<br />
umożliwi jeszcze lepszą Jego promocję; pozwoli rozwinąć<br />
działalność popularyzatorską; zapewni płynność<br />
w przyznawaniu ustanowionych nagród. Działania te<br />
powinny być prowadzone między innymi przez:<br />
• poszukiwanie sponsorów nagród,<br />
• zwiększenie liczby członków.<br />
3. Rozwijaniu kontaktów i współpracy z zagranicznymi<br />
Towarzystwami Próżniowymi oraz krajowymi towarzystwami<br />
o zbliżonej tematyce działalności.<br />
74 ELEKTRONIKA 11/<strong>2009</strong>
Poniżej przedstawiono krótki komentarz do przyjętego<br />
planu działania ilustrujący zakres i stopień realizacji<br />
planowanych działań.<br />
1. Zwiększenie liczebności Towarzystwa<br />
PTP odnotowało wolny, ale stały wzrost liczby członków;<br />
przyjęto 5 nowych członków indywidualnych.<br />
Nastąpiła pewna konsolidacja działalności firm<br />
próżniowych w Polsce w korelacji z działalnością<br />
Towarzystwa. Udało się zaktywizować niektórych<br />
członków wspierających uczestniczących w imprezach<br />
organizowanych przez PTP (szkolenia i wystawy<br />
sprzętu próżniowego przy okazji konferencji organizowanych<br />
pod auspicjami PTP). Należy zwiększyć aktywność<br />
Towarzystwa w relacjach z IUVSTA,<br />
a szczególnie pod kątem zdobywania środków<br />
IUVSTA na działalność konferencyjną i szkoleniową.<br />
Tą sprawą trzeba się zająć w najbliższej przyszłości.<br />
Udało się natomiast przeprowadzić, mimo niespodziewanej<br />
śmierci prof. P. Szwemina - przewodniczącego<br />
Komisji Konkursowej - kolejną edycję<br />
Konkursu im. J. Groszkowskiego za rok 2007, o czym<br />
wspomniano w opisie działalności naukowej Towarzystwa.<br />
Wymagana jest jednak lepsza promocja tej,<br />
a także innych nagród PTP, połączona z doskonaleniem<br />
regulaminów tych nagród.<br />
2. Poprawa sytuacji finansowej Towarzystwa<br />
Zarządowi udało się nieco poprawić sytuację finansowej<br />
PTP, w tym poprzez poprawę ściągalności<br />
składek, zwiększenie liczby członków oraz poszukiwanie<br />
sponsorów nagród Towarzystwa. Sytuacja<br />
finansowa Towarzystwa jest stabilna i zapewnia pokrycie<br />
wszystkich planowanych wydatków, w tym nagród<br />
w Konkursie im. J. Groszkowskiego, za wyjątkiem<br />
nagrody naukowej PTP. Zarząd pozyskał zgodnie<br />
z planem środki z Ministerstwa Nauki i Szkolnictwa<br />
Wyższego na imprezy naukowe organizowane przez<br />
lub pod auspicjami PTP.<br />
3. Rozwijanie współpracy<br />
Ponadto, jak wspomniano przy opisie działalności naukowej,<br />
prowadzone są rozmowy z Niemieckim Towarzystwem<br />
Próżniowym na temat organizacji w <strong>2009</strong> r.<br />
w Koszalinie wspólnej cyklicznej konferencji naukowej<br />
p.t.: Vacuum Based Science and Technology oraz wystawy<br />
sprzętu próżniowego.<br />
Iberyjskie Towarzystwo próżniowe nawiązało kontakt<br />
z PTP w związku z organizacją konferencji w Salamance<br />
we wrześniu 2010 r. Do komitetu naukowego tej<br />
konferencji wszedł prof. Jacek Szuber, a do komitetu<br />
wystawienniczego - doc. Czesław Kiliszek.<br />
Lublin, 16 maja <strong>2009</strong> r.<br />
Przewodniczący Zarządu PTP<br />
Prof. Stanisław Hałas<br />
Następnie sekretarz organizacyjny PTP<br />
dr K. Olszewska przedstawiła w imieniu nieobecnego<br />
na Walnym Zebraniu skarbnika Sprawozdanie<br />
z realizacji budżetu za 2008 r. oraz Sprawozdanie<br />
finansowe za 2008 r. (treść sprawozdania stanowią<br />
zał. 2 i 3 do Uchwały nr 1.), następnie Plan finansowy<br />
na <strong>2009</strong> r. (treść wystąpienia stanowi zał. 1 do<br />
Uchwały nr 2).<br />
Członek Komisji Rewizyjnej prof. Marian Herman<br />
przedstawił Sprawozdanie Komisji Rewizyjnej z kontroli<br />
działalności statutowej i finansowej Zarządu PTP<br />
w okresie od 23.09.2008 do 20.05.<strong>2009</strong> r. Komentując<br />
przedstawione sprawozdania finansowe zauważył, że<br />
znając już wyniki Konkursu im. J. Groszkowskiego należałoby<br />
zaktualizować w preliminarzu kwotę przeznaczoną<br />
na nagrody w tym konkursie (3333 zł zamiast<br />
8000 zł). Zastanawiano się nad przyczyną małej liczby<br />
zgłaszanych prac na Konkurs im. Janusza Groszkowskiego.<br />
Proponowano między innymi podawanie<br />
w ogłoszeniu o konkursie wysokości nagród albo oferty<br />
pracy w firmie próżniowej dla laureata. Komisja Rewizyjna<br />
nie stwierdziła błędów i uchybień formalnych<br />
w gospodarce finansowej Towarzystwa i wnioskowała<br />
o: przyjęcie sprawozdania finansowego Polskiego<br />
Towarzystwa Próżniowego za okres 01.01 -<br />
31.12.2008 r., przyjęcie sprawozdania z Realizacji<br />
budżetu PTP za 2008 rok (Załącznik nr 2 do Uchwały<br />
Zarządu nr 1 z dnia 30.01.<strong>2009</strong> r.) oraz o pozytywne<br />
skwitowanie działalności finansowej Polskiego<br />
Towarzystwa Próżniowego w 2008 r., a także przyjęcie<br />
Preliminarza Polskiego Towarzystwa Próżniowego<br />
na <strong>2009</strong> rok, ze szczególnym zwróceniem uwagi na konieczność<br />
podjęcia działań w sprawie zwiększenia<br />
ściągalności składek członkowskich. Komisja Rewizyjna<br />
biorąc pod uwagę całokształt działalności Zarządu<br />
PTP stwierdza, że w tym bardzo trudnym okresie<br />
wielu zmian w funkcjach kierowniczych, wykazał on<br />
w swej pracy cechy celowości, rzetelności i gospodarności<br />
i w związku z tym przedstawia Walnemu<br />
Zebraniu wniosek o pozytywne skwitowanie<br />
całokształtu działalności Zarządu PTP w bieżącym<br />
okresie sprawozdawczym.<br />
Zebrani w głosowaniu jawnym podjęli jednogłośnie<br />
Uchwałę nr 1 wraz z załącznikami w sprawie sprawozdania<br />
Zarządu i sprawozdania finansowego PTP za<br />
2008 r. (Załącznik nr 4 do Protokołu). Walne Zebranie<br />
w głosowaniu jawnym podjęło jednogłośnie Uchwałę nr 2<br />
wraz z załącznikiem w sprawie budżetu na <strong>2009</strong> r. po<br />
wprowadzeniu zgłoszonej poprawki do preliminarza<br />
(Załącznik nr 5 do Protokołu Walnego Zebrania).<br />
Następnie prof. J. Szuber przedstawił wniosek Zarządu<br />
PTP o nadanie godności Członka Honorowego<br />
PTP doc. Czesławowi Kiliszkowi. Profesor Witold<br />
Precht przedstawił sylwetkę doc. Kiliszka. Następnie<br />
Walne Zebranie w głosowaniu jawnym podjęło jednomyślnie<br />
Uchwałę nr 3 w tej sprawie.<br />
ELEKTRONIKA 11/<strong>2009</strong> 75
Dr Myśliński przedstawił stan przygotowań do<br />
IV Symposium on Vacuum Based Science and Technology.<br />
Poruszono problem koordynacji terminów konferencji,<br />
aby uniknąć czasowego nakładania się tych<br />
imprez.<br />
Ze względu na ograniczenia czasowe Przewodniczący<br />
Walnego Zebrania zaproponował, aby wolne<br />
wnioski zgłaszać do Komisji Wnioskowej na piśmie po<br />
zebraniu. Na podstawie problemów przedstawionych<br />
w wygłoszonych sprawozdaniach oraz w oparciu o dyskusję<br />
i zgłoszone uwagi, Komisja Wnioskowa Zebrania<br />
sformułowała wnioski z Walnego Zebrania.<br />
O godz. 22 30 Walne Zebranie zostało zamknięte.<br />
Sekretarz<br />
Walnego Zebrania<br />
dr inż. Katarzyna Olszewska<br />
Przewodniczący<br />
Walnego Zebrania<br />
prof. dr hab. Marek Szymoński<br />
Walne Zebranie PTP podjęło następujące uchwały:<br />
Uchwała nr 1 z dnia 20 maja <strong>2009</strong><br />
w sprawie sprawozdania Zarządu<br />
i sprawozdania finansowego PTP za 2008 r.<br />
Na podstawie § 26 p. 7 i p. 8 Statutu Polskiego Towarzystwa<br />
Próżniowego Walne Zebranie Członków Towarzystwa:<br />
§1<br />
Przyjmuje sprawozdanie Zarządu z działalności za<br />
okres od 22.09.2008 r. do 20.05.<strong>2009</strong> r., stanowiące<br />
Załącznik nr 1 do niniejszej uchwały i sprawozdanie<br />
z realizacji budżetu za 2008 r. stanowiące Załącznik<br />
nr 2 do niniejszej uchwały<br />
§2<br />
Zatwierdza sprawozdanie finansowe Towarzystwa za<br />
2008 rok, stanowiące Załącznik nr 3 do niniejszej<br />
uchwały, zamykające się po stronie przychodów kwotą<br />
56 288,97 zł (pięćdziesiąt sześć tysięcy dwieście<br />
osiemdziesiąt osiem złotych 97 gr.), a po stronie wydatków<br />
kwotą 55 278,01 zł (pięćdziesiąt pięć tysięcy<br />
dwieście siedemdziesiąt osiem złotych 01 gr.)<br />
Sekretarz<br />
Walnego Zebrania<br />
dr inż. Katarzyna Olszewska<br />
Przewodniczący<br />
Walnego Zebrania<br />
prof. dr hab. Marek Szymoński<br />
Uchwała nr 2 z dnia 20 maja <strong>2009</strong> r.<br />
w sprawie budżetu na <strong>2009</strong> r.<br />
Na podstawie §26 pkt. 6 i pkt. 8 statutu PTP Walne<br />
Zebranie Członków Towarzystwa zatwierdza:<br />
§1<br />
Budżet PTP na <strong>2009</strong> r. stanowiący Załącznik nr 1 do niniejszej<br />
uchwały.<br />
Sekretarz<br />
Walnego Zebrania<br />
dr inż. Katarzyna Olszewska<br />
Przewodniczący<br />
Walnego Zebrania<br />
prof. dr hab. Marek Szymoński<br />
Uchwała nr 3 z dnia 20 maja <strong>2009</strong><br />
w sprawie Honorowego Członkostwa PTP<br />
Na podstawie §14 Statutu PTP i w uznaniu ogromnych<br />
zasług Docenta Czesława Kiliszka dla rozwoju<br />
technologii próżniowych oraz zasług dla Polskiego<br />
Towarzystwa Próżniowego, Walne Zebranie Sprawozdawczo-Programowe<br />
Członków Polskiego Towarzystwa<br />
Próżniowego, na wniosek Zarządu, uchwala co<br />
następuje:<br />
§1<br />
Nadaje się Docentowi Czesławowi Kiliszkowi godność<br />
Członka Honorowego Polskiego Towarzystwa Próżniowego.<br />
Uchwała obowiązuje od 20 maja <strong>2009</strong> roku.<br />
Sekretarz<br />
Walnego Zebrania<br />
dr inż. Katarzyna Olszewska<br />
Przewodniczący<br />
Walnego Zebrania<br />
prof. dr hab. Marek Szymoński<br />
76 ELEKTRONIKA 11/<strong>2009</strong>
Wspomnienie<br />
Edward Leja (1937-<strong>2009</strong>)<br />
Niniejsze wspomnienie jest moją osobistą refleksją,<br />
wdzięcznością i podziękowaniem - za możliwość<br />
wspólnej pracy, korzystania z Twojego ogromnego<br />
doświadczenia zawodowego oraz prostej ludzkiej<br />
życzliwości i przyjaźni - jaką miałem okazje doświadczyć<br />
- dziękuję Ci za to Edwardzie.<br />
Edward Leja urodzony<br />
w 1937 roku w Rakszawie,<br />
powiat Łańcut, mając<br />
10 lat stracił ojca i wraz<br />
z bratem bardzo wcześnie<br />
musieli myśleć o sobie,<br />
musieli stać się samodzielni<br />
i dorośli.<br />
Edward bardzo dobrze<br />
się uczył, wykazując<br />
szczególne zamiłowanie<br />
do malowania oraz uzdolnienia<br />
w kierunku nauk<br />
matematyczno-fizycznych. Po zdanej w 1954 roku maturze<br />
próbował dostać się na Akademię Sztuk Pięknych<br />
w Krakowie, ale Jego dokumenty maturalne z Liceum<br />
Ogólnokształcącego w Żołyni nie dotarły na czas do<br />
Akademii, więc nie został dopuszczony przez komisje<br />
do egzaminu wstępnego i rozmowy kwalifikacyjnej. Nie<br />
zrażając się porażką o wymarzonych studiach, a zarazem<br />
zdając sobie sprawę, że nie stać Go na przerwę<br />
w nauce, bez przygotowania przystąpił do pisemnego<br />
egzaminu z matematyki i fizyki na Wyższej Szkole<br />
Pedagogicznej (WSP) w Krakowie, jedynej w tym czasie<br />
w Krakowie uczelni, która była jeszcze przed egzaminami<br />
na studia.<br />
Podczas egzaminów zwrócił swoją osobą uwagę<br />
komisji, gdyż opuszczał salę oddając rozwiązane zadania<br />
na długo przed wyznaczonym czasem. Niestety,<br />
już po pierwszym roku musiał wraz grupą przyjętych<br />
studentów przenieść się (z ukochanego przez Niego<br />
Krakowa) na WSP do Opola, gdyż zarządzeniami odgórnymi<br />
zamknięto w krakowskiej WSP nauczycielski<br />
kierunek przedmiotu fizyka.<br />
Jak później - Edward mi opowiadał - nie żałował tej<br />
zmiany, bo prawdopodobnie po WSP w Krakowie, gdzie<br />
wykładali profesorowie z UJ zostałby fizykiem jądrowym,<br />
a od wrocławskich profesorów, którzy wykładali<br />
w Opolu nauczył się eksperymentalnych metod fizyki<br />
powierzchni (znana w Polsce szkoła fizyki powierzchni<br />
wrocławskich profesorów: Nikliborca, Sujaka, Lewowskiego).<br />
Od nich też nauczył się fizyki ciała stałego,<br />
dowiedział się jak wytwarzać próżnie, jak w próżni termicznie<br />
naparować cienką warstwę, jak wzbudzać i modyfikować<br />
powierzchnię ciała stałego wiązką<br />
elektronów, jonów, fotonów, stąd dla Edwarda człowieka<br />
z pomysłami, wiedzą inżynierska, fizyczną i chemiczną<br />
(dziś powiedzielibyśmy nanotechnolog materiałowiec)<br />
było już bardzo blisko do konstruowania urządzeń<br />
i opracowywania nowych metod próżniowego nanoszenia<br />
cienkich warstw metali, tlenków (izolatorów)<br />
i półprzewodników. Z bagażem doświadczenia wyniesionym<br />
podczas pracy magisterskiej (1958) Kompleksowa<br />
metoda badania fotoprzewodnictwa tlenku<br />
miedziawego chciał pracować naukowo, ale po szkole<br />
pedagogicznej obowiązywał Go nakaz pracy, został<br />
więc skierowany na posadę nauczyciela fizyki do szkoły<br />
zawodowej w Rudzie Śląskiej (Nowy Bytom). Po ślubie<br />
w październiku 1959 roku z Zofią Marią nauczycielką,<br />
myślał o powrocie do Krakowa i do pracy naukowej,<br />
udało mu się zatrudnić w Zakładzie Fizyki Akademii Medycznej<br />
(1959-62) oraz w Liceum Ogólnokształcącym<br />
nr 9 w Krakowie (1961-64). W swoim podaniu na konkurs<br />
na stanowisko asystenta w Katedrze Fizyki I Wydziału<br />
Metalurgicznego AGH, napisał: ”dwuletnia praca<br />
w Zakładzie Fizyki AM w Krakowie nie przyniosła żadnych<br />
rezultatów, ponieważ Zakład nie posiadał warunków<br />
do podjęcia pracy naukowej...”.<br />
Pisząc w ten sposób dał wyraz swojej determinacji<br />
i przekonaniu, że będzie nie tylko dobrym nauczycielem<br />
akademickim (miał dobre przygotowanie i doświadczenie<br />
pedagogiczne), ale również naukowcem.<br />
Od 1 września 1963 r. został zatrudniony najpierw<br />
jako asystent, po doktoracie (Półprzewodnikowe własności<br />
cienkich warstw SnO 2 domieszkowanych indem<br />
i antymonem w grudniu 1968 r.) na stanowisku adiunkta<br />
(1969-1986), po habilitacji (Otrzymywanie i właściwości<br />
elektryczne przeźroczystych warstw tlenkowych<br />
typu SnO 2 i In 2 O 3 w marcu 1984 r.), na stanowisku docenta<br />
(1986-1999), w końcu na stanowisku profesora<br />
nadzwyczajnego AGH od czerwca 1999 r. do chwili<br />
przejścia na emeryturę (30 września 2007 r.).<br />
Dorobek naukowy Edwarda Leji obejmował łącznie<br />
135 pozycji w tym 94 artykuły, referaty i komunikaty,<br />
2 skrypty, 12 patentów oraz liczne niepublikowane<br />
opracowania naukowe (np. ministerialne projekty<br />
badawcze i wdrożeniowe przyznane drogą konkursową),<br />
opracowania na zamówienie przemysłu.<br />
Wypromował siedmiu doktorów - z tego dwie osoby<br />
są już profesorami oraz bardzo wielu magistrów<br />
i inżynierów fizyki ciała stałego, inżynierii materiałowej,<br />
technologii elektronowej i elektroniki. Był pionierem oraz<br />
uznanym autorytetem w metodach nanoszenia cienkich<br />
warstw technikami jonowymi, specjalizował się szczególnie<br />
w reaktywnym rozpyleniu katodowym. Już<br />
w 1966 roku opublikowali z M. Jachimowskim pracę: On<br />
the Deposition of thin Oxide Films by Reactive Bias<br />
Sputtering (Acta Phys Polon. vol. 29, (1966), 43). Swoją<br />
pasję i doświadczenie w zakresie próżniowych technik<br />
nanoszenia cienkich warstw przekazywał sumiennie na<br />
swoich współpracowników i doktorantów - technologów<br />
i fizyków cienkich warstw, tworząc bardzo silny<br />
naukowo Zakład Fizyki i Technologii Elektronowej (1986-<br />
92) przy Instytucie Elektroniki AGH. W wyniku zmian<br />
strukturalnych uczelni (w 1992 roku nastąpiła zamiana<br />
instytutów na katedry) oraz w wyniku naturalnego pro-<br />
ELEKTRONIKA 11/<strong>2009</strong> 77
cesu postępu, rozwoju i usamodzielniania się młodszej<br />
kadry naukowej zakład kierowany przez doc. Edwarda<br />
Leję przekształcił się w zespoły naukowe zajmujące się:<br />
strukturami optoelektronicznymi, ogniwami słonecznymi,<br />
warstwami magnetycznymi (dla elektroniki spinowej),<br />
warstwami tlenkowmi (na detektory gazowe).<br />
Do najważniejszych osiągnięć Profesora Leji, należy<br />
moim zdaniem zaliczyć Jego prace wdrożeniowe,<br />
takie jak na przykład:<br />
- opracowanie technologii, dokumentacji i budowa<br />
wielokomorowej zautomatyzowanej linii technologicznej<br />
do pokrywania cienkimi warstwami wielkoformatowych<br />
tafli szklanych (współwykonawca<br />
dr K. Marszałek, produkcja uruchomiona w firmie<br />
MARYLAND w Rzeszowie),<br />
- opracowanie technologii nanoszenia warstw absorpcyjno-antystatycznych<br />
na osłony monitorów komputerowych<br />
(produkcja uruchomiona w firmie IDEA we<br />
Wrocławiu),<br />
- opracowanie technologii, dokumentacji i budowa zautomatyzowanego<br />
urządzenia próżniowego z zastosowaniem<br />
techniki łukowej do pokrywania cienkimi<br />
warstwami elementów gospodarstwa domowego<br />
(współwykonawca dr K. Marszałek, produkcja uruchomiona<br />
w firmie ZELMER w Rzeszowie).<br />
Tego rodzaju dużych opracowań zakończonych<br />
wdrożeniem i patentami znajdujemy w dorobku<br />
prof. Leji 12. w latach 1980-1999.<br />
Niestety, tylko część swoich osiągnięć, również te<br />
które były badaniami podstawowymi Prof. Leja opublikował,<br />
wolał realizacje praktyczne i materialne wykonanie<br />
dzieła.<br />
Do ciekawszych opracowań naukowych opublikowanych<br />
lub zreferowanych na konferencjach można<br />
zaliczyć: wykorzystanie efektu elektrochromowego<br />
w pokryciu szyb okiennych - Application of Electrochromic<br />
Structures in Windows Sets (7-th Int. Symp.<br />
On Trends and Applications of Thin Films) lub nowe<br />
wątki z ostatniego okresu Jego działalności badawczej<br />
dotyczące szkieł hybrydowych, których właściwości<br />
modyfikuje się wprowadzając do ich struktury dodatki<br />
organiczne - Structure and optical properties of hybrid<br />
glasses based on tetraethylorthosilicate-trimethoxyoctylsilane<br />
and tetraethylorthosilicate - tetraethylorthotitanate-trimethoxyoctylsilane<br />
systems (Journal of<br />
Molecular Structure vols. 744-747, 2005, 597).<br />
Prof. Leja był bardzo aktywnym członkiem Polskiego<br />
Towarzystwa Próżniowego (PTP), udzielał się w sekcji<br />
Techniki Próżni, na konferencjach tej sekcji i Szkołach<br />
Techniki Próżniowej wygłaszał referaty naukowe i szkoleniowe<br />
- ostatni referat wygłosił w czerwcu w 2006 roku<br />
Przemysłowe Zastosowania Techniki Próżniowej.<br />
Edward był człowiekiem bezinteresownym bardzo<br />
pomocnym w każdej sprawie każdemu, kto się do niego<br />
zwrócił. Przyciągał do siebie ludzi ciekawych wiedzy,<br />
ludzi z pomysłami, On dawał im swoje rady i doświadczenie.<br />
Do końca miał doktorantów - ostatniego wypromował<br />
w maju tego roku. Warto wspomnieć, że dwaj<br />
ostatni (z roku 2008 i <strong>2009</strong>) byli spoza środowiska uniwersyteckiego<br />
- tak jak On pasjonaci i fanatycy rozwiązań<br />
praktycznych.<br />
Edward był bardzo skromny nie zabiegał o stanowiska<br />
i splendory, wystarczała Mu przede wszystkim<br />
satysfakcja z dobrze i solidnie odrobionej roboty. Był<br />
troskliwym, zapobiegliwym i kochającym mężem, ojcem<br />
i dziadkiem.<br />
Edward udzielał się również społecznie, za Jego<br />
działalność edukacyjną, popularyzowania wiedzy<br />
i sztuki dziękowały na pogrzebie stowarzyszenia - Ziemi<br />
Staszowskiej i Miłośników Bronowic.<br />
Na konferencjach (szczególnie tych, które były organizowane<br />
poza aglomeracjami miejskimi) był dla Niego<br />
zawsze przygotowany kącik na mini wystawę namalowanych<br />
akwarel z widokami okolicznych pejzaży, bukietów<br />
kwiatów. Swoimi obrazkami obdarowywał bardzo<br />
spontanicznie nie tylko swoich przyjaciół.<br />
Pejzaż pól beskidzkich, czy bukiet tulipanów, które<br />
wiszą na ścianie mojej pracowni, będą wspomnieniem<br />
naszej przyjaźni i długich lat wspólnej pracy.<br />
Czerwiec 2006 podczas wykładu na Szkole Techniki Próżniowej<br />
organizowanej przez PTP (Kraków Biblioteka Jagiellońska)<br />
Żegnam Cię Panie Profesorze, Wspaniały Przyjacielu<br />
Tomasz Stobiecki, 16 października <strong>2009</strong><br />
78 ELEKTRONIKA 11/<strong>2009</strong>
Zastosowanie technik immunoenzymatycznych<br />
i mikrofluidycznych do amperometrycznego<br />
oznaczania stężenia białka C-reaktywnego<br />
mgr inż. ANNA BARANIECKA 1,2 , mgr BEATA KAZIMIERCZAK 2 , J. KRUK 2 ,<br />
dr inż. hab. DOROTA G. PIJANOWSKA 2 , prof. dr hab. inż. WŁADYSŁAW TORBICZ 2<br />
1 <strong>Instytut</strong> Technologii Elektronowej, Warszawa<br />
2 <strong>Instytut</strong> Biocybernetyki i Inżynierii Biomedycznej PAN, Warszawa<br />
Od czasu odkrycia (1930 r.) i wykrystalizowania (1947 r.)<br />
białka C-reaktywnego (CRP) stale wzrasta jego rola w diagnostyce<br />
medycznej, jako czynnika pozwalającego prognozować<br />
możliwość wystąpienia zawału serca, wykryć stan<br />
zapalny i nekrozę oraz ocenić ryzyko i dynamikę rozwoju choroby.<br />
Białko CRP jest niespecyficznym białkiem ostrej fazy<br />
i jednym z najlepszych niespecyficznych markerów wielu stanów<br />
zapalnych. Jak wskazują wytyczne European Society of<br />
Cardiology z 2005 roku, pożądane są dokładne i szybkie testy<br />
do oznaczeń tego białka.<br />
Cząsteczki CRP mają masę ~120 kDa i są pentametrami,<br />
składają się z 5 identycznych podjednostek o masie cząsteczkowej<br />
~21 kDa (rys. 1). Są one syntetyzowane w hepatocytach<br />
w odpowiedzi na podwyższony poziom interleukiny-6<br />
(IL-6) i są obecne w wątrobie oraz osoczu. W organizmie<br />
białko to prawdopodobnie usprawnia proces immunofagocytozy,<br />
a także w znacznym stopniu przyczynia się do łagodzenia<br />
autoimmunizacji ustroju [1-4]. Synteza CRP może<br />
zachodzić w szybkim tempie, co daje dużą dynamikę zmian<br />
stężenia [1,3], mających często formę piku.<br />
Poziom stężenia CRP jest zmienny - uwarunkowania genetyczne<br />
- oraz zależny od płci i wieku. Polskie laboratoria<br />
uznają za prawidłowe stężenie CRP w surowicy ludzkiej do<br />
10 mg/l [2]. Dotychczas jednak nie zostały określone poziomy<br />
referencyjne CRP, dla których można byłoby przyjąć, że ryzyko<br />
zawału mięśnia sercowego jest minimalne. Według norm<br />
amerykańskich, stężenie poniżej 1 mg/l świadczy o niskim ryzyku<br />
wystąpienia zawału lub ataku serca. Stężenie 1…3 mg/l<br />
może wskazywać na podwyższone ryzyko wystąpienia zawału,<br />
powyżej 3 mg/l wskazuje na wysokie ryzyko tych zdarzeń<br />
[5]. Natomiast stężenie powyżej 10 mg/l może świadczyć<br />
o przewlekłym stanie zapalnym [6]. Podczas ostrych stanów<br />
zapalnych jego stężenie może wzrosnąć nawet do<br />
350…400 mg/l. Największe stężenie białka CRP występuje<br />
u pacjentów z chorobą nowotworową i operacjach stanach<br />
pooperacyjnych. Stężenie białka CRP wzrasta również w chorobie<br />
niedokrwiennej serca i może być markerem określającym<br />
ryzyko, zaawansowanie choroby oraz efekty terapii,<br />
a także przy infekcjach bakteryjnych (40…200 mg/l) [7]. Standardowe<br />
analizy medyczne dotyczące białka CRP są przeprowadzane<br />
przy użyciu immunoenzymatycznych testów<br />
ELISA (Enzyme-Linked Immunoassay) z poziomem detekcji<br />
poniżej 0,2 mg/l [8].<br />
W diagnostyce medycznej chorób serca, obok dużych laboratoriów<br />
stale wzrasta rola systemów diagnostycznych i monitorowania<br />
w miejscu przebywania pacjenta tzw. diagnostyka<br />
przy łóżku pacjenta - point-of-care [9-11]. Oprócz białka CRP,<br />
często monitorowane są inne markery sercowe takie jak: troponina,<br />
mioglobina, kinaza kreatyninowa, hemocysteina czy<br />
fibrynogen [12]. Poza poprawieniem jakości opieki medycznej,<br />
szersze zastosowanie testów na CRP daje wymierne korzyści<br />
środowiskowe i ekonomiczne, ponieważ istnieje związek między<br />
ich stosowaniem, a zmniejszeniem nieuzasadnionego<br />
użycia antybiotyków [13]. Bardzo przydatne stają się w tym<br />
przypadku wielofunkcyjne urządzenia diagnostyczne z szybką<br />
detekcją amperometryczną oraz funkcją wstępnego rozdziału<br />
próbki, np. metodą elektroforezy kapilarnej.<br />
Immunoczujniki CRP<br />
Rys. 1. Białko C-reaktywne (z PDB 1GNH)<br />
Fig. 1. C-reactive protein (from PDB 1GNH)<br />
Od wielu lat są na świecie prowadzone prace nad czujnikami<br />
CRP wykorzystująca różne rodzaje detekcji: optycznej<br />
[14-22], magnetycznej [8], elektrochemicznej [23] czy piezorezystancyjnej<br />
[24,25]. Immunoczujniki enzymatyczne (z prze-<br />
ELEKTRONIKA 11/<strong>2009</strong> 79
ciwciałami znakowanymi enzymem) są czujnikami, które są<br />
stosowane z wyboru w przypadku nieprzezroczystych próbek<br />
zawierających oznaczany analit (płyny ustrojowe). Prace nad<br />
takimi immunoczujnikami prowadzone są we współpracy<br />
<strong>Instytut</strong>u Biocybernetyki i Inżynierii Biomedycznej PAN oraz<br />
<strong>Instytut</strong>u Technologii Elektronowej.<br />
W przypadku nowoczesnych urządzeń analitycznych, takich<br />
jak bioczujniki bardzo istotnymi cechami są: niski koszt<br />
pojedynczego testu, krótki czas oczekiwania na wynik, duża<br />
czułość oraz możliwość analizowania złożonych próbek.<br />
Można to uzyskać poprzez zastosowanie amperometrycznego<br />
systemu detekcji i przeciwciał monoklonalnych oraz<br />
układu mikroprzepływowego w systemie jedno- lub wielomodułowym.<br />
W amperometrycznych immunoczujnikach często<br />
wykorzystywane są trzy rodzaje reakcji: immunologiczna, enzymatyczna<br />
i redoks.<br />
Białko C-reaktywne należy do substancji, których cząsteczki<br />
nie są elektrochemicznie aktywne, dlatego też trudna<br />
jest ich bezpośrednia detekcja amperometryczna. Do ich detekcji<br />
są stosowane złożone testy typu ELISA - bezpośrednie<br />
lub pośrednie, w których pochodzące z próbki cząsteczki CRP<br />
są immobilizowane na podłożu. Inny rodzaj testu ELISA - kanapkowy,<br />
polega na wychwyceniu cząsteczek CRP ze<br />
złożonej próbki przy użyciu przeciwciał. Następnie łączą się<br />
one z drugimi przeciwciałami znakowanymi enzymem np. fosfatazą<br />
alkaliczną (AP). Schematyczny przebieg poszczególnych<br />
rodzajów testów ELISA przedstawiono na rys. 2.<br />
W kolejnym etapie testu prowadzona jest reakcja enzymatyczna.<br />
W przypadku AP - po dodaniu odpowiedniego substratu<br />
np. fosforanu kwasu askorbinowego (AA-P) - następuje<br />
reakcja hydrolizy enzymatycznej, w wyniku której powstaje<br />
elektrochemicznie aktywny związek, jakim jest kwas askorbinowy<br />
(AA). Ulega on elektroutlenieniu (reakcja redoks), które<br />
umożliwia detekcję amperometryczną (pomiar prądu utleniania).<br />
Produktem reakcji redoks jest kwas dehydroaskorbinowy<br />
(DHAA) [26-29].<br />
W IBIB PAN opracowano bezpośredni test immunologiczny<br />
do oznaczania CRP z detekcją amperometryczną, polegający<br />
na: (1) immobilizacji CRP na membranie nitrocelulozowej<br />
i tworzeniu immunokompleksów CRP--IgG-AP; (2), następnie<br />
przeprowadzeniu reakcji enzymatycznej tj. hydrolizy<br />
AA-P, katalizowanej przez fosfatazę alkaliczną (AP) - marker<br />
przeciwciała w immunokompleksie oraz (3) detekcji elektrochemicznego<br />
utleniania produktu reakcji enzymatycznej tj. AA<br />
do DHAA na elektrodzie węglowej:<br />
CRP + IgG-AP (CRP--IgG-AP) immunokompeks<br />
(1)<br />
AA_P + H 2 O AA + H 3 PO 4 (2)<br />
AA - 2H + - 2e - Potencjał<br />
+ ½O utl<br />
2 DHAA + H 2 O (3)<br />
Trójelektrodowe immunoczujniki (do jednorazowego stosowania)<br />
wykonano na folii Autostart metodą sitodruku, w których<br />
elektrodą pracującą (WE) i pomocniczą (CE) są elektrody<br />
a)<br />
b)<br />
AP immunokompleks<br />
Rys. 3. Woltamperogramy dla różnych stężeń IgG-AP, jeden<br />
czujnik (a) i odpowiadająca im uśredniona krzywa kalibracji wyznaczona<br />
dla kilku badanych czujników (b)<br />
Fig. 3. Voltammograms for different concentrations of IgG-AP (a)<br />
and corresponding calibration curve (b)<br />
Rys. 2. Rodzaje testów ELISA stosowane w immunoczujnikach: 1 - bezpośredni, 2 - pośredni, 3 - kanapkowy<br />
Fig. 2. ELISA tests used in immunosensor: 1 - direct, 2- indirect, 3 - sandwich<br />
80 ELEKTRONIKA 11/<strong>2009</strong>
z pasty węglowej, zaś odniesienia (RE) - z pasty srebrnej,<br />
chlorkowanej elektrochemicznie [26-29]. Pomiary wykonano<br />
wykorzystując woltamperometrię cykliczną w zakresie potencjałów<br />
-0,2...+1,0 V. Jako substrat używany był fosforan<br />
kwasu askorbinowego - ze względu na wiele zalet, takich jak:<br />
nietoksyczność, trwałość, dużą rozpuszczalność w roztworach<br />
wodnych, niska cena i brak konieczności stosowania warunków<br />
specjalnych, np. kontrolowanej atmosfery.<br />
Woltamperogramy dla różnych stężeń IgG-AP oznaczanych<br />
z wykorzystaniem czujnika sitodrukowanego z elektrodą<br />
węglową oraz uśrednioną krzywą kalibracji od stężenia<br />
IgG-AP, wyznaczoną dla kilku badanych czujników przedstawiono<br />
na rys. 3. Stwierdzono, że dolna granica amperometrycznego<br />
oznaczania IgG-AP za pomocą wytworzonych<br />
w IBIB PAN węglowych czujników sitodrukowanych wynosiła<br />
około 0,1 mg/l.<br />
Inne specyficzne receptory stosowane<br />
w bioczujnikach CRP<br />
Oprócz przeciwciał w bioczujnikach CRP wykorzystywana<br />
bywa interakcja między tym białkiem a fosfocholiną, która jest<br />
jego klasycznym ligandem [30]. Przydatne okazało się też<br />
białko A, które wykazuje powinowactwo i łączy się z regionem<br />
F C przeciwciał IgG. Wykazano, że może ono być również<br />
narzędziem do specyficznego wiązania białka<br />
C-reaktywnego [31].<br />
Zastosowanie znajdują też pojedyncze syntetyczne krótkie<br />
nici DNA i RNA (oligonukleotydy), zwane aptamerami. W zależności<br />
od rodzaju są one czułe na różne cząsteczki m.in. na<br />
CRP. Bioczujniki bazujące na nich są nazywane aptasensorami<br />
[30,32-34]. Receptory te są selekcjonowane in-vitro<br />
z bibliotek kombinatoryjych techniką SELEX (Systematic Evolution<br />
of Ligands by EXponential enrichment), opracowaną<br />
niezależnie przez trzy laboratoria w 1990 roku [35]. Metoda<br />
ta polega na inkubacji analitu z aptamerami, następnie wymywaniu<br />
aptamerów niespecyficznych i powielaniu specyficznych<br />
za pomocą łańcuchowej reakcji polimerazy (PCR).<br />
Koszt i ryzyko ich wytwarzania są mniejsze niż w przypadku<br />
przeciwciał, jednak progi detekcji w bioczujnikach na nich bazujących<br />
są wyższe niż dla immunoczujników. Zaletą aptamerów<br />
w odróżnieniu od przeciwciał jest ich odporność na<br />
wyższe temperatury i możliwość całkowitej regeneracji po teście<br />
- bez utraty właściwości [36]. Testy z udziałem aptamerów<br />
ELONA - (Enzyme Linked Oligonucleotide Assay) przypominają<br />
testy immunoenzymatyczne ELISA. Aptamery są stosowane<br />
również razem z przeciwciałami w układach kanapkowych<br />
[30,37].<br />
Układy mikrofluidyczne<br />
Układ mikroprzepływowy zapewnia zmniejszenie objętości<br />
reagentów i próbek używanych podczas testu do pojedynczych<br />
mikrolitrów, a duży stosunek powierzchni mikrokanalików<br />
do ich objętości zwiększa intensywność reakcji przebiegających<br />
w układzie. Wśród elektrochemicznych metod pomiaru,<br />
amperometryczny układ detekcji jest najczęściej stosowanym<br />
układem, ze względu na niski poziom szumów tła<br />
i możliwość szybkiej detekcji.<br />
Zastosowanie przeciwciał w immunoczujnikach pozwala<br />
na uzyskanie dużej specyficzności testu - dzięki temu można<br />
zmierzyć stężenie konkretnego analitu w złożonej próbce, takiej<br />
jak np. krew.<br />
Części systemów hybrydowych są wykonywane z różnych<br />
materiałów takich jak: negatywowy fotorezyst SU-8<br />
[38-40], poli(dimethylsiloxan) PDMS [41,42], szkło - np.<br />
Pyrex, Foturan [43], krzem, poli(metylakrylan) PMMA [44,45],<br />
poliwęglany PC, cykliczne olefinowe polimery i kopolimery<br />
[46] oraz polistyren PS [47], Parylen [48] czy Kapton [49,50].<br />
Często wykorzystane są materiały hybrydowe - np. PDMS<br />
jest łączony ze szkłem [51-55]. Ze względu na prosty i mało<br />
kosztowny sposób obróbki, wytwarzania i łączenia, a także<br />
dużą biozgodność, dobre właściwości optyczne oraz dużą<br />
odporność na czynniki chemiczne, najczęściej stosowanym<br />
materiałem jest PDMS.<br />
Układy mikrofluidyczne są często stosowane w układach<br />
z immunoczujnikami m.in. z czujnikami do oznaczeń CRP<br />
[31,32,56].<br />
Immobilizacja receptorów<br />
w bioczujnikach mikrofluidycznych<br />
W immunoczujnikach mikrofluidycznych, immobilizacja receptorów<br />
typu przeciwciała lub aptamery może być przeprowadzona<br />
na elektrodach zintegrowanych z układem, ściankach<br />
mikrokomór reaktorów (adsorpcja, pułapkowanie, wiązanie kowalencyjne)<br />
lub na oddzielnych strukturach typu membrany<br />
o chemicznie zmodyfikowanej rozwiniętej powierzchni wewnętrznej.<br />
Przed immobilizacją za pomocą wiązań kowalencyjnych<br />
jest na ogół przeprowadzana chemiczna modyfikacja<br />
powierzchni w celu uzyskania hydrofilowych grup tiolowych lub<br />
karboksylowych. Jako jednorazowe nośniki immunoreagentów<br />
często są stosowane specjalne membrany o rozwiniętej i zmodyfikowanej<br />
powierzchni, zawierającej grupy karboksylowe -<br />
COOH. Takie rozwiązania są wykorzystywane do przygotowania<br />
różnego typu membran np.: Pall Biodyne C, Pall Immunodyne<br />
ABC, Millipore Affinity Membrane. Czasem stosowane<br />
są również membrany do niespecyficznego wiązania białek<br />
np. wykonane z: polifluorku winylidenu (PVDF), octanu celulozy<br />
(CA) lub hybrydowa CA-PMMA [57].<br />
W literaturze spotkać można wiele przykładów zastosowania<br />
jako podłoży do unieruchamiania immunoreagentów<br />
mikrokuleczek z tworzyw sztucznych np. polistyrenu [58] lub<br />
szkła [59,60]. Mogą one działać w układach jednorazowych<br />
lub przeznaczonych do regeneracji.<br />
Moduł reakcyjny/pomiarowy w zależności od zastosowanych<br />
materiałów może służyć do pomiarów jednorazowych<br />
lub wielokrotnych. Przy użyciu wielokrotnym jego powierzchnia,<br />
po przeprowadzonej reakcji, wymaga regeneracji. Roztwory<br />
regeneracyjne: np. kwaśny roztwór glicyny [58,59],<br />
kwaśny roztwór glicyny z dodatkiem 1% DMSO (pH 2,3) [60],<br />
4 M roztwór mocznika, stężone HCl i NaOH, są roztworami<br />
chemicznie aktywnymi, umożliwiającymi usuwanie kowalencyjnie<br />
związanych immunokompleksów, co zapewnia przygotowanie<br />
powierzchni do ponownej immobilizacji. Regeneracja<br />
powierzchni immunoczujnika po pomiarze i powtórzenie procedur<br />
na ogół nie zapewnia całkowitej powtarzalności wyników.<br />
W wielu opisanych eksperymentach w okresach między<br />
ELEKTRONIKA 11/<strong>2009</strong> 81
pomiarami - po regeneracji lub powtórnej immobilizacji przeciwciał<br />
- immunoczujniki są przechowywane w temperaturze<br />
4ºC. Czas, w którym immunoczujniki wymagające regeneracji<br />
zachowują swoje parametry może być liczony nawet<br />
w miesiącach i może obejmować kilkadziesiąt cykli pomiarowych<br />
i regeneracyjnych. Granicę czasu użytkowania immunoczujnika<br />
wyznacza gwałtowny spadek sygnału.<br />
Należy podkreślić, że aktywność przeciwciał w roztworze<br />
jest na ogół większa niż unieruchomionych na powierzchni.<br />
Dobrym środowiskiem dla białek w tym przeciwciał, okazała<br />
się matryca złożona z koloidalnych cząsteczek złota zawieszonych<br />
w układzie sol-żel, opartym na Al 2 O 3 . Układ ten wykazuje<br />
hydrofilowość, dość znaczną porowatość i dodatni<br />
ładunek powierzchniowy [61].<br />
Podsumowanie<br />
W ciągu ostatnich 20 lat obserwuje się bardzo szybki rozwój<br />
metod analitycznych bazujących na układach mikrofluidycznych.<br />
Mikroprzepływy są stosowane w systemach do bioanaliz,<br />
takich jak: mikroukłady do analizy całościowej - micro-TAS<br />
(micro Total Analysis System) lub wielofunkcyjne układy mikroprzepływowe<br />
tzw. laboratoria na chipie - Lab On a Chip (LOC).<br />
Opracowywane są również narzędzia diagnostyczne i monitoringu<br />
środowiska bazujące na układach mikroprzepływowych<br />
z wykorzystaniem immunoczujników. Jednym z takich<br />
zastosowań jest oznaczanie białka C-reaktywnego w osoczu<br />
pacjentów. W naszych pracach dążymy do uzyskania<br />
czułego, amperometrycznego immunoczujnika CRP, który<br />
mógłby służyć do badań przy łóżku chorego (point-of-care).<br />
Literatura<br />
[1] Marnell, L., C. Mold, and T. W. D. Clos, C-reactive protein: Ligands,<br />
receptors and role in inflammation. Clinical Immunology,<br />
2005, 117, pp. 104-111.<br />
[2] Orzędała-Koszel, U., Bachanek T., Kaczmarek-Borowska B.:<br />
Białko C-reaktywne jako czynnik diagnostyczny w stanach zapalnych<br />
jamy ustnej i chorobach nowotworowych C-Reactive<br />
Protein as a Diagnostic Factorin Inflammatory Processes of Oral<br />
Cavity and Neoplasma Diseases. Dent. Med. Probl., 2005, 42(1),<br />
pp. 131-136.<br />
[3] Volanakis, J. E.: Human C-reactive protein: expression, structure,<br />
and function Molecular Immunology, 2001, 38, pp. 189-197.<br />
[4] Szalai, A. J.: The biological functions of C-reactive protein. Vascular<br />
Pharmacology, 2002, 39, pp. 105-107.<br />
[5] Mora, S. and Ridker P. M.: Justification for the Use of Statins in<br />
Primary Prevention: An Intervention Trial Evaluating Rosuvastatin<br />
(JUPITER) - Can C-Reactive Protein Be Used to Target<br />
Statin Therapy inPrimary Prevention?The American Journal of<br />
Cardiology, 2006, 97(2A), pp. 33A-41A<br />
[6] Wiedener, J. M.: C-reactive protein measurenment in the patient<br />
with vascular disease. Journal of Vascular Nursing 2007, 25, pp.<br />
51-54<br />
[7] Clone B. and Olshaker J. S.: The C-reactive protein. The Journal<br />
of Emergency Medicine, 1999, 17(6), pp. 1019-1025.<br />
[8] Meyer M. et al.: CRP determination based on a novel magnetic<br />
biosensor. Biosensors and Bioelectronics, 2007, 22, pp.<br />
973-979.<br />
[9] Yang Z. and Zhou D. M.: Cardiac markers and their point-of-care<br />
testing for diagnosis of acute myocardial infarction. Clinical Biochemistry,<br />
2006, 39, pp. 771-780.<br />
[10] Lode P.: Point-of-care immunotesting: Approaching the analytical<br />
performance ofcentral laboratory methods Clinical Biochemistry<br />
2005, 38, pp. 591-606.<br />
[11] Kemmler, M., et al.: Compact point-of-care system for clinical diagnosis.<br />
Sensors and Actuators B, <strong>2009</strong>, 139, pp. 44-51.<br />
[12] Bodi V. et. al: Risk stratification in non-ST elevation acute coronary<br />
syndromes. Predictive power of troponin I, C-reactive protein,<br />
fibrinogen and homocysteine. International Journal of<br />
Cardiology, 2005, 98, pp. 277-283.<br />
[13] Takemura, Y. et al.: Economic consequence of immediate testing<br />
for C-reactive protein and leucocyte count in new outpatients with<br />
acute infection. Clinica Chimica Acta, 2005, pp. 114-121.<br />
[14] Meyer, M. Hartmann M., Keusgen M.: SRP-based immunosensor<br />
for the CRP detection - A New metod to detect a<br />
well known protein Biosensors and Bioelectronics, 2006, 21,<br />
pp. 1987-1990.<br />
[15] Vikholm-Lundin I. and Albers W. M.: Site-directed immobilisation<br />
of antibody fragments for detection of C-reactive protein. Biosensors<br />
and Bioelectronics 2006, 21, pp. 1141-1148.<br />
[16] Hu W. P., et al.: Immunodetection of pentamer modified C-reactive<br />
protein using surface plasmon resonance biosensing.<br />
Biosensors and Bioelectronics, 2006, 21, pp. 1631-1637.<br />
[17] Domnanich P. et al.: Protein microarray for the analysis of<br />
human melanoma biomarkers. Sensors and actuators B, <strong>2009</strong>,<br />
139: pp. 2-8.<br />
[18] Brandenburg A., et al.: Biochip readout system for point-of-care<br />
application. Sensors and Actuators B, <strong>2009</strong>, 139, pp. 245-251.<br />
[19] Albrecht, C., Kaeppel N., and Gauglitz G.: Two immunoassay<br />
formats for fully automated CRP detection in human serum. Anal<br />
Bioannal Chem, 2008, 391, pp. 1845-1852.<br />
[20] He X., Dandy D. S., and Henry C. S.: Microfluidic protein patterning<br />
on silicon nitride using solvent-extracted poly(dimethyloxane)<br />
channels. Sensors and Actuators B, 2008, 129, pp.<br />
811-817.<br />
[21] Peoples M. C., Phillips T. M., and Karnes H. T.: Demonstration of<br />
a direct capture immunoaffinity separation for C-reactive protein<br />
using a capillary-based microfluidic device. Journal of Pharmaceutical<br />
and Biomedical Analysis, 2008, 48, pp. 376-382.<br />
[22] Wolf M., et al.: Simultanous detection of C-reactive protein and<br />
other cardiac markers in human plasma using micromosaic immunoassays<br />
and self-regulating microfluidic networks. Biosensors<br />
and Bioelectronics, 2004, 19, pp. 1193-1202.<br />
[23] Hennessy H., et al.: Electrochemical investigations of the interaction<br />
of C-reactive protein (CRP) with a CRP antibody chemically<br />
immobilized on a gold surface. Analytica Chimica Acta,<br />
<strong>2009</strong>, 643, pp. 45-53.<br />
[24] Kurosawa, S., et al., Evaluation of high affinity QCM immunosensor<br />
using antibody fragmentation and 2-methacryloxyethyl<br />
phosphorylcholine (MPC) polymer. Biosensors and<br />
Bioelectronics, 2004, 20, pp. 1134-1139.<br />
[25] Aizawa H., et al.: Conventional diagnosis of C-reactive protein<br />
in serum using latex piezoelectric immunoassay. Sensors and<br />
Actuators B, 2001, 76, pp. 173-176.<br />
[26] Kazimierczak B., Pijanowska G. D., Maliszewska-Mazur M.<br />
Łukowska E., Kruk J., Torbicz W.: Amperometryczne oznaczanie<br />
przeciwciał znakowanych fosfatazą alkaliczną dla potrzeb immunoczujnika<br />
białka C-reaktywnego. Mat. XV Konf. KBIiB,<br />
Wrocław, 2007, pp. 133-136.<br />
[27] Kazimierczak B. and Pijanowska D.: Amperometryczne oznaczanie<br />
przeciwciał anty-CRP znakowanym fosfatazą alkaliczną.<br />
<strong>Elektronika</strong>, 2008, 6, pp. 41-49.<br />
[28] Kazimierczak B. and Pijanowska D.G.: Amperometryczne oznaczanie<br />
przeciwciał anty-CRP znakowanych fosfatazą alkaliczną.<br />
COE 2008, Poznań, 23-25 czerwca, 2008.<br />
[29] Kazimierczak B., Pijanowska D.G., and Torbicz W.: Application<br />
of enzyme labeled antibodies for immunosensors based on<br />
elecetrochemical detection. Pol. J. of Chem, 2008, 82, pp.<br />
1255-1264.<br />
[30] Pultar J., et al.: Aptamer-antibody on chip sandwich immunoassay<br />
for detection of CRP in spiked serum. Biosensors and Bioelectronics,<br />
<strong>2009</strong>, 24, pp. 1456-1461.<br />
[31] Das T., Mandal C.: Protein A - a new ligand for human C-reactive<br />
protein. FEBS Letters, 2004, 576, pp. 107-113.<br />
[32] Yang, Y. N., Lin H. I., Wang J. H., Shieh S. C., Lee G. B. : An integrated<br />
microfluidic system for C-reactive protein measurement.<br />
Biosensors and Bioelectronics, <strong>2009</strong>, 24, pp. 3091-3096.<br />
82 ELEKTRONIKA 11/<strong>2009</strong>
[33] Biani A., Centi S. Tombrlli S., Minunni M., Mascini M.: Development<br />
of an optical RNA-based aptasensor for C-reactive protein.<br />
Anal Bioannal Chem, 2008, 390, pp. 1077-1086.<br />
[34] Kim K. S., et al.: The fabrication, characterization and application<br />
of aptamer-functonalized Si-nanowire FET biosensor. Nanotechnology,<br />
<strong>2009</strong>, 20, pp. 6pp.<br />
[35] Mairal T., et al.: Aptamers: molecular tools for analytical applications.<br />
Anal Bioanal Chem, 2008, 390, pp. 989-1007<br />
[36] Balamurugan S., et al.: Surface immobilization methods for aptamer<br />
diagnostic applications. Anal Bioanal Chem, 2008, 390,<br />
pp. 1009-1021.<br />
[37] Kang Y., et al.: Electrochemical detection of trombin by sandwich<br />
approach using antibody and aptamer. Biochemistry, 2008, 73,<br />
pp. 76-81.<br />
[38] Henares T. G., Mizutani F., and Hisamoto H.: Current development<br />
in microfluidic immunosensing chip. Analytica Chimica<br />
acta, 2008, 6(11), pp. 17-30.<br />
[39] Joshi M., et al.: Silanization and antibody immobilization on SU-<br />
8. Applied Surface Science, 2007, 253, pp. 3127-3132<br />
[40] Blagoi G., et al.: Functionalization of SU-8 photoresist surfaces<br />
with IgG proteins. Applied Surface Science, 2008, 255, pp.<br />
2896-2902.<br />
[41] Meacham K.W., et al.: A Lithographically-Patterned, Elastic Multielectrode<br />
Array for Surface Stimulation of Spinal Cord. Biomed<br />
Microdevices, 2008. 10(2), pp. 259-269.<br />
[42] Baek J. Y., et al.: Flexible polymeric dry electrodes for the longterm<br />
monitoring of ECG. Sensors and Actuators A, 2008, 143,<br />
pp. 423-429.<br />
[43] Illiescu C., Chen B., and Miao J.: On the wet etching of Pyrex<br />
glass. Sensors and Actuators A, 2008, 143, pp. 154-161.<br />
[44] Liu J., et al.: Plasma assisted thermal bonding for PMMA microfluidic<br />
chips with integrated metal microelectrodes. Sensors<br />
and Actuators B, <strong>2009</strong>, 141, pp. 646-651.<br />
[45] Tsai Y. C.,. Ho C. L, and Liao S. W.: Nanobiosensors prepared by<br />
electrodeposition of glucose oxidase in PMMA nanochannels<br />
produced by atomic force microscopy nanolithography. Electrochemistry<br />
Communications, <strong>2009</strong>, 11, pp. 1316-1319.<br />
[46] Castano-Alvarez M., Fernandez-Abedul M. T., and Costa-Garcia<br />
A.: Amperometric detector designs for capillary electrophoresis microchips.<br />
Journal of Chromatography A, 2006, 1109, pp. 291-299.<br />
[47] Ishida A., Natsume M., and Kamidate T.: Microchip reversedphase<br />
liquid chromatography with packed column and electrochemical<br />
flow cell using polystyrene/poly(dimethylsilane). Journal<br />
of Chromatography A, 2008, 1213, pp. 209-217.<br />
[48] Noh H. S., Huang Y., and Hesketh P. J.: Parylene micromolding,<br />
a rapid and low-cost fabrication method for parynele microchannel.<br />
Sensors and Actuators B, 2004, 102, pp. 78-85.<br />
[49] Li C., Han J., and Ahn C. H., Flexible biosensors on spirally rolled<br />
micro tube for cardiovascular in vivo monitoring. Biosensors and<br />
Bioelectronics 2007, 22, pp. 1988-1993.<br />
[50] Woytasik M., et al.: Fabrication of planar and three-dimensional<br />
microcoils on flexible substrates. Microsyst Technol, 2006, 12.<br />
[51] Dawoud, A. A., et al.: Separation of catecholamines and dopaminederived<br />
DNA adduct Rusing a microfluidic device with electrochemical<br />
detection. Sensors and Actuators B 2006, 120, pp. 42-50.<br />
[52] Huang C. J., et al.: Integrated microfluidic systems for automatic<br />
glucose sensing and insulin injection. Sensors and Actuators B<br />
2007, 122, pp. 461-468.<br />
[53] Morin, F., et al.: Constraining the connectivity of neuronal networks<br />
cultured on microelectrode arrays with microfluidic techniques:<br />
A step towards neuron-based functional chips. Biosensors<br />
and Bioelectronics 2006, 21, pp. 1093-1100.<br />
[54] Dawoud, A. A., Kawaguchi T., and Jankowiak R.: In-channel<br />
modification of electrochemical detector for the detection of biotargets<br />
on microchip. Electrochemistry Communications, 2007,<br />
9, pp. 1536-1541.<br />
[55] Liu C. and Cui D. F.: Design amd fabrication of poly(dimethylsiloxane)<br />
electrophoresis microchip with integrated electrodes.<br />
Microsyst Technol, 2005, 11, pp. 1262-1266.<br />
[56] Baldini F., et al.: An optical PMMA biochip based on fluorescence<br />
anisotropy: Application to C-reactive protein assay. Sensors and<br />
Actuators B, <strong>2009</strong>, 139, pp. 64-68.<br />
[57] Rauf S., Ihsan A., Akharat K., Ghuri M. A., Rahman M., Anwar M.<br />
A., Khalid A. M.: Glucose oxidase immobilization on a novel cellulose<br />
acetate-polymethylmetthacrylate membrane, Journal of<br />
Biotechnology 2006,121, pp. 251-360<br />
[58] Kakuta M. H. T., Kazuno S., Murayama K., Ueno T.: Development<br />
of the microchip-based repeatable immunoassay system<br />
for clinical diagnosos. Measurement Science and Technology,<br />
2006, 17, pp. 3189-3194.<br />
[59] Messina G. A., Panini N. V., Martinez N. A., Raba J.: Microfluidic<br />
immunosensor design for the quantification of interleukin-6in<br />
human serum samples. Analytical Biochemistry, 2008, 380, pp.<br />
262-267.<br />
[60] Kandimalla V. B., Necta N. S., Karanth N. G., Thakur M. S.,<br />
Roshini K. R., Reni B. E. A., Pasha A., Karanth N. G. K.: Regeneration<br />
of ethyl parathion antibodies for repeated use in immunosensor:<br />
A study on dissociation of antigens from antibodies.<br />
Biosensors and Bioelectronics, 2004, 20, pp. 902-905.<br />
[61] Liu Y.: Electrochemical detection of prostate-specific antigen<br />
based on gold colloids/alumina derived sol-gel film, Thin Solid<br />
Films, 2008, 516, pp.1803-1808.<br />
ELEKTRONIKA 11/<strong>2009</strong> 83
Ochrona własności przemysłowej w Przemysłowym<br />
Instytucie Telekomunikacji S.A. na przestrzeni 75 lat<br />
Jego historii<br />
inż. JERZY KOBIERZYCKI, WŁADYSŁAW KĘSKA (emeryt)<br />
Przemysłowy <strong>Instytut</strong> Telekomunikacji S.A.<br />
Artykuł ma charakter okolicznościowy z okazji 75 lat istnienia<br />
Przemysłowego <strong>Instytut</strong>u Telekomunikacji S.A. i prezentuje<br />
osiągnięcia <strong>Instytut</strong>u w obszarze ochrony własności przemysłowej.<br />
Na wstępie zawiera rys historyczny, krótko charakteryzuje<br />
politykę patentową PIT S.A. oraz służbę ochrony<br />
własności przemysłowej. Zaprezentowano również osiągnięcia<br />
patentowe PIT S.A., opisano konkurs „Mistrz Wynalazczości<br />
i Racjonalizacji” - organizowany w Instytucie od 1979 roku. Pokazano<br />
sylwetki 10 najbardziej wyróżniających się twórców.<br />
Rys historyczny<br />
Podstawą prawną podjęcia działalności w zakresie ochrony<br />
własności przemysłowej w powołanym w 1934 roku Państwowym<br />
Instytucie Telekomunikacyjnym było Rozporządzenie<br />
Prezydenta Rzeczypospolitej z dnia 22 marca 1928 roku<br />
o ochronie wynalazków, wzorów użytkowych i znaków towarowych<br />
(Dz.U. RP Nr 39 poz. 384) oraz Obwieszczenie Prezesa<br />
Urzędu Patentowego RP z dnia 27 marca 1931 roku<br />
o przepisach obowiązujących przy zgłaszaniu wynalazków,<br />
wzorów i znaków towarowych.<br />
Pierwszym wynalazkiem zgłoszonym przez Państwowy<br />
<strong>Instytut</strong> Telekomunikacyjny w Urzędzie Patentowym RP,<br />
8 marca 1934 r. był Układ telefoniczny, pracujący z częstotliwościami<br />
nośnymi, którego twórcą był Jerzy Kahan.<br />
Na wynalazek ten uzyskano 25 listopada 1936 roku patent<br />
Nr 24231, klasa 21a 4 , 58.<br />
Natomiast pierwszym, uzyskanym przez PIT 6 listopada<br />
1936 roku patentem, był patent Nr 24126, klasa 21a 3 , 63/01<br />
na wynalazek: Układ połączeń elektromagnesów wybierakowych<br />
w samoczynnych centralach telefonicznych, zgłoszony<br />
w Urzędzie Patentowym RP w dniu 14 maja 1934 roku.<br />
Twórcą tego wynalazku był Konstanty Dobrski.<br />
Do roku 1939 Państwowy <strong>Instytut</strong> Telekomunikacyjny<br />
zgłosił do Urzędu Patentowego 11 wynalazków.<br />
Działalność Państwowego <strong>Instytut</strong>u Telekomunikacyjnego<br />
została w okresie okupacji przerwana.<br />
Jesienią 1944 roku Państwowy <strong>Instytut</strong> Telekomunikacyjny<br />
wznowił działalność w bardzo trudnych warunkach - pomieszczenia<br />
były zdewastowane, aparatura rozszabrowana,<br />
kadra rozproszona. W kwietniu 1945 roku na stanowisko Dyrektora<br />
powrócił prof. Janusz Groszkowski.<br />
Pierwszym powojennym wynalazkiem, zgłoszonym przez<br />
PIT 18 grudnia 1946 roku, na który uzyskano patent 24 listopada<br />
1947 roku był: „Elektryczny termoregulator ze sprzężeniem”,<br />
patent Nr 33369, którego twórcą był Juliusz Keller.<br />
Polityka patentowa PIT S.A.<br />
Ochrona własności przemysłowej w Przemysłowym Instytucie<br />
Telekomunikacji (do 1951 roku Państwowym Instytucie Telekomunikacyjnym)<br />
miała dwojaki charakter:<br />
• ochrona własnych oryginalnych rozwiązań poprzez<br />
zgłaszanie wynalazków i wzorów użytkowych do Urzędu<br />
Patentowego;<br />
• śledzenie zgłoszeń innych podmiotów i zgłaszanie przeciwstawień<br />
w przypadkach stwierdzenia kolizji z rozwiązaniami<br />
PIT.<br />
Czasokres ochrony okresowej opatentowanych wynalazków<br />
przyjęty w PIT obejmował w zasadzie 5 lat. Wynikało to<br />
z założenia, że w ciągu pięciu lat technika światowa na tyle intensywnie<br />
się rozwija, że opatentowane wynalazki przestają<br />
już być atrakcyjne i konkurencyjne w stosunku do nowszych<br />
rozwiązań.<br />
Każdy projekt wynalazczy zgłaszany w Przemysłowym Instytucie<br />
Telekomunikacji S.A. w ciągu kilkudziesięciu ostatnich<br />
lat jest rozpatrywany i analizowany przez Komisję<br />
Wynalazczości, powołaną przez Dyrektora jako organ opiniodawczy<br />
i doradczy w obszarze działalności wynalazczej.<br />
Komisja w obecności twórcy i recenzenta opracowującego<br />
opinię techniczną, analizuje wartość techniczną zgłaszanego<br />
wynalazku, jego nowość na tle techniki światowej oraz możliwości<br />
i potrzebę zastosowania w rozwiązaniach projektowych i<br />
konstrukcyjnych <strong>Instytut</strong>u i spodziewane z tego korzyści. Ponadto<br />
komisja wypracowuje zalecenia ewentualnych uzupełnień<br />
i poprawek w dokumentacji zgłoszeniowej wynalazków. Tak<br />
skrupulatna ocena merytoryczna zgłaszanych projektów skutkuje<br />
bardzo małą liczbą zgłoszeń kwestionowanych, lub oddalonych<br />
przez Urząd Patentowy. Wskutek konstruktywnego,<br />
pomocnego twórcom podejścia komisji, również liczba wynalazków<br />
dyskwalifikowanych przez komisję nie była znacząca.<br />
W odniesieniu do wynalazków zastosowanych w PIT S.A. komisja<br />
szacuje ponadto i wnioskuje wysokość wynagrodzenia dla<br />
twórców, biorąc pod uwagę uzyskane lub przewidywane efekty<br />
ekonomiczne oraz niewymierne efekty techniczne.<br />
Komisji Wynalazczości przewodniczyli kolejno: doc. mgr<br />
inż. Jerzy Fiett, dr inż. Zbigniew Maik, mgr inż. Józef Bielski,<br />
a od 1986 roku do chwili obecnej inż. Jerzy Kobierzycki.<br />
Generalnie kierownictwo Przemysłowego <strong>Instytut</strong>u Telekomunikacji<br />
przywiązywało zawsze dużą wagę do działalności<br />
wynalazczej i racjonalizatorskiej w Instytucie, poszukując rozwiązań<br />
pobudzających zainteresowanie potencjalnych twórców<br />
oraz popierając zgłaszane w tym zakresie inicjatywy.<br />
84 ELEKTRONIKA 11/<strong>2009</strong>
Problemem bowiem w pracach instytutowych nie był brak<br />
oryginalnych rozwiązań, ale zachęcenie ich twórców do<br />
zgłaszania tych rozwiązań jako wynalazki. Potwierdzeniem tej<br />
tezy jest prezentowane w dalszej części zestawienie autorów<br />
wynalazków, z którego wynika, że liczba wynalazków zgłaszanych<br />
w poszczególnych obszarach działalności technicznej<br />
zależała bardziej od chęci i umiejętności sformułowania zastrzeżeń<br />
ochronnych przez autorów, niż od ilości oryginalnych<br />
rozwiązań opracowywanych i stosowanych w Instytucie.<br />
W ostatnich latach działalność patentowa miała dodatkowy,<br />
wymierny aspekt, gdyż ilość uzyskanych patentów była<br />
brana pod uwagę przy kategoryzacji jednostek badawczorozwojowych.<br />
Służba ochrony własności przemysłowej<br />
w PIT<br />
Nie zachowały się dane dotyczące pracowników służby<br />
ochrony własności przemysłowej w PIT do lat 50. natomiast<br />
od początku lat 60. działalność ta była prowadzona pod kierunkiem<br />
Pana Henryka Niebojewskiego, kierownika Sekcji Patentowej<br />
i rzecznika patentowego. Z uwagi na łączenie tych<br />
dwóch funkcji Pan Niebojewski potrafił nie tylko wyłuskiwać<br />
z rozwiązań projektowo-konstrukcyjnych nowość i poziom wynalazczy,<br />
ale również wspólnie z twórcą opracować dokumentację<br />
zgłoszeniową. W większości przypadków to nie<br />
twórcy zgłaszali się do komórki patentowej, ale Pan Niebojewski<br />
zgłaszał się do potencjalnych twórców. Jako rzecznik<br />
patentowy opracował dokumentację zgłoszeniową około 200<br />
wynalazków krajowych i 13 zgłaszanych za granicę. W roku<br />
1974, po przejściu Pana Niebojewskiego na emeryturę, kierownictwo<br />
tej komórki przejął Jego wychowanek Pan<br />
Władysław Kęska. Linia programowa uprawiana przez Pana<br />
Niebojewskiego znalazła godnego kontynuatora i była bardzo<br />
wysoko oceniana nie tylko w Instytucie. W latach 70. i 80. PIT<br />
zgłaszał do Urzędu Patentowego 25 do 30 wynalazków rocznie.<br />
W roku 2001 Pan Władysław Kęska został powołany przez<br />
Prezesa Urzędu Patentowego RP na członka kolegium<br />
orzekającego do spraw spornych UP RP. W roku 1978 Sekcja<br />
Patentowa po włączeniu komórki racjonalizacji z ZD PIT, została<br />
przekształcona w Dział Ochrony Własności Przemysłowej.<br />
Aktualnie czynnym rzecznikiem patentowym jest Pani mgr<br />
inż. Anna Żuk. Mgr inż. Anna Żuk opracowała ponad 200 opisów<br />
patentowych, a także osobiście przeforsowała w OHIM<br />
uzyskanie wspólnotowego graficznego znaku towarowego na<br />
używane od kilkudziesięciu lat logo PIT.<br />
Zaangażowanie i wiedza rzeczników patentowych skutkowały<br />
trafnym zdefiniowaniem właściwości patentowych rozwiązań<br />
projektowych i konstrukcyjnych oraz poprawnym<br />
opracowaniem dokumentacji zgłoszeniowej. W postępowaniu<br />
przed Urzędem Patentowym rzecznicy patentowi w ogromnej<br />
większości przypadków potrafili skutecznie bronić zgłaszanych<br />
wynalazków.<br />
Bezpośredni nadzór nad działalnością w zakresie ochrony<br />
własności przemysłowej sprawowali w różnych okresach,<br />
w zależności od przyporządkowania organizacyjnego komórki<br />
patentowej:<br />
- Kierownik Branżowego Ośrodka Informacji Naukowo-Technicznej<br />
i Ekonomicznej mgr inż. Paweł Mosiewicz,<br />
- Dyrektorzy Techniczni - mgr inż. Leszek Szmilewski i inż.<br />
Jerzy Kobierzycki,<br />
- Dyrektorzy Naczelni - doc. mgr inż. Jerzy Fiett i mgr inż.<br />
Józef Machowski,<br />
- Sekretarz Naukowy PIT doc. dr inż. Tadeusz Gawron,<br />
- Dyrektor Naukowy dr hab. inż. Edward Sędek.<br />
Patenty i świadectwa ochronne uzyskane<br />
przez PIT<br />
W latach od 1936 do 2008 PIT uzyskał 647 patentów krajowych,<br />
14 patentów zagranicznych, 198 świadectw ochronnych<br />
na wzory użytkowe oraz 4 świadectwa ochronne na znaki towarowe.<br />
Patenty krajowe<br />
Lata Ilość patentów Lata Ilość patentów<br />
1936 - 1939 11 1980 - 1989 168<br />
1947 - 1959 13 1990 - 1999 104<br />
1960 - 1969 54 2000 - 2008 81<br />
Jak widać z powyższego zestawienia, liczba patentów<br />
uzyskanych w poszczególnych okresach jest bardzo zróżnicowana,<br />
co w znacznym stopniu wynikało z ewolucji obszaru<br />
tematycznego działalności <strong>Instytut</strong>u, a w pewnym stopniu było<br />
również wynikiem okresowych spiętrzeń prac w Urzędzie Patentowym.<br />
Autorami lub współautorami opatentowanych<br />
wynalazków było 359 pracowników <strong>Instytut</strong>u.<br />
Najwięcej patentów dla PIT uzyskali:<br />
L.p.<br />
Imię i nazwisko<br />
Ilość<br />
patentów<br />
Lata<br />
1 inż. Wacław Niemyjski 66 1969 - 2008<br />
2 mgr inż. Anna Czwartacka 44 1971 - 2008<br />
3 dr inż. Wiesław Klembowski 30 1969 - 1990<br />
4 dr inż. Józef Kuliński 28 1969 - 2007<br />
5 mgr inż. Henryk Krepsztul 27 1964 - 1973<br />
6 mgr inż. Jan Piotrowski 25 1967 - 1997<br />
7 mgr inż. Bogdan Stachowski 24 1991 - 2008<br />
Patenty zagraniczne<br />
Zgłaszanie wynalazków PIT za granicą miało incydentalny<br />
charakter ze względu na specjalny charakter prowadzonych<br />
w Instytucie prac. Z kronikarskiego obowiązku należy jednak<br />
odnotować, że były to następujące wynalazki:<br />
ELEKTRONIKA 11/<strong>2009</strong> 85
L.p.<br />
1<br />
2<br />
3<br />
4<br />
Ostatni z wymienionych wynalazków miał początkowo<br />
szanse zrobienia swego rodzaju międzynarodowej kariery, był<br />
nawet zgłaszany m.in. w Japonii, Holandii, Francji, RFN, jednak<br />
problemy z wdrożeniem w Zakładach Radiowych ELTRA<br />
i Zakładach Radiowych im. Marcina Kasprzaka, oraz niekorzystne<br />
warunki do transferu technologii z Polski do krajów<br />
wysokouprzemysłowionych w okresie stanu wojennego i bezpośrednio<br />
po nim, spowodowały jego technologiczne zestarzenie<br />
się. Zaniechano więc dalszych starań o uzyskanie<br />
ochrony patentowej.<br />
Wzory użytkowe<br />
Przemysłowy <strong>Instytut</strong> Telekomunikacji S.A. legitymuje się<br />
198 świadectwami ochronnymi na wzory użytkowe, autorstwa<br />
168 twórców.<br />
Najwięcej wzorów użytkowych zgłosili:<br />
L.p.<br />
Tytuł wynalazku<br />
Sposób rozmieszczania<br />
szczelin w dzielonym rdzeniu<br />
ferromagnetycznym<br />
Uwarstwienie dzielonego<br />
rdzenia ferromagnetycznego<br />
Wzmacniacz parametryczny<br />
wielkiej częstotliwości<br />
Cyfrowy syntetyzer<br />
częstotliwości<br />
Imię i nazwisko<br />
Data<br />
uzyskania<br />
patentu<br />
krajowego<br />
1962<br />
1966<br />
1969<br />
Kraj i data patentu<br />
zagranicznego<br />
Bułgaria<br />
Kuba<br />
Węgry<br />
Rumunia<br />
Indie<br />
NRD<br />
ZSRR<br />
Rumunia<br />
Węgry<br />
NRD<br />
RFN<br />
Jugosławia<br />
Szwecja<br />
1962<br />
1962<br />
1962<br />
1963<br />
1964<br />
1965<br />
1965<br />
1966<br />
1967<br />
1969<br />
1970<br />
1970<br />
1972<br />
1989 NRD 1988<br />
Ilość<br />
wzorów<br />
Lata<br />
1 mgr inż. Kazimierz Suchodolski 22 2005 - 2008<br />
2 mgr inż. Andrzej Jabłoński 21 2003 - 2008<br />
3 mgr inż. Adolf Krasuski 12 1971 - 2000<br />
4 dr inż. Józef Kuliński 10 1977 - 2003<br />
5 Mikołaj Stasiuk 10 1986 - 2000<br />
Znaki towarowe<br />
W okresie od 1970 do 2008 roku Przemysłowy <strong>Instytut</strong> Telekomunikacji<br />
S.A. uzyskał świadectwa ochronne na 4 znaki towarowe.<br />
Dwa pierwsze znaki dotyczyły radiotelefonu Contact<br />
300 - 1970 rok oraz radiotelefonu Kontakt 300 - 1971 rok.<br />
Obydwa świadectwa były pierwotnie wystawione na <strong>Instytut</strong><br />
Tele- i Radiotechniczny, a w 1971, w ramach przeniesienia<br />
z ITR do PIT tematyki radia, telewizji i radiokomunikacji<br />
stały się własnością PIT.<br />
W 1993 roku uzyskano świadectwo ochronne na znak krajowy,<br />
słowno-graficzny (PIT w rombie), stanowiący logo <strong>Instytut</strong>u<br />
od kilkudziesięciu lat (według dostępnych źródeł<br />
przynajmniej od 1949 roku). Prawo z rejestracji tego znaku<br />
trwa od 14 stycznia 1991 roku.<br />
W 2008 roku, w wyniku usilnych starań w OHIM (Urząd<br />
Harmonizacji Rynku Wewnętrznego), szczególnie ze strony<br />
rzecznika patentowego PIT mgr inż. Anny Żuk - uzyskano<br />
wspólnotowy znak towarowy graficzny na to samo logo PIT.<br />
Ochrona znaku obejmuje wspólnotowe (Unii Europejskiej)<br />
klasy towarowe 6, 9 i 42. Trudności w zastrzeżeniu tego znaku<br />
na rzecz PIT wynikały ze zdecydowanego przeciwstawiania<br />
ze strony firmy niemieckiej, legitymującej się podobnym<br />
słownie (ale nie graficznie) skrótowcem „PIT”.<br />
Efekty ekonomiczne<br />
W ostatnich 10 latach zastosowane wynalazki przyniosły następujące<br />
wymierne efekty ekonomiczne:<br />
1999 - 476,488 zł 2004 - 369,101 zł<br />
2000 - 227,413 zł 2005 - 409,431 zł<br />
2001 - 198,346 zł 2006 - 446,571 zł<br />
2002 - 95,724 zł 2007 - 232,492 zł<br />
2003 - 386,997 zł 2008 - 554,877 zł<br />
Konkurs „Mistrz Wynalazczości<br />
i Racjonalizacji Przemysłowego <strong>Instytut</strong>u<br />
Telekomunikacji”<br />
W 1979 roku, z inicjatywy przewodniczącego Klubu Techniki<br />
i Racjonalizacji w PIT mgr inż. Władysława Kolbreckiego, podjętej<br />
przez ówczesnego Dyrektora Technicznego PIT inż. Jerzego<br />
Kobierzyckiego przy znaczącym udziale służby patentowej<br />
PIT, zorganizowano pierwszy konkurs. Celem konkursu<br />
było zachęcenie potencjalnych twórców do zgłaszania projektów<br />
wynalazczych oraz spopularyzowanie wśród pracowników<br />
<strong>Instytut</strong>u działalności wynalazczej i racjonalizatorskiej.<br />
Konkurs spotkał się z żywym zainteresowaniem nie tylko<br />
pracowników naukowo-badawczych, ale również pracowników<br />
produkcji.<br />
Warunkiem uczestnictwa w konkursie było zgłoszenie<br />
w danym roku przynajmniej jednego projektu wynalazczego.<br />
W konkursie liczyła się nie tylko liczba projektów zgłoszonych<br />
w roku konkursowym, ale również ich zastosowanie, a także<br />
uzyskane w tym roku efekty ekonomiczne, patenty lub świadectwa<br />
autorskie z projektów zgłoszonych w poprzednich latach.<br />
Rozstrzygnięcia wyników konkursu dokonuje Komisja Wynalazczości,<br />
działająca na tę okoliczność jako komisja konkursowa.<br />
W każdym z corocznych konkursów uczestniczyło około<br />
30 twórców. Na przestrzeni 30 konkursów nagrodzonych lub<br />
wyróżnionych zostało 125 twórców o bardzo szerokim spektrum<br />
zawodowym - od robotników do docentów.<br />
Mistrzami Wynalazczości i Racjonalizacji w poszczególnych<br />
latach byli:<br />
1979 - Tadeusz Drozd, Elżbieta Galińska<br />
1980 - Adam Kolasiński<br />
1981 - Mieczysław Gajak<br />
1982 - Zenon Kopeć<br />
1983 - Ryszard Dobies<br />
1984 - Zbigniew Czyż<br />
86 ELEKTRONIKA 11/<strong>2009</strong>
1985 - Zdzisław Dorywalski<br />
1986 - Józef Kuliński<br />
1987 - Jerzy Robak<br />
1988 - Elżbieta Rogalska<br />
1989 - Mieczysław Gajak<br />
1990 - Zenon Kopeć<br />
1991 - Józef Kuliński<br />
1992 - Anna Czwartacka, Andrzej Wronka<br />
1993 - Józef Kuliński<br />
1994 - Anna Czwartacka, Bogdan Stachowski<br />
1995 - Aleksander Łabudziński<br />
1996 - Aleksander Łabudziński<br />
1997 - Aleksander Łabudziński<br />
1998 - Lech Niepiekło<br />
1999 - Andrzej Arvaniti<br />
2000 - Aleksander Łabudziński, Wacław Niemyjski<br />
2001 - Anna Czwartacka<br />
2002 - Kazimierz Suchodolski<br />
2003 - Andrzej Jabłoński<br />
2004 - Andrzej Jabłoński<br />
2005 - Kazimierz Suchodolski<br />
2006 - Anna Firląg<br />
2007 - Anna Czwartacka<br />
2008 - Anna Czwartacka<br />
W 30 dotychczas przeprowadzonych konkursach udział<br />
wzięło 125 twórców.<br />
Ranking 11 najlepszych wyników uzyskanych w 30. konkursach „Mistrz Wynalazczości i Racjonalizacji Przemysłowego<br />
<strong>Instytut</strong>u Telekomunikacji S.A.” w latach 1979-2008<br />
Lokata Imię i nazwisko Mistrz I wicemistrz II wicemistrz Punktacja<br />
1 mgr inż. Anna Czwartacka 5 4 1 75<br />
2 dr inż. Józef Kuliński 3 2 2 50<br />
3 mgr inż. Bogdan Stachowski 1 4 1 47<br />
4 inż. Wacław Niemyjski 1 2 2 44<br />
5 mgr inż. Aleksander Łabudziński 4 1 39<br />
6 mgr inż. Andrzej Jabłoński 2 2 1 36<br />
7 mgr inż. Kazimierz Suchodolski 2 2 31<br />
8 mgr inż. Mieczysław Gajak 2 1 21<br />
9 dr inż. Zenon Szczepaniak 1 18<br />
10 mgr inż. Zenon Kopeć 2 17<br />
11 mgr inż. Janusz Pietrzak 2 1 17<br />
Rys. 1. Uroczyste wręczanie świadectw autorskich,oraz nagród w konkursie Mistrz Wynalazczości PIT za rok 1983 (od prawej:<br />
dyrektor PIT doc. Jerzy Fiett, dyrektor CNPEP RADWAR inż. Marian Migdalski, dyrektor techniczny PIT inż. Jerzy Kobierzycki,<br />
kierownik Działu Ochrony Własności Przemysłowej Władysław Kęska)<br />
ELEKTRONIKA 11/<strong>2009</strong> 87
Rys. 2. Uroczystość z okazji uzyskania przez PIT 600-nego patentu połączona z wręczaniem nagród w konkursie Mistrz Wynalazczości<br />
PIT za rok 2004 (od lewej: dr inż. Jerzy Gorzkowski, dr inż. Józef Kuliński, mgr inż. Bogdan Stachowski, mgr inż. Anna<br />
Czwartacka, inż. Wacław Niemyjski, oraz rzecznik patentowy inż. Edward Kozłowski)<br />
Rys. 3. Nagrodzeni w Konkursie Mistrz Wynalazczości 2004 (od lewej: dr inż. Jarosław Małek - wyróżnienie, Andrzej Kostecki,<br />
mgr inż. Lech Niepiekło - V miejsce, mgr inż. Andrzej Jabłoński - mistrz, mgr inż. Kazimierz Suchodolski - II wicemistrz,<br />
mgr inż. Andrzej Jankowski - VI miejsce, Marek Kopczyński - wyróżnienie)<br />
88 ELEKTRONIKA 11/<strong>2009</strong>
Rys. 4. Uroczyste wręczanie świadectw autorskich, oraz nagród w konkursie Mistrz Wynalazczości PIT za rok 2005 (od lewej:<br />
Kierownik Pionu Radiolokacji i Techniki Mikrofalowej mgr inż. Henryk Kantecki, Dyrektor Naukowy PIT dr hab. inż. Edward<br />
Sędek, przewodniczący Komisji Wynalazczości inż. Jerzy Kobierzycki, kierownik Działu Ochrony Własności Przemysłowej<br />
Władysław Kęska.<br />
Rys. 5. Nagradzani twórcy w Konkursie Mistrz Wynalazczości PIT za rok 2005 (od lewej: dr inż. Jarosław Małek - wyróżnienie,<br />
mgr inż. Zbigniew Głuszczak, mgr inż. Andrzej Jabłoński - I wicemistrz, mgr inż. Zbigniew Szkutnik - wyróżnienie, mgr inż. Kazimierz<br />
Suchodolski - mistrz)<br />
ELEKTRONIKA 11/<strong>2009</strong> 89
Rys. 6. Mgr inż. Anna Czwartacka (II wicemistrz) i rzecznik patentowy - mgr inż. Anna Żuk<br />
Najaktywniejsi twórcy (w kolejności alfabetycznej)<br />
Wzory<br />
Miejsca w Konkursie<br />
Imię i Nazwisko<br />
Patenty<br />
użytkowe<br />
I II III<br />
mgr inż. Anna Czwartacka 44 2 5 4 1<br />
W PIT od 1966 r., po studiach na Wydziale Łączności Politechniki Warszawskiej. Wybitna specjalistka w dziedzinie<br />
układów odbiorczych urządzeń radiolokacyjnych, półprzewodnikowych układów mikrofalowych w technice MUS, anten<br />
ścianowych, a w ostatnim okresie również w obszarze radarowych anten aktywnych z elektronicznie formowanymi<br />
wiązkami. W latach 1992-1999 kierownik Zakładu Mikrofalowych Układów Czynnych, następnie projektant wiodący<br />
jednostek antenowych radarów z antenami ścianowymi, aktualnie kieruje pilotowym opracowaniem anteny aktywnej.<br />
dr inż. Jerzy Gorzkowski 15 2<br />
W PIT od 1959 do emerytury w 2001 roku. W Politechnice Warszawskiej tytuł mgr inż.. uzyskał w 1960 roku, a doktora<br />
nauk technicznych w 1976 roku. Specjalizował się w projektowaniu mikrofalowych zespołów falowodowych i współosiowych<br />
(złącza obrotowe, przełączniki ASO, sprzęgacze kierunkowe, filtry, polaryzatory, przesuwniki fazy itp.). Posiada<br />
bardzo dużą wiedzę teoretyczną i wysokie umiejętności posługiwania się w projektowaniu aparatem matematycznym<br />
teorii pola elektromagnetycznego, dzięki czemu z dużym powodzeniem projektował bardzo trudne zespoły traktów<br />
mikrofalowych radarów.<br />
mgr inż. Andrzej Jabłoński 21 2 2 1<br />
Konstruktor mechanik, specjalność samochody i ciągniki. W PIT od 1996 roku (poprzednio od 1974 roku w Przemysłowym<br />
Instytucie Motoryzacji). Konstruktor wiodący jednostki antenowej 3-współrzędnego radaru dalekiego zasięgu.<br />
Autor wielu konstrukcji wyposażenia technologicznego radaru w zakresie ergonomii, transportu, montażu itp.).<br />
Swobodnie posługuje się wspomaganiem komputerowym konstrukcji z wykorzystaniem specjalistycznego<br />
oprogramowania.<br />
90 ELEKTRONIKA 11/<strong>2009</strong>
Imię i Nazwisko<br />
Patenty<br />
Wzory<br />
użytkowe<br />
Miejsca w Konkursie<br />
I II III<br />
dr inż.Wiesław Klembowski 30<br />
W PIT od 1964 r., po studiach na Wydziale Łączności Politechniki Warszawskiej. W latach 1985-2001 Zastępca Dyrektora,<br />
Kierownik Pionu Radiolokacji i Techniki Mikrofalowej, a następnie Zastępca Dyrektora ds. Badawczo-Technicznych.<br />
Wybitny specjalista w zakresie radiolokacji, współautor rodziny stacji radiolokacyjnych dalekiego i średniego<br />
zasięgu dla celów wojskowych i cywilnych. Pod Jego kierunkiem została opracowana 3-współrzędna stacja radiolokacyjna<br />
dalekiego zasięgu z pierwszą w kraju anteną ścianową<br />
mgr inż. Henryk Krepsztul 27<br />
Pracował w PIT od 1958 do 1972 roku. Adiunkt, kierownik pracowni, zastepca głównego projektanta dużej stacji radiolokacyjnej.<br />
Specjalizował się w problematyce elektronicznych metod pomiarowych, projektowaniu i konstrukcji specjalizowanych<br />
przyrządów pomiarowych dla radiolokacji, zagadnień niezawodności aparatury elektronicznej. Był przedstawicielem<br />
PIT w Sekcji Automatyzacji Pomiarów PKPA NOT.<br />
dr inż. Józef Kuliński 28 10 3 2 2<br />
W PIT od 1958 do emerytury w 1996 roku. Od 1964 roku kierownik pracowni linii przesyłowych i obwodów mikrofalowych<br />
w Zakładzie Techniki Mikrofalowej. Tytuł doktora nauk technicznych, oraz specjalizację zawodowa I stopnia uzyskał<br />
w 1978 roku. Specjalizował się w projektowaniu zespołów mikrofalowych falowodowych i współosiowych (złącza<br />
obrotowe, przełączniki ASO, sprzęgacze kierunkowe, przejścia KF, tłumiki, przesuwniki fazy itp.) przeznaczonych do<br />
opracowywanych w PIT radarów.<br />
inż. Wacław Niemyjski 66 6 1 3 2<br />
W PIT od 1959 do emerytury w 2001 roku. Specjalizował się w układach odbiorczych stacji radiolokacyjnych. Od 1970<br />
roku kierownik Pracowni Układów Odbiorczych w Zakładzie Techniki Mikrofalowej. Od 1987 roku kierownik Samodzielnej<br />
Pracowni Zintegrowanych Układów Mikrofalowych, przekształconej w Pracownię Zastosowań Mikrofal. Wybitny<br />
specjalista w dziedzinie mikrofalowych układów półprzewodnikowych, w szczególności mikrofalowych układów<br />
odbiorczych. W kadencji 1969-1971 członek Zarządu Oddziału Warszawskiego Elektroniki i Telekomunikacji SEP<br />
mgr inż. Jan Piotrowski 25<br />
W PIT od 1952 do śmierci w 1977 roku. W Zakładzie Techniki Nadawczej opracowywał modulatory i zespoły sterowania<br />
nadajników urządzeń radiolokacyjnych. W latach 90-tych zastępca Kierownika Pionu Radiolokacji i Techniki Mikrofalowej.<br />
Projektant nadajnika OTB zastosowanego w kilku zagranicznych radarach. Główny projektant radaru<br />
samolotowego ARS-400, projektant wiodący jednostki antenowej mobilnego radaru 3-współrzędnego dla kontrahenta<br />
zagranicznego, oraz nadajnika do tej jednostki<br />
mgr inż. Bogdan Stachowski 24 2 1 4 1<br />
W PIT od 1975 roku, bezpośrednio po studiach na Wydziale Elektroniki Politechniki Warszawskiej. Początkowo projektant<br />
w Zakładzie Techniki Mikrofalowej w pracowni Mikrofalowych Układów Odbiorczych. Od 1992 roku kierownik Pracowni<br />
Układów Półprzewodnikowych w nowoutworzonym Zakładzie Mikrofalowych Układów Czynnych, a od 1999 roku<br />
kierownik tego zakładu. Specjalizował się w projektowaniu, konstrukcji i wdrożeniach układów mikrofalowych czynnych<br />
małej i średniej mocy, przeznaczonych do torów odbiorczych stacji radiolokacyjnych. W ostatnich latach zakres tych prac<br />
rozszerzył się o bloki i podsystemy odbiorcze wielowiązkowych radarów z antenami ścianowymi..<br />
mgr inż. Kazimierz Suchodolski 22 2 2<br />
W PIT od 2001 roku, poprzednio od 1980 roku w Przemysłowym Instytucie Maszyn Budowlanych, gdzie konstruował<br />
m.in. jednostki antenowe do radarów dalekiego zasięgu, opracowywanych w PIT. W PIT kontynuował te prace przy modernizacji<br />
jednostki antenowej stacji radiolokacyjnej dalekiego zasięgu. Konstruktor mechanik, autor wielu konstrukcji<br />
wyposażenia technologicznego stacji radiolokacyjnych m.in. w zakresie montażu i serwisu wielkogabarytowych struktur<br />
antenowych. Mimo relatywnie krótkiego zatrudnienia w PIT był autorem 22 wzorów użytkowych, na które PIT uzyskał<br />
świadectwa ochronne.<br />
ELEKTRONIKA 11/<strong>2009</strong> 91
Wielopoziomowy trening symulacyjny w szkoleniu<br />
operatorów urządzeń. Zastosowanie do szkolenia<br />
operatorów robotów mobilnych<br />
dr inż. ANDRZEJ KACZMARCZYK 1 , dr inż. MAREK KACPRZAK 1 ,<br />
prof. dr hab. inż. ANDRZEJ MASŁOWSKI 1,2<br />
1<br />
<strong>Instytut</strong> Maszyn Matematycznych, Warszawa<br />
2<br />
Politechnika Warszawska, Wydział Mechatroniki, <strong>Instytut</strong> Automatyki i Robotyki<br />
Do szkolenia operatorów urządzeń kosztownych i/lub stwarzających<br />
istotne zagrożenie dla otoczenia w przypadku błędu<br />
operatora używa się trenażerów wykorzystujących symulację<br />
komputerową (symulatory do szkolenia pilotów, kierowców<br />
pojazdów drogowych i szynowych, obsługi broni i innych<br />
urządzeń wojskowych). Zapotrzebowanie na trenażery będzie<br />
rosło z wielu powodów. Po pierwsze pojawiają się nowe<br />
urządzenia i nowe profesje operatorskie. Jednym z takich nowych<br />
obszarów jest szkolenie operatorów robotów zdalnie<br />
sterowanych, znajdujących coraz szersze zastosowanie<br />
w wielu dziedzinach - w wojsku i policji, inspekcji i ratownictwie,<br />
pielęgnacji i medycynie (ze zdalną chirurgią włącznie).<br />
Po drugie - w starych i w nowych profesjach będzie rosła<br />
liczba operatorów do przeszkolenia, gdyż będzie użytkowanych<br />
coraz więcej urządzeń sprzedawanych na rozwijające<br />
się rynki. W miarę doskonalenia technicznego trenażerów<br />
i obniżki ich kosztów, stosowanie ich będzie obniżało koszty<br />
szkolenia operatorów, a więc będzie się rozpowszechniało.<br />
Obniżkę kosztów przy dużej liczbie szkolonych będzie<br />
można uzyskiwać przez stosowanie treningu wielopoziomowego,<br />
z użyciem trenażerów o różnym stopniu perfekcji, wykorzystujących<br />
VR (Virtual Reality) i AR (Augmented Reality);<br />
mniej perfekcyjne i tańsze trenażery będą stosowane w początkowych<br />
etapach szkolenia. Rozwiązaniem wpływającym<br />
w sposób istotny na obniżkę kosztów szkolenia będzie e-trening,<br />
umożliwiający zdalne nabywanie umiejętności operacyjnych<br />
i będący rozszerzeniem e-learningu polegającego na<br />
zdalnym zdobywaniu wiedzy. Symulacja komputerowa z wykorzystaniem<br />
grafiki 3D, technologia gier komputerowych, jak<br />
również 3D Internet są niezbędnymi środkami do opracowania<br />
metodologii e-treningu i zbudowania skutecznych aplikacji.<br />
Zastosowanie e-treningu - co najmniej na pewnych<br />
poziomach w cyklu szkolenia stwarza możliwość opanowania<br />
potrzebnych umiejętności operacyjnych w szkoleniu na skalę<br />
masową, w sposób ekonomiczny, bez wydłużania czasu szkolenia.<br />
Podobnie jak w przypadku e-learningu, systemy e-treningu<br />
umożliwią obsługę dużej liczby szkolonych rozproszonych<br />
geograficznie, korzystanie przez nich z kursów dostępnych<br />
24-godziny na dobę i dostosowanie tempa szkolenia<br />
do indywidualnych możliwości. E-trening umożliwi nie tylko<br />
obniżkę kosztów szkolenia operatorów urządzeń, ale będzie<br />
mógł być użyty, również powodując obniżkę kosztów szkolenia<br />
personelu serwisującego urządzenia (np. do szkolenia<br />
obsługi naziemnej samolotów).<br />
Artykuł niniejszy ma za przedmiot metodykę szkolenia<br />
operatorów robotów inspekcyjno-interwencyjnych najbardziej<br />
dziś rozpowszechnionego typu: robotów mobilnych naziemnych,<br />
wyposażonych w manipulator i zestaw sensorów, w tym<br />
w kamerę wizyjną.<br />
Roboty takie znajdują zastosowanie do wspomagania<br />
działań antyterrorystycznych, militarnych i ratownictwa, w systemach<br />
ochrony nadzorowanych obszarów i granic lądowych<br />
i morskich, a także do ochrony infrastruktury krytycznej. Rozwój<br />
technologii potrzebnych do realizacji tych zastosowań jest istotnym<br />
składnikiem „technologii dla bezpieczeństwa” - jednego<br />
z priorytetowych kierunków badań Krajowego Programu Badań<br />
Naukowych i Prac Rozwojowych. Spożytkowanie wyników prac<br />
badawczych i rozwojowych, tzn. zastosowania robotów na szerokim<br />
polu zapewniania bezpieczeństwa przy ich użyciu powoduje,<br />
że potrzebne będzie szkolenie, a także bieżące<br />
doszkalanie - wynikające z szybko postępujących zmian technologii<br />
- dużej liczby operatorów umiejących posługiwać się robotami,<br />
zarówno w wojsku i służbach mundurowych, jak i wśród<br />
pracowników cywilnych. System szkolenia powinien umożliwiać<br />
certyfikację umiejętności operatorskich, zapewniającą kompetencję<br />
obsługi robotów, od której zależeć będzie - szczególnie<br />
w przypadku działań antyterrorystycznych, ratownictwa oraz inspekcji,<br />
ochrony i remontu infrastruktury krytycznej - życie ludzi<br />
i stan środowiska. Zaproponowana metodyka treningu wielopoziomowego,<br />
uwzględniająca również certyfikację szkolonych<br />
operatorów, została poddana ocenie ankietowej krajowych<br />
użytkowników i producenta robotów. Wyniki tej oceny posłużyły<br />
do korekty metodyki treningu mającej na celu przystosowanie<br />
jej do potrzeb krajowych.<br />
Koncepcja metodyki treningu<br />
Koncepcję metodyki treningu wielopoziomowego opracowano<br />
dla potrzeb projektu badawczo-rozwojowego „Platforma do<br />
projektowania i tworzenia oprogramowania komputerowych<br />
trenażerów do robotów mobilnych inspekcyjno-interwencyjnych”<br />
(nr OR000046040).<br />
Cele szkolenia<br />
Finalnym celem szkolenia jest nabycie przez operatora<br />
biegłości w operowaniu robotem we wszystkich przewidzianych<br />
przez producenta trybach pracy przy wykonywaniu<br />
92 ELEKTRONIKA 11/<strong>2009</strong>
zadań określonych przez użytkownika. Wyróżnić można poniższe<br />
szczegółowe cele, które będą osiągane na poszczególnych<br />
etapach szkolenia operatora:<br />
1) zapoznanie się z robotem, jego interfejsem z operatorem,<br />
funkcjami i trybami pracy;<br />
2) obserwacja - operowanie kamerą (i ewentualnie innymi<br />
sensorami) w celu wykonywania zadań obserwacyjnych,<br />
interpretacja wyników; obserwacja w warunkach zakłóceń<br />
(w tym widoczności ograniczonej np. przez zadymienie);<br />
3) przemieszczanie robota - „jazda” robotem:<br />
- w różnych warunkach terenowych (w tym sypki piasek,<br />
żwir, kałuże),<br />
- przy obserwacji bezpośredniej robota i jazda, gdy operator<br />
widzi tylko obraz z kamery wizyjnej robota,<br />
- przy pełnym sterowaniu ręcznym i przy użyciu procedur<br />
sterowania automatycznego (autopilota);<br />
4) operowanie manipulatorem robota:<br />
- wykonywanie ręczne wszystkich podstawowych ruchów/przemieszczeń<br />
manipulatora robota nieruchomego,<br />
przy obserwacji bezpośredniej oraz za pomocą<br />
kamery wizyjnej i innych sensorów robota,<br />
- programowanie ruchów manipulatora i praca przy sterowaniu<br />
automatycznym,<br />
- operowanie manipulatorem w połączeniu z jazdą.<br />
5) Wykonywanie „misji” robota, typowych dla poszczególnych<br />
użytkowników/zastosowań, według scenariuszy o coraz<br />
większym stopniu komplikacji, uwzględniających występowanie<br />
zakłóceń i niesprawności robota oraz limity czasu.<br />
Środki nauczania<br />
Przedstawiono środki nauczania wykorzystywane na trzech<br />
poziomach treningu realizowanego przy użyciu trenażerów.<br />
Po zakończeniu szkolenia prowadzonego przy użyciu tych<br />
środków, może być przeprowadzony trening uzupełniający/<br />
sprawdzający w warunkach rzeczywistych (rzeczywisty robot,<br />
rzeczywiste otoczenie).<br />
Poziom 1 - trenażer zrealizowany za pomocą PC. Symulowane<br />
jest otoczenie robota, robot oraz interfejs robota (pulpit<br />
sterowniczy). Trenażer taki może być użyty na dwa<br />
sposoby:<br />
1) „klasa elektroniczna” ze stanowiskami szkolonych i stanowiskiem<br />
instruktora, wyposażonymi w PC. Należy rozważyć<br />
zastosowanie PC z dwoma monitorami ekranowymi,<br />
jednym symulującym interfejs robota (pulpit sterowniczy<br />
i wskazania sensorów, w tym obraz z kamery wizyjnej<br />
robota), drugim ukazującym symulację robota<br />
w jego otoczeniu;<br />
2) e-learning w sieci prywatnej lub publicznej (intranet lub Internet).<br />
Standardowy PC z jednym monitorem ekranowym<br />
(w szczególności w sieci publicznej), trening prowadzony<br />
na zasadzie podobnej do uczestnictwa w grze komputerowej,<br />
wraz z punktacją. Bez udziału instruktora-człowieka.<br />
Poziom 2 - rzeczywiste urządzenia interfejsu robota, symulowany<br />
robot i jego otoczenie. Poziom symulacji w sensie przybliżenia<br />
rzeczywistości - wyższy niż na poziomie 1 treningu.<br />
Poziom 3 - zastosowanie rzeczywistości rozszerzonej AR<br />
- rzeczywisty robot w otoczeniu rzeczywistym z elementami<br />
symulowanymi/wirtualnymi; hełm używany przez szkolonego,<br />
zajęcia z instruktorem.<br />
Wykorzystanie środków nauczania do realizacji<br />
celów szkolenia<br />
Koncepcję wykorzystania środków do realizacji celów nauczania<br />
ujmuje indywidualne curriculum szkolonego operatora,<br />
które zawiera następujące etapy szkolenia:<br />
1) zapoznanie się z robotem. Demonstracja rzeczywistego robota<br />
oraz wstępne zajęcia z instruktorem w klasie elektronicznej,<br />
2) indywidualna nauka e-learningowa: obserwacji, jazdy, operowania<br />
manipulatorem i wykonywania podstawowych<br />
misji. Po upływie określonego czasu przeznaczonego na<br />
to szkolenie, szkolony powinien uzyskać określone wyniki<br />
punktowe w rozegranych „grach” i przejść do następnego<br />
etapu treningu,<br />
3) zajęcia sprawdzające - i w razie potrzeby uzupełniające -<br />
w klasie elektronicznej przy udziale instruktora. Po uzyskaniu<br />
zaliczającej oceny (liczby punktów) ze sprawdzianu<br />
szkolony przechodzi do następnego etapu treningu. Etap<br />
ten może być pominięty i całe szkolenie z symulacją w zakresie<br />
obserwacji, jazdy, operowania manipulatorem i wykonywania<br />
podstawowych misji może być przeprowadzone<br />
w klasie elektronicznej,<br />
4) zajęcia na trenażerze poziomu 2, obejmujące krótkie<br />
sprawdzające ćwiczenia z zakresu obserwacji, jazdy i operowania<br />
manipulatorem, a następnie wykonywanie misji<br />
z większą precyzją niż na poziomie 1. Po uzyskaniu zaliczającej<br />
oceny szkolony przechodzi do następnego etapu<br />
treningu,<br />
5) zajęcia na trenażerze poziomu 3. Wykonywanie misji<br />
w rozszerzonej rzeczywistości, przede wszystkim przy<br />
użyciu rzeczywistego robota w otoczeniu z elementami rzeczywistymi<br />
(np. różne rodzaje nawierzchni - piasek, żwir,<br />
kałuże) i wirtualnymi.<br />
Funkcje i właściwości trenażerów<br />
Przed rozpoczęciem pracy trenażer powinien przeprowadzać<br />
automatyczny test sprawności systemu i nie dać się uruchomić<br />
w trybie pracy w przypadku wykrycia niesprawności. Trenażery<br />
poszczególnych poziomów winny umożliwiać:<br />
▪ na poziomie 1:<br />
- widoczną na ekranie monitora symulację w czasie rzeczywistym<br />
następstw użycia przez szkolonego zasymulowanych<br />
organów sterowania robotem w zakresie obserwacji,<br />
jazdy i manipulacji,<br />
- wprowadzanie do trenażera zaprogramowanych scenariuszy<br />
i widoczną na ekranie monitora symulację otoczenia<br />
robota wynikającą z danego scenariusza,<br />
- widoczną na ekranie monitora, lub tylko wykrytą i zasygnalizowaną<br />
koincydencję symulacji robota i symulacji otoczenia,<br />
- rejestrację i odtwarzanie sesji szkoleniowej każdego<br />
uczestnika,<br />
- wykrywanie i pomiar czasu określonych zdarzeń ekranowych,<br />
- prowadzenie według zaprogramowanego wzorca, w sesji<br />
szkoleniowej każdego uczestnika, punktacji wynikającej<br />
z wykrytych zdarzeń ekranowych i czasu ich wystąpienia,<br />
- sporządzanie raportów o przebiegu i wynikach szkolenia<br />
(punktacja) każdego uczestnika.<br />
Ponadto:<br />
(I) w klasie elektronicznej:<br />
ELEKTRONIKA 11/<strong>2009</strong> 93
- wysyłanie ze stanowiska instruktora komunikatów do stanowisk<br />
osób szkolonych oraz podgląd tych stanowisk,<br />
- przerywanie i wznawianie ze stanowiska instruktora pracy<br />
na stanowiskach szkolonych, zmiana scenariusza,<br />
- dostęp na stanowisku instruktora do raportów o przebiegu<br />
i wynikach szkolenia każdego uczestnika;<br />
(II) w e-learningu:<br />
- otwieranie, zamykanie, przerywanie i wznawianie własnej<br />
sesji szkoleniowej przez każdego uczestnika,<br />
- odtwarzanie przebiegu własnej sesji szkoleniowej przez<br />
każdego uczestnika,<br />
- odczytywanie raportów o przebiegu i wynikach własnego<br />
szkolenia przez każdego uczestnika;<br />
▪ na poziomie 2: jak na poziomie 1 w klasie elektronicznej,<br />
z tym, że nie jest potrzebna symulacja organów sterowania<br />
robotem i jej uwidocznianie na ekranie monitora;<br />
▪ na poziomie 3:<br />
- widoczną stereoskopowo na ekranie hełmu symulację elementów<br />
(wirtualnych) nieruchomych w rzeczywistym otoczeniu<br />
robota,<br />
- widoczną na ekranie hełmu koincydencję robota i symulacji<br />
elementów otoczenia,<br />
- podgląd ze stanowiska instruktora (na ekranie monitora)<br />
stanowiska szkolonego,<br />
- przerywanie i wznawianie ze stanowiska instruktora pracy<br />
na stanowisku szkolonego, zmiana scenariusza,<br />
- rejestrację i odtwarzanie (na ekranie monitora) sesji szkoleniowej,<br />
- wykrywanie i pomiar czasu określonych zdarzeń sesji,<br />
- prowadzenie według zaprogramowanego wzorca, w sesji<br />
szkoleniowej uczestnika, punktacji wynikającej z wykrytych<br />
zdarzeń i czasu ich wystąpienia,<br />
- sporządzanie raportów o przebiegu i wynikach szkolenia<br />
i dostęp do nich ze stanowiska instruktora.<br />
Ocena wyników szkolenia - efektywności pracy<br />
operatora<br />
Ocena będzie dokonywana liczbowo przez przyznawanie<br />
szkolonemu pewnej liczby punktów za wykonanie zadania.<br />
Ocena będzie przeprowadzana automatycznie przez trenażer<br />
(w szczególności w e-learningu) lub przez instruktora. W obliczaniu<br />
oceny za większy fragment oraz za całość szkolenia<br />
stosowane będą współczynniki wagowe. System punktacji<br />
winien być zaprojektowany z uwzględnieniem następujących<br />
atrybutów efektywności działań operatora, która winna być<br />
uzyskiwana w wyniku szkolenia:<br />
- elastyczność - zdolność do opanowywania sytuacji w otoczeniu<br />
złożonym, niepewnym, zaskakującym zmianami,<br />
- szybkość - zdolność do podejmowania szybkich decyzji,<br />
często pod presją możliwych niekorzystnych (a nawet groźnych)<br />
skutków decyzji,<br />
- odporność - zdolność do pracy pod działaniem zagrożeń,<br />
niepewności w warunkach stresujących,<br />
- adaptowalność - zdolność do zmiany sposobu działania<br />
i strategii, gdy zmieniają się warunki lub samo zadanie,<br />
- zdolność do podejmowania ryzyka i umiejętność oceny czy<br />
się ono opłaca,<br />
- dokładność - precyzja działania, dobre rozumienie zadań,<br />
efektywna komunikacja.<br />
Certyfikacja przeszkolonych operatorów<br />
Wydaje się uzasadnionym wprowadzenie certyfikacji dla operatorów,<br />
którzy przeszli pomyślnie trening. Należy rozważyć<br />
udzielanie operatorom certyfikatów na trzech poziomach/stopniach:<br />
- certyfikat 1. stopnia - operator uprawniony do pracy z jednym,<br />
określonym typem robota,<br />
- certyfikat 2. stopnia - operator uprawniony do pracy z wieloma<br />
(określonymi) typami robotów,<br />
- certyfikat 3. stopnia - instruktor upoważniony do szkolenia<br />
operatorów.<br />
Utrzymywanie ważności certyfikatów wymagałoby uczestnictwa<br />
w okresowych szkoleniach i/lub bieżącej pracy operatorskiej.<br />
W związku z tym, wraz z certyfikacją należy<br />
wprowadzić książki pracy operatorów, do których wpisywano<br />
by przebyte szkolenia oraz informacje o pacy z robotami<br />
(misje, przepracowane godziny - podobnie jak w żeglarstwie<br />
i lotnictwie).<br />
Ocena ankietowa zaproponowanej<br />
metodyki treningu<br />
Ocenę przeprowadzono w czerwcu 2008. Uzyskano odpowiedzi<br />
od 5 respondentów: 2 aktualnych użytkowników robotów,<br />
2 potencjalnych użytkowników robotów (którzy są<br />
zainteresowani zakupem robotów i treningiem operatorów)<br />
oraz 1 producenta.<br />
Rozmiary potrzeb szkoleniowych i intensywność<br />
szkolenia<br />
Z odpowiedzi respondentów-użytkowników wynika, że w poszczególnych<br />
instytucjach potrzeba zatrudniać po ok. 20 przeszkolonych<br />
operatorów; tyluż operatorów przeszkolono<br />
dotychczas w każdej instytucji użytkującej roboty. Producent<br />
robotów, oferujący podstawowe szkolenie operatorów w ramach<br />
umowy o dostawę robota, przeszkolił dotychczas 135<br />
operatorów.<br />
Całkowity czas szkolenia operatora, zarówno przez producenta<br />
jak i użytkownika wynosi ok. 30 h, w tym po kilka godzin<br />
(od 1 do 8) przeznacza się na zapoznanie się z robotem<br />
oraz czynnościami serwisowymi, a resztę na naukę operowania<br />
robotem.<br />
Szkolenie na pojedynczym urządzeniu odbywa się na ogół<br />
w grupach 3- do 10-osobowych, są przypadki szkolenia indywidualnego.<br />
Zgłaszana jest przez użytkowników potrzeba prowadzenia<br />
szkoleń doskonalących w grupach 3 - 5-osobowych<br />
z intensywnością kilkanaście godz./m-c.<br />
Stosowane obecnie metody szkolenia<br />
Do szkolenia używa się wyłącznie rzeczywistych robotów, trenażery<br />
nie są dotychczas stosowane. Wykorzystuje się także<br />
materiał szkoleniowy na CD dostarczany przez producenta<br />
robota. Procedury treningu nie są określone instrukcjami<br />
w postaci obowiązujących dokumentów. Poziom wykształcenia<br />
szkolonych osób nie jest znany, jeden z respondentówużytkowników<br />
podaje, że przystępujący do szkolenia znają<br />
podstawy posługiwania się komputerem.<br />
94 ELEKTRONIKA 11/<strong>2009</strong>
Ocena sugerowanych w ankiecie metod szkolenia<br />
i postulaty własne respondentów<br />
Respondenci odrzucają szkolenie zdalne jako nieefektywne,<br />
a grę komputerową uważają za nieprzydatną w szkoleniu. Tylko<br />
jeden z respondentów widzi potrzebę szkolenia w klasie elektronicznej<br />
w grupach kilkuosobowych. Szkolenie na stanowisku<br />
z rzeczywistym pulpitem sterowania i symulatorem uważają<br />
respondenci za pożądane, przy czym zgłaszają zapotrzebowanie<br />
na pojedyncze stanowisko, gdyby jego koszt nie przekraczał<br />
10% kosztu robota. Dwóch respondentów uważa za<br />
pożądany „trening oparty na zestawie Augmented Reality”.<br />
W dodatkowych uwagach i postulatach zgłoszonych przez<br />
respondentów podkreśla się raz jeszcze, że praktycznie przydatny<br />
trenażer musi posiadać rzeczywisty pulpit sterowania robota,<br />
natomiast robot i jego otoczenie mogą być symulowane.<br />
Szkolenie operatora powinno być przeprowadzone przy zakupie<br />
robota, a potem powinno być prowadzone doszkalanie co pół<br />
roku. Powinna być prowadzona dokumentacja szkolenia poszczególnych<br />
operatorów - informacja o przebytych szkoleniach<br />
wraz z uzyskaną punktacją. W szkoleniu należy położyć nacisk<br />
na „taktykę użytkowania” robota. Nie należy wprowadzać limitów<br />
czasowych na wykonanie zadań, a jedynie uwzględniać ten<br />
czas w punktacji uzyskiwanej przez szkolonego; należy też stosować<br />
narastająco stopnie trudności zadań.<br />
Trenażer powinien charakteryzować się dobrą grafiką<br />
i umożliwiać symulację przesuwania obiektów, kolizji, interakcji<br />
ze środowiskiem (niszczenie środowiska). Powinien zapewniać<br />
podczas symulacji osiąganie wysokiej realności i precyzji sterowania,<br />
przy uwzględnieniu położenia środka ciężkości.<br />
Respondenci zwracają uwagę na potrzebę symulacji<br />
w trenażerze:<br />
- różnych podłoży i przeszkód, w tym jazdy po schodach,<br />
- różnych warunków terenowych (ślisko, grząsko itp.),<br />
- ciasnych pomieszczeń,<br />
- różnych warunków atmosferycznych,<br />
- zakłóceń i przekłamań w systemach optycznych,<br />
- zakłóceń w komunikacji.<br />
Trenażer winien umożliwiać symulację akcesoriów robota,<br />
a szczególnie:<br />
- wyrzutnika pirotechnicznego,<br />
- zestawu rentgenowskiego,<br />
oraz symulację zaawansowanych misji, w tym:<br />
- otwieranie samochodu,<br />
- neutralizacja terenu,<br />
- wyciąganie bomb, w tym bomb losowo umiejscowionych.<br />
Wnioski z oceny ankietowej i postulaty<br />
rozwoju metod treningu<br />
Obciążenia urządzeń treningowych wynikające z odpowiedzi<br />
respondentów mogą być w sposób ekonomicznie uzasadniony<br />
zrealizowane przy użyciu do szkolenia rzeczywistych robotów.<br />
Potrzeba zastosowania trenażerów wynika jedynie z postulowanych<br />
zadań szkoleniowych trudnych lub niemożliwych do<br />
realizacji przy użyciu rzeczywistego robota na rzeczywistej scenie.<br />
Obecne i przewidywane przez krajowych użytkowników zapotrzebowanie<br />
na trening jest niewielkie i ten rozmiar potrzeb<br />
nie uzasadnia ekonomicznego stosowania treningu wielopoziomowego.<br />
Jednak przeprowadzona ankieta nie daje wiarygodnego<br />
obrazu przyszłego rozwoju rynku usług treningowych<br />
krajowego, jak i zagranicznego dostępnego dla polskich producentów<br />
i usługodawców. Również odrzucany przez respondentów<br />
wariant szkolenia zdalnego przy użyciu PC jako<br />
terminala oraz technik gier komputerowych zapewne okaże się<br />
przydatny gdy zapotrzebowanie na trening będzie rosło. Zastosowanie<br />
szkolenia zdalnego, w którym do szkolenia szeroko<br />
pojętych operatorów z natury rzeczy wykorzystuje się techniki<br />
gier komputerowych, jest przydatne i bardzo rozpowszechnione<br />
w dziedzinach pokrewnych. Tak więc tego typu szkolenie<br />
zdalne jest stosowane w szkoleniu pilotów w lotnictwie. Oprócz<br />
licznej rzeszy amatorów uprawiających hobby wirtualnego latania<br />
w Internecie (po zdalnej nauce pilotażu), którzy nierzadko<br />
łączą to z hobby rzeczywistego latania, profesjonalne szkoły<br />
pilotów wykorzystują szkolenie zdalne na pierwszym etapie<br />
nauki pilotażu. Stosuje tę metodę np. szkoła pilotażu Forder<br />
learn to fly [1] w Toronto (Kanada), używając symulatora MS<br />
Flight Simulator 2002/2004. Wśród amatorów bardzo popularny<br />
jest inny, bezpłatny symulator Microsofta MS Flight Simulator X<br />
[2]. Zastosowanie techniki gier komputerowych w wirtualnych<br />
światach jest szeroko stosowane w treningu personelu<br />
w różnych dziedzinach. Ostatnio wielu użytkowników stosuje<br />
do treningu wojskowego policyjnego, a także medycznego (trening<br />
personelu szpitala w przypadku nagłego napływu poszkodowanych<br />
w wypadku), handlowego (trening w obsłudze<br />
klientów personelu centrów handlowych) i innych oprogramowanie<br />
OLIVE (On-Line Interactive Virtual Environment) [3,4]<br />
firmy Forterra Systems. Zatem w dalszym rozwoju metod treningu<br />
operatorów robotów mobilnych należy uwzględnić możliwość<br />
wykorzystania szkolenia zdalnego, a także zastosowania<br />
technik światów wirtualnych z gier komputerowych.<br />
Ze względu na różnicę pomiędzy obecnymi, realnymi potrzebami<br />
szkoleniowymi i potrzebami perspektywicznymi, należy<br />
w dalszych pracach uwzględnić dwa warianty metodyki:<br />
„metodykę A” odpowiadającą potrzebom obecnym oraz “metodykę<br />
B” odpowiadającą przewidywanym potrzebom przyszłym.<br />
W metodyce A tylko rzeczywisty robot oraz trenażer<br />
złożony z rzeczywistego pulpitu sterowniczego robota oraz<br />
komputera z symulacją robota i jego otoczenia są środkami<br />
nauczania. W metodyce B zachowane są wszystkie środki<br />
nauczania treningu 3-poziomowego:<br />
- trenażer zrealizowany za pomocą PC, w którym symulowane<br />
jest otoczenie robota, robot oraz interfejs robota<br />
z operatorem (klasa elektroniczna i/lub e-learning);<br />
- trenażer złożony z rzeczywistego pulpitu sterowniczego robota<br />
oraz komputera z symulacją robota i jego otoczenia;<br />
- stanowisko treningoweAR z rzeczywistym robotem działającym<br />
w rzeczywistym w środowisku z zasymulowanymi obiektami.<br />
Zagadnienia badawcze związane<br />
z metodyką treningu<br />
Problematyka treningu operatorów wykonujących misje jest<br />
aktualnym polem prac badawczych, przy czym wymieniane<br />
są następujące research questions [5]:<br />
- na jakiej podstawie szkoleni postrzegają podobieństwo sytuacji?<br />
Co uruchamia odpowiednie wzorce w ludzkiej pamięci?<br />
Jak szkoleni pozyskują dodatkowe informacje, jak<br />
współdziałają między sobą w misjach zbiorowych (wymiana<br />
danych i uczenie się od drugich)?<br />
ELEKTRONIKA 11/<strong>2009</strong> 95
- jak wirtualne elementy treningu mogą być zintegrowane<br />
z rzeczywistymi, aby zapewnić pełną efektywność?<br />
- jak wiedza przekazywana w treningu ma być zorganizowana<br />
w wirtualne moduły, aby zapewnić do niej dobry dostęp,<br />
gdy jest potrzebna?<br />
- jak ma być ewaluowana jakość treningu - np. jak można<br />
stwierdzić, że ktoś jest ekspertem?<br />
Wydaje się, że dwa problemy o charakterze badawczym<br />
trzeba będzie zaatakować w dalszych pracach nad metodami<br />
treningu wielopoziomowego operatorów robotów:<br />
- jak określić pożądane osiągi (performance) zespołu robotoperator?<br />
- jak je mierzyć podczas treningu?<br />
Podsumowanie<br />
Można oczekiwać, że robotyka wygeneruje kluczowe w bliskiej<br />
przyszłości zapotrzebowanie na e-trening. Roboty serwisowe<br />
(service robots) o wielorakim zastosowaniu mogą<br />
osiągnąć rozpowszechnienie porównywalne do dzisiejszego<br />
rozpowszechnienia komputerów osobistych, a problem szkolenia<br />
- wraz z certyfikacją - w posługiwaniu się nimi może zyskać<br />
rozmiary porównywalne do rozmiarów szkolenia<br />
w posługiwaniu się PC-tami po ich szerokim wprowadzeniu<br />
do użytku w latach 80. Ale teraz nie kursy prowadzone przez<br />
instruktorów w klasach elektronicznych lecz zdalna nauka na<br />
zasadzie rozgrywania gier treningowych będzie głównym sposobem<br />
nabywania umiejętności.<br />
Literatura<br />
[1] http://www.forderlearntofly.com/.<br />
[2] http://www.flightsimaviation.com/_fs2006/announcement.html.<br />
[3] http://www.forterrainc.com/.<br />
[4] Kushner D.: Winner: Make Your Very Own Virtual World with<br />
OLIVE. IEEE Spectrum. Jan. 2008. http://spectrum.ieee.org/telecom/internet/winner-make-your-very-own-virtual-world-with-olive.<br />
[5] Bell H. H.: The Effectiveness of Distributed Mission Training.<br />
Communications of the ACM. September 1999, vol. 42, no 9.<br />
96 ELEKTRONIKA 11/<strong>2009</strong>
Zaprenumeruj wiedzę fachową<br />
2010<br />
WWW.SIGMA-NOT.PL<br />
Nasze czasopisma według branż<br />
Ceny wersji podstawowej (brutto) prenumeraty rocznej na 2010 r. Prenumerata w pakiecie (z płytą CD)– należy doliczyć 24,40 zł do ceny podstawowej prenumeraty<br />
Przemysł<br />
Spożywczy<br />
Chłodnictwo<br />
228,00 zł<br />
Gazeta Cukrownicza<br />
204,00 zł<br />
Gospodarka Mięsna<br />
234,00 zł<br />
Przegląd<br />
Gastronomiczny<br />
180,00 zł<br />
Przegląd Piekarski<br />
i Cukierniczy<br />
166,92 zł<br />
Przegląd<br />
Zbożowo-Młynarski<br />
276,00 zł<br />
Przemysł Spożywczy<br />
234,00 zł<br />
Przemysł Fermentacyjny<br />
i Owocowo-Warzywny<br />
234,00 zł<br />
Budownictwo<br />
Ciepłownictwo,<br />
Ogrzewnictwo,<br />
Wentylacja<br />
234,00 zł<br />
Gaz, Woda<br />
i Technika Sanitarna<br />
234,00 zł<br />
Materiały Budowlane<br />
228,00 zł<br />
Przegląd Geodezyjny<br />
240,00 zł<br />
Szkło i Ceramika<br />
117,00 zł<br />
Wokół Płytek<br />
Ceramicznych<br />
66,00 zł<br />
<strong>Elektronika</strong>,<br />
Energetyka,<br />
Elektrotechnika<br />
<strong>Elektronika</strong> – Konstrukcje,<br />
Technologie,<br />
Zastosowania<br />
264,00 zł<br />
Przegląd<br />
Elektrotechniczny<br />
264,00 zł<br />
Przegląd<br />
Telekomunikacyjny<br />
+ Wiadomości<br />
Telekomunikacyjne<br />
252,00 zł<br />
Wiadomości<br />
Elektrotechniczne<br />
288,00 zł<br />
Przemysł<br />
Lekki<br />
Przegląd Włókienniczy –<br />
Włókno, Odzież, Skóra<br />
294,00 zł<br />
Hutnictwo,<br />
Górnictwo<br />
Hutnik<br />
+ Wiadomości Hutnicze<br />
252,00 zł<br />
Inżynieria Materiałowa<br />
249,00 zł<br />
Rudy i Metale<br />
Nieżelazne<br />
252,00 zł<br />
Przemysł<br />
Pozostały<br />
Gospodarka Wodna<br />
288,00 zł<br />
Przegląd Papierniczy<br />
222,00 zł<br />
Przemysł Chemiczny<br />
432,00 zł<br />
Zakład Kolportażu Wydawnictwa SIGMA-NOT – ul. Ku Wiśle 7, 00-707 Warszawa,<br />
tel. (22) 840 35 89, 840 30 86, faks (22) 891 13 74, e-mail: kolportaz@sigma-not.pl<br />
Czasopisma<br />
Ogólnotechniczne<br />
Atest<br />
– Ochrona Pracy<br />
216,00 zł<br />
Maszyny, Technologie,<br />
Materiały<br />
78,00 zł<br />
Problemy Jakości<br />
282,00 zł<br />
Przegląd Techniczny<br />
247,00 zł<br />
Czasopisma<br />
Wielobranżowe<br />
Aura<br />
– Ochrona Środowiska<br />
156,00 zł<br />
Dozór Techniczny<br />
141,00 zł<br />
Ochrona Przed Korozją<br />
390,00 zł<br />
Opakowanie<br />
216,00 zł<br />
Dla prenumeratorów<br />
– bezpłatny dostęp do publikacji<br />
i możliwość umieszczenia<br />
wizytówki firmy w Portalu<br />
www.sigma-not.pl
NIEBO POD KONTROLĄ<br />
OD 55 LAT<br />
W roku <strong>2009</strong> przypada 55. rocznica utworzenia<br />
Warszawskich Zakładów Radiowych<br />
RAWAR, z których wywodzi się dzisiejsze<br />
Centrum Naukowo-Produkcyjnego Elektroniki<br />
Profesjonalnej RADWAR SA. Rocznica ta<br />
jest nierozerwalnie związana z początkiem<br />
rodzimego przemysłu radiolokacyjnego,<br />
którego symboliczną datą jest rok 1953, kiedy<br />
to powstał pierwszy polski radar, NYSA-A.<br />
Ten pionierski produkt był bowiem dziełem<br />
konstruktorów z ówczesnych Zakładów Radiowych<br />
im. Marcina Kasprzaka - fabryki,<br />
która stworzyła podwaliny dzisiejszego<br />
CNPEP RADWAR SA.<br />
Nasza działalność to 55 lat doświadczeń<br />
na gruncie projektowania, wdrażania, integracji<br />
i produkcji radarów i systemów dowodzenia<br />
dla wojska, włączając eksport do<br />
kilkunastu krajów z całego świata. Przez cały<br />
okres istnienia firmy opracowaliśmy i wdrożyliśmy<br />
do produkcji ponad sto typów radarów<br />
wojskowych i cywilnych, systemów<br />
dowodzenia i kierowania ogniem, aparatury<br />
systemu identyfikacji „swój-obcy”, urządzeń<br />
kontroli ruchu drogowego oraz innych<br />
urządzeń, jak systemy alarmowe a nawet,<br />
o czym nieliczni tylko pamiętają, kuchenki mikrofalowe.<br />
W sumie wyprodukowaliśmy<br />
ponad 6 tysięcy radarów i kilkaset różnego<br />
typu systemów.<br />
Doświadczenia minionych dziesięcioleci<br />
pokazują, że zawsze potrafiliśmy podążać za<br />
zmianami, dostosowując się do potrzeb<br />
rynku i sytuacji ekonomicznej. Nasze wyroby<br />
budzą wszędzie duże zainteresowanie<br />
i uznanie za ich innowacyjność i profesjonalizm.<br />
Pokazują także różnorodność naszej<br />
dzisiejszej oferty - od radiolokacji poprzez<br />
systemy dowodzenia do środków ogniowych.<br />
Nasze wyroby eksportowaliśmy, promując<br />
już od wczesnych lat 60. ubiegłego<br />
wieku, do krajów wszystkich kontynentów<br />
świata. Nie byłoby to możliwe, gdyby nie kiedyś<br />
biuro konstrukcyjne, a dziś własny<br />
Zakład Badawczo-Rozwojowy, zatrudniający<br />
specjalistów o wysokich kwalifikacjach<br />
i dużym doświadczeniu. Nasz ZBR ma<br />
w swoim dorobku przeszło 150 projektów<br />
badawczo-rozwojowych i na bieżąco realizuje<br />
prace rozwojowe i wdrożeniowe dotyczące:<br />
radiolokacji, zautomatyzowanych<br />
systemów dowodzenia i kierowania ogniem,<br />
przeciwlotniczych zestawów artyleryjskich<br />
i rakietowych oraz inne prace dotyczące<br />
elektroniki profesjonalnej dla wojska i odbiorców<br />
cywilnych, w tym opracowywanie<br />
nowoczesnych, unikatowych technologii do<br />
szerokiego spektrum zastosowań.<br />
Naszymi celami realizowanymi w ramach<br />
polityki jakości są ciągłe doskonalenia systemu<br />
zarządzania, projektowania i wdrażania<br />
do produkcji nowych wyrobów i technologii<br />
oraz spełnianie wymagań odbiorców. Realizujemy<br />
te cele, bazując na doświadczonej kadrze<br />
zarządzającej, kadrze naukowo-badawczej<br />
posiadającej aktualną wiedzę z zakresu konstruowania<br />
wyrobów elektronicznych najnowszej<br />
generacji, jak również doświadczonej<br />
załodze na wydziałach produkcyjnych.<br />
Dzisiejsza oferta Radwaru obejmuje<br />
wszystkie komponenty systemu obrony przeciwlotniczej<br />
decydujące o jego skuteczności.<br />
Głównym kierunkiem naszych działań jest rozszerzenie<br />
oferty produktowej poprzez realizację<br />
prac badawczo-rozwojowych nad nowymi<br />
wyrobami. Jednym z obszarów naszego zainteresowania<br />
są zaawansowane technologie<br />
radarowe, w tym dotyczące radarów pasywnych.<br />
Temu zagadnieniu poświęcony jest artykuł<br />
znajdujący się na następnej stronie.<br />
Jak naprawdę działa radar pasywny -<br />
trudno wyczytać w dostępnych publikacjach.<br />
Ze względu na zupełną nowość tego rozwiązania<br />
oraz to, że w jego opisach dominuje<br />
matematyka i informatyka (a nie fizyka), przeważnie<br />
wymiana myśli odbywa się między<br />
naukowcami w „hermetycznym” języku<br />
trudno zrozumiałym dla przeciętnego technika<br />
czy inżyniera. Dostrzegł to autor prezentowanego<br />
artykułu, który podjął próbę opisania<br />
zasad radiolokacji pasywnej „w prostych<br />
żołnierskich słowach”.<br />
ELEKTRONIKA 11/<strong>2009</strong> 99
Radary pasywne - nowa technika radiolokacji<br />
mgr inż. ZBIGNIEW CZEKAŁA<br />
Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA<br />
Termin „radar pasywny” bywa używany niezbyt precyzyjnie<br />
w odniesieniu do sensorów, które wykrywają i lokalizują<br />
obiekty powietrzne na podstawie promieniowania elektromagnetycznego<br />
emitowanego przez zainstalowane na nich<br />
urządzenia, takie jak radary pokładowe, radiostacje, transpondery<br />
systemu rozpoznawania „swój-obcy”. Dobrze znanymi<br />
sensorami tego typu są urządzenia Tamara i Vera<br />
produkcji czeskiej, a kilka lat temu szczególne zasłynął ukraiński<br />
system Kolczuga. Niefortunność terminologii polega tu<br />
na tym, że tego typu urządzenia w istocie nie są radarami,<br />
gdyż nie wykorzystują energii odbitej od wykrywanych obiektów,<br />
tylko energię bezpośrednio przez nie emitowaną. Chociaż<br />
z pierwotnego znaczenia angielskiego terminu „radar”<br />
jako skrótu od radio detection and ranging nie wynika niezbędność<br />
wykorzystywania energii odbitej, podobnie jak nie<br />
wynika to z terminu „radiolokacja”, to jednak w tejże radiolokacji<br />
występują tak podstawowe pojęcia jak: „echo” czy „skuteczna<br />
powierzchnia odbicia”, które jednoznacznie wskazują<br />
na to, że nie każde urządzenie lokalizujące obiekty przy pomocy<br />
fal radiowych jest radarem. Z drugiej strony echo radarowe<br />
nie musi być efektem promieniowania własnego<br />
nadajnika radaru. Jeśli jest „okazja” wykorzystania ech spowodowanych<br />
promieniowaniem różnorodnych nadajników<br />
funkcjonujących w otoczeniu, to niewątpliwie można to uznać<br />
jako „czystą” radiolokację, a radar który z takiej okazji korzysta<br />
- radarem pasywnym.<br />
W odróżnieniu od wspomnianych na początku urządzeń<br />
„nasłuchowych”, które funkcjonują od dziesięcioleci, prawdziwa<br />
radiolokacja pasywna jest ciągle w stadium narodzin,<br />
gdyż wymaga ona poziomu techniki dostępnego dopiero<br />
w ostatnich latach. Tego typu radary są określane zamiennie<br />
dwoma terminami angielskimi: Passive Coherent Location<br />
(PCL) lub Passive Covert Radar (PCR). Pierwszy tłumaczy<br />
się jako „pasywna radiolokacja koherentna” i wskazuje na<br />
stosowaną technikę, a drugi jako „pasywny radar skryty”, co<br />
podkreśla jego walory jako radaru trudno wykrywalnego.<br />
Celem tego artykułu jest przybliżenie technicznych rozwiązań<br />
radaru pasywnego, dlatego zasadne będzie posługiwanie się<br />
skrótem PCL.<br />
Radar pasywny<br />
Radar pasywny to taki, który nie ma własnego nadajnika, lecz<br />
jakby „pasożytniczo” wykorzystuje tzw. okazjonalne źródła<br />
promieniowania elektromagnetycznego. Współczesna cywilizacja<br />
wytworzyła wiele takich źródeł: nadajniki telewizji i radiofonii,<br />
stacje bazowe telefonii komórkowej - by wymienić<br />
najbardziej na co dzień użyteczne. Ich dość gęsta sieć stwarza<br />
korzystne warunki dla budowy radarów pasywnych. Sama<br />
idea radaru pasywnego nie jest nowa i podobnie jak wiele innych<br />
pomysłowych rozwiązań została wypróbowana już u zarania<br />
rozwoju radiolokacji.<br />
W roku 1935 w Wielkiej Brytanii słynny Sir Robert Watson-<br />
Watt, jeden z pionierów radiolokacji, w miejscowości Daventry<br />
zademonstrował wykrywanie bombowca Heyford na<br />
odległości ok. 15 km przez obserwację jego echa w wyniku<br />
opromieniowania przez nadajnik rozgłośni krótkofalowej BBC<br />
Empire znajdujący się w odległości ok. 10 km. Ten eksperyment<br />
zrobił duże wrażenie na Komitecie Badań Naukowych<br />
dla Obrony Powietrznej w ówczesnym brytyjskim Ministerstwie<br />
Spraw Powietrznych (Air Ministry), który niezwłocznie<br />
wyasygnował sumę 10 tysięcy funtów na poważne wsparcie<br />
opracowania radaru. W ciągu roku zespół Watsona Watta<br />
opracował radar aktywny z nadajnikiem o mocy 200 kW,<br />
zdolny do wykrywania samolotów z odległości 180 km.<br />
Eksperyment z Daventry był pierwszym brytyjskim eksperymentem<br />
radarowym, a zarazem pierwszą próbą radaru pasywnego<br />
wykorzystującego okazjonalny nadajnik do<br />
wykrywania obiektów powietrznych. Ze względu na właściwe<br />
dla takiego systemu trudności, o których będzie mowa w tym<br />
artykule, uzyskany zasięg wykrywania był niewielki, a ponadto<br />
ten system potrafił tylko pokazać obecność echa samolotu,<br />
nie był jednak w stanie wskazać jego położenia. W czasie drugiej<br />
wojny światowej Niemcy wykorzystywali ideę radaru pasywnego,<br />
budując urządzenia „Klein Heidelberg”, które<br />
wykorzystywały sygnały emitowane z angielskich radarów<br />
CHAIN HOME. Po wojnie, ze względu na trudności realizacji<br />
radarów pasywnych, idea wykorzystania przypadkowych nadajników<br />
w radiolokacji została zarzucona i przez następne<br />
pół wieku traktowana jako historyczna osobliwość w rozwoju<br />
radiolokacji, a badania skoncentrowały się na radarach z nadajnikami<br />
impulsowymi. Do jej wskrzeszenia przyczyniła się<br />
firma IBM, która na początku lat 80. XX wieku opracowała prototyp<br />
radaru pasywnego zdolny do wykrywania i śledzenia samolotów<br />
w czasie nierzeczywistym w wyniku analizy ech<br />
nadajnika telewizyjnego. Od tamtego czasu obserwuje się<br />
wzrost zainteresowania radarem pasywnym.<br />
Powrót do idei radaru pasywnego wynika z jednej strony<br />
z szybkiego rozwoju elektroniki, a z drugiej strony z oczekiwań<br />
związanych z wykrywaniem samolotów „niewidzialnych”<br />
(stealth) dla klasycznych radarów. To oczekiwanie wiąże się<br />
z bistatyczną konfiguracją takiego radaru oraz faktu, że wykorzystuje<br />
on głównie nadajniki emitujące fale w pasmach<br />
VHF i UHF, gdzie technika stealth wydaje się być znacznie<br />
mniej skuteczna.<br />
Technika PCL<br />
Dla tych, którzy zetknęli się praktycznie z klasyczną techniką<br />
radiolokacji, a zwłaszcza tych, którzy przywiązali się do powszechnie<br />
prezentowanych opisów funkcjonowania radaru,<br />
PCL może na początku zdawać się wywracać ich wyobrażenia<br />
do góry nogami. Wszyscy wiedzą, że „normalny” radar wysyła<br />
w przestrzeń krótki impuls fali elektromagnetycznej o znanych<br />
parametrach, tzn. częstotliwości nośnej i szerokości, a następnie<br />
czeka na odbiór jego mikroskopijnej kopii, czyli echa.<br />
Mierząc czas tego oczekiwania, określa odległość obiektu, od<br />
którego nadeszło echo. Znajomość parametrów wysłanego impulsu<br />
jest tu kluczowa, gdyż pozwala dostroić radar do odbioru<br />
tylko jego ech, eliminując bardziej lub mniej skutecznie inne<br />
sygnały zakłócające, zaś moment wysłania impulsu jest oczywiście<br />
niezbędny, aby zacząć mierzyć czas oczekiwania na<br />
echo. Wszystko tu jest zrozumiałe i logiczne. PCL rzeczywiście<br />
wywraca ten uporządkowany obraz.<br />
100 ELEKTRONIKA 11/<strong>2009</strong>
a)<br />
b)<br />
Rys. 1. Wykorzystanie promieniowania nadajnika radiofonii do radiolokacji<br />
Fig. 1. Use of a radio broadcasting transmitter for radiolocation<br />
Po pierwsze radar PCL nie wysyła żadnego sygnału sondującego<br />
- robią to za niego przypadkowe nadajniki fal elektromagnetycznych<br />
znajdujące się w okolicy; PCL tylko odbiera<br />
echa sygnałów nadawanych przez te nadajniki, a dodatkowo<br />
odbiera sygnały bezpośrednio przez nie promieniowane. Po<br />
drugie te obce sygnały sondujące nie mają formy regularnych<br />
impulsów; są to sygnały o zupełnie przypadkowej treści i formie<br />
- jakieś fragmenty muzyki lub mowy albo obrazu telewizyjnego<br />
przesyłane na falach eteru. A jednak to działa! Jeśli<br />
tak, to znaczy, że utrwalony powszechnie obraz radaru impulsowego<br />
jest tylko jedną z możliwych realizacji radaru<br />
w ogóle. Tak jest w istocie.<br />
Okazuje się, że właściwie każdy sygnał może być wykorzystany<br />
do wytworzenia użytecznego echa radarowego<br />
służącego do lokalizacji obiektów w przestrzeni. Jedno<br />
wszakże pozostaje w zgodzie z utrwaloną znana koncepcją -<br />
ten sygnał musi być znany, co jednak nie oznacza, że radar<br />
musi go sam wyprodukować. Rozpatrzmy najprostszy<br />
przykład pokazany na rys. 1.<br />
W tym przykładzie nadajnik radiofonii UKF emituje dookoła<br />
audycje radiowe. W pewnej odległości od niego ustawiony<br />
jest odbiornik tej emisji, który ma dwa kanały odbioru.<br />
Jeden kanał ma charakterystykę anteny nakierowaną na odbiór<br />
tylko sygnału docierającego bezpośrednio z nadajnika.<br />
Drugi kanał ma charakterystykę anteny ukształtowaną tak,<br />
aby odbierać sygnały ech odbite od wykrywanych obiektów<br />
oświetlonych przez ten nadajnik, ale - w miarę możliwości -<br />
nie odbierać sygnału bezpośredniego z nadajnika. W takim<br />
dwukanałowym odbiorniku mamy do dyspozycji „oryginał”<br />
sygnału nadawanego oraz jego „kopie” jako echa. Czy to wystarczy<br />
do zlokalizowania obiektów odbijających? Wracając<br />
do porównania z radarem impulsowym, można zapytać, cóż<br />
warte są te sygnały, kiedy są to zupełnie przypadkowe sygnały<br />
jakiejś stacji radiofonicznej, w dodatku są to sygnały<br />
ciągłe - bez określonego początku i końca? Okazuje się, że<br />
właściwie każdy sygnał nadaje się do radiolokacji, o ile tylko<br />
ma się do dyspozycji sygnał oryginalny i jego echo.<br />
Problem podstawowy - wykryć echo<br />
przypadkowego sygnału sondującego<br />
Zasadniczy problem w procesie wykrywania echa radarowego<br />
sprowadza się do wyselekcjonowania, spośród wszystkich sygnałów<br />
dochodzących do odbiornika, echa sygnału wysłanego.<br />
Ta selekcja polega zawsze na wykorzystaniu pewnych cech<br />
Rys. 2. Wyznaczanie funkcji korelacji<br />
Fig. 2. Determining the correlation function<br />
sygnału wysłanego, przy założeniu że inne sygnały tych cech<br />
nie mają. Najbardziej uniwersalna reguła wypracowana przez<br />
teoretyków od wykrywania sygnałów użytecznych na tle różnorodnych<br />
sygnałów zbędnych, czyli zakłócających, polega na<br />
obliczeniu tzw. funkcji korelacji sygnałów nadawanego i odebranego.<br />
W odróżnieniu od innych opracowań tutaj nie zaczniemy<br />
od odwołania się do matematycznej formuły funkcji<br />
korelacji, gdyż ten sformalizowany zapis dla większości Czytelników<br />
jest zwykle odstraszający i nie sprzyja zrozumieniu zagadnienia.<br />
Intuicyjnie rzecz jest dość zrozumiała.<br />
Korelacja w ogólnym rozumieniu znaczy nic innego jak<br />
wzajemny związek, co w szczególności może oznaczać podobieństwo.<br />
W przetwarzaniu sygnałów korelacja to określanie<br />
stopnia dopasowania dwóch przebiegów w dziedzinie<br />
czasu i wyznaczania momentu czasowego, w którym następuje<br />
największy współczynnik ich wzajemnej korelacji, czyli<br />
najlepsze ich dopasowanie. W przypadku radaru PCL chodzi<br />
o poszukiwanie podobieństwa między sygnałem oryginalnym<br />
odebranym jedną anteną, a sygnałem echa odebranym drugą<br />
anteną, aby spośród wielu sygnałów zidentyfikować echa,<br />
które pochodzą od tegoż oryginału. Interpretację funkcji korelacji<br />
najlepiej zaprezentować na przykładzie. Na rys. 2a pokazane<br />
są dwa przebiegi, które na pierwszy rzut oka wykazują<br />
pewne podobieństwo. Zobaczmy, jak to podobieństwo zostanie<br />
zwymiarowane poprzez funkcję korelacji.<br />
Aby wyznaczyć funkcję korelacji wzajemnej obydwu sygnałów,<br />
należy:<br />
a) podzielić obydwa przebiegi na możliwie krótkie odcinki czasowe;<br />
teoretycznie ich długość powinna dążyć do zera, ale<br />
w praktyce trzeba pracować na skończonym przedziale<br />
czasowym,<br />
b) rozstawić obydwa przebiegi względem siebie tak, aby nie<br />
pokrywały się,<br />
ELEKTRONIKA 11/<strong>2009</strong> 101
c) stopniowo przesuwać jeden przebieg względem drugiego<br />
o kolejne odcinki; po każdym kroku obliczyć iloczyn<br />
obydwu przebiegów i pole powierzchni pod tym iloczynem,<br />
d) proces kończy się, kiedy oba przebiegi przestają się pokrywać<br />
- rozsunięte po przeciwny stronach niż w punkcie (a).<br />
Matematycznie ten proces oznacza mnożenie jednego<br />
przebiegu x(t) przez przesuniętą w czasie kopię drugiego<br />
przebiegu, którą na rys. 2a reprezentuje zapis y(t +τ), i sumowanie<br />
kolejnych iloczynów. Dla każdego przesunięcia<br />
τ otrzymuje się wartość proporcjonalną do pola powierzchni<br />
zachodzących na siebie przebiegów, a w rezultacie powstaje<br />
nowa funkcja, której dziedziną jest nie czas t, lecz przesunięcie<br />
τ, i to jest właśnie funkcja korelacji. Na rys. 2a pokazano<br />
siedem kroków procesu wyznaczania funkcji korelacji, a wyniki<br />
poszczególnych kroków pokazane są na rys. 2b.<br />
Jeśli oba sygnały mają podobny charakter, to stopień ich<br />
dopasowania sygnałów jest tym większy, im „szczuplejsza”<br />
i wyższa jest funkcja korelacji. Chociaż w pokazanym przykładzie<br />
wykorzystano sygnały o przebiegu, który można nazwać regularnym,<br />
podobny uzyskuje się dla dowolnego przebiegu,<br />
a więc także zupełnie przypadkowego sygnału promieniowanego<br />
przez stację radiofonii UKF. Aby to pokazać, na rys. 3procesowi<br />
korelacji poddano najbardziej przypadkowy sygnał, jaki<br />
można sobie wyobrazić, czyli szum. W tym celu wygenerowano<br />
1000 próbek szumu o standardowym odchyleniu równym jeden<br />
i poddano korelacji ten sygnał z samym sobą, czyli tzw. autokorelacji.<br />
Na końcu sekwencji 1000 próbek występuje wąski impuls<br />
funkcji korelacji. Na tym samym rysunku pokazano także<br />
efekt korelacji fragmentu przebiegu szumowego, ale z inną realizacją<br />
przebiegu szumowego o takim samym czasie trwania.<br />
Widać, że w tym przypadku efekt korelacji praktycznie nie zachodzi.<br />
Pokazuje to, że fragment sygnału losowego może<br />
posłużyć do wykrycia jego kopii, czyli echa.<br />
Skutek procesu korelacji można porównywać do efektu<br />
kompresji, powodującego kumulację jego energii w wąskim<br />
impulsie. Dzięki temu właśnie możliwe jest „wyłuskanie” sygnału<br />
użytecznego spośród innych odebranych, które nie wykazują<br />
właściwości korelacyjnych z sygnałem oryginalnym<br />
(sondującym). Od razu nasuwa się pytanie o ilościową „siłę”<br />
tego efektu kompresji, czyli amplitudę impulsu wyjściowego<br />
(po korelacji), co niewątpliwie będzie wpływać na zasięg<br />
radaru typu PCL.<br />
Intuicyjnie zrozumiałe jest, że amplituda impulsu będącego<br />
wynikiem procesu korelacji powinna rosnąć ze wzrostem<br />
czasu trwania przebiegu podlegającego korelacji, czyli tzw.<br />
czasu integracji. Istotnie, na rys. 4 pokazane są dwa przykłady<br />
Rys. 4. Porównanie efektu korelacji dwóch par jednakowych przebiegów<br />
szumowych różniących się dwukrotnie czasem trwania<br />
Fig. 4. Comparison of the correlation effect of two pairs of identical<br />
noise-like signals of twofold difference in length<br />
a)<br />
a)<br />
b)<br />
b)<br />
Rys. 3. Porównanie efektu korelacji przebiegów szumowych:<br />
a) dwa identyczne przebiegi, b) dwa różne przebiegi<br />
Fig. 3. Comparison of the correlation effect of noise-like signals;<br />
a) two identical signals, b) two different signals<br />
Rys. 5. Funkcja korelacji przebiegu szumowego o różnych szerokościach<br />
widma<br />
Fig. 5. The correlation function of a noise-like signal with different<br />
spectrum widths<br />
102 ELEKTRONIKA 11/<strong>2009</strong>
Przebieg czasowy<br />
Opis sygnału<br />
Typowe parametry i zysk<br />
przetwarzania<br />
Prosty impuls radiowy o czasie trwania t i i mocy<br />
szczytowej P i<br />
P i = 1 MW<br />
t i = 1 µs<br />
B ≅ 1/t i = 1 MHz<br />
k ≅ 1 = 0 dB<br />
Impuls z liniową modulacją częstotliwości<br />
o dewiacji ∆F, czasie trwania t i i mocy<br />
szczytowej P i<br />
P i = 100 kW<br />
t i = 10 µs<br />
B = ∆F = 3 MHz<br />
k ≅ 30 = 15 dB<br />
Sygnał stacji radiofonii FM o mocy średniej P<br />
i paśmie częstotliwości B poddany integracji<br />
w czasie t i<br />
P = 20 kW<br />
t i = 1 s<br />
B = 100 kHz<br />
k = 100 000 = 50 dB<br />
korelacji przebiegów różniących się 2-krotnie czasem trwania.<br />
Amplitudy impulsów po korelacji pokazują spodziewaną<br />
2-krotną różnicę.<br />
Charakterystyczne dla pokazanych przykładów jest to, że<br />
funkcja korelacji jest bardzo wąską „szpilką”; dokładniejsze<br />
przyjrzenie się jej pokazuje, że jest to pojedyncza próbka, a jej<br />
amplituda jest równa liczbie próbek sygnału wejściowego. Wygląda<br />
na to, że amplitudy wszystkich próbek skumulowały się<br />
w wąskiej „szpilce” funkcji korelacji.<br />
Taki idealny efekt wystąpił dlatego, że wygenerowany<br />
szum był tzw. szumem białym, który charakteryzuje się bardzo<br />
szerokim, teoretycznie nieskończonym widmem. W rzeczywistych<br />
warunkach zawsze mamy do czynienia z sygnałami<br />
o ograniczonym widmie. Jak ograniczenie widma wpływa na<br />
efekt korelacji, pokazuje rys. 5. Ten sam przebieg szumowy<br />
został poddany filtracji ograniczającej jego widmo, przy czym<br />
w realizacji (a) zastosowany był filtr od dwukrotnie szerszym<br />
paśmie przenoszenia. Na rysunkach pokazano pełny przebieg<br />
funkcji korelacji oraz rozciągnięty fragment centralny.<br />
Widać, że w obydwu przypadkach funkcja korelacji jest<br />
znacznie szersza niż poprzednio, a ponadto łatwo oszacować,<br />
że w przypadku (a) jest 2-krotnie węższa niż w przypadku<br />
(b). Jednocześnie widać, że węższa funkcja korelacji<br />
ma 2-krotnie większą amplitudę. Uwzględniwszy wcześniej<br />
pokazaną zależność od czasu integracji, dochodzimy do<br />
wniosku, że całkowity efekt procesu korelacji jest proporcjonalny<br />
do iloczynu czasu trwania integracji i szerokości widma<br />
sygnału. Ten iloczyn jest określany jako zysk procesu korelacji<br />
i zapisywany wzorem k=B⋅t i , gdzie: B jest szerokością<br />
widma sygnału, a t i - czasem integracji.<br />
Proces korelacji jest uogólnieniem procesu filtracji dopasowanej,<br />
która jest stosowana także w tradycyjnych radarach<br />
impulsowych. W tabeli zestawiono trzy rodzaje sygnału sondującego<br />
- dwa stosowane w radiolokacji bardziej tradycyjnej<br />
i sygnał nadajnika stacji radiofonicznej FM.<br />
W pierwszym wierszu tabeli mamy najbardziej tradycyjny<br />
prostokątny impuls sondujący o czasie trwania t i wypełniony<br />
sinusoidalną falą nośną. Ponieważ sygnał sondujący jest<br />
znany - wiadomo, jak optymalnie odbierać jego echo - należy<br />
zastosować filtr dopasowany, który w tym przypadku jest prostym<br />
filtrem selektywnym nastrojonym na częstotliwość fali<br />
nośnej i o szerokości pasma przenoszenia w przybliżeniu równej<br />
odwrotności szerokości impulsu sondującego, B =1/t i . Odbiór<br />
korelacyjny echa takiego impulsu dałby ten sam efekt, ale<br />
rzecz jasna zastosowanie filtru selektywnego jest znacznie<br />
prostsze i tańsze w realizacji. Naturalnie zysk procesu korelacji<br />
jest w tym przypadku równy 1.<br />
W drugim wierszu tabeli mamy przypadek typowy dla<br />
współczesnych radarów - impuls sondujący wypełniony jest<br />
falą nośną, której częstotliwość zmienia się w czasie trwania<br />
impulsu o wartość ∆F. W tym przypadku do optymalnego odbioru<br />
echa potrzebny jest filtr dopasowany do charakterystyki<br />
zmian częstotliwości wewnątrz impulsu; jeśli w impulsie<br />
sondującym częstotliwość narasta z czasem, filtr opóźnia<br />
najmniej sygnały o najwyższej częstotliwości i odpowiednio<br />
więcej opóźnia sygnały o niższych częstotliwościach.<br />
W efekcie wszystkie częstotliwości składowe jakby kumulują<br />
się w tym samym krótkim czasie, powodując tzw. kompresję<br />
impulsu. Energia impulsu na wyjściu filtru kumuluje się<br />
w czasie wielokrotnie krótszym niż czas trwania impulsu<br />
przed kompresją, a moc szczytowa impulsu na wyjściu odpowiednio<br />
rośnie, co daje zysk procesu korelacji k=∆F•t i .<br />
Chociaż występuje tu zysk korelacji, to konstruktorom tego<br />
typu radarów daje się uniknąć liczenia funkcji korelacji. Ponieważ<br />
i tym razem oczekiwany sygnał jest dokładnie znany,<br />
można tak zaprojektować filtr dopasowany, że jego działanie<br />
jest ekwiwalentne procesowi korelacji. Najbardziej znaną<br />
realizacją takiego filtru w radiolokacji jest linia dyspersyjna<br />
z akustyczną falą powierzchniową, dziś wypierana przez cyfrowe<br />
filtry kompresji.<br />
ELEKTRONIKA 11/<strong>2009</strong> 103
W przypadku wykorzystania nadajnika stacji radiowej FM<br />
mamy do czynienia z sygnałem zupełnie odmiennym od<br />
dwóch pozostałych. Po pierwsze jest to sygnał całkowicie nieprzewidywalny.<br />
Po drugie, jak wynika z podanych w powyższej<br />
tabeli typowych wartości liczbowych, czas t i (w tym<br />
przypadku t i trudno nazywać czasem trwania impulsu, natomiast<br />
jest to czas integracji echa, więc sam symbol t i zachowuje<br />
swoją literową logikę) jest bardzo długi w stosunku do<br />
oczekiwanej maksymalnej odległości echa. Zwraca uwagę<br />
duży zysk przetwarzania, który w tym przypadku jest osiągany<br />
za cenę właśnie bardzo długiego czasu integracji - o kilka rzędów<br />
wielkości dłuższego niż w zwykłych radarach aktywnych.<br />
Długi czas integracji i wysoki zysk przetwarzania w PCL<br />
są niezbędne, aby skompensować różne braki stacji radiowej<br />
jako nadajnika: stosunkowo niska moc najczęściej dostępnych<br />
nadajników, mały zysk anteny stacji nadawczej, która<br />
musi emitować energię dookoła, ale także podobnie mały<br />
zysk anteny odbiorczej. Jedynym sposobem uzyskania sensownego<br />
zasięgu wykrywania jest odpowiednio wysoki zysk<br />
przetwarzania. Szerokość pasma stacji FM też nie jest imponująca.<br />
Teoretycznie przynależne stacji z modulacją FM<br />
pasmo ok. 150 kHz jest zwykle wykorzystane w nie więcej niż<br />
50%, co wynika z treści większości nadawanych programów<br />
radiowych. Aby zapewnić wymagany zysk przetwarzania, pozostaje<br />
tylko odpowiednie wydłużenie czasu integracji. Pozostawmy<br />
jednak na razie problematykę zasięgu radarów<br />
PCL, zanim do końca nie wyjaśni się, jak one działają. Dotychczas<br />
wyjaśniło się zaledwie tyle, że echo całkowicie przypadkowego<br />
sygnału „okazyjnego” nadajnika można wykryć<br />
pośród innych sygnałów przez poddanie go procesowi korelacji.<br />
Teraz należałoby pokazać, jak w naprawdę działa radar<br />
PCL, ale jeszcze wcześniej trzeba uściślić podstawowe pojęcia<br />
stosowane w radiolokacji.<br />
azymutalnym. Te przykładowe obiekty zostaną wykorzystane<br />
do ważnych wywodów w dalszej części artykułu. Tymczasem<br />
z tego rysunku wynikają już dwie istotne obserwacje.<br />
Pierwsza jest taka, że w radarze PCL (a szerzej - w radarze<br />
bistatycznym) nie ma praktycznego zastosowania tradycyjnie<br />
pojmowana odległość celu od radaru. Jest to<br />
zrozumiałe, bo w systemie bistatycznym właściwie nie wiadomo,<br />
gdzie mieści się ten radar - w lokalizacji nadajnika, czy<br />
odbiornika? Niewielka to jednak strata, gdyż w istocie tradycyjne<br />
współrzędne celu widziane względem lokalizacji radaru<br />
miały tylko charakter lokalny i tymczasowy; dalszy proces<br />
uogólniania informacji zawsze prowadził do wyznaczania lokalizacji<br />
celu na mapie. Druga obserwacja ma większą wagę:<br />
okazuje się, że korzystając z jednego nadajnika, nie da się<br />
jednoznacznie wyznaczyć lokalizacji celu. Problem można<br />
rozwiązać na dwa sposoby.<br />
Odległość i częstotliwość Dopplera w PCL<br />
Z tego, że PCL posługuje się nie swoimi nadajnikami, wynika<br />
- oprócz opisanych problemów z przetwarzaniem sygnału -<br />
inna trudność, związana z „geometrią” takiego systemu radiolokacyjnego.<br />
Wyznaczenie odległości do celu na podstawie<br />
czasu opóźnienia echa względem momentu sondowania<br />
jest proste w zwykłym radarze, gdzie sygnał sondujący biegnie<br />
do celu i z powrotem. Tak nie jest w przypadku PCL, co<br />
widać na rys. 1. Sygnał bezpośredni z nadajnika do odbiornika<br />
przebywa drogę R 0 , natomiast jego echo pokonuje drogę<br />
równą sumie R 1 i R 2 . W odbiorniku można zmierzyć tylko<br />
różnicę opóźnień echa i sygnału bezpośredniego. Jeżeli<br />
znamy R 0 , możemy wyznaczyć jedynie wartość wyrażenia<br />
R 1 + R 2 - R 0 . Liczba położeń celu dająca jednakową wartość<br />
jest teoretycznie nieskończona.<br />
Z lekcji geometrii wiadomo, że zbiór punktów, dla których<br />
suma R 1 + R 2 jest wielkością stałą utworzy elipsę, której<br />
ogniska znajdują się w lokalizacjach nadajnika i odbiornika.<br />
Różnym wartościom tej sumy będą odpowiadały różne elipsy.<br />
Uwzględnienie stałego składnika R 0 to tylko kwestia opisu<br />
danej elipsy. W przykładzie pokazanym na rys. 6. odległość<br />
między nadajnikiem a odbiornikiem wynosi 20 km, a elipsy dla<br />
kilku wartości różnicy opóźnień R 1 + R 2 - R 0 są wykreślone<br />
z zachowaniem skali. Elipsa zerowej różnicy opóźnień redukuje<br />
się do odcinka linii łączącej nadajnik z odbiornikiem.<br />
Z kolei dla znacznych wartości różnicy opóźnień elipsa jest<br />
bliska okręgowi; jednak rzeczywistym okręgiem byłaby tylko<br />
wtedy, gdyby odległość ognisk stała się zerowa. Na rysunku 6.<br />
zaznaczono dwa obiekty oznaczone symbolami A i B, które<br />
z lokalizacji odbiornika widziane są na zbliżonym kierunku<br />
Rys. 6. Przykładowe elipsy stałych różnic opóźnień sygnału bezpośredniego<br />
i jego echa<br />
Fig. 6. Exemplary ellipses of constant differences of delays between<br />
the direct signal and its echo<br />
Rys. 7. Wyznaczanie lokalizacji celu<br />
Fig. 7. Determining the location of a target<br />
104 ELEKTRONIKA 11/<strong>2009</strong>
Jeśli wykorzysta się dwa nadajniki dostatecznie odległe od<br />
siebie i od odbiornika, to uzyska się dwie przecinające się elipsy<br />
o jednym wspólnym ognisku, gdzie mieści się odbiornik; dwa<br />
punkty przecięcia obydwu elips wyznaczają potencjalne lokalizacje<br />
celu (rys. 7). Jeżeli skorzystać z trzech nadajników, trzecia<br />
elipsa przetnie się z drugą w jednym z tych punktów, co wyznaczy<br />
poszukiwane położenie obiektu. Naturalnie dla każdej pary<br />
ognisk można poprowadzić teoretycznie nieskończenie wiele<br />
elips. Przetwarzanie sygnałów każdego nadajnika prowadzi do<br />
wykrycia ech, dla których znane są wartości ∆R=R 1 + R 2 -R 0 .<br />
Te wartości z poszczególnych kanałów przetwarzania należy<br />
skojarzyć, aby wyznaczyć położenia wykrytych ech. Warto zauważyć,<br />
że w zależności od dokładności wyznaczania ∆R kojarzenie<br />
może być mniej lub bardziej jednoznaczne. Różne<br />
średnice okręgów kojarzenia na rys. 7 sygnalizują ten problem.<br />
Alternatywnie położenie celu (dwie współrzędne) można<br />
wyznaczyć z użyciem jednego nadajnika, jeśli znany jest kąt<br />
azymutu celu odniesiony do tzw. linii bazowej, łączącej nadajnik<br />
z odbiornikiem (Θ a na rys. 1). Wtedy, znając długość<br />
jednego boku (R 0 ) trójkąta, sumę dwóch pozostałych jego<br />
boków (R 1 + R 2 ) oraz kąt Θ a , można wyznaczyć odległość R 2 .<br />
Podobnie jak problem odległości skomplikowana sprawa<br />
jest z częstotliwością Dopplera. Po pierwsze trzeba ją zdefiniować.<br />
W radarze klasycznym jest to różnica częstotliwości<br />
nośnych sygnałów nadawanego i echa. W radarze PCL definiuje<br />
się ją jako różnicę częstotliwości sygnału bezpośredniego<br />
i echa. Ponowny rzut oka na rys. 1 pozwala ocenić, że jej wyznaczenie<br />
teoretycznie nie powinno być zbyt trudne. Różnica<br />
częstotliwości dwóch sygnałów jest szybkością zmian w czasie<br />
ich względnego przesunięcia fazowego. Jeden sygnał ma<br />
fazę stałą, gdyż przychodzi bezpośrednio od stacjonarnego<br />
nadajnika, a faza drugiego sygnału zależy od długości drogi,<br />
jaką przebywa echo, czyli sumy R 1 + R 2 . W efekcie częstotliwość<br />
Dopplera jest proporcjonalna do szybkości zmian odległości<br />
sumarycznej R s = R 1 + R 2 i wyraża się wzorem<br />
F d = ∆R s /(∆t⋅λ), gdzie: symbole ∆R s i ∆t oznaczają chwilowe<br />
zmiany odpowiednio drogi i czasu, a λ - długość fali. Wynika<br />
z tego, że w radarze PCL cele poruszające się po elipsach<br />
takich jak na rys. 6 mają zerową częstotliwość Dopplera, analogicznie<br />
jak w klasycznym radarze cele poruszające się po<br />
okręgu ze środkiem w lokalizacji radaru. Cele poruszające do<br />
wnętrza elipsy mają częstotliwość Dopplera dodatnią, a cele<br />
poruszające się w kierunku na zewnątrz - ujemną.<br />
Jako interesującą z użytkowego punktu widzenia należy<br />
uznać odległość R 2 , jednak w ogólnym przypadku zmianom<br />
R 2 nieodłącznie towarzyszą zmiany R 1 . Dlatego właściwości<br />
zasięgowe radaru PCL zwykle pokazuje się w formie graficznej<br />
jako zbiór punktów spełniających jego równanie zasięgu.<br />
Był już podobny problem przy pomiarze odległości do obiektu,<br />
gdzie występowała suma R 1 + R 2 , a odpowiednie zbiory<br />
punktów leżały na elipsach. Tutaj równanie zasięgu wyznacza<br />
zbiór punktów, dla których iloczyn kwadratów odległości<br />
do dwóch punktów (lokalizacje nadajnika i odbiornika) jest<br />
wielkością stałą. Okazuje się, że zbiór punktów o takiej właściwości<br />
jest podobny do elipsy, a nazywa się w matematyce<br />
owalem Cassiniego.<br />
Na rysunku 8 pokazany jest zestaw owali Cassiniego dla<br />
ognisk umieszczonych symetrycznie względem osi Y w odległości<br />
równej 1. Parametr podany przy poszczególnych<br />
krzywych oznacza wartość iloczynu w równaniu R 1 2 R 2 2 = b 2<br />
opisującym owal Cassiniego. Pokazane owale trzeba przeskalować<br />
do konkretnego przypadku, tak aby odległość między<br />
ogniskami odpowiadała odległości między nadajnikiem<br />
a odbiornikiem; wtedy odpowiednio zmienią się parametry<br />
owali oznaczone b 2 . Na przykład przemnażając skale na<br />
osiach przez 10 i stosując jako jednostkę odległości kilometr<br />
(co oznacza odległość między odbiornikiem a nadajnikiem<br />
20 km), trzeba przemnożyć parametry b 2 przez 100. Warto<br />
zauważyć, że z podanego równania zasięgu wynika, że wartość<br />
R 1 2 R 2 2 jest wprost proporcjonalna do SPO, więc parametry<br />
b 2 na wykresie na rys. 8 mogą być przeliczone na<br />
wartości SPO. Daje to możliwość szybkiej oceny maksymalnego<br />
zasięgu dla różnych obiektów powietrznych.<br />
Należy tu podkreślić, że zestaw owalów Cassiniego przedstawia<br />
tylko potencjalne zasięgi radaru. Zasięgi rzeczywiste<br />
będą zależały od charakterystyk antenowych, czyli liczby,<br />
kształtu i rozkładu uformowanych wiązek obserwacyjnych.<br />
W następnych punktach tego opisu okaże się, że formowanie<br />
każdej wiązki obserwacyjnej angażuje odpowiednie zasoby<br />
sprzętowe i oprogramowanie. Jeśli w najprostszym przypadku<br />
radar ma tylko jedna wiązkę obserwacyjną, pokrycie zasięgowe<br />
będzie tylko takie, ile ta jedna wiązka „wybierze” z całej<br />
powierzchni owalu odpowiadającego danej SPO, jak to zostało<br />
przykładowo zilustrowane na rys. 8. Także warto pod-<br />
Zasięg radaru PCL<br />
Nie wdając się w szczegóły obliczeń zasięgowych, warto<br />
zająć się charakterystyczną cechą radaru PCL pod tym względem.<br />
W każdym klasycznym radarze obliczenie zasięg sprowadza<br />
się do prostego równania:<br />
S/N min = Aσ/R 4<br />
gdzie: S/N min - minimalny stosunek sygnału do szumu wymagany<br />
do wykrycia obiektu (z określonym prawdopodobieństwem<br />
wykrycia i prawdopodobieństwem fałszywego<br />
alarmu), A - stała wielkość zależna od parametrów radaru,<br />
σ - skuteczna powierzchnia odbicia (SPO) obiektu, R - odległość<br />
wykrywanego obiektu.<br />
W radarze PCL to równanie przyjmuje formę:<br />
S/N min = Aσ/(R 1 2 R 2 2 )<br />
gdzie: R 1 i R 2 są odległościami obiektu odpowiednio od nadajnika<br />
i odbiornika (rys. 1).<br />
Rys. 8. Owale Cassiniego wyznaczające maksymalne pokrycie zasięgowe<br />
i wiązka obserwacyjna wyznaczająca realny obszar wykrywania<br />
Fig. 8. Cassini ovals indicating the maximum range coverage and<br />
a surveillance beam<br />
ELEKTRONIKA 11/<strong>2009</strong> 105
kreślić to, że owale Cassiniego i charakterystyka anteny określają<br />
tylko kształt pokrycia zasięgowego. Ilościowe wyznaczenie<br />
zasięgów na poszczególnych kierunkach dla określonego typu<br />
obiektu zależy od mocy nadajnika, czułości odbiornika i zysku<br />
przetwarzania. Szczególne znaczenie ma efektywna czułość<br />
odbiornika, którą w technice PCL należy rozpatrywać<br />
z uwzględnieniem bardzo trudnego problemu maskowania<br />
słabych ech użytecznych przez sygnał bezpośredni z nadajnika<br />
i echa stałe. Ten problem będzie poruszony dalej, przy<br />
prezentowaniu aparatury radaru PCL i jej funkcjonowania.<br />
Jak działa radar PCL<br />
Spróbujmy zacząć opis działania radaru PCL tradycyjnie od<br />
schematu blokowego. Jest w tym pewna trudność, dlatego że<br />
podział na fizyczne bloki niewiele by pokazał. Jeśli jednak<br />
przyjąć, że w tym schemacie bloki to kolejno realizowane funkcje,<br />
to taki schemat wyglądałby jak na rys. 9. Jest to przykładowa<br />
struktura funkcjonalna z anteną 8-elementową, np. taką<br />
jaką pokazano dalej na fotografii. Z tej 8-elementowej anteny<br />
formowane są trzy wiązki obserwacyjne (na schemacie Wo1 -<br />
Wo3) oraz jedna wiązka skierowana na nadajnik, czyli wiązka<br />
referencyjna (Wr). W kolejnych punktach zostaną omówione poszczególne<br />
bloki funkcjonalne tego schematu.<br />
Funkcjonowanie radaru normalnie zaczyna się w nadajniku,<br />
ale tutaj rzecz jasna takiego nie ma. Musi natomiast<br />
radar PCL mieć antenę i to taką o odpowiednich charakterystykach,<br />
a wiąże się to ściśle ze szczególnym sygnałem, jaki<br />
ten radar wykorzystuje. Porównajmy dwa przebiegi na rys. 10,<br />
obydwa sporządzone dla radarów o zasięgu maksymalnego<br />
ok. 100 km.<br />
W radarze impulsowym (rys. 10a) sygnał nadawany pojawia<br />
się na krótką chwilę (tutaj 10 µs) i znika, a radar przechodzi<br />
do trybu odbioru echa. Dotąd było zrozumiałe, że jak się<br />
nadaje, to się nie odbiera i odwrotnie, a czas trwania impulsu<br />
nadajnika wyznacza martwą strefę, gdzie radar po prostu nie<br />
widzi. Tak komfortowej sytuacji nie ma radar typu PCL<br />
(rys. 10b). Tutaj do odbiornika dociera praktycznie jednocześnie<br />
echo i sygnał sondujący. Warto zwrócić uwagę, że potrzebna<br />
do wykrycia obiektu porcja sygnału, którą mierzy się<br />
grubymi ułamkami lub całymi sekundami (tutaj 1 sekunda), jest<br />
o trzy rzędy wielkości dłuższa od czasu opóźnienia najdalszego<br />
echa, który zazwyczaj ledwie osiąga milisekundę. Musi zatem<br />
wystąpić nakładanie się w czasie sygnału bezpośredniego (nadawanego)<br />
i sygnału echa. Oczywiście nie można dopuścić do<br />
odbioru echa razem z sygnałem bezpośrednim, gdyż ten<br />
ostatni jest zwykle o wiele rzędów wielkości (nawet do 100 dB)<br />
silniejszy od echa i całkowicie zamaskowałby jego obecność.<br />
Ponieważ zarówno echo, jak i sygnał bezpośredni są jednakowo<br />
niezbędne do funkcjonowania PCL, trzeba je odebrać<br />
oddzielnymi, wzajemnie odseparowanymi kanałami. Jest przy<br />
tym bardzo ważne, aby każdy z kanałów odbierał jak najmniej<br />
sygnału dla niego nie przeznaczonego. W praktyce oznacza<br />
to, że charakterystyka anteny odbierającej echa powinna wykazywać<br />
jak najgłębsze minimum na kierunku nadajnika.<br />
W praktyce okazuje się, że nie można dostatecznie skutecznie<br />
stłumić sygnału bezpośredniego charakterystyką anteny<br />
i trzeba stosować dodatkowe „tricki” kompensujące jego obecność<br />
przez odpowiednią obróbkę sygnału.<br />
Antena i odbiór sygnałów<br />
bezpośredniego i echa<br />
Rys. 9. Schemat blokowy radaru PCL z ośmioelementową anteną<br />
i trzema wiązkami obserwacyjnymi<br />
Fig. 9. Block diagram of a PCL radar with an 8-element antenna<br />
and three surveillance beams<br />
Jako dobry przykład na rys. 11 pokazana jest antena demonstratora<br />
radaru PCL wykonanego w Instytucie Systemów<br />
<strong>Elektronicznych</strong> Politechniki Warszawskiej. W tym przypadku<br />
antenę tworzy szyk ośmiu typowych anten radiowych UKF<br />
rozmieszczonych równomiernie na okręgu o średnicy ok.<br />
2,4 m. Widoczne na rysunku anteny Yagi stanowią dodatkowe<br />
wyposażenie przeznaczone do eksperymentowania z nadajnikami<br />
telewizji.<br />
Rys. 10. Porównanie zależności czasowych w radarze impulsowym<br />
i PCL<br />
Fig. 10. Comparison of timing in a pulse radar and PCL<br />
Rys. 11. Antena demonstratora PCL wykonanego w Instytucie Systemów<br />
<strong>Elektronicznych</strong> Politechniki Warszawskiej<br />
Fig. 11. The antenna of the PCL demonstrator built in the Institute<br />
of Electronic Systems of the Warsaw University of Technology<br />
106 ELEKTRONIKA 11/<strong>2009</strong>
Jak widać, sama instalacja antenowa jest bardzo prosta, ale<br />
w radarze PCL system antenowy to nie tylko sam szyk antenowy.<br />
W formowaniu charakterystyk kierunkowych uczestniczy cały<br />
system odbiorczy i cyfrowego przetwarzania sygnału. Każdy element<br />
antenowy jest połączony z oddzielnym odbiornikiem cyfrowym,<br />
a kształtowanie charakterystyk dobywa się cyfrowo.<br />
Sygnał z każdego elementu antenowego jest podłączony<br />
kablem koncentrycznym do wzmacniacza selektywnego, a następnie<br />
jest poddawany bezpośrednio przetwarzaniu na postać<br />
cyfrową. Pasmo przenoszenia wzmacniacza powinno obejmować<br />
częstotliwości wszystkich potencjalnych stacji nadawczych,<br />
których sygnał będzie wykorzystywany. W przypadku<br />
stacji radiowych FM będzie to pasmo 88...108 MHz. Do przetworzenia<br />
na formę cyfrową można wykorzystać dostępne komercyjnie<br />
gotowe tzw. moduły akwizycji danych, z szybkimi<br />
przetwornikami analogowo-cyfrowymi. Przy paśmie odbieranego<br />
sygnału 20 MHz (pasmo UKF: 88…108 MHz) wystarczająco<br />
szybkie byłoby przetwarzanie z częstotliwością ok.<br />
40 MHz, jednak wyższa częstotliwość przetwarzania sprzyja<br />
jakości obróbki. W omawianym demonstratorze zastosowano<br />
14-bitowe przetworniki A/C z częstotliwością próbkowania<br />
250 MHz, co nie jest dziś wielkim wyzwaniem technicznym.<br />
Moduł akwizycji danych w istocie realizuje funkcje<br />
urządzenia określanego angielskim terminem Software Defined<br />
Radio (SDR), co po polsku można nazwać programowym<br />
odbiornikiem radiowym. Taki odbiornik jest połączony z komputerem<br />
za pomocą typowego łącza, np. USB, którym w jedną<br />
stronę przesyłany jest sygnał wyjściowy, a w drugą stronę<br />
z komputera przekazywane są polecenia wymagane do nastrojenia<br />
odbiornika na odpowiednią stację radiową FM, przy<br />
czym wybór stacji następuje za pomocą cyfrowego filtru pasmowego.<br />
Szerokość pasma przenoszenia tego filtru jest odpowiednia<br />
do widma transmitowanego sygnału FM, czyli ok.<br />
100 kHz. Takie ograniczenie pasma pozwala obniżyć częstotliwość<br />
próbkowania w dalszej obróbce do ok. 200 kHz.<br />
W tym miejscu zasadne jest pytanie, jak funkcjonuje system<br />
akwizycji danych, kiedy radar PCL wykorzystuje kilka nadajników.<br />
Możliwe są dwa rozwiązania. W pierwszym -<br />
najbardziej komfortowym stosuje się odpowiednią liczbę równolegle<br />
pracujących odbiorników - każdy nastrojony na inną<br />
stację. W drugim - oszczędnościowym - jeden odbiornik jest<br />
sekwencyjnie przestrajany na kolejną stację po zebraniu danych<br />
z poprzedniej. Także dalsza obróbka może odbywać się<br />
równolegle w kilku systemach komputerowych lub sekwencyjnie.<br />
W tym drugim przypadku trzeba wyznaczyć i zapamiętać<br />
elipsy odległości z każdej pary nadajnik-odbiornik,<br />
a następnie skojarzyć je, aby wyznaczyć lokalizację celu.<br />
Rzecz jasna moduł akwizycji danych nie musi realizować<br />
pełnej funkcjonalności radia programowego. Ponieważ celem<br />
nie jest odtworzenie nadawanego przez daną stację programu,<br />
lecz tylko wykorzystanie pełnego widma rozsiewanego sygnału,<br />
sygnał cyfrowy w paśmie częstotliwości nośnej jest poddawany<br />
demodulacji kwadraturowej. Ten zabieg przetwarza sygnał pasmowy<br />
na dwie składowe: synfazową i kwadraturową, oznaczane<br />
odpowiedni symbolami I (In phase) oraz Q (Quadrature),<br />
z których można odczytać pełną informację o amplitudzie i fazie<br />
sygnału oryginalnego na podstawie ich wartości chwilowych<br />
(próbek). Technika detekcji fazowej I/Q jest stosowana także<br />
w tradycyjnych radarach i nie jest celowe jej wyjaśnianie.<br />
Różnica jest tylko taka, że dotychczas zwykle była ona realizowana<br />
układami analogowymi, a tutaj jest to realizowane cyfrowo.<br />
Znajomość amplitudy i fazy sygnału jest potrzebna do<br />
zasadniczego procesu korelacji, prowadzącego do wykrycia<br />
echa, ale najpierw jest ona wykorzystywana do formowania charakterystyk<br />
anteny.<br />
Elektroniczne formowanie charakterystyk<br />
anteny<br />
Idea elektronicznego formowania wiązek charakterystyki<br />
anteny jest znana i stosowana w radiolokacji od kilku dziesięcioleci.<br />
Cyfrowe formowanie wiązek jest szczególną realizacją<br />
tej idei - również dobrze znaną w radarach, choć nie od tak<br />
dawna. Pomimo, że nie jest to najbardziej wyróżniająca właściwość<br />
radaru PCL, cyfrowe formowanie wiązek może być na<br />
tyle nowe dla Czytelnika, że warto poświęcić mu trochę<br />
miejsca. W omawianym radarze PCL antena jest kołowym<br />
szykiem elementów, a nie płaskim jak w większości radarów,<br />
ale dobrze jest zacząć od anteny fazowanej w postaci szyku<br />
płaskiego jak na rys. 12a.<br />
Elementy anteny odbierają falę płaską padającą pod<br />
określonym kierunkiem Θ względem kierunku prostopadłego<br />
do linii szyku. Sygnały z poszczególnych elementów są wprowadzone<br />
do sumatora poprzez sterowane przesuwniki fazy.<br />
Gdy fala pada pod kątem prostym (Θ = 0), dociera do<br />
wszystkich elementów jednocześnie. Jeśli wszystkie przesuwniki<br />
fazy są ustawione na zero, tzn. sygnały są sumowane<br />
bezpośrednio - tak jak przychodzą - nastąpi koherentna kumulacja<br />
sygnału wyjściowego. Stopień tej kumulacji, czyli zysk<br />
kierunkowy anteny zależy od liczby elementów w szyku, a ponieważ<br />
wymagana jest określona odległość między elementami<br />
(zbliżona do połowy długości fali), zysk anteny rośnie ze<br />
wzrostem rozpiętości anteny.<br />
Jeśli fala pada pod katem innym niż prostopadle, dociera<br />
do poszczególnych elementów niejednocześnie - najpierw do<br />
elementu N, potem sąsiedniego, a na końcu do elementu<br />
pierwszego. Różnica czasu pobudzenia kolejnych elementów<br />
przekłada się na różnicę fazy sygnałów pobudzających. Bezpośrednie<br />
zsumowanie tych sygnałów (z zerowymi ustawieniami<br />
przesuwników fazy) nie prowadzi wtedy do kumulacji<br />
sygnału na wyjściu. Aby taka kumulacja nastąpiła, należy<br />
wprowadzić dla kolejnych sygnałów przesunięcia fazy kompensujące<br />
przesunięcie fazy sygnałów pobudzających.<br />
a)<br />
b)<br />
Rys. 12. Zasada działania anteny fazowanej: a) szyk liniowy,<br />
b) fragment szyku kołowego<br />
Fig. 12. Principle of operation of a phased array antenna: a) linear<br />
array, b) circular array<br />
ELEKTRONIKA 11/<strong>2009</strong> 107
Dla każdego kierunku odbieranej fali można tak wysterować<br />
przesuwniki fazy, aby maksymalizować czułość odbioru<br />
z tego kierunku. Ten efekt zwykle określa się w inny sposób:<br />
odpowiednie ustawienie przesuwników fazy formuje wiązkę<br />
charakterystyki anteny skierowaną pod wymaganym kątem Θ.<br />
Według tego schematu można uformować wiele wiązek „nastrojonych”<br />
na różne kąty Θ. Aby to osiągnąć, trzeba sygnały<br />
z poszczególnych elementów doprowadzić do wielu układów<br />
formowania wiązki (UFW), każdy z niezależnym zestawem<br />
przesuwników fazy i sumatorem. Aby nie stracić czułości<br />
wskutek rozdziału sygnałów na wiele kanałów formowania<br />
wiązek, należy je najpierw wzmocnić.<br />
Analogicznie działa formowanie wiązek w antenie<br />
z kołowym szykiem elementów, jednak występują tu dodatkowe<br />
istotne utrudnienia. Po pierwsze, rozmieszczenie elementów<br />
na okręgu (rys. 8b) powoduje, że bardziej skomplikowane jest<br />
wyznaczenie przesunięć fazy dla poszczególnych ścieżek. Po<br />
drugie, ponieważ charakterystyki poszczególnych elementów<br />
są bezkierunkowe w rozpatrywanej płaszczyźnie, mocno ujawniają<br />
się tu wzajemne sprzężenia między nimi, co jeszcze bardziej<br />
komplikuje wyznaczenie przesunięć fazy w funkcji<br />
kierunku wiązki. Kiedy jednak te trudności się pokona, antena<br />
z szykiem kołowym daje bardzo cenną właściwość - pozwala<br />
uformować wiązkę na dowolnym kącie azymutu, gdyż niezależnie<br />
od kierunku prezentuje ona takie same rozmiary fizyczne.<br />
W przypadku szyku liniowego ten zakres kątów jest<br />
praktycznie ograniczony do ±45° względem kierunku prostopadłego;<br />
na kierunkach bardziej odległych od prostopadłego<br />
szyk liniowy prezentuje tak małą fizyczną rozpiętość, że jego<br />
zysk szybko maleje.<br />
Cyfrowe formowanie wiązek<br />
Pokazany na rys. 12 schemat formowania wiązki jest najbardziej<br />
podstawowym układem elektronicznego formowania<br />
wiązek, funkcjonującym na częstotliwości radiowej odbieranego<br />
sygnału. Widać, że jest on trudny w realizacji, gdyż wymaga<br />
stosowania oddzielnego analogowego UFW dla<br />
każdego kierunku, a poszczególne komponenty UFW zajmują<br />
dużo miejsca, są kosztowne i niezbyt dokładne. To samo<br />
można uzyskać mniejszym kosztem i z większą dokładnością,<br />
stosując cyfrowe formowanie wiązek. W tym miejscu<br />
trzeba powrócić do wyjścia układów pozyskiwania sygnałów.<br />
Pozyskiwanie sygnału kończy się na etapie wytworzenia<br />
cyfrowych składowych I/Q sygnałów odebranych przez<br />
wszystkie elementy anteny. Sekwencja kolejnych próbek tych<br />
sygnałów odebranych w całym stosunkowo długim czasie obserwacji<br />
(np. jednej sekundy) jest przesyłana do komputera<br />
i zapisywana w pamięci. Dalszą część przetwarzania realizuje<br />
odpowiednie oprogramowanie komputera, a pierwszym etapem<br />
jest cyfrowe formowanie wiązek.<br />
Jak pokazano na rys. 12. formowanie wiązki polega na<br />
sumowaniu sygnałów z odpowiednimi przesunięciami fazowymi.<br />
Dodatkowo należy wspomnieć, że zwykle w sumatorach<br />
UFW realizuje się odpowiednie ważenie amplitudowe<br />
poszczególnych sygnałów. Przesunięcia fazy decydują o kierunku<br />
osi wiązki, zaś ważenie amplitudowe służy nadaniu<br />
wiązce wymaganego kształtu, czyli szerokości i poziomu tzw.<br />
listków bocznych. Nietrudno zauważyć analogię tego procesu<br />
do filtracji cyfrowej. Filtracja cyfrowa też polega na sumowaniu<br />
sygnałów z określonymi przesunięciami fazy i wagami,<br />
a zestaw tych wag i przesunięć fazy nazywa się współczynnikami<br />
filtru. Różnica jest tylko taka, że w filtracji cyfrowej poszczególne<br />
sygnały podlegające sumowaniu to właściwie<br />
próbki tego samego sygnału z różnymi opóźnieniami, natomiast<br />
w UFW są to sygnały z kolejnych elementów anteny. Ta<br />
różnica nie przeszkadza, by całą potęgę techniki cyfrowej filtracji<br />
sygnałów wykorzystać do cyfrowego formowania<br />
wiązek. Warto zauważyć, jak bardzo uproszcza to praktyczną<br />
realizację wielu wiązek.<br />
Na schemacie blokowym z rys. 9 sygnały I/Q z ośmiu kanałów<br />
odbiorczych wprowadza się do czterech równoległych<br />
układów formowania wiązki (UFW). Każdy UFW realizuje filtr<br />
takiego rzędu, ile jest elementów anteny, przetwarzając próbki<br />
otrzymane z poszczególnych elementów w tym samym momencie<br />
czasu. W efekcie na wyjściu cyfrowego UFW otrzymuje<br />
się ciągi próbek sygnałów odebranych z kierunków<br />
pokrytych przez poszczególne wiązki. Wszystkie te próbki<br />
muszą być ponownie zapisane do pamięci, gdyż tylko dostęp<br />
do wszystkich umożliwi dalszą obróbkę. Jednocześnie pierwotne<br />
próbki sygnałów z poszczególnych odbiorników przestają<br />
być potrzebne, a zwolniona pamięć może być<br />
wykorzystana do zapisania sygnałów wyjściowych z UFW.<br />
Ile wiązek trzeba uformować - zależy od liczby wykorzystywanych<br />
nadajników. Dla każdego nadajnika trzeba uformować<br />
jedną wiązkę do odbioru sygnału bezpośredniego,<br />
a liczba i kierunki wiązek obserwacyjnych, czyli służących do<br />
odbioru ech, zależą od obszaru, gdzie powinny być wykrywane<br />
obiekty. Istotne jest przy tym, aby wiązki obserwacyjne<br />
miały jak najmniejszą czułość na kierunkach nadajników.<br />
W najprostszym przypadku pracy z jednym nadajnikiem<br />
wiązki mogą być uformowane jak poniżej na rys. 13.<br />
Uformowanie wiązek powinno uwzględniać realnie<br />
możliwy zasięg wykrywania na poszczególnych kierunkach,<br />
a także występowanie silnych ech stałych zakłócających<br />
odbiór ech użytecznych. W pokazanym przykładzie wiązki obserwacyjne<br />
(kolor czerwony) są tak uformowane, że minimalizują<br />
odbiór sygnału bezpośredniego nadajnika, a dodatkowo<br />
mają minima na kierunkach znanych obiektów stałych<br />
dających silne echo. Wiązka referencyjna, służąca do odbioru<br />
sygnału bezpośredniego (kolor niebieski), nie jest tu uformowana<br />
zbyt starannie, wykazując dość wysoki poziom listków<br />
bocznych, jednak to nie przeszkadza w funkcjonowaniu radaru,<br />
gdyż sygnał bezpośredni będzie dominujący. W schemacie<br />
pokazanym na rys. 8 formowane są trzy wiązki<br />
obserwacyjne i jedna referencyjna.<br />
Rys. 13. Przykładowe wiązki charakterystyki anteny w płaszczyźnie<br />
poziomej<br />
Fig. 13. Sample antenna pattern beams in the horizontal plane<br />
108 ELEKTRONIKA 11/<strong>2009</strong>
Adaptacyjne tłumienie ech od obiektów<br />
stałych<br />
Do tej pory ten problem był przemilczany, ale bez pozbycia<br />
się ech stałych cała idea radaru PCL byłaby mało przydatna.<br />
Wspomniano już wprawdzie, że formując wiązki obserwacyjne,<br />
można zadbać o to, aby miały one minima na kierunkach<br />
obiektów stałych, ale w praktyce jest to trudne i ma<br />
ograniczoną skuteczność. Można próbować uformować minimum<br />
na kierunku jednego czy dwóch obiektów stałych, ale takich<br />
obiektów może być w okolicy wiele i trudno jest<br />
uformować minimum charakterystyki na kierunku każdego<br />
z nich. Formowanie minimów charakterystyki anteny jest tylko<br />
pomocą w rozwiązaniu problemu, ale nie zapewnia jego skutecznego<br />
rozwiązania. Z techniki klasycznych radarów wiadomo,<br />
że staranne zaprojektowanie charakterystyki może<br />
w sprzyjających warunkach dać minimum o głębokości rzędu<br />
30…40 dB względem maksimum. To jest, jak się okazuje, daleko<br />
niewystarczające w przypadku PCL. Warto to powrócić<br />
do rys. 10, aby uświadomić sobie, w czym jest problem.<br />
W klasycznym radarze silne echa stałe, jeśli nie zostaną<br />
skutecznie stłumione, powodują maskowanie obecności<br />
słabych ech użytecznych w ograniczonym obszarze. W najgorszym<br />
przypadku obserwacja może być utrudniona nawet<br />
w pełnym kącie azymutu wokół radaru do pewnej odległości,<br />
np. 30 km, ale dalej echa stałe znikają za horyzontem i na<br />
wskaźniku już jest „czysto”. W radarze PCL nie można liczyć<br />
na taki komfort. Silne echo stałe jest obecne w całym zakresie<br />
obserwacji, działając podobnie jak przenikanie sygnału<br />
bezpośredniego z nadajnika, czyli podwyższając szum, na tle<br />
którego są wykrywane echa ruchome.<br />
Aby pokazać ten problem powróćmy do przykładu<br />
z rys. 6, gdzie nadajnik jest odległy od odbiornika o 20 km.<br />
Rozpatrzmy obiekt stały A o bardzo dużej SPO, np. 100 m 2 ,<br />
położony blisko linii bazowej, na elipsie gdzie: R A1 +R A2 =<br />
23,5 km oraz obiekt powietrzny B o małej SPO, np. 1 m 2 ,<br />
znajdujący się na tym podobnym kierunku względem odbiornika,<br />
zlokalizowany tak, że R B1 +R B2 = 56 km. Z wcześniejszych<br />
rozważań dotyczących zasięgu wynika, że stosunek<br />
mocy obydwu ech wyniesie 100(R B1 R B2 ) 2 /(R A1 R A2 ) 2 . W podanej<br />
sytuacji R A1 =R A2 = 11,75 km oraz R B1 = 22,5 km,<br />
R B2 = 33,5 km, a stosunek mocy ech od obiektów B i A wyniesie<br />
100•22,5 2 •33,5 2 /11,75 4 ≅ 35 dB. Na rysunku 14 pokazano,<br />
jak suma ech od tych dwóch obiektów zostanie<br />
przetworzona na funkcję korelacji po zasymulowaniu sygnału<br />
nadajnika szumem.<br />
W symulacji zastosowano realistyczny czas obserwacji<br />
równy jednej sekundzie przy częstotliwości próbkowania<br />
200 kHz, czyli przetwarzaniu poddano 200 tys. próbek. Pierwsze,<br />
co rzuca się w oczy, to brak rozróżnienia obydwu ech<br />
w głównej części wykresu. Jest to praktyczny skutek tego, co<br />
zostało zasygnalizowane wcześniej (por. rys. 10). W czasie sekundy<br />
fala przebywa drogę 300 tys. km, więc próbki sygnału odmierzają<br />
odcinki drogi 1,5 km. Numery próbek na wykresie są<br />
miarą opóźnienia sygnału względem momentu jego emisji przez<br />
nadajnik (bez odjęcia czasu opóźnienia sygnału bezpośredniego).<br />
W tej skali wszystkie wykrywane echa, przebywające<br />
drogę dziesiątek kilometrów, będą skupione w obrębie kilkudziesięciu<br />
próbek. Bliższe echo (A) rozpatrywanego przykładu<br />
reprezentuje próbka nr 15, a dalsze (B) - próbka nr 37. Dopiero<br />
mocny „zoom”, pokazany w dodatkowym oknie wykresu, pozwala<br />
je odróżnić. Jednak decydująca jest tu inna obserwacja.<br />
Widać na rys. 14, że silne echo, poza wąską „szpilką”<br />
funkcji korelacji, daje pewne tło tzw. czasowych listków bocznych.<br />
Jest ono relatywnie niskie w porównaniu do amplitudy<br />
Rys. 14. Funkcja korelacji sumy ech dwóch obiektów, silnego<br />
i słabego<br />
Fig. 14. Correlation function of the sum of two, strong and weak,<br />
target echoes<br />
tej szpilki; przy czasie integracji jednej sekundy jest to ok.<br />
-45 dB. Jednak listki boczne silnego echa są porównywalne<br />
do amplitudy echa słabego. W przypadku dwóch rozpatrywanych<br />
obiektów A i B widać jeszcze szansę wykrycia echa słabszego,<br />
ale już na granicy wymaganego prawdopodobieństwa.<br />
Echa bardziej odległych małych obiektów powietrznych będą<br />
jeszcze słabsze i mogą być w „towarzystwie” silnych ech<br />
stałych niewykrywalne, zwłaszcza że przykładowe echo odpowiadające<br />
100 m 2 SPO nie należy do najsilniejszych.<br />
Oprócz obiektów punktowych o znacznie większej SPO należy<br />
się liczyć z bardzo silnym echem o charakterze powierzchniowym,<br />
wynikającym z oświetlenia powierzchni ziemi<br />
bardzo szeroką wiązką przy znacznym rozmiarze (1…2 km)<br />
komórki rozdzielczości odległościowej.<br />
Warto tu zauważyć, że jako szczególnie silne echo stałe<br />
można traktować sygnał bezpośredni nadajnika. Dlatego problem<br />
usuwania sygnału bezpośredniego i silnych ech stałych<br />
należy rozpatrywać łącznie. Metodyka usuwania tej kategorii<br />
niepożądanych sygnałów generalnie opiera się na ich stabilnym<br />
charakterze. Tworzy się powierzchniową mapę takich<br />
sygnałów, aby następnie poddać je wektorowemu odejmowaniu<br />
od bieżącego sygnału; sygnały o niezmiennych amplitudach<br />
i fazach zostają zredukowane, a sygnały użyteczne<br />
ech ruchomych przechodzą z nieznacznymi stratami. Jest to<br />
określane jako adaptacyjne tłumienie ech stałych. Opisywanie<br />
tej techniki nie byłoby tu ani ciekawe, ani celowe. Cały wywód<br />
w tym punkcie ma tylko pokazać, jak ważne jest skuteczne<br />
osłabienie silnych ech stałych, aby można było mówić o sensownie<br />
użytecznym zasięgu wykrywania celów powietrznych.<br />
Dopiero po tej operacji można przystąpić do zasadniczej fazy,<br />
czyli wykrywania obiektów powietrznych poprzez korelację<br />
sygnału bezpośredniego z sygnałem echa.<br />
Korelacja dwuwymiarowa R x D<br />
Wiemy już, że funkcja korelacji daje maksymalną wartość<br />
w momencie, kiedy dwa sygnały wykazujące podobieństwo<br />
dokładnie „nakładają się” w procesie jej obliczania (krok nr 4<br />
na rys. 2). Można by na tej podstawie oczekiwać, że poddając<br />
procesowi korelacji sygnał bezpośredni z nadajnika i sygnał<br />
zawierający echa od obiektów powietrznych otrzymamy<br />
pewną liczbę „wyskoków” funkcji korelacji, każdy z nich reprezentujący<br />
określone echo o innym opóźnieniu, jeśli wszystkie<br />
z nich są kopiami sygnału nadajnika. Kłopot jednak polega<br />
na tym, że nie są. Rozważamy przecież echa od obiektów ru-<br />
ELEKTRONIKA 11/<strong>2009</strong> 109
chomych, które w ogólnym przypadku różnią się częstotliwością<br />
Dopplera. Sygnał echa z przesunięciem Dopplera nie<br />
jest już kopią sygnału nadajnika i proces korelacji nie doprowadzi<br />
do jego wykrycia. To prowadzi do schematu dwuwymiarowego<br />
obliczania funkcji korelacji, gdzie jednym<br />
wymiarem jest suma odległości R 1 + R 2 , określona wcześniej<br />
symbolem R s , a drugim częstotliwość Dopplera. Jedną<br />
z możliwych realizacji takiego schematu pokazuje rys. 15.<br />
Pierwsza operacja polega na opóźnieniu sygnału z kanału<br />
obserwacyjnego o stały czas odpowiadający odległości R 0<br />
między nadajnikiem i odbiornikiem. W efekcie następuje wyrównanie<br />
opóźnień sygnału referencyjnego i sygnału echa, tak<br />
że zmierzone dalej opóźnienie echa będzie reprezentować odległość<br />
R s . Sygnał bezpośredni z nadajnika (referencyjny) jest<br />
poddawany opóźnieniu w kolejnych sekcjach umownej linii<br />
opóźniającej z odczepami. Każda z sekcji opóźnia ten sygnał<br />
o czas odpowiadający rozróżnialności odległościowej systemu<br />
∆R, która - w przypadku wykorzystania nadajnika radiofonii FM<br />
o paśmie 100 kHz - wynosi ok. 3000 m. Warto tu podkreślić, że<br />
opóźnianiu podlega tu cała rozpatrywana przykładowo porcja<br />
sygnału odebrana w ciągu jednej sekundy i licząca 200 tys.<br />
próbek. Liczba sekcji opóźnienia M wynika z podziału maksymalnej<br />
oczekiwanej wartości R s (odpowiednik zasięgu instrumentalnego<br />
w typowym radarze) przez ∆R. Sygnał referencyjny<br />
z poszczególnych sekcji opóźnienia i sygnał z kanału<br />
obserwacyjnego są doprowadzone do układów mnożących.<br />
Należy się tu wyjaśnienie, że w omawianym schemacie obliczanie<br />
funkcji korelacji odbywa się nieco inaczej niż zostało to<br />
opisane w punkcie definiującym to pojęcie.<br />
Nie ma tu fazy kolejnych wzajemnych przesunięć obydwu<br />
sygnałów w granicach czasu ich trwania i poszukiwania momentu<br />
ich korelacji; w zamian momenty korelacji są tu<br />
„sztywno” określone przez poszczególne sekcje opóźniające.<br />
W układach mnożących obliczane są kolejno, dla tych samych<br />
numerów próbek, iloczyny odpowiednio zmodyfikowanego sygnału<br />
referencyjnego i sygnału echa, a suma tych iloczynów jest<br />
miarą korelacji sygnałów. Załóżmy chwilowo, że wykrywany jest<br />
obiekt o zerowej częstotliwości Dopplera (taki obiekt poruszałby<br />
się po elipsie, której ogniskami są lokalizacje nadajnika i odbiornika).<br />
Echo takiego obiektu jest miniaturową kopią sygnału<br />
nadajnika opóźnioną o czas odpowiadający odległości R s . Wykrycie<br />
tego obiektu spowoduje „wyskok” funkcji korelacji tylko<br />
dla określonej sekcji opóźnienia sygnału referencyjnego - takiej,<br />
gdzie oba sygnały nałożą się dostatecznie dokładnie.<br />
W pozostałych komórkach pojawią się większe (w komórkach<br />
sąsiednich) lub mniejsze (w komórkach bardziej odległych)<br />
resztki sygnału, czyli czasowe listki boczne procesu korelacji.<br />
Zerowy Doppler echa to jednak przypadek bardzo szczególny;<br />
radar musi być przygotowany na odbiór ech wykazujących<br />
dowolną realną częstotliwość Dopplera, które - jak<br />
już było wspominane - nie są kopiami sygnału nadawanego.<br />
Naturalne i domyślne podejście w takim przypadku to konfiguracja<br />
wielokanałowa, w której poszczególne kanały są „nastrojone”<br />
na odpowiednio wąskie pasma wartości F d<br />
pokrywające cały realny ich przedział. Trzeba jednocześnie<br />
zaznaczyć, że taka wielokanałowa konfiguracja musi być zastosowana<br />
po każdym odczepie opóźnienia sygnału referencyjnego.<br />
W ten sposobem dochodzimy do schematu<br />
dwuwymiarowej korelacji pokazanego na rys. 15.<br />
W każdej pionowej gałęzi tego schematu zastosowane<br />
jest szybkie cyfrowe przekształcenie Fouriera, oznaczone bardzo<br />
już utrwalonym w Polsce angielskim skrótem FFT (Fast<br />
Fourier Transform). Jak wiadomo, N-punktowa FFT dekomponuje<br />
sygnał wejściowy na N składowych jego widma, co pokazano<br />
na rys. 15 jako N wyjść o numerach 0, 1, 2…N-1. Im<br />
więcej punktów ma FFT, tzn. im więcej próbek sygnału podda<br />
się tej dekompozycji, tym więcej składowych widma, odpowiednio<br />
węższych, można otrzymać. Z przykładowych 200 tysięcy<br />
próbek jednosekundowej porcji sygnału można uzyskać<br />
teoretycznie 200 tysięcy kanałów częstotliwościowych, każdy<br />
o rozdzielczości będącej odwrotnością jednej sekundy, czyli<br />
1 Hz. W paśmie stacji radiowych FM (długość fali ok. 3 m) odpowiada<br />
to prędkości 3 m/s. Taka rozdzielczość dopplerowska<br />
jest bardzo atrakcyjna i nietrudno zauważyć, że praktycznie<br />
nieosiągalna w tradycyjnych radarach impulsowych.<br />
Ale warto też zauważyć, że FFT sygnału o długości<br />
200 tys. próbek pozwala na jednoznaczny pomiar częstotliwości<br />
Dopplera w zakresie ±100 kHz (połowa częstotliwości<br />
próbkowania); dla 3-metrowej fali przelicza się to na zakres<br />
prędkości ±300 000 m/s - dużo za dużo niż prędkości<br />
osiągane przez realne statki powietrzne. Ten zbędny nadmiar<br />
powodowałby znaczne obciążenie procesu przetwarzania.<br />
Dlatego w praktycznych rozwiązaniach sygnał przed FFT poddaje<br />
się dodatkowej obróbce, w której, po pierwsze, zmniejsza<br />
się liczbę próbek sygnału, pobierając co którąś próbkę zamiast<br />
kolejnych, a po drugie odfiltrowuje częstotliwości Dopplera<br />
nie osiągane przez echa od rzeczywistych obiektów<br />
powietrznych. W danym przypadku można „rozrzedzić” analizowany<br />
ciąg do 2048 próbek (przedtem uzupełniając ciąg<br />
wejściowy zerowymi próbkami, aby miał liczbę próbek będącą<br />
Rys. 15. Realizacja dwuwymiarowej funkcji korelacji R x D<br />
Fig. 15. Implementation of the two-dimensional R x D correlation<br />
function<br />
Rys. 16. Graficzna interpretacja dwuwymiarowej funkcji korelacji<br />
R x D; rysunek zrekonstruowany na podstawie artykułu [5]<br />
Fig. 16. Graphical interpretation of the two-dimensional R x D correlation<br />
function; the graph reconstructed from the article [5]<br />
110 ELEKTRONIKA 11/<strong>2009</strong>
całkowitą potęgą dwójki, gdyż tego wymaga obliczanie FFT),<br />
i odfiltrować składowe poza pasmem ±500 Hz, aby ograniczyć<br />
przedział prędkości obiektów powietrznych do realnych wartości<br />
z zakresu ±1500 m/s, a następnie zrealizować 2048-<br />
punktową FFT. Trzeba podkreślić, że rozdzielczość częstotliwościowa<br />
nie ulegnie w tym procesie żadnemu pogorszeniu,<br />
gdyż czas trwania sygnału pozostaje niezmienny<br />
W wyniku obliczenia FFT dla każdego odczepu ∆R powstaje<br />
dwuwymiarowa macierz sygnału wyjściowego, którą<br />
zilustrowano na rys. 16. Wykryte obiekty są widoczne jako<br />
„szczyty” funkcji korelacji zlokalizowane na płaszczyźnie odległość<br />
- prędkość odpowiednio do mierzonej odległości bistatycznej<br />
i częstotliwości Dopplera.<br />
w czasie nierzeczywistym na bazie sygnałów nadajnika telewizyjnego.<br />
Znane są dwie konstrukcje radaru firmy Lockheed<br />
Martin: Silent Sentry 2 i Silent Sentry 3, skrótowo oznaczanymi<br />
odpowiednio jako SS2 i SS3.<br />
Pierwsza powstała w 1997 r. i obejmowała wersję stacjonarną<br />
z anteną mocowaną na budynkach oraz wersję przewoźną.<br />
W obydwu wersjach zastosowano płaski szyk<br />
antenowy o rozmiarach 9 x2m (rys. 17) do odbioru ech, co<br />
ograniczało przestrzeń wykrywania do sektora ok. 100° w azymucie.<br />
Do odbioru sygnału bezpośredniego z nadajników<br />
służyły dodatkowe anteny Yagi zamontowane powyżej. O SS2<br />
Dalej już jest prawie „normalnie”<br />
Dalsze przetwarzanie sygnału w radarze PCL nie odbiega zasadniczo<br />
od tego, co znamy z typowych radarów impulsowych<br />
- trzeba wydzielić te „szczyty” funkcji korelacji, które można<br />
potraktować jako echa użyteczne, na tle pozostałych „nierówności”.<br />
Znajdują tu zastosowanie typowe techniki detekcji,<br />
a zatem stabilizacja poziomu fałszywego alarmu (SPFA),<br />
np. przez uśrednienie wartości sygnału z otoczenia badanej<br />
komórki, a następnie ustalenie progu detekcji i ewentualnie<br />
jego adaptacyjna regulacja. Różnica w porównaniu do analogicznych<br />
technik z tradycyjnej radiolokacji polega na tym, że<br />
SPFA należy przeprowadzić w dwóch dziedzinach: odległościowej<br />
i częstotliwościowej. Rzecz jasna trzeba pamiętać, że<br />
opisany w ostatnich punktach skomplikowany proces wykrywania<br />
dotyczył ech tylko jednego nadajnika. Aby zapewnić pokrycie<br />
przestrzeni nadające się do praktycznego wykorzystania<br />
i uzyskać jednoznaczną lokalizację wykrytych obiektów,<br />
trzeba ten proces zwielokrotnić dla kilku nadajników.<br />
Wykryte obiekty poddaje się procesowi śledzenia tras,<br />
który też zasadniczo nie różni się od tego, co jest znane z tradycyjnej<br />
współczesnej radiolokacji. Można tylko dodać, że<br />
proces śledzenia jest utrudniony ze względu na słabą rozdzielczość<br />
odległościową radaru PCL bazującego na sygnałach<br />
dostępnych nadajników (pojedyncze kilometry), ale<br />
z drugiej strony mocno wspomaga go bardzo dobra dokładność<br />
i rozdzielczość pomiaru częstotliwości Dopplera, której<br />
nie znają tradycyjne radary. Wobec znacznego ładunku nowości<br />
wynikającej z samej idei PCL opisywanie ogólnie znanych<br />
rozwiązań przetwarzania podetekcyjnego można tu<br />
uznać za zbędne.<br />
Praktyczne realizacje radarów PCL<br />
Jak już było wspomniane wcześniej, technika PCL jest jeszcze<br />
w stadium intensywnego rozwoju i powstało niewiele komercyjnych<br />
rozwiązań. Niemniej jednak kilka takich rozwiązań<br />
jest znanych. Przodujące firmy to amerykański Lockhee Martin,<br />
francuski Thales, europejska korporacja EADS, brytyjska<br />
firma BAE, oraz niemiecka FGAN-FHR. Zostaną tu zaprezentowane<br />
dwa rozwiązania, o których udało się zebrać trochę<br />
interesujących szczegółów.<br />
Silent Sentry<br />
Amerykańska firma Lockheed Martin jako pierwsza zaczęła<br />
oferować radary PCL, znane pod nazwą Silent Centry (cichy<br />
wartownik). Jako ciekawostkę warto wspomnieć, że Lockheed<br />
Martin przejął w latach 80. XX w. oddział IBM, który kilka lat<br />
wcześniej podjął zapomnianą ideę radaru pasywnego i zbudował<br />
radar zdolny do wykrywania i śledzenia samolotów<br />
Rys. 17. Systemy antenowe i aparatura radaru Silent Sentry 2; foto<br />
- Lockheed Martin [9]<br />
Fig. 17. Antenna systems and electronic equipment of the Silent<br />
Sentry 2 radar; photo - Lockheed Martin [9]<br />
ELEKTRONIKA 11/<strong>2009</strong> 111
Rys. 19. Fragment zobrazowania SS3 pokazujący śledzone trasy<br />
celów powietrznych; foto - Lockheed Martin [8]<br />
Fig. 19. Fragment of an SS3 radar picture showing tracked air targets;<br />
photo - Lockheed Martin [8]<br />
można mówić w czasie przeszłym, gdyż w 2002 r. zastąpił go<br />
znacznie nowocześniejszy i bardziej funkcjonalny SS3, ale<br />
obie wersje warto przedstawić, tym bardziej że są one stosunkowo<br />
dobrze opisane w dostępnych materiałach.<br />
Aparaturę SS2 zbudowano z komercyjnie dostępnych<br />
komponentów: procesory firmy Silicon Graphics z oprogramowaniem<br />
analizy sygnału i zobrazowania firmy Autometric<br />
Edge Product Family, a odbiorniki zostały opracowane w Lockheed<br />
Martin z elementów komercyjnych. SS2 przystosowano<br />
do wykorzystania nadajników stacji radiowych FM i nadajników<br />
telewizyjnych. Przy wykorzystaniu jednego nadajnika<br />
radar był zdolny do zgrubnego śledzenia celów powietrznych<br />
w dwóch współrzędnych (azymut, odległość). Podwyższona<br />
dokładność wymagała obróbki sygnału z co najmniej dwóch<br />
nadajników odpowiednio rozlokowanych względem lokalizacji<br />
radaru. Przy obserwacji ech trzech nadajników możliwe było<br />
śledzenie celów w trzech współrzędnych. Radar przystosowano<br />
do współpracy z trzema nadajnikami, przy czym czas<br />
obserwacji ech każdego nadajnika wynosi jedną sekundę.<br />
Według założeń projektantów system powinien wykrywać<br />
cele o powierzchni skutecznej 10 m 2 do odległości 200 km<br />
przy założeniu mocy współpracującego nadajnika 50 kW.<br />
W zależności od odległości celu różne są dokładności jego lokalizacji.<br />
W płaszczyźnie poziomej określa się promień<br />
okręgu, w którym 50% pomiarów jest prawidłowych i dla<br />
100 km ten promień wynosi 650 m przy dwóch współpracujących<br />
nadajnikach. W płaszczyźnie pionowej określa się<br />
przedział wysokości, w którym 50% pomiarów jest prawidłowych;<br />
na odległości 100 km wynosi on ±2000 m. Jak<br />
widać, osiągi tego urządzenia nie są imponujące, zwłaszcza<br />
jeśli uwzględnić fakt, że są one definiowane dla stosunkowo<br />
dużego obiektu powietrznego.<br />
Nowa wersja radaru SS3, to przede wszystkim daleko idąca<br />
miniaturyzacja przy jednocześnie większych możliwościach.<br />
Aparatura wcześniejszej wersji zajmowała cztery duże stojaki<br />
(rys. 17) i pozwalała przetwarzać echa maksymalnie trzech nadajników,<br />
SS3 może współpracować z ośmioma, a jego aparatura<br />
mieści się w trzech blokach o wymiarach walizek<br />
transportowych i jest 3-krotnie tańsza od poprzedniej. Ocenia<br />
się, że najnowsza technologia pozwoli wkrótce zmieścić całą<br />
aparaturę w jednej takiej walizce. Zmieniono również antenę,<br />
która pozwala na obserwację w pełnym zakresie kątów azymutu<br />
i lepiej nadaje się do zastosowań mobilnych. Większa<br />
liczba obsługiwanych nadajników pozwala uzyskać lepsze<br />
dokładności pomiaru współrzędnych. Według podawanych informacji<br />
dokładność lokalizacji w płaszczyźnie poziomej wynosi<br />
250 m, a dokładność pomiaru wysokości - 1000 m.<br />
CORA<br />
Rys. 18. Wygląd zewnętrzny i aparatura radaru Silent Sentry 3;<br />
foto - Lockheed Martin [8]<br />
Fig. 18. General view and equipment of the Silent Sentry 3 radar;<br />
photo - Lockheed Martin [8]<br />
CORA to skrót od Covert Radar. Jest to tzw. demonstrator<br />
technologii opracowany przez Niemiecki <strong>Instytut</strong> Fizyki Wysokich<br />
Częstotliwości i Technik Radarowych Stowarzyszenia<br />
Stosowanych Nauk Przyrodniczych w skrócie FGAN-FHR -<br />
od nazwy niemieckiej [7]. CORA wykorzystuje nadajniki programów<br />
radiofonii cyfrowej w paśmie VHF (150...350 MHz)<br />
i telewizji cyfrowej w paśmie UHF (400...700 MHz). Zestaw<br />
radarowy tworzą przyczepa z rozkładanym systemem antenowym<br />
i mikrobus z aparaturą elektroniczną (rys. 20).<br />
Antena składa się z 16 paneli z elementami promieniującymi<br />
tworzących szyk kołowy. Każdy panel ma dwie<br />
części. Dolna część, ze skrzyżowanymi dipolami, umożliwia<br />
odbiór fali o polaryzacji poziomej i pionowej w paśmie radiofonii<br />
cyfrowej. Każdy element współpracuje z oddzielnym<br />
torem odbiorczym, co pozwala formować cyfrowo wiązkę charakterystyki<br />
kierunkowej w pełnym kącie 360°. Górna część<br />
obsługuje pasmo telewizji cyfrowej o polaryzacji pionowej. Na<br />
każdym panelu są umieszczone dwa elementy w szyku poziomym,<br />
co pozwala formować nimi wiązkę sterowaną w sektorze<br />
azymutalnym ±90°. Alternatywnie w górnej części mogą<br />
być zamontowane elementy pracujące w paśmie radiofonii<br />
cyfrowej; wtedy na każdym panelu są dwa jednakowe elementy<br />
tworzące szyk pionowy, co umożliwia formowanie<br />
wiązki w płaszczyźnie elewacji.<br />
W systemie antenowym umieszczono 16 kompletnych<br />
torów odbiorczych, z których każdy obejmuje część w.cz. ze<br />
wzmacniaczem niskoszumnym i filtrem pasmowym, prze-<br />
112 ELEKTRONIKA 11/<strong>2009</strong>
twornik A/C, cyfrowy filtr wyboru kanału radiowego i układ decymacji.<br />
14-bitowe przetworniki A/C przetwarzają bezpośrednio<br />
sygnał w.cz. z częstotliwością próbkowania 100 MHz.<br />
Ponieważ telewizja cyfrowa wykorzystuje pasmo ok. 8 MHz<br />
wyjściowa częstotliwość próbkowania (po decymacji) też musi<br />
być odpowiednio wyższa niż 200 kHz, które wystarczało do<br />
przetwarzania sygnału analogowej radiofonii FM. W urządzeniu<br />
CORA stosuje się częstotliwość próbkowania 18,4 MHz.<br />
Całą tę aparaturę części antenowej tworzy blok w.cz. i cztery<br />
płyty przetwarzania cyfrowego, po cztery kanały obróbki na<br />
każdej. Strumień danych wyjściowych z każdej płyty jest przesyłany<br />
oddzielnym łączem optycznym do dalszego przetwarzania<br />
w mikrobusie. Oddzielnymi łączami optycznymi<br />
przesyłane są sygnały zegarowe i sterujące.<br />
Cztery strumienie danych z systemu antenowego są<br />
obsługiwane przez cztery serwery Quad Opteron. W każdym<br />
serwerze dane są zapisywane na dwóch twardych dyskach,<br />
każdy o pojemności 1000 GB, co daje w sumie przestrzeń<br />
zapisu 8000 GB. Dalsze przetwarzanie wykorzystuje sieć<br />
twardych dysków RAID (Redundant Array of Independent<br />
Disks) o sumarycznej pojemności ponad 15000 GB. Podane<br />
liczby dają wyobrażenie, jak potężne zasoby muszą być zaangażowane<br />
do sterowania przetwarzaniem sygnału cyfrowego,<br />
formowania charakterystyk antenowych i procesu<br />
korelacji prowadzącego do detekcji echa.<br />
Demonstrator CORA był poddany testom z wykorzystaniem<br />
cyfrowych stacji radiofonicznych (DAB). Uzyskano tzw.<br />
odległość bistatyczną (różnica dróg sygnału echa i sygnału<br />
bezpośredniego) wykrywania samolotów rejsowych do<br />
120 km. Mały samolot Cessna lecący na wysokości 300 m był<br />
wykrywany na odległości bistatycznej 30 km. Na rys. 21 pokazane<br />
są zarejestrowane wykrycia przelatujących samolotów<br />
rejsowych, sięgające odległości bistatycznej 120 km. Powiększony<br />
fragment pokazuje obserwowany przez 7 minut lot samolotu<br />
Cessna w czasie oddalania (ujemny Doppler) - słabiej<br />
widoczny zygzakowaty ślad trasy biegnący prawie pionowo.<br />
Warto zauważyć, że liczba oznaczająca zasięg bistatyczny<br />
właściwie nie daje pojęcia o odległości obiektu od<br />
miejsca, gdzie prowadzi się jego wykrywanie, czyli o tym, co<br />
chciałoby się nazwać tradycyjnie rozumianym zasięgiem. Przy<br />
tej samej odległości bistatycznej odległości obiektu od odbiornika<br />
mogą różnić się kilkakrotnie (por. rys. 6), a zarazem<br />
zmieniają się szanse wykrycia obiektu (por. rys. 8). Nawet jeśli<br />
status demonstratora nie daje możliwości określenia pełnej<br />
lokalizacji obiektu, jego rzeczywistą odległość można łatwo<br />
uzyskać innymi metodami pomiarowymi. Niestety, autorzy<br />
publikujący osiągnięcia swoich rozwiązań PCL z reguły nie<br />
podają tak wydawałoby się oczywistych i istotnych danych.<br />
Być może dlatego, że dzięki temu podawane liczby wyglądają<br />
bardziej optymistycznie.<br />
Rys. 20. Zestaw demonstratora radaru pasywnego CORA; foto -<br />
FGAN-FHR [7,10]<br />
Fig. 20. CORA passive radar demonstrator set; photo - FGAN-FHR<br />
[7,10]<br />
Rys. 21. Zarejestrowane wykrycia samolotów przez radar CORA;<br />
foto - FGAN-FHR [10]<br />
Fig. 21. Aircraft detections recorded by the CORA radar; photo -<br />
FGAN-FHR [10]<br />
ELEKTRONIKA 11/<strong>2009</strong> 113
Zbigniew Czekała jest projektantem urządzeń radiolokacyjnych<br />
w Centrum Naukowo-Produkcyjnym Elektroniki Profesjonalnej<br />
RADWAR SA. od ponad 35 lat. Uczestniczył<br />
w projektowaniu i badaniach kilku generacji radarów wojskowych,<br />
transferując dostępną w danym czasie myśl techniczną<br />
do konkretnych rozwiązań. Jako praktyk dobrze czuje oczekiwania<br />
użytkowników, także od strony opisowej. Jest autorem<br />
wydanej przed 10 laty książki „Parada radarów”, która<br />
została bardzo dobrze przyjęta w szeroko rozumianym środowisku<br />
techników radiolokacji.<br />
W podobnym stylu prezentuje autor zasady działania radiolokacji<br />
pasywnej. Sam doświadczając trudności przestawienia<br />
się z pewnych „kolein” pojęciowych właściwych dla<br />
radaru impulsowego, w wielu miejscach podkreśla istotne<br />
różnice obu technik. Starannie wystrzegając się hurraoptymizmu<br />
charakterystycznego dla propagatorów nowej techniki,<br />
z pozycji całkowicie neutralnej i tylko przy okazji rzetelnego<br />
opisu ukazuje zarówno jej zalety, jak i wady, a także słabe<br />
punkty jeszcze do końca nie wyjaśnione lub przemilczane.<br />
Autor dziękuje kol. dr. hab. inż. Krzysztofowi Kulpie - bez wątpienia<br />
najlepszemu w Polsce znawcy problematyki PCL - za konsultacje<br />
i cenne uwagi przy opracowaniu tego artykułu.<br />
Praca częściowo finansowana przez Narodowe Centrum Badań<br />
i Rozwoju w latach 2007-2010 jako Projekt Badawczy Zamawiany<br />
PBZ-MNiSW-DBO-04/I/2007<br />
Literatura<br />
[1] Howland P. E.: Target tracking using television-based bistatic radar.<br />
IEE Proc. - Radar Sonar and Navigation, vol. 146, no 3, June 1999.<br />
[2] Griffiths H. D., Baker C. J.: Passive coherent location radar systems.<br />
Part 1: Performance prediction. IEE Proc. - Radar, Sonar<br />
and Navigation, vol. 152, no 3, June 2005.<br />
[3] Baker C. J., Griffiths H. D., Papoutsis I.: Passive coherent location<br />
radar systems. Part 2: Waveform properties. IEE Proc. -<br />
Radar Sonar and Navigation,.vol. 152, no 3, June 2005.<br />
[4] Howland P. E., Maksimiuk D., Reitsma G.: FM radio based bistatic<br />
radar. IEE Proc. - Radar, Sonar and Navigation, vol. 152, no<br />
3, June 2005.<br />
[5] Mousavil M. R., A. J., Nayebi M. M.: Fast and Accurate Method<br />
for PCL Radar Detection in Noisy Environment. Proceedings of<br />
the 3rd European Radar Conference, September 2006, Manchester,<br />
UK.<br />
[6] Ringer M. A., Frazer G. J., Anderson S. J.: Waveform Analysis of<br />
Transmitters of Opportunity for Passive Radar. Published by Department<br />
of Defence, Defence Science and Technology Organisation<br />
(DSTO), Electronics and Surveillance Research<br />
Laboratory, Salisbury, Australia, June, 1999.<br />
[7] Kuschel H., Heckenbach J., Müller St., Appel R.: On the potentials<br />
of passive, multistatic, low frequency radars to counter<br />
stealth and detect low flying targets. Radar Conference, 2008.<br />
RADAR ‘08. IEEE.<br />
[8] Lockheed Martin Corp. Silent Sentry. Innovative Technology for<br />
Passive, Persistent Surveillance. http://www.lockheedmartin.<br />
com/data/assets/10644.pdf.<br />
[9] Lockheed Martin Corp. PCL-Silent Sentry Introduction. Passive<br />
radar workshop 2007, FGAN, Wachtberg, Germany, 22<br />
August 2007.<br />
[10] Kuschel H.: Overview of system concepts and general aspects.<br />
Passive radar workshop 2007, FGAN, Wachtberg, Germany, 22<br />
August 2007.<br />
[11] Malanowski M., Mazurek G., Kulpa K., Misiurewicz J.: FM based<br />
PCL radar demonstrator. International Radar Symposium 2007,<br />
Cologne, Germany.<br />
114 ELEKTRONIKA 11/<strong>2009</strong>
System dalekosiężnej identyfikacji i śledzenia statków<br />
dr hab. inż. JERZY CZAJKOWSKI prof. AM, mgr inż. KAROL ŁYSZYK<br />
Akademia Morska w Gdyni<br />
Opisując dziesięciolecie istnienia Światowego Morskiego Systemu<br />
Łączności Alarmowej i Bezpieczeństwa - GMDSS (Global<br />
Maritime Distress and Safety System) w artykule<br />
opublikowanym w numerze 5/<strong>2009</strong> Elektroniki autorzy oprócz<br />
przedstawienia ogólnej charakterystyki systemu, podsystemów<br />
składowych i realizowanych funkcji scharakteryzowali tematykę<br />
obrad Podkomitetu IMO (International Maritime<br />
Organization) ds. radiokomunikacji ratownictwa - COMSAR<br />
(Communication Search and Rescue). Podkomitet ten na<br />
przestrzeni ostatnich dziesięciu lat podejmował sprawy które<br />
związane były z ciągłym rozwojem systemu GMDSS - zarówno<br />
dotyczących nowych technologii, jak i systemów zwiększających<br />
bezpieczeństwo żeglugi. Między innymi w artykule<br />
wspomniano o radiowych systemach do ochrony statków<br />
i portów, a jednym z nich jest - system dalekosiężnej identyfikacji<br />
i śledzenia statków - LRIT (Long Range Identification and<br />
Tracking of chips), którego powstanie było związane z terrorystycznymi<br />
zamachami 11 września 2001 r. w Stanach Zjednoczonych.<br />
Chociaż system ten nie jest podsystemem<br />
składowym GMDSS - to korzysta z rozwiązań radiokomunikacyjnych,<br />
które stanowią istotę jego działania. Zadaniem<br />
tego systemu jest stworzenie globalnego monitoringu ruchu<br />
statków w celu poprawienia bezpieczeństwa żeglugi. Celem<br />
artykułu jest przedstawienie zarówno założeń teoretycznych<br />
systemu LRIT jak i jego charakterystyka techniczna.<br />
Ogólna koncepcja systemu<br />
Koncepcja utworzenia systemu LRIT była szczegółowo rozpatrywana<br />
przez Podkomitet COMSAR podczas licznych sesji w latach<br />
2001-2007. Rozpatrywano architekturę systemu, która miała<br />
składać się z licznych baz danych (narodowych, regionalnych)<br />
opartych na współpracy międzynarodowej. Bazy te powinny być<br />
zdolne do wymiany danych pomiędzy sobą poprzez centrum wymiany<br />
danych oraz dostarczenia informacji LRIT użytkownikom<br />
systemu (państwom członkowskim lub służbom SAR).<br />
Podkomitet zaakceptował również główne wymagania stawiane<br />
bazom danych:<br />
• gromadzenie i archiwizowanie informacji przesyłanych<br />
przez statki, które wybrały jedną z baz,<br />
• dostarczanie swoim użytkownikom stosownych informacji<br />
z LRIT,<br />
• uzyskiwanie (gdy zajdzie taka potrzeba) informacji LRIT<br />
z innej bazy z wykorzystaniem międzynarodowego centrum<br />
wymiany danych,<br />
• wykonanie lub retransmitowanie, gdy jest to konieczne,<br />
żądania transmisji informacji LRIT.<br />
Komitet Bezpieczeństwa Morskiego MSC (Maritime Safety<br />
Committee) działający w IMO i zatwierdzający wyniki prac<br />
Podkomitetu COMSAR w odniesieniu do systemu LRIT podjął<br />
istotne decyzje w dziedzinie:<br />
Rys.1. Ilustracja architektury systemu LRIT<br />
ELEKTRONIKA 11/<strong>2009</strong> 115
• wytypowaniu statków zobowiązanych do przesyłania informacji,<br />
• zawartości przesyłanych informacji,<br />
• poufności informacji LRIT,<br />
• dostępności do informacji przez państwa członkowskie,<br />
• specyfikacji technicznej komponentów systemu LRIC:<br />
- międzynarodowego centrum wymiany danych IDE (International<br />
Data Exchange),<br />
- międzynarodowej bazy danych IDC (International Data<br />
Centre),<br />
• komunikacji wewnątrz systemu LRIT,<br />
• sporządzania protokołów z testowania systemu LRIT oraz<br />
z integracji nowych baz danych do systemu.<br />
Ostateczny kształt systemu LRIT został przyjęty przez Komitet<br />
Bezpieczeństwa Morskiego i zatwierdzony w okólniku<br />
MSC.1/1219. Na rys. 1 przedstawiono ostateczną architekturę<br />
systemu LRIT.<br />
Komitet MSC postanowił powołać koordynatora systemu<br />
LRIT, który byłby zobowiązany do dokonywania przeglądów<br />
określonych funkcji systemu oraz przeprowadzania badań<br />
oraz dokonywania analizy prawdziwości i rzetelności informacji.<br />
Koordynatorem tym została organizacja IMSO (International<br />
Mobile Satelite Organization) Międzynarodowa<br />
Organizacja Ruchomej Łączności Satelitarnej.<br />
Struktura i zasada działania systemu LRIT<br />
Konfiguracja systemu, jego części składowe oraz ich współzależność<br />
logiczną przedstawiono na rys. 2.<br />
Jak wynika z rysunku 2 system składa się z:<br />
• urządzeń statkowych wykorzystywanych do transmisji<br />
danych,<br />
• dostawców usług radiokomunikacyjnych CSP (Communication<br />
Service Provider),<br />
• dostawców usług aplikacyjnych ASP (Application Service<br />
Provider),<br />
• krajowych, regionalnych i międzynarodowych baz danych<br />
obejmujących systemy monitorowania statków VMS (Vessel<br />
Monitoring System). Bazy te zwane są centrum danych<br />
LRIT (LRIT Data Centres),<br />
• międzynarodowego centrum wymiany danych - IDE (International<br />
Data Exchange),<br />
• użytkowników systemu LRIT (Data Users).<br />
Funkcjonowanie systemu jest następujące:<br />
Informacje LRIT dostarczane ze statków, których współrzędne<br />
geograficzne ich położenia są określane za pomocą satelitarnego<br />
systemu nawigacji satelitarnej - przekazywane są państwom<br />
członkowskim oraz instytucji SAR upoważnionych do<br />
odbioru informacji. Wiadomości te przekazywane są za pośrednictwem<br />
dostawcy usług aplikacyjnych (ASP) przy wykorzystaniu<br />
infrastruktury radiokomunikacyjnej zapewnionej<br />
przez dostawcę usług radiokomunikacyjnych (CSP). Autoryzowany<br />
ASP po odbiorze informacji ze statku przeprowadza<br />
jego identyfikację, a następnie w postaci przekazu danych dostarcza<br />
do odpowiedniej bazy danych systemu LRIT. Bazy danych<br />
gromadzą i przechowują informacje uzyskane od<br />
statków, przeprowadzają analizę w oparciu o wytyczne zawarte<br />
w planie dystrybucji danych LRIT (DDP - Data Distribution<br />
Plan) - określają użytkowników systemu i informacje te<br />
przekazują. Ponadto tzw. niemiędzynarodowe centra mogą<br />
jednocześnie uzupełniać systemy monitoringu statków (VMS)<br />
lub też służbę kontroli ruchu statków (VTS).<br />
Struktura LRIT w założeniu posiada międzynarodowe centrum<br />
wymiany danych umożliwiające rozprowadzanie informacji<br />
między bazami zgodnie z planem dystrybucji.<br />
Uproszczony schemat LRIT przedstawiono na rys. 3.<br />
Rys. 3. Uproszczony schemat LRIT<br />
Charakterystyka funkcjonalnych<br />
składowych LRIT<br />
Dostawca usług aplikacyjnych ASP<br />
Rys. 2. Schemat systemu LRIT<br />
Usługi aplikacyjne prowadzone są wobec:<br />
• narodowych baz danych, ustanowionych i zaaprobowanych<br />
przez administrację państwa członkowskiego,<br />
• regionalnych bądź współpracujących baz danych, ustanowionych<br />
i zaaprobowanych przez administrację państw<br />
członkowskich,<br />
116 ELEKTRONIKA 11/<strong>2009</strong>
• międzynarodowej bazy danych, uznanej przez Komitet<br />
Bezpieczeństwa Morskiego (MSC).<br />
Państwa członkowskie przedkładają IMO spis dostawców<br />
usług aplikacyjnych (ASP) wraz z danymi kontaktowymi i warunkami<br />
ich uznania.<br />
Organizacja potwierdza te informacje, ponadto przekazuje<br />
identyczne dane o dostawcy usług aplikacyjnych, powołanego<br />
dla międzynarodowej bazy danych, państwom członkowskim,<br />
międzynarodowemu centrum wymiany danych, koordynatorowi<br />
systemu, a także pozostałym bazom LRIT: narodowym,<br />
regionalnym bądź kooperującym.<br />
Funkcje dostawców usług aplikacyjnych ASP (Application<br />
Service Provider):<br />
• prowadzą protokół łącza komunikacyjnego pomiędzy dostawcami<br />
usług radiokomunikacyjnych CSP (Communication<br />
Service Provider(s)), a bazą danych LRIT, aby<br />
realizować następujące zadania:<br />
- zdalnej integracji sprzętu statkowego danych LRIT,<br />
- automatycznej konfiguracji transmitowanych informacji<br />
LRIT,<br />
- automatycznej zmiany odstępów pomiędzy kolejnymi<br />
transmisjami,<br />
- automatycznego zawieszenie transmisji informacji LRIT,<br />
- wysyłania informacji na żądanie,<br />
- automatycznego odbioru i zarządzania transmisją,<br />
• prowadzą system zarządzania operacjami monitorowania<br />
przepustowości i przebiegu informacji LRIT,<br />
• zapewniają gromadzenie danych LRIT, ich przechowywanie<br />
i kierowanie w niezawodny i bezpieczny sposób.<br />
Dostawcy usług radiokomunikacyjnych<br />
Dostawcy usług radiokomunikacyjnych odpowiadają za<br />
łączność pomiędzy poszczególnymi segmentami systemu<br />
LRIT stosują protokoły komunikacyjne, w celu zapewnienia<br />
Parametry<br />
Identyfikacja statku<br />
Nazwa statku<br />
Matryca czasowa nr 2<br />
Matryca czasowa nr 3<br />
Identyfikator bazy<br />
danych LRIT<br />
Matryca czasowa nr 4<br />
Matryca czasowa nr 5<br />
Tab. 1. Informacje uzupełniane przez ASP<br />
Uwagi<br />
Numer identyfikacji statkowej IMO<br />
i numer MMSI (Maritime Mobile Service<br />
Identity) - identyfikator morskiej służby<br />
ruchomej<br />
Nazwa statku w języku angielskim, przy<br />
wykorzystaniu liter łacińskich i systemu<br />
kodującego UTF-8<br />
Data i czas transmisji informacji LRIT<br />
odebranej przez ASP (występuje dla<br />
określonego rodzaju komunikacji)<br />
Data i czas odebranej w informacji LRIT,<br />
którą przesłano z ASP do odpowiedniej<br />
bazy danych LRIT (występuje dla<br />
określonego rodzaju komunikacji)<br />
Identyfikacja bazy danych LRIT<br />
dokonywana jest za pomocą unikalnego<br />
identyfikatora<br />
Data i czas transmisji informacji LRIT<br />
odebranej przez bazę danych LRIT<br />
Data i czas informacji LRIT przesłanej<br />
z bazy danych LRIT do użytkownika<br />
całkowitego bezpieczeństwa podczas przesyłania informacji<br />
LRIT, wykluczone jest zastosowanie systemu nadawania niezabezpieczonego.<br />
Dostawcy usług aplikacyjnych uzupełniają informacje LRIT<br />
o dane przedstawione w tabeli 1.<br />
Dodatkowo administracja, państwo członkowskie i Komitet<br />
mogą ustalić szczególne wymagania wobec którychkolwiek<br />
dostawców usług aplikacyjnych.<br />
Bazy danych LRIT<br />
Wymagania stawiane wszystkim bazom danych:<br />
• ustanowienie i stałe utrzymanie systemu w sposób, który<br />
zapewni nieprzerwane dostarczanie informacji tylko uprawnionym<br />
użytkownikom LRIT (LRIT Data Centres - DCs),<br />
• gromadzenie informacji LRIT ze statków określonych przez<br />
administrację państwa,<br />
• uzyskanie przez jedną bazę danych, po żądaniu, wiadomości<br />
LRIT innej bazy danych z udziałem międzynarodowego<br />
centrum wymiany danych,<br />
• udostępnienie przez jedną bazę danych po żądaniu, wiadomości<br />
LRIT innej bazie danych przez system wymiany<br />
informacji LRIT (IDE),<br />
• wykonanie żądania otrzymanego od użytkownika LRIT dotyczące<br />
odzewu lub zmiany odstępów pomiędzy transmisjami<br />
informacji LRIT, które kierowane są do statku lub<br />
grupy statków przypisanych do tej bazy danych,<br />
• przekazanie żądania odebranego od użytkownika LRIT,<br />
przy udziale centrum wymiany danych dla odzewu informacji<br />
LRIT (tzw. polling) lub w celu zmiany odstępów pomiędzy<br />
transmisjami informacji LRIT, które kierowane są<br />
do statku lub grupy statków przypisanych innej bazie,<br />
• rozpowszechnienie na żądanie użytkownikom LRIT informacji<br />
odpowiednio zaaranżowanej i zgłoszenie użytkownikom<br />
LRIT lub administracji o zatrzymaniu transmisji<br />
informacji LRIT z określonego statku,<br />
• archiwizowanie informacji LRIT ze statków za okres przynajmniej<br />
jednego roku,<br />
• i aż do czasu kiedy Komitet oceni, a następnie zaakceptuje<br />
coroczne sprawozdanie z przeprowadzonej przez koordynatora<br />
LRIT kontroli funkcjonowania systemu LRIT.<br />
Wszak, archiwizowane informacje LRIT powinny dostarczać<br />
pełny zapis wszelkich czynności bazy w okresie pomiędzy<br />
dwoma kolejnymi kontrolami,<br />
Tab.2. Wymagania łącznościowe stawiane bazom danych<br />
Warunek<br />
Używanie standardowego<br />
protokołu komunikacyjnego oraz<br />
uzgodnionych protokołów w celu<br />
zapewnienia łączności z...<br />
Zastosowanie standardowych<br />
metod ochrony transmisji<br />
realizowanych z...<br />
Stosowanie bezpiecznych metod<br />
legalizacji z...<br />
Używanie standardowego formatu<br />
wiadomości z zastosowaniem<br />
trybu rozkazującego przy<br />
komunikacji z...<br />
Element składowy systemu<br />
- międzynarodowym centrum<br />
wymiany danych (IDE)<br />
- serwerem planu rozdziału<br />
danych (DDP)<br />
- międzynarodowym centrum<br />
wymiany danych (IDE),<br />
- serwerem planu rozdziału<br />
danych (DDP)<br />
użytkownikiem danych LRIT<br />
- międzynarodowym centrum<br />
wymiany danych (IDE),<br />
- serwerem planu rozdziału<br />
danych (DDP)<br />
ELEKTRONIKA 11/<strong>2009</strong> 117
• używanie właściwego osprzętu i oprogramowania do<br />
sporządzania w regularnych odstępach zapasowej kopii informacji<br />
LRIT, ich magazynowania w pobocznych komórkach<br />
pamięci, które to w sytuacji awaryjnej będą dostępne<br />
w sposób możliwie najszybszy, aby utrzymać ciągłość<br />
transmisji,<br />
• utrzymanie listy statków, które transmitują informacje LRIT<br />
do bazy. Lista powinna zawierać nazwę statku, numer<br />
identyfikacyjny IMO, sygnał wywoławczy oraz numer MMSI<br />
- identyfikator morskiej służby ruchomej,<br />
• użycie niezawodnego łącza (np. typu TCP 4 ) transmisji informacji<br />
LRIT,<br />
• zdolność do uzupełniania informacji LRIT o dane z tabeli 2.<br />
podczas każdej transmisji,<br />
• posiadanie dostępu do obecnego planu rozdziału danych<br />
(DDP), a także do wcześniejszych wersji,<br />
• wymagania stawiane bazie danych w relacji do innych elementów<br />
systemu LRIT zebrano w tabeli 2.<br />
Środki radiokomunikacyjne w systemie LRIT<br />
Realizacja łączności w systemie LRIT odbywa się w złożonej<br />
sieci różnorodnych połączeń pomiędzy poszczególnymi komponentami,<br />
w których ma miejsce przesyłanie wiadomości<br />
LRIT. W zależności od rodzaju wiadomości przy jej przetwarzaniu<br />
uczestniczą różne elementy składowe systemu. Inaczej<br />
wygląda przebieg informacji LRIT dla standardowego<br />
zawiadomienia o pozycji, inaczej dla wiadomości żądanej,<br />
a zupełnie inaczej dla pomocniczej.<br />
W praktyce wykorzystano 3 segmenty komunikacji, które<br />
zostały ze sobą zintegrowane:<br />
1. morski, czyli nadawanie informacji z ruchomych stacji -<br />
statków,<br />
2. kosmiczny poprzez pośredniczenie stacji satelitarnych<br />
w przekazie informacji,<br />
3. lądowej sieci połączeń od stacji naziemnej, która odbiera<br />
informacje do użytkowników tych informacji.<br />
Fundamentalną regułą komunikowania się w systemie<br />
LRIT jest dobór takiego systemu komunikacyjnego, który zapewni<br />
przesyłanie informacji o statkach z każdego miejsca na<br />
kuli ziemskiej, które odbywają podróże międzynarodowe w<br />
obszarach Al, A2, A3 oraz A4. W ten sposób dano możliwość<br />
tworzenia medium otwartego, które nie zostało ograniczone<br />
do jednego określonego typu.<br />
Na tej podstawie wykorzystano dwa rodzaje komunikacji:<br />
1. radiokomunikacja naziemna z wykorzystaniem pasma fal<br />
krótkich HF,<br />
2. radiokomunikacja satelitarna: INMARSAT - będąca częścią<br />
składową systemu GMDSS oraz system IRYDIUM.<br />
IRYDIUM korzysta z systemu satelitów niskoorbitalnych<br />
rozmieszczonych na wysokości 780 km w liczbie 66. Krążą<br />
one na 6 orbitach w płaszczyznach biegunowych w równomiernych<br />
odstępach od Ziemi oraz nawzajem od siebie. Ustawione<br />
są w logicznym układzie, który zapewnia dobrą<br />
widzialność satelitów z powierzchni Ziemi. Pojedynczy satelita<br />
okrąża Ziemię w ciągu 100 minut z prędkością ok.<br />
27 000 km/h. W momencie, gdy satelita znika z pola widzenia,<br />
transmisja przekazywana jest innemu - będącemu w zasięgu<br />
widzialności.<br />
Satelity tworzą sieć połączeń między sobą z terminalami<br />
ruchomymi oraz ze stacjami naziemnymi. Każdy z nich<br />
połączony jest do czterech innych - z dwoma na tej samej orbicie<br />
oraz dwoma z orbit na płaszczyznach sąsiednich. Pomiędzy<br />
satelitami występuje kanał prowadzenia rozmów.<br />
Między satelitą a stacją naziemną utrzymywana jest łączność<br />
Rys. 4. Realizacja łączności w systemie IRYDIUM<br />
sygnalizacyjna oraz informacyjna. Satelita z abonentem (tutaj<br />
terminalem statkowym) prowadzi transmisję w odpowiednich<br />
odcinkach czasowych. Z kolei stacje naziemne poprzez<br />
układy komutacyjne włączone są w sieć lądową.<br />
Strukturę łączności w systemie IRYDIUM dla morskiego<br />
abonenta przedstawiono na rys. 4.<br />
Łącza międzysatelitarne działają w paśmie 23 GHz i wykorzystują<br />
cztery anteny. System IRYDIUM stosuje zasadę<br />
wielokrotnego dostępu FDMA/TDMA. Podporządkowane<br />
ramki TDMA oraz algorytmów analizy i syntezy powoduje<br />
opóźnienie około 90 ms przy łączności terminal naziemny -<br />
terminal kosmiczny. Satelita używa anteny z 48 wiązkami, którymi<br />
może sterować. Pozwala to skoncentrować promień<br />
w odpowiednim momencie czasowym na obszarze określonej<br />
komórki. Transmisja odbywa się we wspomnianym odcinku<br />
czasowym do/od abonenta (statek morski) w paśmie L,<br />
za pomocą modulacji QPSK.<br />
Statkowe urządzenia radiowe systemu LRIT<br />
Do przekazywania informacji w systemie LRIT mogą być wykorzystywane<br />
urządzenia radiowe systemu GMDSS, pod warunkiem<br />
iż muszą spełniać następujące wymagania:<br />
• zdolność do automatycznej i niewymagającej ludzkiej ingerencji<br />
na statku transmisji informacji LRIT, w zadanych<br />
odstępach czasowych (np. co 6 godzin) - do bazy danych<br />
LRIT,<br />
• możliwość zmiany częstotliwości przesyłania informacji<br />
w odstępach od 15-minutowych do 6-godzinnych,<br />
• możliwość transmisji informacji LRIT po odebraniu komendy<br />
typu polling (tryb odzewowy),<br />
• posiadać łącze bezpośrednie z globalnym systemem satelitarnym,<br />
bądź zamontowanym wewnętrznym systemom<br />
pozycjonowania statku z włączeniem czasu, w którym<br />
określana była pozycja statku,<br />
• posiadać jednoznaczną identyfikację urządzenia radiokomunikacyjnego<br />
pozwalającą na jednoznaczne określenie<br />
źródła z którego informacja była nadana,<br />
• spełniać warunki rezolucji A.813(19) odnośnie elektromagnetycznej<br />
kompatybilności wszystkich elektrycznych<br />
i elektronicznych urządzeń,<br />
• korzystać z systemu radiokomunikacyjnego, który zapewnia<br />
pokrycie całości obszaru, w którym statek odbywa<br />
podróże,<br />
• w przypadku odbywania podróży na obszarach morskich<br />
powyżej szerokości geograficznej 70º może być dla potrzeb<br />
LRIT stosowany system IRYDIUM.<br />
118 ELEKTRONIKA 11/<strong>2009</strong>
Podsumowanie<br />
System LRIT jest systemem, który umożliwia licznym podmiotom<br />
w pełni wywiązywać się z ich zadań w zakresie:<br />
• bezpieczeństwa nawigacji,<br />
• poszukiwania i ratowania osób w niebezpieczeństwie,<br />
• ochrony środowiska,<br />
• zapobiegania aktom przestępczym, w tym terrorystycznym<br />
w portach i na morzach.<br />
System globalnej obserwacji w swoim założeniu ma<br />
przede wszystkim poprawiać bezpieczeństwo państw nadbrzeżnych<br />
i państw do których zawijają statki, poprzez dostarczanie<br />
informacji o ruchu statków z wystarczającym<br />
wyprzedzeniem czasowym tak, aby konkretne państwo było<br />
w stanie podjąć odpowiednie działania.<br />
Literatura<br />
[1] Czajkowski J., Korcz K.: Dziesięciolecie systemu GMDSS w<br />
świetle obrad Podkomitetu IMO-COMSAR <strong>Elektronika</strong> nr 5,<br />
<strong>2009</strong>.<br />
[2] Łyszyk K.: Koncepcja systemu dalekosiężnej identyfikacji i śledzenia<br />
statków - LRIT. Praca dyplomowa AM Gdynia - czerwiec<br />
<strong>2009</strong>.<br />
[3] Rezolucja MSC.264(84), 16 maja 2008 r.: Establishment of the<br />
International LRIT Data Exchange on an interim basic.<br />
[4] Rezolucja MSC.276(85), 05 grudnia 2008 r.: Operation of the international<br />
LRIT data exchange on an interim basic.<br />
[5] Okólnik MSC.1/Circ.1259, 8 grudnia 2008 r.: Long range Identification<br />
and Tracking System, Technical Documentation (part I).<br />
[6] Wawruch R.: Światowy system identyfikacji i śledzenia statków.<br />
Przegląd Telekomunikacyjny nr 1, <strong>2009</strong>.<br />
Szkło dla fotoniki. Część 14.<br />
Parametry szklanego włókna optycznego<br />
dr hab. inż. RYSZARD ROMANIUK prof. PW<br />
Politechnika Warszawska, <strong>Instytut</strong> Systemów <strong>Elektronicznych</strong><br />
Rodzaje szklanych włókien optycznych<br />
Szklane włókno optyczne jest popularnie uważane za dość prosty<br />
optyczny lub optoelektroniczny obiekt pasywny przeznaczony<br />
do transmisji fali EM. W powszechnym rozumieniu<br />
parametry włókna optycznego decydujące o jego wszystkich<br />
właściwościach to: tłumienność, średnica i refrakcja. W sensie<br />
ekonomicznym znaczną dominantę stanowią włókniste szklane<br />
światłowody telekomunikacyjne wytwarzane zaledwie w kilku<br />
podstawowych rodzajach ściśle opisanych przez stosowne<br />
normy przemysłowe. Wśród światłowodów telekomunikacyjnych<br />
dominującą ekonomicznie grupą są skompensowane dyspersyjnie<br />
światłowody jednomodowe szerokopasmowe<br />
przeznaczone do transmisji fali optycznej z podziałem falowym<br />
DWDM. Drugim głównym rodzajem włókien telekomunikacyjnych<br />
są znacznie tańsze światłowody wielomodowe przeznaczone<br />
do budowy sieci lokalnych, w tym typu Ethernet IP LAN.<br />
Coraz większe znaczenie zaczyna odgrywać w technice<br />
światłowodowej rozszerzająca się grupa optycznych włókien<br />
szklanych instrumentalnych (ze szkła nieorganicznego i organicznego)<br />
o znacznej i szybko powiększającej się rozmaitości<br />
rodzajów. Współczesny szklany światłowód włóknowy do zastosowań<br />
instrumentalnych, wymagających zaawansowanego<br />
przetwarzania fali optycznej, staje się jednym z najbardziej zaawansowanych<br />
obiektów inżynierii materiałowej.<br />
Światłowody telekomunikacyjne<br />
Celem światłowodu telekomunikacyjnego jest niezniekształcona,<br />
niskostratna transmisja, na ogół wielokrotnego, modulowanego<br />
metodami WDM oraz TDM, cyfrowego sygnału<br />
optycznego. Możliwość umieszczenia większej ilości kanałów<br />
transmisyjnych WDM w światłowodzie jednomodowym zależy<br />
od jednorodności spektralnej jego pasma transmisji.<br />
Oznacza to brak w materiale światłowodu wąskich pasm absorpcji<br />
związanych z zanieczyszczeniami. Szerokie wielokanałowe<br />
pasmo transmisyjne wymaga niskiej dyspersji chromatycznej<br />
sygnału we włóknie szklanym. Dyspersja chromatyczna<br />
jest parametrem złożonym ze składnika materiałowego<br />
i falowodowego. Składnik falowodowy zależy od<br />
różnicowej dyspersji materiałowej pomiędzy rdzeniem i płaszczem<br />
oraz od konstrukcji włókna. Składnik falowodowy dyspersji<br />
może kompensować punktowo lub pasmowo składnik<br />
materiałowy. Istotą kompensacji dyspersyjnej szklanego<br />
włókna optycznego jest obniżenie dyspersji całkowitej w paśmie<br />
najniższych strat włókna. Pozostawienie pewnej dyspersji<br />
resztkowej jest korzystne z punktu widzenia występowania<br />
we włóknie nieliniowych zjawisk optycznych. W przypadku<br />
całkowitego braku dyspersji fale optyczne o różnych<br />
częstotliwościach we włóknie optycznym łatwiej spełniają warunek<br />
synfazowości, konieczny dla wystąpienia wielu koherentnych<br />
(fazowych) zjawisk nieliniowych. W przypadku<br />
istnienia dyspersji fale te ulegają ciągłej wzajemnej precesji<br />
utrudniając spełnienie warunku fazy.<br />
Kolejnym kryterium i związanym z nim grupą parametrów<br />
jest jak najniższy poziom przesłuchu pomiędzy sąsiadującymi<br />
transmitowanymi pasmami falowymi. Brak przesłuchów wymaga<br />
jak najniższego poziomu indukowanych nierezonansowych<br />
optycznych zjawisk nieliniowych w szkle światłowodu.<br />
Z kolei możliwość upakowania jak największej ilości<br />
kanałów falowych (nazywanych kanałami o różnych kolorach)<br />
wymaga przesyłania włóknem szklanym jak największej gęstości<br />
mocy optycznej. Po przekroczeniu pewnej, charakterystycznej<br />
dla danego rodzaju szkła, wartości gęstości mocy,<br />
następuje samoistna generacja różnych zjawisk nieliniowych.<br />
Niektóre z tych zjawisk prowadzą do generacji nowych fal<br />
o przesuniętych częstotliwościach optycznych sumacyjnych<br />
i różnicowych wobec częstotliwości fal wejściowych. Prowadzi<br />
to do silnego wzrostu przesłuchów międzykanałowych<br />
i zaniku transmisji WDM.<br />
ELEKTRONIKA 11/<strong>2009</strong> 119
W jednomodowym szklanym włóknie transmisyjnym nie<br />
tyle istotny jest wymiar rdzenia optycznego (zdefiniowany przy<br />
pomocy profilu refrakcyjnego), ile efektywna średnica modowa.<br />
Zazwyczaj jest ona nieco (światłowody o dużym kontraście<br />
refrakcyjnym) lub znacznie większa (włókna o małym<br />
kontraście) od średnicy rdzenia. Średnica modu podstawowego<br />
i kontrast określają odporność włókna na mikrozgięcia,<br />
straty łączenia oddzielnych odcinków włókna. Duża efektywna<br />
średnica modu podstawowego pozwala na upakowanie większej<br />
ilości kanałów WDM w takim włóknie z powodu zmniejszenia<br />
gęstości mocy optycznej w rdzeniu.<br />
Światłowody izotropowe<br />
W praktyce takie światłowody idealne - dokładnie izotropowe<br />
- nie istnieją. Każda technologia wprowadza rezydualną niejednorodność<br />
kształtu, anizotropię refrakcyjną, optyczną, niejednorodności<br />
mechaniczno-termiczne, chemiczne, gęstości<br />
i składu lokalnego szkła, itp. Tego typu niejednorodności dotyczą<br />
w znacznym stopniu światłowodów jednomodowych, na<br />
ogół przeznaczonych dla celów telekomunikacyjnych, tzn.<br />
o znacznej długości. Niejednorodności wprowadzane we<br />
włókno szklane przez rzeczywistą technologię w różny sposób<br />
przekładają się na użytkowe parametry światłowodu. Rezydualna<br />
eliptyczność rdzenia powoduje rozdzielenie dwóch polaryzantów<br />
modu podstawowego. Przypadkowy rozkład<br />
eliptyczności wzdłuż włókna (lub innego rodzaju zaburzeń<br />
średnicy) powoduje fluktuacje polaryzacji fali optycznej. Fluktuacje<br />
polaryzacji z kolei są powodem dalszych zjawisk we<br />
włóknie jednomodowym, jak polaryzacyjnie zależne straty<br />
transmitowanej fali. Inne niejednorodności np. naprężeń mechanicznych<br />
i indukowanych termicznie przekładają się na<br />
fluktuacje anizotropii refrakcyjnej i w rezultacie na szum fazowy<br />
transmitowanej fali.<br />
Światłowody instrumentalne<br />
Coraz większą grupę pod względem ekonomicznym stanowią<br />
szklane włóknowe światłowody instrumentalne. Wiele z tych<br />
rodzajów włókien szklanych służy do transmisji sygnałów analogowych<br />
w odróżnieniu od transmisji wyłącznie sygnałów cyfrowych<br />
w światłowodach telekomunikacyjnych. Obejmują one<br />
trzy główne grupy światłowodów: aktywne, przeznaczone do<br />
budowy elementów funkcjonalnych fotoniki światłowodowej<br />
oraz czujnikowe. Te trzy grupy szklanych włókien optycznych<br />
podlegają intensywnemu rozwojowi pod względem technologicznym,<br />
stosowanych materiałów, konstrukcji i możliwości zastosowań.<br />
Szklane światłowody instrumentalne, w odróżnieniu<br />
od w miarę jednorodnych włókien telekomunikacyjnych, posiadają<br />
zupełnie odmienne parametry pomiędzy różnymi typami<br />
przeznaczonymi dla różnych celów. Następuje ich ciągła<br />
dywersyfikacja typów, rodzajów i konstrukcji. Wiele z nich jest<br />
uczulanych na pewne rodzaje fizykochemicznych oddziaływań<br />
zewnętrznych podczas, gdy inne są znieczulane na pewne<br />
grupy oddziaływań zewnętrznych.<br />
Światłowody polaryzujące<br />
Jednym z ważnych i powszechnie stosowanych w układach<br />
optycznych rodzajów światłowodów instrumentalnych są<br />
szklane włókna optyczne polaryzujące. Są to szklane włókna<br />
optyczne jednomodowe, w których poprzez zamrożone nie izotropowe<br />
mechaniczne naprężenie wewnętrzne wprowadzono<br />
anizotropię optyczną. Istnienie takiej anizotropii prowadzi do<br />
możliwości usunięcia jednego polaryzanta modu podstawowego.<br />
Światłowód jest jednomodowy jednopolaryzacyjny, w odróżnieniu<br />
od światłowodu jednomodowego izotropowego.<br />
Światłowód jednomodowy izotropowy prowadzi dwa polaryzanty<br />
ortogonalne modu podstawowego lewo i prawoskrętną.<br />
Światłowody dziurawe<br />
Szklane włókno optyczne posiada otwór ciągnący się wzdłuż<br />
włókna, położony osiowo symetrycznie (światłowody kapilarne),<br />
bądź położony niesymetrycznie w pobliżu rdzenia<br />
optycznego (światłowód z bocznym otworem). Światłowód kapilarny<br />
może być wypełniony niskostratnym płynem tworzącym<br />
ciekły rdzeń optyczny. W otworze może być<br />
transmitowana metodą fotoniczną fala optyczna i materialna<br />
fala deBroglia. W otworze bocznym w pobliżu rdzenia można<br />
oddziaływać na propagowaną falę zanikającą.<br />
Światłowody deBroglia<br />
Rodzaj kapilarnych szklanych włókien optycznych, w których<br />
fala materialna koherentnych zimnych atomów jest prowadzona<br />
ciemną wiązką światła. Ciemna wiązka światła posiada<br />
minimum natężenia na osi światłowodu. Wiązka światła jest odstrojona<br />
w częstotliwości od pasm absorpcji transmitowanych<br />
atomów w taki sposób, że atomy są utrzymywane na osi wiązki.<br />
Światłowody aktywne<br />
Światłowody aktywne służą do budowy laserów światłowodowych,<br />
wzmacniaczy optycznych dyskretnych o znacznym<br />
wzmocnieniu jednostkowym [dB/m W] i rozłożonych o niewielkim<br />
wzmocnieniu właściwym, a zatem o znacznej długości.<br />
Szklane włókna aktywne są wykonywane z niskostratnych<br />
szkieł światłowodowych domieszkowanych jonami aktywatorami,<br />
jak jony ziem rzadkich. Dobór szkła osnowy jest podstawą<br />
do budowy efektywnego lasera światłowodowego<br />
bowiem w niektórych szkłach pewne poziomy laserowe nie<br />
mogą być ujawnione ze względu na wpływ struktury energetycznej<br />
osnowy a w szczególności dużą wartość energii fali fononowej<br />
w szkle. Lasery i wzmacniacze światłowodowe<br />
działają z wykorzystaniem następujących dwóch głównych<br />
mechanizmów: samowzmacniania emisji stymulowanej<br />
w określonym paśmie częstotliwości (analogicznie do klasycznych<br />
laserów objętościowych) oraz stymulowanego niezależnego<br />
od pasma nieelastycznego rozpraszania Ramana<br />
(wzmacniacze Ramana). Szklane włókno aktywne musi łączyć<br />
w sobie pod względem technologicznym i konstrukcyjnym jednocześnie<br />
kilka funkcji optycznych. Możliwość sprawnego<br />
pompowania optycznego zapewnia wielomodowa konstrukcja<br />
obszaru pompowanego włókna o niesymetrycznym kształcie<br />
tak, aby jak największa część mocy była sprzęgana do jednomodowego<br />
obszaru generacji lub wzmacniania. Szklane<br />
włókno aktywne o tak skomplikowanej strukturze konstrukcyjnej,<br />
materiałowej, refrakcyjnej i termiczno-mechanicznej musi<br />
posiadać zwierciadła Bragga na obu końcach (lub w pewnych<br />
fragmentach swojej długości) w celu zapewnienia sprzężenia<br />
zwrotnego dla akcji laserowej. Zapisanie siatki Bragga wewnątrz<br />
tak skomplikowanej, wielowarstwowej i niejednorodnej<br />
struktury jest bardzo trudnym zagadnieniem technologicznym.<br />
Światłowody fotoniczne<br />
Włókna optyczne fotoniczne są wykonywane ze szkieł fotonicznych<br />
(nazywanych częściej kryształami fotonicznymi). Są<br />
to materiały o mieszanej strukturze: mikroskopowo amorficz-<br />
120 ELEKTRONIKA 11/<strong>2009</strong>
nej i makroskopowo morficznej. Propagacja światła jest determinowana<br />
nie bezpośrednio przez refrakcję, ale przez<br />
strukturę materiału. Struktura materiału jest zdefiniowana<br />
przez periodyczny rozkład znacznego kontrastu refrakcji, na<br />
ogół między szkłem i powietrzem. Wymiar charakterystycznej<br />
struktury kontrastu refrakcji i defektów w tej strukturze jest<br />
rzędu połowy długości propagowanej fali optycznej. Fala<br />
optyczna jest propagowana mechanizmem refrakcyjnym<br />
w defekcie struktury fotonicznej lub przy pomocy mechanizmu<br />
refleksyjno-dyfrakcyjno-interferencyjnego, w tzw. tworzonym<br />
w materiale paśmie fotonicznym będącym analogiem pasma<br />
dozwolonego i zabronionego dla elektronów w półprzewodniku.<br />
Parametrami światłowodowego szkła fotonicznego jest<br />
kontrast refrakcji, okres i kształt zaburzenia fotonicznego, rodzaj<br />
defektu struktury fotonicznej, rodzaj fotonicznego pasma<br />
zabronionego, gęstość struktury fotonicznej.<br />
Istotnym parametrem jest gęstość struktury fotonicznej.<br />
W granicznym przypadku gęstości bardzo małej, fala świetlna<br />
jest prowadzona w znacznej mierze w powietrzu (próżni, impregnacie),<br />
a nie w szkle.<br />
Światłowody Bragga poprzeczne i podłużne<br />
Szklane włókna optyczne można uczulać na oddziaływanie<br />
fali UV w taki sposób, że metodą interferencyjną lub siatki fazowej<br />
tworzona jest wewnątrz włókna w miarę trwała siatka<br />
refrakcyjna Bragga o relatywnie niewielkim kontraście refrakcyjnym.<br />
Włókna z poprzeczną siatką Bragga stanowią filtry<br />
i selektywne zwierciadła rozłożone o niewielkiej szerokości<br />
spektralnej rzędu nm i znacznej wysokości rzędu kilkudziesięciu<br />
dB. Włókna szklane o podłużnej osiowo symetrycznej<br />
siatce Bragga są w pewnym sensie analogami światłowodów<br />
fotonicznych.<br />
Światłowody dużej mocy<br />
Szklane włókna optyczne o odpowiedniej konstrukcji mogą<br />
służyć do transmisji dużej mocy fali optycznej w różnych zakresach<br />
spektralnych, głównie średniej i dalekiej podczerwieni.<br />
Światłowody dużej mocy powinny posiadać relatywnie<br />
dużą średnicę rdzenia, jak najmniejsze straty, w tym brak zlokalizowanych<br />
defektów. Przy dużych poziomach transmitowanej<br />
mocy włókna szklane powinny być efektywnie<br />
chłodzone np. cieczą. Powinny być zabezpieczone przed wyjściem<br />
wiązki światła poza włókno szklane. Typowe zastosowania<br />
włókien szklanych dużej mocy to: oświetleniowe, do<br />
zdalnej detonacji, zapłonu optycznego, zasilania optycznego,<br />
spawania, cięcia, jako lancety medyczne, itp.<br />
Światłowody nieliniowe<br />
Szkło światłowodowe jest charakteryzowane przy pomocy<br />
nieliniowego współczynnika refrakcji (a także nieliniowego<br />
współczynnika absorpcji), zależnej od natężenia transmitowanej<br />
fali optycznej. Współczynnik nieliniowości włókna<br />
optycznego zależy dodatkowo od efektywnej średnicy pola<br />
modowego (w światłowodzie jednomodowym) oraz od średnicy<br />
rdzenia (w światłowodzie wielomodowym). Światłowodowe<br />
szkła niskorefrakcyjne posiadają jednocześnie<br />
niewielką wartość nieliniowego współczynnika refrakcji.<br />
Ogólnie światłowody nieliniowe można podzielić na dwie<br />
główne grupy: nierezonansowe i rezonansowe. Zjawiska nieliniowe<br />
we włóknach szklanych dzielimy ponadto na amplitudowe<br />
(niezależne od fazy) oraz fazowe (koherentne) ściśle<br />
zależne od fazy oddziaływujących czynników (kilku fal<br />
optycznych, sprzężonego fononu i fotonu, itp.). Inna klasyfikacja<br />
rozróżnia zjawiska nieliniowe refrakcyjne i absorpcyjne,<br />
wzajemnie zależne od siebie poprzez całkowe<br />
relacje Kramersa-Kroniga.<br />
W światłowodach nieliniowych nierezonansowych występują<br />
optyczne zjawiska parametryczne pierwszego i wyższych<br />
rzędów. Zjawiska nieliniowe nierezonansowe są związane<br />
z wirtualnym pobudzeniem szkła światłowodu o zakresie<br />
energetycznym nie przekraczającym pasma zabronionego.<br />
Pobudzenie może być statyczne lub dynamiczne i może mieć<br />
sprzężony charakter elektromagnetyczny, magnetyczny, elektryczny,<br />
termiczny i mechaniczny. Niektóre z tych rodzajów<br />
pobudzeń prowadzą do częściowej, chwilowej, lokalnej morfizacji<br />
szkła rdzenia światłowodu i najczęściej związane są<br />
z procesami fotonowo-fononowymi. Nieliniowe zjawiska nierezonansowe<br />
pierwszego rzędu obejmują np. optyczny efekt<br />
Kerra, mikrosoczewkowanie, samomodulację fazy, skrośną<br />
modulację fazy, mieszanie zdegenerowane i niezdegenerowane<br />
czterofalowe (ogólnie wielofalowe), przemianę częstotliwości<br />
w tym upkonwersję, nieelastyczne rozpraszanie fali<br />
spontaniczne lub stymulowane w tym rozpraszanie Brillouina<br />
i Ramana. Zjawiskiem wyższego rzędu jest np. generacja superkontinuum<br />
optycznego w światłowodzie.<br />
Jednym z fazowych zjawisk nieliniowych w szklanym<br />
włóknie optycznym jest generacja impulsu solitarnego (solitonu)<br />
z normalnego impulsu dyspersyjnego. Soliton podczas<br />
propagacji wzdłuż włókna nie podlega zmianom kształtu czyli<br />
dyspersji. Naturalne rozszerzenie impulsu optycznego jest<br />
kompensowane przez zapadanie się (zawężanie) impulsu<br />
spowodowane zjawiskiem nieliniowym. Ciekawym zagadnieniem<br />
jest propagacja we włóknie szklanym gęstego ciągu solitonów<br />
femtosekundowych.<br />
Światłowody nieliniowe rezonansowe<br />
Zjawiska nieliniowe rezonansowe wysokoenergetyczne<br />
w szkle światłowodu, związane są ze sprzężonymi procesami<br />
elektronowo-fotonowymi i ewentualnie fononowymi. Występują<br />
one w warunkach silnego lub słabego kwantowego ograniczenia<br />
objętościowego rozważanego obiektu nieliniowego.<br />
Dotyczą przejścia przez całe pasmo zabronione szkła<br />
osnowy. Związane są często z domieszką aktywującą w szkle<br />
i tworzeniem pasm pułapkowych w paśmie zabronionym szkła<br />
osnowy. Takie szkło jest w pewnym sensie materiałem kompozytowym,<br />
zawierającym np. nanokrystality lub jony (molekuły)<br />
aktywatora otoczone osnową amorficzną.<br />
Światłowody z metaszkieł<br />
Dodatkowa założona komplikacja takiej struktury amorficzno-morficznej,<br />
w celu otrzymania konkretnych właściwości<br />
refrakcyjnych, prowadzi do metamateriału i metaszkła<br />
o anomalnych właściwościach dyspersyjnych i refrakcyjnych.<br />
Komplikacja struktury metaszkła może np. polegać na otoczeniu<br />
nanokrystalitu (podlegającemu kwantowemu ograniczeniu<br />
objętościowemu) przez lokalną osnowę amorficzną<br />
o zupełnie innych właściwościach od amorficznej osnowy<br />
globalnej. Osnowa lokalna tworzy odpowiednie warunki<br />
sprzężenia fotonowo-fononowego lub plazmonowego.<br />
Osnowa globalna tworzy odpwoiednią strukturę mechaniczną<br />
i optyczną włókna, tak aby fala optyczna mogła być<br />
efektywnie transmitowana niskostratnie na odpowiednią odległość.<br />
Zjawiska nieliniowe rezonansowe są związane z rezonansami<br />
ekscytonowymi i plazmonowymi, transmisją<br />
polaronów i polarytonów, itp.<br />
ELEKTRONIKA 11/<strong>2009</strong> 121
Światłowody scyntylacyjne<br />
W środowiskach o podwyższonym poziomie promieniowania jonizującego<br />
wykorzystywane są do pomiarów rozłożonych<br />
światłowody scyntylacyjne. Domieszka scyntylacyjna (najczęściej<br />
w światłowodzie z PMMA) jest powodem generacji światła we<br />
włóknie. Generowane światło jest prowadzone z sieci czujników<br />
światłowodowych do detektorów promieniowania. Optyczna sieć<br />
pomiarowa włókna integruje promieniowanie jonizujące w znacznym<br />
obszarze z możliwością badania rozkładu przestrzennego.<br />
Światłowody Czerenkowa<br />
Szklane włókna optyczne Czerenkowa są analogiczne do ultraniskostratnych<br />
wielomodowych światłowodów telekomunikacyjnych,<br />
tylko posiadają większą wartość apertury numerycznej.<br />
Umieszczenie takiego światłowodu w obszarze rozprzestrzeniania<br />
się lub rozpraszania wysokoenergetycznych cząstek elementarnych<br />
np. elektronów powoduje generację w światłowodzie<br />
promieniowania Czerenkowa. Promieniowanie Czerenkowa<br />
detekowane na końcu matrycy światłowodów pozwala na<br />
pomiar energii cząstek i kierunku ich rozprzestrzeniania się.<br />
Elastyczne obrazowody światłowodowe<br />
Rozdzielczość elastycznych obrazowodów światłowodowych<br />
złożonych z wielu luźnych włókien szklanych o niewielkiej średnicy<br />
rzędu 20 µm, osiąga kilkaset tysięcy pikseli przy wymiarach<br />
poprzecznych rzędu pojedynczych mm i podłużnych rzędu<br />
2 m. Włókna nie mogą splątać się ani elektryzować we wspólnej<br />
obudowie. Są pokryte środkiem poślizgowym i zapobiegającym<br />
przesłuchom optycznym pomiędzy nimi, np. grafitem.<br />
Podstawowe parametry to rozdzielczość w parach linii na mm,<br />
odporność mechaniczna, neutralność barwowa, odporność na<br />
promieniowanie RTG, integracja ze światłowodami oświetlającymi,<br />
itp. Wydaje się, że bezpośrednie systemy endowizyjne<br />
w medycynie i technice będą w przyszłości bazowały na<br />
subminiaturowych detektorach ccd i zimnym oświetleniu led.<br />
Światłowody funkcjonalne<br />
Włókna optyczne funkcjonalne obejmują rozszerzające się spektrum<br />
elementów takich jak: sprzęgacze, rozgałęziacze, elementy<br />
gradientowe typu grin, transformatory modowe, i wiele innych.<br />
Światłowody czujnikowe<br />
Włókna optyczne uczulane, specjalizowane do detekcji wielkości<br />
mechanicznych i termicznych; optycznych jak refrakcji<br />
i koloru, mętności, strat; chemicznych jak stężenia jonów;<br />
geometrycznych jak kształtu, odległości, pozycji, ruchu, itp.<br />
Światłowody znieczulane<br />
W pewnym sensie odwrotnością światłowodów czujnikowych<br />
są włókna optyczne znieczulane uodporniane na konkretne<br />
oddziaływania np. na promieniowanie jonizujące, atermiczne<br />
dla dystrybucji wzorcowych sygnałów zegarowych, itp.<br />
Światłowody krótkie<br />
Odmienna specyfika zastosowań takich światłowodów każe wyróżnić<br />
je spośród innych rodzajów włókien szklanych. Mogą<br />
służyć do szybkich multigigabitowych połączeń optycznych wewnątrz<br />
szaf elektroniki, pomiędzy płytami a nawet wewnątrz płyt.<br />
Moc optyczna w szkle światłowodowym<br />
Podstawowym przeznaczeniem niskostratnego szkła światłowodowego<br />
jest niezniekształcona transmisja ciągłej fali lub<br />
modulowanego sygnału optycznego, o dość znacznej gęstości<br />
mocy optycznej, na znaczne odległości. Szkło jest uformowane<br />
w postaci włókna optycznego o cylindrycznym<br />
gradiencie refrakcji. Moc optyczna jest ograniczona refrakcyjnie<br />
w szkle klasycznym lub dyfrakcyjnie i interferencyjnie<br />
w szkle fotonicznym do obszaru rdzenia optycznego o typowej<br />
średnicy w światłowodach transmisyjnych 50...62,5 µm<br />
(pole fali optycznej jest równe obszarowi rdzenia) we włóknie<br />
wielomodowym i ok. 5...10 µm we włóknie jednomodowym<br />
(pole fali optycznej jest nieco większe od obszaru rdzenia -<br />
ze względu na w wnikanie w obszar płaszcza). W światłowodach<br />
szklanych przeznaczonych do transmisji dużej mocy<br />
optycznej średnica rdzenia jest większa np. 100...700 µm.<br />
W transmisyjnych szklanych włóknach optycznych, szczególnie<br />
jednomodowych, gęstość mocy optycznej może być<br />
znaczna, na pograniczu efektów nieliniowych w szkle, z powodu<br />
małej powierzchni rdzenia optycznego. Dlatego istotna<br />
jest znajomość zasad wprowadzania mocy optycznej i jej<br />
ilości do włókna optycznego ze szkła światłowodowego.<br />
Dla szklanego włókna optycznego z gradientem refrakcji<br />
można zdefiniować przestrzeń fazową o współrzędnych:<br />
kwadrat apertury numerycznej NA 2 jako rzędną i odległość radialną<br />
od osi włókna szklanego w kwadracie r 2 jako odciętą.<br />
Ta przestrzeń definiuje moc optyczną możliwą do wprowadzenia<br />
we włókno szklane. Przestrzeń ta dla szkła światłowodowego<br />
jest ograniczona poprzez wartość apertury<br />
numerycznej włókna, zmiany apertury numerycznej lokalnej,<br />
oraz przez promień rdzenia optycznego a. Maksymalna wartość<br />
apertury numerycznej (z definicji) występuje w szklanym<br />
włóknie gradientowym na osi, gdyż ogólnie zachodzi we<br />
włóknie gradientowym zależność NA = NA(r) i zwyczajowo za<br />
NA (bez oznaczeń) przyjmuje się wartość NA(r = 0) = sinθ max ,<br />
gdzie θ max - maksymalny kąt akceptacji promienia światła<br />
przez włókno szklane. Wartość apertury numerycznej w szklanym<br />
włóknie optycznym gradientowym, na granicy rdzeń -<br />
płaszcz, tam gdzie ulega zrównaniu refrakcja obu obszarów<br />
NA(a) = 0. Efektywna część przestrzeni fazowej jest tym obszarem,<br />
w którym moc optyczna może się rozprzestrzeniać<br />
w szkle bez tzw. strat falowodowych. Straty falowodowe to są<br />
straty we włóknie nie wynikające z absorpcji fali optycznej<br />
w szkle, a z wypromieniowania na zewnątrz szkła. Cała efektywna<br />
przestrzeń fazowa szklanego włókna optycznego może<br />
być podzielona na pewne podobszary, związane z charakterystycznymi<br />
wielkościami NA, a oraz strat falowodowych. Na<br />
rysunku przedstawiono obrazy przestrzeni fazowych dla<br />
włókien optycznych ze szkieł światłowodowych o dwóch<br />
różnych gradientach refrakcji - skokowym i parabolicznym.<br />
W szklanym włóknie optycznym z gradientem refrakcji,<br />
w którym istnieje efektywny mechanizm objętościowego<br />
ograniczenia kwantowego fali świetlnej, rozprzestrzeniające<br />
się wewnątrz promienie światła można zgrupować w kilka<br />
kategorii. Po pierwsze dzielimy promienie na silnie związane<br />
z włóknem szklanym (podlegające silnemu ograniczeniu<br />
kwantowemu) oraz słabo związane z włóknem (podlegające<br />
ograniczeniu coraz słabszemu aż w ogóle nie podlegające<br />
takiemu ograniczeniu). Wszystkie promienie zajmują obszar<br />
ograniczony prostokątem - rys. a dla włókna szklanego<br />
o skokowym profilu refrakcji i trójkątny dla profilu refrakcji<br />
parabolicznego - rys. b. Nie koniecznie cały dostępny obszar<br />
w przestrzeni fazowej włókna szklanego musi być pobudzony.<br />
Na rys. c przedstawiono przypadek pobudzenia<br />
122 ELEKTRONIKA 11/<strong>2009</strong>
a)<br />
b)<br />
c)<br />
włókna szklanego falą świetlną tylko do połowy wartości<br />
apertury numerycznej oraz do połowy promienia obszaru<br />
rdzeniowego.<br />
Na rysunku d jako i i ii oznaczono promienie światła ściśle<br />
związane z włóknem szklanym, czyli ściśle podlegające ograniczeniu<br />
kwantowemu. W tym, i- są to promienie niskiego rzędu<br />
znajdujące się cały czas wzdłuż włókna szklanego blisko jego<br />
osi. Jako ii- oznaczono promienie wysokiego rzędu odległe od<br />
osi włókna szklanego, a bliskie granicy obszarów szkła rdzeńpłaszcz.<br />
Jako iii - oznaczono promienie światła częściowo<br />
związane z włóknem szklanym, słabo podlegające ograniczeniu<br />
kwantowemu. Moc optyczna takich promieni powoli opuszcza<br />
włókno szklane, stąd mówimy o nich jako o promieniach<br />
radiacyjnych, co jest równoważne z ich wysokimi stratami. Na<br />
rysunku zaznaczono umownie wzrastający poziom strat radiacyjnych<br />
promieni światła słabo związanych z włóknem szklanym.<br />
W ujęciu optyki geometrycznej mówimy, że te promienie<br />
posiadają kaustykę na promieniowanie. Im promienie są słabiej<br />
związane z włóknem tym ta kaustyka jest bardziej odległa od<br />
osi światłowodu i tym głębiej wchodzi w obszar płaszcza. Kaustyka<br />
promieni niskiego rzędu (i) tworzy powierzchnię cylindryczną<br />
(lub elipsoidalną) znajdującą się całkowicie wewnątrz<br />
obszaru szkła rdzeniowego i położoną blisko osi włókna. Kaustyka<br />
promieni wyższego rzędu powoli zbliża się do granicy<br />
szkieł rdzeń-płaszcz. Po przekroczeniu tej granicy promienie<br />
światła o takiej kaustyce zaczynają wypromieniowywać moc<br />
optyczną na zewnątrz włókna szklanego. Ilość i sposób wypromieniowywanej<br />
fali świetlnej z włókna szklanego (przez powierzchnię<br />
boczną) zależy od sposobu i zakresu (obszaru)<br />
przecięcia kaustyki z granicą szkieł rdzeń-płaszcz.<br />
Grupy parametrów szklanego włókna<br />
optycznego<br />
d)<br />
Przestrzeń fazowa (obszar pobudzania mocą optyczną w przekroju<br />
poprzecznym) dla optycznego, wielomodowego włókna szklanego;<br />
a) włókno szklane o skokowej zmianie refrakcji, b) włókno szklane<br />
o parabolicznej zmianie refrakcji, c) pobudzenie połowiczne włókna<br />
szklanego mocą optyczną do wartości połowy kąta aperturowego<br />
włókna, d) zobrazowanie rodzajów fal (skwantowanych promieni<br />
światła) w optycznym włóknie szklanym: i i ii - promienie silnie<br />
związane z włóknem szklanym niskiego i wysokiego rzędu, iii - promienie<br />
słabo związane z włóknem szklanym<br />
Phase space of a multimode optical fiber defined as a geometrical<br />
and angular area in the fiber cross section excited by optical<br />
power; Angular acceptance capabilities of optical fiber is defined<br />
by numerical aperture NA and geometry by diameter of optical core<br />
2a; a) optical fiber of step index profile; b) optical fiber of parabolic<br />
refractive index profile; c) excitation of an optical fiber up to the<br />
half value of numerical aperture; d) imaging of optical fiber wave<br />
modes: i and ii wave modes strongly bound to the optical fiber refractive<br />
structure, iii - wave modes weakly bound to the fibre -<br />
called leaking<br />
Szkło światłowodowe w postaci objętościowej i najczęściej<br />
bez gradientu refrakcji nie ma sensu. W niniejszym artykule<br />
rozpatrujemy szkło światłowodowe w postaci objętościowej<br />
wyłącznie jako forma przejściowa preformy światłowodowej<br />
prowadząca do wytworzenia szklanego włókna optycznego.<br />
Tak więc rozpatrywanie właściwości szkła światłowodowego<br />
jest równoważne z rozpatrywaniem tego szkła w postaci<br />
włókna optycznego. To zmienia wiele, a podstawowe przyczyny<br />
to znaczna długość drogi optycznej fali świetlnej w szkle<br />
oraz poprzeczne ograniczenie refrakcyjne i geometryczne dla<br />
fali. Parametry szklanego włókna optycznego zawierają grupy<br />
wielkości mechanicznych, termicznych, optycznych i wrażliwościowych,<br />
analogicznych do parametrów wyjściowego<br />
szkła światłowodowego, a oprócz tego zawierają wiele wielkości<br />
związanych wyłącznie ze strukturą włóknistą ośrodka<br />
szklanego. Te ostatnie parametry nazywamy falowodowymi<br />
(światłowodowymi).<br />
Wśród parametrów światłowodowych można wyróżnić<br />
wielkości materiałowe i sygnałowe:<br />
• parametry czasowe i częstotliwościowe: grupowy czas<br />
opóźnienia, pasmo, dyspersja materiałowa, falowodowa,<br />
chromatyczna, dyspersja profilu refrakcji, dyspersja polaryzacyjna,<br />
• parametry energetyczne: gęstość transmitowanej mocy<br />
optycznej, poziom zjawisk nieliniowych, rozpraszanie stymulowane,<br />
• parametry refrakcyjne i falowe: długość fali odcięcia, polaryzacja,<br />
średnica pola modowego, profil refrakcyjny,<br />
tłumienność i zakres spektralny przezroczystości,<br />
• parametry wrażliwościowe: czułość na oddziaływania środowiskowe,<br />
trwałość, dewitryfikacja, itp.<br />
ELEKTRONIKA 11/<strong>2009</strong> 123
Parametry materiałowe szklanego włókna<br />
optycznego<br />
Materiały składowe szkła wyjściowego na włókno optyczne<br />
determinują podstawowe właściwości szkła wieloskładnikowego.<br />
Parametrami są tu: zawartość i układ podstawowych<br />
tlenków (fluorków) szkłotwórczych, zawartość tlenków (fluorków)<br />
modyfikatorów, poziomy domieszkowania szkła aktywatorami,<br />
skład chemiczny, dobór szkieł do układu płaszczrdzeń,<br />
parametry różnicowe układu szkieł rdzeń-płaszcz, itp.<br />
Fundamentalne znaczenie dla właściwości włókna szklanego<br />
mają parametry różnicowe szkieł składowych. Przede wszystkim<br />
szkła muszą być dobrane pod względem refrakcyjnym<br />
oraz mechaniczno-termicznym.<br />
Geometria szklanego włókna optycznego<br />
Geometria włókna optycznego obejmuje takie parametry jak<br />
średnicę rdzenia i płaszcza, średnice innych obszarów pomocniczych<br />
(makro- i mikrootworów, obszarów szkła naprężającego,<br />
itp.) w światłowodzie. Kształt rdzenia na ogół cylindryczny może<br />
być także eliptyczny lub złożony kompozytowy jednomodowowielomodowy<br />
jak w światłowodach aktywnych.<br />
Refrakcja szklanego włókna optycznego<br />
i parametry optyczne<br />
Parametry optyczne włókna szklanego obejmują: aperturę numeryczną,<br />
częstotliwość znormalizowaną, długość fali odcięcia,<br />
refrakcje bazowe (piedestałowe) i przyrostowe, refrakcje<br />
różnicowe bezwzględne i względne, efektywną średnicę modową<br />
rdzenia, maksymalną dopuszczalną gęstość mocy<br />
optycznej, przezroczystość spektralną, podatność na zjawiska<br />
nieliniowe, itp.<br />
Dyspersja szklanego włókna optycznego<br />
i parametry czasowe<br />
Dyspersja szklanego włókna optycznego posiada kilka różnych<br />
składników: międzymodowy, wewnątrzmodowy, polaryzacyjny,<br />
materiałowy i falowodowy, chromatyczny. Część ze składników<br />
podlega kompensacji wzajemnej lub z efektami nieliniowymi. Parametrami<br />
dyspersyjnymi włókna szklanego są: długość fali zerowej<br />
dyspersji chromatycznej, przesunięcie dyspersji, spłaszczenie<br />
charakterystyki dyspersji, pasmo dyspersji spłaszczonej,<br />
rodzaj spłaszczenia - jednopunktowe, dwupunktowe, wielopunktowe;<br />
pochodne refrakcji grupowej. Parametrami dyspersyjnymi<br />
wyższego rzędu są: wyższe pochodne refrakcji<br />
grupowej, dyspersja profilu refrakcyjnego, itp. Parametrami czasowymi<br />
są dyspersja w dziedzinie czasu, rozszerzenie (lub inne<br />
zniekształcenie) impulsu propagowanego w światłowodzie, itp.<br />
Tłumienie szklanego włókna optycznego<br />
Charakterystyka spektralna transmisji włókna optycznego, jej<br />
szczegółowy kształt dla poszczególnych obszarów widma<br />
transmisji decyduje o możliwościach zastosowania światłowodu<br />
w systemie WDM lub do celów instrumentalnych.<br />
Parametry termiczne i mechaniczne szklanego<br />
włókna optycznego<br />
Parametry mechaniczne i termiczne szklanego włókna<br />
optycznego to: liniowa rozszerzalność termiczna, termiczna<br />
dyspersja refrakcji, dylatacyjna zmiana długości drogi optycznej<br />
we włóknie szklanym, odporność na szok termiczny dla<br />
włókien aktywnych, dopasowanie termiczno-mechaniczne dla<br />
układu szkieł rdzeń-płaszcz, itp.<br />
Wrażliwość środowiskowa szklanego włókna<br />
optycznego<br />
Wrażliwość środowiskowa obejmuje między innymi takie parametry<br />
jak: odporność na narażenia chemiczne włókna<br />
optycznego w pokryciu indywidualnym i obudowie, odporność<br />
na zaburzenia elektromagnetyczne transmisji optycznej, odporność<br />
na mikrozgięcia i naprężenia mechaniczne, zmiany<br />
termiczne, promieniowanie jonizujące, itp.<br />
Parametry szklanego włókna optycznego<br />
kablowanego<br />
W zastosowaniach praktycznych szklane włókno optyczne jedynie<br />
relatywnie rzadko występuje w postaci odsłoniętej. Takie<br />
przypadki dotyczą np. czujników światłowodowych w których<br />
warunkiem koniecznym procesu pomiarowego jest oddziaływanie<br />
czynnika zewnętrznego na powierzchnię szkła.<br />
Zazwyczaj włókno szklane znajduje się wewnątrz struktury<br />
kabla o odpowiedniej do zastosowania konstrukcji. Bezpośrednie<br />
zabezpieczenie włókna jest np. miękko-twarde.<br />
W tabeli zebrano podstawowe parametry syntetycznego<br />
ultraniskostratnego, krzemionkowego szkła światłowodowego<br />
dostępnego w postaci preformy oraz włókien optycznych wyciąganych<br />
z takiego szkła światłowodowego niedomieszkowanego<br />
i słabo domieszkowanego. W niektórych miejscach<br />
tabeli zawarto porównanie odpowiednich parametrów szkieł<br />
i światłowodów SiO 2 oraz ZBLAN. Wydawałoby się zwykłe<br />
ukształtowanie szkła światłowodowego we włókno optyczne<br />
z poprzecznym gradientem refrakcji (bez gradientu wzdłużnego)<br />
nie może aż tak komplikować i wzbogacać właściwości<br />
takiej struktury szkła. Z tabeli widać, że to nie jest prawda.<br />
Szklane światłowodowe włókno optyczne jest elementem<br />
optycznym o bardzo skomplikowanych właściwościach, o dziesiątkach<br />
powiązanych ze sobą parametrach optycznych, mechanicznych,<br />
termicznych, wrażliwościowych, itp. A główne<br />
parametry włókna szklanego są zdeterminowane przez wyjściowe<br />
szkła światłowodowe (co najmniej dwa n 1 i n 2 lub wbudowany<br />
gradient refrakcji n(r)) wprowadzający obszar<br />
ograniczenia refrakcyjnego (energetycznego) dla fali oraz<br />
przez strukturę geometryczną wprowadzającą obszar ograniczenia<br />
objętościowego r max = a, a ≈ λ. Współmierność tych<br />
ograniczeń w szkle światłowodowym z długością transmitowanej<br />
fali optycznej prowadzi do zjawisk kwantowych - nieobecnych<br />
w takiej postaci w izorefrakcyjnym, izotropowym<br />
optycznym szkle objętościowym.<br />
Podsumowanie<br />
Współczesne światłowody włóknowe podlegają ciągłemu<br />
różnicowaniu rodzajów, optymalizowanych do zastosowania.<br />
Światłowody telekomunikacyjne są poddane ścisłemu rygorowi<br />
przemysłowego procesu normalizacji. Wprowadzenie nowego<br />
rodzaju światłowodu wymaga uzgodnień normalizacyjnych<br />
w szerokiej skali. Światłowody instrumentalne nie<br />
podlegają takiemu rygorowi. Rodzajów takich światłowodów<br />
jest coraz więcej. Wykonywane są ze szkieł tlenkowych, halogenkowych,<br />
chalkogenkowych, mieszanych, dewitryfikatów,<br />
szkieł fotonicznych, metaszkieł. Obecnie w technice trwa dalszy<br />
silny proces dywersyfikacji rodzajów szkieł na światłowody<br />
instrumentalne oraz rodzajów tych światłowodów.<br />
124 ELEKTRONIKA 11/<strong>2009</strong>
ELEKTRONIKA 11/<strong>2009</strong> 125
126 ELEKTRONIKA 11/<strong>2009</strong>
ELEKTRONIKA 11/<strong>2009</strong> 127
Literatura<br />
[1] Yamane M., Asahara Y.: Glasses for photonics. Cambridge University<br />
Press, 2000.<br />
[2] Agraval G.P.: Nonlinear fiber optics. Academic Press, Boston<br />
1989.<br />
[3] Fournier J., Snitzer E.: The nonlinear refractive index of glasses.<br />
IEEE J. on Quantum Electronics, May 1974, vol. 10, issue 5, pp.<br />
473-475.<br />
[4] Weber M.J.: Handbook of optical materials. CRC Press, New<br />
York, 2003.<br />
[5] Musikant S, Thompson B. J.: Optical materials. A series of advances,<br />
vol. 1, Marcel Dekker, New York, 1999.<br />
[6] Szwedowski A.: Materiałoznawstwo optyczne i optoelektroniczne.<br />
WNT, Warszawa, 1996.<br />
[7] Szwedowski A., Romaniuk R.: Szkło optyczne i fotoniczne, właściwości<br />
techniczne. WNT, Warszawa <strong>2009</strong>.<br />
128 ELEKTRONIKA 11/<strong>2009</strong>
Wpływ konstrukcji cyfrowych układów scalonych<br />
na generację zaburzeń elektromagnetycznych<br />
dr JULIUSZ SZCZĘSNY<br />
<strong>Instytut</strong> Technologii Elektronowej, Warszawa<br />
W artykule przedstawiono wyniki pomiarów emisji zmiennych<br />
pól EM w funkcji częstotliwości taktowania, generowanych<br />
przez układy scalone w formie matryc FPGA, zawierające<br />
często spotykane bloki funkcjonalne, rozmieszczone<br />
w różnych miejscach struktury półprzewodnikowej [1,2]. Opracowano<br />
w tym celu dwa projekty układów scalonych mających<br />
za zadanie mnożenie liczb w nieskończonej pętli programowej.<br />
Pierwszy z projektów wykorzystywał algorytm mnożenia<br />
kombinacyjnego a drugi sekwencyjnego. Projekty te były dodatkowo<br />
modyfikowane w celu zmiany liczby i topologii aktywnych<br />
bramek logicznych. Każdy projekt układu scalonego<br />
był implementowany do matrycy cyfrowej Xilinx typu XCV 800.<br />
Zmiany konfiguracji oraz liczby bloków funkcjonalnych wykorzystywanych<br />
przez każdy z projektów pozwoliły określić<br />
wpływ ich rozmieszczania na indukcyjność doprowadzeń,<br />
a tym samym na poziom generowanych zaburzeń.<br />
Układy pomiarowe<br />
Do badania wykorzystano matrycę cyfrową firmy Xilinx z rodziny<br />
Virtex, typu XCV 800. Jej podstawową zaletą w tego typu<br />
badaniach jest możliwość wielokrotnego programowania tzn.<br />
zmiany konfiguracji bloków logicznych za pomocą firmowego<br />
oprogramowania, zainstalowanego w zewnętrznym komputerze<br />
typu PC [3,4]. Matryca (800 000 bramek [5]) jest układem<br />
scalonym wielkiej skali integracji, wykonanym w technologii<br />
CMOS 0,22 µm z pięcioma poziomami metalizacji.<br />
Płytka obwodu aplikacyjnego została wykonana z laminatu<br />
jednowarstwowego i zawiera podstawowe obwody elektryczne<br />
i wyprowadzenia umożliwiające matrycy cyfrowej stabilną<br />
pracę i komunikację z zewnętrznymi urządzeniami.<br />
Sondy pomiarowe<br />
Do pomiarów emisji EM wykorzystano mikrosondę magnetyczną<br />
i elektryczną firmy Langer EMV-Technik. Mikrosonda<br />
elektryczna typu RF 2,5-2 przeznaczona jest do pomiarów<br />
zmiennych pól magnetycznych o częstotliwościach od<br />
100 kHz do 1 GHz. Elementem czynnym jest tu pętla indukcyjna<br />
o średnicy około 0,5 mm. Małe rozmiary elementu<br />
czynnego tej sondy pozwalają na pomiary rozkładów składowej<br />
zmiennej pola magnetycznego emitowanego z niewielkiej<br />
powierzchni. Sonda elektryczna typu RF E05<br />
przeznaczona jest natomiast do pomiarów składowych<br />
zmiennych pola elektrycznego w takim samym paśmie częstotliwości.<br />
Element czynny tej sondy ma wymiary 2 x8mm.<br />
Obydwie sondy zakończone są przewodem współosiowym<br />
i wtykiem BNC o impedancji 50 Ω. W celu zwiększenia<br />
czułości sond zastosowano szerokopasmowy przedwzmacniacz<br />
20 dB typu PA 201. Wartości składowej magnetycznej<br />
i elektrycznej pola EM przedstawiono graficznie w jednostkach<br />
napięcia indukowanego w każdej z sond, gdyż firma<br />
Langer EMV-Technik nie udostępnia krzywych kalibracyjnych<br />
do używanych tu sond pomiarowych.<br />
Układ do pomiaru poziomu emisji pola EM<br />
Pomiary poziomu emisji składowej H i składowej E emitowanego<br />
pola EM przeprowadzono za pomocą sondy magnetycznej<br />
typu RF 2,5-2 i elektrycznej typu RF E05 wraz<br />
z przedwzmacniaczem typu PA 201 oraz cyfrowym oscyloskopem<br />
firmy LeCroy typu 9374L. W celu uniknięcia zafałszowywania<br />
wyników pomiarowych przez przypadkowe<br />
impulsy zewnętrzne, które w czasie pomiarów mogą przeniknąć<br />
do układu pomiarowego z sieci energetycznej lub otoczenia,<br />
każdy z pomiarów powtórzono około 100 razy i obliczono<br />
wartość średnią.<br />
Układ do pomiaru widma składowej H i E pola EM<br />
Układy do pomiaru widma częstotliwości składowych H i E<br />
pola EM składają się z omówionych wyżej sond pomiarowych<br />
wraz z przedwzmacniaczem, wirtualnego analizatora widma<br />
firmy EMC Master typu ST100W wraz z oprogramowaniem<br />
firmowym i komputera sterującego klasy PC. Pasmo pracy<br />
analizatora widma wynosi 0,15 MHz...1 GHz pokrywa się<br />
z pasmem pracy sond pomiarowych i przedwzmacniacza.<br />
Projekty układów scalonych<br />
Do badań poziomu generowanych zaburzeń opracowano dwa<br />
projekty układów scalonych do mnożenia liczb, wykorzystujące<br />
metodę kombinacyjną, zwaną również równoległą (projekty<br />
comb) i metodę sekwencyjną (projekty seq). Obydwa<br />
sposoby mnożenia liczb są często wykorzystywane w dużych<br />
projektach układów scalonych. Mimo tego, że wykonują to<br />
samo działanie matematyczne, różnią się stopniem skomplikowania<br />
struktury logicznej oraz szybkością działania. Metoda<br />
mnożenia kombinacyjnego charakteryzuje się większą szybkością<br />
działania niż metoda mnożenia sekwencyjnego, dlatego<br />
znajduje zastosowanie w projektach, w których<br />
wymagany jest krótki czas wykonania działań na liczbach.<br />
Metoda mnożenia sekwencyjnego jest zwykle wolniejsza, ale<br />
bardziej uniwersalna, gdyż daje się zrealizować w postaci pozwalającej<br />
wykonywać jeszcze inne działania arytmetyczne.<br />
Do opracowania projektu układów mnożących wykorzystano<br />
relatywnie niewielką liczbę bramek, dzięki czemu można<br />
było zaobserwować wpływ zmian rozmieszczenia i liczby bloków<br />
funkcjonalnych w obszarze matrycy cyfrowej na poziom<br />
generowanych zaburzeń [6,7]. Przy prowadzeniu badań porównawczych<br />
nie są istotne szczegóły dotyczące realizacji<br />
każdego z projektów. Ważne jest natomiast to, żeby we<br />
wszystkich badanych projektach układów scalonych były wykonywane<br />
modyfikacje według tych samych reguł. Dlatego<br />
w procesie kompilacji plików źródłowych wykorzystano standardowe<br />
procedury optymalizacji pod kątem minimalizacji<br />
liczby bloków funkcjonalnych i szybkości działania. Modyfikacje<br />
dotyczące zmniejszenia liczby aktywnych bloków, polegały<br />
również na usunięciu bloków I/O z badanych projektów.<br />
ELEKTRONIKA 11/<strong>2009</strong> 129
Rys.1. Przebiegi testowe na wyprowadzeniach układu scalonego<br />
do realizacji mnożenia kombinacyjnego<br />
Fig. 1. Test signals on the pins for combinational multiplication circuits<br />
Rys. 3. Mapy aktywnych bloków logicznych w obszarze matrycy<br />
FPGA<br />
Fig. 3. The plans (floorplans) of the active logical blocks of examined<br />
circuits inside the FPGA<br />
Tab. 1. Porównanie parametrów logicznych badanych projetów<br />
(Z - zgrupowane, R - rozproszone)<br />
Tabl. 1. Comparison of logical design features of tested circuits<br />
(Z - grouped, R - scattered)<br />
Projekt układu<br />
scalonego<br />
Bramki Struktury Bloki<br />
Konfiguracja<br />
bloków<br />
comb_area 9 453 724 412 Z + R<br />
comb_area_replaced 9 453 724 412 Z + R<br />
comb_speed 9 775 725 496 Z + R<br />
comb_no_io_area 12 552 893 569 Z<br />
comb_no_io_speed 13 448 893 719 Z<br />
seq_area 3 404 260 178 R<br />
Rys. 2. Przebiegi testowe na wyprowadzeniach układu scalonego<br />
do realizacji mnożenia sekwencyjnego<br />
Fig. 2. Test signals on the pins for sequential multiplication circuits<br />
W ten sposób uzyskano pięć wersji projektów mnożenia kombinacyjnego<br />
i cztery wersje projektów mnożenia sekwencyjnego,<br />
różniące się liczbą i rozmieszczeniem bloków logicznych<br />
w obszarze matrycy:<br />
• comb_area - projekt układu scalonego do realizacji mnożenia<br />
kombinacyjnego, zoptymalizowany pod kątem minimalizacji<br />
liczby aktywnych bloków, zawiera obsługę<br />
interfejsu szeregowego,<br />
• comb_area_replaced - projekt układu scalonego comb_<br />
area, w którym część bloków logicznych została przemieszczona,<br />
• comb_speed - projekt układu scalonego do realizacji mnożenia<br />
kombinacyjnego, zoptymalizowany pod kątem szybkości<br />
działania, zawiera obsługę interfejsu szeregowego,<br />
• comb_no_io_area - projekt układu scalonego do realizacji<br />
mnożenia kombinacyjnego bez obsługi portu szeregowego,<br />
zoptymalizowany pod kątem minimalizacji liczby aktywnych<br />
bloków,<br />
• comb_no_io_speed - projekt układu scalonego do realizacji<br />
mnożenia kombinacyjnego bez obsługi portu szeregowego,<br />
zoptymalizowany pod kątem szybkości działania,<br />
• seq_area - projekt układu scalonego do realizacji mnożenia<br />
sekwencyjnego, zoptymalizowany pod kątem minimalizacji<br />
liczby aktywnych bloków, zawiera obsługę interfejsu szeregowego,<br />
seq_speed 3 423 268 183 R<br />
seq_no_io_area 6 071 609 367 Z + R<br />
seq_no_io_speed 7 145 730 460 Z + R<br />
• seq_speed - projekt układu scalonego do realizacji mnożenia<br />
sekwencyjnego, zoptymalizowany pod kątem szybkości<br />
działania, zawiera obsługę interfejsu szeregowego,<br />
• seq_no_io_area - projekt układu scalonego do realizacji<br />
mnożenia sekwencyjnego bez obsługi portu szeregowego,<br />
zoptymalizowany pod kątem minimalizacji liczby aktywnych<br />
bloków,<br />
• seq_no_io_speed - projekt układu scalonego do realizacji<br />
mnożenia sekwencyjnego bez obsługi portu szeregowego,<br />
zoptymalizowany pod kątem szybkości działania.<br />
Przebiegi testowe dla projektów układów scalonych do<br />
mnożenia kombinacyjnego i sekwencyjnego przedstawiono<br />
odpowiednio na rys. 1 i 2. Rozkłady bloków logicznych w obszarze<br />
matrycy poszczególnych projektów przedstawiono na<br />
rys. 3, a główne parametry zebrano w tab. 1.<br />
Pomiary generowanych zaburzeń<br />
Pomiary zaburzeń w dziedzinie czasu<br />
Wyniki pomiarów średniej wartości amplitudy (pik-to-pik)<br />
składowej E i składowej H pola EM w dziedzinie czasu, towarzyszących<br />
przepływowi zaburzających prądów w.cz. przez<br />
130 ELEKTRONIKA 11/<strong>2009</strong>
Zmiany poziomów emisji składowych pola EM dla pozostałych<br />
projektów układów scalonych miały podobny charakter,<br />
chociaż różniły się wartościami. Z porównania poziomów<br />
emisji składowej E i składowej H badanych projektów układów<br />
scalonych nie wynika wprost proporcjonalna zależność pomiędzy<br />
liczbą bramek lub bloków funkcjonalnych, a wartością<br />
poziomu generowanych zaburzeń nad badanymi punktami<br />
obwodu aplikacyjnego.<br />
Pomiary zaburzeń w dziedzinie częstotliwości<br />
Rys. 4. Poziom emisji składowej E z układu wg projektu<br />
comb_area w funkcji częstotliwości taktowania<br />
Fig. 4. comb_area circuit E field disturbances as a funcion clock<br />
frequency<br />
Rys. 5. Poziom emisji składowej H z układu wg projektu<br />
comb_area w funkcji częstotliwości taktowania<br />
Fig. 5. comb_area circuit H field disturbances as a funcion clock<br />
frequency<br />
ścieżkę masy, zasilania i przez obudowę układu scalonego<br />
dla projektu comb_area i seq_area w funkcji częstotliwości<br />
zegara przedstawiono na rys. 4 i 5.<br />
Ze wzrostem częstotliwości taktowania do około 30 MHz,<br />
poziom emisji składowej E zmieniał się w niewielkim zakresie.<br />
Największy poziom składowej E wystąpił nad ścieżką masy,<br />
zaś najniższy nad środkiem obudowy układu scalonego. Wartości<br />
poziomów emisji składowej E nad ścieżką masy i ścieżką<br />
zasilania był około dwukrotnie większe niż nad środkiem obudowy<br />
układu scalonego. Powyżej częstotliwości taktowania<br />
30 MHz zaobserwowano wyraźny wzrost składowej E. Największą<br />
wartość tej składowej zaobserwowano nad ścieżką<br />
masy przy częstotliwości taktowania około 40 MHz, tj. mniejszej<br />
o około 5 MHz od składowej E nad ścieżką zasilania i nad<br />
środkiem obudowy układu scalonego. Na wykresie składowej<br />
E nad ścieżką masy wystąpiło dodatkowo minimum lokalne<br />
przy częstotliwości taktowania około 45 MHz, towarzyszące<br />
maksimum emisji składowej E nad ścieżką zasilania i nad<br />
środkiem obudowy układu scalonego.<br />
Zmiany poziomu emisji składowej H (rys. 5) w funkcji częstotliwości<br />
taktowania miały podobny charakter jak na rys. 4.<br />
Najwyższą wartość tej składowej odnotowano nad ścieżką zasilania<br />
przy częstotliwości taktowania około 45 MHz. Była ona<br />
około dwukrotnie większa niż nad ścieżką masy i o około 15%<br />
niż nad środkiem obudowy układu scalonego. W zakresie<br />
częstotliwości taktowania 5…30 MHz obserwowano niewielki<br />
wzrost składowej H nad badanymi punktami obwodu aplikacyjnego.<br />
Największe wartości osiągała tu składowa H nad<br />
ścieżką zasilania. Były one blisko dwukrotnie większe niż najmniejsze<br />
wartości, występujące nad ścieżką masy.<br />
Przy małych częstotliwościach taktowania liczba częstotliwości<br />
harmonicznych, jak i ich amplitudy były relatywnie małe.<br />
Pierwsze harmoniczne pojawiały się w paśmie 200…300 MHz<br />
przy częstotliwości zegara około 1 MHz. Ze wzrostem częstotliwości<br />
taktowania następował szybki wzrost liczby i amplitudy<br />
harmonicznych oraz szerokości ich pasma. Już przy<br />
częstotliwości taktowania 10 MHz obserwowano harmoniczne<br />
w całym paśmie pracy analizatora widma tj. do 1 GHz. W górnej<br />
części przedziału częstotliwości zegara tj. 40…50 MHz,<br />
nieoczekiwanie następowało zauważalne zmniejszenie liczby<br />
i amplitudy częstotliwości harmonicznych oraz zawężało się<br />
również pasmo do około 450 MHz (rys. 6). W przypadku projektów<br />
comb_no_io_speed i seq_no_io_speed powyższej prawidłowości<br />
nie zaobserwowano. Wraz ze wzrostem częstotliwości<br />
taktowania obserwowano ciągły wzrost liczby i amplitudy<br />
harmocznicznych. Najwięcej harmonicznych było w paśmie<br />
200…600 MHz nad ścieżką zasilania i w paśmie<br />
100...500 MHz nad ścieżką masy.<br />
Większą liczbę częstotliwości harmonicznych i o nieco<br />
większych amplitudach obserwowano nad ścieżkami masy<br />
i zasilania w przypadku projektów seq niż comb. Widmo o największych<br />
amplitudach częstotliwości harmonicznych uzyskano<br />
w projekcie seq_no_io_speed tj. projekcie mnożenia<br />
sekwencyjnego o największej liczbie bloków logicznych. Najmniejszy<br />
poziom emisji uzyskano w przypadku projektów o najmniejszej<br />
liczbie bloków logicznych: seq_area i seq_speed.<br />
Ponieważ źródłem generacji prądów w.cz. jest również<br />
struktura półprzewodnikowa układu scalonego matrycy, wykonano<br />
pomiary widma składowej pola EM emitowanego nad<br />
środkiem obudowy układu scalonego matrycy. W widmie tym<br />
liczba pików i ich amplitudy zwiększały się wraz ze wzrostem<br />
częstotliwości taktowania do 30 MHz. Rozszerzało się rów-<br />
a) b)<br />
c)<br />
Rys. 6. Widmo HF nad ścieżką zasilania dla projektu comb_area<br />
circuit przy częstotliwościach taktowania: a) 1 MHz; b) 25 MHz;<br />
c) 50 MHz (skala: 10 dB/działkę)<br />
Fig. 6. comb_area circuit - spectrum of HF current in power supply<br />
pin for the clock frequency: a) 1 MHz, b) 25 MHz, c) 50 MHz<br />
(10 dB/division)<br />
ELEKTRONIKA 11/<strong>2009</strong> 131
nież pasmo emisji od około 500 MHz do 1 GHz. Z dalszym<br />
wzrostem częstotliwości taktowania obserwowano zmniejszenie<br />
amplitud i liczby pików w widmie. Największą liczbę<br />
częstotliwości harmonicznych zanotowano przy taktowaniu<br />
z częstotliwością 25 MHz.<br />
Z porównania widma składowej E i składowej H nad<br />
ścieżkami i nad środkiem obudowy układu scalonego wynika,<br />
że charakter ich zmian w funkcji częstotliwości taktowania był<br />
bardzo podobny. Do częstotliwości taktowania 25…30 MHz<br />
obserwowano wzrost liczby, amplitudy i pasma emisji harmonicznych.<br />
Z dalszym wzrostem częstotliwości taktowania<br />
30…50 MHz następowało zmniejszenie liczby i amplitudy harmonicznych<br />
oraz ograniczenie ich pasma.<br />
Największa liczba częstotliwości harmonicznych wystąpiła<br />
w widmach nad ścieżką masy natomiast najmniejszą odnotowano<br />
nad środkiem obudowy układu scalonego. Z przedstawionych<br />
pomiarów widm wynika, że najwięcej harmonicznych<br />
występowało w paśmie 200…700 MHz dla projektów mnożenia<br />
kombinacyjnego, podczas gdy dla projektów mnożenia sekwencyjnego<br />
pasmo to zawęża się do około 150…300 MHz.<br />
Pomiary prądów zasilania<br />
Pracujące układy scalone wytwarzają zaburzenia przewodzone<br />
i promieniowane. Obydwa rodzaje zaburzeń niosą ze<br />
sobą energię, której część zostaje zamieniona na energię<br />
cieplną oraz energię pola EM i bezpowrotnie utracona. Energia<br />
ta pochodzi z układu zasilania obwodu aplikacyjnego<br />
i może być wyznaczona na podstawie pomiarów prądu zasilania<br />
w funkcji częstotliwości taktowania - rys. 7.<br />
Wartości prądów zasilania narastały liniowo w funkcji częstotliwości<br />
taktowania we wszystkich badanych projektach<br />
układów scalonych. Wzrosty prądów zaczynały się od wartości<br />
120 mA, którą uzyskano przy zerowej częstotliwości taktowania<br />
i przyjęto za wartość odniesienia. Prąd ten był wykorzystywany<br />
do zasilania podzespołów znajdujących się na płytce<br />
drukowanej obwodu aplikacyjnego, jak np. sygnalizacyjne<br />
diody LED. Dopiero prąd zasilania powyżej 120 mA był wykorzystany<br />
przez bramki logiczne matrycy cyfrowej do realizacji<br />
mnożenia. W projektach realizujących metodę mnożenia kombinacyjnego<br />
(comb) największy prąd zasilania w funkcji<br />
częstotliwości taktowania był pobierany przez projekt<br />
comb_no_io_speed. Nieco mniejszy prąd zasilania potrzebny<br />
był do pracy projektu comb_no_io_area. Te projekty układów<br />
scalonych wykorzystywały odpowiednio 13 448 i 12 552<br />
bramki logiczne tj. największą ich liczbę z grona badanych,<br />
modelowych układów scalonych. Mniejsze wartości prądów<br />
zasilania były pobierane przez pozostałe projekty układów scalonych<br />
realizujące mnożenie metodą kombinacyjną i wykorzystujące<br />
proporcjonalnie mniejszą liczbę bramek logicznych.<br />
Podobne zależności pomiędzy wartościami prądów zasilania<br />
i liczbą wykorzystywanych bramek logicznych zaobserwowano<br />
w projektach układów scalonych realizujących<br />
metodę mnożenia sekwencyjnego. Projekty układów scalonych<br />
o największej liczbie bramek logicznych seq_no_io_area<br />
i seq_no_io_speed pobierały większe prądy zasilania niż projekty<br />
seq_area i seq_speed. Wynika stąd, że wartość prądu<br />
zasilania wzrasta z liczbą wykorzystanych bramek logicznych.<br />
Nie jest to jednak zależność wprost proporcjonalna, co zostało<br />
przedstawione w tab. 2. W kolumnie 2 zestawiono średnie<br />
wartości prądu przypadającego na jedną bramkę logiczną<br />
przy częstotliwości taktowania 50 MHz. Do obliczeń przyjęto<br />
prądy zasilania z rys. 7 pomniejszone o 120 mA (kolumna 4).<br />
Tab. 2. Średnia wartość prądu zasilania na jedną bramkę logiczną<br />
przy częstotliwości taktowania 50 MHz<br />
Tabl. 2. The averge values of power supply currens on one logic<br />
gate at the clock rate 50 MHz<br />
a)<br />
Projekt układu<br />
scalonego<br />
Prąd/bramka<br />
[mA]<br />
Liczba<br />
bramek<br />
Prąd zasilania<br />
[mA]<br />
Comb_area 3,8 9 453 36<br />
Comb_area_replaced 3,9 9 453 37<br />
Comb_speed 4,2 9 775 41<br />
Comb_no_io_area 6,7 12 552 84<br />
Comb_no_io_speed 8,1 13 448 109<br />
Seq_area 11,2 3 404 38<br />
b)<br />
Seq_speed 11,1 3 423 38<br />
Seq_no_io_area 14,2 6 071 86<br />
Seq_no_io_speed 14,3 7 145 102<br />
Rys. 7. Prądy zasilania projektów układów scalonych w funkcji<br />
częstotliwości zegara: a) comb, b) seq<br />
Fig. 7. Power supply currents as a function of the lock frequency:<br />
a) comb, b) seq<br />
Największe wartości prądów na jedną bramkę logiczną odnotowano<br />
w projektach seq_no_io_area i seq_no_io_speed,<br />
które wykorzystywały prawie dwukrotnie mniejszą liczbę<br />
bramek logicznych niż projekty comb_no_io_area i comb_no_<br />
io_speed. Z tabeli 2 wynika, że wyraźnie większe wartości<br />
prądu na jedną bramkę logiczną przypadały w projektach<br />
układów scalonych realizujących mnożenie metodą sekwencyjną<br />
niż kombinacyjną. Większe prądy na bramkę logiczną<br />
zaobserwowano jednak w projektach nie zawierających<br />
obsługę interfejsu szeregowego do transmisji danych pomiędzy<br />
matrycą i komputerem PC. Nie można zatem wniosko-<br />
132 ELEKTRONIKA 11/<strong>2009</strong>
wać, że prąd zasilania pobierany przez matrycę cyfrową<br />
wzrastał wprost proporcjonalnie do liczby wykorzystywanych<br />
bramek logicznych. Zależał on raczej od sposobu realizacji<br />
zadania. W ramach kombinacyjnej metody mnożenia wykonuje<br />
się bowiem równoległe działania na bitach mnożonych<br />
liczb i dlatego w jednym takcie zegarowym było wykorzystywanych<br />
więcej bramek logicznych niż w projektach mnożenia<br />
metodą sekwencyjną. Konsekwencją takiego trybu pracy była<br />
mniejsza średnia wartość prądu zasilania, przypadająca na<br />
jedną bramkę logiczną. Można również przypuszczać, że<br />
w projektach realizujących metodę mnożenia kombinacyjnego,<br />
w jednym takcie zegarowym pracowała mniejsza liczba<br />
bramek logicznych niż w projektach realizujących metodę<br />
mnożenia sekwencyjnego. W projektach układów scalonych<br />
pobierających mniejszy prąd zasilania obserwowano niższy<br />
poziom generowanych zaburzeń niż w projektach zasilanych<br />
większym prądem.<br />
Wnioski<br />
Opracowano dwa projekty układów scalonych do mnożenia<br />
liczb metodą kombinacyjną i sekwencyjną, w których dokonano<br />
drobnych modyfikacji oraz zoptymalizowano je w procesie<br />
kompilacji pod kątem minimalizacji liczby bloków<br />
funkcjonalnych lub szybkości działania. W ten sposób uzyskano<br />
9 różnych wersji projektów układów scalonych. Wykorzystywały<br />
one niewielką liczbę bloków logicznych (1…7%)<br />
w porównaniu z liczbą dostępnych w matrycy cyfrowej firmy<br />
Xilinx z rodziny Virtex, typu XCV 800, dzięki czemu można<br />
było rozlokować je na wiele sposobów. Projekty różniły się<br />
między sobą głównie liczbą wykorzystanych bramek logicznych<br />
i topografią aktywnych bloków logicznych w obszarze<br />
matrycy cyfrowej.<br />
Z przeprowadzonych pomiarów poziomu emisji składowej<br />
E i składowej H pola EM nad ścieżkami masy i zasilania obwodu<br />
aplikacyjnego oraz nad środkiem obudowy układu scalonego<br />
wynika, że nie zmieniał się on liniowo w funkcji<br />
częstotliwości taktowania. W zakresie częstotliwości taktowania<br />
około 10…30 MHz uzyskano prawie stały poziomu<br />
emisji pola EM. Ten przedział częstotliwości taktowania<br />
można wykorzystywać do optymalizacji poziomu generowanych<br />
zaburzeń na etapie projektowania układu scalonego<br />
i obwodu aplikacyjnego. Z dalszym wzrostem częstotliwości<br />
taktowania obserwowano szybkie narastanie poziomu emisji<br />
do wartości maksymalnej, którą osiągał w zakresie<br />
40…45 MHz. Powyższym zmianom poziomu emisji pola EM<br />
towarzyszyło rozszerzanie się pasma częstotliwości harmonicznych<br />
składowych pola E i H, które po uzyskaniu maksimum,<br />
zawężało się wraz ze wzrostem częstotliwości taktowania.<br />
Obserwacje te wskazują na występowanie rezonansów<br />
w matrycy towarzyszących pracy badanych projektów<br />
układów scalonych w tym dość wysokim zakresie częstotliwości<br />
taktowania.<br />
W projektach układów scalonych o zwartym rozkładzie<br />
bloków logicznych, indukcyjność doprowadzeń na strukturze<br />
była według szacunków nawet kilkukrotnie mniejsza niż w projektach<br />
o rozrzuconych blokach logicznych na dużym obszarze<br />
matrycy cyfrowej. Wykorzystywały jednak one większą<br />
liczbę bramek logicznych oraz pobierały większy prąd zasilania.<br />
Większy był też poziom emisji składowej E i składowej<br />
H pola EM w funkcji częstotliwości taktowania, a w widmach<br />
wystąpiła większa liczba częstotliwości harmonicznych. Należy<br />
sądzić, że mała indukcyjność i rezystywność tych doprowadzeń<br />
oraz relatywnie duża liczba bramek logicznych<br />
skupionych w jednym miejscu matrycy cyfrowej były przyczyną<br />
powstania pętli prądowych w obwodzie zasilania, które<br />
zamykały się przez strukturę półprzewodnikową. Pętle te stały<br />
się skutecznym źródłem promieniowania (antenami) zaburzeń<br />
EM, o czym świadczył relatywnie duży poziom emisji zaburzeń<br />
oraz pobór prądu zasilania.<br />
Pomiary porównawcze prądów zasilania pobieranych<br />
przez testową matrycę cyfrową oraz emisje pól EM w wybranych<br />
miejscach układu scalonego i obwodu aplikacyjnego powinny<br />
być pomocne do optymalizacji poziomu emitowanych<br />
zaburzeń. Pomiary te mogą nawet stanowić wstępny sposób<br />
weryfikacji opracowywanego projektu układu scalonego ze<br />
względu na poziomy emisji zaburzeń EM.<br />
Literatura<br />
[1] Kołodziejski J. F., Szczęsny J.: Electromagnetic Emissions of Integrated<br />
Circuits and PCBs. IEEE EMC Newsletter, pp. 34-39,<br />
Spring Issue 2004.<br />
[2] Gong S. et al.: Packaging impact on switching noise in high-speed<br />
digital systems. IEE Proc. Circuits Devices Syst., vol. 145, no 6 ,<br />
pp. 446-452, Dec. 1998.<br />
[3] Xilinx 5 Software Manuals Online, ISE 5.1i.<br />
[4] The Programmable Logic Data Book 1999, Xilinx Inc., 1999.<br />
[5] DataSource CD-ROM rev. 8 Q1-2003.<br />
[6] Dong X., Deng S., Beetner D., Hubing T.: The Influence of IC<br />
Power Bus Design and Floor Planning on High-Frequency Package<br />
Current, sent to IEEE Trans. EMC.<br />
[7] Szczęsny J., Kołodziejski J. F., Obrębski D.: Electromagnetic<br />
Emissions of Digital Circuits Implemented in Xilinx FPGAs 4025E<br />
and XCV 800. Electron Technology Internet Journal 36, 2, pp. 1-<br />
6, 2004.<br />
Przypominamy o prenumeracie miesięcznika <strong>Elektronika</strong> na 2010 r.<br />
ELEKTRONIKA 11/<strong>2009</strong> 133