Sicherheitskommunikation für mobile Hilfsorganisationen
Sicherheitskommunikation für mobile Hilfsorganisationen
Sicherheitskommunikation für mobile Hilfsorganisationen
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
markiert. Die aktuelle Version des Lageplanes<br />
wird regelmäßig auf alle Endgeräte übertragen,<br />
die eine entsprechende Darstellungsmöglichkeit<br />
bieten. So kann unter anderem ein<br />
Abschnittsleiter jederzeit mittels seines PDA<br />
einen Überblick über seinen eigenen Abschnitt<br />
und ggf. die Gesamtlage erhalten. Neben<br />
der graphischen Darstellung der Abschnitte<br />
ist auch immer eine textuelle Beschreibung<br />
vorhanden („Abschnitt 1 wird von<br />
Straße B54 und Bahnlinie XY begrenzt“).<br />
Durch Abfahren der Grenzen des Abschnitts<br />
mit dem Mauszeiger wird diese Beschreibung<br />
sowohl als Text, als auch als gesprochene<br />
Audionachricht erzeugt und der Datenstruktur<br />
des Abschnitts im Informationssystem zugeordnet.<br />
Da<strong>für</strong> werden einerseits die Geoinformationen<br />
der Kartendatenbank verwendet<br />
und weiterhin ein Text-to-Speech-System<br />
(TTS), das die Straßennamen als Audionachricht<br />
synthetisiert.<br />
Viele weitere Use-Cases <strong>für</strong> digitale Karten<br />
sind vorstellbar und werden im Laufe des<br />
Projektes realisiert werden. Unter anderem<br />
wird durch Verschieben von Fahrzeugsymbolen<br />
aus einer Liste, die alle Fahrzeuge im Bereiststellungsraum<br />
enthält, in einen Abschnitt<br />
die Besatzung direkt in die Kommunikationsgruppe<br />
des Abschnitts aufgenommen. Auch<br />
die genaue Position der am Einsatz beteiligten<br />
Fahrzeuge wird jederzeit in der Karte sichtbar<br />
sein.<br />
5.2 Indexierung der Audiokommunikation<br />
Durch die indizierte Archivierung der Audiokommunikation<br />
wird der direkte Zugriff auf<br />
die gesamte Kommunikation während des<br />
Einsatzes in strukturierter Form möglich. Alle<br />
Audionachrichten werden mit einem Zeitstempel<br />
und den GPS-Koordinaten des Endgerätes<br />
versehen und in einer zentralen Kommunikationsdatenbank<br />
abgelegt. Diese Da-<br />
Seite 35<br />
tenbank enthält neben den Audionachrichten<br />
außerdem Videonachrichten von entsprechenden<br />
Kameras am Einsatzort und Textnachrichten,<br />
die den Inhalt der in digitalisierter<br />
Form vorliegenden Meldeformulare beschreiben.<br />
Bei der Indexierung werden die einlaufenden<br />
Audionachrichten im ersten Schritt in statistisch<br />
homogene Segmente zerlegt (siehe<br />
Abbildung 7). Dann werden <strong>für</strong> jedes Segment<br />
Informationen über den jeweiligen<br />
Sprecher extrahiert. So können zeitlich nacheinander<br />
einlaufende Nachrichten, z. B. eines<br />
Dialoges, den Sprechern zugeordnet werden.<br />
Über die Anfangs gesendete Kennung (z. B.<br />
„Florian Dortmund 12-44-1“) wird so eine<br />
Sprecheridentifizierung <strong>für</strong> jedes Audiosegment<br />
möglich. Für die gesprochene Kennung,<br />
die einer vorgegebenen Struktur folgt, kann<br />
durch Verwendung von Audioerkennungsverfahren<br />
eine textuelle Beschreibung erzeugt<br />
werden. Als Suchparameter in der Datenbank<br />
können dann Zeiträume, Kennungen, aber<br />
auch Stichworte verwendet werden. Das Audioerkennungssystem<br />
erhält als Lexikon eine<br />
Anzahl der wichtigsten Begriffe im Feuerwehreinsatz,<br />
wie z. B. „Wasserversorgung“,<br />
„Chemieunfall“ oder „Nachschub“. Die Begriffe<br />
im Lexikon werden automatisch im Audiostrom<br />
erkannt und über Zeitmarken den<br />
Audiosegmenten zugeordnet. Dies bedeutet<br />
außerdem, dass sobald eine Person den Begriff<br />
„Chemieunfall“ über das Kommunikationssystem<br />
ausspricht, ein vordefiniertes Verhalten<br />
des Informationssystems ausgelöst<br />
werden kann (z. B. wird eine visuelle Warnung<br />
auf dem Display des Endgerätes des<br />
Einsatzleiters angezeigt).<br />
Zur Audioindexierung wird das am Fraunhofer<br />
Institut <strong>für</strong> Medienkommunikation entwickelte<br />
Medienanalysesystem iFinderSDK<br />
verwendet [9]. Das iFinder Software-Develop-ment-Kit<br />
ermöglicht eine automatische<br />
Erzeugung von Metadaten <strong>für</strong> Audio/Vi-deo-