22.07.2012 Aufrufe

Einleitende Worte des Dekans

Einleitende Worte des Dekans

Einleitende Worte des Dekans

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Fakultät für Informatik<br />

Jahresbericht 2003


Herausgeber Fakultät für Informatik<br />

TU Chemnitz<br />

09107 Chemnitz<br />

Redaktion: Prodekanin der Fakultät<br />

http://www.tu-chemnitz.de/informatik/<br />

http://www.tu-chemnitz.de/informatik/fakultaet/jbericht/bericht_2003.pdf<br />

© Fakultät für Informatik, TU Chemnitz<br />

2


Inhaltsverzeichnis<br />

<strong>Einleitende</strong> <strong>Worte</strong> <strong>des</strong> <strong>Dekans</strong> 5<br />

1. Einrichtungen der Fakultät für Informatik<br />

1.1 Organisation und Verwaltung 9<br />

1.2 Professuren der Fakultät 11<br />

1.3 Fakultäts- und Informationszentrum 13<br />

1.4 Lehraufträge 19<br />

1.5 Fachschaft Informatik 19<br />

2. Forschungsprofil<br />

2.1 Datenverwaltungssysteme 21<br />

2.2 Echtzeitsysteme 25<br />

2.3 Graphische Datenverarbeitung und Visualisierung 27<br />

2.4 Informationssysteme und Softwaretechnik 41<br />

2.5 Künstliche Intelligenz 47<br />

2.6 Modellierung und Simulation 55<br />

2.7 Praktische Informatik 61<br />

2.8 Rechnerarchitektur und Mikroprogrammierung 67<br />

2.9 Rechnernetze und Verteilte Systeme 73<br />

2.10 Systemprogrammierung und Betriebssysteme 79<br />

2.11 Technische Informatik 81<br />

2.12 Theoretische Informatik 87<br />

2.13 Theoretische Informatik und Informationssicherheit 91<br />

3


3. Studium und Lehre 95<br />

4. Kenndaten der Fakultät<br />

4.1 Entwicklungsgeschichte der Fakultät 111<br />

4.2 Veranstaltungen der Fakultät 113<br />

4.2.1 Informatik-Kolloquien 113<br />

4.2.2 Weitere Veranstaltungen 114<br />

4.3 Kenndaten der Ausbildung 115<br />

4.3.1 Anzahl und Entwicklung der Studentenzahlen 115<br />

4.3.2 Absolventen 117<br />

4.4 Ausstattung 119<br />

4.4.1 Personalentwicklung 119<br />

4.4.2 Sachmittel (Lan<strong>des</strong>mittel) 119<br />

4


<strong>Einleitende</strong> <strong>Worte</strong> <strong>des</strong> <strong>Dekans</strong><br />

Wir haben das Ende von 2003 erreicht und schauen vorwärts auf das Jahr 2004.<br />

Mit diesem Jahresbericht werfen wie einen Blick zurück, um zu sehen, was sich<br />

ereignet hat, und um eine erweiterte Perspektive auf das Bevorstehende einnehmen<br />

zu können.<br />

Unverändert rankt sich alles an einer Fakultät um Forschung und Lehre. Die<br />

Organisation hat der optimalen Verbindung beider Komplexe zu dienen.<br />

Entsprechend finden Sie im Kern unter den Punkten 2 und 3 Informationen zu<br />

unserem Forschungsprofil bzw. Lehre und Studium. Die Punkte 1 und 4 vermitteln<br />

mit Daten zur Organisation und Verwaltung sowie einigen statistischen Kennwerten<br />

die Umgebung.<br />

Gestatten Sie, dass ich zu diesen Angaben einige Ergänzungen bzw. Heraushebungen<br />

mache.<br />

Die Entwicklung der Fakultät war eingebettet in die lan<strong>des</strong>weiten Forderungen zum<br />

Abbau von Etat-Stellen, den Beschränkungen im Hochschulbau sowie den<br />

allgemeinen Diskussionen zu Hochschulautonomie, Globalhaushalt, leistungsorientierte<br />

Mittelzuweisungen, neue Steuerungsmodelle, Vermarktung von<br />

Forschungsergebnissen sowie der Einführung konsekutiver Studiengänge, Bachelor<br />

und Master, im Sinne <strong>des</strong> Bologna-Prozesses.<br />

In der Mitte <strong>des</strong> Berichtszeitraumes konnten wir erfolgreich die auf Werkzeuge für<br />

den Systementwurf, Hardware/Software Co<strong>des</strong>ign und Eingebettete Systeme<br />

ausgerichtete Professur (vormals Herr Prof. Monjau) mit unveränderter<br />

Schwerpunktsetzung unter der neuen Bezeichnung „Technische Informatik“ durch<br />

Herrn Prof. Hardt besetzen. Einhergehend damit erfolgte auch die Planung zum<br />

Neuausbau eines entsprechenden Labores.<br />

Durch den unvorhersehbaren Weggang <strong>des</strong> Stelleninhabers der Professur<br />

Medieninformatik entstand eine Lücke, die bis heute nur durch Professurvertretungen<br />

ersatzweise geschlossen werden konnte.<br />

Ein schmerzlicher Einschnitt war die durch den allgemeinen Stellenabbau geforderte<br />

planmäßige Streichung einer der schon wenigen Professuren unserer Fakultät bis<br />

2010.<br />

Die Neubeantragung der wegen planmäßiger Emeritierung im Jahr 2005<br />

freiwerdenden Professur Systemprogrammierung und Betriebssysteme wurde<br />

eingeleitet.<br />

5


Die getroffenen Entscheidungen beruhen auf der „Entwicklungskonzeption der<br />

Fakultät“, nach der fortgesetzt die Schwerpunkte „Parallele, verteilte und mobile<br />

Systeme“ sowie „Multimediale Systeme“ bestehen bleiben.<br />

Ein bisher nicht beseitigtes Manko seit der Gründungszeit der Fakultät bzw. Sektion<br />

vor nunmehr 35 Jahren ist ihre schwache Raumausstattung sowie große räumliche<br />

Verteilung im Hochschulkomplex Straße der Nationen. Erfreulicherweise konnten<br />

einige räumliche Ressourcenzuführungen, insbesondere auch für Drittmittel-<br />

Arbeitsplätze (zum Beispiel Professur Praktische Informatik) realisiert werden.<br />

Hinsichtlich der Drittmittel-Einwerbung konnte die Fakultät eine Steigerung<br />

erreichen. Dennoch schneidet sie hier im Vergleich der Informatikfakultäten der<br />

Bun<strong>des</strong>republik unbefriedigend ab. Es gibt jedoch eine Vielzahl von laufenden<br />

Antragsaktivitäten, mit denen eine baldige Verbesserung in Aussicht steht.<br />

Das Bemühen um Profilgewinn in der Forschung zeigt sich auch in der Vorbereitung<br />

einer Institutionalisierung der Fakultät, deren erstes Institut nach Beschluss <strong>des</strong><br />

Fakultätsrates das Institut für „E-Science Technology“ sein soll, welchem 5<br />

Professuren nebst einer Juniorprofessur angehören.<br />

In diesem Zusammenhang sowie hinsichtlich <strong>des</strong> Ausbaus <strong>des</strong> Schwerpunktes<br />

„Parallele, verteilte und mobile Systeme“ ist die Federführung der Fakultät im<br />

Rahmen <strong>des</strong> sogenannten „CHIC-Konsortiums“ zu sehen. Der betreffende „CHIC-<br />

HBFG-Antrag“ sieht den weiteren Ausbau der Hochleistungsrechentechnik der<br />

Universität im kommenden 5-Jahreszeitraum vor.<br />

Ein fakultätsbezogener HBFG-Antrag „Rekonfigurierbarer Computingcluster“<br />

befindet sich in Vorbereitung.<br />

Im Bereich Lehre und Studium ergaben sich besondere Herausforderungen durch die<br />

zwar reduzierten, aber dennoch für die personellen und materiellen<br />

Fakultätsressourcen vergleichsweise hohen Studentenzahlen, um die hohe Qualität<br />

der Ausbildung sicherzustellen. Ich empfehle Ihnen, die sehr detaillierten<br />

Ausführungen <strong>des</strong> Studiendekans unter Punkt 3 dazu zu lesen. Erwähnen möchte ich<br />

noch die lan<strong>des</strong>seitig erzwungene Einstellung der postgraduierten Ausbildung von<br />

Lehrern, welche uns kurzfristig zwar eine Erleichterung bei den<br />

Ausbildungsaufgaben, langfristig aber ein Verlust <strong>des</strong> Kontaktes zur lokalen<br />

Schulausbildung und damit zur Rekrutierung von Studenten aus den lokalem Umfeld<br />

bringt, was sehr nachteilig wirken wird.<br />

Der Bologna-Prozess löste eine Vielzahl von Diskussionen betreffs der<br />

Notwendigkeit der Einführung von Bachelor- und Masterstudiengängen im Bereich<br />

der Informatik aus.<br />

6


Trotz geteilter Meinungen wird zumin<strong>des</strong>t bei der geplanten Überarbeitung der<br />

Studien- und Prüfungsordnungen der Studiengänge Informatik und Angewandte<br />

Informatik auf entsprechende Modularisierung und ECTS-Kompatibilität geachtet<br />

werden.<br />

Ein allgemeines Problem der Informatikstudiengänge bun<strong>des</strong>weit zeichnet sich auch<br />

bei uns wieder. Es ist die hohe Studentenabbrecherquote. Informatikstudenten sind<br />

begehrte Spezialisten und es gibt fast immer genügend Arbeitsmöglichkeiten und ein<br />

hohes Gehalt. Ob Aufnahmeprüfungen, Studiengebühren oder „Frühaufklärung“<br />

darüber, was Informatik ist, es gibt keine Allheilmittel dagegen. Wir haben uns<br />

zunächst entschlossen, die „Frühaufklärung“ in Verbindung mit früher<br />

Studienwerbung zu verbessern.<br />

Es ließen sich noch viele Punkte ansprechen, die zum guten Funktionieren einer<br />

Fakultät beitragen. Es sei das wissenschaftliche Leben, die Förderung <strong>des</strong><br />

wissenschaftlichen Nachwuchses, die Mitarbeit bei der Hochschulorganisation oder<br />

der Kontakt zur Industrie, einem Hauptabnehmer unserer Informatikabsolventen.<br />

Unter den Kenndaten im Punkt 4 finden Sie dazu weitere Informationen.<br />

Mein Dank gilt allen Mitgliedern der Fakultät für Informatik für die im Jahr 2003<br />

geleistete umfangreiche Arbeit. Ich wünsche der Fakultät als Ganzes im kommenden<br />

Jahr 2004 viel Erfolg, um ihrem Auftrag, „Forschend-zu-lehren“, zum Wohle der<br />

Studenten und <strong>des</strong> Lehrkörpers, eingebettet im Ensemble der Fakultäten der<br />

Technischen Universität, gerecht werden zu können.<br />

Prof. Dr. W. Rehm<br />

Dekan<br />

Juni 2004<br />

7


1. Einrichtungen der Fakultät für Informatik<br />

1.1 Organisation und Verwaltung<br />

Dekan Prof. Dr.-Ing. Wolfgang Rehm<br />

Prodekan Prof. Dr. rer. nat. Gudula Rünger<br />

Studiendekan Prof. Dr. rer. nat. Wolfgang Benn<br />

Fakultätsrat<br />

Hochschullehrer<br />

Prof. Dr. rer. nat. Wolfgang Benn<br />

Prof. Dr. rer. nat. Guido Brunnett<br />

Prof. Dr.-Ing. habil. Uwe Hübner<br />

Prof. Dr. rer. nat. H. Lefmann<br />

Prof. Dr.-Ing. Wolfgang Rehm<br />

Prof. Dr. rer. nat. G. Rünger<br />

Wissenschaftliche Mitarbeiter<br />

Dr.-Ing. Andreas Müller<br />

Dipl.-Inf. Chris Hübsch<br />

Studenten<br />

Marc Dietzschkau<br />

Jens Wegener<br />

Gleichstellungsbeauftragte<br />

Ulrike Schönke<br />

9


Infrastruktur<br />

Sekretariat Mandy Denzau<br />

Tel.: (03 71) 5 31-13 85<br />

Fax: (03 71) 5 31-16 28<br />

E-Mail: dekanat@informatik.tu-chemnitz.de<br />

Dekanat Dipl.-Math. Margitta Pippig<br />

Tel.: (03 71) 5 31-13 63<br />

Fax: (03 71) 5 31-16 28<br />

E-Mail: mpi@informatik.tu-chemnitz.de<br />

Studenten- und Prüfungsamt Sigrid Wegner<br />

Tel.: (03 71) 5 31-14 80<br />

Fax: (03 71) 5 31-16 28<br />

E-Mail: studamt@informatik.tu-chemnitz.de<br />

10


1.2 Professuren der Fakultät<br />

An der Fakultät für Informatik sind 13 reguläre Professuren und eine Juniorprofessur.<br />

Datenverwaltungssysteme Prof. Dr. rer. nat. W. Benn<br />

Tel.: (03 71) 5 31-13 87<br />

Fax: (03 71) 5 31-15 30<br />

E-Mail: benn@informatik.tu-chemnitz.de<br />

Juniorprofessur Dr.-Ing. R. Baumgartl<br />

Echtzeitsysteme Tel.: (03 71) 5 31-15 92<br />

Fax: (03 71) 5 31-15 30<br />

E-Mail: robert.baumgartl@informatik.tu-chemnitz.de<br />

Graphische Datenverarbeitung Prof. Dr. rer. nat. G. Brunnett<br />

und Visualisierung Tel.: (03 71) 5 31-15 33<br />

Fax: (03 71) 5 31-18 01<br />

E-Mail: brunnett@informatik.tu-chemnitz.de<br />

Informationssysteme und Prof. Dr.-Ing. P. Kroha<br />

Softwaretechnik Tel.: (03 71) 5 31-16 68<br />

Fax: (03 71) 5 31-18 01<br />

E-Mail: petr.kroha@informatik.tu-chemnitz.de<br />

Künstliche Intelligenz Prof. Dr. rer. nat. habil. W. Dilger<br />

Tel.: (03 71) 5 31-15 29<br />

Fax: (03 71) 5 31-14 65<br />

E-Mail: wdi@informatik.tu-chemnitz.de<br />

Medieninformatik Prof. Dr. phil. C. Wolff<br />

Tel.: (03 71) 5 31-15 62<br />

Fax: (03 71) 5 31-18 01<br />

E-Mail: christian.wolff@informatik.tu-chemnitz.de<br />

Modellierung und Simulation Prof. Dr. rer. nat. habil. P. Köchel<br />

Tel.: (03 71) 5 31-14 29<br />

Fax: (03 71) 5 31-14 65<br />

E-Mail: peter.koechel@informatik.tu-chemnitz.de<br />

Praktische Informatik Prof. Dr. rer. nat. G. Rünger<br />

Tel.: (03 71) 5 31-17 94<br />

Fax: (03 71) 5 31-18 03<br />

E-Mail: ruenger@informatik.tu-chemnitz.de<br />

11


Rechnerarchitektur und Prof. Dr.-Ing. W. Rehm<br />

Mikroprogrammierung Tel.: (03 71) 5 31-14 20<br />

Fax: (03 71) 5 31-18 06<br />

E-Mail: rehm@informatik.tu-chemnitz.de<br />

Systemprogrammierung Prof. Dr.-Ing. habil. W. Kalfa<br />

und Betriebssysteme Tel.: (03 71) 5 31-17 15<br />

Fax: (03 71) 5 31-15 30<br />

E-Mail: kalfa@informatik.tu-chemnitz.de<br />

Technische Informatik Prof. Dr. habil. W. Hardt<br />

Tel.: (03 71) 5 31-14 67<br />

Fax: (03 71) 5 31-18 06<br />

E-Mail: hardt@informatik.tu-chemnitz.de<br />

Rechnernetze und Prof. Dr.-Ing. habil. U. Hübner<br />

Verteilte Systeme Tel.: (03 71) 5 31-14 64<br />

Fax: (03 71) 5 31-16 29<br />

E-Mail: huebner@informatik.tu-chemnitz.de<br />

Theoretische Informatik Prof. Dr. rer. nat. habil. A. Goerdt<br />

Tel.: (03 71) 5 31-13 17<br />

Fax: (03 71) 5 31-18 10<br />

E-Mail: goerdt@informatik.tu-chemnitz.de<br />

Theoretische Informatik und Prof. Dr. rer. nat. H. Lefmann<br />

Informationssicherheit Tel.: (03 71) 5 31-12 76<br />

Fax: (03 71) 5 31-18 10<br />

E-Mail: lefmann@informatik.tu-chemnitz.de<br />

12


1.3 Fakultätsrechen- und Informationszentrum (FRIZ)<br />

1.3.1 Personelle Zusammensetzung<br />

Leiter: Dr. Andreas Müller<br />

Mitarbeiterinnen: Dipl.-Ing. Ulrike Luthe<br />

Angela Tulke<br />

Jacqueline Lindner<br />

Heike Lasch<br />

Eveline Neumann<br />

1.3.2 Aufgaben und Struktur <strong>des</strong> FRIZ<br />

Das FRIZ verrichtet innerhalb der Fakultät für Informatik Dienstleistungen zur<br />

Unterstützung von Lehre und Forschung, die allen Professuren gleichermaßen zugute<br />

kommen, sowie Dienstleistungen zur Unterstützung von Verwaltungsvorgängen in der<br />

Fakultät. Aufgaben <strong>des</strong> FRIZ sind dabei vor allem die Gewährleistung der<br />

rechentechnischen Versorgung sowie die Bereitstellung zentraler Informationsdienste.<br />

Die Mitarbeiter nehmen folgende Aufgaben wahr:<br />

- die Verwaltung und den Betrieb der in den zentralen Pools der Fakultät stationierten<br />

Datenverarbeitungsanlagen und Hilfsgeräte,<br />

- die Betreuung aller zentralen Pools sowie die betriebsfachliche Aufsicht der dezentral<br />

installierten Rechentechnik,<br />

- die Wartung und die Pflege <strong>des</strong> lokalen Fakultätsnetzes und <strong>des</strong> Anschlusses an das<br />

Universitätsnetz,<br />

- die Unterstützung der technischen Betreuung der in den einzelnen Professuren<br />

vorhandenen Rechner,<br />

- die Realisierung allgemeiner Dienste im Zusammenhang mit Verarbeitung,<br />

Speicherung und Übertragung von Informationen,<br />

- die Koordinierung der Beschaffung von Datenverarbeitungsanlagen und Programmsystemen<br />

aus Haushaltsmitteln der Fakultät, Sondermitteln und Mitteln aus dem<br />

Fonds <strong>des</strong> Hochschulbauförderungsgesetzes,<br />

- die Bereitstellung von Rechendiensten auf der in den zentralen Pools stationierten<br />

Rechentechnik,<br />

- die Bereitstellung technischer Dokumentationsdienste, wie Druck- u. Kopierdienste,<br />

- die Gewährleistung von Ordnung und Sicherheit im FRIZ.<br />

13


Das FRIZ übernimmt ferner im Rahmen seiner verfügbaren Kapazität folgende<br />

Aufgaben:<br />

- Beratung und Unterstützung der Benutzer bei der Vorbereitung und Durchführung<br />

ihrer DV-Vorhaben, insbesondere bei Investitionen aus dezentralen Mitteln,<br />

- Mitwirkung im Rahmen von Lehrveranstaltungen und Forschungsvorhaben,<br />

- Enge Zusammenarbeit mit dem URZ in allen datenverarbeitungsspezifischen Fragen.<br />

- Im Jahre 2003 wurden wie in den vorherigen Jahren Praktika für Schüler an<br />

Gymnasien und Mittelschulen angeboten. Dieses Angebot wurde im Jahr 2003 von<br />

22 Schülern wahrgenommen.<br />

1.3.3 Entwicklung <strong>des</strong> FRIZ im Jahr 2003<br />

Im Jahr 2003 wurde ein Fileserver auf Intel-XEON-Basis mit einer Plattenkapazität von<br />

600 Gbyte angeschafft. Die Homeverzeichnisse der Mitarbeiter wurden dahin verlagert,<br />

so dass sich eine wesentliche Verbesserung der Arbeitsbedingungen der Mitarbeiter der<br />

Fakultät ergab.<br />

Die Nutzerverwaltung wurde umgestellt. Dabei wurden moderne Technologien auf der<br />

Basis von mysql und php angewendet.<br />

Des Weiteren standen Maßnahmen zur weiteren Erhöhung der Sicherheit <strong>des</strong><br />

Rechnernetzes im Vordergrund.<br />

Der Vertrag zur Teilnahme an MSDN-AcademicAlliance wurde unter der Regie <strong>des</strong><br />

FRIZ verlängert. Damit ergibt sich eine Kostenersparnis für die Installation von<br />

Mitarbeiterrechnern sowie die Möglichkeit, Microsoft-Produkte kostenlos an Studenten<br />

weiter zu geben. Diese Möglichkeit wurde rege genutzt. Im ersten Vierteljahr nach<br />

Vertragsverlängerung wurden insgesamt 634 Kopien von Microsoftprodukten<br />

weitergegeben.<br />

14


Neben universitätsweit verfügbaren Produkten zeigt die folgende Übersicht das<br />

Softwareangebot <strong>des</strong> FRIZ.<br />

Betriebssysteme:<br />

Solaris 7,8,9<br />

Linux SuSE 7.3 (Kernel 2.4.16)<br />

Microsoft Windows 2000, XP<br />

Anwendungssoftware:<br />

Compiler / Interpreter<br />

Modula 2<br />

PROLOG<br />

C<br />

C++<br />

FreePascal für Windows NT<br />

Datenbankbetriebssysteme<br />

SYBASE<br />

INFORMIX<br />

Ingres<br />

Postgres<br />

Ontos<br />

Oracle<br />

Weitere Software für UNIX-Betriebssysteme wird im Verzeichnis /uni/global vom<br />

Universitätsrechenzentrum bereitgestellt.<br />

Die Softwareausstattung für das Betriebssystem Microsoft Windows 2000 kann unter<br />

der URL http://www.tu-chemnitz.de/informatik/friz/rechner/pc/software_windows.php<br />

in Erfahrung gebracht werden.<br />

1.3.4 Die Nutzung <strong>des</strong> Rechenzentrums im FRIZ<br />

Mit Stand vom 31. Dezember 2003 waren folgende Accounts im Rechenzentrum <strong>des</strong><br />

FRIZ vergeben:<br />

Anzahl<br />

Mitarbeiter TU Chemnitz 157<br />

Studenten IF 711<br />

Fernstudenten 99<br />

Studenten anderer Fakultäten der TU Chemnitz 311<br />

Andere 30<br />

Summe 1308<br />

15


1.3.5 Gerätetechnische Ausstattung der Fakultät für Informatik<br />

(Stand: Dezember 2003)<br />

Geräteklasse Anzahl Davon für<br />

Ausbildung<br />

Bemerkung<br />

PC 241 121 PentiumPro, II, III, IV, AMD K6,<br />

Athlon,<br />

Betriebsysteme Linux , MS Windows<br />

NT, MS Windows2000, MS Windows<br />

XP<br />

Workstation 102 36 HP, SUN, SGI<br />

Alpha-Workstation 9<br />

Andere 4 Parallelrechner versch. Hersteller<br />

1.3.6 Mitarbeit in Gremien<br />

Müller, A.:<br />

- Fakultätsrat<br />

- Konzil<br />

- Bibliothekskommission<br />

- Wissenschaftlicher Beirat <strong>des</strong> Universitätsrechenzentrums<br />

- Baubeauftragter der Fakultät<br />

- Fachinformationsbeauftragter der Fakultät<br />

- Beauftragter für Großveranstaltungen<br />

Luthe, U.:<br />

- Sicherheitsbeauftragte der Fakultät<br />

Lindner, J.:<br />

- Ersthelferin<br />

16


1.3.7 Struktur <strong>des</strong> Fakultätsrechnernetzes<br />

SUN-Pool<br />

8 Sparc-4<br />

12 UltraSparc IIi<br />

Solaris 7,8,9<br />

Netzwerkdrucker<br />

1 HP LJ 4MPlus<br />

2 HP LJ 4100 N<br />

1 HP LF 4200 N<br />

1 HP CLJ 4600<br />

1 Lexmark CJ 4079<br />

- Fileserver (SPARC Enterprise 250)<br />

Solaris 2.7 Kapazität 270 Gbyte<br />

- Fileserver (Xeon-basiert)<br />

SuSE Linux 9 Kapazität 600 Gbyte<br />

- Mailserver (UltraSparc II) Solaris 2.7<br />

IMAP, POP, SIMAP, Druckserver<br />

- Windows 2000 Server (Xeon-basiert)<br />

Kapazität 400 Gbyte<br />

- 3 Verwaltungsserver (Datenbank, NIS, ...)<br />

Mitarbeiterarbeitsplätze<br />

in den Professuren<br />

Ausbildungspools<br />

in den Professuren<br />

17<br />

Zugang zum<br />

Campus-Netz<br />

PC-Pool<br />

20 PC (Pentium II,<br />

MMX)<br />

MS Windows NT<br />

Linux 2.2.16<br />

Dienste <strong>des</strong> URZ<br />

(/uni/global, Backup, AFS, ...)


1.4 Lehraufträge<br />

Dr. Michael Theß (Professur Künstliche Intelligenz)<br />

1.5 Fachschaft Informatik<br />

Mitglieder: Bianca Loth<br />

Doreen Locher<br />

Jens Wegener<br />

Gabriele Krenkel<br />

Meiko Krause<br />

Stefanie Thiem<br />

Robert Knauf<br />

Sebastian Damm<br />

Anja Steinbach<br />

Uwe Domaratius<br />

Uwe Schob<br />

Stefan Worm<br />

Matthias Knossalla<br />

Stephan Reichelt<br />

Steffen Riediger<br />

Sitz: Straße der Nationen 62, Zi. 226 a<br />

Tel.: (03 71) 5 31-17 93<br />

E-Mail: fsrif@tu-chemnitz.de<br />

19


2. Forschungsprofil<br />

2.1 Professur Datenverwaltungssysteme<br />

2.1.1. Personelle Zusammensetzung<br />

Leiter: Prof. Wolfgang Benn<br />

Sekretariat: Ursula Wolf<br />

Wiss. Mitarbeiter: Dipl.-Ing. Heidrun Tischendorf<br />

Dipl.-Kffr. Annett Priemel<br />

Dipl.-Inform. Frank Seifert<br />

Dipl.-Inform. Lutz Neugebauer<br />

Dipl.-Inform. Otmar Görlitz<br />

Dipl.-Inform. Ralf Neubert<br />

Techn. Mitarbeiter: Dipl.-Math. A. Pfeiffer<br />

2.1.2 Beschreibung der Professur<br />

Intelligente Datenbanksysteme<br />

- Kombination von Datenbank- und KI-Techniken (insbesondere Künstliche<br />

Neuronale Netze)<br />

- Inhaltsbezogene Indexierung von Datenbanken (u. a. zur Unterstützung von Data<br />

Mining Techniken) auf der Basis selbstorganisierender Künstlicher Neuronaler<br />

Netze<br />

- Subsymbolische Massendatenverarbeitung anhand der Analyse und Verwaltung<br />

von Tondaten, Konzeption von Audiodatenbanksystemen hinsichtlich der<br />

Repräsentation von unstrukturierten Tondokumenten in symbolischer Form<br />

- Semistrukturierte Datenbanksysteme und Modelle zur Verarbeitung<br />

semistrukturierter Daten<br />

- Modellierungstechniken für semistrukturierte Datenmodelle<br />

2.1.3 Forschungsvorhaben<br />

Die Professur ist am DFG-Sonderforschungsbereich 457 "Hierarchielose regionale<br />

Produktionsnetze" mit einen Projekt beteiligt, in dem eine branchenneutrale, jedoch<br />

individuell skalier- und parametrisierbare Kombination von Kompetenzzellen<br />

erarbeitet werden soll.<br />

21


Das Projekt erstellt den informationstechnischen Modellkern <strong>des</strong> im SFB zu<br />

erarbeitenden Systems dar. Verwendet werden hierzu die als Forschungsschwerpunkt<br />

beschriebenen Ansätze der inhaltsbezogenen Gruppierung von Objekten mittels<br />

neuronaler Techniken.<br />

Im Forschungsbereich der Semistrukturierten Datenverwaltungssysteme werden<br />

Erweiterungen und Stabilisierungen eines vorhandenen Prototyps eines<br />

semistrukturierten Kernsystems vorgenommen. Es erfolgen Untersuchungen zur<br />

Einsetzbarkeit <strong>des</strong> Systems im Workflowbereich. Basierend auf den Erfahrungen mit<br />

dem Prototyp erfolgt der Aufbau und die Fundierung <strong>des</strong> Datenmodells ASSAM<br />

(Aktives Semi-Strukturiertes Anwendungs-Management).<br />

In Forschungsbereich Musikdatenbanken wird ein Konzept entwickelt, welches die<br />

Beschreibung von Audiodokumenten auf der Basis grundlegender Kompositionselemente<br />

und Klangmuster erlaubt. Parallel dazu werden Modelle entwickelt,<br />

Klangmuster anhand der physikalischen Eigenschaften von Tonsequenzen zu<br />

identifizieren. Beide Techniken sollen zu einer stark automatisierten Erstellung<br />

symbolischer Repräsentationen von Musikstücken zusammengeführt werden.<br />

2.1.4 Veröffentlichungen<br />

Tagungsbände, Zeitschriften<br />

Seifert, F.; Benn, W.: "Semantic Realtionship and Identification of Music".<br />

Proceedings of the 3rd International Conference on Web Delivering of Musik 2003,<br />

Leeds, UK<br />

Seifert, F.; Benn, W.: "Music Identification by Leadshets". Proceedings of the 4th<br />

International Conference on Music Information Retrieval, ISMIR 2003, Baltimore,<br />

MD<br />

W. Benn, O. Langer: "Semistrukturierte Datenmodelle und XML", in: E. Rahm, G.<br />

Vossen (Eds.): Web & Datenbanken - Konzepte, Architekturen, Anwendungen,<br />

dpunkt.verlag, ISBN 3-89864-189-9, 2003<br />

R. Neubert, O. Görlitz, T. Teich: "Automated Negotiations of Supply Contracts for<br />

Flexible Production Networks", accepted by Int'l. Journal of Production Economics,<br />

in press, available online, 08.08.2003<br />

Diplomarbeiten<br />

Tinter, A., Jäckel, T.: Clusterung von Tondokumenten auf Basis subsymbolischer<br />

Features<br />

22


Schmidt, J.: Verwaltung von geometrischen Objekten in ICIx<br />

Schmidt, P.: Verwaltung und Versionierung von Geschäftsobjekten<br />

Oestreich, E.: Anbietersuche für Produktionsaufgaben auf Basis <strong>des</strong> Intelligent<br />

Cluster Index<br />

Riedel, T.: Featureextraktion für die Klassifikation von Klangdaten<br />

Penewa, R.: Eine Architektur reaktiver Agenten für ein semistrukturiertes<br />

Datenbanksystem<br />

Fetting, T.: Spezifikation einer API für ein aktives semistrukturiertes<br />

Anwendungsmanagementsystem (ASSAM)<br />

Wünsch, M.: Bewertung und Priorisierung von Prozessvariantenplänen mit der<br />

AHP-Methode<br />

Studienarbeiten<br />

Müller, R.: Untersuchung von Möglichkeiten zur Realisierung eines<br />

Kommunikationsprotokolls eines aktiven semistrukturierten Datenmodells<br />

2.1.5 Vorträge<br />

keine<br />

2.1.6 Mitarbeit in Gremien<br />

Benn, W.:<br />

- Studiendekan<br />

- Mitglied im Leitungsgremium der GI-Fachgruppe Datenbanken<br />

23


2.2 Professur Echtzeitsysteme (Juniorprofessur)<br />

2.2.1 Personelle Zusammensetzung<br />

Leiter: Dr. Robert Baumgartl<br />

Sekretariat: Ursula Wolf<br />

Wiss. Mitarbeiter: Dipl.-Inform. Mirko Parthey<br />

2.2.2 Kurzbeschreibung der Professur<br />

Die Juniorprofessur Echtzeitsysteme widmet sich in Forschung und Lehre dem<br />

Entwurf, der Konstruktion und Validierung von Systemen, deren korrekte Funktion<br />

durch die Einhaltung definierter zeitlicher Anforderungen charakterisiert ist. Einen<br />

wesentlichen Schwerpunkt bildet die Betriebssysteme-Unterstützung von Echtzeit-<br />

Systemen.<br />

2.2.3 Forschungsvorhaben<br />

Innerhalb <strong>des</strong> Projektes "Linux&DSPs" wird versucht, für alle Ebenen eines Linuxbasierten<br />

Rechensystems Unterstützung für die Nutzung Digitaler Signalprozessoren<br />

(DSP) zu implementieren. Dies betrifft sowohl die Schaffung geeigneter<br />

Entwurfswerkzeuge für diese Plattform als auch Definition und Implementierung<br />

geeigneter Kommunikations- und Synchronisationsinfrastruktur zwischen CPU und<br />

DSP. Darüberhinaus wird Betriebssystem-Funktionalität auch innerhalb <strong>des</strong> DSP zur<br />

Verfügung gestellt.<br />

2.2.4 Veröffentlichungen<br />

keine<br />

2.2.5 Vorträge<br />

Graduiertenkolleg "Werkzeuge zum effektiven Entwurf paralleler und verteilter<br />

Rechensysteme" TU Dresden, Thema "Linux, DSPs und kein Ende?", 18.06.03<br />

25


2.3 Professur Graphische Datenverarbeitung und Visualisierung<br />

2.3.1 Personelle Zusammensetzung<br />

Leiter: Prof. Guido Brunnett<br />

Sekretariat: Bettina Fless<br />

Katja Torge (ab 26.08.2003)<br />

Wiss. Mitarbeiter: Dipl.-Inf. David Brunner<br />

Dipl.-Inf. Karsten Hilbert<br />

Dipl.-Inf. Matthias Kupfer<br />

Dipl.-Inf. Mario Lorenz<br />

Dipl.-Math Maharavo Randrianarivony<br />

Dipl.-Inf. Stephan Rusdorf<br />

Dr. Marek Vančo<br />

Dipl.-Math. Horst Wagner<br />

2.3.2 Kurzbeschreibung der Professur<br />

Die Professur für Graphische Datenverarbeitung und Visualisierung befasst sich in<br />

Forschung und Lehre mit der Thematik der generativen Computergraphik, d. h. mit<br />

der computerbasierten Erzeugung von Bildern auf der Grundlage geometrischer<br />

Beschreibungen der Bildinhalte. Grundlegende Aspekte der Computergraphik<br />

betreffen die geometrische Modellierung darzustellender Szenen sowie den Prozess<br />

der Konvertierung der Szenenbeschreibungen zur Ausgabe auf graphische Endgeräte<br />

(Rendering-Prozess).<br />

Der Forschungsschwerpunkt der Professur liegt auf dem Gebiet der Virtuellen<br />

Realität (VR). Die Zielsetzung dieser Technologie besteht darin, rechnerinterne<br />

Modelle dreidimensionaler Welten durch den Einsatz spezieller multimedialer Ein-<br />

und Ausgabegeräte für den Menschen weitgehend real erfahrbar zu machen.<br />

2.3.3 Forschungsvorhaben<br />

Oberflächenrekonstruktion<br />

(M. Vančo)<br />

Eine der zeitaufwendigsten Aufgaben der Computergrafik ist die Erzeugung<br />

geeigneter 3D Modelle. Diese werden dann in diversen Bereichen wie z. B.<br />

CAD/CAM (Computer Aided Design/Computer Aided Manufacturing),<br />

Simulation/Animation, Visualisierung, virtuelle Realität usw. weiter verwendet.<br />

27


Das Forschungsziel bei der Oberflächenrekonstruktion ist die Entwicklung eines<br />

semi-automatischen Moduls für die Erzeugung der 3D Modelle aus Punktwolken mit<br />

Schwerpunkt CAD/CAM, Visualisierung und virtuelle Realität.<br />

Durch Abtastung mithilfe eines 3D-Scanners werden, in der Regel unstrukturierte<br />

Daten (3D Punkte) erzeugt. Diese müssen zuerst organisiert werden: wir verwenden<br />

dazu einen einfachen Nachbarschaftsgraph (k-nächsten Nachbarn), der sehr effizient<br />

berechnet werden kann. Um eine Segmentierung und nachträglich eine<br />

Rekonstruktion durchführen zu können, werden Flächeninformationen (wie<br />

Normalen und Hauptkrümmungen) benötigt. Diese Informationen werden aus den<br />

Punkten geschätzt:<br />

- Normalen: die Nachbarschaft wird mit einer best-fit-ebene approximiert, die ein<br />

neues lokales Koordinatensystem definiert. In diesem Koordinatensystem wird die<br />

Nachbarschaft erneut mit einer quadratischen Fläche approximiert.<br />

- Hauptkrümmungen: analog zu der Schätzung der Normalen wird ein lokales<br />

Koordinatensystem definiert und eine erweiterte Nachbarschaft mit einer<br />

quadratischen Fläche approximiert. Die Hauptkrümmungen der quadratischen<br />

Fläche werden als Hauptkrümmungen der Oberfläche genommen.<br />

Segmentierung ist ein Vorgang, der anhand der geschätzten Oberflächeinformationen<br />

zusammenhängende Teile der Objektoberfläche mit gleichen (bzw. ähnlichen)<br />

Eigenschaften zusammenfügt und damit die Oberfläche in kleinere Segmente aufteilt.<br />

Dieser Vorgang kann entweder normalenbasiert oder krümmungsbasiert sein. In<br />

beiden Fällen wurde sog. ‚region growing’ Algorithmus verwendet, der ausgehend<br />

von einem Punkt weitere Punkte in seiner Nachbarschaft überprüft und wenn sie ein<br />

vorgegebenes Kriterium erfüllen, werden sie zu dem schon existierendem Segment<br />

eingefügt.<br />

Die Aufteilung der Oberfläche in Segmente aufgrund der normalenbasierten<br />

Segmentierung bietet zusätzliche Informationen über Verlauf der Fläche. Es ist nun<br />

möglich starke Unterschiede im Normalenverlauf (scharfe Kanten, bzw. Regionen<br />

mit großer Krümmung) auf der Oberfläche zu detektieren. Da die Schätzung der<br />

Normalen in der Umgebung von scharfen Kanten unzuverlässig ist, kann die<br />

Segmentierung zur Verbesserung der Schätzung benutzt werden: die Nachbarschaft<br />

der Punkte nahe zu scharfen Kanten wird modifiziert und die Normalen werden neu<br />

berechnet. Nach mehreren Wiederholungen der Segmentierung und Neuberechnung<br />

der Normalen erhält man eine wesentlich bessere Schätzung der Normalen.<br />

Die krümmungsbasierte Segmentierung bildet Regionen mit ungefähr gleicher<br />

Krümmung. Da die Hauptkrümmungen wesentlich mehr Informationen als die<br />

Normalen bieten, kann aufgrund der mittleren Krümmungen eine Annahme über die<br />

Form der Segmente getroffen werden, auf der dann die Klassifikation der Segmente<br />

basiert.<br />

28


Auf der anderen Seite ist die Schätzung der Krümmungen sehr fehleranfällig und<br />

<strong>des</strong>halb basiert die Klassifikation und das nachträgliche Postprocessing auch auf der<br />

Normaleninformation.<br />

Das Ziel der Flächenanpassung ist es, die nach der Segmentierung entstandene<br />

Segmente zu klassifizieren (dem Segment einen bekannten Flächentyp zuzuordnen)<br />

und nachbearbeiten: zu dem Segment neue Punkte der Punktmenge hinzufügen, die<br />

z.B. wegen schlecht geschätzten Krümmungen nicht während der Segmentierung<br />

eingefügt werden konnten; von dem Segment Punkte entfernen, die z.B. kurz hinter<br />

dem Übergang zwischen zwei glatten Flächen liegen, aber wegen starker Glättung bei<br />

der Schätzung der Krümmungen zu falschem Segment einfügt wurden.<br />

Zurzeit funktioniert die Flächenklassifikation und -anpassung für 5<br />

Grundregelgeometrien: Ebene, Kugel, Zylinder, Kegel und Torus.<br />

Bei der Klassifikation wird einheitlich vorgegangen: über ein Segment wird anhand<br />

der Normalen und Krümmungen eine Annahme über den Flächentyp getroffen.<br />

Danach wird das Segment durch eine algebraische Fläche <strong>des</strong> entsprechenden<br />

Flächentyps approximiert. Falls die Approximation erfolgreich ist, werden die<br />

Parameter der algebraischen Fläche ermittelt (Achse, Mittelpunkt, Radius, ...) und<br />

versucht neue Punkte der Punktmenge zu der berechneten algebraischen Fläche<br />

hinzufügen.<br />

Geometrische Algorithmen für die effiziente Lösung von Randintegralgleichungen,<br />

SFB 393, Teilprojekt A7<br />

(M. Randrianarivony)<br />

Im Rahmen <strong>des</strong> Projektes A7 wurden wavelet basierte Verfahren zur Lösung von<br />

Randintegralgleichungen entwickelt. Um diese Verfahren auf Probleme mit<br />

realistischen Geometrien anzuwenden, sind Algorithmen notwendig, die die<br />

Geometriebeschreibung an das dem Lösungsverfahren zu Grunde liegende<br />

Beschreibungsformat anpassen. Die Zielstellung <strong>des</strong> Projektes besteht in der<br />

Entwicklung der benötigten geometrischen Algorithmen für zwei verschiedene<br />

wavelet basierte Lösungsverfahren. Dabei soll insbesondere die aus der<br />

Computergraphik bekannte „diffuse Beleuchtungsgleichung“ als<br />

Anwendungsbeispiel herangezogen werden.<br />

Sollen Integralgleichungen für interessante Anwendungsprobleme mit realistischen<br />

Geometrien gelöst werden, so ist davon auszugehen, dass das geometrische Modell<br />

unter Einsatz eines kommerziellen Modellierungswerkzeuges (etwa eines CAD-<br />

Systems) erstellt wurde. Ist eine hohe Genauigkeit <strong>des</strong> Modells gefordert, so wird die<br />

Geometrie dabei durch stückweise polynomiale Flächenstücke beschrieben. Diese<br />

Beschreibung ist prinzipiell konform zum Ansatz von Schneider et al.<br />

29


Allerdings treten bei realistischen Modellen sogenannte ,,getrimmte“<br />

Parametergebiete auf, die etwa durch Flächenverschneidungen entstehen und durch<br />

Angabe von ungültigen Teilbereichen innerhalb <strong>des</strong> Einheitsquadrates beschrieben<br />

werden. Um das Schneider Verfahren auf beliebige Geometrien anwenden zu<br />

können, ist es notwendig ein Verfahren zu entwickeln, das ein beliebiges getrimmtes<br />

Parametergebiet diffeomorph auf das Einheitsquadrat abbildet. Für getrimmte<br />

Flächen, die entsprechend dem Austauschformat IGES beschrieben sind, wurde in<br />

der laufenden Projektphase ein Verfahren entwickelt, das einen geeigneten<br />

Diffeomorphismus weitgehend automatisch erzeugt. In der folgenden Projektphase<br />

soll dieses Verfahren hinsichtlich der folgenden Punkte optimiert werden: 1. Die<br />

Zerlegung <strong>des</strong> getrimmten Parametergebietes in vierseitige Gebiete soll optimiert<br />

werden, um eine möglichst natürliche Zerlegung mit wenigen Teilgebieten zu<br />

erhalten. 2. Für den wichtigen Sonderfall von Begrenzungskurven in<br />

Bezierdarstellung soll das bisher verwendete Diffeomorphismuskriterium zu einer<br />

expliziten hinreichenden Bedingung für die Lage der Bezierpunkte weiterentwickelt<br />

werden.<br />

Projekt "Augmented Reality – Entwurf von Freihandkurven"<br />

(H. Wagner)<br />

Die in 2003 zu diesem Projekt durchgeführten Arbeiten waren auf die weitere<br />

Genauigkeitsverbesserung der Objektregistrierung in AR-Umgebungen sowie die<br />

Echtzeitdarstellung und -manipulation von auf Realkörpern liegenden und dorthin<br />

projizierten virtuellen Raumkurven gerichtet. Zur Verbesserung der<br />

Registrierungsgenauigkeit wurde ein magnetisches Trackingsystem mit einem<br />

infrarot-optischen 3-Kamera-Trackingsystem kombiniert. Dabei fungiert das sehr<br />

genau arbeitende optische System als Mastersystem, <strong>des</strong>sen Messwerte nicht nur der<br />

AR-Applikation zur Verfügung gestellt werden, sondern auch zur dynamischen<br />

Kalibrierung und Messwertkorrektur <strong>des</strong> magnetischen Systems dienen. Auf diese<br />

Weise entstand ein hybri<strong>des</strong> Gesamtsystem, welches kontinuierlich sehr präzise<br />

Trackinginformationen an die AR-Applikation liefert. Das heißt, die bei<br />

Sensorverdeckungen zu verzeichnenden und für optische Systeme typischen<br />

Unterbrechungen <strong>des</strong> Sendeflusses von Trackinginformationen können mit dem<br />

Bereitstellen korrigierter magnetisch getrackter Messwerte vermieden werden. Um<br />

die Kombination beider Trackingsysteme zu ermöglichen, musste für das neue<br />

hybride Gesamtsystem eine spezielle objektorientierte Treiberarchitektur entwickelt<br />

werden. Zudem war ein Verfahren zu finden und zu implementieren, welches für die<br />

magnetisch erfassten Messwerte den Fehlervektor sowie die Fehlerabweichung der<br />

Orientierungswerte in Echtzeit berechnet. Weitere Forderungen an das hybride<br />

Gesamtsystem waren, dass es für den flexiblen und gegebenenfalls mobilen Einsatz<br />

geeignet und leicht auf operative Veränderung im AR-Arbeitsraum und seiner<br />

unmittelbaren Umgebung einstellbar sein sollte.<br />

30


Folglich war ein Verfahren zu entwickeln welches erlaubt, im Kalibrierungsprozess<br />

die Lage und Orientierung beider Meßsysteme schnell und unkompliziert aufeinander<br />

abzugleichen sowie die Magnetfeldstörungen als Grundlage der Messwertkorrektur<br />

mit wenig Zeitaufwand und ohne spezielle Messeinrichtungen erfassen zu können. Es<br />

entstand ein Verfahren, welches mit Fehlerpolynomen und einer relativ kleinen die<br />

Magnetfeldverzerrung charakterisierenden Punktmenge in der Lage ist, eine<br />

brauchbare Messwertkorrektur vorzunehmen. Zusätzlich kann sich der Benutzer die<br />

Fehlerpolynome stereoskopisch anzeigen lassen und so einen Eindruck über die<br />

Magnetfeldstörungen seines AR-Arbeitsraumes bekommen und gegebenenfalls<br />

gezielt Einfluss auf Störelemente nehmen. Zur Handhabung virtueller Raumkurven<br />

wurde untersucht, wie polygonale Raumkurven als VR-Objekte beschrieben werden<br />

sollten, um sie mit VR/AR-typischen Simulations- und Visualisierungstechniken in<br />

Echtzeit darstellen und editieren zu können. Hierzu konnten mehrere brauchbare<br />

Realisierungsansätze entwickelt und unter Verwendung der VR-Basissoftware<br />

WordToolKit implementiert werden.<br />

Automatische und interaktive Meshsegmentierung unter Verwendung <strong>des</strong> Objekt-<br />

Skelettgraphen<br />

(D. Brunner)<br />

In den vergangenen Jahren hat es viele Bemühungen gegeben, die Segmentierung<br />

von Oberflächen zu verbessern, weil sie eine Grundlage für eine Vielzahl von<br />

Anwendungen ist: Hierzu gehören etwa das Erkennen, Klassifizieren und Matchen<br />

von Objekten oder die geometrische Rekonstruktion. Die Segmentierung repräsentiert<br />

dabei indirekt bestimmte Merkmale <strong>des</strong> Objekts. Denn eine Segmentierung kann nur<br />

unter Verwendung von berechenbaren Merkmalen geschehen, wie etwa lokale<br />

Krümmung, stereoskopische Bildpaare, oder topologische Strukturen. Häufig wird<br />

die Objektoberfläche (die durch ein Dreiecksnetz, bzw. Mesh repräsentiert wird)<br />

analysiert, was bei synthetischen Modellen, bzw. bei Modellen von synthetischen<br />

Körpern gut funktioniert. Aber bei Modellen von z.B. organischen Objekten, die<br />

wenige oder gar keine signifikanten Oberflächenmerkmale enthalten, versagen<br />

derartige Algorithmen. Deshalb konzentriert sich diese Forschungsarbeit auf die<br />

Untersuchung der Gestalt <strong>des</strong> Körpers, also einer Eigenschaft, die durch die<br />

Oberfläche implizit festgelegt ist. Am zweckmäßigsten erscheint dabei die „Mediale<br />

Achse“ bzw. dem 3d-Äquivalent, die „Mediale Oberfläche“, ein geometrisches<br />

Gebilde, dass eindeutig für jeden Körper definiert ist. Während der Forschungsarbeit<br />

wurde eine Strategie entwickelt, die sich für die Definition von Segmenten gerade an<br />

der Medialen Achse <strong>des</strong> jeweiligen Körpers orientiert. Die Berechnung der Medialen<br />

Oberfläche für beliebige Objekte ist ein komplexes Problem, allerdings genügt es oft<br />

schon, die Mediale Oberfläche zu approximieren. Auch die innerhalb der<br />

Forschungsarbeit konzipierte Methode verwendet eine Approximation und verlagert<br />

dazu die Berechnung in den diskreten Raum. Dass heißt, das Mesh muss mittels einer<br />

Rasterdarstellung repräsentiert werden, die Operationen auf Voxelbasis zulässt. Dazu<br />

wird das Mesh zunächst in eine Voxeldarstellung (Repräsentation durch<br />

Volumenelemente) überführt.<br />

31


Dies ist ein Schwerpunkt dieses Forschungsthemas: Die Datenstruktur, die die<br />

Voxelmenge verwaltet wird üblicherweise durch Definition eines Rasters über<br />

Reihen, Spalten and Schichten mit gleichseitigen Rasterzellen definiert. Im<br />

Gegensatz dazu repräsentiert die entwickelte Datenstruktur eine Rasterung mit nicht<br />

gleichseitigen Rasterzellen, was zu einer deutlich speichereffizienteren<br />

Datenorganisation führt. Dadurch wird es möglich die Approximation zu verfeinern<br />

und mehr Details der Objekte zu verarbeiten. Diese Voxelmenge wird dann durch<br />

Anwendung eines Thinningverfahrens sukzessive abgetragen. Der dafür verwendete<br />

Algorithmus ist eine Kombination zweier bekannter Thinningverfahren, <strong>des</strong>sen<br />

Thinningresultate sich für die Segmentierung besonders gut eignet. Für die<br />

Untersuchung zweckmäßiger Verfahren, bzw. die Kombination bestimmter Kriterien<br />

wurde in der Diplomarbeit [1] wichtige Vorarbeit geleistet. Aus der Anwendung<br />

dieses Thinningverfahrens resultiert ein Kurvenskelett (Menge zusammenhängender<br />

Voxelkurven), <strong>des</strong>sen einzelne Kurven bestimmte Modellpartien repräsentieren. Da<br />

die Voxelkurven einige für die Weiterverarbeitung ungünstige Eigenschaften<br />

besitzen, wird das Kurvenskelett in einen Raumgraphen transformiert, wo jeder<br />

Voxel einen Knoten, und jede Nachbarschaft zweier Voxel eine Kante <strong>des</strong> Graphen<br />

definiert. Um redundante Informationen zu vermeiden, wird dieser Graph optimiert.<br />

Um den endgültigen Objekt-Skelettgraphen zu erhalten, ist noch die Festlegung einer<br />

Korrelation zwischen dem Raumgraphen und <strong>des</strong> Meshes nötig. Dazu wird mittels<br />

einer Abstandsfunktion, je<strong>des</strong> Dreieck der Oberflächenrepräsentation einem<br />

Graphknoten zugeordnet. Durch diese Zuordnung ist durch einen Graphbogen genau<br />

ein Oberflächensegment definiert (ein Graphbogen ist eine Folge von benachbarter,<br />

regulärer Knoten, die mit jeweils einem nicht regulären Knoten beginnt und endet;<br />

ein regulärer Knoten ist ein Graphknoten mit genau zwei Nachbarknoten). Die<br />

Segmenttrennstellen sind demnach genau die Graphknoten, die mehr als zwei<br />

Nachbarknoten besitzen.<br />

Neben dem Entwurf der Methode wurde im Rahmen der Forschungsarbeit eine<br />

Software implementiert, die die Segmentierung von Oberflächen durchführt. Um die<br />

Funktionsweise der beschriebenen Methode zu illustrieren. Die implementierte<br />

Software unterstreicht die Praxistauglichkeit der entwickelten Methode. Für<br />

zukünftige Aufgaben ist es sicherlich interessant, weitere Oberflächenmerkmale aus<br />

dem Objekt-Skelettgraph abzuleiten, etwa extremale Durchmesser eines<br />

Graphbogens (damit sind alle Durchmesser von Polygonzügen gemeint, die durch<br />

Schnitt der Ebenen (die durch einen Graphknoten und eine Graphkante definiert sind)<br />

aller Elemente <strong>des</strong> Graphbogens, mit dem Dreiecksnetz entstehen).<br />

Dynamisches, verteiltes LOD für VR-Anwendungen<br />

(K. Hilbert)<br />

Eine Vielzahl von aktuellen Anwendungen erzeugen extrem komplexe polygonale<br />

Modelle. Andererseits möchte der Nutzer oft mit diesen Modellen, die nicht selten<br />

mehr als eine Million Polygone beinhalten, reibungslos interagieren.<br />

32


Um reibungslos mit einer virtuellen Szene interagieren zu können, müssen<br />

min<strong>des</strong>tens 15 Bilder pro Sekunden von deren Modell gerendert werden.<br />

Selbst die aktuellste Highend-Grafikhardware ist aber mitunter nicht in der Lage, bei<br />

der Darstellung solch komplexer Modelle eine solche Framerate zu erreichen. In<br />

diesem Fall kommen sogenannte Real-Time-Rendering-Techniken zum Einsatz, um<br />

letztendlich doch eine annehmbare Framerate zu erreichen.<br />

Auch die LOD-Verfahren sind der Klasse der Real-Time-Rendering-Techniken<br />

zuzuordnen. Ein LOD-Verfahren erzeugt in einem Prä-Prozeß für je<strong>des</strong> Objekt der<br />

Szene oder für die gesamte Szene ein Multiresolution-Modell (MRM). Dafür werden<br />

verschiedene polygonale Vereinfachungstechniken verwendet. Vor dem Rendern<br />

je<strong>des</strong> Szenenbil<strong>des</strong> wird für je<strong>des</strong> Objekt mittels eines Kriteriums eine<br />

Approximation, die dem Original relativ ähnlich ist und aus weniger Polygonen<br />

besteht, aus <strong>des</strong>sen Multiresolution-Modell extrahiert. Diese Approximationen<br />

werden dann, anstatt der Originale für die Berechnung <strong>des</strong> aktuellen Szenenbil<strong>des</strong><br />

verwendet. Aufgrund der reduzierten Polygonanzahl können die Szenenbilder<br />

schneller gerendert werden, was eine Beschleunigung der Framerate zur Folge hat.<br />

Als Grundlage für diese Forschungsarbeit dienen zwei Diplomarbeiten. Zum einem<br />

ist das die Diplomarbeit von Schwarze[1], die sich mit Kommunikationsmechanismen<br />

für eine verteilte Reduktionsapplikation beschäftigte. Andererseits<br />

gehört dazu die Diplomarbeit von Hilbert[2], die sich mit der Konzeption eines<br />

hybriden dynamischen LOD-Verfahrens beschäftigte, was die von Schwarze<br />

entwickelten Kommunikationsmechanismen verwendet. Hilberts Arbeit baut<br />

wiederum auf Arbeiten von Luebke&Erikson[3], Shade et al.[4] sowie Schaufler und<br />

Stürzlinger[5] auf.<br />

Auf dieser Basis soll im Rahmen dieser Forschungsarbeit eine verteilte<br />

Reduktionsapplikation entwickelt werden, die ein bereits bestehen<strong>des</strong> Rendering-<br />

System unterstützt bzw. in ein solches in Form eines Plug-ins integriert werden kann.<br />

Mit dieser Applikation soll es möglich sein, komplexeste, dynamische Szenen mit<br />

dynamischen Objekten zu reduzieren. Einerseits soll die zu entwickelnde Applikation<br />

eine hohe Performanz zeigen. Andererseits soll die Qualität der Szenenbilder, die mit<br />

Approximationen gerendert wurden, welche wiederum durch die verteilte<br />

Reduktionsapplikation erzeugt wurden, gleichbleibend hoch sein. Um komplexeste<br />

Szenen unterstützen zu können, ist es weiterhin notwendig das die zu entwickelnde<br />

Applikation die Objektinstanzierung unterstützt.<br />

Um eine verteilte Reduktion komplexer Szenen realisieren zu können, wurde die<br />

Objektweise Reduktion als Reduktionsprinzip ausgewählt. Für je<strong>des</strong> zu reduzierende<br />

Objekt wird in jedem Falle zunächst eine adaptive geometrie-basierte Approximation<br />

aus <strong>des</strong>sen kontinuierlichem Multiresolution-Modell extrahiert. In unserem Falle<br />

verbirgt sich hinter dem kontinuierlichen Multiresolution-Modell ein Vertex-<br />

Hierarchie, wie sie von Luebke und Erikson[3] vorgeschlagen wurde.<br />

33


Diese Vertex-Hierarchien werden einmalig für die zu reduzierenden Objekte in einem<br />

Präprozeß erzeugt.<br />

Da sämtliche dafür benötigten Berechnungen im Objektkoordinatensystem <strong>des</strong><br />

jeweiligen Objekts ausgeführt werden, können die zuvor erzeugten MRMs auch für<br />

die Erzeugung von Approximationen für dynamische Objekte mit statischer<br />

Geometrie verwendet werden. Besonders sorgfältig werden die Attribute der<br />

einzelnen Oberflächenelemente behandelt. Diese werden ebenfalls in einem<br />

Präprozeß in Texturen gesampelt, welche dann beim Rendern mittels dynamisch<br />

angepasster Texturkoordinaten auf die geometrie-basierte Approximation<br />

angewendet werden. So können Diskontinuitäten in den Oberflächenattributen, wie<br />

sie oft durch bisherige Approximationsverfahren eingeführt wurden, weitestgehend<br />

vermieden werden. Sind gewisse Bedingungen erfüllt, wird die soeben erzeugte<br />

adaptive, geometrie-basierte Approximation verwendet, um für das Objekt eine<br />

image-basierte, um ein Vielfaches weniger komplexe Approximation zu erzeugen.<br />

Hier kommt ein sogenanntes Impostor, das ein mit einer bestimmten Objektansicht<br />

texturiertes Viereck darstellt, als image-basierte Approximation zum Einsatz. Ob es<br />

sich lohnt ein Impostor zu erzeugen, wird mittels einer Kriterienkombination<br />

bestehend aus einem kollisionsbasierten, einem auflösungsabhängigen und einem<br />

kostenabhängigen Kriterium entschieden. Je nach vorliegender Situation wird dann<br />

die geometrie-basierte oder die image-basierte Approximation für das Rendern <strong>des</strong><br />

nächsten Frames verwendet. Zusätzlich wird eine gewisse Anzahl von bereits<br />

erzeugten Approximationen in einem Cache gespeichert. Somit ist es nur notwendig<br />

neue Objektapproximationen zu erzeugen, wenn keine passende Approximation für<br />

das entsprechende Objekt im Cache gespeichert ist. Ob eine Approximation zur<br />

aktuellen Kamerakonfiguration kompatibel ist, wird mit einem winkelbasierten<br />

Kriterium entschieden. Für das Cache-Management wird ein LRU-Mechnismus<br />

verwendet. Die verteilte Reduktionsapplikation besteht dann aus einer<br />

Auftragserzeugungskomponente, einer Auftragsverteilungskomponente, einer MRM-<br />

Erzeugungskomponente, einer Auftragsverarbeitungskomponente und einer<br />

Ergebnisverarbeitungskomponente. Jede dieser Komponenten bewältigt einzelne<br />

Teilaufgaben <strong>des</strong> Reduktionsprozesses. Die Kommunikation zwischen den einzelnen<br />

Komponenten wird mit CORBA realisiert.<br />

Zum aktuellen Zeitpunkt ist ein Prototyp der Auftragsverarbeitungskomponente<br />

implementiert, die über zwei getrennte TCP/IP-Verbindungen mit einem Rendering-<br />

System kommuniziert und dynamische Szenen mit Objekten, deren Geometrie<br />

konstant ist, verarbeiten kann. Diese Implementierung der Auftragsverarbeitungskomponente<br />

erzeugt die MRMs für einzelne Szenenobjekte noch selbst. Dies entfällt,<br />

sobald die restlichen an der MRM-Erzeugung beteiligten Komponenten<br />

funktionstüchtig sind. Erste Versuche mit dieser Implementierung zeigten<br />

vielversprechende Ergebnisse. Schon mit diesem relativ simplen System konnten bei<br />

entsprechenden Szenen besonders durch den Einsatz von image-basierten<br />

Approximationen deutliche Steigerungen der Framerate erzielt werden, ohne dass<br />

merkliche Verluste bei der Bildqualität entstanden.<br />

34


In näherer Zukunft werden die restlichen Komponenten der verteilten<br />

Reduktionsapplikation implementiert. Anschließend sollte die Unterstützung<br />

sämtlicher dynamischer Szenen realisiert werden. Liegt dann ein funktionstüchtiger<br />

Prototyp der gesamten Reduktionsapplikation vor, wird diese ausgiebig auf einem<br />

PC-Cluster getestet werden. Diese Tests werden schließlich Aufschluss darüber<br />

geben, wo zusätzlicher Optimierungsbedarf besteht.<br />

Verteiltes Rendering in Multiprojektionsumgebungen auf der OpenGL-Systemebene<br />

(M. Lorenz)<br />

Die Professur GDV betreibt seit geraumer Zeit eine Mehrsegment-<br />

Großbildprojektion auf der Basis <strong>des</strong> HP Visualize Center II. Die zur Bilderzeugung<br />

eingesetzten Workstations entsprechen nicht mehr den gegenwärtigen Anforderungen<br />

hinsichtlich Geschwindigkeit und grafischem Funktionsumfang. Insbesondere die<br />

stereoskopische Darstellung großer, stark texturierter Modelle ist nicht zufrieden<br />

stellend. Ziel der Arbeiten dieses Projektes ist die Schaffung einer geeigneten<br />

Plattform zum Ersatz der vorhandenen Workstations durch leistungsstarke und<br />

preiswerte PC-Systeme. Im Gegensatz zu vielen anderen Anwendungsgebieten ist der<br />

einfache Austausch der Maschinen sowie <strong>des</strong> Betriebssystems HP-UX gegen Linux<br />

für Mehrsegment-Projektionen nicht möglich. Die technischen Herausforderungen<br />

liegen in der flüssigen Berechnung der Bildinhalte auf drei Grafikpipelines und der<br />

framesynchronen Ansteuerung der einzelnen Bildsegmente über Projektoren. Zur<br />

aktiv-stereoskopischen Anzeige <strong>des</strong> Gesamtbil<strong>des</strong> ist zusätzlich die Synchronisation<br />

<strong>des</strong> Bildaufbaus (Strahlrücklauf) erforderlich.<br />

Es wurde sehr schnell erkannt, dass handelsübliche Grafikkarten der Consumerklasse<br />

zwar hinsichtlich der grafischen Fähigkeiten durchaus akzeptable Leistungswerte<br />

erreichen, sich aber wegen fehlender technischer Möglichkeiten zur<br />

hardwarebasierten Bildsynchronisation nicht für den Einsatz im Zielsystem eignen.<br />

Praktische Tests softwarebasierter Ansätze, die den Bildaufbau über<br />

Netzwerkprotokolle synchronisieren, lieferten inakzeptable Werte in Lastsituationen.<br />

Als Ergebnis einer Marktstudie wurden professionelle Grafikkarten <strong>des</strong> Typs Wildcat<br />

7210 von 3DLabs ausgewählt, die über die notwendigen technischen<br />

Voraussetzungen verfügen. Basierend auf diesen Karten und Evaluierungen in<br />

verschiedenen Rechnerklassen entstand das Konzept für einen Rendering-Cluster<br />

zum Betrieb <strong>des</strong> Visualize Centers. In der zweiten Jahreshälfte wurde die Hardware<br />

bestehend aus drei Dual-XEON Workstations mit 7210-Grafik und Gigabit-<br />

Vernetzung angeschafft.<br />

Die softwareseitigen Arbeiten konzentrierten sich zunächst auf die Implementation<br />

der benötigten Funktionalität in den Linuxtreiber der Wildcat 7210 sowie auf die<br />

Anpassung <strong>des</strong> X-Servers und der XDM. Parallel dazu erfolgte die Anpassung und<br />

Erweiterung <strong>des</strong> Open Source Projektes Chromium zur Verteilung der grafischen<br />

Daten im Cluster.<br />

35


Während verteiltes Rendering auf Modellebene netzwerkbasierte Applikationen<br />

erfordert, lassen sich durch die Verwendung einer Zwischenschicht auf Systemebene<br />

potenziell beliebige OpenGL-basierte Applikationen ohne Modifikationen auf dem<br />

Visualization Center betreiben. Technisch ist dies möglich, da grafische<br />

Applikationen mit der OpenGL-Hardware über einen Treiber kommunizieren. Unter<br />

Zuhilfenahme eines Treiberersatzes, <strong>des</strong> so genannten Fakers, wird diese<br />

Kommunikation über ein schnelles Netzwerk auf die angeschlossenen Server verteilt.<br />

Für die Anwendung ist dies vollständig transparent. Tests hinsichtlich der Vernetzung<br />

verschiedener Betriebssysteme verliefen viel versprechend. So gelang es zum<br />

Beispiel, die grafischen Ausgaben von Windows-Anwendungen auf dem Linux<br />

basierten Cluster zur Darstellung zu bringen.<br />

Durch gezielte Manipulationen der OpenGL Kommando- und Datenströme, die vom<br />

Renderer erzeugt und an die OpenGL übergeben werden, sind für die Applikation<br />

transparente Verbesserungen der Bildqualität und der Darstellungsgeschwindigkeit<br />

möglich. Die Notwendigkeit zur Verbesserung der Bildqualität ist hauptsächlich dem<br />

Aspekt geschuldet, dass die Anwendung in einem Fenster mit sehr hoher Auflösung<br />

läuft. Nicht alle Programme verwenden dafür geeignete Darstellungsmodi und –filter.<br />

Durch die begrenzte Bandbreite bei der Verteilung der OpenGL-Streams über ein<br />

Netzwerk entsteht ein Engpass, der sich in einer geringeren Framerate gegenüber<br />

einem einzelstehenden System bemerkbar macht. Dies ist insbesondere dann<br />

gegeben, wenn die Anwendung ungünstig programmiert wurde. Beispielhaft sei der<br />

Verzicht auf bzw. die sparsame Verwendung von Displaylisten genannt. Die<br />

Integration eines Caches für Kommandoströme verbunden mit der Kapselung von<br />

Ausgabeblöcken zu Displaylisten gleicht einen Teil <strong>des</strong> Performanceverlusts wieder<br />

aus. Effektive Culling-Algorithmen verbessern das Laufzeitverhalten weiter.<br />

Virtualiti3D (V3D) - Entwicklung einer dreidimensionalen Benutzerschnittstelle<br />

(St. Rusdorf)<br />

Ein viel diskutiertes Thema in der Softwareentwicklung ist die Nutzung aktueller<br />

Techniken zur Visualisierung dreidimensionaler Welten. Neben den hohen<br />

Anforderungen an die verwendete Hardware stellt auch die Navigation bzw.<br />

Interaktion in solchen Welten eine Herausforderung dar. Insbesondere bei<br />

Verwendung von 3D-Ein- und Ausgabegeräten sind schnell die Grenzen heute<br />

üblicher Eingabemöglichkeiten erreicht. Beispielsweise ist es nahezu unmöglich<br />

Eingabe per Maus oder Tastatur zu tätigen, wenn der Anwender ein HMD (Head-<br />

Mounted-Display) trägt. Auch bei Benutzung einer Projektionswand sind diese<br />

Geräte meist nicht komfortabel zu benutzen. Hier wurden Möglichkeiten geschaffen,<br />

welche intuitive Eingaben gestatten sollte. Um die Entwicklung künftiger Projekte zu<br />

vereinfachen wurde eine dreidimensionale Benutzerschnittstelle entwickelt. Das Ziel<br />

hierbei ist die Bereitstellung einer Softwarebibliothek zur Verwendung in<br />

weiterführenden Forschungsprojekten bzw. zur Entwicklung komplexerer<br />

Applikationen.<br />

36


Diese Bibliothek stellt eine hardwareunabhängige Abstraktionsebene dar und erlaubt<br />

somit die Entwicklung von Applikationen ohne sich vorher auf eine spezifische<br />

Plattform zu beschränken. Weiterhin werden sämtlich grafischen Elemente als<br />

dreidimensionale Objekte dargestellt. Dies ermöglicht eine einfache Integration in<br />

VR-Applikationen, ohne jedoch auf derartige System angewiesen zu sein. Das<br />

bedeutet, dass jede Applikation, die diese Bibliothek verwendet, sowohl im 3D-<br />

Modus mit kompletter dreidimensionaler Eingabe als auch im normalen<br />

Monitorbetrieb mit Maus und Tastatur benutzt werden kann.<br />

Das System befindet sich bereits in einem nutzbaren Stadium und ermöglicht die<br />

Erstellung komplexer Anwendungen. Es werden diverse VR-spezifische<br />

Peripheriegeräte wie Shutterbrille, Head-Mounted Display, verschiedene<br />

Trackingsysteme und Datenhandschuh unterstützt. Das System ist sowohl für die<br />

monoskopische als auch für die stereoskopische oder immersive Benutzung geeignet.<br />

Ein Schwerpunkt lag in der Unterstützung <strong>des</strong> neuen optischen Trackingsystems<br />

DTrack der Firma Advanced Realtime Tracking GmbH. Dies umfasst sowohl die<br />

Einbindung der Grundfunktionalität als auch die Evaluierung neuer Möglichkeiten<br />

dieses kabellosen Systems. Durch die erhöhte Genauigkeit und die Echtzeitfähigkeit<br />

dieses Trackingsystems eröffnen sich völlig neuartige Möglichkeiten. Hierzu gehören<br />

die Bearbeitung dynamischer Gesten, sowie die Einbindung realistischer<br />

Interaktionsalgorithmen. Eine der Beispielapplikationen ist eine Tischtennis<br />

Simulation. Hierbei wird ein realer Tischtennisschläger und der Kopf getrackt<br />

(ermitteln der Lage im Raum), um eine realistische Darstellung zu ermöglichen. Als<br />

Trackingsystem kommt wahlweise das Motionstar (magnetisches, kabelgebundenes<br />

System von Ascension Technologies) oder das DTrack (optisches System von<br />

A.R.Tracking) zum Einsatz. Die Applikation stellt recht hohe Anforderungen an die<br />

Latenzzeiten <strong>des</strong> jeweiligen Trackingsystems und eignet sich daher gut zu<br />

Testzwecken.<br />

Ausstehende Arbeiten betreffen die korrekte, allgemeingültige Physik-Simulation in<br />

Virtuellen Umgebungen. Weiterführende Entwicklungen nutzen das gesamte<br />

Visualisierungssystem für Forschungsarbeiten zum Thema Level-Of-Detail.<br />

2.3.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Brunnett, G., Vančo, M., Haller, Ch., Washausen, S., Kuhn, H.-J.: Visualization<br />

of cross sectional data for morphogenetic studies, GI-Edition, Lecture Notes in<br />

Informatics, Frankfurt am Main 2003, pp. 354-359, ISBN 3-88579-363-6<br />

37


Brunnett, G., Vančo, M.: Surface Recognition in Reverse Engineering, 3D-<br />

NordOst 2003, 6. Anwendungsbezogener Workshop zur Erfassung, Verarbeitung,<br />

Modellierung und Auswertung von 3D Daten, Berlin 2003, pp. 31-40, ISBN 3-<br />

9809212-0-4<br />

Rusdorf, St., Lorenz, M., Wölk, St., Brunnett, G.: Virtualiti3D (V3D): A<br />

Systemindependent, Real time-animated, Threedimensional graphical user interface,<br />

Proc. of the Third LASTED Int. Conf. on Visualization, Imaging, and Image<br />

Processing (VIIP 2003), LASTED 2003, pp. 955-960, ISBN 0-88986-382-2<br />

Randrianarivony, M., Brunnett, G.: A multiresolution method for detecting higher<br />

order discontinuities form irregular samples, Proc. Conf. on curve and surface fitting,<br />

Saint-Malo, Nashboro Press 2003, pp. 333-342, ISBN 0-9728482-1-5<br />

Randrianarivony, M., Brunnett, G.: Generating well behaved meshes for<br />

parameterised surfaces, Proc. Conf. on Geometric Modeling and Graphics, London,<br />

IEEE Computer Society, pp. 56-61, ISBN 0-7695-1985-7<br />

Randrianarivony, M., Brunnett, G., Schneider, R.: Constructing a diffeomorphism<br />

between a trimmed domain and the unit square, Sonderforschungsbereich 393,<br />

Preprint SFB393/03-20, ISSN 1619-7178 (Print), ISSN 1619-7186 (Internet)<br />

Dissertation<br />

Vančo, M.: A Direct Approach for the Segmentation of Unorganized Points and<br />

Recognition of Simple Algebraic Surfaces, April 2003<br />

Diplomarbeiten<br />

Schwab, D.: Bewertung <strong>des</strong> Einsatzes von CAD-Daten für bildbasierte<br />

Trackingverfahren zum Einsatz in einer Augmented Reality basierten<br />

Reparaturanleitung für BMW Werkstätten, Dezember 2003<br />

Kupfer, M.: Einphasiger Algorithmus für die fotorealistische Bilderzeugung:<br />

Synthese globaler Beleuchtungsmodelle, September 2003<br />

Hilbert, K.: Dynamisches Level-of-Detail für die Bilderzeugung in VR-<br />

Anwendungen, Juli 2003<br />

Schwarze, T.: Kommunikationsmechanismen für paralleles, adaptives Level-of-<br />

Detail in VR-Simulationen, Mai 2003<br />

Brunner, D.: Ein Ansatz für die interaktive Manipulation der zusammenhängenden<br />

Körpersegmente eines triangulierten Teilobjektes mittels der Objektkörperachse,<br />

März 2003<br />

38


Studienarbeiten<br />

Kux, M.: Erkennung statischer Gesten bei der Verwendung <strong>des</strong> Datenhandschuhs<br />

CyberGlove<br />

Steger, D.: Texturen in WordToolKit<br />

Mählisch, M.: Strategien zur Kollisionserkennung beim Greifen mit einzelnen<br />

Fingern<br />

Höppner, R.: Kalibrierung und Einsatzmöglichkeiten komplexer elektromagnetischer<br />

Sensorsysteme<br />

2.3.5 Vorträge<br />

Brunnett, G.: Polyhedral Reconstruction of Digitized 3D Objects, Department LiSI,<br />

Universität Politecnica de Catalunya, 23.04.2003<br />

Brunnett, G.: Direct Segmentation of Algebraic Models in Reverse Engineering,<br />

Department LiSI, Universität Politecnica de Catalunya, 24.04.2003<br />

Brunnett, G.: Towards fast wavelet based solution of boundary integral equations<br />

on realistic geometries, SFB 393-Seminar, TU Chemnitz, Dezember 2003<br />

Randrianarivony, M.: Generating well behaved meshes for parameterised surfaces,<br />

International Conference on Geometric and Graphics, London, Juli 2003<br />

Vančo, M.: Visualization of cross sectional data for morphogenetic studies,<br />

Frankfurt (GI-Workshop), Oktober 2003<br />

Vančo, M.: Surface Recognition in Reverse Engineering, Seattle (SIAM<br />

Conference), November 2003<br />

Vančo, M.: Surface Recognition in Reverse Engineering, Berlin (3D-NordOst),<br />

Dezember 2003<br />

2.3.6 Mitarbeit in Gremien<br />

Brunnett, G.:<br />

- Mitglied <strong>des</strong> GI-Fachbereichs - Graphische Datenverarbeitung<br />

- Mitglied der GI-Fachgruppe - Geometrieverarbeitg. und Geometr. Modellieren<br />

- Mitglied der GI-Fachgruppe - Virtuelle und Erweiterte Realität<br />

- Mitglied der Bibliothekskommission der TU Chemnitz<br />

39


2.4 Professur Informationssysteme und Softwaretechnik<br />

2.4.1 Personelle Zusammensetzung<br />

Leiter: Prof. Petr Kroha<br />

Sekretariat: Karin Gäbel<br />

Wiss. Mitarbeiter: Lars Rosenhainer M. A.<br />

2.4.2 Kurzbeschreibung der Professur<br />

Konstruktion von CASE-Werkzeugen für Anforderungserfassung<br />

CASE-Werkzeuge unterstützen die Herstellung von Programmen und der<br />

zugehörigen Dokumentation während <strong>des</strong> Softwareentwicklungsprozesses. Uns<br />

interessiert hauptsächlich die Konstruktion von CASE-Werkzeugen, die die erste<br />

Phase der Problemanalyse unterstützen, in der mit dem Kunden und den<br />

Fachexperten über die gewünschten Eigenschaften <strong>des</strong> neuen Softwaresystems<br />

diskutiert wird. Die Erfassung und Verfeinerung von Anforderungen ist ein iterativer<br />

Prozess, an dem verschiedene Teilnehmer mit verschiedenem<br />

Ausbildungshintergrund beteiligt sind. Aus diesem Grund müssen die zu<br />

entwickelnden Werkzeuge und ihre Schnittstellen dem Denken ihrer Nutzer<br />

entsprechen. Damit verbunden ist eine ganze Reihe von offenen Problemen (Projekt<br />

TESSI).<br />

Parallele CASE-Werkzeuge<br />

Parallele und verteilte Datenverarbeitung wird auf vielen Fachgebieten eingesetzt,<br />

bisher allerdings nicht als Unterstützung bei der Softwareentwicklung. Mit unserem<br />

Projekt versuchen wir, diese Lücke zu schließen (Projekt OPAS, Projekt ASPIC).<br />

Web-basierte Informationssysteme<br />

Im Internet sind alle möglichen Daten und Informationen zugänglich. Das Problem<br />

dabei ist, wie die für einen Kunden interessanten Daten herausgefiltert werden<br />

können und was mit ihnen geschehen soll. Die Datenerfassung wird durch Wrapper<br />

realisiert, gespeichert werden die Daten in eine XML-Datenbank, die auch als eine<br />

Basis für weitere, analytische Verarbeitung (OLAP) dient (Projekt WEBIS).<br />

41


2.4.3 Forschungsvorhaben<br />

OPAS (Objektorientierter Parallelserver)<br />

Analyse, Entwurf, Implementierung und Testen von objektorientierten parallelen<br />

Servern, die in einer parallelen oder verteilten Umgebung arbeiten und für die<br />

Zwecke <strong>des</strong> Software Engineering eingesetzt werden können (01/1997 – 12/2011,<br />

haushaltsfinanziert). Ein paralleler Objektserver, der als Datenrepository von<br />

Objekten dient, die während der Softwareentwicklung einem Projektteam zur<br />

Verfügung stehen, wurde für den an der TU Chemnitz vorhandenen Parallelrechner<br />

PARSYTEC entworfen und implementiert. Nachdem dieser Computer außer Betrieb<br />

genommen werden musste, wird jetzt daran gearbeitet, die untersuchten Konzepte,<br />

Methoden und Algorithmen in eine Cluster-Umgebung in CORBA zu übertragen.<br />

Dabei wird die Tatsache genutzt, dass an der TU Chemnitz einer der weltweit größten<br />

Beowulf-Cluster im Rahmen <strong>des</strong> CLIC-Projektes aufgebaut wurde. Der Bedarf an<br />

Datenrepositorys, in denen Daten von allen Softwareprojekten einer Firma<br />

gespeichert werden, wird in der Zukunft sehr stark ansteigen, da Softwarefirmen<br />

mehr und mehr dezentralisiert werden. Auch kleine Softwarefirmen haben heute zum<br />

Teil bereits Filialen nicht nur an mehreren Stellen in Deutschland, sondern z. B. auch<br />

in Indien und in der USA. Weiterhin könnten die Firmenmitarbeiter von zu Hause aus<br />

arbeiten, wenn ihnen jederzeit die aktualisierten Projektdaten zur Verfügung ständen.<br />

Dazu werden allerdings Softwarewerkzeuge für eine vernetzte Mehrnutzerumgebung<br />

benötigt. Sequentielle Server haben dabei ihre Leistungsgrenzen, obwohl diese<br />

Grenzen ständig nach oben verschoben werden. Vorteilhaft ist in diesem<br />

Zusammenhang, dass parallele und verteilte Technologie immer billiger und<br />

zugänglicher wird. Die Probleme, wie solche Systeme programmiert werden sollen,<br />

werden jedoch immer komplexer.<br />

ASPIC (Aspect-oriented Implementation in Cluster Environment)<br />

Die Problematik der Übertragung einer Anwendung von einer parallelen in eine<br />

verteilte Umgebung zeigte, dass bestimmte Eigenschaften sich in objektorientierter<br />

Programmierung nicht in einzelne Klassen verkapseln lassen. Sie sind über viele<br />

Klassen verstreut, was nicht nur die Übertragbarkeit sondern auch die Wartung<br />

erschwert. Aspektorientierte Programmierung ermöglicht, gerade die oben erwähnten<br />

Konzepte in einer kompakten Einheit zu beschreiben. Sie hilft, das Problem der<br />

„separation of concerns“ zu lösen und unterstützt damit die Eigenschaft von<br />

Softwareprodukten, die als Portabilität bezeichnet wird. Es wird immer versucht,<br />

verschiedene Aspekte <strong>des</strong> Modells in Programmiersprachen separat zu beschreiben,<br />

weil dies ermöglicht, Änderungen und Modifikationen einfacher durchzuführen. Es<br />

hat sich jedoch gezeigt, dass sich bestimmte Eigenschaften (Aspekte) in bekannten<br />

Sprachen nicht separat beschreiben lassen. Uns hat dieses Problem im Projekt OPAS<br />

betroffen, als wir unsere fertige Lösung, entwickelt unter dem Betriebssystem PARIX<br />

auf dem parallelen Computer PARSYTEC, in die verteilte Beowulf-LINUX-<br />

Umgebung in den CLIC-Cluster übertragen wollten.<br />

42


Da das Konzept der Synchronisation von parallelen Prozessen in OPAS nicht separat<br />

beschrieben worden war, was nicht einmal möglich war, genügt es nicht, einfach<br />

einen Teil <strong>des</strong> Programms, der für die Synchronisation der parallelen Prozesse<br />

verantwortlich ist, auszutauschen. Das System muss neu programmiert werden, was<br />

umständlich ist, obwohl wir vieles aus dem alten System benutzen können. Im<br />

diesem Projekt wird der objektorientierte Server für den Cluster CLIC in<br />

aspektorientierter Sprache AspectJ beschrieben und diese Technologie wird<br />

untersucht.<br />

TESSI (Textual assistant)<br />

Analyse, Entwurf, Implementierung und Testen von CASE-Werkzeugen, die die<br />

Erfassung und Analyse der Anforderungen an ein Softwareprodukt unterstützen<br />

(01/1997 – 12/2011, haushaltsfinanziert). CASE-Werkzeuge, die heute auf dem<br />

Markt sind, unterstützen den Softwareentwicklungsprozess erst ab der Phase, wenn<br />

Diagramme (UML-Diagramme, Datenflussdiagramme usw.) gezeichnet werden. Die<br />

allererste Phase, wenn während der Diskussionen mit dem Kunden und mit<br />

Fachexperten die Anforderungen gesammelt und erfasst werden, wird nicht<br />

unterstützt. Es ist aber bekannt, dass gerade die Fehler, die während dieser Phase<br />

entstehen, die teuersten Fehler darstellen. Alles, was in dieser ersten Phase übersehen<br />

oder falsch begriffen wird, muss später sehr teuer korrigiert werden. Meistens<br />

versteht der Analytiker <strong>des</strong> Softwarehauses die Wünsche <strong>des</strong> Kunden nicht komplett,<br />

weil er keine tiefen Kenntnisse auf dem Fachgebiet der Anwendungsprobleme hat.<br />

Der Prozess läuft so, dass der Kunde nicht alles sagt, was er will, und was er sagt,<br />

sagt er ungenau. Der Analytiker versteht nicht alles, was der Kunde sagt, und was er<br />

versteht, versteht er oft anders, als das der Kunde meinte. Aufgrund dieser<br />

Missverständnisse werden Anforderungen analysiert, die eigentlich keine<br />

Anforderungen waren und Systeme implementiert, die die Kunden nicht brauchen<br />

können. Unsere Lösung dieses Problems, die durch das CASE-Werkzeug TESSI<br />

unterstützt wird, zwingt den Analytiker, von Anfang an eine textuelle Beschreibung<br />

der Anforderungen zu erstellen und von diesen Anforderungen ein objektorientiertes<br />

Model (auf UML-Basis) abzuleiten. Wenn der Analytiker denkt, dass seine<br />

Vorstellungen im Modell richtig abgebildet sind, lässt er durch TESSI einen Text<br />

generieren, der von dem Modell automatisch abgeleitet wird. Dieser Text<br />

repräsentiert die Vorstellungen <strong>des</strong> Analytikers. Außerdem ist der Text für den<br />

Kunden verständlich, was Diagramme der CASE-Werkzeuge nicht gewährleisten<br />

können. Der Kunde validiert den Text, d.h. er entscheidet, ob die Vorstellungen <strong>des</strong><br />

Analytikers auch seine Vorstellungen sind. Während dieses Prozesses generiert<br />

TESSI auch Metriken, die dem Analytiker bei der Abschätzung helfen können, wann<br />

das System fertig sein kann und wie viel es kosten wird.<br />

43


WEBIS (Web-orientiertes Informationssystem)<br />

Ein Informationssystem, das seine zu speichernden Eingabedaten selbst aus dem<br />

WWW bezieht und im XML-Format abspeichert. Aus dem Datenbestand können<br />

mittels entsprechender Abfragen Informationen extrahiert werden.<br />

TODIS<br />

Testwerkzeuge für das Testen von verteilten Systemen werden als Unterstützung zu<br />

den Projekten OPAS und ASPIC entwickelt.<br />

ADONIS (Adaptive Object-oriented Information System)<br />

Adaptive Programmierung und aspekt-orientierte Programmierung sind moderne<br />

Konzepte, deren Bedeutung für die Softwaretechnologie erst noch untersucht werden<br />

muss (01/2000 – 12/2011, haushaltsfinanziert). Typische Anwendungen werden<br />

mittels klassischer objektorientierter Methodologie als auch mittels adaptiver oder<br />

aspekt-orientierter Technologien programmiert und die dabei entstandenen<br />

Ergebnisse miteinander verglichen. Adaptive Programmierung erweitert die<br />

Möglichkeiten der objektorientierten Programmierung durch eine Klassenhierarchie-<br />

Verkapselung und unterstützt damit die Wartbarkeit von Softwareprodukten.<br />

Wichtige Vorteile entstehen für die Wartung von Anwendungen, die eine<br />

umfangreiche Klassenhierarchie nutzen, die oft geändert werden muss. In diesem<br />

Projekt werden wir die spezialisierte Programmiersprache DemeterJ und die<br />

Auswirkung dieser neuen Technologie erproben. Für die Lösung dieser Aufgabe<br />

werden wir im Projekt ADONIS die neu entwickelte Programmiersprache AspectJ<br />

benutzen. Wir werden diese neue Technologie in praktischen Pilotprojekten<br />

untersuchen und die Ergebnisse als eine Methodologie beschreiben.<br />

2.4.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Kroha, P., Bürgel, S.: "Modelling and Design for Adaptive Programming" In:<br />

Proceedings of the 3rd International Conference on Advanced Engineering Design<br />

AED'2003 Process Engineering Publisher, ISBN 80-86059-35-9, Prague, June 2003<br />

Kroha, P., Bürgel, S.: "Embracing UML for Modelling Adaptive Information<br />

Systems" In: Benes, M. (Ed.): Proceedings of the 6th International Conference<br />

Information Systems Implementation and Modelling ISIM'2003, pp. 63 - 70, Acta<br />

MOSIS Nr. 91, MARQ, ISBN 80-85988-84-4, Brno, April 2003<br />

44


Diplomarbeiten<br />

Rosenbaum, A.: Integration von Data-Mining-Techniken in das Informationssystem<br />

WEBIS<br />

Fleischer, M.: Tuning eines CORBA-basierten, parallelen Objektrepositorys<br />

(OODBS) für eine Shared-Nothing-Umgebung<br />

Toschev, J.: Entwurf und Implementierung einer neuen Architektur für TESSI<br />

Projektarbeiten<br />

Ahnert, F.: Erweiterungen <strong>des</strong> XML-Repositorys für das Web-orientierte<br />

Informationssystem (WEBIS) und Entwicklung einer Infrastruktur für einen<br />

börsenorientierten Datenbestand, September 2003<br />

Dietrich, A.: Wrapper 01: Implementation eines Wrapperprototyps für WEBIS,<br />

Juli 2003<br />

Rosenbaum, A.: Integration von Data-Mining-Techniken in das Informationssystem<br />

WEBIS, Mai 2003<br />

Fleischer, M.: Portierung <strong>des</strong> parallelen Objekt-Repositorys OPAS von PARIX nach<br />

CORBA auf die CLiC-Plattform, Mai 2003<br />

2.4.5 Vorträge<br />

Kroha, P.: Integration of artificial intelligence components into information systems.<br />

Pontificia Universidade Catolica do Rio de Janeiro, Brasilien, 03.11.2003<br />

Kroha, P.: Information Systems and Web. Universidad de Chile, Santiago, Chile,<br />

05.11.2003<br />

Kroha, P.: Parallel and distributed object servers. Universidad de Magallanes, Punta<br />

arenas, Chile, 17.12.2003<br />

2.4.6 Mitarbeit in Gremien<br />

Kroha, P.:<br />

- Programmkomitee der Konferenz DEXA 2003<br />

- Programmkomitee der Konferenz ISIM 2003<br />

- Programmkomitee der Konferenz DATAKON 2003<br />

45


2.5 Professur Künstliche Intelligenz<br />

2.5.1 Personelle Zusammensetzung<br />

Leiter: Prof. Werner Dilger<br />

Sekretariat: Karin Gäbel<br />

Wiss. Mitarbeiter: Dipl.-Inf. Holger Langner<br />

Dipl.-Inf. Ulf Nieländer<br />

Dr. Johannes Steinmüller<br />

Dipl.-Inf. Falk Schmidsberger<br />

Dipl.-Inf. Andrea Sieber<br />

Dipl.-Inf. Jörg Wellner<br />

Dr. Jens Zeidler<br />

2.5.2 Kurzbeschreibung der Professur<br />

Ausbildungsprofil<br />

Die angebotenen Lehrveranstaltungen der Professur KI decken das Gebiet der<br />

Künstlichen Intelligenz weitgehend ab. Sie reichen von methodisch orientierten über<br />

anwendungsorientierte bis zu Praktika. Teilweise werden sie in Zusammenarbeit mit<br />

der Fakultät für Elektrotechnik und Informationstechnik und mit einer Softwarefirma<br />

durchgeführt.<br />

Bei den Methoden der KI werden die Themen der Wissensrepräsentation,<br />

konnektionistische Wissensverarbeitung (Neuronale Netze) und<br />

Logikprogrammierung behandelt. In ähnlicher Weise eher methodisch sind die<br />

Vorlesungen über Neurokognition, Sprachverarbeitung und Bildverarbeitung.<br />

Besondere Themenbereiche sind das Maschinelles Lernen, verteilte KI-Systeme,<br />

Expertensysteme und Künstliche Immunsysteme. Im ersten Bereich werden die<br />

Grundlagen lernender Systeme, und eine praktische Anwendung, das Data Mining,<br />

vermittelt. Im zweiten Bereich geht es um Multiagentensysteme und die Robotik. Im<br />

dritten Bereich werden die Themen Diagnose, Konfiguration und Wissenserwerb<br />

behandelt. Im vierten Bereich werden Grundlagen und Anwendungen Künstlicher<br />

Immunsysteme vorgestellt.<br />

Es werden zwei Praktika angeboten. Das erste ist ein Robotik-Praktikum, das<br />

gemeinsam mit der Professur Automatisierungstechnik der Fakultät für E/I-Technik<br />

durchgeführt wird. Das zweite ist ein Data-Mining-Praktikum, das mit Vertretern der<br />

Firma Prudential Systems Software GmbH/prudsys AG durchgeführt wird.<br />

47


Forschungsprofil<br />

Biologische Intelligenz<br />

Es laufen verschiedene Arbeiten auf den Gebieten Künstliche Immunsysteme und<br />

Neurokognition. Im ersten Fall werden immunologische Prinzipien in<br />

Berechnungsprozeduren genutzt, um flexible, selbstorganisierende, verteilte und<br />

robuste Algorithmen für verschiedene Anwendungen zu entwickeln. Außerdem<br />

wurde ein objektbasiertes Simulationssystem entwickelt, mit dem verschiedene<br />

Experimente durchgeführt werden können. Im zweiten Fall geht es um Modellierung<br />

und Simulation kognitiver Prozesse <strong>des</strong> Gehirns mit Hilfe Systemen gekoppelter<br />

Neuronaler Netze. Das Ziel ist dabei, verbesserte Verfahren für die technische<br />

Realisierung kognitiver Systeme zu entwickeln.<br />

Multiagentensysteme<br />

Grundlagenorientierte Forschung zum Mikro-Makro-Problem und zum<br />

Skalierungsproblem bei Multiagentensystemen. Es wird versucht, das Prinzip der<br />

symbolisch generalisierten Kommunikationsmedien (Luhmann) aus der Soziologie<br />

zur evolutionären Strukturdifferenzierung zu verwenden. Ferner laufen Arbeiten zum<br />

Multiagentenplanen.<br />

Maschinelles Lernen und Data Mining<br />

Entscheidungsbaumverfahren werden zum Erlernen von Auszügen einer<br />

natürlichsprachlichen Grammatik eingesetzt. Verfahren <strong>des</strong> Reinforcement Learning<br />

werden zusätzlich zu den evolutionären Verfahren für die Strukturdifferenzierung in<br />

Multiagentensystemen verwendet, ebenso für das Roboterlernen. Mit Methoden <strong>des</strong><br />

Data Mining werden Daten aus psychologischen Experimenten analysiert. Zur<br />

Approximation zeitabhängiger Funktionen (Zeitreihenanalyse) werden adaptive<br />

Neuronale Netze eingesetzt.<br />

Intelligente Schnittstellen<br />

Der Aufbau eines nutzerspezifischen dreidimensional dargestellten<br />

Informationsraums am Computer wird graphisch unterstützt. Dazu können beliebige<br />

Dokumente vom Nutzer mit Notizen annotiert werden. Bei der Beschaffung von<br />

Informationen aus dem Internet wird der Nutzer von einem persönlichen<br />

maschinellen Agenten unterstützt. Die Agenten verschiedener Nutzer können sich in<br />

einem erweiterten Informationsraum gegenseitig mit Informationen versorgen.<br />

Softwareentwicklung in der Praxis.<br />

Es werden empirische Untersuchungen über die Softwareentwicklung in KMU<br />

durchgeführt. Dabei wird das Ziel verfolgt, Unterschiede in der Vorgehensweise bei<br />

kulturell unterschiedlich vorgeprägten Entwicklern aufzudecken.<br />

48


Die Untersuchung läuft dazu im Vergleich zwischen Ost- und Westdeutschland und<br />

wird später auf den Vergleich mit den USA und Russland erweitert.<br />

Die Forschungsarbeiten laufen im Rahmen von DFG - und BMBF - geförderten<br />

Projekten, und teilweise auf der Basis von Haushaltsmitteln. Es bestehen<br />

Kooperationen mit verschiedenen Professuren in der Philosophischen Fakultät und in<br />

der Fakultät für E/I-Technik der TU Chemnitz, mit der Professur für Soziologie<br />

(Prof. Giesen) an der Universität Konstanz, mit Professuren von Universitäten in<br />

mehreren Bun<strong>des</strong>ländern und mit dem DFKI in Saarbrücken, mit der Medizinischen<br />

Klinik <strong>des</strong> Klinikums Chemnitz, mit dem Deutschen Diabetes-Forschungsinstitut in<br />

Düsseldorf (Prof. Kolb) und mit der prudsys AG Chemnitz.<br />

2.5.3 Forschungsvorhaben<br />

BMBF – Forschungsprojekt: Data Mining Tutor: Ein generisches Konzept für das<br />

Lehren und Lernen im Internet (DaMiT)<br />

Das Verbundvorhaben DaMiT wird von 10 Professoren an Universitäten und<br />

Hochschulen in 10 Bun<strong>des</strong>ländern vertreten. Die Zusammensetzung <strong>des</strong> Konsortiums<br />

zielt, neben der fachübergreifenden Kompetenz, auf einen breiten Einsatz aller<br />

Ergebnisse von DaMiT in der Lehre und auf das Erreichen von großen<br />

Studentenzahlen in unterschiedlichen Fakultäten.<br />

Das DaMiT-System erlaubt es, eine neue Qualität der Lehre und <strong>des</strong> Studiums an<br />

Universitäten und Fachhochschulen zu praktizieren und Studierende<br />

unterschiedlicher Fakultäten zu erreichen. Die Spezifik von DaMiT besteht darin,<br />

dass der Gegenstand der Lehre und <strong>des</strong> Studiums - die Extraktion von Wissen aus<br />

großen und verteilten Datenbanken sowie aus dem Internet insgesamt - gar nicht<br />

anders realitätsnah behandelt werden kann als im Internet selbst. Es soll gelehrt und<br />

gelernt werden, wie man mit der Informationsflut <strong>des</strong> Internets umgeht, was am<br />

besten im Internet selbst möglich ist.<br />

Im Projekt DaMiT werden die Grundlagen <strong>des</strong> Machine Learning, von der Inductive<br />

Inference bis zum Knowledge Discovery & Data Mining detailliert ausgearbeitet, für<br />

die Lehre im Internet aufbereitet und in ein Tutor-System integriert. Hauptaugenmerk<br />

wird auf die Einbindung von Algorithmen bzw. von umfassenden Systemen zum<br />

Data Mining und Knowledge Discovery gelegt, um dadurch den Studierenden die<br />

praktische Erprobung und Vertiefung der erworbenen Kenntnisse in großen<br />

Datenbanken und im Internet selbst zu ermöglichen.<br />

Für die Verwertung der Ergebnisse von DaMiT gibt es ein 4-stufiges Konzept. Die<br />

ersten beiden Stufen werden bereits in der Phase der Bearbeitung <strong>des</strong><br />

Verbundprojekts realisiert.<br />

49


Das DaMiT-System kommt schon im Zuge der Projektbearbeitung in 10<br />

Bun<strong>des</strong>ländern zum Einsatz und wird in Studiengängen V der Informatik, der<br />

Wirtschaftsinformatik und der Betriebswirtschaft eingesetzt. Darüber hinaus wird das<br />

DaMiT-System schon während seiner Projektlaufzeit - in Kooperation mit führenden<br />

Software-Häusern auf dem Gebiet <strong>des</strong> Data Mining - kommerzielle Dienste anbieten.<br />

DFG Forschungsprojekt „Neue Medien im Alltag“; Teilprojekt 2: Modellierung und<br />

Simulation der Rezeption textuell repräsentierter Inhalte im Internet.<br />

Das Projekt wurde im Juni 2003 abgeschlossen. Das Internet bietet die Möglichkeit<br />

der nutzerspezifischen Beschaffung, Auswahl und Präsentation von Informationen. In<br />

dem Forschungsvorhaben werden Konzepte für eine realitätsnahe<br />

Nutzermodellierung unter Berücksichtigung von Erkenntnissen aus der<br />

sprachwissenschaftlichen und psychologischen Forschung erarbeitet. Dazu wird ein<br />

Modell für den Internet-Nutzer entwickelt, das sich für eine Simulation auf dem<br />

Computer eignet. Dieses Modell kann in zweierlei Weise verwendet werden: Die<br />

Resultate der empirischen sprachwissenschaftlichen und psychologischen Forschung<br />

werden an ihm überprüft, d.h. es ist als Werkzeug für die Prüfung von Theorien und<br />

zur Erzeugung von Hypothesen benutzbar, und es gibt Hinweise für die Definition<br />

einer fortgeschrittenen Agentenarchitektur für Informationsagenten.<br />

DFG Forschungsprojekt: Sozionik: „Erforschung und Modellierung künstlicher<br />

Sozialität; Thema: Erarbeitung eines soziologisch motivierten Ansatzes zur<br />

Strukturdifferenzierung in Multiagentensystemen<br />

Das Sozionik-Projekt wurde im September 2003 abgeschlossen. Es wurde ein<br />

Multiagentensystem entwickelt, welches die Untersuchung der Entstehung sozialen<br />

Verhaltens unter bestimmten Bedingungen erlaubt. Im Vordergrund stand die<br />

Koordination und Kooperation vieler Agenten durch symbolische Kommunikation.<br />

Basis <strong>des</strong> Projektes war die Zusammenarbeit mit unseren Projektpartnern am<br />

Fachbereich für Soziologie an der Universität Konstanz. Durch diese<br />

Zusammenarbeit verfolgte das Projekt eine soziologisch plausible Fundierung<br />

sozialer Fähigkeiten von künstlichen Agenten. Nachdem grundlegende<br />

Lernmechanismen an Hand von überschaubaren Problemen erarbeitet wurden, stand<br />

in einer zweiten Projektphase vor allem komplexere Anwendungen im Vordergrund.<br />

Eine solche Anwendung konnte unter anderem erfolgreich in einer Diplomarbeit und<br />

zwei Studienarbeiten bearbeitet werden. Die Resultate dieser Arbeiten zeigten, dass<br />

der gewählte Ansatz, wie von Beginn an intendiert, sehr gut skaliert und dass sich<br />

auch in komplexeren Anwendungsfeldern einheitliche, von allen Agenten in gleicher<br />

Weise verstandene Kommunikationssymbole etablieren. Um Umfeld <strong>des</strong> Projektes<br />

wurden weitere Studien- und Diplomarbeiten zum Lernen in spieltheoretischen<br />

Anwendungen und zur Bildung von Erwartungserwartungen bei Agenteninteraktionen<br />

bearbeitet. Zwei Diplomarbeiten waren bis zum Projektende begonnen, aber noch<br />

nicht abgeschlossen.<br />

50


Projekt der Volkswagenstiftung<br />

Das Projekt stellt national vergleichend die Frage nach innovativen Prozessen in der<br />

Softwareentwicklung. Zwei der Technologie-Regionen befinden sich in den USA und<br />

zwei in Deutschland. Jeweils eine Region in den USA ist mit einer in Deutschland<br />

vergleichbar im Hinblick auf die nationale Bedeutung der dortigen IT-Branche und<br />

die räumliche Struktur der Region. Sowohl im Gebiet um Seattle als auch um<br />

Karlsruhe (bezeichnet als Technologie-Region Karlsruhe) hat die IT-Branche<br />

mittlerweile nationale Bedeutung. Die Städte Seattle und Karlsruhe bilden in beiden<br />

Regionen den zentralen Mittelpunkt. Das Forschungsdreieck Raleigh-Durham-Chapel<br />

Hill und die Wirtschaftsregion Südwestsachsen (mit den Städten Chemnitz-Zwickau-<br />

Plauen) haben trotz Werbung mit dem Forschungspotential ihrer Hochschulen und<br />

trotz vergleichbarer Programme zur Förderung von Unternehmensgründungen in der<br />

IT-Branche keine vergleichbare nationale Bedeutung erlangt. Beide Regionen sind<br />

als netzwerkartige Städtepartnerschaften organisiert.<br />

Auch in kleinen Softwareunternehmen entstehen Innovationen in kontingenten<br />

sozialen Prozessen. Auf regionaler Ebene ist die überbetriebliche und institutionelle<br />

Vernetzung <strong>des</strong> Unternehmens von Bedeutung, wenn es um innovative<br />

Softwareentwicklungsprozesse geht. Die verschiedenen Formen der Zusammenarbeit<br />

lassen sich anhand der anfänglichen Motivation für den Zusammenschluss, der<br />

gemeinsamen Ziele, der Struktur <strong>des</strong> Netzwerks und <strong>des</strong> Verlaufs der<br />

Zusammenarbeit charakterisieren. Akteure, die in der überbetrieblichen Vernetzung<br />

eine Rolle spielen, sind Mitarbeiter in anderen Unternehmen, in öffentlichen und<br />

politischen Institutionen, in Banken und Universitäten. Auf organisatorischer Ebene<br />

zeigt sich Innovation darin, wie die Organisation das Dilemma der<br />

Kontextualisierung von Software, das Dilemma der Kommunikation im Unternehmen<br />

und der Autonomie der SoftwareentwicklerInnen, ihrer Motivation und Kontrolle zu<br />

lösen vermag. Dabei interessiert sowohl die formale Lösung als auch der informelle<br />

Verlauf der tatsächlichen Softwareentwicklung. Innovation auf individueller Ebene<br />

hat mit der Wahrnehmung, Toleranz und dem bewussten Einsatz von Arbeitsstilen zu<br />

tun. Arbeitsstile bei SoftwareentwicklerInnen setzen sich aus der Art und Weise der<br />

Programmierung, den Interessengebieten der SoftwareentwicklerInnen sowie ihrem<br />

Kooperationsmuster zusammen. Für die empirische Untersuchung werden jeweils<br />

fünf kleine Softwareunternehmen aus den vier als untersuchten Regionen als<br />

Fallbeispiele herangezogen. Qualitatives Sampling hilft bei der Auswahl der Fälle. In<br />

den Fallstudien werden themenorientierte Leitfadeninterviews und protokollierte<br />

Feldbeobachtungen methodisch kombiniert.<br />

51


2.5.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Schäfer, M., Dilger, W.: Representation and training of vector graphics with<br />

NRAAM networks. Proceedings of the International Joint Conference on Neural<br />

Networks 2003, Portland, Oregon, 473-477<br />

Schäfer, M., Dilger, W.: Training and holistic computation of vector graphics with<br />

Hebbian bases in contrast to RAAM networks. Proceedings of the International Joint<br />

Conference on Neural Networks 2003, Portland, Oregon, 1667-1672<br />

Langner, H: Ein verteiltes, taskbezogenes Lernerassistenzkonzept für das Webgestützte<br />

Lernen. Tagungsband LIT'03, Leipzig 24. - 26.09.2003, Akademische<br />

Verlagsgesellschaft Aka GmbH, Berlin 2003, S. 171-182, ISBN: 3-89838-047-5<br />

Langner, H., Schmidsberger, F., Dilger, W.: Ein erweiterbares Architekturkonzept<br />

zur aktiven Lernermodellierung für das Web-gestützte Lernen. 11. GI-Workshop<br />

"Adaptivität und Benutzermodellierung in interaktiven Softwaresystemen" (ABIS<br />

2003), In: A. Hotho, G. Stumme (Hrsg.): Proceedings der Workshopwoche "Lehren-<br />

Lernen-Wissen-Adaptivität 2003" (LLWA 03), Karlsruhe, 06. - 08.10.2003,<br />

S. 307 - 315<br />

Dilger, W., Zeidler, J.: Data-Mining-Cup – mehr als ein Studentenwettbewerb.<br />

Proceedings 2. Workshop GI-AK Knowledge Discovery, Leipzig, S. 39 - 44<br />

Dissertationen<br />

Wellner, J.: Selbstorganisierende Kommunikationssysteme für Multiagentensysteme,<br />

09.12.2003<br />

Diplomarbeiten<br />

Hofmann, F.: Benutzer-adaptive Verfahren für die aktive Lernmodellierung,<br />

November 2003<br />

Thau, T.: Ein evolutionäres Design für die Struktur Neuronaler Netze, September<br />

2003<br />

Pletschacher, St.: Untersuchungen zur Einsetzbarkeit der Support Vektor Maschine<br />

für die Analyse realer Daten, April 2003<br />

Schäfer, M.: Erlernen und Modifizieren von Vektorgrafiken mit RAAM-Netzen,<br />

April 2003<br />

52


Projektarbeiten<br />

Parthey, J.: Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch<br />

Erweiterung eines klassischen Backpropagation-Simulators, März 2003<br />

Seifert, Ch.: Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch<br />

Erweiterung eines klassischen Backpropagation-Simulators, März 2003<br />

Changxing, D.: Visualisierung von Data-Mining-Ergebnissen medib zinischer<br />

Daten, April 2003<br />

Lässig, J.: Strukturentwurf eines dynamisch aufgebauten Fertigungsmanagementsystems<br />

und Entwicklung echtzeitorientierter Einplanungsstrategien für<br />

Produktionsaufträge, April 2003<br />

Thierfelder, T.: Formalisierung, Simulation und Auswertung eines<br />

Erwartungserwartungsansatzes in zwei Versionen für einfache Agentenspiele,<br />

April 2003<br />

Kirillov, A.: Umweltpräsentation für einen Robotereinsatz im Außenbereich,<br />

Dezember 2003<br />

2.5.5 Vorträge<br />

Dilger, W.: Analyse räumlicher Daten (Spatial Data Mining). Sommerschule<br />

Kartografie, Kartografisches Institut der TU Dresden, 25.09.2003<br />

Langner, H.: Ein verteiltes, taskbezogenes Lernerassistenzkonzept für das Webgestützte<br />

Lernen. LIT'03, Leipzig (HTWK), 24.09.2003<br />

Langner, H.: Ein erweiterbares Architekturkonzept zur aktiven Lernermodellierung<br />

für das Web-gestützte Lernen. 11. GI-Workshop "Adaptivität und<br />

Benutzermodellierung in interaktiven Softwaresystemen" (ABIS 2003), Karlsruhe,<br />

06.10.2003<br />

Thierfelder, T.; Wellner, J.: Untersuchungen zur erwartungsgesteuerten Interaktion.<br />

Projekttreffen <strong>des</strong> DFG-SPP Sozionik in Seeon, 28.06.2003<br />

Zeidler, J.: Data-Mining-Cup – mehr als ein Studentenwettbewerb. 2. Workshop GI-<br />

AK Knowledge Discovery, Universität Leipzig, 25.02.2003<br />

53


2.5.6 Mitarbeit in Gremien<br />

Dilger, W.:<br />

- Aufsichtsrat prudsys AG<br />

- Jury <strong>des</strong> 4. Data Mining Cups 2003<br />

Zeidler, J.:<br />

- Aufsichtsrat prudsys AG<br />

Nieländer, U.:<br />

- Jury-Mitglied beim „Jugend forscht“ – Regionalwettbewerb Südwestsachsen<br />

- Mitglied der Studienkommission Wirtschaftsinformatik TU Chemnitz<br />

54


2.6 Professur Modellierung und Simulation<br />

2.6.1 Personelle Zusammensetzung<br />

Leiter: Prof. Peter Köchel<br />

Sekretariat: Karin Gäbel<br />

Wiss. Mitarbeiter: Dipl.-Math. Jens Flohrer<br />

Dipl.-Inf. Marion Riedel (bis 30.September)<br />

Dipl.-Inf. Ulrike Schönke (bis 30. September)<br />

Dipl.-Math. Moustafa M.S. El-Ashry (Promotionsstudent)<br />

Dipl.-Inf. Michael Kämpf (Promotionsstudent)<br />

2.6.2 Kurzbeschreibung der Professur<br />

Modellierung und Simulation bedeutet im wesentlichen, mittels geeigneter<br />

mathematischer Modelle existierende oder zu entwerfende Systeme zu untersuchen<br />

und bezüglich eines vorgegebenen Bewertungskriteriums zu optimieren. Derartige<br />

Systeme können z. B. sein ein Rechnersystem, ein Fertigungssystem, ein<br />

ökonomisches System. Die Interessen konzentrieren sich dabei auf ereignisdiskrete<br />

Systeme mit zufälligen Einflussfaktoren.<br />

Sowohl in der Lehre als auch in der Forschung werden zwei Richtungen vertreten.<br />

Zum einen wird versucht, über die Nutzung vorhandener bzw. die Entwicklung neuer<br />

analytischer Modelle entsprechende Aufgabenstellungen zu lösen. Ist die reale<br />

Situation jedoch so komplex, dass sie nicht hinreichend exakt durch ein analytisches<br />

Modell dargestellt werden kann, wird zur Simulation übergegangen. In jedem Fall<br />

wird der Optimierungsaspekt beachtet.<br />

Im Einzelnen befasst sich die Professur mit drei Schwerpunkten:<br />

- Leistungsbewertung komplexer stochastischer Systeme,<br />

- Verbindung von Simulation und Genetischen Algorithmen für eine<br />

simulationsbasierte Optimierung komplexer stochastischer Systeme und<br />

- Nutzung der simulationsbasierten Optimierung zur optimalen Steuerung von<br />

Logistik-, Lagerhaltungs-, Fertigungs- und Informatiksystemen.<br />

55


2.6.3 Forschungsvorhaben<br />

Design und optimale Steuerung von hierarchischen Systemen<br />

Bis 2001 waren die innerhalb der Professur durchgeführten Forschungsarbeiten auf<br />

die Entwicklung von Methoden und Werkzeugen zur Optimierung ereignisdiskreter<br />

Prozesse konzentriert. Im Jahre 2002 rückte verstärkt die Anwendung auf wichtige<br />

Praxisfälle in den Mittelpunkt. Praxiskontakte zeigten, dass ein großer Bedarf nach<br />

Lösungen für den Entwurf und die Steuerung von Systemen mit folgenden typischen<br />

Eigenschaften besteht:<br />

- das System besteht aus räumlich verteilten Elementen,<br />

- die Systemelemente sind zumin<strong>des</strong>t über Informations- und Transportkanäle<br />

miteinander verbunden,<br />

- das System soll eine zufällige dynamische Last bedienen,<br />

- über die zu bedienende Last gibt es nur unvollständige Information,<br />

- die dazu zur Verfügung stehenden Ressourcen sind endlich, aber teilbar,<br />

- zur Steuerung <strong>des</strong> Systems existiert oder ist zu entwickeln eine<br />

Steuerungshierarchie und<br />

- das Systemziel kann in der Regel nicht durch explizite mathematische Funktionen<br />

beschrieben werden.<br />

Ein Anwendungsfall ist für uns von besonderem Interesse. Dieser führt auf sogenannte<br />

Multi - Echelon Modelle, die z. B. zur Optimierung der Bestell- und Lieferbeziehungen<br />

innerhalb großer Handelsketten genutzt werden können. Ein anderes Beispiel ist der<br />

Entwurf optimaler Dienstleistungsstrukturen mit entsprechender Ersatzteileversorgung<br />

für bestimmte Massengüter (Autos, Haushaltgeräte u. ä.). In diesen Systemen entsteht<br />

der unmittelbare Bedarf in den Filialen. In Abhängigkeit von den dort verfügbaren<br />

Beständen bestellen die Filialen bei gewissen Regionallagern neue Ressourcen, die<br />

Regionallager bestellen wiederum bei bestimmten Zentrallagern, die ihrerseits z. B.<br />

beim Hersteller der einzelnen Produkte bestellen. Für diese gesamte Hierarchie eine<br />

optimale Wirkungsweise zu realisieren wird mit analytischen Modellen nicht möglich<br />

sein. Basierend auf dem an der Professur verfügbaren Knowhow zur<br />

simulationsbasierten Optimierung, zur adaptiven Steuerung von Systemen mit<br />

unvollständiger Information und zur verteilten und parallelen Verarbeitung wurden<br />

erste Lösungsansätze entwickelt und implementiert. Dabei haben wir bewusst den an<br />

der TU Chemnitz verfügbaren Parallelrechners CLiC genutzt.<br />

Das an der Professur gesammelte Knowhow und die vorhandenen technischen<br />

Möglichkeiten mündeten 2003, neben verschiedenen Veröffentlichungen und Vorträgen<br />

auf internationalen Konferenzen, in einem Einzelantrag an die DFG mit dem Thema<br />

„Simulationsbasierte Optimierung von Lagerhaltungs- und Logistikprozessen in<br />

mehrstufigen Produktions- und Distributionsnetzen“. Dieser Antrag befindet sich noch<br />

in der Begutachtungsphase.<br />

56


Simulationsbasierter optimaler Entwurf von KANBAN-Systemen<br />

Die Arbeiten an dem für den optimalen Entwurf von KANBAN-Systemen<br />

vorgesehenen Simulator KaSimIR (Kanban Simulation Imaniging Reality) wurden<br />

2003 zu einem vorläufigen Abschluss gebracht. Damit kann über die Verwendung<br />

von KaSimIR das Prinzip der KANBAN-Steuerung auch für das Design und die<br />

optimale Steuerung von hierarchischen Systemen, wie unter Punkt Design und<br />

optimale Steuerung von hierarchischen Systemen beschrieben, eingesetzt werden.<br />

KANBAN-Systeme modellieren mehrstufige Logistik- oder Produktionsprozesse, in<br />

denen eine Abstimmung zwischen den einzelnen Stufen <strong>des</strong> Gesamtprozesses durch<br />

Container gegebenen Umfanges (Losgröße) wie in einem Regelkreis erfolgt. Diese<br />

Container zirkulieren zwischen zwei aufeinanderfolgenden Stufen entsprechend<br />

einfacher Regeln: Hat die Vorgängerstufe einen Container gefüllt, so wird er zum<br />

Nachfolger transportiert, sobald dort ein Platz für einen gefüllten Container frei ist.<br />

Hat die Nachfolgerstufe einen Container geleert, so wird er zur Vorgängerstufe<br />

zurückbefördert. Das Optimierungsproblem besteht darin, solche Containeranzahlen<br />

und Losgrößen zu bestimmen, so dass ein Zielkriterium optimiert wird. Im<br />

Unterschied zu bisher bekannten Untersuchungen werden von uns sowohl die<br />

Containeranzahlen als auch die Lösgrößen optimiert. Des weiteren dient als<br />

Zielkriterium der im Mittel je Zeiteinheit zu erwartende Gewinn aus dem Verkauf an<br />

Fertigprodukten abzüglich der entsprechend zu erwartenden Kosten aus<br />

Kapitalbindung, aus dem Warten und dem Abweisen von Kunden sowie dem<br />

Transport der Container.<br />

Über eine Kopplung von KaSimIR mit Genetischen Algorithmen gelingt es,<br />

Probleme der optimalen Steuerung und <strong>des</strong> optimalen Entwurfs von mehrstufigen<br />

Systemen mit praktisch beliebiger Struktur zu lösen. Hinsichtlich dieses<br />

simulationsbasierten Zuganges zur Optimierung von KANBAN-Systemen bestätigen<br />

die erreichten Ergebnisse und das gesammelte Know-How, dass die Professur auf<br />

dem beschriebenen Gebiet eine führende Position einnimmt.<br />

Simulationsbasierte Lösungen für das Fleet-Sizing-and-Allocation Problem (FSAP)<br />

Ein weiteres Thema zur Anwendung der simulationsbasierten Optimierung befasst<br />

sich mit der Bestimmung optimaler Flottengrößen und Umverteilungsstrategien für<br />

komplexe Logistiksysteme mit mehreren Standorten (Transportunternehmen,<br />

Autovermietungen, Containerverkehr, ...), in denen ein stochastischer Bedarf nach<br />

entsprechenden Ressourcen entsteht. Beim Fleet-Sizing-and-Allocation Problem<br />

(FSAP) sind sowohl die für das Gesamtsystem verfügbaren Ressourcen zu wählen als<br />

auch entsprechende Umverteilungen, die sich infolge der Ressourcenverlagerungen<br />

im System ergeben. Als Kriterium dienen die je Zeiteinheit zu erwartenden Kosten<br />

aus Anschaffung, Wartung, Betreibung und Umverteilung der Ressourcen als auch<br />

der Kosten, die durch Warten und Abweisen von Kundenanforderungen entstehen.<br />

57


Für gegebene Strategien kann eine Bewertung nur mittels Simulation erfolgen. Ein<br />

entsprechen<strong>des</strong> Simulationsmodell wurde weiterentwickelt und eine parallele<br />

Variante auf dem Chemnitzer Linux-Cluster CliC implementiert. Genetische<br />

Algorithmen dienen wieder dazu, bisher betrachtete Strategien zu verbessern und<br />

entsprechend eines Abbruchkriteriums eine hinreichend effiziente Strategie als<br />

Problemlösung zu empfehlen. Während aus der Literatur Lösungen nur unter für die<br />

Praxis relativ einschränkenden Annahmen und bekannten Bedarf bekannt sind,<br />

erlaubt unser Zugang Lösungen für beliebig verteilten Bedarf und praxisnahe<br />

Problemformulierungen. Im Jahre 2003 wurden verstärkt Systeme mit einer<br />

sogenannten Hub-and-Spoke Struktur untersucht. Entsprechende Ergebnisse wurden<br />

im Forschungsseminar der Professuren KI und Modellierung und Simulation<br />

vorgestellt (siehe http://www.tu-chemnitz.de/informatik/HomePages/ModSim/<br />

forschungsseminar.php).<br />

Optimale Bewirtschaftung von Waldlandschaften unter Beachtung verschiedener<br />

Nutzungen und der räumlichen Verteilung der Bestände und Nutzungen<br />

Nach längerer Vorbereitung wurde für die Professur ein Thema aktuell, das in<br />

Zusammenarbeit mit der TU München bearbeitet wird und auf den ersten Blick nicht<br />

mit einer Fakultät für Informatik verbunden scheint. Die auf der Tagesordnung<br />

stehende nachhaltige Waldwirtschaft erfordert u. a. eine möglichst günstige<br />

Bewirtschaftung zusammenhängender Waldbestände, wobei sowohl die<br />

verschiedensten Nutzungsarten und Nutzer als auch die unterschiedlichsten<br />

Merkmale je<strong>des</strong> Einzelbestan<strong>des</strong> zu beachten sind. Als Entscheidungsunterstützung<br />

hierbei sind quantitative Untersuchungen und Aussagen mit Hilfe geeigneter Modelle<br />

notwendige Voraussetzungen. Während in der Vergangenheit entwickelte Modelle<br />

nur einzelne Fragen der optimalen Waldwirtschaft behandeln, beziehen unsere<br />

Untersuchungen einen ganzen Komplex relevanter Aspekte in die Betrachtung ein.<br />

Zu diesem Zwecke wird ein System hierarchisch strukturierter Modelle entwickelt,<br />

welche die verschiedenen problemrelevanten Prozesse abbilden. In den unteren<br />

Hierarchieebenen werden Modelle einbezogen, welche zur Abbildung sowohl der<br />

forstwissenschaftlichen als auch der wirtschaftlichen Prozesse dienen. Die obere<br />

Ebene ist für die Entscheidungsfindung zuständig. Wir gehen davon aus, dass wegen<br />

der Komplexität der sich ergebenden Optimierungsprobleme klassische Verfahren<br />

allein nicht zur Lösungsfindung taugen. Darum orientieren wir auf eine<br />

simulationsbasierte Optimierung als wesentlichen Lösungszugang. Dieser zeichnet<br />

sich dadurch aus, dass zum einen in der oberen Hierarchieebene neben klassischen<br />

Optimierungsverfahren Meta-Heuristiken wie Genetische Algorithmen angesiedelt<br />

sind, und dass zum anderen eine Bewertung von Entscheidungen mittels Simulation<br />

erfolgt. Es ist vorgesehen, die gesamte Modellhierarchie als prototypisches<br />

Softwareprodukt zu implementieren und an realen Daten zu testen.<br />

Diese Arbeiten sollen im Rahmen eines 2003 an die DFG gestellten Förderantrages<br />

erfolgen. Der Antrag befindet sich zur Zeit in der Phase der Begutachtung.<br />

58


2.6.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Köchel, P., Kunze, S., Nieländer, U.: Optimal control of a distributed service<br />

system with moving resources: Application to the fleet sizing and allocation problem.<br />

Internat. Journal of Production Economics, v. 81-82 (2003), 443 - 459<br />

Köchel, P.: Solving logistic problems through simulation and evolution. SOR’03,<br />

Proceedings of the 7 th International Symposium on Operational Research, Podčetrtek,<br />

Slovenia, 24. – 26.09.2003, pp. 9-15, ISBN 961-6165-15-1<br />

Diplomarbeiten<br />

Kämpf, M.: Über parallele Lösungen <strong>des</strong> Fleet-Sizing-and-Allocation Problems<br />

Pippig, V.: Simulationsbasierte Optimierung der Lagerhaltung mehrerer<br />

Ersatzteilearten an verschiedenen Orten mit Anwendung auf die Motorenwerke von<br />

VW<br />

Projektarbeiten<br />

Plontke, R.: Simulationsbasierte Optimierung eines Mehrlagersystems unter<br />

Verwendung der High Level Architektur (HLA)<br />

2.6.5 Vorträge<br />

Köchel, P.: Modellbildung und Ethik. Forschungsseminar „KI und Modellierung und<br />

Simulation“, Fakultät für Informatik der TU Chemnitz, Februar 2003<br />

Riedel, M., Köchel, P.: Performance Evaluation of Parallel Genetic Algorithms for<br />

Optimization Problems of Different Complexity. Dresden, September 2003,<br />

PARCO’03<br />

Köchel, P. (keynote speaker): Solving Logistic Problems through Simulation and<br />

Evolution. 7 th International Symposium on Operational Research SOR’03,<br />

Podcetrtek, Slovenia, 24. - 26.09.2003<br />

Köchel, P.: Ein hybrider Zugang zur Optimierung komplexer Systeme.<br />

Forschungsseminar „KI und Modellierung und Simulation“, Fakultät für Informatik<br />

der TU Chemnitz, Oktober 2003<br />

59


Köchel, P.: Das Fleet-Sizing-and-Allocation Problem: Lösungen für Hub-and-Spoke<br />

Systeme. Forschungsseminar „KI und Modellierung und Simulation“, Fakultät für<br />

Informatik der TU Chemnitz, Dezember 2003<br />

2.6.6 Mitarbeit in Gremien<br />

Köchel, P.:<br />

- Dekan der Fakultät für Informatik (bis März 2003)<br />

- Mitglied <strong>des</strong> Senates der TU Chemnitz (bis März 2003)<br />

- Mitglied der Senatskommission Lehre und Studium (bis März 2003)<br />

- Member of the Auditing Committee of the Internat. Society of Inventory Research<br />

- Programming Committee of the ICTS 2002, Portorose (Slovenien)<br />

Riedel, M.:<br />

- Organisationskomitee 5. Chemnitzer Linux-Tag 2003<br />

Schönke, U.:<br />

- Gleichstellungsbeauftragte der Fakultät für Informatik, TU Chemnitz<br />

60


2.7 Professur Praktische Informatik<br />

2.7.1 Personelle Zusammensetzung<br />

Leiter: Prof. Gudula Rünger<br />

Sekretariat: Christine Irmisch<br />

Wiss. Mitarbeiter: Dipl.-Inf. Judith Hippold<br />

Dipl.-Inf. Matthias Kühnemann<br />

Dipl.-Inf. Robert Reilein-Ruß<br />

Dipl.-Inf. Thoralf Rübner<br />

Dipl.-Inf. Sven Trautmann<br />

2.7.2 Kurzbeschreibung der Professur<br />

Der Schwerpunkt der Forschungs- und Lehrtätigkeit der Professur Praktische<br />

Informatik konzentriert sich auf die Gebiete Programmiersprachen,<br />

Compilerwerkzeuge, Algorithmen und Transformationsmethoden, insbesondere im<br />

Hinblick auf die Programmierung und Softwareentwicklung für innovative<br />

Rechenplattformen und Parallelrechner. Im Vordergrund steht hierbei die effiziente<br />

Realisierung von Anwendungen aus dem wissenschaftlich-technischen Bereich und<br />

anderer Anwendungen durch Einsatz von Werkzeugen und Methoden der genannten<br />

Gebiete.<br />

2.7.3 Forschungsvorhaben<br />

Compilerwerkzeuge für Parallelrechner, NIC-Projekt<br />

(M. Kühnemann, R. Reilein-Ruß, G. Rünger)<br />

Gegenstand dieses Projektes ist der Entwurf eines für Anwendungen aus dem Bereich<br />

<strong>des</strong> wissenschaftlichen Rechnens geeigneten analytischen Modells, das die<br />

Vorhersage von realistischen Laufzeiten auf parallelen Maschinen mit gemeinsamem<br />

und verteiltem Speicher erlaubt. Das Vorhersagemodell ist zur Integration in<br />

Compilerwerkzeuge geeignet. Zur Evaluierung <strong>des</strong> Vorhersagemodells und dem<br />

darauf aufsetzenden Berechnungsmodell wird eine große Anzahl von<br />

Laufzeitmessungen für hohe Prozessoranzahlen und für verschiedene parallele<br />

Algorithmen benötigt. Der Schwerpunkt liegt auf der Implementierung eines<br />

Compilerwerkzeuges und der Integration von programmorientierten Kostenmodellen<br />

für Speicherhierarchien in das Vorhersagemodell. Das Forschungsvorhaben wird als<br />

Projekt am NIC (John-von-Neumann Institut for Computing), Jülich, durchgeführt.<br />

61


Partitionierungsalgorithmen für Modelldatenstrukturen zur parallelen compilergesteuerten<br />

Logiksimulation<br />

(K. Hering, G. Rünger, W. G. Spruth, S. Trautmann)<br />

Im Rahmen <strong>des</strong> seit 1995 durch die DFG geförderten Projektes sind in Kooperation<br />

mit IBM mit dem Ziel einer signifikanten Prozessbeschleunigung drei auf lose<br />

gekoppelten Prozessorsystemen arbeitende parallele Simulatoren (parallel TEXSIM,<br />

parallelMVLSIM, dlbSIM) und eine der Vorbereitung paralleler Simulationen<br />

dienende Modellpartitionierungskomponente parallelMAP entstanden. Die<br />

Leistungsfähigkeit der parallelen Simulatoren ist wesentlich durch die vorangehende<br />

Modellpartitionierung bestimmt. Durch eine hierarchische Partitionierungsstrategie,<br />

welche die Kombination, den Wettbewerb und die Resultatverschmelzung von<br />

Algorithmen gestattet, werden neue Partitionierungsalgorithmen für<br />

Prozessormodelle entwickelt, untersucht und implementiert. Entsprechende<br />

Partitionierungsprozesse verkörpern ein BOTTOM-UP Clustering ausgehend von<br />

sogenannten fan-in-cones als elementare Bausteine. Das DFG Kooperationsprojekt<br />

mit der Universität Leipzig (W. G. Spruth) gehört zum DFG-Schwerpunktprogramm<br />

Effiziente Algorithmen für diskrete Probleme und ihre Anwendungen.<br />

Programmorientierte Kostenmodelle für Speicherhierarchien, DFG-Projekt<br />

(M. Kühnemann, T. Rauber, G. Rünger)<br />

Ziel <strong>des</strong> Projektes ist die Identifikation von zur Compilezeit analysierbaren<br />

Eigenschaften eines parallelen Programms, die die Lokalität der Speicherzugriffe und<br />

damit die Effizienz <strong>des</strong> Programms bestimmen. Die Basis bildet ein Kostenmodell,<br />

das die Laufzeitmodellierung paralleler Programme auf Rechnern mit<br />

Speicherhierarchien gestattet und das als Grundlage für den Vergleich von<br />

Programmversionen und zur Steuerung von optimierenden Transformationen dienen<br />

soll. Dieses Projekt unterteilt sich in drei Teilgebiete:<br />

- Die Realisierung eines Compilerwerkzeuges zur Quelltextanalyse und Erstellung<br />

von Laufzeitfunktionen.<br />

- Die Verfeinerung <strong>des</strong> Kostenmodells durch programmbasierte Kostenmaße für die<br />

Lokalität von Speicherzugriffen.<br />

- Laufzeitmodellierungen zur Optimierung von kollektiven MPI-<br />

Kommunikationsoperationen durch orthogonale Prozessorgruppen.<br />

Parallelisierung irregulärer numerischer Algorithmen, Teilprojekt B8 SFB 393<br />

(J. Hippold, T. Rübner, G. Rünger)<br />

Die Klasse der irregulären Algorithmen umfasst Anwendungen mit dünnbesetzten,<br />

blockstrukturierten oder bei adaptiven Verfahren auch zeitlich variierenden<br />

Datenstrukturen sowie Anwendungen mit unregelmäßigen, laufzeitabhängigen<br />

Berechnungs- und Kontrollstrukturen.<br />

62


Ziel <strong>des</strong> Projektes ist die effiziente parallele Umsetzung verschiedener irregulärer<br />

Anwendungen auf Rechnern mit verteiltem Speicher und heterogenen Plattformen.<br />

Dafür sollen universal einsetzbare und leicht handhabbare<br />

Parallelisierungswerkzeuge entwickelt werden, die durch Hinzufügen algorithmenspezifischer<br />

Komponenten für verschiedenste Anwendungsprobleme nutzbar sind.<br />

Derzeit stehen Task Pool Teams für SMP und PC Cluster zur Verfügung. Sie<br />

kombinieren Shared Memory Programmierung mit Message Passing und<br />

ermöglichen dem Nutzer task-orientierte Programmierung mit asynchroner<br />

Kommunikation zwischen den Task-bearbeitenden Threads unterschiedlicher<br />

Clusterknoten. Eine parallele Implementierung <strong>des</strong> Hierarchischen Radiosity<br />

Algorithmus und eines globalen Optimierungsverfahrens mit Task Pool Teams sind<br />

bereits erfolgt.<br />

Parallelisierung eines dreidimensionalen Atmosphärenmodells<br />

(R. Reilein-Ruß, T. Rübner, G. Rünger, M. Schwind)<br />

Mit Unterstützung durch das GKSS Geesthacht erfolgt eine Parallelisierung <strong>des</strong><br />

mesoskaligen Atmosphärenmodells GESIMA, das einen Ausschnitt der Atmosphäre<br />

als dreidimensionales Gitter simuliert und über einen Zeitraum von 12 h bis 48 h<br />

verschiedene prognostische Variablen, darunter den Luftdruck (nicht-hydrostatisch),<br />

die Temperatur, die Windgeschwindigkeit und den Wassergehalt der Atmosphäre<br />

berechnet. Die Implementierung <strong>des</strong> parallelen Co<strong>des</strong> erfolgt unter Verwendung von<br />

Fortran 95 und MPI. Die einzelnen Subroutinen werden als separate Module<br />

implementiert, welche auf einer Gruppe von Prozessoren ausgeführt werden können.<br />

Durch diese Vorgehensweise wird eine gemischt task- und datenparallele<br />

Implementierung ermöglicht. Im Rahmen dieses Projektes besteht eine<br />

Zusammenarbeit mit C. Koziar, DWD Offenbach sowie H. Kapitza, GKSS<br />

Geesthacht.<br />

Zweistufige parallele Programmiermodelle für Anwendungsprogramme<br />

(T. Rauber, R. Reilein-Ruß, G. Rünger)<br />

Dieses Projekt konzentriert sich auf die Untersuchung der Ausnutzung zweistufiger<br />

Parallelität in Anwendungsprogrammen zur Verbesserung der parallelen Effizienz<br />

und Skalierbarkeit. Dabei werden zwei Stufen der Parallelität betrachtet, eine obere<br />

taskparallele und eine untere datenparallele Stufe. Die untere Stufe besteht aus<br />

Modulen, die jeweils auf einer parallelen Gruppe von Prozessoren ausgeführt werden<br />

können. Die obere Stufe kann hierarchisch untergliedert sein und aus mehreren<br />

Schichten bestehen. Auf jeder Hierarchieschicht erfolgt eine Zerlegung der zur<br />

Verfügung stehenden Prozessormenge in Prozessorgruppen.<br />

63


Zur Unterstützung zweistufiger Parallelität in Anwendungsprogrammen werden<br />

verschiedene Compilerwerkzeuge und Programmierbibliotheken weiterentwickelt,<br />

darunter: die ORT Bibliothek (Orthogonale Prozessorgruppen) für<br />

Anwendungsprogramme über n-dimensionalen Taskgittern in denen k-dimensionale<br />

Hyperebenen zur Ausführung von Anwendungsmodulen verwendet werden, das<br />

TwoL Programmiermodell und Compilerwerkzeug zur Ausnutzung zweistufiger<br />

Parallelität mit schrittweiser Transformation eines Spezifikationsprogramms in ein<br />

Koordinationsprogramm und die TLib-Bibliothek zur dynamischen Abarbeitung<br />

hierarchischer, modular strukturierter Programme.<br />

Programmiermodelle für Cluster-Systeme mit gemeinsamem und geteiltem Speicher<br />

(G. Rünger, S. Trautmann)<br />

Rechen-Cluster bestehend aus preiswerten Knoten stellen aufgrund ihres guten Preis-<br />

Leistungs-Verhältnisses eine Alternative zu Supercomputern dar. Seit einiger Zeit<br />

werden immer häufiger kleine SMP-Systeme, mit bis zu 4 Prozessoren, als Cluster-<br />

Knoten eingesetzt. Für die Programmierung von Clustern mit verteiltem Speicher<br />

werden vorrangig Message-Passing-Bibliotheken, wie etwa MPI oder PVM<br />

eingesetzt. Für reine SMP Systeme bieten sich Programmiermodelle wie POSIX<br />

Threads oder OpenMP an. Für die Kombination von gemeinsamem und verteiltem<br />

Speicher in SMP-Cluster-Systemen sind diese Programmiermodelle jedoch nicht oder<br />

nur bedingt geeignet. Untersucht werden verschiedene Möglichkeiten, bestehende<br />

Programmiermodelle für gemeinsamen und verteilten Speicher zu kombinieren und<br />

die gegebene Clusterarchitektur dadurch effizient zu nutzen. Weiter wird die<br />

Kombination von Kommunikationsbibliotheken untersucht, die es erlauben, mehrere,<br />

heterogene (SMP-)Cluster zu verbinden.<br />

2.7.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Hippold, J., Rünger, G.: Task Pool Teams for Implementing Irregular Algorithms<br />

on Clusters of SMPs, Proc. of IPDPS 2003, CD-ROM, ISBN 0-7695-1926-1, Nice,<br />

France, April 2003<br />

Hippold, J., Rünger, G.: A Communication API for Implementing Irregular<br />

Algorithms on SMP Clusters, J. Dongarra, D. Lafarenza, S. Orlando (Eds.): 10th<br />

EuroPVM/MPI 2003, Venice, Italy, LNCS 2840, pp. 455-463, ISBN 3-540-20149-1,<br />

Springer-Verlag Berlin Heidelberg (2003), September 2003<br />

Kühnemann, M., Rauber, T., Rünger, G.: Performance Modeling of Two-phase<br />

Realization of Communication Operations, Proc. of High Performance Computing<br />

Symposium, ASTC 2003, ISBN 1-56555-264-4, pp. 222-230, Orlando, Florida, USA,<br />

April 2003<br />

64


Kühnemann, M., Rauber, T., Rünger, G.: Optimizing MPI Collective<br />

Communication by Orthogonal Structures, Chemnitzer Informatik-Berichte, ISSN<br />

0947-5125, TU Chemnitz, September 2003<br />

Rauber, T., Rünger, G.: Library Support for Hierarchical Multi-Processor Task,<br />

Proc. of the 10 th International Workshop on Compilers for Parallel Computers (CPC),<br />

Amsterdam, Netherlands, Januar 2003<br />

Rauber, T., Rünger, G.: Program-Based Locality Measures for Scientific<br />

Computing, Proc. of the Workshop on Advances in Parallel and Distributed<br />

Computational Models, IPDPS 2003, CD-ROM, ISBN 0-7695-1926-1, Nice, France,<br />

April 2003<br />

Rauber, T., Rünger, G., Trautmann, S.: A distributed hierachical programming<br />

model for heterogeneous cluster of SMPs, Proc. of Workshop on Advances in<br />

Parallel and Distributed Computational Models, IPDPS 2003, CD-ROM, ISBN 0-<br />

7695-1926-1, Nice, France, April 2003<br />

Rauber, T., Reilein-Ruß, R., Rünger, G.: On Compiler Support for Mixed Task<br />

and Data Parallelism, Proc. of ParCo 2003, Dresden, September 2003<br />

Rünger, G., Trautmann, S.: A Comparative Study of MPI Implementations on a<br />

Cluster of SMP Workstations, Proc. of ParCo2003, Dresden, September 2003<br />

2.7.5 Vorträge<br />

Hippold, J.: A Communication API for Implementing Irregular Algorithms on SMP<br />

Clusters, Venice, Italy, 10th EuroPVM/MPI 2003, 30.09.2003<br />

Hippold, J.: Task Pool Teams for Implementing Irregular Algorithms on Clusters of<br />

SMPs, Dagstuhl, Dagstuhl Seminar 03211: Adaptivity in Parallel Scientific<br />

Computing, 19.05.2003<br />

Reilein-Ruß, R.: On Compiler Support for Mixed Task and Data Parallelism,<br />

Dresden, ParCo 2003, 02.09.2003<br />

Rünger, G.: Task Pool Teams for Implementing Irregular Algorithms on Clusters of<br />

SMPs, Nice, Frankreich, IPDPS 2003, 24.04.2003<br />

Rünger, G.: Trends im parallelen und verteilten Hochleistungsrechnen, Universität<br />

<strong>des</strong> Saarlan<strong>des</strong>, Saarbrücken, 30.05.2003<br />

Rünger, G.: Parallelisierung irregulärer Algorithmen, Kolloquiumsvortrag<br />

Universität Paderborn, 15.07.2003<br />

65


Rünger, G.: Parallele Programmiermodelle, CHIC-Symposium, Chemnitz,<br />

16.07.2003<br />

Trautmann, S.: A Comparative Study of MPI Implementations on a Cluster of SMP<br />

Workstations, ParCo 2003, Dresden, 04.09.2003<br />

Trautmann, S.: A Distributed Hierachical Programming Model for Heterogeneous<br />

Cluster of SMPs, Nice, Frankreich, Workshop IPDPS 2003, 22.04.2003<br />

Trautmann, S.: Erfahrungen bei der Installation und vergleichende Messungen zu<br />

verschiedenen MPI - Implementierungen auf einem Dual Xeon Cluster, Löbsal,<br />

Workshop Mensch-Computer-Vernetzung, 16.04.2003<br />

2.7.6 Mitarbeit in Gremien<br />

Rünger, G.<br />

- Prodekan der Fakultät für Informatik (ab April 2003)<br />

- Mitglied der Senatskommission für Haushalt<br />

- DAAD Auswahlkommission INNOVATEC<br />

- Mitglied in Programmkomitees<br />

- Konferenz Cluster 2003, Hong Kong<br />

- Konferenz ParCo 2003, Dresden<br />

- Konferenz CLADE 2003, Seattle<br />

- Challenges of Large Applications in Distributed Environments<br />

- Workshop SPDSEC03<br />

- 2 nd Workshop on Hardware/Software Support for Parallel and Distributed<br />

Scientific and Enginering Computing<br />

- Program Co-Chair PDSECA03<br />

- Program Co-Chair HPC 2003<br />

2.7.7 Sonstiges<br />

Rünger, G.<br />

- Organisation Dagstuhl-Seminar „Adaptivity in Parallel Scientific Computing“<br />

66


2.8 Professur Rechnerarchitektur und Mikroprogrammierung<br />

2.8.1 Personelle Zusammensetzung<br />

Leiter: Prof. Wolfgang Rehm<br />

Sekretariat: Bettina Fless<br />

Wiss. Mitarbeiter: MS Daniel Balkanski<br />

Dipl.-Inf. Mario Trams<br />

Dipl.-Inf. Mike Becher (ab März)<br />

Dipl.-Inf. Torsten Mehlan (ab Oktober)<br />

2.8.2 Kurzbeschreibung der Professur<br />

Die Professur definiert sich über die Fachgebiete Rechnerarchitektur und<br />

Rechnerorganisation, Mikroprozessorsysteme, maschinen- und systemnahe<br />

Programmierung, Parallelrechner und Parallelprogrammierung.<br />

Das Vertiefungsgebiet "Parallele und Verteilte Systeme" ist dieser Professur<br />

zugeordnet. Moderne parallele Rechnersysteme für allgemeine, aber auch spezielle<br />

Anwendungen stellen Kerngebiete dar. Ergänzend zur Lehre werden dazu in<br />

kontinuierlicher Weise verschiedene Projekte im Rahmen angewandter (SFB 393)<br />

und praxisorientierter (KMU) Forschung durchgeführt.<br />

Das Spektrum der Lehrgebiete umfasst Rechnerorganisation und Rechnerarchitektur,<br />

Maschinenorientierte Programmierung, Parallelrechner, Supercomputer sowie<br />

Cluster- und Gridcomputing.<br />

In den Grundstudium-Vorlesungen Rechnerorganisation und Maschinenorientierte<br />

Programmierung werden wichtige Voraussetzungen für die Lehrgebiete<br />

Betriebssysteme, Rechnerarchitektur und Eingebettete Systeme geschaffen.<br />

Die Hauptstudium-Veranstaltungen (Vorlesungen, Seminare, Praktika) vertiefen die<br />

Kenntnisse zu modernen, insbesondere parallelen Rechnersystemen.<br />

Der aktuelle Fokus im Bereich der Forschung liegt auf den Gebieten <strong>des</strong> Cluster- und<br />

Gridcomputing.<br />

67


2.8.3 Forschungsvorhaben<br />

FuE-Projekt "Entwicklung eines Cluster-of-Cluster (CoC)-basierten Leistungsserver-<br />

Prototypen"<br />

Verbundprojekt mit Megware Computer GmbH (Chemnitz), Förderung über SAB<br />

(Sächsische Aufbaubank)<br />

Hausprojekt: OSCAR - Open Scalable Cluster Architectures<br />

Entwicklung eines Cluster-of-Cluster (CoC)-basierten Leistungsserver-Prototypen<br />

Gegenwärtig beginnt sich ein neuer Leistungsservertyp auf Basis heterogener<br />

Cluster-of-clusters(CoC)-Technologie herauszubilden, der durch seine Fähigkeit zur<br />

Integration verschiedener, stets neuer Clustertechnologien dem hohen<br />

Entwicklungstempo der Rechentechnik schnell folgen und somit auch ökonomische<br />

Vorteile gegenüber bisherigen einfachen Clustertypen erzielen kann. Eine<br />

Hauptherausforderung bei CoC-Systemen ist, die im allgemeinen verschiedenen<br />

System-Area-Network(SAN)-Technologien der einzelnen Teilcluster eng miteinander<br />

zu verkoppeln und ein ent-sprechen<strong>des</strong> Message-Passing-Interface(MPI)-<br />

Softwaresystem zu entwickeln, welches an die Vielgestaltigkeit der SAN- und<br />

Knotentechnologien flexibel und effizient anpassbar ist. Gegenwärtig gibt es keine<br />

befriedigende Lösung dafür.<br />

Kerngedanke der hier angestrebten Lösung <strong>des</strong> Problems ist die Vereinigung zweier<br />

Lösungsansätze, dem sogenannten "Klebe"- und dem "Multiprotokoll"-Ansatz, um<br />

das Optimierungspotenzial beider ausschöpfen und damit ein leistungsmäßig<br />

akzeptables MPI-System für CoC-Server (COCMPI) bereitstellen zu können. Um<br />

Anwendungen die Möglichkeit zu geben, sich an die leistungsmäßige Ungleichheit<br />

der verschiedenen SAN- und Knotentechnologien anpassen und somit effizient<br />

arbeiten zu können, sollen auch Funktionen zur Unterstützung der Lastbalancierung<br />

integriert werden.<br />

COCMPI wird mit dem internationalen MPI-Application-Programmer-Interface<br />

Standard konform gehen beziehungsweise diesen stellenweise ergänzen. Es stellt<br />

<strong>des</strong>halb eine allgemeine Basis zum breiten Einsatz Messagepassing basierter<br />

wissenschaftlich-technischer Applikationen auf dem sich neu herausbildenden<br />

kosteneffizienten CoC-Leistungsservertypen dar. In enger Verzahnung mit dem<br />

prototypischen Aufbau und Test eines CoC-Leistungsservers beim industriellen<br />

Verbundpartner (Megware), sollen praxistaugliche Lösungen gefunden werden.<br />

68


OSCAR - Open Scalable Cluster Architectures<br />

OSCAR ist ein Modell eines Clusters von Standard-PCs <strong>des</strong> Massenmarktes, die über<br />

ein schnelles Kommunikationsnetz gekoppelt sind. Ziel ist zu untersuchen, inwieweit<br />

sich ein solcher im Vergleich zu proprietären Parallelrechnern kostengünstiger PC-<br />

Verbund zur Lösung von Hochleistungsrechenaufgaben einsetzen lässt.<br />

OSCAR stellt eine Testumgebung dar für:<br />

- Programmierung und Test paralleler Algorithmen<br />

- Entwicklung von Hardware und Treibersoftware f. Clusterkommunikationstechnik<br />

- Aufbau optimierter Kommunikationsbibliotheken<br />

- Betriebssystemunterstützung von parallelen Clusteranwendungsprogrammen<br />

Diese Aufgaben erfordern natürlich eine weitgehende Arbeitsteilung; speziell im<br />

ersten Punkt hoffen wir auf eine fruchtbare Interaktion zwischen Programmierer und<br />

Anwender.<br />

Gegenwärtig gibt es eine Vielzahl unterschiedlicher HW- und SW-Lösungen für<br />

Cluster-Computing-Komponenten. Unterstützung für eine große Menge solcher<br />

Komponenten erlaubt jedoch keine besonders optimierten Treiber.<br />

Übliche Unterstützung ist:<br />

- Prozessoren: Intel, AMD, Alpha, PowerPC, ...<br />

- Einzel- oder Mehrprozessorsysteme<br />

- Verbindungstechn.: FastEthernet, Myrinet, SCI, GigabitEthernet, InfiniBand, ...<br />

- Netztopologie: Punkt-zu-Punkt, Switch, Hub, reguläre, irreguläre, ...<br />

Diese Optionen ändern sich sehr schnell. War noch vor einiger Zeit FastEthernet<br />

aktuell, sind jetzt schon GigabitEthernet-Produkte auf dem Markt. Eine Entscheidung<br />

zwingt stets zu einem Kompromiss; FastEthernet bzw. TCP/IP, z. B., stellt<br />

sogenannte sichere Kanäle auf Kosten hoher Latenzzeiten zur Verfügung. Ähnlich<br />

verhält es sich, wenn die Softwarekonfiguration eines Clustersystems geplant werden<br />

soll; die weite Verbreitung eines Betriebssystems beispielsweise kann als Nachteil<br />

ggf. die Nichtverfügbarkeit der Quellen nach sich ziehen, womit eigene<br />

Veränderungen/ Optimierungen auf dieser Ebene ausgeschlossen sind. Weiterhin<br />

müssen Schnittstellen für verschiedene Bibliotheken zur Verfügung gestellt werden.<br />

Das Projekt umfasst Hardware- und Kommunikationssoftware-Aspekte sowie die<br />

entsprechenden BS-Dienste. Wir untersuchen Single und Multi Processor-Boards und<br />

mit verschiedenen Netzwerken - FastEthernet, Myrinet, SCI, InfiniBand.<br />

Betriebssystem unserer Cluster ist Linux, da die Quellen frei verfügbar sind.<br />

69


MPICH-2 für InfiniBand<br />

An der Professur wurde die (weltweit) erste Implementierungeines MPICH-2-ADI2-<br />

CH3 Devices für InfiniBand realisiert..Bei InfiniBand handelt es sich um eine immer<br />

stärker in den High-Performance-Computing Markt dringende Verbindungstechnologie,<br />

welche geringe Kommunikationslatenzen bei hohen Bandbreiten zur<br />

Verfügung stellt.<br />

(http://www.tu-chemnitz.de/informatik/RA/cocgrid/Infiniband/pmwiki.php)<br />

2.8.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Becher, M., Rehm, W.: A Module Extension To OpenPBS Principles,<br />

Implementation and Experiences ParCo 2003, Dresden, 02. - 05.09.2003<br />

Balkanski, D., Rehm, W., Simeonov, St.: Heterogeneous Cluster Computing - Is it<br />

Ready for the Prime Time SAER'2003, Sofia, 19. - 21.092003<br />

Balkanski, D., Trams, M., Rehm, W.: Communication Middleware Systems for<br />

Heterogeneous Clusters: A Comparative Study Cluster2003, Hong Kong,<br />

01. - 04.12.2003<br />

Diplomarbeiten<br />

Lasch, S.: Hardware/Software Coverifikation mit Virtex-II Pro FPGAs (in<br />

Kooperation mit ProDesign)<br />

Grabner, R., Mietke, F.: MPICH2 Device For InfiniBand<br />

Mehlan, T.: A VIA conforming Communication Library on top of SCI<br />

2.8.5 Vorträge<br />

Grabner, R.: MPI2 and InfiniBand - The Future for Cluster Computing ParCo 2003,<br />

Dresden, 02. - 05.09.2003 (in Kooperation mit Megware GmbH)<br />

Becher, M.: A Module Extension To OpenPBS Principles, Implementation and<br />

Experiences ParCo 2003, Dresden, 02. - 05.09.2003<br />

Balkanski, D.: Heterogeneous Cluster Computing - Is it Ready for the Prime Time<br />

SAER'2003, Sofia, 19. – 21.09.2003<br />

70


Balkanski, D.: Communication Middleware Systems for Heterogeneous Clusters: A<br />

Comparative Study Cluster2003, Hong Kong, 01. - 04.12.2003<br />

2.8.6 Mitarbeit in Gremien<br />

Rehm, W.:<br />

- Dekan der Fakultät für Informatik (ab April)<br />

- Senat der TU Chemnitz<br />

- Senatskommission der TU Chemnitz für Lehre und Studium<br />

- Senatskommission der TU Chemnitz für Forschung u. wissenschaftl. Nachwuchs<br />

- Kuratorium der TU Chemnitz<br />

- Konzil der TU Chemnitz<br />

- Member of IEEE Task Force on Cluster Computing, Advisory Committee<br />

- Founding member of the European Neural Network Society (ENNS) 1991<br />

- Member of GI-FG 3.1.2. Parallel-Algorithmen,-Rechenstrukturen und<br />

Systemsoftware (PARS)<br />

- Session Chair "Software and Technology" at ParCo2003<br />

- Program Vice Chair, CLUSTER2003, (Hong Kong)<br />

71


2.9 Professur Rechnernetze und Verteilte Systeme<br />

2.9.1 Personelle Zusammensetzung<br />

Leiter: Prof. Uwe Hübner<br />

Sekretariat: Christine Irmisch<br />

Wiss. Mitarbeiter: Dr. Jörg Anders<br />

Dipl.-Inf. Marco Günther<br />

Dipl.-Inf. Ronald Schmidt<br />

Dipl.-Inf. Chris Hübsch<br />

Techn. Mitarbeiter: Dipl.-Math. Ralph Sontag<br />

2.9.2 Kurzbeschreibung der Professur<br />

Die Professur Rechnernetze und Verteilte Systeme befasst sich mit aktuellen<br />

Gebieten wie dem Zusammenhang von Mobilität und Rechnernetzen,<br />

Sicherheitsaspekten in Netzen und Informationsrepräsentationen (XML, Java,<br />

MPEG, ...). Weiterhin werden neue, netzgestützte elearning-Konzepte entwickelt und<br />

eingesetzt.<br />

2.9.3 Forschungsvorhaben<br />

Mobile Kommunikation<br />

InHouse Feldstärke - Abschätzung für zellulare mobile Freiraumausbreitung<br />

Die Planung und Installation einer optimierten InHouse-Abdeckung durch eine<br />

zellulare mobile Freiraumausbreitung ist ein neuer Markt innerhalb der<br />

Mobilkommunikation. Wir haben einen Prototyp eines Systems zur Voraussage der<br />

Feldstärke entwickelt.<br />

Embedded Linux<br />

Eingebettete Steuerungssysteme werden auf vielfältige Weise in Applikationen<br />

verwendet, z. B. in der Betriebsautomatisierung, der Prozesssteuerung,<br />

Nachrichtensystemen und Home-Networks. Das Hauptziel unseres Projektes ist die<br />

Kombination der eingebetteten Steuerungssysteme mit Standardprotokollen (IP,<br />

UDP, TCP, HTTP, FTP, SMTP) und Netzwerk-Technologien (PPP, Ethernet, IEEE<br />

802.11).<br />

73


Das ist ein denkbarer Weg, einen Durchbruch bei der Produktion und Vermarktung<br />

interoperabler und kompatibler Steuerungs-Komponenten bei hohen Stückzahlen,<br />

einfacher Handhabung und fairen Preisen zu erreichen. Wir haben eine flexible,<br />

effektive und einfach zu handhabende Kernplattform für ein eingebettetes System auf<br />

Linux-Basis entwickelt.<br />

JAVA MPEG-Player<br />

Implementierung von Video-Decodern auf Java-Basis.<br />

(http://rnvs.informatik.tu-chemnitz.de/~jan/MPEG/MPEG_Play.html)<br />

Diese Java-Applets gestatten das Zeigen von MPEG-/H.261- und FLC-Video- Daten<br />

direkt auf der Oberfläche <strong>des</strong> WWW-Browsers.<br />

Teleteaching-Praxis und -Tools<br />

Nur durch lebenslanges Lernen wird es möglich, in der modernen wissensbasierten<br />

Gesellschaft neue Erkenntnisse zu erfassen und anzuwenden. Das Aufbaustudium<br />

"Informations- und Kommunikationssysteme" haben an der TU Chemnitz in den<br />

Jahren 1995 bis 1999 rund 600 Teilnehmer absolviert. Die TU Chemnitz und der<br />

VDE realisierten ein gemeinsames Weiterbildungsangebot, welches diese<br />

Erfahrungen nutzte.<br />

Die kursunterstützenden Werkzeuge wie "virtuelles Seminar" oder das<br />

fernbedienbare Labor wurden weiterentwickelt und haben die Qualität erhöht. Neue<br />

Paradigmen bei der Erstellung multimedialer Lehrmaterialien wurden konsequent<br />

umgesetzt. Die Kurse folgen der von der IEEE empfohlenen "Learning Technology<br />

Systems Architecture" und spiegeln die neue Rolle von Lehrer und Lerner wider.<br />

Kommunikation in Cluster-Computern<br />

Auf der Basis <strong>des</strong> Chemnitzer Linux Cluster (CLiC) erfolgen Untersuchungen<br />

verschiedener Kommunikationsmechanismen. Dabei wird der Einfluss von Protokollschichten<br />

und Abstraktionsebenen auf qualitative und quantitative Parameter der<br />

Kommunikation erfasst. Weiterhin entstehen Instrumentierungen zur Beurteilung und<br />

Optimierung der Informationsflüsse.<br />

DOM-Basierter LConML-Konverter<br />

Die Konvertierung der Sprache LConML erfolgte bisher mit einem Konverter, der<br />

nach einem SAX-ähnlichem Prinzip arbeitet. Nichtlineare Übersetzung von XML in<br />

die Zielsprache erforderte mehrere Durchläufe oder zusätzliche Speicherstrukturen.<br />

Es sollte evaluiert werden, ob der DOM-Ansatz die Programmierung erleichtert und<br />

die Konvertierung beschleunigt.<br />

74


Forschungsbericht Online<br />

Der Forschungsbericht der TU Chemnitz ist ein Dokument, welches arbeitsteilig von<br />

über 150 Personen in relativ kurzer Zeit erstellt werden muss. Die im Bericht zu<br />

erfassenden Informationen sind gut strukturiert und folgen einheitlichen Mustern.<br />

Der Bericht soll in beliebiger Zusammenstellung sowohl auf Papier als auch online<br />

verfügbar gemacht werden können. Es ist jedoch damit zu rechnen, dass sich die<br />

Informationen von Jahr zu Jahr graduell ändern.<br />

Skalierbare Infrastruktur für Schulen<br />

Vorbereitung eines möglichen Drittmittelprojektes. Weiterbetreuung <strong>des</strong> Prototypen<br />

für ein Schulnetz, welches nach Prinzipien nachhaltigem Systemmanagements<br />

gepflegt wird.<br />

Entwurf eines Autorenwerkzeugs für den XML-Dialekt „LConML“<br />

Es wird ein Editorwerkzeug entwickelt, das es auch Nicht-Informatikern ermöglicht,<br />

Lehrmaterialien im XML-Dialekt „LConML“ zu entwickeln.<br />

2.9.4 Veröffentlichungen<br />

Bücher<br />

Anders, J.: NoteEdit, SuSE-Linux-9.0, SuSE-Linux AG, als Software auf CD/DVD<br />

enthalten, ISBN K12229456<br />

Hübsch, Ch., Petersen, K., Riedel, M., Sontag, R.: ZIN-Zertifikat Internet<br />

Nutzung, P. Pönisch Verlag, ISBN 3-934848-12-5<br />

Zeitschriften und Tagungsbände<br />

Anders, J.: Instrumente Marke Eigenbau, LinuxUser 11/2003, Linux Media AG, S.<br />

40, ISSN 1615-4444<br />

Anders, J.: Do-It-Yourself Instruments, Linux Magazine 12/2003 (Engl. Ausgabe),<br />

Linux Media AG, S. 30, ISSN 14715678<br />

Diplomarbeiten<br />

Förster, M.: Automatische Konvertierung und Transformation von HTML-Seiten in<br />

ein Content Management System<br />

75


Friedemann, M.: Strategien für Integration lose gekoppelter, heterogener<br />

Einzelsysteme zu einem verteilten Gesamtsystem<br />

Köhler, S.: Prototypische Realisierung einer Java-basierten Benutzeroberfläche für<br />

„Simotion E“ und deren Vergleich mit alternativen Lösungen<br />

Leuschner, J.: Massenspeicher-Netze auf IP-Basis<br />

Petersen, K.: Management-Elemente für mehrdimensional heterogene Cluster<br />

Schmidt, J.: Leichtgewichtiges Content Management<br />

Schmidt, R.: Szenarien und Techniken zur Sicherung verteilter Zugangssysteme<br />

Studienarbeiten<br />

Feister, T.: GPRS-Schnittstelle für digitales Kombiinstrument<br />

Jehmlich, H.: Firewall mit nutzerindividuellen Regeln<br />

Kurze, A.: Bandbreitenregulierung für niedrigstpriorisierte Dienste<br />

Neubert, J.: Secure WebServer<br />

Merzky, A.: LDAP Server Backend<br />

Richter, L.: Untersuchung und praktische Erprobung der SIP-Technologie durch<br />

Nutzung <strong>des</strong> Systems VOCAL<br />

Schildt, H.: Asterisk VoIPErprobung<br />

Schreiber, D.: Ein Projektdienst für die TU Chemnitz<br />

Schröder, W.: Erweiterung eines „Web Server Content Management Systems“ um<br />

Authentifizierungs-/Autorisierungsfunktionen basierend auf LDAP und Aktualisierungsmöglichkeiten<br />

über WebDav<br />

Weidt, T.: Portierung <strong>des</strong> Praktikums „QoS“ auf Linux-2.4.x<br />

Weiß, R.: Mehrdimensionaler Index<br />

Zemlin, T.: Aufbau eines Computerkabinetts im Gymnasium Einsiedel<br />

Ziegler, S.: Visualisierung einer Netztopologie im dreidimensionalen Raum<br />

76


2.9.5 Vorträge<br />

Anders, J.: Alsa-Tools zur MIDI-Bearbeitung, TU Chemnitz, UNIX-Stammtisch,<br />

25.02.2003<br />

Anders, J.: Java-MPEG-Player, Löbsal, Workshop Mensch-Computer-Vernetzung,<br />

14. - 17.04.2003<br />

Anders, J.: Score Editor for Linux, Präsentation, Karlsruhe, Linux-Tag,<br />

10. - 13.07.2003<br />

Anders, J.: NoteEdit, Luxembourg, LinuxDays, 06. - 08.11.2003<br />

Günther, M.: Werkzeuge für die Modellierung und Simulation in drahtlosen<br />

Netzwerken, Löbsal, Workshop Mensch-Computer-Vernetzung, 14. - 17.04.2003<br />

Günther, M.: Effizient Programmieren mit der C++ Standard Template Library<br />

(STL), TU Chemnitz, UNIX-Stammtisch, 29.04.2003<br />

Hübner, U.: Webbrowser als universelle Benutzeroberfläche – Potentiale und<br />

Grenzen, TU Chemnitz, UNIX-Stammtisch, 25.03.2003<br />

Hübner, U.: Bewertung von Content-Management-Ansätzen, Löbsal, Workshop<br />

Mensch-Computer-Vernetzung, 14. - 17.04.2003<br />

Hübner, U.: IT infrastructure support in a „digital university“, Seminar, University<br />

of the West Indies, St. Augustine, Trinidad, Mai 2003<br />

Hübner, U.: Wireless Local Area Networks, Seminar, University of the West Indies,<br />

St. Augustine, Trinidad, Mai 2003<br />

Hübner, U.: Web services, Seminar, University of the West Indies, St. Augustine,<br />

Trinidad, Mai 2003<br />

Hübsch, C.: E-Learning und C-Learning mit modularen Lehrmaterialien, Karlsruhe,<br />

Learntec-Messeforum, 06.02.2003<br />

Hübsch, C.: LDAP, Magdeburg, Linux-Tag, 05.04.2003<br />

Hübsch, C.: OpenAFS, Magdeburg, Linux-Tag, 05.04.2003<br />

Hübsch, C.: Techniken von Web Services, Löbsal, Workshop Mensch-Computer-<br />

Vernetzung, 14. - 17.04.2003<br />

77


Hübsch, C.: Linux als Netzwerkbetriebssystem, Meißen, Sächs. Akademie für<br />

Lehrerfortbildung, 23.10.2003<br />

Schmidt, R.: Zukünftige Entwicklung <strong>des</strong> IDM/AM an der TU Chemnitz, Berlin,<br />

ZKI-Arbeitskreis Verzeichnisdienste, 10.12.2003<br />

Sontag, R.: Bayes kontra SPAM, Löbsal, Workshop Mensch-Computer-Vernetzung,<br />

14. - 17.04.2003<br />

Sontag, R.: TeleTeachingTools – Eine modulare Lernplattform im praktischen<br />

Einsatz, TU Chemnitz, 5. Chemnitzer Linux-Tag, 02.03.2003<br />

Sontag, R., Richter, F.: E-Mail für Dich – Lust oder Frust? Wie SPAM das Medium<br />

der Zukunft gefährdet, TU Chemnitz, UNIX-Stammtisch, 27.05.2003<br />

2.9.6 Mitarbeit in Gremien<br />

Hübner, U.:<br />

- Mitglied im Fakultätsrat<br />

- Vorsitzender <strong>des</strong> Promotionsausschusses<br />

- Vorsitzender der Berufungskommission „Betriebssysteme“, TU Chemnitz<br />

- DFG-Gutachtergruppe Campusnetze<br />

- Technischer Ausschuss <strong>des</strong> DFN-Vereins (Vorsitz)<br />

- ZKI-Verein<br />

- Programmkommitee DFN-Fachtagung<br />

Hübsch, C.:<br />

- Mitglied im Fakultätsrat<br />

- Mitglied <strong>des</strong> Senates der TU Chemnitz<br />

- Mitglied der Senatskommission für Lehre und Studium<br />

- Mitglied der Senatskommission für Forschung und Förderung <strong>des</strong> wissenschaftl.<br />

Nachwuchses<br />

78


2.10 Professur Systemprogrammierung und Betriebssysteme<br />

2.10.1 Personelle Zusammensetzung<br />

Leiter: Prof. Winfried Kalfa<br />

Sekretariat: Ursula Wolf<br />

Wiss. Mitarbeiter: Dr. Elke Wällnitz<br />

Dipl.-Lehrer Volker Fickert<br />

Dipl.-Inf. Robert Köhring<br />

Dipl.-Ing. Vjacheslav Mikhalev<br />

2.10.2 Kurzbeschreibung der Professur<br />

Die Professur befasst sich mit Betriebssystemen lokaler und verteilter<br />

Rechensysteme. Dabei stehen Grundprinzipien im Vordergrund und deren<br />

Ausprägungen in konkreten Anwendungsumgebungen.<br />

2.10.3 Forschungsvorhaben<br />

“Wissenswerkstatt Rechensysteme“ (gefördert durch das BMBF), Teilprojekt<br />

Betriebssysteme.<br />

2.10.4 Veröffentlichungen<br />

Diplomarbeiten<br />

Köhring, R.: „Verfahren zur Visualisierung von Betriebssysteme - Phänomenen“<br />

König, R.: Resource Management for a Federated Resource Utility<br />

Projektarbeiten<br />

König, R.: Database application server with XML messaging interface<br />

2.10.5 Vorträge<br />

Kalfa, W.: „Prinzipien in Informatiksystemen – Analogien im Alltag“.- Universität<br />

<strong>des</strong> Saarlan<strong>des</strong>, Kolloquium, 13.07.2003<br />

79


2.10.6 Mitarbeit in Gremien<br />

Kalfa, W.:<br />

- Vertrauensdozent der GI an der TU Chemnitz<br />

- Projektbeirat „WWR“<br />

2.10.7 Sonstiges<br />

- Durchführung von Lehrerfortbildungen im Rahmen der Fachrichtung<br />

Informations- und Kommunikationstechnologie am beruflichen Gymnasium (iGy)<br />

- Mitwirkung am Schulversuch „Innovationen am beruflichen Gymnasium<br />

80


2.11 Professur Technische Informatik<br />

2.11.1 Personelle Zusammensetzung<br />

Leiter: Prof. Wolfram Hardt<br />

Sekretariat: Bettina Fless<br />

Wiss. Mitarbeiter: Dipl.-Ing. Wassil Dimitrow<br />

Dr.-Ing. Bernt Naumann<br />

Dipl.-Inf. André Meisel<br />

Dipl.-Inf. Mathias Sporer<br />

Dipl. Ing. Markus Visarius<br />

Techn. Mitarbeiter: Dipl.-Inf. (FH) Eva Ziegler<br />

Externe Mitarbeiter: Marco Fischer, EADS München<br />

Stefan Förster, EADS München<br />

Stefan Ihmor, Universität Paderborn<br />

2.11.2 Kurzbeschreibung der Professur<br />

Die Technische Informatik wird durch die Professur in Lehre und Forschung<br />

vertreten. Besondere Schwerpunkte sind der Entwurf und die Optimierung<br />

eingebetteter Systeme. Neben der Betrachtung einzelner Systemkomponenten ist das<br />

Zusammenspiel von Komponenten unter Echtzeitbedingungen zu untersuchen. Die<br />

Wiederverwendung einzelner Komponenten in einem neuen Systemkontext kann<br />

große Einsparungen im Entwurfsprozess realisieren. Unter diesen Gesichtspunkten<br />

werden unterschiedliche Abstraktionsebenen, z. B. die Systemmodellierung, die<br />

Systempartitionierung, die Kommunikation zwischen Systemkomponenten sowie die<br />

Ebene <strong>des</strong> Rapid-Prototyping untersucht. Hierzu werden moderne Entwurfsmethoden<br />

und Entwurfswerkzeuge eingesetzt. Anwendungsgebiete werden durch<br />

Demonstratoren, z. B. das Modell eines Industrieroboters, sowohl in die Forschung<br />

als auch in die Lehre einbezogen.<br />

81


Ausbildungsprofil<br />

Die Professur vertritt die Technische Informatik im Grundstudium für die<br />

Studiengänge Informatik und Angewandte Informatik. Insbesondere durch die<br />

Lehrveranstaltungen<br />

- Digitaltechnik<br />

- Hardware – Praktikum<br />

- Proseminar Eingebettete Systeme<br />

Im Hauptstudium kann im Studiengang Informatik und im Studiengang Angewandte<br />

Informatik das Fachgebiet Eingebettete Systeme vertiefend belegt werden. Die<br />

Professur Technische Informatik betreut diese Vertiefungen u. a. durch folgende<br />

Lehrveranstaltungen:<br />

- Hardware/Software Co<strong>des</strong>ign Teil I + II<br />

- Entwurfswerkzeuge<br />

- Hauptseminar Eingebettete Systeme<br />

- Teamorientierte Projektarbeit: Robotersteuerung unter Echtzeitbedingung<br />

2.11.3 Forschungsvorhaben<br />

BMBF – Projekt (in Kooperation mit der Universität Paderborn)<br />

IPQ: IP-Qualifikation für effizientes System<strong>des</strong>ign<br />

Für das übergeordnete Ziel der Qualifizierung von parametrisierbaren IP-<br />

Komponenten zur Realisierung effizienten System<strong>des</strong>igns ist ein allgemeines Format<br />

zur Repräsentation einer IP notwendig. Dieses Format (IPQ Format) ist die Basis für<br />

alle Aufgaben innerhalb <strong>des</strong> Design-Prozesses in Bezug auf die IP-Qualifikation, die<br />

Wiederverwendung und die Integration.<br />

Die Entwicklung <strong>des</strong> IPQ Formates war in zwei Schritte aufgeteilt. Zunächst wurde<br />

auf Basis der validierten Anforderungen an das IPQ Format ein<br />

Beschreibungskonzept für das IPQ Format entwickelt und dieses Konzept im zweiten<br />

Schritt mit XML Schema umgesetzt. Das Beschreibungskonzept sieht die<br />

Unterscheidung eines statischen und eines dynamischen Teils vor. Der statische Teil<br />

besteht aus den sog. IPQ Taxonomien, die in erster Linie zur Klassifizierung von IPs<br />

vorgesehen sind. Im Gegensatz dazu steht der dynamische Teil, mit dem jeweils die<br />

IP Daten einer einzelnen IP beschrieben werden. Auf Basis <strong>des</strong> definierten IPQ<br />

Formats und der zugehörigen Beispiele wurde ein IP basierter Entwurfsprozess sowie<br />

das damit verbundene Konzept für eine IPQ Toolbox entwickelt.<br />

82


DFG-Projekt Schwerpunktprogramm 1148 Rekonfigurierbare Rechensysteme<br />

Automatisierte Rekonfigurierung von Schnittstellen in eingebetteten Systemen<br />

Rekonfigurierbare Rechensysteme werden auf hoher Ebene optimiert, indem<br />

Komponenten in das System eingefügt oder daraus entfernt werden. Auf einer<br />

niedrigeren Abstraktionsebene wird die Optimierung als Anpassung der<br />

Funktionalität einzelner Komponenten im System verstanden. Die Kommunikation<br />

zwischen Komponenten wird auf beiden Ebenen durch die Rekonfiguration<br />

beeinflusst und muss daher in die Optimierung einbezogen werden. In dem<br />

beantragten Vorhaben wird eine Entwurfsmethodik für dynamisch rekonfigurierbare<br />

Schnittstellen entwickelt, so dass die Rekonfiguration <strong>des</strong> Rechensystems auf beiden<br />

Ebenen nicht durch starre Kommunikationskanäle eingeengt oder verhindert wird.<br />

Zunächst werden dynamisch rekonfigurierbare Kommunikationsmodule auf hoher<br />

Abstraktionsebene definiert und formal modelliert. Dies schließt sowohl die<br />

abstrakten Schnittstellenparameter als auch die Kommunikationsprotokolle ein. Auf<br />

diesen Modellen wird eine Methode zur automatisierten Synthese konkreter<br />

Schnittstellenmodule sowie zur dynamischen Rekonfigurierung der Schnittstelle<br />

entwickelt. Konzeption und Methodik werden kontinuierlich an industrierelevanten<br />

Anwendungsbeispielen validiert.<br />

2.11.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Ihmor, S., Bastos, N. Jr., Klein, R., Visarius, M., Hardt, W.: "Rapid Prototyping<br />

of Realtime Communication - A Case Study: Interacting Robots", In 14th IEEE<br />

International Workshop on Rapid System Prototyping. San Diego, CA, IEEE<br />

Computer Society Press, 2003<br />

Ihmor, S., Visarius, M., Hardt, W.: "Modeling of Configurable HW/SW-<br />

Interfaces", In Proceedings of 6. GI/ITG/GMM-Workshop Modellierung und<br />

Verifikation, Bremen, 2003<br />

Visarius, M., Lessmann, J., Hardt, W., Kelso, F., Thronicke, W.: "An XML<br />

Format based Integration Infrastructure for IP based Design", In Proceedings of the<br />

16th Symposium on Integrated Circuits and Systems Design (SBCCI 2003), Sao<br />

Paulo, Brazil, Sept. 2003. IEEE Computer Society<br />

Fischer, M., Förster, S., Windisch, A., Balser, B., Monjau, D.: A New Process-<br />

Algebraic Specification Methodology for Integrated Modular Avionics Systems,<br />

Methoden und Beschreibungssprachen zur Modellierung und Verifikation von<br />

Schaltungen und Systemen, February 24-26, 2003, Berichte aus der Informatik,<br />

Shaker Verlag, Rolf Drechsler (ed.), ISBN 3-8322-1202-7<br />

83


Förster, S., Fischer, M., Windisch, A., Balser, B., Monjau, D.: A New<br />

Specification Methodology for Embedded Systems Based on the pi-Calculus Process<br />

Algebra, Proceedings of the 14th IEEE International Workshop on Rapid System<br />

Prototyping (RSP 2003), pages 26 - 32, June 9 - 11, 2003, ISBN 0-7695-1943-1,<br />

ISSN 1074-6005<br />

Förster, S., Windisch, A., Fischer, M., Monjau, D., Balser, B.: Process Algebraic<br />

Specification, Refinement, and Verification of Embedded Systems,<br />

Proceedings of Forum on Specification and Design Languages (FDL'03), pages<br />

525 -535, September 23 - 26, 2003, ISSN 1636-9874<br />

Fischer, M., Windisch, A., Förster, S., Monjau, D., Balser, B.: A New Time<br />

Extension to pi-Calculus based on Time Consuming Transition Semantics,<br />

Proceedings of Forum on Specification and Design Languages (FDL'03), pages<br />

447 - 455, September 23 - 26, 2003, ISSN 1636-987<br />

Sporer, M., Monjau, D.: Datenbanken zur konsistenten Speicherung von<br />

Entwurfsdaten für eingebettete Systeme. In: Rolf Drechsler(Hrsg.): Tagungsband<br />

zum 6. GI/ITG/GMM-Workshop "Methoden und Beschreibungssprachen zur<br />

Modellierung und Verifikation von Schaltungen und Systemen", Seiten 62 - 71,<br />

Bremen, 24. - 26.02.2003, Shaker Verlag, ISBN: 3-8322-1202-7<br />

Sporer, M., Monjau, D.: A universal simulation environment for embedded<br />

systems. In: Proceedings of the IASTED International Conference Modelling,<br />

Identification and Control (MIC 2003); February 10 - 13, 2003 Innsbruck, Austria<br />

CD-ROM, ISBN: 0-88986-339-3<br />

Monjau, D., Sporer, M.: Ensuring Semantic Integrity in Knowledge Bases for<br />

Embedded Systems In: Edited by Eugenio Villar and Jean P.Mermet, Best of FDL'02<br />

"System Specification & Design Languages", Copyright by Kluwer Academic<br />

Publishers, Seiten 327 - 340, 2003, ISBN: 1-4020-7414-X<br />

Diplomarbeiten<br />

Amelunxen, C.: Automatische Adaptierung von IPQ Entwurfswerkzeugen über Web<br />

Services. Master's thesis, University Paderborn, Warburger Str. 100, 33098<br />

Paderborn, Jan. 2003<br />

Lessmann, J.: Integration of Tools for IP based Design with a Generic XML Format<br />

and Web Services. Master's thesis, University Paderborn, Warburger Str. 100, 33098<br />

Paderborn, June 2003<br />

84


Studienarbeiten<br />

Flade, M.: „FPGA-basierte Fail-safe-Schnittstellen für eingebettete Systeme“<br />

Ruggaber, A.: Entwurf eines SW-Konzepts für eine Kunststoff-Technologiebaugruppe<br />

im Automatisierungssystem „SIMOTION“<br />

2.11.5 Vorträge<br />

Visarius, M.: "IPQ Format based Tool-Chain", Demo and Poster Presentation at the<br />

2nd EkompaSS Workshop, Hannover, Germany, April 2003<br />

Hardt, W.: „Automatisierte Rekonfigurierung von Schnittstellen in eingebetteten<br />

Systemen“: Einführungskolloquium zum DFG-Schwerpunktprogramm 1148 am<br />

12./13. Juni 2003 unter Schirmherrschaft der DaimlerChrysler AG in Stuttgart<br />

Visarius, M.: "An XML Format based Integration Infrastructure for IP based<br />

Design", In Proceedings of the 16th Symposium on Integrated Circuits and Systems<br />

Design (SBCCI 2003), Sao Paulo, Brazil, September 2003. IEEE Computer Society<br />

Hardt, W.: "IPQ Toolbox based on the IPQ Format", Demo Presentations of the<br />

German Project-Workshop: IP-Qualifikation für effizientes System<strong>des</strong>ign, Dresden,<br />

Germany, November 2003<br />

Hardt, W.: "Integration Infrastructure for IPQ Format compliant IP based Design<br />

Tools", German Project-Workshop: IP-Qualifikation für effizientes System<strong>des</strong>ign,<br />

Dresden, Germany, November 2003<br />

Hardt, W.: "Rapid Prototyping of Realtime Communication - A Case Study:<br />

Interacting Robots", In 14th IEEE International Workshop on Rapid System<br />

Prototyping. San Diego, CA, IEEE Computer Society Press, 2003<br />

Ihmor, S.: "Modeling of Configurable HW/SW-Interfaces", In Proceedings of 6.<br />

GI/ITG/GMM-Workshop Modellierung und Verifikation, Bremen, 2003<br />

Sporer, M.: Ensuring Semantic Integrity in Knowledge Bases for Embedded Systems<br />

In: Edited by Eugenio Villar and Jean P.Mermet, Best of FDL'02 "System<br />

Specification & Design Languages", Copyright by Kluwer Academic Publishers,<br />

Seiten 327-340, ISBN: 1-4020-7414-X<br />

85


Sporer, M.: Datenbanken zur konsistenten Speicherung von Entwurfsdaten für eingebettete<br />

Systeme. In: Rolf Drechsler(Hrsg.): Tagungsband zum 6. GI/ITG/GMM-<br />

Workshop "Methoden und Beschreibungssprachen zur Modellierung und Verifikation<br />

von Schaltungen und Systemen", Seiten 62-71, Bremen, 24. - 26. Februar 2003,<br />

Shaker Verlag, ISBN: 3-8322-1202-7<br />

Sporer, M.: A universal simulation environment for embedded systems. In:<br />

Proceedings of the IASTED International Conference Modelling, Identification and<br />

Control (MIC 2003); February 10-13, 2003 Innsbruck, Austria CD-ROM<br />

ISBN: 0-88986-339-3<br />

2.11.6 Mitarbeit in Gremien<br />

Hardt, W.:<br />

- Mitglied im Programm Committee: International Workshop on Rapid System<br />

Prototyping (RSP)<br />

- Mitglied der Gesellschaft für Informatik e. V. (GI)<br />

- Mitglied und Stellv. Sprecher der GI - Fachgruppe 3 "Methoden <strong>des</strong> Entwurfs und<br />

der Verifikation digitaler Schaltungen und Systeme"<br />

- Mitglied der GI - Fachgruppe 4 „Beschreibungssprachen und Modellierung von<br />

Schaltungen und Systemen“<br />

- Mitglied der Graduiertenkommission der TU Chemnitz<br />

- Mitglied der Promotionskommission der Fakultät für Informatik der TUC,<br />

Wellner, J.<br />

- Mitglied der Promotionskommission und externer Gutachter, Universität<br />

Paderborn, Bobda, Chr.<br />

86


2.12 Theoretische Informatik<br />

2.12.1 Personelle Zusammensetzung<br />

Leiter: Prof. Andreas Goerdt<br />

Sekretariat: Rita Höfer<br />

Wiss. Mitarbeiter: Dipl.-Inf. Frank Schädlich<br />

Dipl.-Inf. André Lanka<br />

Dipl.-Inf. Marion Riedel (seit Oktober )<br />

Dipl.-Inf. Ulrike Schönke (seit Oktober)<br />

2.12.2 Kurzbeschreibung der Professur<br />

Bei der Entwicklung von Computerprogrammen stellen sich zwei grundlegende<br />

Probleme: Zum einen sollen die Programme ihre Aufgabenstellung korrekt erfüllen,<br />

und zum anderen sollen sie diese Aufgabenstellung in möglichst kurzer Zeit, d. h.<br />

effizient erledigen.<br />

Das Arbeitsgebiet der Professur lautet: Algorithmen und Komplexität. Das heißt<br />

die Professur beschäftigt sich mit grundlegenden Problemen bei der Entwicklung<br />

möglichst effizienter Programme.<br />

Die Vielfalt dieses Bereiches deuten die folgenden beiden zentralen Fragestellungen<br />

an: Auf der einen Seite ist man bestrebt, immer effizientere Algorithmen zu finden.<br />

Auf der anderen Seite aber versucht man, untere Schranken nachzuweisen, das heißt<br />

zu zeigen, dass eine gewisse Laufzeit nicht mehr unterschritten werden kann. In<br />

diesem Umfeld hat sich die Professur im vergangenem Jahr mit der Klasse der<br />

kombinatorischen Suchalgorithmen (insbesondere für das grundlegende<br />

aussagenlogische Erfüllbarkeitsproblem) beschäftigt. Ein weiterer Schwerpunkt ist<br />

es, Algorithmen zu entwickeln, deren Laufzeit nicht mehr auf allen möglichen<br />

Eingaben, sondern nur noch auf den „meisten“ Eingaben möglichst kurz ist.<br />

Die Frage der Effizienz stellt sich aber nicht nur für die Laufzeit von<br />

Computerprogrammen im engeren Sinne. Die Professur beschäftigt sich auch mit<br />

Fragen der effizienten Kommunikation verschiedener Rechner miteinander.<br />

87


2.12.3 Forschungsvorhaben<br />

Die Forschungstätigkeit an der Professur Theoretische Informatik ist durch das an der<br />

Professur bearbeitete, breit angelegte Projekt mit dem offiziellen Namen:<br />

„Schwellenverhalten zufälliger Strukturen, Fehlertoleranz und routing Algorithmen<br />

bei Kommunikationsnetzen, Heuristiken auf zufälligen Eingaben“ bestimmt. Im<br />

Rahmen dieses Projektes finanziert die Deutsche Forschungsgemeinschaft (DFG) die<br />

Stelle eines wissenschaftlichen Mitarbeiters und einer studentischen Hilfskraft.<br />

Augenblicklich wird folgende Themenstellung als Schwerpunkt bearbeitet:<br />

Algorithmen für das aussagenlogische Erfüllbarkeitsproblem<br />

(A. Goerdt, A. Lanka )<br />

Als Hauptresultat ist im Berichtszeitraum der innovative Aspekt der Anwendung<br />

bekannter Approximationsalgorithmen auf zufällige Strukturen, insbesondere<br />

zufällige aussagenlogische Formeln herausgearbeitet worden. Die erzielten<br />

Ergebnisse spiegeln sich in den Veröffentlichungen in Tagungsbänden wider.<br />

2.12.4 Veröffentlichungen<br />

Zeitschriften<br />

Goerdt, A., Molloy, M.: Analysis of edge deletion process on faulty random regular<br />

graphs. Theoretical Computer Science 297, S. 241 - 260<br />

Goerdt, A., Jurdzinski, T.: k-Sat instances an approximation algorithms applied to<br />

random structures. Combinatorics, Probability and Computing 12, S. 245 - 267<br />

Tagungsbände<br />

Coja-Oghlan, A., Goerdt, A., Lanka, A., Schädlich, F.: Certifying Unsatisfiability<br />

of Random 2k-SAT Formula using Approximation Techniques. Tagungsband<br />

Foundamendals of Computing Theory (FCT), Lecture Notes in Computer Science,<br />

Springer Verlag<br />

Goerdt, A., Lanka, A.: Recognizing more random unsatisfiable 3-SAT instances<br />

efficiently. Tagungsband <strong>des</strong> Workshops Phase Transitions of Combinatorial<br />

Structures, Ottawa (Kanada) im Rahmen der Konferenz Logic in Computer Science<br />

2003<br />

Diplomarbeiten<br />

Berger, A.: k-erfüllbare aussagenlogische Formeln.<br />

88


2.12.5 Vorträge<br />

Goerdt, A.: Ein effizienter Nachweis der Unerfüllbarkeit zufälliger 4-Sat-Formeln<br />

unter Verwendung der Max-Cut-Approximation, 18.03.2003, 47. Theorietag an der<br />

Universität Jena<br />

Goerdt, A.: Efficient recognition of random unsatisfiable k-Sat instances.<br />

30.04.2004, Tagung Komplexitätstheorie am Mathematischen Forschungsinstitut in<br />

Oberwolfach<br />

Goerdt. A.: Effizient recognition of random unsatisfiable 4-Sat instances using<br />

approximation techniques, 21.06.2003, Workshop Phase transitions in random<br />

combinatorial structures, Ottawa (Kanada) im Rahmen der Konferenz Logic in<br />

Computer Science 2003<br />

Goerdt. A.: Effiziente Erkennung zufälliger unerfüllbarer k-SAT Formeln.<br />

04.07.2003, Informatik-Kolloquium an der LMU München<br />

2.12.6 Mitarbeit in Gremien<br />

Goerdt, A.:<br />

- Studiendekan der Fakultät für Informatik und als solcher mit beratender Stimme in<br />

der Senatskommission Lehre und Studium (bis März)<br />

- Mitglied <strong>des</strong> Fakultätsrates (bis März)<br />

- Vorsitzender <strong>des</strong> Promotionsausschusses (bis März)<br />

- Mitglied der Berufungskommission für die Professur Wirtschaftsinformatik der<br />

Fakultät für Wirtschaftswissenschaften.<br />

- Mitveranstalter <strong>des</strong> Dagstuhlseminars „The Propositional Satisfiability Problem-<br />

Algorithms and Lower Bounds „ im Internationalen Begegnungs- und<br />

Forschungszentrum für Informatik Schloss Dagstuhl, 30.03. - 04.04.2003<br />

89


2.13 Professur Theoretische Informatik und Informationssicherheit<br />

2.13.1 Personelle Zusammensetzung<br />

Leiter: Prof. Hanno Lefmann<br />

Sekretariat: Rita Höfer<br />

Wiss. Mitarbeiter: PD Dr. math. Ulrich Tamm<br />

Dipl.-Inf. Jens Arnold<br />

2.13.2 Kurzbeschreibung der Professur<br />

Zentrale Lehr- und Forschungsgegenstände an der Professur sind Design und Analyse<br />

effizienter Algorithmen für diskrete Optimierungsprobleme und Design sowie<br />

Sicherheitsaspekte kryptographischer Systeme. Für diskrete Optimierungsprobleme<br />

werden vornehmlich randomisierte Algorithmen (diese bedienen sich <strong>des</strong> Zufalls)<br />

sowie Approximationsalgorithmen, die schnell gute Näherungslösungen liefern,<br />

hinsichtlich ihrer Laufzeit sowie der Güte der gelieferten Lösung analysiert. Auch<br />

werden hierbei evolutionäre Strategien betrachtet. Kryptographische Systeme werden<br />

zum einen theoretisch untersucht, zum anderen werden auch praktische Anwendungen<br />

auf Chipkartensysteme sowie e-commerce betrachtet.<br />

2.13.3 Forschungsvorhaben<br />

Approximationsalgorithmen<br />

Verschiedene diskrete Optimierungsprobleme lassen sich als Probleme auf Graphen<br />

oder Hypergraphen formulieren. Dann gilt es, die Größe geeigneter Parameter zu<br />

bestimmen bzw. zu approximieren. Teilweise existieren hierfür effiziente Verfahren,<br />

häufig stellt man jedoch fest, dass die exakte Bestimmung der Parameter ein NPschweres<br />

Problem ist, also nach allgemeinem Konsens nicht in Polynomialzeit<br />

möglich ist. Um möglichst schnell Näherungslösungen von hoher Güte zu erhalten,<br />

setzt man dann Approximationsalgorithmen ein. Bei den untersuchten Strukturen zeigt<br />

sich vielfach ein quasizufälliges Verhalten der interessanten Parameter. Dieses<br />

quasizufällige Verhalten hilft bei dem Design effizienter Algorithmen. So wurden<br />

randomisierte Algorithmen zur Approximation der Unabhängigkeitszahl von<br />

bestimmten Hypergraphen eingesetzt, und diese Algorithmen konnten dann mit<br />

Derandomisierungstechniken in deterministische Verfahren konvertiert werden, wobei<br />

Laufzeit und Güte der gefundenen Lösung analysiert wurden.<br />

91


Speziell gelang es hiermit, Verteilungen von n Punkten im mehrdimensionalen<br />

Einheitswürfel deterministisch in Polynomialzeit zu bestimmen, so dass das minimale<br />

Volumen unter allen erzeugten Simplizes möglichst groß ist. Des Weiteren wurden<br />

Dimensionen von großen dünnbesetzten Paritätsprüfmatrizen über endlichen Körpern<br />

analysiert und auf k-fache Unabhängigkeit asymptotisch untersucht.<br />

Kryptosysteme<br />

Kryptosysteme, die der Verschlüsselung von Daten dienen, werden theoretisch und<br />

praktisch untersucht. Die Sicherheit derartiger Systeme beruht verschiedentlich auf<br />

vermutet NP-schweren Problemen. Untersucht wird, ob es allgemeine Verfahren gibt,<br />

derartige Probleme zumin<strong>des</strong>t theoretisch auf Kryptosysteme umzusetzen. Gewonnene<br />

Erkenntnisse werden hierbei auch auf ihre praktische Relevanz für die Anwendung in<br />

Chipkarten untersucht. Im Berichtszeitraum wurde zum Beispiel der Berlekamp-<br />

Massey Algorithmus zur Dekodierung zyklischer Co<strong>des</strong> im Hinblick auf die<br />

Bestimmung der Koeffizienten bestimmter orthogonaler Polynome untersucht.<br />

Kommunikationskomplexität<br />

Es wurden Untersuchungen zu der Kommunikationskomplexität von Funktionen f(.,.)<br />

mit zwei Argumenten speziell <strong>des</strong> Hammingabstan<strong>des</strong> durchgeführt. Die<br />

Kommunikationskomplexität ist hierbei die Anzahl Bits, die zwei Personen<br />

austauschen müssen, um gemeinsam einen Funktionswert f(x,y) zu berechnen, wenn<br />

anfangs eine Person nur String x und die andere Person nur String y kennt. Es zeigte<br />

sich hierbei, dass für die Analyse der Kommunikationskomplexität <strong>des</strong> Hamming-<br />

Abstan<strong>des</strong> die Nullstellen von Krawchouk-Polynomen von Bedeutung sind.<br />

Ausgehend von einem Problem von Wigderson hinsichtlich der Additivität der<br />

Schaltkreistiefe bei der Komposition zweier Funktionen gelang es, mit Methoden aus<br />

der Datenkompression zu zeigen, dass eine exakte Additivität im allgemeinen nicht<br />

gegeben ist. Der asymptotische Fall ist hier jedoch noch offen.<br />

Evolutionsstrategien<br />

Die Fertigungssegmentierung ist ein strategisches Planungsproblem, <strong>des</strong>sen Lösung<br />

einen langfristigen Einfluss auf die Kosten und somit auf die Wettbewerbsfähigkeit<br />

eines Unternehmens hat. Das Problem der Planung besteht im Wesentlichen aus der<br />

Ermittlung <strong>des</strong> Ressourcenbedarfs, der logischen Zusammenfassung der Ressourcen<br />

nach fertigungsorganisatorischen Aspekten zu hierarchischen Ordnungsebenen sowie<br />

deren topologisch optimaler Anordnung innerhalb der Ordnungsebenen. Mit dem<br />

Planungswerkzeug SiDiS.GA können ganzheitlich diese Faktoren optimiert werden.<br />

Anhand praxisrelevanter Anwendungsfälle konnten die Vorteile dieser ganzheitlichen<br />

Optimierung unter Verwendung von heuristischen Optimierungsverfahren, speziell<br />

genetischer Algorithmen, gegenüber dem Ansatz der Optimierung der einzelnen<br />

Faktoren aufgezeigt werden. Hierbei zeigte sich auch, welche speziellen Randfaktoren<br />

und Datenabhängigkeiten berücksichtigt werden sollten.<br />

92


2.13.4 Veröffentlichungen<br />

Zeitschriften und Tagungsbände<br />

Arnold, J., Förster, A., Gäse, Th., u. a.: Integrative modulare Produktionssystemplanung.<br />

Wissenschaftliche Schriftenreihe <strong>des</strong> Institutes für Betriebswissenschaften<br />

und Fabriksysteme, TU Chemnitz, Heft 35, ISSN 0947-2495<br />

Lefmann, H.: Sparse Parity-check Matrices over Finite Fields (Extended Abstract),<br />

Proceedings 9 th International Conferenc on Computing and Combinatorics COCOON<br />

2003, Springer Verlag , LNCS 2697, 112-121, ISSN 0302-9743<br />

Lefmann, H.: Sparse Parity-Check Matrices over GF (q), 21 Seiten, erscheint in<br />

Combinatorics, Probability and Computing, Cambridge University Press<br />

Lefmann, H.: On Heilbronn`s Problem in Higher Dimension, 10 Seiten, erscheint in<br />

Combinatorica, Springer Verlag<br />

Tamm, U.: The Berlekamp-Massey algorithm and Combinatorics, Proccedings<br />

International Workshop on Coding and Cryptography, WCC 2003, Versailles, 2003,<br />

433-443, ISBN 2-7261-1205-6<br />

Tamm, U.: Communication complexity and data compression, Proceedings 3 rd Asian-<br />

European Workshop on Coding and Information Theory, Kamogawa, Japan, 2003,<br />

92 - 95, ISBN 4-902087-04-9<br />

Tamm, U.: On a problem of Berlekamp, Proceedings 2003 International Symposium<br />

on Information Theory, Yokohama, Japan, 2003, 4, IEEE Press, ISBN 0-7803-7728-1<br />

Tamm, U.: Compression and decompression algorithms, erscheint in Algorithms of<br />

Informatics<br />

2.13.5 Vorträge<br />

Lefmann, H.: Sparse Parity Check Matrices over Finite Fields, Thirthy-fourth<br />

Southeastern International Conference on Combinatorics, Graph Theory and<br />

Computing, Boca Raton, 03. - 07.03.2003<br />

Lefmann, H.: Sparse Parity Check Matrices over Finite Fields, 9 th International<br />

Computing and Combinatorics Conference, Big Sky, MT, 25. - 28.07.2003<br />

Tamm, U.: Catalan-Zahlen und Erweiterungen, Hochschule Mittweida, 21.01.2003<br />

93


Tamm, U.: Computerschach-Experiment, Forschungsgruppe „General Theory of<br />

Information Transfer and Combinatorics“, Universität Bielefeld, 28.02.2003<br />

Tamm, U.: The Berlekamp-Massey Algorithm and Combinatorics, International<br />

Workshop on Coding and Cryptography, WCC 2003, Versailles, 24. - 28.03.2003<br />

Tamm, U.: On a Problem of Berlekamp, International Symposium on Information<br />

Theory, Yokohama, Japan, 29.06. - 04.07.2003<br />

Tamm, U.: Communication Complexity and Data Compression, 3 rd Asian-European<br />

Workshop on Coding and Information Theory, Kamogawa, Japan, 24. - 27.07.2003<br />

Tamm, U.: Communication Complexity, Symposium “Information Theory and Some<br />

Friendly Neighbours”, Zentrum für interdisziplinäre Forschung (ZIF), Bielefeld,<br />

11. - 15.08.2003<br />

Tamm, U.: The Berlekamp-Massey Algorithm and Combinatorics, Kolloquium über<br />

Kombinatorik, Universität Magdeburg, 14. - 15.11.2003<br />

2.13.6 Mitarbeit in Gremien:<br />

Lefmann, H.:<br />

- Beirat Internationales Universitäts Kolleg, TU Chemnitz<br />

- ECTS und Sokrates Beauftragter, Fakultät für Informatik<br />

- Fakultätsratsmitglied, Fakultät für Informatik<br />

- Vorsitzender <strong>des</strong> Prüfungsausschusses, Fakultät für Informatik<br />

- Promotionskommission Lingsheng Shi, Humboldt-Universität Berlin<br />

2.13.7 Sonstiges<br />

Tamm, U.: Lehrauftrag Hochschule Mittweida, Vorlesung „IT-Sicherheit“, SS 2003<br />

94


3. Studium und Lehre<br />

Das Fundament der Lehrtätigkeit der Fakultät für Informatik sind die folgenden<br />

beiden Studiengänge zur Informatik:<br />

- der klassische Diplomstudiengang Informatik,<br />

- der Diplomstudiengang Angewandte Informatik,<br />

- eine wesentliche Beteiligung am Studiengang Wirtschaftsinformatik,<br />

- die Ausbildung von Magistern nach dem Chemnitzer Modell.<br />

Außerdem bietet die Fakultät ein Ergänzungsstudium für im Beruf stehende Lehrer<br />

an. Der Studiengang Wirtschaftsinformatik wird gemeinsam mit der Fakultät für<br />

Wirtschaftswissenschaften gestaltet und mit der Philosophischen Fakultät die<br />

Magisterausbildung.<br />

Um Studenten anderer Fachrichtungen Grundkenntnisse in Informatik zu vermitteln,<br />

werden speziell konzipierte Einführungsveranstaltungen angeboten. Inhaltlich werden<br />

alle Studiengänge weiter unten in eigenen Abschnitten vorgestellt. Zunächst aber<br />

wird die Entwicklung der beiden Informatikstudiengänge anhand statistischen<br />

Materials dargestellt.<br />

Im Dezember 2003 sind in den Informatikstudiengängen über 800 Studenten<br />

eingeschrieben. Davon studieren etwa 420 Studenten den klassischen<br />

Diplomstudiengang Informatik und etwa 380 Studenten den Studiengang<br />

Angewandte Informatik.<br />

Hinzu kommen Studenten aus dem Ergänzungsstudium für Lehrer, sowie die<br />

zunehmende Anzahl von Magisterstudenten – insgesamt über 100. Zu diesen über<br />

900 Studierenden müssen noch weitere 330 hinzugezählt werden, die dem Bereich<br />

Wirtschaftsinformatik entstammen.<br />

Letztere sind zwar nominell an der Fakultät für Wirtschaftswissenschaften<br />

eingeschrieben, belasten die Fakultät für Informatik in der Betreuung durch<br />

Vorlesungen und insbesondere durch Übungen aber erheblich.<br />

Insgesamt ergibt sich zum Ende <strong>des</strong> Jahres 2003 die Zahl von 1.235 zu betreuenden<br />

Studierenden für die Fakultät für Informatik. Teilt man diese Zahl rein schematisch<br />

auf die 13 Professuren der Fakultät auf, so ergeben sich 95 Studenten pro Professur!<br />

Ein Großteil der Studenten hat erst in den vergangenen Jahren das Informatikstudium<br />

aufgenommen und fordert daher auch noch in den nächsten Jahren von der Fakultät<br />

die letzten Reserven.<br />

95


Die Zahl der Studienanfänger hat sich gegenüber den Vorjahren etwas reduziert, liegt<br />

aber immer noch in einem Bereich, der für die Fakultät eine extreme personelle<br />

Belastung darstellt. Ausschlaggebend hierfür ist einerseits die extrem dünne<br />

Personaldecke der Fakultät, sowie die darüber hinaus noch zu erwartenden<br />

Personaleinsparungen, die in einer kleinen Fakultät erheblich schwerer zu verkraften<br />

sind, als in einer großen.<br />

Der Erfolg der Angewandten Informatik ist darauf zurückzuführen, dass die Fakultät<br />

für Informatik die Angewandte Informatik aktuellen Tendenzen folgend um die<br />

Richtung Medieninformatik erweitert hat. Diese Richtung erfreut sich<br />

außerordentlicher Beliebtheit. Der Grund dafür mag in der Kombination von<br />

technischem und grafisch-künstlerischem Profil <strong>des</strong> Studienganges liegen.<br />

Bis auf das Wintersemester 2003/2004 konnte die Qualität von Lehre und<br />

Studienbedingungen trotz der hohen Belastung dank <strong>des</strong> Engagements aller Mitglieder<br />

der Fakultät gesichert werden. Bis zu diesem Semester wurden zur Unterweisung<br />

kleinerer Gruppen von Studenten bei Übungen und Praktika besonders qualifizierte<br />

Studenten höherer Semester als Tutoren eingestellt, wodurch insbesondere die<br />

Probleme, die mit der bedauernswerten Vermassung <strong>des</strong> Lehrbetriebes<br />

zusammenhängen, abgemildert werden konnten.<br />

Dies war durch den Fortfall von Geldern für studentische Hilfskräfte im zweiten<br />

Halbjahr 2003 in genanntem Wintersemester nicht mehr möglich und führte zu einer<br />

bedenklichen Krisensituation: Die Anzahl der Übungsgruppen musste um bis zu 50 %<br />

gekürzt werden, wobei gerade in den grundlegenden Studienjahren (1. und 2.<br />

Studienjahr) Massenübungen entstanden, die pädagogisch und didaktisch wertlos<br />

waren.<br />

Die im Sommersemester 2002 besetzte Professur für Medieninformatik wurde zum<br />

Wintersemester wieder frei, wodurch die Fortführung <strong>des</strong> Vertiefungsgebietes<br />

„Medieninformatik“ im Studiengang „Angewandte Informatik“ deutlich erschwert<br />

wurde – zumal hierin mittlerweile der Schwerpunkt dieses Studienganges, gemessen an<br />

der Anzahl der Studierenden, liegt.<br />

Die ersten Informatikdiplome (damals eigentlich noch Ingenieurdiplome) der TU<br />

Chemnitz wurden im Jahre 1989 verliehen. Im Jahr 2000 hat die Anzahl der<br />

Absolventen mit nur noch 13 ihren absolut niedrigsten Wert erreicht - im krassen<br />

Gegensatz zur Zahl der Anfänger. Die Zahl der Absolventen ist im Jahr 2003 auf 33<br />

gestiegen. Sie hat damit allerdings den Höchststand von 1994 bei weitem noch nicht<br />

wieder erreicht.<br />

Bei den verliehenen Diplomen im Jahr 2003 handelt es sich um 24 klassische<br />

Informatikdiplome und neun Diplome in der Angewandten Informatik. Da es den<br />

Studiengang Angewandte Informatik erst seit 1996 gibt, ist die Absolventenzahl noch<br />

gering.<br />

96


Sieht man Absolventen- und Anfängerzahlen im Zusammenhang und berücksichtigt,<br />

dass ein Informatikstudium üblicherweise vier bis sechs Jahre dauert, so wird der<br />

Grund für die aktuellen Absolventenzahlen klar:<br />

Die verhältnismäßig geringe Zahl von Studienanfängern im letzten Drittel der 90’er<br />

Jahre. Im Jahr 1994 hat diese Zahl mit nur noch 51 Anfängern ihren absoluten<br />

Tiefpunkt erreicht.<br />

Dieser Tiefpunkt ist Ergebnis der damaligen gesamtwirtschaftlichen Situation<br />

gewesen. Auch der Autor dieser Zeilen erinnert sich daran, dass damals Kollegen<br />

nach der Promotion in Informatik für einige Monate nach einer adäquaten<br />

Arbeitsstelle auf die Suche gingen (aber schließlich doch immer eine fanden).<br />

Augenblicklich hat dagegen jeder Informatiker sofort mehrere attraktive Angebote.<br />

Das Vordiplom ist eine nach zwei Studienjahren zu absolvierende Zwischenprüfung.<br />

Auf der Tabelle der bestandenen Vordiplomprüfungen ist in den letzten vier Jahren<br />

ein deutlicher Anstieg festzustellen, im Jahr 2003 sogar die höchste Anzahl seit 1991.<br />

Es ist davon auszugehen, dass dieser Anstieg recht bald eine weitere Erhöhung der<br />

Anzahl der Absolventen zur Folge hat. An der folgenden Tabelle ist interessant, dass<br />

die Anzahl der Vordiplome im Jahr 2001 der Informatik der klassischen Informatik<br />

wieder etwas höher ist als die der Angewandten Informatik, im Gegensatz zum Jahr<br />

2000.<br />

Die Vielfalt der von der Fakultät angebotenen Studiengänge Informatik, Angewandte<br />

Informatik, Ergänzungsstudium für Lehrer, Magisterstudiengänge und<br />

Wirtschaftsinformatik spiegelt das Bemühen der Fakultät wider, das Studienangebot<br />

auch zusammen mit anderen Fakultäten der TU Chemnitz in einem kontinuierlichen<br />

Prozess kritisch zu überprüfen und dadurch zu verbessern. Dieser kontinuierliche<br />

Verbesserungsprozess ist in einem Gebiet wie der Informatik, in dem die<br />

Anforderungen an die Absolventen einem solch rasanten Wechsel unterworfen sind,<br />

von ganz besonderer Bedeutung.<br />

Als Beispiel dieses Wandels sei der Bereich der „Neuen Medien“ genannt, der auf<br />

Grund der verbesserten Kommunikationsmöglichkeiten über das Internet und das<br />

world-wide-web in der letzten Zeit ganz erstaunlich gewachsen ist. Und dem Bedarf<br />

an ausgebildeten Spezialisten ist kaum nachzukommen.<br />

Als Konsequenz hat die TU Chemnitz unbürokratisch und flexibel reagiert und an der<br />

Fakultät für Informatik die erwähnte Professur der Fachrichtung Medieninformatik<br />

neu eingerichtet.<br />

97


Auch wenn das flexible Mitgestalten aktueller Entwicklungen für eine Fakultät<br />

unerlässlich sein sollte, darf man nicht außer Acht lassen, dass je<strong>des</strong> Fach einer<br />

Universität auf einem wissenschaftlichen und verhältnismäßig statischen Kern<br />

aufbaut. Ohne diesen Kern wird jede Flexibilität substanzlos und verkommt zu einem<br />

hastigen Verfolgen von Modetrends, die so plötzlich auftauchen wie sie wieder<br />

verschwinden.<br />

Deshalb wird ─ neben modernen Spezialisierungsrichtungen ─ der wissenschaftliche<br />

Kern in allen Studiengängen der Fakultät mit einem deutlichen Anteil an der zur<br />

Verfügung stehenden Unterrichtszeit vermittelt. Dem Absolventen soll diese<br />

umfassende Grundlagenausbildung das intellektuelle Rüstzeug und die hinreichende<br />

Selbstsicherheit zur selbständigen Erarbeitung und Beurteilung neuer<br />

Zusammenhänge mit auf den Berufsweg geben. Dass eine solche<br />

Grundlagenausbildung, neben Spezialfertigkeiten, auch dem Bedürfnis der<br />

Arbeitgeber nach qualifizierten Absolventen entgegenkommt, sollte nicht in Frage<br />

stehen.<br />

Aus vorstehenden Bemerkungen ergibt sich, dass zur erfolgreichen Absolvierung<br />

eines Studiengangs der Fakultät die Interessenten folgende Voraussetzungen<br />

mitbringen sollten: Wichtig sind gute Kenntnisse in Mathematik und die Freude und<br />

Fähigkeit auf einer abstrakten, formalen Ebene zu arbeiten. Allgemein menschliche<br />

Fähigkeiten wie Geschick und Gewandtheit im sozialen Umgang sind nicht nur, wie<br />

inzwischen allgemein bekannt, im späteren Berufsleben unabdingbar, sondern sie<br />

tragen auch zu einem zufriedenstellenderen Verlauf <strong>des</strong> Studiums, und damit zu<br />

besseren Leistungen bei. In diesem Zusammenhang sollte darauf hingewiesen<br />

werden, dass Englischkenntnisse in der Informatikbranche sehr wichtig sind. Sie sind<br />

aber keine formale Voraussetzung für die Aufnahme eines Informatikstudiums.<br />

Mögliche Informatikkenntnisse aus der Schule sind sicherlich sinnvoll. Es ist aber zu<br />

betonen, dass sie nicht zwingend erforderlich sind, um einen Informatikstudiengang<br />

erfolgreich zu absolvieren. Das gleiche gilt auch für Programmierkenntnisse und den<br />

Besitz eines eigenen Computers.<br />

98


Für alle auftretenden informatikspezifischen Fragen und Probleme steht als erster<br />

Ansprechpartner die Fachstudienberatung oder der Studiendekan der Informatik zur<br />

Verfügung, die fast immer weiterhelfen können.<br />

Ansprechpartnerin Dipl.-Math. Margitta Pippig<br />

Fachstudienberatung<br />

Postanschrift Technische Universität Chemnitz<br />

Fakultät für Informatik<br />

TU Chemnitz<br />

09107 Chemnitz<br />

Sitz: Straße der Nationen 62<br />

Zi. 226 f<br />

Tel.: (03 71) 5 31-13 63<br />

E-Mail: margitta.pippig@informatik.tu-chemnitz.de<br />

URL: http://www.tu-chemnitz.de/informatik<br />

Für allgemeine Fragen auch zur Einschreibung und den zu berücksichtigenden<br />

Terminen ist die Zentrale Studienberatung zuständig.<br />

Postanschrift Technische Universität Chemnitz<br />

Zentrale Studienberatung<br />

TU Chemnitz<br />

09107 Chemnitz<br />

Sitz: Straße der Nationen 62<br />

Zi. 046<br />

Tel.: (03 71) 5 31-18 40/-16 37/-16 90<br />

E-Mail: studienberatung@tu-chemnitz.de<br />

URL: http://www.tu-chemnitz.de/studium/beratung/<br />

Im Folgenden wird das Studienangebot der Fakultät im Einzelnen erläutert. Die<br />

Prüfungs- und Studienordnungen der reinen Informatikstudiengänge können Sie unter<br />

der oben angegebenen www-Adresse der Fachstudienberatung abrufen.<br />

99


Der Diplomstudiengang Informatik<br />

Wie alle Diplomstudiengänge unterteilt sich der Diplomstudiengang Informatik in ein<br />

Grundstudium, das die ersten vier Semester ausfüllt und ein Hauptstudium, das in der<br />

Informatik die darauffolgenden fünf Semester umfasst. Damit ist der Abschluss <strong>des</strong><br />

Studiums innerhalb von neun Semestern, das sind 4 ½ Jahre, möglich. Neben der<br />

Informatik an sich studiert jeder Student ein Nebenfach aus dem Angebot der TU<br />

Chemnitz, das während der ganzen Zeit beibehalten wird. Die Lehrveranstaltungen<br />

<strong>des</strong> Nebenfachs schlagen mit etwa einem Fünftel der zur Verfügung stehenden Zeit<br />

zu Buche. Ziel dieses Nebenfachs ist es, den Blick der Absolventen auch für<br />

informatikferne Probleme zu schärfen, <strong>des</strong>halb kann das Nebenfach sowohl aus den<br />

ingenieur- und naturwissenschaftlichen Richtungen, als auch aus den<br />

geisteswissenschaftlichen Richtungen gewählt werden. Die allgemeine Einsicht, dass<br />

eine Horizonterweiterung immer etwas Positives hat, hat im Zusammenhang mit der<br />

Informatik eine ganz besondere Relevanz, denn die meisten praktischen<br />

Anwendungen der Informatik lösen Probleme in informatikfernen Wissensgebieten.<br />

Das Grundstudium ist im Wesentlichen schulmäßig organisiert. Das heißt, der<br />

Student besucht Lehrveranstaltungen nach einem verbindlichen Stundenplan.<br />

Dadurch wird ein bei allen Studenten gleiches Grundwissen gelegt. Das<br />

Grundstudium wird mit der Vordiplomprüfung abgeschlossen. Im Hauptstudium ist<br />

es den Studenten in von der Prüfungsordnung gegebenen recht weit gesteckten<br />

Grenzen möglich, Lehrveranstaltungen nach Interesse und Neigung auszuwählen.<br />

Das gilt insbesondere für eine Vertiefungsrichtung, in der die Diplomarbeit<br />

geschrieben wird.<br />

Gemäß dem Studienplan ist die Diplomarbeit zum Abschluss <strong>des</strong> Studiums im<br />

neunten Semester anzufertigen. Studienbegleitende Proseminare, Seminare, Praktika<br />

und Projektarbeiten stellen den Anwendungsbezug der Ausbildung und der<br />

Vermittlung überfachlicher Fähigkeiten, wie Rhetorik und didaktischem Geschick<br />

sicher.<br />

Den Absolventen <strong>des</strong> Diplomstudiengangs Informatik bieten sich mannigfache<br />

Berufschancen sowohl in öffentlicher Verwaltung, im wissenschaftlichem Bereich ─<br />

etwa zwecks einer Promotion ─ oder in Industrieunternehmen. Gemäß seiner<br />

Ausbildung wird der Diplom-Informatiker zumin<strong>des</strong>t zum Berufsanfang techniknah<br />

eingesetzt. Der weitere Verlauf der beruflichen Laufbahn ist damit aber keineswegs<br />

vorgeschrieben. Im Laufe der Zeit können bei Interesse und Eignung auch<br />

Führungspositionen administrativen Charakters eingenommen werden.<br />

100


Der Diplomstudiengang Angewandte Informatik<br />

Wie der Diplomstudiengang Informatik teilt sich der Studiengang Angewandte<br />

Informatik in Grund- und Hauptstudium, die Gesamtstudienzeit beträgt wieder neun<br />

Semester. Charakteristisch für das Studium der Angewandten Informatik ist die<br />

intensive Beschäftigung mit einer angewandten Vertiefungsrichtung, die in einem<br />

wesentlich größerem Umfang als das Nebenfach <strong>des</strong> Diplomstudiengangs studiert wird.<br />

Im Gegensatz zum Nebenfach ist die Vertiefungsrichtung im Studienplan eng mit dem<br />

eigentlichen Informatikstudium verzahnt. Im Unterschied zum reinen<br />

Informatikstudium beinhaltet das Studium der Angewandten Informatik zusätzlich ein<br />

15-wöchiges Betriebspraktikum, das in der vorlesungsfreien Zeit zu absolvieren ist und<br />

einen Einblick ins eigentliche Berufsleben verschafft.<br />

Das Studium der Angewandten Informatik ist mit folgenden Vertiefungsrichtungen<br />

möglich:<br />

- Eingebettete Systeme,<br />

- Informations- und Kommunikationssysteme,<br />

- Konstruktions- und Produktionstechnik,<br />

- Medieninformatik.<br />

Das Gebiet der Eingebetteten Systeme beschäftigt sich speziell mit techniknahen<br />

Computerprogrammen, eben Programmen, die direkt in einem technischen<br />

Zusammenhang eingebettet sind. Beispiele sind etwa Programme zur<br />

Maschinensteuerung. Bei den Informations- und Kommunikationssystemen geht es<br />

um Rechnernetze, deren bekanntester Vertreter das Internet ist. Allerdings spielen<br />

Rechnernetze auch in kleinerem Rahmen als sogenannte Intranets (im Gegensatz zum<br />

Internet) eine Rolle.<br />

Konstruktions- und Produktionstechnik ist ein in der Fakultät für Maschinenbau<br />

angesiedeltes Vertiefungsgebiet. Die Medieninformatik ist eine ganz aktuelle<br />

Richtung und stillt das Bedürfnis nach Informatikern, die um die Außenwirkung von<br />

Computerprogrammen wissen, das heißt, die zum Beispiel mit den Möglichkeiten<br />

und Grenzen der Bildschirmgestaltung vertraut sind.<br />

Die drei Vertiefungsrichtungen: Eingebettete Systeme, Informations- und<br />

Kommunikationssysteme und Medieninformatik sind direkt der Informatik zu-gehörig,<br />

während die Konstruktions- und Produktionstechnik weit über die Informatik<br />

hinausführt. Die meisten Studenten der Angewandten Informatik verteilen sich auf die<br />

beiden Vertiefungsrichtungen: Informations- und Kommunikationssysteme und<br />

Medieninformatik. Die Berufsaussichten sind vergleichbar zu denen der klassischen<br />

Informatik. Wegen mangelnden Interesses wurde die vormals angebotene<br />

Vertiefungsrichtung Angewandte Chemie eingestellt.<br />

101


Das Ergänzungsstudium für Lehrer<br />

Das Ergänzungsstudium Informatik für Lehrer wird von der Fakultät angeboten, um<br />

dem akuten Mangel von Informatiklehrern an den verschiedenen Schultypen zu<br />

begegnen. Es dauert 4 Semester für Mittelschullehrer und 6 Semester für Lehrer an<br />

berufsbildenden Schulen und Gymnasien. Die Auswahl der Teilnehmer erfolgt über<br />

die zuständigen Schulämter. Der Anzahl der Teilnehmer ist pro Jahr auf 50 bis 60<br />

begrenzt.<br />

Wirtschaftsinformatik<br />

Der Studiengang der Wirtschaftsinformatik wird zu etwa einem Drittel von der<br />

Fakultät für Informatik und zu zwei Dritteln von der Fakultät für<br />

Wirtschaftswissenschaften gestaltet. Ende 2003 sind 330 Studenten in der<br />

Wirtschaftsinformatik eingeschrieben, zum WS 2003 haben etwa 45 Neuanfänger das<br />

Studium aufgenommen. Absolventen der Wirtschaftsinformatik tragen dem<br />

Bedürfnis der Industrie nach Informatikern mit umfassenden Kenntnissen der<br />

Wirtschaftswissenschaften Rechnung. Die Tätigkeitsbereiche von<br />

Wirtschaftsinformatikern sind eher nicht-technischer Natur, wie es zum Beispiel der<br />

Vertrieb oder die Arbeit in einer Unternehmensberatung ist. Allerdings sind auch hier<br />

die Grenzen zu klassischen Informatikertätigkeiten, wie Systemwartung oder<br />

Programmierung durchlässig. Organisatorisch ist der Studiengang<br />

Wirtschaftsinformatik an der Fakultät für Wirtschaftswissenschaften angesiedelt.<br />

Weitere Informationen gibt der zuständige Fachstudienberater der Fakultät für<br />

Wirtschaftswissenschaften, Prof. Dr. Bernd Stöckert.<br />

Informatik im Magisterstudiengang<br />

Zusammen mit einem Fach der Philosophischen Fakultät kann Informatik als zweites<br />

Hauptfach eines Magisterstudiengangs studiert werden. Die möglichen<br />

Fächerkombinationen (zum Beispiel 1. Hauptfach Anglistik, 2. Hauptfach<br />

Informatik) tragen dem Bedürfnis nach soliden Informatikkenntnissen auch bei<br />

geisteswissenschaftlichen Tätigkeiten, etwa bei Verlagen und Zeitschriften<br />

Rechnung. Darüber schätzen auch informatiktypische Arbeitgeber gelegentlich den<br />

durch eine geisteswissenschaftliche Ausbildung wesentlich veränderten Blickwinkel.<br />

Ende 2003 sind 37 Studenten in einem Magisterstudiengang mit 2. Hauptfach<br />

Informatik eingeschrieben. Die ersten Ansprechpartner zu den<br />

Magisterstudiengängen sind die Studienberater der Philosophischen Fakultät.<br />

102


Höhere wissenschaftliche Abschlüsse<br />

Wie jede Fakultät einer Universität besitzt die Fakultät für Informatik der TU<br />

Chemnitz das Promotions- und Habilitationsrecht. Interessenten an einem solchen<br />

höheren Abschluss müssen von einem Professor oder einer Professorin der Fakultät<br />

wissenschaftlich betreut sein. Habilitationen sind eher seltene Ereignisse. Bisher fand<br />

erst eine an der Fakultät statt: Dr. Kühnhauser (inzwischen Professor an der TU<br />

Ilmenau) im Jahre 1999. Zwei Promotionen konnten im Jahr 2003 erfolgreich<br />

abgeschlossen werden.<br />

Übersicht der angebotenen Lehrveranstaltungen<br />

Die folgende Darstellung der im Sommersemester 2003 und Wintersemester<br />

2003/2004 angebotenen Vorlesungen, Seminare und Praktika zeigt, dass sich die<br />

Fakultät erfolgreich bemüht, trotz der hohen Studentenzahlen, interessierten<br />

Studenten vertiefende Lehrveranstaltungen spezielleren Charakters anzubieten. Diese<br />

vertiefenden Lehrveranstaltungen sind unabdingbar, da sie ein wissenschaftliches<br />

Studium an einer Universität erst ausmachen. Es ist darauf hinzuweisen, dass die<br />

folgende Aufstellung aus Gründen der Überschaubarkeit nicht die zu fast allen<br />

Vorlesungen gehaltenen Übungen enthält.<br />

(In der folgenden Aufstellung steht V für Vorlesung, S für Seminar, P für Praktikum.)<br />

103


Sommersemester 2003<br />

Professur Datenverwaltungssysteme<br />

(Prof. W. Benn)<br />

Datenbanken II V 2<br />

Datenstrukturen V 4<br />

Seminar Datenbanken S 2<br />

Juniorprofessur Echtzeitsysteme<br />

(Dr. R. Baumgartl)<br />

Echtzeitsysteme V 2<br />

Proseminar Moderne Betriebssysteme S 2<br />

Forschungsseminar Betriebssysteme S 2<br />

Praktikum Embedded Programming P 4<br />

Professur Graphische Datenverarbeitung und Visualisierung<br />

(Prof. G. Brunnett)<br />

Computergraphik II V 2<br />

Solid Modeling V 2<br />

Algorithmen und Datenstrukturen V 1<br />

Virtual Reality V 2<br />

Grundlagen Objektrekonstruktion V 2<br />

Computergraphik P 4<br />

Professur Informationssysteme und Softwaretechnik<br />

(Prof. P. Kroha)<br />

Informationssysteme V 2<br />

Softwaretechnologie I V 2<br />

Soltwarepraktikum V 1<br />

Seminar CASE-Werkzeuge S 2<br />

Professur Künstliche Intelligenz<br />

(Prof. W. Dilger)<br />

Künstliche Intelligenz V 3<br />

Data-Mining V 2<br />

Bildverarbeitung V 2<br />

Expertensysteme V 2<br />

Konnektionistische Wissensverarbeitung V 2<br />

Kognition V 2<br />

Proseminar KI S 2<br />

Forschungsseminar KI/MoSi S 2<br />

104


Professur Medieninformatik<br />

(Prof. C. Wolff)<br />

Multimediaapplikationen V 2<br />

Integrierte Multimediastandards V 2<br />

Medienprogrammierung V 2<br />

Seminar Web, Service und Engineering S 2<br />

Multimediaapplikationen P 2<br />

Professur Modellierung und Simulation<br />

(Prof. P. Köchel)<br />

Stochastische Entscheidungsprozesse V 2<br />

Modellierung und Simulation V 2<br />

Forschungsseminar KI/MoSi S 2<br />

Proseminar Spez. In Informatik S 2<br />

Professur Praktische Informatik<br />

(Prof. G. Rünger)<br />

Compilerbau II V 2<br />

Höhere Programmiersprachen V 2<br />

Theorie der Programmiersprachen V 2<br />

Seminar Parallele Programmierung S 2<br />

Praktikum Java P 4<br />

Professur Rechnerarchitektur und Mikroprogrammierung<br />

(Prof. W. Rehm)<br />

Cluster- und Gridcomputing V 2<br />

Rechnerorganisation V 4<br />

Parallelrechner V 2<br />

Cluster- u. Gridcomputing P 4<br />

Professur Rechnernetze und Verteilte Systeme<br />

(Prof. U. Hübner)<br />

Prinzipien der Systemadministration V 2<br />

Proseminar Rechnernetze S 2<br />

Protokolle und Management V 4<br />

Rechnernetz-Sicherheit V 2<br />

Seminar Workshop Rechnernetze S 2<br />

Professur Systemprogrammierung und Betriebssysteme<br />

(Prof. W. Kalfa)<br />

Betriebssysteme u. Rechnernetze V 2<br />

105


Professur Technische Informatik<br />

(Prof. W. Hardt)<br />

Hardware/Software Co<strong>des</strong>ign V 2<br />

Hardwarepraktikum P 2<br />

Professur Theoretische Informatik<br />

(Prof. A. Goerdt)<br />

Theoretische Informatik II V 4<br />

Höhere Programmiersprachen V 2<br />

Wahrscheinlichkeitsrechnung V 2<br />

Seminar (Ober) zur Fragen der Theoretischen Informatik S 2<br />

Proseminar/Seminar Spielbaumsuche S 2<br />

Professur Theoretische Informatik u. Informationssicherheit<br />

(Prof. H. Lefmann)<br />

Theoretische Informatik III V 3<br />

Theoretische Informatik I V 4<br />

Datensicherheit II V 2<br />

Seminar Approximationsalgorithmen S 2<br />

Proseminar Kodierverfahren S 2<br />

Proseminar Effiziente Algorithmen S 2<br />

Seminar (Ober) Theoretische Informatik u. Informationssicherh. S 2<br />

Fakultätsrechen- und Informationszentrum<br />

(Dr. Müller)<br />

Grundlagen der Informatik V 2<br />

Informatik Grundlagen V 2<br />

Praktikum Grundlagen der Informatik P 4<br />

106


Wintersemester 2003/2004<br />

Professur Datenverwaltungssysteme<br />

(Prof. W. Benn)<br />

Datenbanken V 2<br />

Objektorientierte Datenbanken V 2<br />

Seminar Implementation von Datenbanksystemen S 2<br />

Juniorprofessur Echtzeitsysteme<br />

(Dr. R. Baumgartl)<br />

Betriebssysteme II V 2<br />

Professur Graphische Datenverarbeitung und Visualisierung<br />

(Prof. G. Brunnett)<br />

Geometrische Modellierung V 2<br />

Computergrafik V 2<br />

Algorithmen und Datenstrukturen V 3<br />

Seminar Computergrafik S 2<br />

Professur Informationssysteme und Softwaretechnik<br />

(Prof. P. Kroha)<br />

Softwaretechnologie II V 2<br />

Information-Retrieval-Systeme V 2<br />

Seminar Software Engineering S 2<br />

Praktikum CASE-Systeme P 4<br />

Professur Künstliche Intelligenz<br />

(Prof. W. Dilger)<br />

Maschinelles Lernen V 2<br />

Robotik V 2<br />

Logische Programmierung V 2<br />

Multiagentensysteme V 2<br />

Einführung in die Informatik V 2<br />

Wissenspräsentationen/Problemlösung V 2<br />

Ausgewählte KI-Aspekte der Agententechnologie S 2<br />

Forschungsseminar KI/MoSI S 2<br />

Professur Medieninformatik<br />

(Prof. C. Wolff )<br />

Mediengestaltung V 2<br />

Medientheorie V 2<br />

Mediengestaltung P 4<br />

107


Professur Modellierung und Simulation<br />

(Prof. P. Köchel)<br />

Algorithmen und Programmierung V 3<br />

Stochastische Modell V 2<br />

Forschungsseminar KI/MoSI S 2<br />

Professur Praktische Informatik<br />

(Prof. G. Rünger)<br />

Parallele und verteilte Programmierung V 4<br />

Compilerbau I V 2<br />

Seminar Compileroptimierung bei Parallelrechnern S 2<br />

Praktikum Compilerwerkzeuge und Parallelverarbeitung P 4<br />

Professur Rechnerarchitektur und Mikroprogrammierung<br />

(Prof. W. Rehm)<br />

Maschinenorientierte Programmierung V 2<br />

Rechnerarchitektur V 3<br />

Maschinenorientierte Programmierung P 1<br />

Rechnerarchitektur P 1<br />

Seminar Hauptseminar Cluster/Grid/P2P/-Computing S 2<br />

Professur Rechnernetze und Verteilte Systeme<br />

(Prof. U. Hübner)<br />

Rechnernetze V 2<br />

Entwurf verteilter Systeme V 2<br />

Multimedia-Netz-Praxis V 1<br />

Werkzeuge und Techniken für digitale Publikationen V 1<br />

Multimedia-Netz-Praxis V 1<br />

Netzwerkmanagement V 2<br />

Professur Betriebssysteme und Systemprogrammierung<br />

(Prof. W. Kalfa)<br />

Betriebssysteme V 2<br />

Systemprogrammierung V 2<br />

Proseminar Linux-Internals S 2<br />

Professur Technische Informatik<br />

(Prof. W. Hardt)<br />

Digitaltechnik V 4<br />

Rechnerorganisation und Rechnerarchitekturen V 2<br />

Hardwarepraktikum P 4<br />

108


Professur Theoretische Informatik<br />

(Prof. A. Goerdt)<br />

Datenschutz/Datensicherheit V 2<br />

Parallele Algorithmen V 2<br />

Multimedia V 2<br />

Proseminar Heuristisches Suchen S 2<br />

Seminar Kommunkationskomplexität S 2<br />

Seminar Heuristisches Suchen S 2<br />

Professur Theoretische Informatik u. Informationssicherheit<br />

(Prof. H. Lefmann)<br />

Theoretische Informatik I V 4<br />

Approximations- und Online-Algorithmen V 2<br />

Systemsicherheit V 2<br />

Datensicherheit V 2<br />

Proseminar Datenkompression S 2<br />

Seminar (Ober) Theoretische Informatik S 2<br />

Praktikum Informationssicherheit P 4<br />

Fakultätsrechen- und Informationszentrum<br />

(Dr. Müller)<br />

Grundlagen der Informatik V 2<br />

109


110


4. Kenndaten der Fakultät<br />

4.1 Entwicklungsgeschichte der Fakultät<br />

1969 Gründung der Sektion Rechentechnik und Datenverarbeitung einschließlich<br />

Rechenzentrum<br />

Grundlagenausbildung in Informatik für alle Fakultäten<br />

1970 Nebenfachausbildung in Informatik für Studenten der Mathematik<br />

1981 Nebenfachausbildung in Informatik für Studenten <strong>des</strong> Maschinenbaues<br />

1984 Umbenennung in Sektion Informatik<br />

Hauptfachausbildung in Informatik<br />

1988 Ausbildung von Berufsschullehrern mit Zweitfach Informatik<br />

1991 Teilung der Sektion Informatik in den Fachbereich Informatik und das<br />

Universitätsrechenzentrum<br />

1992 Neustrukturierung <strong>des</strong> Fachbereiches Informatik<br />

1993 Gründung der Fakultät für Informatik<br />

1996 Start <strong>des</strong> Studienganges Angewandte Informatik<br />

1999 Einrichtung der Vertiefungsrichtung Medieninformatik innerhalb <strong>des</strong><br />

Studienganges Angewandte Informatik<br />

111


112


4.2 Veranstaltungen der Fakultät<br />

4.2.1 Informatik-Kolloquien 2003<br />

Prof. Dr. Dr. Christian Posthoff<br />

University of the West Indies, Trinidad and Tobago<br />

Mittwoch, 25.06.2003, 14:00 Uhr, Raum 1/336<br />

Parallelisierung <strong>des</strong> SAT-Problems<br />

Prof. Dr. Klaus Meer<br />

University of Southern Denmark, Odense<br />

Montag, 02.06.2003, 14:00 Uhr, Raum 1/336<br />

Reelle Komplexitätstheorie: Eine Einführung<br />

Josef Kohout<br />

Universität von Westböhmen, Pilsen<br />

Mittwoch, 07.05.2003, 14:00 Uhr, Raum 1/336<br />

Delaunay triangulation in 2D and 3D in parallel and distributed environment<br />

Prof. Dr. Ivana Kolingerova<br />

Universität von Westböhmen, Pilsen<br />

Dienstag, 06.05.2003, 10:00 Uhr, Raum 1/336<br />

Speeding Up Delaunay Triangulation in 2D and 3D<br />

Prof. Wilfried Krug<br />

DUALIS GmbH Dresden<br />

Donnerstag, 03.04.2003, 13:45 Uhr, Raum 1/336<br />

Integration von Simulations- und Optimierungstools in der Produktions-Planung und<br />

-Steuerung<br />

Dr. Amin Coja-Oghlan<br />

Humboldt-Universität zu Berlin<br />

Donnerstag, 30.01.2003, 14:00 Uhr, Raum 1/336<br />

Approximieren der chromatischen Zahl zufälliger Graphen mittels semidefiniter<br />

Programmierung<br />

Prof. Dr. rer. nat. Klaus Hering<br />

Hochschule für Technik, Wirtschaft und Kultur, Leipzig<br />

Mittwoch, 22.01.2003, 12:30 Uhr, Raum 1/336<br />

Parallele compilergesteuerte Logiksimulation auf Modellpartitionierungsbasis<br />

113


4.2.2 Weitere Veranstaltungen<br />

Zentral geplante Veranstaltungen der Technischen Universität Chemnitz wurden<br />

vorbereitet und deren Durchführung unterstützt. Dazu gehören:<br />

- Tage der offenen Tür<br />

(09.01.2003 und 14.06.2003)<br />

- Chemnitzer Herbstuniversität<br />

(21.10.2003 – 23.10.2003)<br />

- Girls Day<br />

(08.05.2003)<br />

- Studentenwerbung „5 vor 12“<br />

(27.09.2003)<br />

- 50. Jahrestag der Gründung der Hochschule für Maschinenbau in Karl-Marx-Stadt<br />

(25.11.2003)<br />

114


4.3 Kenndaten der Ausbildung<br />

4.3.1 Anzahl und Entwicklung der Studentenzahlen<br />

Stand: 01.12.2003<br />

Informatik: 421<br />

Angewandte Informatik: 383<br />

Informatik, Magister-Hauptfach 37<br />

Lehramtskandidaten: 64<br />

Wirtschaftsinformatik: 330<br />

Promotionsstudenten: 8<br />

Studienanfänger<br />

Jahr Studienanfänger<br />

Informatikstudiengänge<br />

Studienanfänger<br />

Informatik<br />

Studienanfänger<br />

Angewandte<br />

Informatik<br />

1984 25<br />

1985 50<br />

1986 100<br />

1987 100<br />

1988 110<br />

1989 110<br />

1990 110<br />

1991 110<br />

1992 70<br />

1993 60<br />

1994 51<br />

1995 55<br />

1996 81 65 16<br />

1997 82 69 13<br />

1998 96 71 25<br />

1999 179 103 66<br />

2000 280 125 155<br />

2001 239 117 122<br />

2002 189 104 85<br />

2003 155 97 58<br />

115


Vordiplom<br />

Jahr Anzahl<br />

Vordiplome<br />

Notendurchschnitt<br />

Vordiplome<br />

Informatik<br />

Vordiplome<br />

Angewandte<br />

Informatik<br />

1991 86 2,5 86<br />

1992 86 2,7 86<br />

1993 57 2,8 57<br />

1994 43 2,8 43<br />

1995 40 2,9 40<br />

1996 19 2,8 19<br />

1997 23 2,5 23<br />

1998 33 2,7 25 8<br />

1999 36 2,6 36 0<br />

2000 39 2,5 16 23<br />

2001 45 2,7 31 14<br />

2002 69 2,6 51 18<br />

2003 89 2,5 40 48<br />

116


4.3.2 Absolventen<br />

Habilitationen<br />

Insgesamt: 1<br />

davon 2003: 0<br />

Promotionen<br />

Insgesamt: 25<br />

davon 2003: 2 (Wellner, J. und Vanco, M.)<br />

Diplomanden<br />

Jahr Anzahl Diplome<br />

Notendurchschnitt<br />

1989 22<br />

1990 42<br />

1991 79<br />

1992 83<br />

1993 67 2,0<br />

1994 70 1,6<br />

1995 51 2,0<br />

1996 54 2,0<br />

1997 38 2,0<br />

1998 39 2,8<br />

1999 23 2,0<br />

2000 13 1,9<br />

2001 21 2,1<br />

2002 36 2,0<br />

2003 33 1,8<br />

117


118


4.4 Ausstattung<br />

4.4.1 Personalentwicklung<br />

Jahr 1996 1997 1998 1999 2000 2001 2002 2003<br />

Professuren<br />

wiss. Mitarbeiter<br />

11 11 10 10 12 13 13 13<br />

- Land 28 27 23 25 27 27 30 30<br />

- Drittmittel 10 11 13,5 13 14,5 13 17 17<br />

nichtwiss.<br />

Mitarbeiter<br />

20 20 18 17 16 17 16 16<br />

4.4.2 Sachmittel (Lan<strong>des</strong>mittel)<br />

Jahr 1996 1997 1998 1999 2000 2001 2002 2003<br />

(TDM) (TDM) (TDM) (TDM) (TDM) (TDM) (TEuro) (TEuro)<br />

TG 51<br />

Lehre und<br />

Forschung<br />

225 309 356,5 337,5 362 491 89,2 109<br />

Stud./wissen.<br />

Hilfskräfte<br />

170 200 137 114 205 319 219 110<br />

119

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!