Einleitende Worte des Dekans
Einleitende Worte des Dekans
Einleitende Worte des Dekans
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Fakultät für Informatik<br />
Jahresbericht 2003
Herausgeber Fakultät für Informatik<br />
TU Chemnitz<br />
09107 Chemnitz<br />
Redaktion: Prodekanin der Fakultät<br />
http://www.tu-chemnitz.de/informatik/<br />
http://www.tu-chemnitz.de/informatik/fakultaet/jbericht/bericht_2003.pdf<br />
© Fakultät für Informatik, TU Chemnitz<br />
2
Inhaltsverzeichnis<br />
<strong>Einleitende</strong> <strong>Worte</strong> <strong>des</strong> <strong>Dekans</strong> 5<br />
1. Einrichtungen der Fakultät für Informatik<br />
1.1 Organisation und Verwaltung 9<br />
1.2 Professuren der Fakultät 11<br />
1.3 Fakultäts- und Informationszentrum 13<br />
1.4 Lehraufträge 19<br />
1.5 Fachschaft Informatik 19<br />
2. Forschungsprofil<br />
2.1 Datenverwaltungssysteme 21<br />
2.2 Echtzeitsysteme 25<br />
2.3 Graphische Datenverarbeitung und Visualisierung 27<br />
2.4 Informationssysteme und Softwaretechnik 41<br />
2.5 Künstliche Intelligenz 47<br />
2.6 Modellierung und Simulation 55<br />
2.7 Praktische Informatik 61<br />
2.8 Rechnerarchitektur und Mikroprogrammierung 67<br />
2.9 Rechnernetze und Verteilte Systeme 73<br />
2.10 Systemprogrammierung und Betriebssysteme 79<br />
2.11 Technische Informatik 81<br />
2.12 Theoretische Informatik 87<br />
2.13 Theoretische Informatik und Informationssicherheit 91<br />
3
3. Studium und Lehre 95<br />
4. Kenndaten der Fakultät<br />
4.1 Entwicklungsgeschichte der Fakultät 111<br />
4.2 Veranstaltungen der Fakultät 113<br />
4.2.1 Informatik-Kolloquien 113<br />
4.2.2 Weitere Veranstaltungen 114<br />
4.3 Kenndaten der Ausbildung 115<br />
4.3.1 Anzahl und Entwicklung der Studentenzahlen 115<br />
4.3.2 Absolventen 117<br />
4.4 Ausstattung 119<br />
4.4.1 Personalentwicklung 119<br />
4.4.2 Sachmittel (Lan<strong>des</strong>mittel) 119<br />
4
<strong>Einleitende</strong> <strong>Worte</strong> <strong>des</strong> <strong>Dekans</strong><br />
Wir haben das Ende von 2003 erreicht und schauen vorwärts auf das Jahr 2004.<br />
Mit diesem Jahresbericht werfen wie einen Blick zurück, um zu sehen, was sich<br />
ereignet hat, und um eine erweiterte Perspektive auf das Bevorstehende einnehmen<br />
zu können.<br />
Unverändert rankt sich alles an einer Fakultät um Forschung und Lehre. Die<br />
Organisation hat der optimalen Verbindung beider Komplexe zu dienen.<br />
Entsprechend finden Sie im Kern unter den Punkten 2 und 3 Informationen zu<br />
unserem Forschungsprofil bzw. Lehre und Studium. Die Punkte 1 und 4 vermitteln<br />
mit Daten zur Organisation und Verwaltung sowie einigen statistischen Kennwerten<br />
die Umgebung.<br />
Gestatten Sie, dass ich zu diesen Angaben einige Ergänzungen bzw. Heraushebungen<br />
mache.<br />
Die Entwicklung der Fakultät war eingebettet in die lan<strong>des</strong>weiten Forderungen zum<br />
Abbau von Etat-Stellen, den Beschränkungen im Hochschulbau sowie den<br />
allgemeinen Diskussionen zu Hochschulautonomie, Globalhaushalt, leistungsorientierte<br />
Mittelzuweisungen, neue Steuerungsmodelle, Vermarktung von<br />
Forschungsergebnissen sowie der Einführung konsekutiver Studiengänge, Bachelor<br />
und Master, im Sinne <strong>des</strong> Bologna-Prozesses.<br />
In der Mitte <strong>des</strong> Berichtszeitraumes konnten wir erfolgreich die auf Werkzeuge für<br />
den Systementwurf, Hardware/Software Co<strong>des</strong>ign und Eingebettete Systeme<br />
ausgerichtete Professur (vormals Herr Prof. Monjau) mit unveränderter<br />
Schwerpunktsetzung unter der neuen Bezeichnung „Technische Informatik“ durch<br />
Herrn Prof. Hardt besetzen. Einhergehend damit erfolgte auch die Planung zum<br />
Neuausbau eines entsprechenden Labores.<br />
Durch den unvorhersehbaren Weggang <strong>des</strong> Stelleninhabers der Professur<br />
Medieninformatik entstand eine Lücke, die bis heute nur durch Professurvertretungen<br />
ersatzweise geschlossen werden konnte.<br />
Ein schmerzlicher Einschnitt war die durch den allgemeinen Stellenabbau geforderte<br />
planmäßige Streichung einer der schon wenigen Professuren unserer Fakultät bis<br />
2010.<br />
Die Neubeantragung der wegen planmäßiger Emeritierung im Jahr 2005<br />
freiwerdenden Professur Systemprogrammierung und Betriebssysteme wurde<br />
eingeleitet.<br />
5
Die getroffenen Entscheidungen beruhen auf der „Entwicklungskonzeption der<br />
Fakultät“, nach der fortgesetzt die Schwerpunkte „Parallele, verteilte und mobile<br />
Systeme“ sowie „Multimediale Systeme“ bestehen bleiben.<br />
Ein bisher nicht beseitigtes Manko seit der Gründungszeit der Fakultät bzw. Sektion<br />
vor nunmehr 35 Jahren ist ihre schwache Raumausstattung sowie große räumliche<br />
Verteilung im Hochschulkomplex Straße der Nationen. Erfreulicherweise konnten<br />
einige räumliche Ressourcenzuführungen, insbesondere auch für Drittmittel-<br />
Arbeitsplätze (zum Beispiel Professur Praktische Informatik) realisiert werden.<br />
Hinsichtlich der Drittmittel-Einwerbung konnte die Fakultät eine Steigerung<br />
erreichen. Dennoch schneidet sie hier im Vergleich der Informatikfakultäten der<br />
Bun<strong>des</strong>republik unbefriedigend ab. Es gibt jedoch eine Vielzahl von laufenden<br />
Antragsaktivitäten, mit denen eine baldige Verbesserung in Aussicht steht.<br />
Das Bemühen um Profilgewinn in der Forschung zeigt sich auch in der Vorbereitung<br />
einer Institutionalisierung der Fakultät, deren erstes Institut nach Beschluss <strong>des</strong><br />
Fakultätsrates das Institut für „E-Science Technology“ sein soll, welchem 5<br />
Professuren nebst einer Juniorprofessur angehören.<br />
In diesem Zusammenhang sowie hinsichtlich <strong>des</strong> Ausbaus <strong>des</strong> Schwerpunktes<br />
„Parallele, verteilte und mobile Systeme“ ist die Federführung der Fakultät im<br />
Rahmen <strong>des</strong> sogenannten „CHIC-Konsortiums“ zu sehen. Der betreffende „CHIC-<br />
HBFG-Antrag“ sieht den weiteren Ausbau der Hochleistungsrechentechnik der<br />
Universität im kommenden 5-Jahreszeitraum vor.<br />
Ein fakultätsbezogener HBFG-Antrag „Rekonfigurierbarer Computingcluster“<br />
befindet sich in Vorbereitung.<br />
Im Bereich Lehre und Studium ergaben sich besondere Herausforderungen durch die<br />
zwar reduzierten, aber dennoch für die personellen und materiellen<br />
Fakultätsressourcen vergleichsweise hohen Studentenzahlen, um die hohe Qualität<br />
der Ausbildung sicherzustellen. Ich empfehle Ihnen, die sehr detaillierten<br />
Ausführungen <strong>des</strong> Studiendekans unter Punkt 3 dazu zu lesen. Erwähnen möchte ich<br />
noch die lan<strong>des</strong>seitig erzwungene Einstellung der postgraduierten Ausbildung von<br />
Lehrern, welche uns kurzfristig zwar eine Erleichterung bei den<br />
Ausbildungsaufgaben, langfristig aber ein Verlust <strong>des</strong> Kontaktes zur lokalen<br />
Schulausbildung und damit zur Rekrutierung von Studenten aus den lokalem Umfeld<br />
bringt, was sehr nachteilig wirken wird.<br />
Der Bologna-Prozess löste eine Vielzahl von Diskussionen betreffs der<br />
Notwendigkeit der Einführung von Bachelor- und Masterstudiengängen im Bereich<br />
der Informatik aus.<br />
6
Trotz geteilter Meinungen wird zumin<strong>des</strong>t bei der geplanten Überarbeitung der<br />
Studien- und Prüfungsordnungen der Studiengänge Informatik und Angewandte<br />
Informatik auf entsprechende Modularisierung und ECTS-Kompatibilität geachtet<br />
werden.<br />
Ein allgemeines Problem der Informatikstudiengänge bun<strong>des</strong>weit zeichnet sich auch<br />
bei uns wieder. Es ist die hohe Studentenabbrecherquote. Informatikstudenten sind<br />
begehrte Spezialisten und es gibt fast immer genügend Arbeitsmöglichkeiten und ein<br />
hohes Gehalt. Ob Aufnahmeprüfungen, Studiengebühren oder „Frühaufklärung“<br />
darüber, was Informatik ist, es gibt keine Allheilmittel dagegen. Wir haben uns<br />
zunächst entschlossen, die „Frühaufklärung“ in Verbindung mit früher<br />
Studienwerbung zu verbessern.<br />
Es ließen sich noch viele Punkte ansprechen, die zum guten Funktionieren einer<br />
Fakultät beitragen. Es sei das wissenschaftliche Leben, die Förderung <strong>des</strong><br />
wissenschaftlichen Nachwuchses, die Mitarbeit bei der Hochschulorganisation oder<br />
der Kontakt zur Industrie, einem Hauptabnehmer unserer Informatikabsolventen.<br />
Unter den Kenndaten im Punkt 4 finden Sie dazu weitere Informationen.<br />
Mein Dank gilt allen Mitgliedern der Fakultät für Informatik für die im Jahr 2003<br />
geleistete umfangreiche Arbeit. Ich wünsche der Fakultät als Ganzes im kommenden<br />
Jahr 2004 viel Erfolg, um ihrem Auftrag, „Forschend-zu-lehren“, zum Wohle der<br />
Studenten und <strong>des</strong> Lehrkörpers, eingebettet im Ensemble der Fakultäten der<br />
Technischen Universität, gerecht werden zu können.<br />
Prof. Dr. W. Rehm<br />
Dekan<br />
Juni 2004<br />
7
1. Einrichtungen der Fakultät für Informatik<br />
1.1 Organisation und Verwaltung<br />
Dekan Prof. Dr.-Ing. Wolfgang Rehm<br />
Prodekan Prof. Dr. rer. nat. Gudula Rünger<br />
Studiendekan Prof. Dr. rer. nat. Wolfgang Benn<br />
Fakultätsrat<br />
Hochschullehrer<br />
Prof. Dr. rer. nat. Wolfgang Benn<br />
Prof. Dr. rer. nat. Guido Brunnett<br />
Prof. Dr.-Ing. habil. Uwe Hübner<br />
Prof. Dr. rer. nat. H. Lefmann<br />
Prof. Dr.-Ing. Wolfgang Rehm<br />
Prof. Dr. rer. nat. G. Rünger<br />
Wissenschaftliche Mitarbeiter<br />
Dr.-Ing. Andreas Müller<br />
Dipl.-Inf. Chris Hübsch<br />
Studenten<br />
Marc Dietzschkau<br />
Jens Wegener<br />
Gleichstellungsbeauftragte<br />
Ulrike Schönke<br />
9
Infrastruktur<br />
Sekretariat Mandy Denzau<br />
Tel.: (03 71) 5 31-13 85<br />
Fax: (03 71) 5 31-16 28<br />
E-Mail: dekanat@informatik.tu-chemnitz.de<br />
Dekanat Dipl.-Math. Margitta Pippig<br />
Tel.: (03 71) 5 31-13 63<br />
Fax: (03 71) 5 31-16 28<br />
E-Mail: mpi@informatik.tu-chemnitz.de<br />
Studenten- und Prüfungsamt Sigrid Wegner<br />
Tel.: (03 71) 5 31-14 80<br />
Fax: (03 71) 5 31-16 28<br />
E-Mail: studamt@informatik.tu-chemnitz.de<br />
10
1.2 Professuren der Fakultät<br />
An der Fakultät für Informatik sind 13 reguläre Professuren und eine Juniorprofessur.<br />
Datenverwaltungssysteme Prof. Dr. rer. nat. W. Benn<br />
Tel.: (03 71) 5 31-13 87<br />
Fax: (03 71) 5 31-15 30<br />
E-Mail: benn@informatik.tu-chemnitz.de<br />
Juniorprofessur Dr.-Ing. R. Baumgartl<br />
Echtzeitsysteme Tel.: (03 71) 5 31-15 92<br />
Fax: (03 71) 5 31-15 30<br />
E-Mail: robert.baumgartl@informatik.tu-chemnitz.de<br />
Graphische Datenverarbeitung Prof. Dr. rer. nat. G. Brunnett<br />
und Visualisierung Tel.: (03 71) 5 31-15 33<br />
Fax: (03 71) 5 31-18 01<br />
E-Mail: brunnett@informatik.tu-chemnitz.de<br />
Informationssysteme und Prof. Dr.-Ing. P. Kroha<br />
Softwaretechnik Tel.: (03 71) 5 31-16 68<br />
Fax: (03 71) 5 31-18 01<br />
E-Mail: petr.kroha@informatik.tu-chemnitz.de<br />
Künstliche Intelligenz Prof. Dr. rer. nat. habil. W. Dilger<br />
Tel.: (03 71) 5 31-15 29<br />
Fax: (03 71) 5 31-14 65<br />
E-Mail: wdi@informatik.tu-chemnitz.de<br />
Medieninformatik Prof. Dr. phil. C. Wolff<br />
Tel.: (03 71) 5 31-15 62<br />
Fax: (03 71) 5 31-18 01<br />
E-Mail: christian.wolff@informatik.tu-chemnitz.de<br />
Modellierung und Simulation Prof. Dr. rer. nat. habil. P. Köchel<br />
Tel.: (03 71) 5 31-14 29<br />
Fax: (03 71) 5 31-14 65<br />
E-Mail: peter.koechel@informatik.tu-chemnitz.de<br />
Praktische Informatik Prof. Dr. rer. nat. G. Rünger<br />
Tel.: (03 71) 5 31-17 94<br />
Fax: (03 71) 5 31-18 03<br />
E-Mail: ruenger@informatik.tu-chemnitz.de<br />
11
Rechnerarchitektur und Prof. Dr.-Ing. W. Rehm<br />
Mikroprogrammierung Tel.: (03 71) 5 31-14 20<br />
Fax: (03 71) 5 31-18 06<br />
E-Mail: rehm@informatik.tu-chemnitz.de<br />
Systemprogrammierung Prof. Dr.-Ing. habil. W. Kalfa<br />
und Betriebssysteme Tel.: (03 71) 5 31-17 15<br />
Fax: (03 71) 5 31-15 30<br />
E-Mail: kalfa@informatik.tu-chemnitz.de<br />
Technische Informatik Prof. Dr. habil. W. Hardt<br />
Tel.: (03 71) 5 31-14 67<br />
Fax: (03 71) 5 31-18 06<br />
E-Mail: hardt@informatik.tu-chemnitz.de<br />
Rechnernetze und Prof. Dr.-Ing. habil. U. Hübner<br />
Verteilte Systeme Tel.: (03 71) 5 31-14 64<br />
Fax: (03 71) 5 31-16 29<br />
E-Mail: huebner@informatik.tu-chemnitz.de<br />
Theoretische Informatik Prof. Dr. rer. nat. habil. A. Goerdt<br />
Tel.: (03 71) 5 31-13 17<br />
Fax: (03 71) 5 31-18 10<br />
E-Mail: goerdt@informatik.tu-chemnitz.de<br />
Theoretische Informatik und Prof. Dr. rer. nat. H. Lefmann<br />
Informationssicherheit Tel.: (03 71) 5 31-12 76<br />
Fax: (03 71) 5 31-18 10<br />
E-Mail: lefmann@informatik.tu-chemnitz.de<br />
12
1.3 Fakultätsrechen- und Informationszentrum (FRIZ)<br />
1.3.1 Personelle Zusammensetzung<br />
Leiter: Dr. Andreas Müller<br />
Mitarbeiterinnen: Dipl.-Ing. Ulrike Luthe<br />
Angela Tulke<br />
Jacqueline Lindner<br />
Heike Lasch<br />
Eveline Neumann<br />
1.3.2 Aufgaben und Struktur <strong>des</strong> FRIZ<br />
Das FRIZ verrichtet innerhalb der Fakultät für Informatik Dienstleistungen zur<br />
Unterstützung von Lehre und Forschung, die allen Professuren gleichermaßen zugute<br />
kommen, sowie Dienstleistungen zur Unterstützung von Verwaltungsvorgängen in der<br />
Fakultät. Aufgaben <strong>des</strong> FRIZ sind dabei vor allem die Gewährleistung der<br />
rechentechnischen Versorgung sowie die Bereitstellung zentraler Informationsdienste.<br />
Die Mitarbeiter nehmen folgende Aufgaben wahr:<br />
- die Verwaltung und den Betrieb der in den zentralen Pools der Fakultät stationierten<br />
Datenverarbeitungsanlagen und Hilfsgeräte,<br />
- die Betreuung aller zentralen Pools sowie die betriebsfachliche Aufsicht der dezentral<br />
installierten Rechentechnik,<br />
- die Wartung und die Pflege <strong>des</strong> lokalen Fakultätsnetzes und <strong>des</strong> Anschlusses an das<br />
Universitätsnetz,<br />
- die Unterstützung der technischen Betreuung der in den einzelnen Professuren<br />
vorhandenen Rechner,<br />
- die Realisierung allgemeiner Dienste im Zusammenhang mit Verarbeitung,<br />
Speicherung und Übertragung von Informationen,<br />
- die Koordinierung der Beschaffung von Datenverarbeitungsanlagen und Programmsystemen<br />
aus Haushaltsmitteln der Fakultät, Sondermitteln und Mitteln aus dem<br />
Fonds <strong>des</strong> Hochschulbauförderungsgesetzes,<br />
- die Bereitstellung von Rechendiensten auf der in den zentralen Pools stationierten<br />
Rechentechnik,<br />
- die Bereitstellung technischer Dokumentationsdienste, wie Druck- u. Kopierdienste,<br />
- die Gewährleistung von Ordnung und Sicherheit im FRIZ.<br />
13
Das FRIZ übernimmt ferner im Rahmen seiner verfügbaren Kapazität folgende<br />
Aufgaben:<br />
- Beratung und Unterstützung der Benutzer bei der Vorbereitung und Durchführung<br />
ihrer DV-Vorhaben, insbesondere bei Investitionen aus dezentralen Mitteln,<br />
- Mitwirkung im Rahmen von Lehrveranstaltungen und Forschungsvorhaben,<br />
- Enge Zusammenarbeit mit dem URZ in allen datenverarbeitungsspezifischen Fragen.<br />
- Im Jahre 2003 wurden wie in den vorherigen Jahren Praktika für Schüler an<br />
Gymnasien und Mittelschulen angeboten. Dieses Angebot wurde im Jahr 2003 von<br />
22 Schülern wahrgenommen.<br />
1.3.3 Entwicklung <strong>des</strong> FRIZ im Jahr 2003<br />
Im Jahr 2003 wurde ein Fileserver auf Intel-XEON-Basis mit einer Plattenkapazität von<br />
600 Gbyte angeschafft. Die Homeverzeichnisse der Mitarbeiter wurden dahin verlagert,<br />
so dass sich eine wesentliche Verbesserung der Arbeitsbedingungen der Mitarbeiter der<br />
Fakultät ergab.<br />
Die Nutzerverwaltung wurde umgestellt. Dabei wurden moderne Technologien auf der<br />
Basis von mysql und php angewendet.<br />
Des Weiteren standen Maßnahmen zur weiteren Erhöhung der Sicherheit <strong>des</strong><br />
Rechnernetzes im Vordergrund.<br />
Der Vertrag zur Teilnahme an MSDN-AcademicAlliance wurde unter der Regie <strong>des</strong><br />
FRIZ verlängert. Damit ergibt sich eine Kostenersparnis für die Installation von<br />
Mitarbeiterrechnern sowie die Möglichkeit, Microsoft-Produkte kostenlos an Studenten<br />
weiter zu geben. Diese Möglichkeit wurde rege genutzt. Im ersten Vierteljahr nach<br />
Vertragsverlängerung wurden insgesamt 634 Kopien von Microsoftprodukten<br />
weitergegeben.<br />
14
Neben universitätsweit verfügbaren Produkten zeigt die folgende Übersicht das<br />
Softwareangebot <strong>des</strong> FRIZ.<br />
Betriebssysteme:<br />
Solaris 7,8,9<br />
Linux SuSE 7.3 (Kernel 2.4.16)<br />
Microsoft Windows 2000, XP<br />
Anwendungssoftware:<br />
Compiler / Interpreter<br />
Modula 2<br />
PROLOG<br />
C<br />
C++<br />
FreePascal für Windows NT<br />
Datenbankbetriebssysteme<br />
SYBASE<br />
INFORMIX<br />
Ingres<br />
Postgres<br />
Ontos<br />
Oracle<br />
Weitere Software für UNIX-Betriebssysteme wird im Verzeichnis /uni/global vom<br />
Universitätsrechenzentrum bereitgestellt.<br />
Die Softwareausstattung für das Betriebssystem Microsoft Windows 2000 kann unter<br />
der URL http://www.tu-chemnitz.de/informatik/friz/rechner/pc/software_windows.php<br />
in Erfahrung gebracht werden.<br />
1.3.4 Die Nutzung <strong>des</strong> Rechenzentrums im FRIZ<br />
Mit Stand vom 31. Dezember 2003 waren folgende Accounts im Rechenzentrum <strong>des</strong><br />
FRIZ vergeben:<br />
Anzahl<br />
Mitarbeiter TU Chemnitz 157<br />
Studenten IF 711<br />
Fernstudenten 99<br />
Studenten anderer Fakultäten der TU Chemnitz 311<br />
Andere 30<br />
Summe 1308<br />
15
1.3.5 Gerätetechnische Ausstattung der Fakultät für Informatik<br />
(Stand: Dezember 2003)<br />
Geräteklasse Anzahl Davon für<br />
Ausbildung<br />
Bemerkung<br />
PC 241 121 PentiumPro, II, III, IV, AMD K6,<br />
Athlon,<br />
Betriebsysteme Linux , MS Windows<br />
NT, MS Windows2000, MS Windows<br />
XP<br />
Workstation 102 36 HP, SUN, SGI<br />
Alpha-Workstation 9<br />
Andere 4 Parallelrechner versch. Hersteller<br />
1.3.6 Mitarbeit in Gremien<br />
Müller, A.:<br />
- Fakultätsrat<br />
- Konzil<br />
- Bibliothekskommission<br />
- Wissenschaftlicher Beirat <strong>des</strong> Universitätsrechenzentrums<br />
- Baubeauftragter der Fakultät<br />
- Fachinformationsbeauftragter der Fakultät<br />
- Beauftragter für Großveranstaltungen<br />
Luthe, U.:<br />
- Sicherheitsbeauftragte der Fakultät<br />
Lindner, J.:<br />
- Ersthelferin<br />
16
1.3.7 Struktur <strong>des</strong> Fakultätsrechnernetzes<br />
SUN-Pool<br />
8 Sparc-4<br />
12 UltraSparc IIi<br />
Solaris 7,8,9<br />
Netzwerkdrucker<br />
1 HP LJ 4MPlus<br />
2 HP LJ 4100 N<br />
1 HP LF 4200 N<br />
1 HP CLJ 4600<br />
1 Lexmark CJ 4079<br />
- Fileserver (SPARC Enterprise 250)<br />
Solaris 2.7 Kapazität 270 Gbyte<br />
- Fileserver (Xeon-basiert)<br />
SuSE Linux 9 Kapazität 600 Gbyte<br />
- Mailserver (UltraSparc II) Solaris 2.7<br />
IMAP, POP, SIMAP, Druckserver<br />
- Windows 2000 Server (Xeon-basiert)<br />
Kapazität 400 Gbyte<br />
- 3 Verwaltungsserver (Datenbank, NIS, ...)<br />
Mitarbeiterarbeitsplätze<br />
in den Professuren<br />
Ausbildungspools<br />
in den Professuren<br />
17<br />
Zugang zum<br />
Campus-Netz<br />
PC-Pool<br />
20 PC (Pentium II,<br />
MMX)<br />
MS Windows NT<br />
Linux 2.2.16<br />
Dienste <strong>des</strong> URZ<br />
(/uni/global, Backup, AFS, ...)
1.4 Lehraufträge<br />
Dr. Michael Theß (Professur Künstliche Intelligenz)<br />
1.5 Fachschaft Informatik<br />
Mitglieder: Bianca Loth<br />
Doreen Locher<br />
Jens Wegener<br />
Gabriele Krenkel<br />
Meiko Krause<br />
Stefanie Thiem<br />
Robert Knauf<br />
Sebastian Damm<br />
Anja Steinbach<br />
Uwe Domaratius<br />
Uwe Schob<br />
Stefan Worm<br />
Matthias Knossalla<br />
Stephan Reichelt<br />
Steffen Riediger<br />
Sitz: Straße der Nationen 62, Zi. 226 a<br />
Tel.: (03 71) 5 31-17 93<br />
E-Mail: fsrif@tu-chemnitz.de<br />
19
2. Forschungsprofil<br />
2.1 Professur Datenverwaltungssysteme<br />
2.1.1. Personelle Zusammensetzung<br />
Leiter: Prof. Wolfgang Benn<br />
Sekretariat: Ursula Wolf<br />
Wiss. Mitarbeiter: Dipl.-Ing. Heidrun Tischendorf<br />
Dipl.-Kffr. Annett Priemel<br />
Dipl.-Inform. Frank Seifert<br />
Dipl.-Inform. Lutz Neugebauer<br />
Dipl.-Inform. Otmar Görlitz<br />
Dipl.-Inform. Ralf Neubert<br />
Techn. Mitarbeiter: Dipl.-Math. A. Pfeiffer<br />
2.1.2 Beschreibung der Professur<br />
Intelligente Datenbanksysteme<br />
- Kombination von Datenbank- und KI-Techniken (insbesondere Künstliche<br />
Neuronale Netze)<br />
- Inhaltsbezogene Indexierung von Datenbanken (u. a. zur Unterstützung von Data<br />
Mining Techniken) auf der Basis selbstorganisierender Künstlicher Neuronaler<br />
Netze<br />
- Subsymbolische Massendatenverarbeitung anhand der Analyse und Verwaltung<br />
von Tondaten, Konzeption von Audiodatenbanksystemen hinsichtlich der<br />
Repräsentation von unstrukturierten Tondokumenten in symbolischer Form<br />
- Semistrukturierte Datenbanksysteme und Modelle zur Verarbeitung<br />
semistrukturierter Daten<br />
- Modellierungstechniken für semistrukturierte Datenmodelle<br />
2.1.3 Forschungsvorhaben<br />
Die Professur ist am DFG-Sonderforschungsbereich 457 "Hierarchielose regionale<br />
Produktionsnetze" mit einen Projekt beteiligt, in dem eine branchenneutrale, jedoch<br />
individuell skalier- und parametrisierbare Kombination von Kompetenzzellen<br />
erarbeitet werden soll.<br />
21
Das Projekt erstellt den informationstechnischen Modellkern <strong>des</strong> im SFB zu<br />
erarbeitenden Systems dar. Verwendet werden hierzu die als Forschungsschwerpunkt<br />
beschriebenen Ansätze der inhaltsbezogenen Gruppierung von Objekten mittels<br />
neuronaler Techniken.<br />
Im Forschungsbereich der Semistrukturierten Datenverwaltungssysteme werden<br />
Erweiterungen und Stabilisierungen eines vorhandenen Prototyps eines<br />
semistrukturierten Kernsystems vorgenommen. Es erfolgen Untersuchungen zur<br />
Einsetzbarkeit <strong>des</strong> Systems im Workflowbereich. Basierend auf den Erfahrungen mit<br />
dem Prototyp erfolgt der Aufbau und die Fundierung <strong>des</strong> Datenmodells ASSAM<br />
(Aktives Semi-Strukturiertes Anwendungs-Management).<br />
In Forschungsbereich Musikdatenbanken wird ein Konzept entwickelt, welches die<br />
Beschreibung von Audiodokumenten auf der Basis grundlegender Kompositionselemente<br />
und Klangmuster erlaubt. Parallel dazu werden Modelle entwickelt,<br />
Klangmuster anhand der physikalischen Eigenschaften von Tonsequenzen zu<br />
identifizieren. Beide Techniken sollen zu einer stark automatisierten Erstellung<br />
symbolischer Repräsentationen von Musikstücken zusammengeführt werden.<br />
2.1.4 Veröffentlichungen<br />
Tagungsbände, Zeitschriften<br />
Seifert, F.; Benn, W.: "Semantic Realtionship and Identification of Music".<br />
Proceedings of the 3rd International Conference on Web Delivering of Musik 2003,<br />
Leeds, UK<br />
Seifert, F.; Benn, W.: "Music Identification by Leadshets". Proceedings of the 4th<br />
International Conference on Music Information Retrieval, ISMIR 2003, Baltimore,<br />
MD<br />
W. Benn, O. Langer: "Semistrukturierte Datenmodelle und XML", in: E. Rahm, G.<br />
Vossen (Eds.): Web & Datenbanken - Konzepte, Architekturen, Anwendungen,<br />
dpunkt.verlag, ISBN 3-89864-189-9, 2003<br />
R. Neubert, O. Görlitz, T. Teich: "Automated Negotiations of Supply Contracts for<br />
Flexible Production Networks", accepted by Int'l. Journal of Production Economics,<br />
in press, available online, 08.08.2003<br />
Diplomarbeiten<br />
Tinter, A., Jäckel, T.: Clusterung von Tondokumenten auf Basis subsymbolischer<br />
Features<br />
22
Schmidt, J.: Verwaltung von geometrischen Objekten in ICIx<br />
Schmidt, P.: Verwaltung und Versionierung von Geschäftsobjekten<br />
Oestreich, E.: Anbietersuche für Produktionsaufgaben auf Basis <strong>des</strong> Intelligent<br />
Cluster Index<br />
Riedel, T.: Featureextraktion für die Klassifikation von Klangdaten<br />
Penewa, R.: Eine Architektur reaktiver Agenten für ein semistrukturiertes<br />
Datenbanksystem<br />
Fetting, T.: Spezifikation einer API für ein aktives semistrukturiertes<br />
Anwendungsmanagementsystem (ASSAM)<br />
Wünsch, M.: Bewertung und Priorisierung von Prozessvariantenplänen mit der<br />
AHP-Methode<br />
Studienarbeiten<br />
Müller, R.: Untersuchung von Möglichkeiten zur Realisierung eines<br />
Kommunikationsprotokolls eines aktiven semistrukturierten Datenmodells<br />
2.1.5 Vorträge<br />
keine<br />
2.1.6 Mitarbeit in Gremien<br />
Benn, W.:<br />
- Studiendekan<br />
- Mitglied im Leitungsgremium der GI-Fachgruppe Datenbanken<br />
23
2.2 Professur Echtzeitsysteme (Juniorprofessur)<br />
2.2.1 Personelle Zusammensetzung<br />
Leiter: Dr. Robert Baumgartl<br />
Sekretariat: Ursula Wolf<br />
Wiss. Mitarbeiter: Dipl.-Inform. Mirko Parthey<br />
2.2.2 Kurzbeschreibung der Professur<br />
Die Juniorprofessur Echtzeitsysteme widmet sich in Forschung und Lehre dem<br />
Entwurf, der Konstruktion und Validierung von Systemen, deren korrekte Funktion<br />
durch die Einhaltung definierter zeitlicher Anforderungen charakterisiert ist. Einen<br />
wesentlichen Schwerpunkt bildet die Betriebssysteme-Unterstützung von Echtzeit-<br />
Systemen.<br />
2.2.3 Forschungsvorhaben<br />
Innerhalb <strong>des</strong> Projektes "Linux&DSPs" wird versucht, für alle Ebenen eines Linuxbasierten<br />
Rechensystems Unterstützung für die Nutzung Digitaler Signalprozessoren<br />
(DSP) zu implementieren. Dies betrifft sowohl die Schaffung geeigneter<br />
Entwurfswerkzeuge für diese Plattform als auch Definition und Implementierung<br />
geeigneter Kommunikations- und Synchronisationsinfrastruktur zwischen CPU und<br />
DSP. Darüberhinaus wird Betriebssystem-Funktionalität auch innerhalb <strong>des</strong> DSP zur<br />
Verfügung gestellt.<br />
2.2.4 Veröffentlichungen<br />
keine<br />
2.2.5 Vorträge<br />
Graduiertenkolleg "Werkzeuge zum effektiven Entwurf paralleler und verteilter<br />
Rechensysteme" TU Dresden, Thema "Linux, DSPs und kein Ende?", 18.06.03<br />
25
2.3 Professur Graphische Datenverarbeitung und Visualisierung<br />
2.3.1 Personelle Zusammensetzung<br />
Leiter: Prof. Guido Brunnett<br />
Sekretariat: Bettina Fless<br />
Katja Torge (ab 26.08.2003)<br />
Wiss. Mitarbeiter: Dipl.-Inf. David Brunner<br />
Dipl.-Inf. Karsten Hilbert<br />
Dipl.-Inf. Matthias Kupfer<br />
Dipl.-Inf. Mario Lorenz<br />
Dipl.-Math Maharavo Randrianarivony<br />
Dipl.-Inf. Stephan Rusdorf<br />
Dr. Marek Vančo<br />
Dipl.-Math. Horst Wagner<br />
2.3.2 Kurzbeschreibung der Professur<br />
Die Professur für Graphische Datenverarbeitung und Visualisierung befasst sich in<br />
Forschung und Lehre mit der Thematik der generativen Computergraphik, d. h. mit<br />
der computerbasierten Erzeugung von Bildern auf der Grundlage geometrischer<br />
Beschreibungen der Bildinhalte. Grundlegende Aspekte der Computergraphik<br />
betreffen die geometrische Modellierung darzustellender Szenen sowie den Prozess<br />
der Konvertierung der Szenenbeschreibungen zur Ausgabe auf graphische Endgeräte<br />
(Rendering-Prozess).<br />
Der Forschungsschwerpunkt der Professur liegt auf dem Gebiet der Virtuellen<br />
Realität (VR). Die Zielsetzung dieser Technologie besteht darin, rechnerinterne<br />
Modelle dreidimensionaler Welten durch den Einsatz spezieller multimedialer Ein-<br />
und Ausgabegeräte für den Menschen weitgehend real erfahrbar zu machen.<br />
2.3.3 Forschungsvorhaben<br />
Oberflächenrekonstruktion<br />
(M. Vančo)<br />
Eine der zeitaufwendigsten Aufgaben der Computergrafik ist die Erzeugung<br />
geeigneter 3D Modelle. Diese werden dann in diversen Bereichen wie z. B.<br />
CAD/CAM (Computer Aided Design/Computer Aided Manufacturing),<br />
Simulation/Animation, Visualisierung, virtuelle Realität usw. weiter verwendet.<br />
27
Das Forschungsziel bei der Oberflächenrekonstruktion ist die Entwicklung eines<br />
semi-automatischen Moduls für die Erzeugung der 3D Modelle aus Punktwolken mit<br />
Schwerpunkt CAD/CAM, Visualisierung und virtuelle Realität.<br />
Durch Abtastung mithilfe eines 3D-Scanners werden, in der Regel unstrukturierte<br />
Daten (3D Punkte) erzeugt. Diese müssen zuerst organisiert werden: wir verwenden<br />
dazu einen einfachen Nachbarschaftsgraph (k-nächsten Nachbarn), der sehr effizient<br />
berechnet werden kann. Um eine Segmentierung und nachträglich eine<br />
Rekonstruktion durchführen zu können, werden Flächeninformationen (wie<br />
Normalen und Hauptkrümmungen) benötigt. Diese Informationen werden aus den<br />
Punkten geschätzt:<br />
- Normalen: die Nachbarschaft wird mit einer best-fit-ebene approximiert, die ein<br />
neues lokales Koordinatensystem definiert. In diesem Koordinatensystem wird die<br />
Nachbarschaft erneut mit einer quadratischen Fläche approximiert.<br />
- Hauptkrümmungen: analog zu der Schätzung der Normalen wird ein lokales<br />
Koordinatensystem definiert und eine erweiterte Nachbarschaft mit einer<br />
quadratischen Fläche approximiert. Die Hauptkrümmungen der quadratischen<br />
Fläche werden als Hauptkrümmungen der Oberfläche genommen.<br />
Segmentierung ist ein Vorgang, der anhand der geschätzten Oberflächeinformationen<br />
zusammenhängende Teile der Objektoberfläche mit gleichen (bzw. ähnlichen)<br />
Eigenschaften zusammenfügt und damit die Oberfläche in kleinere Segmente aufteilt.<br />
Dieser Vorgang kann entweder normalenbasiert oder krümmungsbasiert sein. In<br />
beiden Fällen wurde sog. ‚region growing’ Algorithmus verwendet, der ausgehend<br />
von einem Punkt weitere Punkte in seiner Nachbarschaft überprüft und wenn sie ein<br />
vorgegebenes Kriterium erfüllen, werden sie zu dem schon existierendem Segment<br />
eingefügt.<br />
Die Aufteilung der Oberfläche in Segmente aufgrund der normalenbasierten<br />
Segmentierung bietet zusätzliche Informationen über Verlauf der Fläche. Es ist nun<br />
möglich starke Unterschiede im Normalenverlauf (scharfe Kanten, bzw. Regionen<br />
mit großer Krümmung) auf der Oberfläche zu detektieren. Da die Schätzung der<br />
Normalen in der Umgebung von scharfen Kanten unzuverlässig ist, kann die<br />
Segmentierung zur Verbesserung der Schätzung benutzt werden: die Nachbarschaft<br />
der Punkte nahe zu scharfen Kanten wird modifiziert und die Normalen werden neu<br />
berechnet. Nach mehreren Wiederholungen der Segmentierung und Neuberechnung<br />
der Normalen erhält man eine wesentlich bessere Schätzung der Normalen.<br />
Die krümmungsbasierte Segmentierung bildet Regionen mit ungefähr gleicher<br />
Krümmung. Da die Hauptkrümmungen wesentlich mehr Informationen als die<br />
Normalen bieten, kann aufgrund der mittleren Krümmungen eine Annahme über die<br />
Form der Segmente getroffen werden, auf der dann die Klassifikation der Segmente<br />
basiert.<br />
28
Auf der anderen Seite ist die Schätzung der Krümmungen sehr fehleranfällig und<br />
<strong>des</strong>halb basiert die Klassifikation und das nachträgliche Postprocessing auch auf der<br />
Normaleninformation.<br />
Das Ziel der Flächenanpassung ist es, die nach der Segmentierung entstandene<br />
Segmente zu klassifizieren (dem Segment einen bekannten Flächentyp zuzuordnen)<br />
und nachbearbeiten: zu dem Segment neue Punkte der Punktmenge hinzufügen, die<br />
z.B. wegen schlecht geschätzten Krümmungen nicht während der Segmentierung<br />
eingefügt werden konnten; von dem Segment Punkte entfernen, die z.B. kurz hinter<br />
dem Übergang zwischen zwei glatten Flächen liegen, aber wegen starker Glättung bei<br />
der Schätzung der Krümmungen zu falschem Segment einfügt wurden.<br />
Zurzeit funktioniert die Flächenklassifikation und -anpassung für 5<br />
Grundregelgeometrien: Ebene, Kugel, Zylinder, Kegel und Torus.<br />
Bei der Klassifikation wird einheitlich vorgegangen: über ein Segment wird anhand<br />
der Normalen und Krümmungen eine Annahme über den Flächentyp getroffen.<br />
Danach wird das Segment durch eine algebraische Fläche <strong>des</strong> entsprechenden<br />
Flächentyps approximiert. Falls die Approximation erfolgreich ist, werden die<br />
Parameter der algebraischen Fläche ermittelt (Achse, Mittelpunkt, Radius, ...) und<br />
versucht neue Punkte der Punktmenge zu der berechneten algebraischen Fläche<br />
hinzufügen.<br />
Geometrische Algorithmen für die effiziente Lösung von Randintegralgleichungen,<br />
SFB 393, Teilprojekt A7<br />
(M. Randrianarivony)<br />
Im Rahmen <strong>des</strong> Projektes A7 wurden wavelet basierte Verfahren zur Lösung von<br />
Randintegralgleichungen entwickelt. Um diese Verfahren auf Probleme mit<br />
realistischen Geometrien anzuwenden, sind Algorithmen notwendig, die die<br />
Geometriebeschreibung an das dem Lösungsverfahren zu Grunde liegende<br />
Beschreibungsformat anpassen. Die Zielstellung <strong>des</strong> Projektes besteht in der<br />
Entwicklung der benötigten geometrischen Algorithmen für zwei verschiedene<br />
wavelet basierte Lösungsverfahren. Dabei soll insbesondere die aus der<br />
Computergraphik bekannte „diffuse Beleuchtungsgleichung“ als<br />
Anwendungsbeispiel herangezogen werden.<br />
Sollen Integralgleichungen für interessante Anwendungsprobleme mit realistischen<br />
Geometrien gelöst werden, so ist davon auszugehen, dass das geometrische Modell<br />
unter Einsatz eines kommerziellen Modellierungswerkzeuges (etwa eines CAD-<br />
Systems) erstellt wurde. Ist eine hohe Genauigkeit <strong>des</strong> Modells gefordert, so wird die<br />
Geometrie dabei durch stückweise polynomiale Flächenstücke beschrieben. Diese<br />
Beschreibung ist prinzipiell konform zum Ansatz von Schneider et al.<br />
29
Allerdings treten bei realistischen Modellen sogenannte ,,getrimmte“<br />
Parametergebiete auf, die etwa durch Flächenverschneidungen entstehen und durch<br />
Angabe von ungültigen Teilbereichen innerhalb <strong>des</strong> Einheitsquadrates beschrieben<br />
werden. Um das Schneider Verfahren auf beliebige Geometrien anwenden zu<br />
können, ist es notwendig ein Verfahren zu entwickeln, das ein beliebiges getrimmtes<br />
Parametergebiet diffeomorph auf das Einheitsquadrat abbildet. Für getrimmte<br />
Flächen, die entsprechend dem Austauschformat IGES beschrieben sind, wurde in<br />
der laufenden Projektphase ein Verfahren entwickelt, das einen geeigneten<br />
Diffeomorphismus weitgehend automatisch erzeugt. In der folgenden Projektphase<br />
soll dieses Verfahren hinsichtlich der folgenden Punkte optimiert werden: 1. Die<br />
Zerlegung <strong>des</strong> getrimmten Parametergebietes in vierseitige Gebiete soll optimiert<br />
werden, um eine möglichst natürliche Zerlegung mit wenigen Teilgebieten zu<br />
erhalten. 2. Für den wichtigen Sonderfall von Begrenzungskurven in<br />
Bezierdarstellung soll das bisher verwendete Diffeomorphismuskriterium zu einer<br />
expliziten hinreichenden Bedingung für die Lage der Bezierpunkte weiterentwickelt<br />
werden.<br />
Projekt "Augmented Reality – Entwurf von Freihandkurven"<br />
(H. Wagner)<br />
Die in 2003 zu diesem Projekt durchgeführten Arbeiten waren auf die weitere<br />
Genauigkeitsverbesserung der Objektregistrierung in AR-Umgebungen sowie die<br />
Echtzeitdarstellung und -manipulation von auf Realkörpern liegenden und dorthin<br />
projizierten virtuellen Raumkurven gerichtet. Zur Verbesserung der<br />
Registrierungsgenauigkeit wurde ein magnetisches Trackingsystem mit einem<br />
infrarot-optischen 3-Kamera-Trackingsystem kombiniert. Dabei fungiert das sehr<br />
genau arbeitende optische System als Mastersystem, <strong>des</strong>sen Messwerte nicht nur der<br />
AR-Applikation zur Verfügung gestellt werden, sondern auch zur dynamischen<br />
Kalibrierung und Messwertkorrektur <strong>des</strong> magnetischen Systems dienen. Auf diese<br />
Weise entstand ein hybri<strong>des</strong> Gesamtsystem, welches kontinuierlich sehr präzise<br />
Trackinginformationen an die AR-Applikation liefert. Das heißt, die bei<br />
Sensorverdeckungen zu verzeichnenden und für optische Systeme typischen<br />
Unterbrechungen <strong>des</strong> Sendeflusses von Trackinginformationen können mit dem<br />
Bereitstellen korrigierter magnetisch getrackter Messwerte vermieden werden. Um<br />
die Kombination beider Trackingsysteme zu ermöglichen, musste für das neue<br />
hybride Gesamtsystem eine spezielle objektorientierte Treiberarchitektur entwickelt<br />
werden. Zudem war ein Verfahren zu finden und zu implementieren, welches für die<br />
magnetisch erfassten Messwerte den Fehlervektor sowie die Fehlerabweichung der<br />
Orientierungswerte in Echtzeit berechnet. Weitere Forderungen an das hybride<br />
Gesamtsystem waren, dass es für den flexiblen und gegebenenfalls mobilen Einsatz<br />
geeignet und leicht auf operative Veränderung im AR-Arbeitsraum und seiner<br />
unmittelbaren Umgebung einstellbar sein sollte.<br />
30
Folglich war ein Verfahren zu entwickeln welches erlaubt, im Kalibrierungsprozess<br />
die Lage und Orientierung beider Meßsysteme schnell und unkompliziert aufeinander<br />
abzugleichen sowie die Magnetfeldstörungen als Grundlage der Messwertkorrektur<br />
mit wenig Zeitaufwand und ohne spezielle Messeinrichtungen erfassen zu können. Es<br />
entstand ein Verfahren, welches mit Fehlerpolynomen und einer relativ kleinen die<br />
Magnetfeldverzerrung charakterisierenden Punktmenge in der Lage ist, eine<br />
brauchbare Messwertkorrektur vorzunehmen. Zusätzlich kann sich der Benutzer die<br />
Fehlerpolynome stereoskopisch anzeigen lassen und so einen Eindruck über die<br />
Magnetfeldstörungen seines AR-Arbeitsraumes bekommen und gegebenenfalls<br />
gezielt Einfluss auf Störelemente nehmen. Zur Handhabung virtueller Raumkurven<br />
wurde untersucht, wie polygonale Raumkurven als VR-Objekte beschrieben werden<br />
sollten, um sie mit VR/AR-typischen Simulations- und Visualisierungstechniken in<br />
Echtzeit darstellen und editieren zu können. Hierzu konnten mehrere brauchbare<br />
Realisierungsansätze entwickelt und unter Verwendung der VR-Basissoftware<br />
WordToolKit implementiert werden.<br />
Automatische und interaktive Meshsegmentierung unter Verwendung <strong>des</strong> Objekt-<br />
Skelettgraphen<br />
(D. Brunner)<br />
In den vergangenen Jahren hat es viele Bemühungen gegeben, die Segmentierung<br />
von Oberflächen zu verbessern, weil sie eine Grundlage für eine Vielzahl von<br />
Anwendungen ist: Hierzu gehören etwa das Erkennen, Klassifizieren und Matchen<br />
von Objekten oder die geometrische Rekonstruktion. Die Segmentierung repräsentiert<br />
dabei indirekt bestimmte Merkmale <strong>des</strong> Objekts. Denn eine Segmentierung kann nur<br />
unter Verwendung von berechenbaren Merkmalen geschehen, wie etwa lokale<br />
Krümmung, stereoskopische Bildpaare, oder topologische Strukturen. Häufig wird<br />
die Objektoberfläche (die durch ein Dreiecksnetz, bzw. Mesh repräsentiert wird)<br />
analysiert, was bei synthetischen Modellen, bzw. bei Modellen von synthetischen<br />
Körpern gut funktioniert. Aber bei Modellen von z.B. organischen Objekten, die<br />
wenige oder gar keine signifikanten Oberflächenmerkmale enthalten, versagen<br />
derartige Algorithmen. Deshalb konzentriert sich diese Forschungsarbeit auf die<br />
Untersuchung der Gestalt <strong>des</strong> Körpers, also einer Eigenschaft, die durch die<br />
Oberfläche implizit festgelegt ist. Am zweckmäßigsten erscheint dabei die „Mediale<br />
Achse“ bzw. dem 3d-Äquivalent, die „Mediale Oberfläche“, ein geometrisches<br />
Gebilde, dass eindeutig für jeden Körper definiert ist. Während der Forschungsarbeit<br />
wurde eine Strategie entwickelt, die sich für die Definition von Segmenten gerade an<br />
der Medialen Achse <strong>des</strong> jeweiligen Körpers orientiert. Die Berechnung der Medialen<br />
Oberfläche für beliebige Objekte ist ein komplexes Problem, allerdings genügt es oft<br />
schon, die Mediale Oberfläche zu approximieren. Auch die innerhalb der<br />
Forschungsarbeit konzipierte Methode verwendet eine Approximation und verlagert<br />
dazu die Berechnung in den diskreten Raum. Dass heißt, das Mesh muss mittels einer<br />
Rasterdarstellung repräsentiert werden, die Operationen auf Voxelbasis zulässt. Dazu<br />
wird das Mesh zunächst in eine Voxeldarstellung (Repräsentation durch<br />
Volumenelemente) überführt.<br />
31
Dies ist ein Schwerpunkt dieses Forschungsthemas: Die Datenstruktur, die die<br />
Voxelmenge verwaltet wird üblicherweise durch Definition eines Rasters über<br />
Reihen, Spalten and Schichten mit gleichseitigen Rasterzellen definiert. Im<br />
Gegensatz dazu repräsentiert die entwickelte Datenstruktur eine Rasterung mit nicht<br />
gleichseitigen Rasterzellen, was zu einer deutlich speichereffizienteren<br />
Datenorganisation führt. Dadurch wird es möglich die Approximation zu verfeinern<br />
und mehr Details der Objekte zu verarbeiten. Diese Voxelmenge wird dann durch<br />
Anwendung eines Thinningverfahrens sukzessive abgetragen. Der dafür verwendete<br />
Algorithmus ist eine Kombination zweier bekannter Thinningverfahren, <strong>des</strong>sen<br />
Thinningresultate sich für die Segmentierung besonders gut eignet. Für die<br />
Untersuchung zweckmäßiger Verfahren, bzw. die Kombination bestimmter Kriterien<br />
wurde in der Diplomarbeit [1] wichtige Vorarbeit geleistet. Aus der Anwendung<br />
dieses Thinningverfahrens resultiert ein Kurvenskelett (Menge zusammenhängender<br />
Voxelkurven), <strong>des</strong>sen einzelne Kurven bestimmte Modellpartien repräsentieren. Da<br />
die Voxelkurven einige für die Weiterverarbeitung ungünstige Eigenschaften<br />
besitzen, wird das Kurvenskelett in einen Raumgraphen transformiert, wo jeder<br />
Voxel einen Knoten, und jede Nachbarschaft zweier Voxel eine Kante <strong>des</strong> Graphen<br />
definiert. Um redundante Informationen zu vermeiden, wird dieser Graph optimiert.<br />
Um den endgültigen Objekt-Skelettgraphen zu erhalten, ist noch die Festlegung einer<br />
Korrelation zwischen dem Raumgraphen und <strong>des</strong> Meshes nötig. Dazu wird mittels<br />
einer Abstandsfunktion, je<strong>des</strong> Dreieck der Oberflächenrepräsentation einem<br />
Graphknoten zugeordnet. Durch diese Zuordnung ist durch einen Graphbogen genau<br />
ein Oberflächensegment definiert (ein Graphbogen ist eine Folge von benachbarter,<br />
regulärer Knoten, die mit jeweils einem nicht regulären Knoten beginnt und endet;<br />
ein regulärer Knoten ist ein Graphknoten mit genau zwei Nachbarknoten). Die<br />
Segmenttrennstellen sind demnach genau die Graphknoten, die mehr als zwei<br />
Nachbarknoten besitzen.<br />
Neben dem Entwurf der Methode wurde im Rahmen der Forschungsarbeit eine<br />
Software implementiert, die die Segmentierung von Oberflächen durchführt. Um die<br />
Funktionsweise der beschriebenen Methode zu illustrieren. Die implementierte<br />
Software unterstreicht die Praxistauglichkeit der entwickelten Methode. Für<br />
zukünftige Aufgaben ist es sicherlich interessant, weitere Oberflächenmerkmale aus<br />
dem Objekt-Skelettgraph abzuleiten, etwa extremale Durchmesser eines<br />
Graphbogens (damit sind alle Durchmesser von Polygonzügen gemeint, die durch<br />
Schnitt der Ebenen (die durch einen Graphknoten und eine Graphkante definiert sind)<br />
aller Elemente <strong>des</strong> Graphbogens, mit dem Dreiecksnetz entstehen).<br />
Dynamisches, verteiltes LOD für VR-Anwendungen<br />
(K. Hilbert)<br />
Eine Vielzahl von aktuellen Anwendungen erzeugen extrem komplexe polygonale<br />
Modelle. Andererseits möchte der Nutzer oft mit diesen Modellen, die nicht selten<br />
mehr als eine Million Polygone beinhalten, reibungslos interagieren.<br />
32
Um reibungslos mit einer virtuellen Szene interagieren zu können, müssen<br />
min<strong>des</strong>tens 15 Bilder pro Sekunden von deren Modell gerendert werden.<br />
Selbst die aktuellste Highend-Grafikhardware ist aber mitunter nicht in der Lage, bei<br />
der Darstellung solch komplexer Modelle eine solche Framerate zu erreichen. In<br />
diesem Fall kommen sogenannte Real-Time-Rendering-Techniken zum Einsatz, um<br />
letztendlich doch eine annehmbare Framerate zu erreichen.<br />
Auch die LOD-Verfahren sind der Klasse der Real-Time-Rendering-Techniken<br />
zuzuordnen. Ein LOD-Verfahren erzeugt in einem Prä-Prozeß für je<strong>des</strong> Objekt der<br />
Szene oder für die gesamte Szene ein Multiresolution-Modell (MRM). Dafür werden<br />
verschiedene polygonale Vereinfachungstechniken verwendet. Vor dem Rendern<br />
je<strong>des</strong> Szenenbil<strong>des</strong> wird für je<strong>des</strong> Objekt mittels eines Kriteriums eine<br />
Approximation, die dem Original relativ ähnlich ist und aus weniger Polygonen<br />
besteht, aus <strong>des</strong>sen Multiresolution-Modell extrahiert. Diese Approximationen<br />
werden dann, anstatt der Originale für die Berechnung <strong>des</strong> aktuellen Szenenbil<strong>des</strong><br />
verwendet. Aufgrund der reduzierten Polygonanzahl können die Szenenbilder<br />
schneller gerendert werden, was eine Beschleunigung der Framerate zur Folge hat.<br />
Als Grundlage für diese Forschungsarbeit dienen zwei Diplomarbeiten. Zum einem<br />
ist das die Diplomarbeit von Schwarze[1], die sich mit Kommunikationsmechanismen<br />
für eine verteilte Reduktionsapplikation beschäftigte. Andererseits<br />
gehört dazu die Diplomarbeit von Hilbert[2], die sich mit der Konzeption eines<br />
hybriden dynamischen LOD-Verfahrens beschäftigte, was die von Schwarze<br />
entwickelten Kommunikationsmechanismen verwendet. Hilberts Arbeit baut<br />
wiederum auf Arbeiten von Luebke&Erikson[3], Shade et al.[4] sowie Schaufler und<br />
Stürzlinger[5] auf.<br />
Auf dieser Basis soll im Rahmen dieser Forschungsarbeit eine verteilte<br />
Reduktionsapplikation entwickelt werden, die ein bereits bestehen<strong>des</strong> Rendering-<br />
System unterstützt bzw. in ein solches in Form eines Plug-ins integriert werden kann.<br />
Mit dieser Applikation soll es möglich sein, komplexeste, dynamische Szenen mit<br />
dynamischen Objekten zu reduzieren. Einerseits soll die zu entwickelnde Applikation<br />
eine hohe Performanz zeigen. Andererseits soll die Qualität der Szenenbilder, die mit<br />
Approximationen gerendert wurden, welche wiederum durch die verteilte<br />
Reduktionsapplikation erzeugt wurden, gleichbleibend hoch sein. Um komplexeste<br />
Szenen unterstützen zu können, ist es weiterhin notwendig das die zu entwickelnde<br />
Applikation die Objektinstanzierung unterstützt.<br />
Um eine verteilte Reduktion komplexer Szenen realisieren zu können, wurde die<br />
Objektweise Reduktion als Reduktionsprinzip ausgewählt. Für je<strong>des</strong> zu reduzierende<br />
Objekt wird in jedem Falle zunächst eine adaptive geometrie-basierte Approximation<br />
aus <strong>des</strong>sen kontinuierlichem Multiresolution-Modell extrahiert. In unserem Falle<br />
verbirgt sich hinter dem kontinuierlichen Multiresolution-Modell ein Vertex-<br />
Hierarchie, wie sie von Luebke und Erikson[3] vorgeschlagen wurde.<br />
33
Diese Vertex-Hierarchien werden einmalig für die zu reduzierenden Objekte in einem<br />
Präprozeß erzeugt.<br />
Da sämtliche dafür benötigten Berechnungen im Objektkoordinatensystem <strong>des</strong><br />
jeweiligen Objekts ausgeführt werden, können die zuvor erzeugten MRMs auch für<br />
die Erzeugung von Approximationen für dynamische Objekte mit statischer<br />
Geometrie verwendet werden. Besonders sorgfältig werden die Attribute der<br />
einzelnen Oberflächenelemente behandelt. Diese werden ebenfalls in einem<br />
Präprozeß in Texturen gesampelt, welche dann beim Rendern mittels dynamisch<br />
angepasster Texturkoordinaten auf die geometrie-basierte Approximation<br />
angewendet werden. So können Diskontinuitäten in den Oberflächenattributen, wie<br />
sie oft durch bisherige Approximationsverfahren eingeführt wurden, weitestgehend<br />
vermieden werden. Sind gewisse Bedingungen erfüllt, wird die soeben erzeugte<br />
adaptive, geometrie-basierte Approximation verwendet, um für das Objekt eine<br />
image-basierte, um ein Vielfaches weniger komplexe Approximation zu erzeugen.<br />
Hier kommt ein sogenanntes Impostor, das ein mit einer bestimmten Objektansicht<br />
texturiertes Viereck darstellt, als image-basierte Approximation zum Einsatz. Ob es<br />
sich lohnt ein Impostor zu erzeugen, wird mittels einer Kriterienkombination<br />
bestehend aus einem kollisionsbasierten, einem auflösungsabhängigen und einem<br />
kostenabhängigen Kriterium entschieden. Je nach vorliegender Situation wird dann<br />
die geometrie-basierte oder die image-basierte Approximation für das Rendern <strong>des</strong><br />
nächsten Frames verwendet. Zusätzlich wird eine gewisse Anzahl von bereits<br />
erzeugten Approximationen in einem Cache gespeichert. Somit ist es nur notwendig<br />
neue Objektapproximationen zu erzeugen, wenn keine passende Approximation für<br />
das entsprechende Objekt im Cache gespeichert ist. Ob eine Approximation zur<br />
aktuellen Kamerakonfiguration kompatibel ist, wird mit einem winkelbasierten<br />
Kriterium entschieden. Für das Cache-Management wird ein LRU-Mechnismus<br />
verwendet. Die verteilte Reduktionsapplikation besteht dann aus einer<br />
Auftragserzeugungskomponente, einer Auftragsverteilungskomponente, einer MRM-<br />
Erzeugungskomponente, einer Auftragsverarbeitungskomponente und einer<br />
Ergebnisverarbeitungskomponente. Jede dieser Komponenten bewältigt einzelne<br />
Teilaufgaben <strong>des</strong> Reduktionsprozesses. Die Kommunikation zwischen den einzelnen<br />
Komponenten wird mit CORBA realisiert.<br />
Zum aktuellen Zeitpunkt ist ein Prototyp der Auftragsverarbeitungskomponente<br />
implementiert, die über zwei getrennte TCP/IP-Verbindungen mit einem Rendering-<br />
System kommuniziert und dynamische Szenen mit Objekten, deren Geometrie<br />
konstant ist, verarbeiten kann. Diese Implementierung der Auftragsverarbeitungskomponente<br />
erzeugt die MRMs für einzelne Szenenobjekte noch selbst. Dies entfällt,<br />
sobald die restlichen an der MRM-Erzeugung beteiligten Komponenten<br />
funktionstüchtig sind. Erste Versuche mit dieser Implementierung zeigten<br />
vielversprechende Ergebnisse. Schon mit diesem relativ simplen System konnten bei<br />
entsprechenden Szenen besonders durch den Einsatz von image-basierten<br />
Approximationen deutliche Steigerungen der Framerate erzielt werden, ohne dass<br />
merkliche Verluste bei der Bildqualität entstanden.<br />
34
In näherer Zukunft werden die restlichen Komponenten der verteilten<br />
Reduktionsapplikation implementiert. Anschließend sollte die Unterstützung<br />
sämtlicher dynamischer Szenen realisiert werden. Liegt dann ein funktionstüchtiger<br />
Prototyp der gesamten Reduktionsapplikation vor, wird diese ausgiebig auf einem<br />
PC-Cluster getestet werden. Diese Tests werden schließlich Aufschluss darüber<br />
geben, wo zusätzlicher Optimierungsbedarf besteht.<br />
Verteiltes Rendering in Multiprojektionsumgebungen auf der OpenGL-Systemebene<br />
(M. Lorenz)<br />
Die Professur GDV betreibt seit geraumer Zeit eine Mehrsegment-<br />
Großbildprojektion auf der Basis <strong>des</strong> HP Visualize Center II. Die zur Bilderzeugung<br />
eingesetzten Workstations entsprechen nicht mehr den gegenwärtigen Anforderungen<br />
hinsichtlich Geschwindigkeit und grafischem Funktionsumfang. Insbesondere die<br />
stereoskopische Darstellung großer, stark texturierter Modelle ist nicht zufrieden<br />
stellend. Ziel der Arbeiten dieses Projektes ist die Schaffung einer geeigneten<br />
Plattform zum Ersatz der vorhandenen Workstations durch leistungsstarke und<br />
preiswerte PC-Systeme. Im Gegensatz zu vielen anderen Anwendungsgebieten ist der<br />
einfache Austausch der Maschinen sowie <strong>des</strong> Betriebssystems HP-UX gegen Linux<br />
für Mehrsegment-Projektionen nicht möglich. Die technischen Herausforderungen<br />
liegen in der flüssigen Berechnung der Bildinhalte auf drei Grafikpipelines und der<br />
framesynchronen Ansteuerung der einzelnen Bildsegmente über Projektoren. Zur<br />
aktiv-stereoskopischen Anzeige <strong>des</strong> Gesamtbil<strong>des</strong> ist zusätzlich die Synchronisation<br />
<strong>des</strong> Bildaufbaus (Strahlrücklauf) erforderlich.<br />
Es wurde sehr schnell erkannt, dass handelsübliche Grafikkarten der Consumerklasse<br />
zwar hinsichtlich der grafischen Fähigkeiten durchaus akzeptable Leistungswerte<br />
erreichen, sich aber wegen fehlender technischer Möglichkeiten zur<br />
hardwarebasierten Bildsynchronisation nicht für den Einsatz im Zielsystem eignen.<br />
Praktische Tests softwarebasierter Ansätze, die den Bildaufbau über<br />
Netzwerkprotokolle synchronisieren, lieferten inakzeptable Werte in Lastsituationen.<br />
Als Ergebnis einer Marktstudie wurden professionelle Grafikkarten <strong>des</strong> Typs Wildcat<br />
7210 von 3DLabs ausgewählt, die über die notwendigen technischen<br />
Voraussetzungen verfügen. Basierend auf diesen Karten und Evaluierungen in<br />
verschiedenen Rechnerklassen entstand das Konzept für einen Rendering-Cluster<br />
zum Betrieb <strong>des</strong> Visualize Centers. In der zweiten Jahreshälfte wurde die Hardware<br />
bestehend aus drei Dual-XEON Workstations mit 7210-Grafik und Gigabit-<br />
Vernetzung angeschafft.<br />
Die softwareseitigen Arbeiten konzentrierten sich zunächst auf die Implementation<br />
der benötigten Funktionalität in den Linuxtreiber der Wildcat 7210 sowie auf die<br />
Anpassung <strong>des</strong> X-Servers und der XDM. Parallel dazu erfolgte die Anpassung und<br />
Erweiterung <strong>des</strong> Open Source Projektes Chromium zur Verteilung der grafischen<br />
Daten im Cluster.<br />
35
Während verteiltes Rendering auf Modellebene netzwerkbasierte Applikationen<br />
erfordert, lassen sich durch die Verwendung einer Zwischenschicht auf Systemebene<br />
potenziell beliebige OpenGL-basierte Applikationen ohne Modifikationen auf dem<br />
Visualization Center betreiben. Technisch ist dies möglich, da grafische<br />
Applikationen mit der OpenGL-Hardware über einen Treiber kommunizieren. Unter<br />
Zuhilfenahme eines Treiberersatzes, <strong>des</strong> so genannten Fakers, wird diese<br />
Kommunikation über ein schnelles Netzwerk auf die angeschlossenen Server verteilt.<br />
Für die Anwendung ist dies vollständig transparent. Tests hinsichtlich der Vernetzung<br />
verschiedener Betriebssysteme verliefen viel versprechend. So gelang es zum<br />
Beispiel, die grafischen Ausgaben von Windows-Anwendungen auf dem Linux<br />
basierten Cluster zur Darstellung zu bringen.<br />
Durch gezielte Manipulationen der OpenGL Kommando- und Datenströme, die vom<br />
Renderer erzeugt und an die OpenGL übergeben werden, sind für die Applikation<br />
transparente Verbesserungen der Bildqualität und der Darstellungsgeschwindigkeit<br />
möglich. Die Notwendigkeit zur Verbesserung der Bildqualität ist hauptsächlich dem<br />
Aspekt geschuldet, dass die Anwendung in einem Fenster mit sehr hoher Auflösung<br />
läuft. Nicht alle Programme verwenden dafür geeignete Darstellungsmodi und –filter.<br />
Durch die begrenzte Bandbreite bei der Verteilung der OpenGL-Streams über ein<br />
Netzwerk entsteht ein Engpass, der sich in einer geringeren Framerate gegenüber<br />
einem einzelstehenden System bemerkbar macht. Dies ist insbesondere dann<br />
gegeben, wenn die Anwendung ungünstig programmiert wurde. Beispielhaft sei der<br />
Verzicht auf bzw. die sparsame Verwendung von Displaylisten genannt. Die<br />
Integration eines Caches für Kommandoströme verbunden mit der Kapselung von<br />
Ausgabeblöcken zu Displaylisten gleicht einen Teil <strong>des</strong> Performanceverlusts wieder<br />
aus. Effektive Culling-Algorithmen verbessern das Laufzeitverhalten weiter.<br />
Virtualiti3D (V3D) - Entwicklung einer dreidimensionalen Benutzerschnittstelle<br />
(St. Rusdorf)<br />
Ein viel diskutiertes Thema in der Softwareentwicklung ist die Nutzung aktueller<br />
Techniken zur Visualisierung dreidimensionaler Welten. Neben den hohen<br />
Anforderungen an die verwendete Hardware stellt auch die Navigation bzw.<br />
Interaktion in solchen Welten eine Herausforderung dar. Insbesondere bei<br />
Verwendung von 3D-Ein- und Ausgabegeräten sind schnell die Grenzen heute<br />
üblicher Eingabemöglichkeiten erreicht. Beispielsweise ist es nahezu unmöglich<br />
Eingabe per Maus oder Tastatur zu tätigen, wenn der Anwender ein HMD (Head-<br />
Mounted-Display) trägt. Auch bei Benutzung einer Projektionswand sind diese<br />
Geräte meist nicht komfortabel zu benutzen. Hier wurden Möglichkeiten geschaffen,<br />
welche intuitive Eingaben gestatten sollte. Um die Entwicklung künftiger Projekte zu<br />
vereinfachen wurde eine dreidimensionale Benutzerschnittstelle entwickelt. Das Ziel<br />
hierbei ist die Bereitstellung einer Softwarebibliothek zur Verwendung in<br />
weiterführenden Forschungsprojekten bzw. zur Entwicklung komplexerer<br />
Applikationen.<br />
36
Diese Bibliothek stellt eine hardwareunabhängige Abstraktionsebene dar und erlaubt<br />
somit die Entwicklung von Applikationen ohne sich vorher auf eine spezifische<br />
Plattform zu beschränken. Weiterhin werden sämtlich grafischen Elemente als<br />
dreidimensionale Objekte dargestellt. Dies ermöglicht eine einfache Integration in<br />
VR-Applikationen, ohne jedoch auf derartige System angewiesen zu sein. Das<br />
bedeutet, dass jede Applikation, die diese Bibliothek verwendet, sowohl im 3D-<br />
Modus mit kompletter dreidimensionaler Eingabe als auch im normalen<br />
Monitorbetrieb mit Maus und Tastatur benutzt werden kann.<br />
Das System befindet sich bereits in einem nutzbaren Stadium und ermöglicht die<br />
Erstellung komplexer Anwendungen. Es werden diverse VR-spezifische<br />
Peripheriegeräte wie Shutterbrille, Head-Mounted Display, verschiedene<br />
Trackingsysteme und Datenhandschuh unterstützt. Das System ist sowohl für die<br />
monoskopische als auch für die stereoskopische oder immersive Benutzung geeignet.<br />
Ein Schwerpunkt lag in der Unterstützung <strong>des</strong> neuen optischen Trackingsystems<br />
DTrack der Firma Advanced Realtime Tracking GmbH. Dies umfasst sowohl die<br />
Einbindung der Grundfunktionalität als auch die Evaluierung neuer Möglichkeiten<br />
dieses kabellosen Systems. Durch die erhöhte Genauigkeit und die Echtzeitfähigkeit<br />
dieses Trackingsystems eröffnen sich völlig neuartige Möglichkeiten. Hierzu gehören<br />
die Bearbeitung dynamischer Gesten, sowie die Einbindung realistischer<br />
Interaktionsalgorithmen. Eine der Beispielapplikationen ist eine Tischtennis<br />
Simulation. Hierbei wird ein realer Tischtennisschläger und der Kopf getrackt<br />
(ermitteln der Lage im Raum), um eine realistische Darstellung zu ermöglichen. Als<br />
Trackingsystem kommt wahlweise das Motionstar (magnetisches, kabelgebundenes<br />
System von Ascension Technologies) oder das DTrack (optisches System von<br />
A.R.Tracking) zum Einsatz. Die Applikation stellt recht hohe Anforderungen an die<br />
Latenzzeiten <strong>des</strong> jeweiligen Trackingsystems und eignet sich daher gut zu<br />
Testzwecken.<br />
Ausstehende Arbeiten betreffen die korrekte, allgemeingültige Physik-Simulation in<br />
Virtuellen Umgebungen. Weiterführende Entwicklungen nutzen das gesamte<br />
Visualisierungssystem für Forschungsarbeiten zum Thema Level-Of-Detail.<br />
2.3.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Brunnett, G., Vančo, M., Haller, Ch., Washausen, S., Kuhn, H.-J.: Visualization<br />
of cross sectional data for morphogenetic studies, GI-Edition, Lecture Notes in<br />
Informatics, Frankfurt am Main 2003, pp. 354-359, ISBN 3-88579-363-6<br />
37
Brunnett, G., Vančo, M.: Surface Recognition in Reverse Engineering, 3D-<br />
NordOst 2003, 6. Anwendungsbezogener Workshop zur Erfassung, Verarbeitung,<br />
Modellierung und Auswertung von 3D Daten, Berlin 2003, pp. 31-40, ISBN 3-<br />
9809212-0-4<br />
Rusdorf, St., Lorenz, M., Wölk, St., Brunnett, G.: Virtualiti3D (V3D): A<br />
Systemindependent, Real time-animated, Threedimensional graphical user interface,<br />
Proc. of the Third LASTED Int. Conf. on Visualization, Imaging, and Image<br />
Processing (VIIP 2003), LASTED 2003, pp. 955-960, ISBN 0-88986-382-2<br />
Randrianarivony, M., Brunnett, G.: A multiresolution method for detecting higher<br />
order discontinuities form irregular samples, Proc. Conf. on curve and surface fitting,<br />
Saint-Malo, Nashboro Press 2003, pp. 333-342, ISBN 0-9728482-1-5<br />
Randrianarivony, M., Brunnett, G.: Generating well behaved meshes for<br />
parameterised surfaces, Proc. Conf. on Geometric Modeling and Graphics, London,<br />
IEEE Computer Society, pp. 56-61, ISBN 0-7695-1985-7<br />
Randrianarivony, M., Brunnett, G., Schneider, R.: Constructing a diffeomorphism<br />
between a trimmed domain and the unit square, Sonderforschungsbereich 393,<br />
Preprint SFB393/03-20, ISSN 1619-7178 (Print), ISSN 1619-7186 (Internet)<br />
Dissertation<br />
Vančo, M.: A Direct Approach for the Segmentation of Unorganized Points and<br />
Recognition of Simple Algebraic Surfaces, April 2003<br />
Diplomarbeiten<br />
Schwab, D.: Bewertung <strong>des</strong> Einsatzes von CAD-Daten für bildbasierte<br />
Trackingverfahren zum Einsatz in einer Augmented Reality basierten<br />
Reparaturanleitung für BMW Werkstätten, Dezember 2003<br />
Kupfer, M.: Einphasiger Algorithmus für die fotorealistische Bilderzeugung:<br />
Synthese globaler Beleuchtungsmodelle, September 2003<br />
Hilbert, K.: Dynamisches Level-of-Detail für die Bilderzeugung in VR-<br />
Anwendungen, Juli 2003<br />
Schwarze, T.: Kommunikationsmechanismen für paralleles, adaptives Level-of-<br />
Detail in VR-Simulationen, Mai 2003<br />
Brunner, D.: Ein Ansatz für die interaktive Manipulation der zusammenhängenden<br />
Körpersegmente eines triangulierten Teilobjektes mittels der Objektkörperachse,<br />
März 2003<br />
38
Studienarbeiten<br />
Kux, M.: Erkennung statischer Gesten bei der Verwendung <strong>des</strong> Datenhandschuhs<br />
CyberGlove<br />
Steger, D.: Texturen in WordToolKit<br />
Mählisch, M.: Strategien zur Kollisionserkennung beim Greifen mit einzelnen<br />
Fingern<br />
Höppner, R.: Kalibrierung und Einsatzmöglichkeiten komplexer elektromagnetischer<br />
Sensorsysteme<br />
2.3.5 Vorträge<br />
Brunnett, G.: Polyhedral Reconstruction of Digitized 3D Objects, Department LiSI,<br />
Universität Politecnica de Catalunya, 23.04.2003<br />
Brunnett, G.: Direct Segmentation of Algebraic Models in Reverse Engineering,<br />
Department LiSI, Universität Politecnica de Catalunya, 24.04.2003<br />
Brunnett, G.: Towards fast wavelet based solution of boundary integral equations<br />
on realistic geometries, SFB 393-Seminar, TU Chemnitz, Dezember 2003<br />
Randrianarivony, M.: Generating well behaved meshes for parameterised surfaces,<br />
International Conference on Geometric and Graphics, London, Juli 2003<br />
Vančo, M.: Visualization of cross sectional data for morphogenetic studies,<br />
Frankfurt (GI-Workshop), Oktober 2003<br />
Vančo, M.: Surface Recognition in Reverse Engineering, Seattle (SIAM<br />
Conference), November 2003<br />
Vančo, M.: Surface Recognition in Reverse Engineering, Berlin (3D-NordOst),<br />
Dezember 2003<br />
2.3.6 Mitarbeit in Gremien<br />
Brunnett, G.:<br />
- Mitglied <strong>des</strong> GI-Fachbereichs - Graphische Datenverarbeitung<br />
- Mitglied der GI-Fachgruppe - Geometrieverarbeitg. und Geometr. Modellieren<br />
- Mitglied der GI-Fachgruppe - Virtuelle und Erweiterte Realität<br />
- Mitglied der Bibliothekskommission der TU Chemnitz<br />
39
2.4 Professur Informationssysteme und Softwaretechnik<br />
2.4.1 Personelle Zusammensetzung<br />
Leiter: Prof. Petr Kroha<br />
Sekretariat: Karin Gäbel<br />
Wiss. Mitarbeiter: Lars Rosenhainer M. A.<br />
2.4.2 Kurzbeschreibung der Professur<br />
Konstruktion von CASE-Werkzeugen für Anforderungserfassung<br />
CASE-Werkzeuge unterstützen die Herstellung von Programmen und der<br />
zugehörigen Dokumentation während <strong>des</strong> Softwareentwicklungsprozesses. Uns<br />
interessiert hauptsächlich die Konstruktion von CASE-Werkzeugen, die die erste<br />
Phase der Problemanalyse unterstützen, in der mit dem Kunden und den<br />
Fachexperten über die gewünschten Eigenschaften <strong>des</strong> neuen Softwaresystems<br />
diskutiert wird. Die Erfassung und Verfeinerung von Anforderungen ist ein iterativer<br />
Prozess, an dem verschiedene Teilnehmer mit verschiedenem<br />
Ausbildungshintergrund beteiligt sind. Aus diesem Grund müssen die zu<br />
entwickelnden Werkzeuge und ihre Schnittstellen dem Denken ihrer Nutzer<br />
entsprechen. Damit verbunden ist eine ganze Reihe von offenen Problemen (Projekt<br />
TESSI).<br />
Parallele CASE-Werkzeuge<br />
Parallele und verteilte Datenverarbeitung wird auf vielen Fachgebieten eingesetzt,<br />
bisher allerdings nicht als Unterstützung bei der Softwareentwicklung. Mit unserem<br />
Projekt versuchen wir, diese Lücke zu schließen (Projekt OPAS, Projekt ASPIC).<br />
Web-basierte Informationssysteme<br />
Im Internet sind alle möglichen Daten und Informationen zugänglich. Das Problem<br />
dabei ist, wie die für einen Kunden interessanten Daten herausgefiltert werden<br />
können und was mit ihnen geschehen soll. Die Datenerfassung wird durch Wrapper<br />
realisiert, gespeichert werden die Daten in eine XML-Datenbank, die auch als eine<br />
Basis für weitere, analytische Verarbeitung (OLAP) dient (Projekt WEBIS).<br />
41
2.4.3 Forschungsvorhaben<br />
OPAS (Objektorientierter Parallelserver)<br />
Analyse, Entwurf, Implementierung und Testen von objektorientierten parallelen<br />
Servern, die in einer parallelen oder verteilten Umgebung arbeiten und für die<br />
Zwecke <strong>des</strong> Software Engineering eingesetzt werden können (01/1997 – 12/2011,<br />
haushaltsfinanziert). Ein paralleler Objektserver, der als Datenrepository von<br />
Objekten dient, die während der Softwareentwicklung einem Projektteam zur<br />
Verfügung stehen, wurde für den an der TU Chemnitz vorhandenen Parallelrechner<br />
PARSYTEC entworfen und implementiert. Nachdem dieser Computer außer Betrieb<br />
genommen werden musste, wird jetzt daran gearbeitet, die untersuchten Konzepte,<br />
Methoden und Algorithmen in eine Cluster-Umgebung in CORBA zu übertragen.<br />
Dabei wird die Tatsache genutzt, dass an der TU Chemnitz einer der weltweit größten<br />
Beowulf-Cluster im Rahmen <strong>des</strong> CLIC-Projektes aufgebaut wurde. Der Bedarf an<br />
Datenrepositorys, in denen Daten von allen Softwareprojekten einer Firma<br />
gespeichert werden, wird in der Zukunft sehr stark ansteigen, da Softwarefirmen<br />
mehr und mehr dezentralisiert werden. Auch kleine Softwarefirmen haben heute zum<br />
Teil bereits Filialen nicht nur an mehreren Stellen in Deutschland, sondern z. B. auch<br />
in Indien und in der USA. Weiterhin könnten die Firmenmitarbeiter von zu Hause aus<br />
arbeiten, wenn ihnen jederzeit die aktualisierten Projektdaten zur Verfügung ständen.<br />
Dazu werden allerdings Softwarewerkzeuge für eine vernetzte Mehrnutzerumgebung<br />
benötigt. Sequentielle Server haben dabei ihre Leistungsgrenzen, obwohl diese<br />
Grenzen ständig nach oben verschoben werden. Vorteilhaft ist in diesem<br />
Zusammenhang, dass parallele und verteilte Technologie immer billiger und<br />
zugänglicher wird. Die Probleme, wie solche Systeme programmiert werden sollen,<br />
werden jedoch immer komplexer.<br />
ASPIC (Aspect-oriented Implementation in Cluster Environment)<br />
Die Problematik der Übertragung einer Anwendung von einer parallelen in eine<br />
verteilte Umgebung zeigte, dass bestimmte Eigenschaften sich in objektorientierter<br />
Programmierung nicht in einzelne Klassen verkapseln lassen. Sie sind über viele<br />
Klassen verstreut, was nicht nur die Übertragbarkeit sondern auch die Wartung<br />
erschwert. Aspektorientierte Programmierung ermöglicht, gerade die oben erwähnten<br />
Konzepte in einer kompakten Einheit zu beschreiben. Sie hilft, das Problem der<br />
„separation of concerns“ zu lösen und unterstützt damit die Eigenschaft von<br />
Softwareprodukten, die als Portabilität bezeichnet wird. Es wird immer versucht,<br />
verschiedene Aspekte <strong>des</strong> Modells in Programmiersprachen separat zu beschreiben,<br />
weil dies ermöglicht, Änderungen und Modifikationen einfacher durchzuführen. Es<br />
hat sich jedoch gezeigt, dass sich bestimmte Eigenschaften (Aspekte) in bekannten<br />
Sprachen nicht separat beschreiben lassen. Uns hat dieses Problem im Projekt OPAS<br />
betroffen, als wir unsere fertige Lösung, entwickelt unter dem Betriebssystem PARIX<br />
auf dem parallelen Computer PARSYTEC, in die verteilte Beowulf-LINUX-<br />
Umgebung in den CLIC-Cluster übertragen wollten.<br />
42
Da das Konzept der Synchronisation von parallelen Prozessen in OPAS nicht separat<br />
beschrieben worden war, was nicht einmal möglich war, genügt es nicht, einfach<br />
einen Teil <strong>des</strong> Programms, der für die Synchronisation der parallelen Prozesse<br />
verantwortlich ist, auszutauschen. Das System muss neu programmiert werden, was<br />
umständlich ist, obwohl wir vieles aus dem alten System benutzen können. Im<br />
diesem Projekt wird der objektorientierte Server für den Cluster CLIC in<br />
aspektorientierter Sprache AspectJ beschrieben und diese Technologie wird<br />
untersucht.<br />
TESSI (Textual assistant)<br />
Analyse, Entwurf, Implementierung und Testen von CASE-Werkzeugen, die die<br />
Erfassung und Analyse der Anforderungen an ein Softwareprodukt unterstützen<br />
(01/1997 – 12/2011, haushaltsfinanziert). CASE-Werkzeuge, die heute auf dem<br />
Markt sind, unterstützen den Softwareentwicklungsprozess erst ab der Phase, wenn<br />
Diagramme (UML-Diagramme, Datenflussdiagramme usw.) gezeichnet werden. Die<br />
allererste Phase, wenn während der Diskussionen mit dem Kunden und mit<br />
Fachexperten die Anforderungen gesammelt und erfasst werden, wird nicht<br />
unterstützt. Es ist aber bekannt, dass gerade die Fehler, die während dieser Phase<br />
entstehen, die teuersten Fehler darstellen. Alles, was in dieser ersten Phase übersehen<br />
oder falsch begriffen wird, muss später sehr teuer korrigiert werden. Meistens<br />
versteht der Analytiker <strong>des</strong> Softwarehauses die Wünsche <strong>des</strong> Kunden nicht komplett,<br />
weil er keine tiefen Kenntnisse auf dem Fachgebiet der Anwendungsprobleme hat.<br />
Der Prozess läuft so, dass der Kunde nicht alles sagt, was er will, und was er sagt,<br />
sagt er ungenau. Der Analytiker versteht nicht alles, was der Kunde sagt, und was er<br />
versteht, versteht er oft anders, als das der Kunde meinte. Aufgrund dieser<br />
Missverständnisse werden Anforderungen analysiert, die eigentlich keine<br />
Anforderungen waren und Systeme implementiert, die die Kunden nicht brauchen<br />
können. Unsere Lösung dieses Problems, die durch das CASE-Werkzeug TESSI<br />
unterstützt wird, zwingt den Analytiker, von Anfang an eine textuelle Beschreibung<br />
der Anforderungen zu erstellen und von diesen Anforderungen ein objektorientiertes<br />
Model (auf UML-Basis) abzuleiten. Wenn der Analytiker denkt, dass seine<br />
Vorstellungen im Modell richtig abgebildet sind, lässt er durch TESSI einen Text<br />
generieren, der von dem Modell automatisch abgeleitet wird. Dieser Text<br />
repräsentiert die Vorstellungen <strong>des</strong> Analytikers. Außerdem ist der Text für den<br />
Kunden verständlich, was Diagramme der CASE-Werkzeuge nicht gewährleisten<br />
können. Der Kunde validiert den Text, d.h. er entscheidet, ob die Vorstellungen <strong>des</strong><br />
Analytikers auch seine Vorstellungen sind. Während dieses Prozesses generiert<br />
TESSI auch Metriken, die dem Analytiker bei der Abschätzung helfen können, wann<br />
das System fertig sein kann und wie viel es kosten wird.<br />
43
WEBIS (Web-orientiertes Informationssystem)<br />
Ein Informationssystem, das seine zu speichernden Eingabedaten selbst aus dem<br />
WWW bezieht und im XML-Format abspeichert. Aus dem Datenbestand können<br />
mittels entsprechender Abfragen Informationen extrahiert werden.<br />
TODIS<br />
Testwerkzeuge für das Testen von verteilten Systemen werden als Unterstützung zu<br />
den Projekten OPAS und ASPIC entwickelt.<br />
ADONIS (Adaptive Object-oriented Information System)<br />
Adaptive Programmierung und aspekt-orientierte Programmierung sind moderne<br />
Konzepte, deren Bedeutung für die Softwaretechnologie erst noch untersucht werden<br />
muss (01/2000 – 12/2011, haushaltsfinanziert). Typische Anwendungen werden<br />
mittels klassischer objektorientierter Methodologie als auch mittels adaptiver oder<br />
aspekt-orientierter Technologien programmiert und die dabei entstandenen<br />
Ergebnisse miteinander verglichen. Adaptive Programmierung erweitert die<br />
Möglichkeiten der objektorientierten Programmierung durch eine Klassenhierarchie-<br />
Verkapselung und unterstützt damit die Wartbarkeit von Softwareprodukten.<br />
Wichtige Vorteile entstehen für die Wartung von Anwendungen, die eine<br />
umfangreiche Klassenhierarchie nutzen, die oft geändert werden muss. In diesem<br />
Projekt werden wir die spezialisierte Programmiersprache DemeterJ und die<br />
Auswirkung dieser neuen Technologie erproben. Für die Lösung dieser Aufgabe<br />
werden wir im Projekt ADONIS die neu entwickelte Programmiersprache AspectJ<br />
benutzen. Wir werden diese neue Technologie in praktischen Pilotprojekten<br />
untersuchen und die Ergebnisse als eine Methodologie beschreiben.<br />
2.4.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Kroha, P., Bürgel, S.: "Modelling and Design for Adaptive Programming" In:<br />
Proceedings of the 3rd International Conference on Advanced Engineering Design<br />
AED'2003 Process Engineering Publisher, ISBN 80-86059-35-9, Prague, June 2003<br />
Kroha, P., Bürgel, S.: "Embracing UML for Modelling Adaptive Information<br />
Systems" In: Benes, M. (Ed.): Proceedings of the 6th International Conference<br />
Information Systems Implementation and Modelling ISIM'2003, pp. 63 - 70, Acta<br />
MOSIS Nr. 91, MARQ, ISBN 80-85988-84-4, Brno, April 2003<br />
44
Diplomarbeiten<br />
Rosenbaum, A.: Integration von Data-Mining-Techniken in das Informationssystem<br />
WEBIS<br />
Fleischer, M.: Tuning eines CORBA-basierten, parallelen Objektrepositorys<br />
(OODBS) für eine Shared-Nothing-Umgebung<br />
Toschev, J.: Entwurf und Implementierung einer neuen Architektur für TESSI<br />
Projektarbeiten<br />
Ahnert, F.: Erweiterungen <strong>des</strong> XML-Repositorys für das Web-orientierte<br />
Informationssystem (WEBIS) und Entwicklung einer Infrastruktur für einen<br />
börsenorientierten Datenbestand, September 2003<br />
Dietrich, A.: Wrapper 01: Implementation eines Wrapperprototyps für WEBIS,<br />
Juli 2003<br />
Rosenbaum, A.: Integration von Data-Mining-Techniken in das Informationssystem<br />
WEBIS, Mai 2003<br />
Fleischer, M.: Portierung <strong>des</strong> parallelen Objekt-Repositorys OPAS von PARIX nach<br />
CORBA auf die CLiC-Plattform, Mai 2003<br />
2.4.5 Vorträge<br />
Kroha, P.: Integration of artificial intelligence components into information systems.<br />
Pontificia Universidade Catolica do Rio de Janeiro, Brasilien, 03.11.2003<br />
Kroha, P.: Information Systems and Web. Universidad de Chile, Santiago, Chile,<br />
05.11.2003<br />
Kroha, P.: Parallel and distributed object servers. Universidad de Magallanes, Punta<br />
arenas, Chile, 17.12.2003<br />
2.4.6 Mitarbeit in Gremien<br />
Kroha, P.:<br />
- Programmkomitee der Konferenz DEXA 2003<br />
- Programmkomitee der Konferenz ISIM 2003<br />
- Programmkomitee der Konferenz DATAKON 2003<br />
45
2.5 Professur Künstliche Intelligenz<br />
2.5.1 Personelle Zusammensetzung<br />
Leiter: Prof. Werner Dilger<br />
Sekretariat: Karin Gäbel<br />
Wiss. Mitarbeiter: Dipl.-Inf. Holger Langner<br />
Dipl.-Inf. Ulf Nieländer<br />
Dr. Johannes Steinmüller<br />
Dipl.-Inf. Falk Schmidsberger<br />
Dipl.-Inf. Andrea Sieber<br />
Dipl.-Inf. Jörg Wellner<br />
Dr. Jens Zeidler<br />
2.5.2 Kurzbeschreibung der Professur<br />
Ausbildungsprofil<br />
Die angebotenen Lehrveranstaltungen der Professur KI decken das Gebiet der<br />
Künstlichen Intelligenz weitgehend ab. Sie reichen von methodisch orientierten über<br />
anwendungsorientierte bis zu Praktika. Teilweise werden sie in Zusammenarbeit mit<br />
der Fakultät für Elektrotechnik und Informationstechnik und mit einer Softwarefirma<br />
durchgeführt.<br />
Bei den Methoden der KI werden die Themen der Wissensrepräsentation,<br />
konnektionistische Wissensverarbeitung (Neuronale Netze) und<br />
Logikprogrammierung behandelt. In ähnlicher Weise eher methodisch sind die<br />
Vorlesungen über Neurokognition, Sprachverarbeitung und Bildverarbeitung.<br />
Besondere Themenbereiche sind das Maschinelles Lernen, verteilte KI-Systeme,<br />
Expertensysteme und Künstliche Immunsysteme. Im ersten Bereich werden die<br />
Grundlagen lernender Systeme, und eine praktische Anwendung, das Data Mining,<br />
vermittelt. Im zweiten Bereich geht es um Multiagentensysteme und die Robotik. Im<br />
dritten Bereich werden die Themen Diagnose, Konfiguration und Wissenserwerb<br />
behandelt. Im vierten Bereich werden Grundlagen und Anwendungen Künstlicher<br />
Immunsysteme vorgestellt.<br />
Es werden zwei Praktika angeboten. Das erste ist ein Robotik-Praktikum, das<br />
gemeinsam mit der Professur Automatisierungstechnik der Fakultät für E/I-Technik<br />
durchgeführt wird. Das zweite ist ein Data-Mining-Praktikum, das mit Vertretern der<br />
Firma Prudential Systems Software GmbH/prudsys AG durchgeführt wird.<br />
47
Forschungsprofil<br />
Biologische Intelligenz<br />
Es laufen verschiedene Arbeiten auf den Gebieten Künstliche Immunsysteme und<br />
Neurokognition. Im ersten Fall werden immunologische Prinzipien in<br />
Berechnungsprozeduren genutzt, um flexible, selbstorganisierende, verteilte und<br />
robuste Algorithmen für verschiedene Anwendungen zu entwickeln. Außerdem<br />
wurde ein objektbasiertes Simulationssystem entwickelt, mit dem verschiedene<br />
Experimente durchgeführt werden können. Im zweiten Fall geht es um Modellierung<br />
und Simulation kognitiver Prozesse <strong>des</strong> Gehirns mit Hilfe Systemen gekoppelter<br />
Neuronaler Netze. Das Ziel ist dabei, verbesserte Verfahren für die technische<br />
Realisierung kognitiver Systeme zu entwickeln.<br />
Multiagentensysteme<br />
Grundlagenorientierte Forschung zum Mikro-Makro-Problem und zum<br />
Skalierungsproblem bei Multiagentensystemen. Es wird versucht, das Prinzip der<br />
symbolisch generalisierten Kommunikationsmedien (Luhmann) aus der Soziologie<br />
zur evolutionären Strukturdifferenzierung zu verwenden. Ferner laufen Arbeiten zum<br />
Multiagentenplanen.<br />
Maschinelles Lernen und Data Mining<br />
Entscheidungsbaumverfahren werden zum Erlernen von Auszügen einer<br />
natürlichsprachlichen Grammatik eingesetzt. Verfahren <strong>des</strong> Reinforcement Learning<br />
werden zusätzlich zu den evolutionären Verfahren für die Strukturdifferenzierung in<br />
Multiagentensystemen verwendet, ebenso für das Roboterlernen. Mit Methoden <strong>des</strong><br />
Data Mining werden Daten aus psychologischen Experimenten analysiert. Zur<br />
Approximation zeitabhängiger Funktionen (Zeitreihenanalyse) werden adaptive<br />
Neuronale Netze eingesetzt.<br />
Intelligente Schnittstellen<br />
Der Aufbau eines nutzerspezifischen dreidimensional dargestellten<br />
Informationsraums am Computer wird graphisch unterstützt. Dazu können beliebige<br />
Dokumente vom Nutzer mit Notizen annotiert werden. Bei der Beschaffung von<br />
Informationen aus dem Internet wird der Nutzer von einem persönlichen<br />
maschinellen Agenten unterstützt. Die Agenten verschiedener Nutzer können sich in<br />
einem erweiterten Informationsraum gegenseitig mit Informationen versorgen.<br />
Softwareentwicklung in der Praxis.<br />
Es werden empirische Untersuchungen über die Softwareentwicklung in KMU<br />
durchgeführt. Dabei wird das Ziel verfolgt, Unterschiede in der Vorgehensweise bei<br />
kulturell unterschiedlich vorgeprägten Entwicklern aufzudecken.<br />
48
Die Untersuchung läuft dazu im Vergleich zwischen Ost- und Westdeutschland und<br />
wird später auf den Vergleich mit den USA und Russland erweitert.<br />
Die Forschungsarbeiten laufen im Rahmen von DFG - und BMBF - geförderten<br />
Projekten, und teilweise auf der Basis von Haushaltsmitteln. Es bestehen<br />
Kooperationen mit verschiedenen Professuren in der Philosophischen Fakultät und in<br />
der Fakultät für E/I-Technik der TU Chemnitz, mit der Professur für Soziologie<br />
(Prof. Giesen) an der Universität Konstanz, mit Professuren von Universitäten in<br />
mehreren Bun<strong>des</strong>ländern und mit dem DFKI in Saarbrücken, mit der Medizinischen<br />
Klinik <strong>des</strong> Klinikums Chemnitz, mit dem Deutschen Diabetes-Forschungsinstitut in<br />
Düsseldorf (Prof. Kolb) und mit der prudsys AG Chemnitz.<br />
2.5.3 Forschungsvorhaben<br />
BMBF – Forschungsprojekt: Data Mining Tutor: Ein generisches Konzept für das<br />
Lehren und Lernen im Internet (DaMiT)<br />
Das Verbundvorhaben DaMiT wird von 10 Professoren an Universitäten und<br />
Hochschulen in 10 Bun<strong>des</strong>ländern vertreten. Die Zusammensetzung <strong>des</strong> Konsortiums<br />
zielt, neben der fachübergreifenden Kompetenz, auf einen breiten Einsatz aller<br />
Ergebnisse von DaMiT in der Lehre und auf das Erreichen von großen<br />
Studentenzahlen in unterschiedlichen Fakultäten.<br />
Das DaMiT-System erlaubt es, eine neue Qualität der Lehre und <strong>des</strong> Studiums an<br />
Universitäten und Fachhochschulen zu praktizieren und Studierende<br />
unterschiedlicher Fakultäten zu erreichen. Die Spezifik von DaMiT besteht darin,<br />
dass der Gegenstand der Lehre und <strong>des</strong> Studiums - die Extraktion von Wissen aus<br />
großen und verteilten Datenbanken sowie aus dem Internet insgesamt - gar nicht<br />
anders realitätsnah behandelt werden kann als im Internet selbst. Es soll gelehrt und<br />
gelernt werden, wie man mit der Informationsflut <strong>des</strong> Internets umgeht, was am<br />
besten im Internet selbst möglich ist.<br />
Im Projekt DaMiT werden die Grundlagen <strong>des</strong> Machine Learning, von der Inductive<br />
Inference bis zum Knowledge Discovery & Data Mining detailliert ausgearbeitet, für<br />
die Lehre im Internet aufbereitet und in ein Tutor-System integriert. Hauptaugenmerk<br />
wird auf die Einbindung von Algorithmen bzw. von umfassenden Systemen zum<br />
Data Mining und Knowledge Discovery gelegt, um dadurch den Studierenden die<br />
praktische Erprobung und Vertiefung der erworbenen Kenntnisse in großen<br />
Datenbanken und im Internet selbst zu ermöglichen.<br />
Für die Verwertung der Ergebnisse von DaMiT gibt es ein 4-stufiges Konzept. Die<br />
ersten beiden Stufen werden bereits in der Phase der Bearbeitung <strong>des</strong><br />
Verbundprojekts realisiert.<br />
49
Das DaMiT-System kommt schon im Zuge der Projektbearbeitung in 10<br />
Bun<strong>des</strong>ländern zum Einsatz und wird in Studiengängen V der Informatik, der<br />
Wirtschaftsinformatik und der Betriebswirtschaft eingesetzt. Darüber hinaus wird das<br />
DaMiT-System schon während seiner Projektlaufzeit - in Kooperation mit führenden<br />
Software-Häusern auf dem Gebiet <strong>des</strong> Data Mining - kommerzielle Dienste anbieten.<br />
DFG Forschungsprojekt „Neue Medien im Alltag“; Teilprojekt 2: Modellierung und<br />
Simulation der Rezeption textuell repräsentierter Inhalte im Internet.<br />
Das Projekt wurde im Juni 2003 abgeschlossen. Das Internet bietet die Möglichkeit<br />
der nutzerspezifischen Beschaffung, Auswahl und Präsentation von Informationen. In<br />
dem Forschungsvorhaben werden Konzepte für eine realitätsnahe<br />
Nutzermodellierung unter Berücksichtigung von Erkenntnissen aus der<br />
sprachwissenschaftlichen und psychologischen Forschung erarbeitet. Dazu wird ein<br />
Modell für den Internet-Nutzer entwickelt, das sich für eine Simulation auf dem<br />
Computer eignet. Dieses Modell kann in zweierlei Weise verwendet werden: Die<br />
Resultate der empirischen sprachwissenschaftlichen und psychologischen Forschung<br />
werden an ihm überprüft, d.h. es ist als Werkzeug für die Prüfung von Theorien und<br />
zur Erzeugung von Hypothesen benutzbar, und es gibt Hinweise für die Definition<br />
einer fortgeschrittenen Agentenarchitektur für Informationsagenten.<br />
DFG Forschungsprojekt: Sozionik: „Erforschung und Modellierung künstlicher<br />
Sozialität; Thema: Erarbeitung eines soziologisch motivierten Ansatzes zur<br />
Strukturdifferenzierung in Multiagentensystemen<br />
Das Sozionik-Projekt wurde im September 2003 abgeschlossen. Es wurde ein<br />
Multiagentensystem entwickelt, welches die Untersuchung der Entstehung sozialen<br />
Verhaltens unter bestimmten Bedingungen erlaubt. Im Vordergrund stand die<br />
Koordination und Kooperation vieler Agenten durch symbolische Kommunikation.<br />
Basis <strong>des</strong> Projektes war die Zusammenarbeit mit unseren Projektpartnern am<br />
Fachbereich für Soziologie an der Universität Konstanz. Durch diese<br />
Zusammenarbeit verfolgte das Projekt eine soziologisch plausible Fundierung<br />
sozialer Fähigkeiten von künstlichen Agenten. Nachdem grundlegende<br />
Lernmechanismen an Hand von überschaubaren Problemen erarbeitet wurden, stand<br />
in einer zweiten Projektphase vor allem komplexere Anwendungen im Vordergrund.<br />
Eine solche Anwendung konnte unter anderem erfolgreich in einer Diplomarbeit und<br />
zwei Studienarbeiten bearbeitet werden. Die Resultate dieser Arbeiten zeigten, dass<br />
der gewählte Ansatz, wie von Beginn an intendiert, sehr gut skaliert und dass sich<br />
auch in komplexeren Anwendungsfeldern einheitliche, von allen Agenten in gleicher<br />
Weise verstandene Kommunikationssymbole etablieren. Um Umfeld <strong>des</strong> Projektes<br />
wurden weitere Studien- und Diplomarbeiten zum Lernen in spieltheoretischen<br />
Anwendungen und zur Bildung von Erwartungserwartungen bei Agenteninteraktionen<br />
bearbeitet. Zwei Diplomarbeiten waren bis zum Projektende begonnen, aber noch<br />
nicht abgeschlossen.<br />
50
Projekt der Volkswagenstiftung<br />
Das Projekt stellt national vergleichend die Frage nach innovativen Prozessen in der<br />
Softwareentwicklung. Zwei der Technologie-Regionen befinden sich in den USA und<br />
zwei in Deutschland. Jeweils eine Region in den USA ist mit einer in Deutschland<br />
vergleichbar im Hinblick auf die nationale Bedeutung der dortigen IT-Branche und<br />
die räumliche Struktur der Region. Sowohl im Gebiet um Seattle als auch um<br />
Karlsruhe (bezeichnet als Technologie-Region Karlsruhe) hat die IT-Branche<br />
mittlerweile nationale Bedeutung. Die Städte Seattle und Karlsruhe bilden in beiden<br />
Regionen den zentralen Mittelpunkt. Das Forschungsdreieck Raleigh-Durham-Chapel<br />
Hill und die Wirtschaftsregion Südwestsachsen (mit den Städten Chemnitz-Zwickau-<br />
Plauen) haben trotz Werbung mit dem Forschungspotential ihrer Hochschulen und<br />
trotz vergleichbarer Programme zur Förderung von Unternehmensgründungen in der<br />
IT-Branche keine vergleichbare nationale Bedeutung erlangt. Beide Regionen sind<br />
als netzwerkartige Städtepartnerschaften organisiert.<br />
Auch in kleinen Softwareunternehmen entstehen Innovationen in kontingenten<br />
sozialen Prozessen. Auf regionaler Ebene ist die überbetriebliche und institutionelle<br />
Vernetzung <strong>des</strong> Unternehmens von Bedeutung, wenn es um innovative<br />
Softwareentwicklungsprozesse geht. Die verschiedenen Formen der Zusammenarbeit<br />
lassen sich anhand der anfänglichen Motivation für den Zusammenschluss, der<br />
gemeinsamen Ziele, der Struktur <strong>des</strong> Netzwerks und <strong>des</strong> Verlaufs der<br />
Zusammenarbeit charakterisieren. Akteure, die in der überbetrieblichen Vernetzung<br />
eine Rolle spielen, sind Mitarbeiter in anderen Unternehmen, in öffentlichen und<br />
politischen Institutionen, in Banken und Universitäten. Auf organisatorischer Ebene<br />
zeigt sich Innovation darin, wie die Organisation das Dilemma der<br />
Kontextualisierung von Software, das Dilemma der Kommunikation im Unternehmen<br />
und der Autonomie der SoftwareentwicklerInnen, ihrer Motivation und Kontrolle zu<br />
lösen vermag. Dabei interessiert sowohl die formale Lösung als auch der informelle<br />
Verlauf der tatsächlichen Softwareentwicklung. Innovation auf individueller Ebene<br />
hat mit der Wahrnehmung, Toleranz und dem bewussten Einsatz von Arbeitsstilen zu<br />
tun. Arbeitsstile bei SoftwareentwicklerInnen setzen sich aus der Art und Weise der<br />
Programmierung, den Interessengebieten der SoftwareentwicklerInnen sowie ihrem<br />
Kooperationsmuster zusammen. Für die empirische Untersuchung werden jeweils<br />
fünf kleine Softwareunternehmen aus den vier als untersuchten Regionen als<br />
Fallbeispiele herangezogen. Qualitatives Sampling hilft bei der Auswahl der Fälle. In<br />
den Fallstudien werden themenorientierte Leitfadeninterviews und protokollierte<br />
Feldbeobachtungen methodisch kombiniert.<br />
51
2.5.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Schäfer, M., Dilger, W.: Representation and training of vector graphics with<br />
NRAAM networks. Proceedings of the International Joint Conference on Neural<br />
Networks 2003, Portland, Oregon, 473-477<br />
Schäfer, M., Dilger, W.: Training and holistic computation of vector graphics with<br />
Hebbian bases in contrast to RAAM networks. Proceedings of the International Joint<br />
Conference on Neural Networks 2003, Portland, Oregon, 1667-1672<br />
Langner, H: Ein verteiltes, taskbezogenes Lernerassistenzkonzept für das Webgestützte<br />
Lernen. Tagungsband LIT'03, Leipzig 24. - 26.09.2003, Akademische<br />
Verlagsgesellschaft Aka GmbH, Berlin 2003, S. 171-182, ISBN: 3-89838-047-5<br />
Langner, H., Schmidsberger, F., Dilger, W.: Ein erweiterbares Architekturkonzept<br />
zur aktiven Lernermodellierung für das Web-gestützte Lernen. 11. GI-Workshop<br />
"Adaptivität und Benutzermodellierung in interaktiven Softwaresystemen" (ABIS<br />
2003), In: A. Hotho, G. Stumme (Hrsg.): Proceedings der Workshopwoche "Lehren-<br />
Lernen-Wissen-Adaptivität 2003" (LLWA 03), Karlsruhe, 06. - 08.10.2003,<br />
S. 307 - 315<br />
Dilger, W., Zeidler, J.: Data-Mining-Cup – mehr als ein Studentenwettbewerb.<br />
Proceedings 2. Workshop GI-AK Knowledge Discovery, Leipzig, S. 39 - 44<br />
Dissertationen<br />
Wellner, J.: Selbstorganisierende Kommunikationssysteme für Multiagentensysteme,<br />
09.12.2003<br />
Diplomarbeiten<br />
Hofmann, F.: Benutzer-adaptive Verfahren für die aktive Lernmodellierung,<br />
November 2003<br />
Thau, T.: Ein evolutionäres Design für die Struktur Neuronaler Netze, September<br />
2003<br />
Pletschacher, St.: Untersuchungen zur Einsetzbarkeit der Support Vektor Maschine<br />
für die Analyse realer Daten, April 2003<br />
Schäfer, M.: Erlernen und Modifizieren von Vektorgrafiken mit RAAM-Netzen,<br />
April 2003<br />
52
Projektarbeiten<br />
Parthey, J.: Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch<br />
Erweiterung eines klassischen Backpropagation-Simulators, März 2003<br />
Seifert, Ch.: Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch<br />
Erweiterung eines klassischen Backpropagation-Simulators, März 2003<br />
Changxing, D.: Visualisierung von Data-Mining-Ergebnissen medib zinischer<br />
Daten, April 2003<br />
Lässig, J.: Strukturentwurf eines dynamisch aufgebauten Fertigungsmanagementsystems<br />
und Entwicklung echtzeitorientierter Einplanungsstrategien für<br />
Produktionsaufträge, April 2003<br />
Thierfelder, T.: Formalisierung, Simulation und Auswertung eines<br />
Erwartungserwartungsansatzes in zwei Versionen für einfache Agentenspiele,<br />
April 2003<br />
Kirillov, A.: Umweltpräsentation für einen Robotereinsatz im Außenbereich,<br />
Dezember 2003<br />
2.5.5 Vorträge<br />
Dilger, W.: Analyse räumlicher Daten (Spatial Data Mining). Sommerschule<br />
Kartografie, Kartografisches Institut der TU Dresden, 25.09.2003<br />
Langner, H.: Ein verteiltes, taskbezogenes Lernerassistenzkonzept für das Webgestützte<br />
Lernen. LIT'03, Leipzig (HTWK), 24.09.2003<br />
Langner, H.: Ein erweiterbares Architekturkonzept zur aktiven Lernermodellierung<br />
für das Web-gestützte Lernen. 11. GI-Workshop "Adaptivität und<br />
Benutzermodellierung in interaktiven Softwaresystemen" (ABIS 2003), Karlsruhe,<br />
06.10.2003<br />
Thierfelder, T.; Wellner, J.: Untersuchungen zur erwartungsgesteuerten Interaktion.<br />
Projekttreffen <strong>des</strong> DFG-SPP Sozionik in Seeon, 28.06.2003<br />
Zeidler, J.: Data-Mining-Cup – mehr als ein Studentenwettbewerb. 2. Workshop GI-<br />
AK Knowledge Discovery, Universität Leipzig, 25.02.2003<br />
53
2.5.6 Mitarbeit in Gremien<br />
Dilger, W.:<br />
- Aufsichtsrat prudsys AG<br />
- Jury <strong>des</strong> 4. Data Mining Cups 2003<br />
Zeidler, J.:<br />
- Aufsichtsrat prudsys AG<br />
Nieländer, U.:<br />
- Jury-Mitglied beim „Jugend forscht“ – Regionalwettbewerb Südwestsachsen<br />
- Mitglied der Studienkommission Wirtschaftsinformatik TU Chemnitz<br />
54
2.6 Professur Modellierung und Simulation<br />
2.6.1 Personelle Zusammensetzung<br />
Leiter: Prof. Peter Köchel<br />
Sekretariat: Karin Gäbel<br />
Wiss. Mitarbeiter: Dipl.-Math. Jens Flohrer<br />
Dipl.-Inf. Marion Riedel (bis 30.September)<br />
Dipl.-Inf. Ulrike Schönke (bis 30. September)<br />
Dipl.-Math. Moustafa M.S. El-Ashry (Promotionsstudent)<br />
Dipl.-Inf. Michael Kämpf (Promotionsstudent)<br />
2.6.2 Kurzbeschreibung der Professur<br />
Modellierung und Simulation bedeutet im wesentlichen, mittels geeigneter<br />
mathematischer Modelle existierende oder zu entwerfende Systeme zu untersuchen<br />
und bezüglich eines vorgegebenen Bewertungskriteriums zu optimieren. Derartige<br />
Systeme können z. B. sein ein Rechnersystem, ein Fertigungssystem, ein<br />
ökonomisches System. Die Interessen konzentrieren sich dabei auf ereignisdiskrete<br />
Systeme mit zufälligen Einflussfaktoren.<br />
Sowohl in der Lehre als auch in der Forschung werden zwei Richtungen vertreten.<br />
Zum einen wird versucht, über die Nutzung vorhandener bzw. die Entwicklung neuer<br />
analytischer Modelle entsprechende Aufgabenstellungen zu lösen. Ist die reale<br />
Situation jedoch so komplex, dass sie nicht hinreichend exakt durch ein analytisches<br />
Modell dargestellt werden kann, wird zur Simulation übergegangen. In jedem Fall<br />
wird der Optimierungsaspekt beachtet.<br />
Im Einzelnen befasst sich die Professur mit drei Schwerpunkten:<br />
- Leistungsbewertung komplexer stochastischer Systeme,<br />
- Verbindung von Simulation und Genetischen Algorithmen für eine<br />
simulationsbasierte Optimierung komplexer stochastischer Systeme und<br />
- Nutzung der simulationsbasierten Optimierung zur optimalen Steuerung von<br />
Logistik-, Lagerhaltungs-, Fertigungs- und Informatiksystemen.<br />
55
2.6.3 Forschungsvorhaben<br />
Design und optimale Steuerung von hierarchischen Systemen<br />
Bis 2001 waren die innerhalb der Professur durchgeführten Forschungsarbeiten auf<br />
die Entwicklung von Methoden und Werkzeugen zur Optimierung ereignisdiskreter<br />
Prozesse konzentriert. Im Jahre 2002 rückte verstärkt die Anwendung auf wichtige<br />
Praxisfälle in den Mittelpunkt. Praxiskontakte zeigten, dass ein großer Bedarf nach<br />
Lösungen für den Entwurf und die Steuerung von Systemen mit folgenden typischen<br />
Eigenschaften besteht:<br />
- das System besteht aus räumlich verteilten Elementen,<br />
- die Systemelemente sind zumin<strong>des</strong>t über Informations- und Transportkanäle<br />
miteinander verbunden,<br />
- das System soll eine zufällige dynamische Last bedienen,<br />
- über die zu bedienende Last gibt es nur unvollständige Information,<br />
- die dazu zur Verfügung stehenden Ressourcen sind endlich, aber teilbar,<br />
- zur Steuerung <strong>des</strong> Systems existiert oder ist zu entwickeln eine<br />
Steuerungshierarchie und<br />
- das Systemziel kann in der Regel nicht durch explizite mathematische Funktionen<br />
beschrieben werden.<br />
Ein Anwendungsfall ist für uns von besonderem Interesse. Dieser führt auf sogenannte<br />
Multi - Echelon Modelle, die z. B. zur Optimierung der Bestell- und Lieferbeziehungen<br />
innerhalb großer Handelsketten genutzt werden können. Ein anderes Beispiel ist der<br />
Entwurf optimaler Dienstleistungsstrukturen mit entsprechender Ersatzteileversorgung<br />
für bestimmte Massengüter (Autos, Haushaltgeräte u. ä.). In diesen Systemen entsteht<br />
der unmittelbare Bedarf in den Filialen. In Abhängigkeit von den dort verfügbaren<br />
Beständen bestellen die Filialen bei gewissen Regionallagern neue Ressourcen, die<br />
Regionallager bestellen wiederum bei bestimmten Zentrallagern, die ihrerseits z. B.<br />
beim Hersteller der einzelnen Produkte bestellen. Für diese gesamte Hierarchie eine<br />
optimale Wirkungsweise zu realisieren wird mit analytischen Modellen nicht möglich<br />
sein. Basierend auf dem an der Professur verfügbaren Knowhow zur<br />
simulationsbasierten Optimierung, zur adaptiven Steuerung von Systemen mit<br />
unvollständiger Information und zur verteilten und parallelen Verarbeitung wurden<br />
erste Lösungsansätze entwickelt und implementiert. Dabei haben wir bewusst den an<br />
der TU Chemnitz verfügbaren Parallelrechners CLiC genutzt.<br />
Das an der Professur gesammelte Knowhow und die vorhandenen technischen<br />
Möglichkeiten mündeten 2003, neben verschiedenen Veröffentlichungen und Vorträgen<br />
auf internationalen Konferenzen, in einem Einzelantrag an die DFG mit dem Thema<br />
„Simulationsbasierte Optimierung von Lagerhaltungs- und Logistikprozessen in<br />
mehrstufigen Produktions- und Distributionsnetzen“. Dieser Antrag befindet sich noch<br />
in der Begutachtungsphase.<br />
56
Simulationsbasierter optimaler Entwurf von KANBAN-Systemen<br />
Die Arbeiten an dem für den optimalen Entwurf von KANBAN-Systemen<br />
vorgesehenen Simulator KaSimIR (Kanban Simulation Imaniging Reality) wurden<br />
2003 zu einem vorläufigen Abschluss gebracht. Damit kann über die Verwendung<br />
von KaSimIR das Prinzip der KANBAN-Steuerung auch für das Design und die<br />
optimale Steuerung von hierarchischen Systemen, wie unter Punkt Design und<br />
optimale Steuerung von hierarchischen Systemen beschrieben, eingesetzt werden.<br />
KANBAN-Systeme modellieren mehrstufige Logistik- oder Produktionsprozesse, in<br />
denen eine Abstimmung zwischen den einzelnen Stufen <strong>des</strong> Gesamtprozesses durch<br />
Container gegebenen Umfanges (Losgröße) wie in einem Regelkreis erfolgt. Diese<br />
Container zirkulieren zwischen zwei aufeinanderfolgenden Stufen entsprechend<br />
einfacher Regeln: Hat die Vorgängerstufe einen Container gefüllt, so wird er zum<br />
Nachfolger transportiert, sobald dort ein Platz für einen gefüllten Container frei ist.<br />
Hat die Nachfolgerstufe einen Container geleert, so wird er zur Vorgängerstufe<br />
zurückbefördert. Das Optimierungsproblem besteht darin, solche Containeranzahlen<br />
und Losgrößen zu bestimmen, so dass ein Zielkriterium optimiert wird. Im<br />
Unterschied zu bisher bekannten Untersuchungen werden von uns sowohl die<br />
Containeranzahlen als auch die Lösgrößen optimiert. Des weiteren dient als<br />
Zielkriterium der im Mittel je Zeiteinheit zu erwartende Gewinn aus dem Verkauf an<br />
Fertigprodukten abzüglich der entsprechend zu erwartenden Kosten aus<br />
Kapitalbindung, aus dem Warten und dem Abweisen von Kunden sowie dem<br />
Transport der Container.<br />
Über eine Kopplung von KaSimIR mit Genetischen Algorithmen gelingt es,<br />
Probleme der optimalen Steuerung und <strong>des</strong> optimalen Entwurfs von mehrstufigen<br />
Systemen mit praktisch beliebiger Struktur zu lösen. Hinsichtlich dieses<br />
simulationsbasierten Zuganges zur Optimierung von KANBAN-Systemen bestätigen<br />
die erreichten Ergebnisse und das gesammelte Know-How, dass die Professur auf<br />
dem beschriebenen Gebiet eine führende Position einnimmt.<br />
Simulationsbasierte Lösungen für das Fleet-Sizing-and-Allocation Problem (FSAP)<br />
Ein weiteres Thema zur Anwendung der simulationsbasierten Optimierung befasst<br />
sich mit der Bestimmung optimaler Flottengrößen und Umverteilungsstrategien für<br />
komplexe Logistiksysteme mit mehreren Standorten (Transportunternehmen,<br />
Autovermietungen, Containerverkehr, ...), in denen ein stochastischer Bedarf nach<br />
entsprechenden Ressourcen entsteht. Beim Fleet-Sizing-and-Allocation Problem<br />
(FSAP) sind sowohl die für das Gesamtsystem verfügbaren Ressourcen zu wählen als<br />
auch entsprechende Umverteilungen, die sich infolge der Ressourcenverlagerungen<br />
im System ergeben. Als Kriterium dienen die je Zeiteinheit zu erwartenden Kosten<br />
aus Anschaffung, Wartung, Betreibung und Umverteilung der Ressourcen als auch<br />
der Kosten, die durch Warten und Abweisen von Kundenanforderungen entstehen.<br />
57
Für gegebene Strategien kann eine Bewertung nur mittels Simulation erfolgen. Ein<br />
entsprechen<strong>des</strong> Simulationsmodell wurde weiterentwickelt und eine parallele<br />
Variante auf dem Chemnitzer Linux-Cluster CliC implementiert. Genetische<br />
Algorithmen dienen wieder dazu, bisher betrachtete Strategien zu verbessern und<br />
entsprechend eines Abbruchkriteriums eine hinreichend effiziente Strategie als<br />
Problemlösung zu empfehlen. Während aus der Literatur Lösungen nur unter für die<br />
Praxis relativ einschränkenden Annahmen und bekannten Bedarf bekannt sind,<br />
erlaubt unser Zugang Lösungen für beliebig verteilten Bedarf und praxisnahe<br />
Problemformulierungen. Im Jahre 2003 wurden verstärkt Systeme mit einer<br />
sogenannten Hub-and-Spoke Struktur untersucht. Entsprechende Ergebnisse wurden<br />
im Forschungsseminar der Professuren KI und Modellierung und Simulation<br />
vorgestellt (siehe http://www.tu-chemnitz.de/informatik/HomePages/ModSim/<br />
forschungsseminar.php).<br />
Optimale Bewirtschaftung von Waldlandschaften unter Beachtung verschiedener<br />
Nutzungen und der räumlichen Verteilung der Bestände und Nutzungen<br />
Nach längerer Vorbereitung wurde für die Professur ein Thema aktuell, das in<br />
Zusammenarbeit mit der TU München bearbeitet wird und auf den ersten Blick nicht<br />
mit einer Fakultät für Informatik verbunden scheint. Die auf der Tagesordnung<br />
stehende nachhaltige Waldwirtschaft erfordert u. a. eine möglichst günstige<br />
Bewirtschaftung zusammenhängender Waldbestände, wobei sowohl die<br />
verschiedensten Nutzungsarten und Nutzer als auch die unterschiedlichsten<br />
Merkmale je<strong>des</strong> Einzelbestan<strong>des</strong> zu beachten sind. Als Entscheidungsunterstützung<br />
hierbei sind quantitative Untersuchungen und Aussagen mit Hilfe geeigneter Modelle<br />
notwendige Voraussetzungen. Während in der Vergangenheit entwickelte Modelle<br />
nur einzelne Fragen der optimalen Waldwirtschaft behandeln, beziehen unsere<br />
Untersuchungen einen ganzen Komplex relevanter Aspekte in die Betrachtung ein.<br />
Zu diesem Zwecke wird ein System hierarchisch strukturierter Modelle entwickelt,<br />
welche die verschiedenen problemrelevanten Prozesse abbilden. In den unteren<br />
Hierarchieebenen werden Modelle einbezogen, welche zur Abbildung sowohl der<br />
forstwissenschaftlichen als auch der wirtschaftlichen Prozesse dienen. Die obere<br />
Ebene ist für die Entscheidungsfindung zuständig. Wir gehen davon aus, dass wegen<br />
der Komplexität der sich ergebenden Optimierungsprobleme klassische Verfahren<br />
allein nicht zur Lösungsfindung taugen. Darum orientieren wir auf eine<br />
simulationsbasierte Optimierung als wesentlichen Lösungszugang. Dieser zeichnet<br />
sich dadurch aus, dass zum einen in der oberen Hierarchieebene neben klassischen<br />
Optimierungsverfahren Meta-Heuristiken wie Genetische Algorithmen angesiedelt<br />
sind, und dass zum anderen eine Bewertung von Entscheidungen mittels Simulation<br />
erfolgt. Es ist vorgesehen, die gesamte Modellhierarchie als prototypisches<br />
Softwareprodukt zu implementieren und an realen Daten zu testen.<br />
Diese Arbeiten sollen im Rahmen eines 2003 an die DFG gestellten Förderantrages<br />
erfolgen. Der Antrag befindet sich zur Zeit in der Phase der Begutachtung.<br />
58
2.6.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Köchel, P., Kunze, S., Nieländer, U.: Optimal control of a distributed service<br />
system with moving resources: Application to the fleet sizing and allocation problem.<br />
Internat. Journal of Production Economics, v. 81-82 (2003), 443 - 459<br />
Köchel, P.: Solving logistic problems through simulation and evolution. SOR’03,<br />
Proceedings of the 7 th International Symposium on Operational Research, Podčetrtek,<br />
Slovenia, 24. – 26.09.2003, pp. 9-15, ISBN 961-6165-15-1<br />
Diplomarbeiten<br />
Kämpf, M.: Über parallele Lösungen <strong>des</strong> Fleet-Sizing-and-Allocation Problems<br />
Pippig, V.: Simulationsbasierte Optimierung der Lagerhaltung mehrerer<br />
Ersatzteilearten an verschiedenen Orten mit Anwendung auf die Motorenwerke von<br />
VW<br />
Projektarbeiten<br />
Plontke, R.: Simulationsbasierte Optimierung eines Mehrlagersystems unter<br />
Verwendung der High Level Architektur (HLA)<br />
2.6.5 Vorträge<br />
Köchel, P.: Modellbildung und Ethik. Forschungsseminar „KI und Modellierung und<br />
Simulation“, Fakultät für Informatik der TU Chemnitz, Februar 2003<br />
Riedel, M., Köchel, P.: Performance Evaluation of Parallel Genetic Algorithms for<br />
Optimization Problems of Different Complexity. Dresden, September 2003,<br />
PARCO’03<br />
Köchel, P. (keynote speaker): Solving Logistic Problems through Simulation and<br />
Evolution. 7 th International Symposium on Operational Research SOR’03,<br />
Podcetrtek, Slovenia, 24. - 26.09.2003<br />
Köchel, P.: Ein hybrider Zugang zur Optimierung komplexer Systeme.<br />
Forschungsseminar „KI und Modellierung und Simulation“, Fakultät für Informatik<br />
der TU Chemnitz, Oktober 2003<br />
59
Köchel, P.: Das Fleet-Sizing-and-Allocation Problem: Lösungen für Hub-and-Spoke<br />
Systeme. Forschungsseminar „KI und Modellierung und Simulation“, Fakultät für<br />
Informatik der TU Chemnitz, Dezember 2003<br />
2.6.6 Mitarbeit in Gremien<br />
Köchel, P.:<br />
- Dekan der Fakultät für Informatik (bis März 2003)<br />
- Mitglied <strong>des</strong> Senates der TU Chemnitz (bis März 2003)<br />
- Mitglied der Senatskommission Lehre und Studium (bis März 2003)<br />
- Member of the Auditing Committee of the Internat. Society of Inventory Research<br />
- Programming Committee of the ICTS 2002, Portorose (Slovenien)<br />
Riedel, M.:<br />
- Organisationskomitee 5. Chemnitzer Linux-Tag 2003<br />
Schönke, U.:<br />
- Gleichstellungsbeauftragte der Fakultät für Informatik, TU Chemnitz<br />
60
2.7 Professur Praktische Informatik<br />
2.7.1 Personelle Zusammensetzung<br />
Leiter: Prof. Gudula Rünger<br />
Sekretariat: Christine Irmisch<br />
Wiss. Mitarbeiter: Dipl.-Inf. Judith Hippold<br />
Dipl.-Inf. Matthias Kühnemann<br />
Dipl.-Inf. Robert Reilein-Ruß<br />
Dipl.-Inf. Thoralf Rübner<br />
Dipl.-Inf. Sven Trautmann<br />
2.7.2 Kurzbeschreibung der Professur<br />
Der Schwerpunkt der Forschungs- und Lehrtätigkeit der Professur Praktische<br />
Informatik konzentriert sich auf die Gebiete Programmiersprachen,<br />
Compilerwerkzeuge, Algorithmen und Transformationsmethoden, insbesondere im<br />
Hinblick auf die Programmierung und Softwareentwicklung für innovative<br />
Rechenplattformen und Parallelrechner. Im Vordergrund steht hierbei die effiziente<br />
Realisierung von Anwendungen aus dem wissenschaftlich-technischen Bereich und<br />
anderer Anwendungen durch Einsatz von Werkzeugen und Methoden der genannten<br />
Gebiete.<br />
2.7.3 Forschungsvorhaben<br />
Compilerwerkzeuge für Parallelrechner, NIC-Projekt<br />
(M. Kühnemann, R. Reilein-Ruß, G. Rünger)<br />
Gegenstand dieses Projektes ist der Entwurf eines für Anwendungen aus dem Bereich<br />
<strong>des</strong> wissenschaftlichen Rechnens geeigneten analytischen Modells, das die<br />
Vorhersage von realistischen Laufzeiten auf parallelen Maschinen mit gemeinsamem<br />
und verteiltem Speicher erlaubt. Das Vorhersagemodell ist zur Integration in<br />
Compilerwerkzeuge geeignet. Zur Evaluierung <strong>des</strong> Vorhersagemodells und dem<br />
darauf aufsetzenden Berechnungsmodell wird eine große Anzahl von<br />
Laufzeitmessungen für hohe Prozessoranzahlen und für verschiedene parallele<br />
Algorithmen benötigt. Der Schwerpunkt liegt auf der Implementierung eines<br />
Compilerwerkzeuges und der Integration von programmorientierten Kostenmodellen<br />
für Speicherhierarchien in das Vorhersagemodell. Das Forschungsvorhaben wird als<br />
Projekt am NIC (John-von-Neumann Institut for Computing), Jülich, durchgeführt.<br />
61
Partitionierungsalgorithmen für Modelldatenstrukturen zur parallelen compilergesteuerten<br />
Logiksimulation<br />
(K. Hering, G. Rünger, W. G. Spruth, S. Trautmann)<br />
Im Rahmen <strong>des</strong> seit 1995 durch die DFG geförderten Projektes sind in Kooperation<br />
mit IBM mit dem Ziel einer signifikanten Prozessbeschleunigung drei auf lose<br />
gekoppelten Prozessorsystemen arbeitende parallele Simulatoren (parallel TEXSIM,<br />
parallelMVLSIM, dlbSIM) und eine der Vorbereitung paralleler Simulationen<br />
dienende Modellpartitionierungskomponente parallelMAP entstanden. Die<br />
Leistungsfähigkeit der parallelen Simulatoren ist wesentlich durch die vorangehende<br />
Modellpartitionierung bestimmt. Durch eine hierarchische Partitionierungsstrategie,<br />
welche die Kombination, den Wettbewerb und die Resultatverschmelzung von<br />
Algorithmen gestattet, werden neue Partitionierungsalgorithmen für<br />
Prozessormodelle entwickelt, untersucht und implementiert. Entsprechende<br />
Partitionierungsprozesse verkörpern ein BOTTOM-UP Clustering ausgehend von<br />
sogenannten fan-in-cones als elementare Bausteine. Das DFG Kooperationsprojekt<br />
mit der Universität Leipzig (W. G. Spruth) gehört zum DFG-Schwerpunktprogramm<br />
Effiziente Algorithmen für diskrete Probleme und ihre Anwendungen.<br />
Programmorientierte Kostenmodelle für Speicherhierarchien, DFG-Projekt<br />
(M. Kühnemann, T. Rauber, G. Rünger)<br />
Ziel <strong>des</strong> Projektes ist die Identifikation von zur Compilezeit analysierbaren<br />
Eigenschaften eines parallelen Programms, die die Lokalität der Speicherzugriffe und<br />
damit die Effizienz <strong>des</strong> Programms bestimmen. Die Basis bildet ein Kostenmodell,<br />
das die Laufzeitmodellierung paralleler Programme auf Rechnern mit<br />
Speicherhierarchien gestattet und das als Grundlage für den Vergleich von<br />
Programmversionen und zur Steuerung von optimierenden Transformationen dienen<br />
soll. Dieses Projekt unterteilt sich in drei Teilgebiete:<br />
- Die Realisierung eines Compilerwerkzeuges zur Quelltextanalyse und Erstellung<br />
von Laufzeitfunktionen.<br />
- Die Verfeinerung <strong>des</strong> Kostenmodells durch programmbasierte Kostenmaße für die<br />
Lokalität von Speicherzugriffen.<br />
- Laufzeitmodellierungen zur Optimierung von kollektiven MPI-<br />
Kommunikationsoperationen durch orthogonale Prozessorgruppen.<br />
Parallelisierung irregulärer numerischer Algorithmen, Teilprojekt B8 SFB 393<br />
(J. Hippold, T. Rübner, G. Rünger)<br />
Die Klasse der irregulären Algorithmen umfasst Anwendungen mit dünnbesetzten,<br />
blockstrukturierten oder bei adaptiven Verfahren auch zeitlich variierenden<br />
Datenstrukturen sowie Anwendungen mit unregelmäßigen, laufzeitabhängigen<br />
Berechnungs- und Kontrollstrukturen.<br />
62
Ziel <strong>des</strong> Projektes ist die effiziente parallele Umsetzung verschiedener irregulärer<br />
Anwendungen auf Rechnern mit verteiltem Speicher und heterogenen Plattformen.<br />
Dafür sollen universal einsetzbare und leicht handhabbare<br />
Parallelisierungswerkzeuge entwickelt werden, die durch Hinzufügen algorithmenspezifischer<br />
Komponenten für verschiedenste Anwendungsprobleme nutzbar sind.<br />
Derzeit stehen Task Pool Teams für SMP und PC Cluster zur Verfügung. Sie<br />
kombinieren Shared Memory Programmierung mit Message Passing und<br />
ermöglichen dem Nutzer task-orientierte Programmierung mit asynchroner<br />
Kommunikation zwischen den Task-bearbeitenden Threads unterschiedlicher<br />
Clusterknoten. Eine parallele Implementierung <strong>des</strong> Hierarchischen Radiosity<br />
Algorithmus und eines globalen Optimierungsverfahrens mit Task Pool Teams sind<br />
bereits erfolgt.<br />
Parallelisierung eines dreidimensionalen Atmosphärenmodells<br />
(R. Reilein-Ruß, T. Rübner, G. Rünger, M. Schwind)<br />
Mit Unterstützung durch das GKSS Geesthacht erfolgt eine Parallelisierung <strong>des</strong><br />
mesoskaligen Atmosphärenmodells GESIMA, das einen Ausschnitt der Atmosphäre<br />
als dreidimensionales Gitter simuliert und über einen Zeitraum von 12 h bis 48 h<br />
verschiedene prognostische Variablen, darunter den Luftdruck (nicht-hydrostatisch),<br />
die Temperatur, die Windgeschwindigkeit und den Wassergehalt der Atmosphäre<br />
berechnet. Die Implementierung <strong>des</strong> parallelen Co<strong>des</strong> erfolgt unter Verwendung von<br />
Fortran 95 und MPI. Die einzelnen Subroutinen werden als separate Module<br />
implementiert, welche auf einer Gruppe von Prozessoren ausgeführt werden können.<br />
Durch diese Vorgehensweise wird eine gemischt task- und datenparallele<br />
Implementierung ermöglicht. Im Rahmen dieses Projektes besteht eine<br />
Zusammenarbeit mit C. Koziar, DWD Offenbach sowie H. Kapitza, GKSS<br />
Geesthacht.<br />
Zweistufige parallele Programmiermodelle für Anwendungsprogramme<br />
(T. Rauber, R. Reilein-Ruß, G. Rünger)<br />
Dieses Projekt konzentriert sich auf die Untersuchung der Ausnutzung zweistufiger<br />
Parallelität in Anwendungsprogrammen zur Verbesserung der parallelen Effizienz<br />
und Skalierbarkeit. Dabei werden zwei Stufen der Parallelität betrachtet, eine obere<br />
taskparallele und eine untere datenparallele Stufe. Die untere Stufe besteht aus<br />
Modulen, die jeweils auf einer parallelen Gruppe von Prozessoren ausgeführt werden<br />
können. Die obere Stufe kann hierarchisch untergliedert sein und aus mehreren<br />
Schichten bestehen. Auf jeder Hierarchieschicht erfolgt eine Zerlegung der zur<br />
Verfügung stehenden Prozessormenge in Prozessorgruppen.<br />
63
Zur Unterstützung zweistufiger Parallelität in Anwendungsprogrammen werden<br />
verschiedene Compilerwerkzeuge und Programmierbibliotheken weiterentwickelt,<br />
darunter: die ORT Bibliothek (Orthogonale Prozessorgruppen) für<br />
Anwendungsprogramme über n-dimensionalen Taskgittern in denen k-dimensionale<br />
Hyperebenen zur Ausführung von Anwendungsmodulen verwendet werden, das<br />
TwoL Programmiermodell und Compilerwerkzeug zur Ausnutzung zweistufiger<br />
Parallelität mit schrittweiser Transformation eines Spezifikationsprogramms in ein<br />
Koordinationsprogramm und die TLib-Bibliothek zur dynamischen Abarbeitung<br />
hierarchischer, modular strukturierter Programme.<br />
Programmiermodelle für Cluster-Systeme mit gemeinsamem und geteiltem Speicher<br />
(G. Rünger, S. Trautmann)<br />
Rechen-Cluster bestehend aus preiswerten Knoten stellen aufgrund ihres guten Preis-<br />
Leistungs-Verhältnisses eine Alternative zu Supercomputern dar. Seit einiger Zeit<br />
werden immer häufiger kleine SMP-Systeme, mit bis zu 4 Prozessoren, als Cluster-<br />
Knoten eingesetzt. Für die Programmierung von Clustern mit verteiltem Speicher<br />
werden vorrangig Message-Passing-Bibliotheken, wie etwa MPI oder PVM<br />
eingesetzt. Für reine SMP Systeme bieten sich Programmiermodelle wie POSIX<br />
Threads oder OpenMP an. Für die Kombination von gemeinsamem und verteiltem<br />
Speicher in SMP-Cluster-Systemen sind diese Programmiermodelle jedoch nicht oder<br />
nur bedingt geeignet. Untersucht werden verschiedene Möglichkeiten, bestehende<br />
Programmiermodelle für gemeinsamen und verteilten Speicher zu kombinieren und<br />
die gegebene Clusterarchitektur dadurch effizient zu nutzen. Weiter wird die<br />
Kombination von Kommunikationsbibliotheken untersucht, die es erlauben, mehrere,<br />
heterogene (SMP-)Cluster zu verbinden.<br />
2.7.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Hippold, J., Rünger, G.: Task Pool Teams for Implementing Irregular Algorithms<br />
on Clusters of SMPs, Proc. of IPDPS 2003, CD-ROM, ISBN 0-7695-1926-1, Nice,<br />
France, April 2003<br />
Hippold, J., Rünger, G.: A Communication API for Implementing Irregular<br />
Algorithms on SMP Clusters, J. Dongarra, D. Lafarenza, S. Orlando (Eds.): 10th<br />
EuroPVM/MPI 2003, Venice, Italy, LNCS 2840, pp. 455-463, ISBN 3-540-20149-1,<br />
Springer-Verlag Berlin Heidelberg (2003), September 2003<br />
Kühnemann, M., Rauber, T., Rünger, G.: Performance Modeling of Two-phase<br />
Realization of Communication Operations, Proc. of High Performance Computing<br />
Symposium, ASTC 2003, ISBN 1-56555-264-4, pp. 222-230, Orlando, Florida, USA,<br />
April 2003<br />
64
Kühnemann, M., Rauber, T., Rünger, G.: Optimizing MPI Collective<br />
Communication by Orthogonal Structures, Chemnitzer Informatik-Berichte, ISSN<br />
0947-5125, TU Chemnitz, September 2003<br />
Rauber, T., Rünger, G.: Library Support for Hierarchical Multi-Processor Task,<br />
Proc. of the 10 th International Workshop on Compilers for Parallel Computers (CPC),<br />
Amsterdam, Netherlands, Januar 2003<br />
Rauber, T., Rünger, G.: Program-Based Locality Measures for Scientific<br />
Computing, Proc. of the Workshop on Advances in Parallel and Distributed<br />
Computational Models, IPDPS 2003, CD-ROM, ISBN 0-7695-1926-1, Nice, France,<br />
April 2003<br />
Rauber, T., Rünger, G., Trautmann, S.: A distributed hierachical programming<br />
model for heterogeneous cluster of SMPs, Proc. of Workshop on Advances in<br />
Parallel and Distributed Computational Models, IPDPS 2003, CD-ROM, ISBN 0-<br />
7695-1926-1, Nice, France, April 2003<br />
Rauber, T., Reilein-Ruß, R., Rünger, G.: On Compiler Support for Mixed Task<br />
and Data Parallelism, Proc. of ParCo 2003, Dresden, September 2003<br />
Rünger, G., Trautmann, S.: A Comparative Study of MPI Implementations on a<br />
Cluster of SMP Workstations, Proc. of ParCo2003, Dresden, September 2003<br />
2.7.5 Vorträge<br />
Hippold, J.: A Communication API for Implementing Irregular Algorithms on SMP<br />
Clusters, Venice, Italy, 10th EuroPVM/MPI 2003, 30.09.2003<br />
Hippold, J.: Task Pool Teams for Implementing Irregular Algorithms on Clusters of<br />
SMPs, Dagstuhl, Dagstuhl Seminar 03211: Adaptivity in Parallel Scientific<br />
Computing, 19.05.2003<br />
Reilein-Ruß, R.: On Compiler Support for Mixed Task and Data Parallelism,<br />
Dresden, ParCo 2003, 02.09.2003<br />
Rünger, G.: Task Pool Teams for Implementing Irregular Algorithms on Clusters of<br />
SMPs, Nice, Frankreich, IPDPS 2003, 24.04.2003<br />
Rünger, G.: Trends im parallelen und verteilten Hochleistungsrechnen, Universität<br />
<strong>des</strong> Saarlan<strong>des</strong>, Saarbrücken, 30.05.2003<br />
Rünger, G.: Parallelisierung irregulärer Algorithmen, Kolloquiumsvortrag<br />
Universität Paderborn, 15.07.2003<br />
65
Rünger, G.: Parallele Programmiermodelle, CHIC-Symposium, Chemnitz,<br />
16.07.2003<br />
Trautmann, S.: A Comparative Study of MPI Implementations on a Cluster of SMP<br />
Workstations, ParCo 2003, Dresden, 04.09.2003<br />
Trautmann, S.: A Distributed Hierachical Programming Model for Heterogeneous<br />
Cluster of SMPs, Nice, Frankreich, Workshop IPDPS 2003, 22.04.2003<br />
Trautmann, S.: Erfahrungen bei der Installation und vergleichende Messungen zu<br />
verschiedenen MPI - Implementierungen auf einem Dual Xeon Cluster, Löbsal,<br />
Workshop Mensch-Computer-Vernetzung, 16.04.2003<br />
2.7.6 Mitarbeit in Gremien<br />
Rünger, G.<br />
- Prodekan der Fakultät für Informatik (ab April 2003)<br />
- Mitglied der Senatskommission für Haushalt<br />
- DAAD Auswahlkommission INNOVATEC<br />
- Mitglied in Programmkomitees<br />
- Konferenz Cluster 2003, Hong Kong<br />
- Konferenz ParCo 2003, Dresden<br />
- Konferenz CLADE 2003, Seattle<br />
- Challenges of Large Applications in Distributed Environments<br />
- Workshop SPDSEC03<br />
- 2 nd Workshop on Hardware/Software Support for Parallel and Distributed<br />
Scientific and Enginering Computing<br />
- Program Co-Chair PDSECA03<br />
- Program Co-Chair HPC 2003<br />
2.7.7 Sonstiges<br />
Rünger, G.<br />
- Organisation Dagstuhl-Seminar „Adaptivity in Parallel Scientific Computing“<br />
66
2.8 Professur Rechnerarchitektur und Mikroprogrammierung<br />
2.8.1 Personelle Zusammensetzung<br />
Leiter: Prof. Wolfgang Rehm<br />
Sekretariat: Bettina Fless<br />
Wiss. Mitarbeiter: MS Daniel Balkanski<br />
Dipl.-Inf. Mario Trams<br />
Dipl.-Inf. Mike Becher (ab März)<br />
Dipl.-Inf. Torsten Mehlan (ab Oktober)<br />
2.8.2 Kurzbeschreibung der Professur<br />
Die Professur definiert sich über die Fachgebiete Rechnerarchitektur und<br />
Rechnerorganisation, Mikroprozessorsysteme, maschinen- und systemnahe<br />
Programmierung, Parallelrechner und Parallelprogrammierung.<br />
Das Vertiefungsgebiet "Parallele und Verteilte Systeme" ist dieser Professur<br />
zugeordnet. Moderne parallele Rechnersysteme für allgemeine, aber auch spezielle<br />
Anwendungen stellen Kerngebiete dar. Ergänzend zur Lehre werden dazu in<br />
kontinuierlicher Weise verschiedene Projekte im Rahmen angewandter (SFB 393)<br />
und praxisorientierter (KMU) Forschung durchgeführt.<br />
Das Spektrum der Lehrgebiete umfasst Rechnerorganisation und Rechnerarchitektur,<br />
Maschinenorientierte Programmierung, Parallelrechner, Supercomputer sowie<br />
Cluster- und Gridcomputing.<br />
In den Grundstudium-Vorlesungen Rechnerorganisation und Maschinenorientierte<br />
Programmierung werden wichtige Voraussetzungen für die Lehrgebiete<br />
Betriebssysteme, Rechnerarchitektur und Eingebettete Systeme geschaffen.<br />
Die Hauptstudium-Veranstaltungen (Vorlesungen, Seminare, Praktika) vertiefen die<br />
Kenntnisse zu modernen, insbesondere parallelen Rechnersystemen.<br />
Der aktuelle Fokus im Bereich der Forschung liegt auf den Gebieten <strong>des</strong> Cluster- und<br />
Gridcomputing.<br />
67
2.8.3 Forschungsvorhaben<br />
FuE-Projekt "Entwicklung eines Cluster-of-Cluster (CoC)-basierten Leistungsserver-<br />
Prototypen"<br />
Verbundprojekt mit Megware Computer GmbH (Chemnitz), Förderung über SAB<br />
(Sächsische Aufbaubank)<br />
Hausprojekt: OSCAR - Open Scalable Cluster Architectures<br />
Entwicklung eines Cluster-of-Cluster (CoC)-basierten Leistungsserver-Prototypen<br />
Gegenwärtig beginnt sich ein neuer Leistungsservertyp auf Basis heterogener<br />
Cluster-of-clusters(CoC)-Technologie herauszubilden, der durch seine Fähigkeit zur<br />
Integration verschiedener, stets neuer Clustertechnologien dem hohen<br />
Entwicklungstempo der Rechentechnik schnell folgen und somit auch ökonomische<br />
Vorteile gegenüber bisherigen einfachen Clustertypen erzielen kann. Eine<br />
Hauptherausforderung bei CoC-Systemen ist, die im allgemeinen verschiedenen<br />
System-Area-Network(SAN)-Technologien der einzelnen Teilcluster eng miteinander<br />
zu verkoppeln und ein ent-sprechen<strong>des</strong> Message-Passing-Interface(MPI)-<br />
Softwaresystem zu entwickeln, welches an die Vielgestaltigkeit der SAN- und<br />
Knotentechnologien flexibel und effizient anpassbar ist. Gegenwärtig gibt es keine<br />
befriedigende Lösung dafür.<br />
Kerngedanke der hier angestrebten Lösung <strong>des</strong> Problems ist die Vereinigung zweier<br />
Lösungsansätze, dem sogenannten "Klebe"- und dem "Multiprotokoll"-Ansatz, um<br />
das Optimierungspotenzial beider ausschöpfen und damit ein leistungsmäßig<br />
akzeptables MPI-System für CoC-Server (COCMPI) bereitstellen zu können. Um<br />
Anwendungen die Möglichkeit zu geben, sich an die leistungsmäßige Ungleichheit<br />
der verschiedenen SAN- und Knotentechnologien anpassen und somit effizient<br />
arbeiten zu können, sollen auch Funktionen zur Unterstützung der Lastbalancierung<br />
integriert werden.<br />
COCMPI wird mit dem internationalen MPI-Application-Programmer-Interface<br />
Standard konform gehen beziehungsweise diesen stellenweise ergänzen. Es stellt<br />
<strong>des</strong>halb eine allgemeine Basis zum breiten Einsatz Messagepassing basierter<br />
wissenschaftlich-technischer Applikationen auf dem sich neu herausbildenden<br />
kosteneffizienten CoC-Leistungsservertypen dar. In enger Verzahnung mit dem<br />
prototypischen Aufbau und Test eines CoC-Leistungsservers beim industriellen<br />
Verbundpartner (Megware), sollen praxistaugliche Lösungen gefunden werden.<br />
68
OSCAR - Open Scalable Cluster Architectures<br />
OSCAR ist ein Modell eines Clusters von Standard-PCs <strong>des</strong> Massenmarktes, die über<br />
ein schnelles Kommunikationsnetz gekoppelt sind. Ziel ist zu untersuchen, inwieweit<br />
sich ein solcher im Vergleich zu proprietären Parallelrechnern kostengünstiger PC-<br />
Verbund zur Lösung von Hochleistungsrechenaufgaben einsetzen lässt.<br />
OSCAR stellt eine Testumgebung dar für:<br />
- Programmierung und Test paralleler Algorithmen<br />
- Entwicklung von Hardware und Treibersoftware f. Clusterkommunikationstechnik<br />
- Aufbau optimierter Kommunikationsbibliotheken<br />
- Betriebssystemunterstützung von parallelen Clusteranwendungsprogrammen<br />
Diese Aufgaben erfordern natürlich eine weitgehende Arbeitsteilung; speziell im<br />
ersten Punkt hoffen wir auf eine fruchtbare Interaktion zwischen Programmierer und<br />
Anwender.<br />
Gegenwärtig gibt es eine Vielzahl unterschiedlicher HW- und SW-Lösungen für<br />
Cluster-Computing-Komponenten. Unterstützung für eine große Menge solcher<br />
Komponenten erlaubt jedoch keine besonders optimierten Treiber.<br />
Übliche Unterstützung ist:<br />
- Prozessoren: Intel, AMD, Alpha, PowerPC, ...<br />
- Einzel- oder Mehrprozessorsysteme<br />
- Verbindungstechn.: FastEthernet, Myrinet, SCI, GigabitEthernet, InfiniBand, ...<br />
- Netztopologie: Punkt-zu-Punkt, Switch, Hub, reguläre, irreguläre, ...<br />
Diese Optionen ändern sich sehr schnell. War noch vor einiger Zeit FastEthernet<br />
aktuell, sind jetzt schon GigabitEthernet-Produkte auf dem Markt. Eine Entscheidung<br />
zwingt stets zu einem Kompromiss; FastEthernet bzw. TCP/IP, z. B., stellt<br />
sogenannte sichere Kanäle auf Kosten hoher Latenzzeiten zur Verfügung. Ähnlich<br />
verhält es sich, wenn die Softwarekonfiguration eines Clustersystems geplant werden<br />
soll; die weite Verbreitung eines Betriebssystems beispielsweise kann als Nachteil<br />
ggf. die Nichtverfügbarkeit der Quellen nach sich ziehen, womit eigene<br />
Veränderungen/ Optimierungen auf dieser Ebene ausgeschlossen sind. Weiterhin<br />
müssen Schnittstellen für verschiedene Bibliotheken zur Verfügung gestellt werden.<br />
Das Projekt umfasst Hardware- und Kommunikationssoftware-Aspekte sowie die<br />
entsprechenden BS-Dienste. Wir untersuchen Single und Multi Processor-Boards und<br />
mit verschiedenen Netzwerken - FastEthernet, Myrinet, SCI, InfiniBand.<br />
Betriebssystem unserer Cluster ist Linux, da die Quellen frei verfügbar sind.<br />
69
MPICH-2 für InfiniBand<br />
An der Professur wurde die (weltweit) erste Implementierungeines MPICH-2-ADI2-<br />
CH3 Devices für InfiniBand realisiert..Bei InfiniBand handelt es sich um eine immer<br />
stärker in den High-Performance-Computing Markt dringende Verbindungstechnologie,<br />
welche geringe Kommunikationslatenzen bei hohen Bandbreiten zur<br />
Verfügung stellt.<br />
(http://www.tu-chemnitz.de/informatik/RA/cocgrid/Infiniband/pmwiki.php)<br />
2.8.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Becher, M., Rehm, W.: A Module Extension To OpenPBS Principles,<br />
Implementation and Experiences ParCo 2003, Dresden, 02. - 05.09.2003<br />
Balkanski, D., Rehm, W., Simeonov, St.: Heterogeneous Cluster Computing - Is it<br />
Ready for the Prime Time SAER'2003, Sofia, 19. - 21.092003<br />
Balkanski, D., Trams, M., Rehm, W.: Communication Middleware Systems for<br />
Heterogeneous Clusters: A Comparative Study Cluster2003, Hong Kong,<br />
01. - 04.12.2003<br />
Diplomarbeiten<br />
Lasch, S.: Hardware/Software Coverifikation mit Virtex-II Pro FPGAs (in<br />
Kooperation mit ProDesign)<br />
Grabner, R., Mietke, F.: MPICH2 Device For InfiniBand<br />
Mehlan, T.: A VIA conforming Communication Library on top of SCI<br />
2.8.5 Vorträge<br />
Grabner, R.: MPI2 and InfiniBand - The Future for Cluster Computing ParCo 2003,<br />
Dresden, 02. - 05.09.2003 (in Kooperation mit Megware GmbH)<br />
Becher, M.: A Module Extension To OpenPBS Principles, Implementation and<br />
Experiences ParCo 2003, Dresden, 02. - 05.09.2003<br />
Balkanski, D.: Heterogeneous Cluster Computing - Is it Ready for the Prime Time<br />
SAER'2003, Sofia, 19. – 21.09.2003<br />
70
Balkanski, D.: Communication Middleware Systems for Heterogeneous Clusters: A<br />
Comparative Study Cluster2003, Hong Kong, 01. - 04.12.2003<br />
2.8.6 Mitarbeit in Gremien<br />
Rehm, W.:<br />
- Dekan der Fakultät für Informatik (ab April)<br />
- Senat der TU Chemnitz<br />
- Senatskommission der TU Chemnitz für Lehre und Studium<br />
- Senatskommission der TU Chemnitz für Forschung u. wissenschaftl. Nachwuchs<br />
- Kuratorium der TU Chemnitz<br />
- Konzil der TU Chemnitz<br />
- Member of IEEE Task Force on Cluster Computing, Advisory Committee<br />
- Founding member of the European Neural Network Society (ENNS) 1991<br />
- Member of GI-FG 3.1.2. Parallel-Algorithmen,-Rechenstrukturen und<br />
Systemsoftware (PARS)<br />
- Session Chair "Software and Technology" at ParCo2003<br />
- Program Vice Chair, CLUSTER2003, (Hong Kong)<br />
71
2.9 Professur Rechnernetze und Verteilte Systeme<br />
2.9.1 Personelle Zusammensetzung<br />
Leiter: Prof. Uwe Hübner<br />
Sekretariat: Christine Irmisch<br />
Wiss. Mitarbeiter: Dr. Jörg Anders<br />
Dipl.-Inf. Marco Günther<br />
Dipl.-Inf. Ronald Schmidt<br />
Dipl.-Inf. Chris Hübsch<br />
Techn. Mitarbeiter: Dipl.-Math. Ralph Sontag<br />
2.9.2 Kurzbeschreibung der Professur<br />
Die Professur Rechnernetze und Verteilte Systeme befasst sich mit aktuellen<br />
Gebieten wie dem Zusammenhang von Mobilität und Rechnernetzen,<br />
Sicherheitsaspekten in Netzen und Informationsrepräsentationen (XML, Java,<br />
MPEG, ...). Weiterhin werden neue, netzgestützte elearning-Konzepte entwickelt und<br />
eingesetzt.<br />
2.9.3 Forschungsvorhaben<br />
Mobile Kommunikation<br />
InHouse Feldstärke - Abschätzung für zellulare mobile Freiraumausbreitung<br />
Die Planung und Installation einer optimierten InHouse-Abdeckung durch eine<br />
zellulare mobile Freiraumausbreitung ist ein neuer Markt innerhalb der<br />
Mobilkommunikation. Wir haben einen Prototyp eines Systems zur Voraussage der<br />
Feldstärke entwickelt.<br />
Embedded Linux<br />
Eingebettete Steuerungssysteme werden auf vielfältige Weise in Applikationen<br />
verwendet, z. B. in der Betriebsautomatisierung, der Prozesssteuerung,<br />
Nachrichtensystemen und Home-Networks. Das Hauptziel unseres Projektes ist die<br />
Kombination der eingebetteten Steuerungssysteme mit Standardprotokollen (IP,<br />
UDP, TCP, HTTP, FTP, SMTP) und Netzwerk-Technologien (PPP, Ethernet, IEEE<br />
802.11).<br />
73
Das ist ein denkbarer Weg, einen Durchbruch bei der Produktion und Vermarktung<br />
interoperabler und kompatibler Steuerungs-Komponenten bei hohen Stückzahlen,<br />
einfacher Handhabung und fairen Preisen zu erreichen. Wir haben eine flexible,<br />
effektive und einfach zu handhabende Kernplattform für ein eingebettetes System auf<br />
Linux-Basis entwickelt.<br />
JAVA MPEG-Player<br />
Implementierung von Video-Decodern auf Java-Basis.<br />
(http://rnvs.informatik.tu-chemnitz.de/~jan/MPEG/MPEG_Play.html)<br />
Diese Java-Applets gestatten das Zeigen von MPEG-/H.261- und FLC-Video- Daten<br />
direkt auf der Oberfläche <strong>des</strong> WWW-Browsers.<br />
Teleteaching-Praxis und -Tools<br />
Nur durch lebenslanges Lernen wird es möglich, in der modernen wissensbasierten<br />
Gesellschaft neue Erkenntnisse zu erfassen und anzuwenden. Das Aufbaustudium<br />
"Informations- und Kommunikationssysteme" haben an der TU Chemnitz in den<br />
Jahren 1995 bis 1999 rund 600 Teilnehmer absolviert. Die TU Chemnitz und der<br />
VDE realisierten ein gemeinsames Weiterbildungsangebot, welches diese<br />
Erfahrungen nutzte.<br />
Die kursunterstützenden Werkzeuge wie "virtuelles Seminar" oder das<br />
fernbedienbare Labor wurden weiterentwickelt und haben die Qualität erhöht. Neue<br />
Paradigmen bei der Erstellung multimedialer Lehrmaterialien wurden konsequent<br />
umgesetzt. Die Kurse folgen der von der IEEE empfohlenen "Learning Technology<br />
Systems Architecture" und spiegeln die neue Rolle von Lehrer und Lerner wider.<br />
Kommunikation in Cluster-Computern<br />
Auf der Basis <strong>des</strong> Chemnitzer Linux Cluster (CLiC) erfolgen Untersuchungen<br />
verschiedener Kommunikationsmechanismen. Dabei wird der Einfluss von Protokollschichten<br />
und Abstraktionsebenen auf qualitative und quantitative Parameter der<br />
Kommunikation erfasst. Weiterhin entstehen Instrumentierungen zur Beurteilung und<br />
Optimierung der Informationsflüsse.<br />
DOM-Basierter LConML-Konverter<br />
Die Konvertierung der Sprache LConML erfolgte bisher mit einem Konverter, der<br />
nach einem SAX-ähnlichem Prinzip arbeitet. Nichtlineare Übersetzung von XML in<br />
die Zielsprache erforderte mehrere Durchläufe oder zusätzliche Speicherstrukturen.<br />
Es sollte evaluiert werden, ob der DOM-Ansatz die Programmierung erleichtert und<br />
die Konvertierung beschleunigt.<br />
74
Forschungsbericht Online<br />
Der Forschungsbericht der TU Chemnitz ist ein Dokument, welches arbeitsteilig von<br />
über 150 Personen in relativ kurzer Zeit erstellt werden muss. Die im Bericht zu<br />
erfassenden Informationen sind gut strukturiert und folgen einheitlichen Mustern.<br />
Der Bericht soll in beliebiger Zusammenstellung sowohl auf Papier als auch online<br />
verfügbar gemacht werden können. Es ist jedoch damit zu rechnen, dass sich die<br />
Informationen von Jahr zu Jahr graduell ändern.<br />
Skalierbare Infrastruktur für Schulen<br />
Vorbereitung eines möglichen Drittmittelprojektes. Weiterbetreuung <strong>des</strong> Prototypen<br />
für ein Schulnetz, welches nach Prinzipien nachhaltigem Systemmanagements<br />
gepflegt wird.<br />
Entwurf eines Autorenwerkzeugs für den XML-Dialekt „LConML“<br />
Es wird ein Editorwerkzeug entwickelt, das es auch Nicht-Informatikern ermöglicht,<br />
Lehrmaterialien im XML-Dialekt „LConML“ zu entwickeln.<br />
2.9.4 Veröffentlichungen<br />
Bücher<br />
Anders, J.: NoteEdit, SuSE-Linux-9.0, SuSE-Linux AG, als Software auf CD/DVD<br />
enthalten, ISBN K12229456<br />
Hübsch, Ch., Petersen, K., Riedel, M., Sontag, R.: ZIN-Zertifikat Internet<br />
Nutzung, P. Pönisch Verlag, ISBN 3-934848-12-5<br />
Zeitschriften und Tagungsbände<br />
Anders, J.: Instrumente Marke Eigenbau, LinuxUser 11/2003, Linux Media AG, S.<br />
40, ISSN 1615-4444<br />
Anders, J.: Do-It-Yourself Instruments, Linux Magazine 12/2003 (Engl. Ausgabe),<br />
Linux Media AG, S. 30, ISSN 14715678<br />
Diplomarbeiten<br />
Förster, M.: Automatische Konvertierung und Transformation von HTML-Seiten in<br />
ein Content Management System<br />
75
Friedemann, M.: Strategien für Integration lose gekoppelter, heterogener<br />
Einzelsysteme zu einem verteilten Gesamtsystem<br />
Köhler, S.: Prototypische Realisierung einer Java-basierten Benutzeroberfläche für<br />
„Simotion E“ und deren Vergleich mit alternativen Lösungen<br />
Leuschner, J.: Massenspeicher-Netze auf IP-Basis<br />
Petersen, K.: Management-Elemente für mehrdimensional heterogene Cluster<br />
Schmidt, J.: Leichtgewichtiges Content Management<br />
Schmidt, R.: Szenarien und Techniken zur Sicherung verteilter Zugangssysteme<br />
Studienarbeiten<br />
Feister, T.: GPRS-Schnittstelle für digitales Kombiinstrument<br />
Jehmlich, H.: Firewall mit nutzerindividuellen Regeln<br />
Kurze, A.: Bandbreitenregulierung für niedrigstpriorisierte Dienste<br />
Neubert, J.: Secure WebServer<br />
Merzky, A.: LDAP Server Backend<br />
Richter, L.: Untersuchung und praktische Erprobung der SIP-Technologie durch<br />
Nutzung <strong>des</strong> Systems VOCAL<br />
Schildt, H.: Asterisk VoIPErprobung<br />
Schreiber, D.: Ein Projektdienst für die TU Chemnitz<br />
Schröder, W.: Erweiterung eines „Web Server Content Management Systems“ um<br />
Authentifizierungs-/Autorisierungsfunktionen basierend auf LDAP und Aktualisierungsmöglichkeiten<br />
über WebDav<br />
Weidt, T.: Portierung <strong>des</strong> Praktikums „QoS“ auf Linux-2.4.x<br />
Weiß, R.: Mehrdimensionaler Index<br />
Zemlin, T.: Aufbau eines Computerkabinetts im Gymnasium Einsiedel<br />
Ziegler, S.: Visualisierung einer Netztopologie im dreidimensionalen Raum<br />
76
2.9.5 Vorträge<br />
Anders, J.: Alsa-Tools zur MIDI-Bearbeitung, TU Chemnitz, UNIX-Stammtisch,<br />
25.02.2003<br />
Anders, J.: Java-MPEG-Player, Löbsal, Workshop Mensch-Computer-Vernetzung,<br />
14. - 17.04.2003<br />
Anders, J.: Score Editor for Linux, Präsentation, Karlsruhe, Linux-Tag,<br />
10. - 13.07.2003<br />
Anders, J.: NoteEdit, Luxembourg, LinuxDays, 06. - 08.11.2003<br />
Günther, M.: Werkzeuge für die Modellierung und Simulation in drahtlosen<br />
Netzwerken, Löbsal, Workshop Mensch-Computer-Vernetzung, 14. - 17.04.2003<br />
Günther, M.: Effizient Programmieren mit der C++ Standard Template Library<br />
(STL), TU Chemnitz, UNIX-Stammtisch, 29.04.2003<br />
Hübner, U.: Webbrowser als universelle Benutzeroberfläche – Potentiale und<br />
Grenzen, TU Chemnitz, UNIX-Stammtisch, 25.03.2003<br />
Hübner, U.: Bewertung von Content-Management-Ansätzen, Löbsal, Workshop<br />
Mensch-Computer-Vernetzung, 14. - 17.04.2003<br />
Hübner, U.: IT infrastructure support in a „digital university“, Seminar, University<br />
of the West Indies, St. Augustine, Trinidad, Mai 2003<br />
Hübner, U.: Wireless Local Area Networks, Seminar, University of the West Indies,<br />
St. Augustine, Trinidad, Mai 2003<br />
Hübner, U.: Web services, Seminar, University of the West Indies, St. Augustine,<br />
Trinidad, Mai 2003<br />
Hübsch, C.: E-Learning und C-Learning mit modularen Lehrmaterialien, Karlsruhe,<br />
Learntec-Messeforum, 06.02.2003<br />
Hübsch, C.: LDAP, Magdeburg, Linux-Tag, 05.04.2003<br />
Hübsch, C.: OpenAFS, Magdeburg, Linux-Tag, 05.04.2003<br />
Hübsch, C.: Techniken von Web Services, Löbsal, Workshop Mensch-Computer-<br />
Vernetzung, 14. - 17.04.2003<br />
77
Hübsch, C.: Linux als Netzwerkbetriebssystem, Meißen, Sächs. Akademie für<br />
Lehrerfortbildung, 23.10.2003<br />
Schmidt, R.: Zukünftige Entwicklung <strong>des</strong> IDM/AM an der TU Chemnitz, Berlin,<br />
ZKI-Arbeitskreis Verzeichnisdienste, 10.12.2003<br />
Sontag, R.: Bayes kontra SPAM, Löbsal, Workshop Mensch-Computer-Vernetzung,<br />
14. - 17.04.2003<br />
Sontag, R.: TeleTeachingTools – Eine modulare Lernplattform im praktischen<br />
Einsatz, TU Chemnitz, 5. Chemnitzer Linux-Tag, 02.03.2003<br />
Sontag, R., Richter, F.: E-Mail für Dich – Lust oder Frust? Wie SPAM das Medium<br />
der Zukunft gefährdet, TU Chemnitz, UNIX-Stammtisch, 27.05.2003<br />
2.9.6 Mitarbeit in Gremien<br />
Hübner, U.:<br />
- Mitglied im Fakultätsrat<br />
- Vorsitzender <strong>des</strong> Promotionsausschusses<br />
- Vorsitzender der Berufungskommission „Betriebssysteme“, TU Chemnitz<br />
- DFG-Gutachtergruppe Campusnetze<br />
- Technischer Ausschuss <strong>des</strong> DFN-Vereins (Vorsitz)<br />
- ZKI-Verein<br />
- Programmkommitee DFN-Fachtagung<br />
Hübsch, C.:<br />
- Mitglied im Fakultätsrat<br />
- Mitglied <strong>des</strong> Senates der TU Chemnitz<br />
- Mitglied der Senatskommission für Lehre und Studium<br />
- Mitglied der Senatskommission für Forschung und Förderung <strong>des</strong> wissenschaftl.<br />
Nachwuchses<br />
78
2.10 Professur Systemprogrammierung und Betriebssysteme<br />
2.10.1 Personelle Zusammensetzung<br />
Leiter: Prof. Winfried Kalfa<br />
Sekretariat: Ursula Wolf<br />
Wiss. Mitarbeiter: Dr. Elke Wällnitz<br />
Dipl.-Lehrer Volker Fickert<br />
Dipl.-Inf. Robert Köhring<br />
Dipl.-Ing. Vjacheslav Mikhalev<br />
2.10.2 Kurzbeschreibung der Professur<br />
Die Professur befasst sich mit Betriebssystemen lokaler und verteilter<br />
Rechensysteme. Dabei stehen Grundprinzipien im Vordergrund und deren<br />
Ausprägungen in konkreten Anwendungsumgebungen.<br />
2.10.3 Forschungsvorhaben<br />
“Wissenswerkstatt Rechensysteme“ (gefördert durch das BMBF), Teilprojekt<br />
Betriebssysteme.<br />
2.10.4 Veröffentlichungen<br />
Diplomarbeiten<br />
Köhring, R.: „Verfahren zur Visualisierung von Betriebssysteme - Phänomenen“<br />
König, R.: Resource Management for a Federated Resource Utility<br />
Projektarbeiten<br />
König, R.: Database application server with XML messaging interface<br />
2.10.5 Vorträge<br />
Kalfa, W.: „Prinzipien in Informatiksystemen – Analogien im Alltag“.- Universität<br />
<strong>des</strong> Saarlan<strong>des</strong>, Kolloquium, 13.07.2003<br />
79
2.10.6 Mitarbeit in Gremien<br />
Kalfa, W.:<br />
- Vertrauensdozent der GI an der TU Chemnitz<br />
- Projektbeirat „WWR“<br />
2.10.7 Sonstiges<br />
- Durchführung von Lehrerfortbildungen im Rahmen der Fachrichtung<br />
Informations- und Kommunikationstechnologie am beruflichen Gymnasium (iGy)<br />
- Mitwirkung am Schulversuch „Innovationen am beruflichen Gymnasium<br />
80
2.11 Professur Technische Informatik<br />
2.11.1 Personelle Zusammensetzung<br />
Leiter: Prof. Wolfram Hardt<br />
Sekretariat: Bettina Fless<br />
Wiss. Mitarbeiter: Dipl.-Ing. Wassil Dimitrow<br />
Dr.-Ing. Bernt Naumann<br />
Dipl.-Inf. André Meisel<br />
Dipl.-Inf. Mathias Sporer<br />
Dipl. Ing. Markus Visarius<br />
Techn. Mitarbeiter: Dipl.-Inf. (FH) Eva Ziegler<br />
Externe Mitarbeiter: Marco Fischer, EADS München<br />
Stefan Förster, EADS München<br />
Stefan Ihmor, Universität Paderborn<br />
2.11.2 Kurzbeschreibung der Professur<br />
Die Technische Informatik wird durch die Professur in Lehre und Forschung<br />
vertreten. Besondere Schwerpunkte sind der Entwurf und die Optimierung<br />
eingebetteter Systeme. Neben der Betrachtung einzelner Systemkomponenten ist das<br />
Zusammenspiel von Komponenten unter Echtzeitbedingungen zu untersuchen. Die<br />
Wiederverwendung einzelner Komponenten in einem neuen Systemkontext kann<br />
große Einsparungen im Entwurfsprozess realisieren. Unter diesen Gesichtspunkten<br />
werden unterschiedliche Abstraktionsebenen, z. B. die Systemmodellierung, die<br />
Systempartitionierung, die Kommunikation zwischen Systemkomponenten sowie die<br />
Ebene <strong>des</strong> Rapid-Prototyping untersucht. Hierzu werden moderne Entwurfsmethoden<br />
und Entwurfswerkzeuge eingesetzt. Anwendungsgebiete werden durch<br />
Demonstratoren, z. B. das Modell eines Industrieroboters, sowohl in die Forschung<br />
als auch in die Lehre einbezogen.<br />
81
Ausbildungsprofil<br />
Die Professur vertritt die Technische Informatik im Grundstudium für die<br />
Studiengänge Informatik und Angewandte Informatik. Insbesondere durch die<br />
Lehrveranstaltungen<br />
- Digitaltechnik<br />
- Hardware – Praktikum<br />
- Proseminar Eingebettete Systeme<br />
Im Hauptstudium kann im Studiengang Informatik und im Studiengang Angewandte<br />
Informatik das Fachgebiet Eingebettete Systeme vertiefend belegt werden. Die<br />
Professur Technische Informatik betreut diese Vertiefungen u. a. durch folgende<br />
Lehrveranstaltungen:<br />
- Hardware/Software Co<strong>des</strong>ign Teil I + II<br />
- Entwurfswerkzeuge<br />
- Hauptseminar Eingebettete Systeme<br />
- Teamorientierte Projektarbeit: Robotersteuerung unter Echtzeitbedingung<br />
2.11.3 Forschungsvorhaben<br />
BMBF – Projekt (in Kooperation mit der Universität Paderborn)<br />
IPQ: IP-Qualifikation für effizientes System<strong>des</strong>ign<br />
Für das übergeordnete Ziel der Qualifizierung von parametrisierbaren IP-<br />
Komponenten zur Realisierung effizienten System<strong>des</strong>igns ist ein allgemeines Format<br />
zur Repräsentation einer IP notwendig. Dieses Format (IPQ Format) ist die Basis für<br />
alle Aufgaben innerhalb <strong>des</strong> Design-Prozesses in Bezug auf die IP-Qualifikation, die<br />
Wiederverwendung und die Integration.<br />
Die Entwicklung <strong>des</strong> IPQ Formates war in zwei Schritte aufgeteilt. Zunächst wurde<br />
auf Basis der validierten Anforderungen an das IPQ Format ein<br />
Beschreibungskonzept für das IPQ Format entwickelt und dieses Konzept im zweiten<br />
Schritt mit XML Schema umgesetzt. Das Beschreibungskonzept sieht die<br />
Unterscheidung eines statischen und eines dynamischen Teils vor. Der statische Teil<br />
besteht aus den sog. IPQ Taxonomien, die in erster Linie zur Klassifizierung von IPs<br />
vorgesehen sind. Im Gegensatz dazu steht der dynamische Teil, mit dem jeweils die<br />
IP Daten einer einzelnen IP beschrieben werden. Auf Basis <strong>des</strong> definierten IPQ<br />
Formats und der zugehörigen Beispiele wurde ein IP basierter Entwurfsprozess sowie<br />
das damit verbundene Konzept für eine IPQ Toolbox entwickelt.<br />
82
DFG-Projekt Schwerpunktprogramm 1148 Rekonfigurierbare Rechensysteme<br />
Automatisierte Rekonfigurierung von Schnittstellen in eingebetteten Systemen<br />
Rekonfigurierbare Rechensysteme werden auf hoher Ebene optimiert, indem<br />
Komponenten in das System eingefügt oder daraus entfernt werden. Auf einer<br />
niedrigeren Abstraktionsebene wird die Optimierung als Anpassung der<br />
Funktionalität einzelner Komponenten im System verstanden. Die Kommunikation<br />
zwischen Komponenten wird auf beiden Ebenen durch die Rekonfiguration<br />
beeinflusst und muss daher in die Optimierung einbezogen werden. In dem<br />
beantragten Vorhaben wird eine Entwurfsmethodik für dynamisch rekonfigurierbare<br />
Schnittstellen entwickelt, so dass die Rekonfiguration <strong>des</strong> Rechensystems auf beiden<br />
Ebenen nicht durch starre Kommunikationskanäle eingeengt oder verhindert wird.<br />
Zunächst werden dynamisch rekonfigurierbare Kommunikationsmodule auf hoher<br />
Abstraktionsebene definiert und formal modelliert. Dies schließt sowohl die<br />
abstrakten Schnittstellenparameter als auch die Kommunikationsprotokolle ein. Auf<br />
diesen Modellen wird eine Methode zur automatisierten Synthese konkreter<br />
Schnittstellenmodule sowie zur dynamischen Rekonfigurierung der Schnittstelle<br />
entwickelt. Konzeption und Methodik werden kontinuierlich an industrierelevanten<br />
Anwendungsbeispielen validiert.<br />
2.11.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Ihmor, S., Bastos, N. Jr., Klein, R., Visarius, M., Hardt, W.: "Rapid Prototyping<br />
of Realtime Communication - A Case Study: Interacting Robots", In 14th IEEE<br />
International Workshop on Rapid System Prototyping. San Diego, CA, IEEE<br />
Computer Society Press, 2003<br />
Ihmor, S., Visarius, M., Hardt, W.: "Modeling of Configurable HW/SW-<br />
Interfaces", In Proceedings of 6. GI/ITG/GMM-Workshop Modellierung und<br />
Verifikation, Bremen, 2003<br />
Visarius, M., Lessmann, J., Hardt, W., Kelso, F., Thronicke, W.: "An XML<br />
Format based Integration Infrastructure for IP based Design", In Proceedings of the<br />
16th Symposium on Integrated Circuits and Systems Design (SBCCI 2003), Sao<br />
Paulo, Brazil, Sept. 2003. IEEE Computer Society<br />
Fischer, M., Förster, S., Windisch, A., Balser, B., Monjau, D.: A New Process-<br />
Algebraic Specification Methodology for Integrated Modular Avionics Systems,<br />
Methoden und Beschreibungssprachen zur Modellierung und Verifikation von<br />
Schaltungen und Systemen, February 24-26, 2003, Berichte aus der Informatik,<br />
Shaker Verlag, Rolf Drechsler (ed.), ISBN 3-8322-1202-7<br />
83
Förster, S., Fischer, M., Windisch, A., Balser, B., Monjau, D.: A New<br />
Specification Methodology for Embedded Systems Based on the pi-Calculus Process<br />
Algebra, Proceedings of the 14th IEEE International Workshop on Rapid System<br />
Prototyping (RSP 2003), pages 26 - 32, June 9 - 11, 2003, ISBN 0-7695-1943-1,<br />
ISSN 1074-6005<br />
Förster, S., Windisch, A., Fischer, M., Monjau, D., Balser, B.: Process Algebraic<br />
Specification, Refinement, and Verification of Embedded Systems,<br />
Proceedings of Forum on Specification and Design Languages (FDL'03), pages<br />
525 -535, September 23 - 26, 2003, ISSN 1636-9874<br />
Fischer, M., Windisch, A., Förster, S., Monjau, D., Balser, B.: A New Time<br />
Extension to pi-Calculus based on Time Consuming Transition Semantics,<br />
Proceedings of Forum on Specification and Design Languages (FDL'03), pages<br />
447 - 455, September 23 - 26, 2003, ISSN 1636-987<br />
Sporer, M., Monjau, D.: Datenbanken zur konsistenten Speicherung von<br />
Entwurfsdaten für eingebettete Systeme. In: Rolf Drechsler(Hrsg.): Tagungsband<br />
zum 6. GI/ITG/GMM-Workshop "Methoden und Beschreibungssprachen zur<br />
Modellierung und Verifikation von Schaltungen und Systemen", Seiten 62 - 71,<br />
Bremen, 24. - 26.02.2003, Shaker Verlag, ISBN: 3-8322-1202-7<br />
Sporer, M., Monjau, D.: A universal simulation environment for embedded<br />
systems. In: Proceedings of the IASTED International Conference Modelling,<br />
Identification and Control (MIC 2003); February 10 - 13, 2003 Innsbruck, Austria<br />
CD-ROM, ISBN: 0-88986-339-3<br />
Monjau, D., Sporer, M.: Ensuring Semantic Integrity in Knowledge Bases for<br />
Embedded Systems In: Edited by Eugenio Villar and Jean P.Mermet, Best of FDL'02<br />
"System Specification & Design Languages", Copyright by Kluwer Academic<br />
Publishers, Seiten 327 - 340, 2003, ISBN: 1-4020-7414-X<br />
Diplomarbeiten<br />
Amelunxen, C.: Automatische Adaptierung von IPQ Entwurfswerkzeugen über Web<br />
Services. Master's thesis, University Paderborn, Warburger Str. 100, 33098<br />
Paderborn, Jan. 2003<br />
Lessmann, J.: Integration of Tools for IP based Design with a Generic XML Format<br />
and Web Services. Master's thesis, University Paderborn, Warburger Str. 100, 33098<br />
Paderborn, June 2003<br />
84
Studienarbeiten<br />
Flade, M.: „FPGA-basierte Fail-safe-Schnittstellen für eingebettete Systeme“<br />
Ruggaber, A.: Entwurf eines SW-Konzepts für eine Kunststoff-Technologiebaugruppe<br />
im Automatisierungssystem „SIMOTION“<br />
2.11.5 Vorträge<br />
Visarius, M.: "IPQ Format based Tool-Chain", Demo and Poster Presentation at the<br />
2nd EkompaSS Workshop, Hannover, Germany, April 2003<br />
Hardt, W.: „Automatisierte Rekonfigurierung von Schnittstellen in eingebetteten<br />
Systemen“: Einführungskolloquium zum DFG-Schwerpunktprogramm 1148 am<br />
12./13. Juni 2003 unter Schirmherrschaft der DaimlerChrysler AG in Stuttgart<br />
Visarius, M.: "An XML Format based Integration Infrastructure for IP based<br />
Design", In Proceedings of the 16th Symposium on Integrated Circuits and Systems<br />
Design (SBCCI 2003), Sao Paulo, Brazil, September 2003. IEEE Computer Society<br />
Hardt, W.: "IPQ Toolbox based on the IPQ Format", Demo Presentations of the<br />
German Project-Workshop: IP-Qualifikation für effizientes System<strong>des</strong>ign, Dresden,<br />
Germany, November 2003<br />
Hardt, W.: "Integration Infrastructure for IPQ Format compliant IP based Design<br />
Tools", German Project-Workshop: IP-Qualifikation für effizientes System<strong>des</strong>ign,<br />
Dresden, Germany, November 2003<br />
Hardt, W.: "Rapid Prototyping of Realtime Communication - A Case Study:<br />
Interacting Robots", In 14th IEEE International Workshop on Rapid System<br />
Prototyping. San Diego, CA, IEEE Computer Society Press, 2003<br />
Ihmor, S.: "Modeling of Configurable HW/SW-Interfaces", In Proceedings of 6.<br />
GI/ITG/GMM-Workshop Modellierung und Verifikation, Bremen, 2003<br />
Sporer, M.: Ensuring Semantic Integrity in Knowledge Bases for Embedded Systems<br />
In: Edited by Eugenio Villar and Jean P.Mermet, Best of FDL'02 "System<br />
Specification & Design Languages", Copyright by Kluwer Academic Publishers,<br />
Seiten 327-340, ISBN: 1-4020-7414-X<br />
85
Sporer, M.: Datenbanken zur konsistenten Speicherung von Entwurfsdaten für eingebettete<br />
Systeme. In: Rolf Drechsler(Hrsg.): Tagungsband zum 6. GI/ITG/GMM-<br />
Workshop "Methoden und Beschreibungssprachen zur Modellierung und Verifikation<br />
von Schaltungen und Systemen", Seiten 62-71, Bremen, 24. - 26. Februar 2003,<br />
Shaker Verlag, ISBN: 3-8322-1202-7<br />
Sporer, M.: A universal simulation environment for embedded systems. In:<br />
Proceedings of the IASTED International Conference Modelling, Identification and<br />
Control (MIC 2003); February 10-13, 2003 Innsbruck, Austria CD-ROM<br />
ISBN: 0-88986-339-3<br />
2.11.6 Mitarbeit in Gremien<br />
Hardt, W.:<br />
- Mitglied im Programm Committee: International Workshop on Rapid System<br />
Prototyping (RSP)<br />
- Mitglied der Gesellschaft für Informatik e. V. (GI)<br />
- Mitglied und Stellv. Sprecher der GI - Fachgruppe 3 "Methoden <strong>des</strong> Entwurfs und<br />
der Verifikation digitaler Schaltungen und Systeme"<br />
- Mitglied der GI - Fachgruppe 4 „Beschreibungssprachen und Modellierung von<br />
Schaltungen und Systemen“<br />
- Mitglied der Graduiertenkommission der TU Chemnitz<br />
- Mitglied der Promotionskommission der Fakultät für Informatik der TUC,<br />
Wellner, J.<br />
- Mitglied der Promotionskommission und externer Gutachter, Universität<br />
Paderborn, Bobda, Chr.<br />
86
2.12 Theoretische Informatik<br />
2.12.1 Personelle Zusammensetzung<br />
Leiter: Prof. Andreas Goerdt<br />
Sekretariat: Rita Höfer<br />
Wiss. Mitarbeiter: Dipl.-Inf. Frank Schädlich<br />
Dipl.-Inf. André Lanka<br />
Dipl.-Inf. Marion Riedel (seit Oktober )<br />
Dipl.-Inf. Ulrike Schönke (seit Oktober)<br />
2.12.2 Kurzbeschreibung der Professur<br />
Bei der Entwicklung von Computerprogrammen stellen sich zwei grundlegende<br />
Probleme: Zum einen sollen die Programme ihre Aufgabenstellung korrekt erfüllen,<br />
und zum anderen sollen sie diese Aufgabenstellung in möglichst kurzer Zeit, d. h.<br />
effizient erledigen.<br />
Das Arbeitsgebiet der Professur lautet: Algorithmen und Komplexität. Das heißt<br />
die Professur beschäftigt sich mit grundlegenden Problemen bei der Entwicklung<br />
möglichst effizienter Programme.<br />
Die Vielfalt dieses Bereiches deuten die folgenden beiden zentralen Fragestellungen<br />
an: Auf der einen Seite ist man bestrebt, immer effizientere Algorithmen zu finden.<br />
Auf der anderen Seite aber versucht man, untere Schranken nachzuweisen, das heißt<br />
zu zeigen, dass eine gewisse Laufzeit nicht mehr unterschritten werden kann. In<br />
diesem Umfeld hat sich die Professur im vergangenem Jahr mit der Klasse der<br />
kombinatorischen Suchalgorithmen (insbesondere für das grundlegende<br />
aussagenlogische Erfüllbarkeitsproblem) beschäftigt. Ein weiterer Schwerpunkt ist<br />
es, Algorithmen zu entwickeln, deren Laufzeit nicht mehr auf allen möglichen<br />
Eingaben, sondern nur noch auf den „meisten“ Eingaben möglichst kurz ist.<br />
Die Frage der Effizienz stellt sich aber nicht nur für die Laufzeit von<br />
Computerprogrammen im engeren Sinne. Die Professur beschäftigt sich auch mit<br />
Fragen der effizienten Kommunikation verschiedener Rechner miteinander.<br />
87
2.12.3 Forschungsvorhaben<br />
Die Forschungstätigkeit an der Professur Theoretische Informatik ist durch das an der<br />
Professur bearbeitete, breit angelegte Projekt mit dem offiziellen Namen:<br />
„Schwellenverhalten zufälliger Strukturen, Fehlertoleranz und routing Algorithmen<br />
bei Kommunikationsnetzen, Heuristiken auf zufälligen Eingaben“ bestimmt. Im<br />
Rahmen dieses Projektes finanziert die Deutsche Forschungsgemeinschaft (DFG) die<br />
Stelle eines wissenschaftlichen Mitarbeiters und einer studentischen Hilfskraft.<br />
Augenblicklich wird folgende Themenstellung als Schwerpunkt bearbeitet:<br />
Algorithmen für das aussagenlogische Erfüllbarkeitsproblem<br />
(A. Goerdt, A. Lanka )<br />
Als Hauptresultat ist im Berichtszeitraum der innovative Aspekt der Anwendung<br />
bekannter Approximationsalgorithmen auf zufällige Strukturen, insbesondere<br />
zufällige aussagenlogische Formeln herausgearbeitet worden. Die erzielten<br />
Ergebnisse spiegeln sich in den Veröffentlichungen in Tagungsbänden wider.<br />
2.12.4 Veröffentlichungen<br />
Zeitschriften<br />
Goerdt, A., Molloy, M.: Analysis of edge deletion process on faulty random regular<br />
graphs. Theoretical Computer Science 297, S. 241 - 260<br />
Goerdt, A., Jurdzinski, T.: k-Sat instances an approximation algorithms applied to<br />
random structures. Combinatorics, Probability and Computing 12, S. 245 - 267<br />
Tagungsbände<br />
Coja-Oghlan, A., Goerdt, A., Lanka, A., Schädlich, F.: Certifying Unsatisfiability<br />
of Random 2k-SAT Formula using Approximation Techniques. Tagungsband<br />
Foundamendals of Computing Theory (FCT), Lecture Notes in Computer Science,<br />
Springer Verlag<br />
Goerdt, A., Lanka, A.: Recognizing more random unsatisfiable 3-SAT instances<br />
efficiently. Tagungsband <strong>des</strong> Workshops Phase Transitions of Combinatorial<br />
Structures, Ottawa (Kanada) im Rahmen der Konferenz Logic in Computer Science<br />
2003<br />
Diplomarbeiten<br />
Berger, A.: k-erfüllbare aussagenlogische Formeln.<br />
88
2.12.5 Vorträge<br />
Goerdt, A.: Ein effizienter Nachweis der Unerfüllbarkeit zufälliger 4-Sat-Formeln<br />
unter Verwendung der Max-Cut-Approximation, 18.03.2003, 47. Theorietag an der<br />
Universität Jena<br />
Goerdt, A.: Efficient recognition of random unsatisfiable k-Sat instances.<br />
30.04.2004, Tagung Komplexitätstheorie am Mathematischen Forschungsinstitut in<br />
Oberwolfach<br />
Goerdt. A.: Effizient recognition of random unsatisfiable 4-Sat instances using<br />
approximation techniques, 21.06.2003, Workshop Phase transitions in random<br />
combinatorial structures, Ottawa (Kanada) im Rahmen der Konferenz Logic in<br />
Computer Science 2003<br />
Goerdt. A.: Effiziente Erkennung zufälliger unerfüllbarer k-SAT Formeln.<br />
04.07.2003, Informatik-Kolloquium an der LMU München<br />
2.12.6 Mitarbeit in Gremien<br />
Goerdt, A.:<br />
- Studiendekan der Fakultät für Informatik und als solcher mit beratender Stimme in<br />
der Senatskommission Lehre und Studium (bis März)<br />
- Mitglied <strong>des</strong> Fakultätsrates (bis März)<br />
- Vorsitzender <strong>des</strong> Promotionsausschusses (bis März)<br />
- Mitglied der Berufungskommission für die Professur Wirtschaftsinformatik der<br />
Fakultät für Wirtschaftswissenschaften.<br />
- Mitveranstalter <strong>des</strong> Dagstuhlseminars „The Propositional Satisfiability Problem-<br />
Algorithms and Lower Bounds „ im Internationalen Begegnungs- und<br />
Forschungszentrum für Informatik Schloss Dagstuhl, 30.03. - 04.04.2003<br />
89
2.13 Professur Theoretische Informatik und Informationssicherheit<br />
2.13.1 Personelle Zusammensetzung<br />
Leiter: Prof. Hanno Lefmann<br />
Sekretariat: Rita Höfer<br />
Wiss. Mitarbeiter: PD Dr. math. Ulrich Tamm<br />
Dipl.-Inf. Jens Arnold<br />
2.13.2 Kurzbeschreibung der Professur<br />
Zentrale Lehr- und Forschungsgegenstände an der Professur sind Design und Analyse<br />
effizienter Algorithmen für diskrete Optimierungsprobleme und Design sowie<br />
Sicherheitsaspekte kryptographischer Systeme. Für diskrete Optimierungsprobleme<br />
werden vornehmlich randomisierte Algorithmen (diese bedienen sich <strong>des</strong> Zufalls)<br />
sowie Approximationsalgorithmen, die schnell gute Näherungslösungen liefern,<br />
hinsichtlich ihrer Laufzeit sowie der Güte der gelieferten Lösung analysiert. Auch<br />
werden hierbei evolutionäre Strategien betrachtet. Kryptographische Systeme werden<br />
zum einen theoretisch untersucht, zum anderen werden auch praktische Anwendungen<br />
auf Chipkartensysteme sowie e-commerce betrachtet.<br />
2.13.3 Forschungsvorhaben<br />
Approximationsalgorithmen<br />
Verschiedene diskrete Optimierungsprobleme lassen sich als Probleme auf Graphen<br />
oder Hypergraphen formulieren. Dann gilt es, die Größe geeigneter Parameter zu<br />
bestimmen bzw. zu approximieren. Teilweise existieren hierfür effiziente Verfahren,<br />
häufig stellt man jedoch fest, dass die exakte Bestimmung der Parameter ein NPschweres<br />
Problem ist, also nach allgemeinem Konsens nicht in Polynomialzeit<br />
möglich ist. Um möglichst schnell Näherungslösungen von hoher Güte zu erhalten,<br />
setzt man dann Approximationsalgorithmen ein. Bei den untersuchten Strukturen zeigt<br />
sich vielfach ein quasizufälliges Verhalten der interessanten Parameter. Dieses<br />
quasizufällige Verhalten hilft bei dem Design effizienter Algorithmen. So wurden<br />
randomisierte Algorithmen zur Approximation der Unabhängigkeitszahl von<br />
bestimmten Hypergraphen eingesetzt, und diese Algorithmen konnten dann mit<br />
Derandomisierungstechniken in deterministische Verfahren konvertiert werden, wobei<br />
Laufzeit und Güte der gefundenen Lösung analysiert wurden.<br />
91
Speziell gelang es hiermit, Verteilungen von n Punkten im mehrdimensionalen<br />
Einheitswürfel deterministisch in Polynomialzeit zu bestimmen, so dass das minimale<br />
Volumen unter allen erzeugten Simplizes möglichst groß ist. Des Weiteren wurden<br />
Dimensionen von großen dünnbesetzten Paritätsprüfmatrizen über endlichen Körpern<br />
analysiert und auf k-fache Unabhängigkeit asymptotisch untersucht.<br />
Kryptosysteme<br />
Kryptosysteme, die der Verschlüsselung von Daten dienen, werden theoretisch und<br />
praktisch untersucht. Die Sicherheit derartiger Systeme beruht verschiedentlich auf<br />
vermutet NP-schweren Problemen. Untersucht wird, ob es allgemeine Verfahren gibt,<br />
derartige Probleme zumin<strong>des</strong>t theoretisch auf Kryptosysteme umzusetzen. Gewonnene<br />
Erkenntnisse werden hierbei auch auf ihre praktische Relevanz für die Anwendung in<br />
Chipkarten untersucht. Im Berichtszeitraum wurde zum Beispiel der Berlekamp-<br />
Massey Algorithmus zur Dekodierung zyklischer Co<strong>des</strong> im Hinblick auf die<br />
Bestimmung der Koeffizienten bestimmter orthogonaler Polynome untersucht.<br />
Kommunikationskomplexität<br />
Es wurden Untersuchungen zu der Kommunikationskomplexität von Funktionen f(.,.)<br />
mit zwei Argumenten speziell <strong>des</strong> Hammingabstan<strong>des</strong> durchgeführt. Die<br />
Kommunikationskomplexität ist hierbei die Anzahl Bits, die zwei Personen<br />
austauschen müssen, um gemeinsam einen Funktionswert f(x,y) zu berechnen, wenn<br />
anfangs eine Person nur String x und die andere Person nur String y kennt. Es zeigte<br />
sich hierbei, dass für die Analyse der Kommunikationskomplexität <strong>des</strong> Hamming-<br />
Abstan<strong>des</strong> die Nullstellen von Krawchouk-Polynomen von Bedeutung sind.<br />
Ausgehend von einem Problem von Wigderson hinsichtlich der Additivität der<br />
Schaltkreistiefe bei der Komposition zweier Funktionen gelang es, mit Methoden aus<br />
der Datenkompression zu zeigen, dass eine exakte Additivität im allgemeinen nicht<br />
gegeben ist. Der asymptotische Fall ist hier jedoch noch offen.<br />
Evolutionsstrategien<br />
Die Fertigungssegmentierung ist ein strategisches Planungsproblem, <strong>des</strong>sen Lösung<br />
einen langfristigen Einfluss auf die Kosten und somit auf die Wettbewerbsfähigkeit<br />
eines Unternehmens hat. Das Problem der Planung besteht im Wesentlichen aus der<br />
Ermittlung <strong>des</strong> Ressourcenbedarfs, der logischen Zusammenfassung der Ressourcen<br />
nach fertigungsorganisatorischen Aspekten zu hierarchischen Ordnungsebenen sowie<br />
deren topologisch optimaler Anordnung innerhalb der Ordnungsebenen. Mit dem<br />
Planungswerkzeug SiDiS.GA können ganzheitlich diese Faktoren optimiert werden.<br />
Anhand praxisrelevanter Anwendungsfälle konnten die Vorteile dieser ganzheitlichen<br />
Optimierung unter Verwendung von heuristischen Optimierungsverfahren, speziell<br />
genetischer Algorithmen, gegenüber dem Ansatz der Optimierung der einzelnen<br />
Faktoren aufgezeigt werden. Hierbei zeigte sich auch, welche speziellen Randfaktoren<br />
und Datenabhängigkeiten berücksichtigt werden sollten.<br />
92
2.13.4 Veröffentlichungen<br />
Zeitschriften und Tagungsbände<br />
Arnold, J., Förster, A., Gäse, Th., u. a.: Integrative modulare Produktionssystemplanung.<br />
Wissenschaftliche Schriftenreihe <strong>des</strong> Institutes für Betriebswissenschaften<br />
und Fabriksysteme, TU Chemnitz, Heft 35, ISSN 0947-2495<br />
Lefmann, H.: Sparse Parity-check Matrices over Finite Fields (Extended Abstract),<br />
Proceedings 9 th International Conferenc on Computing and Combinatorics COCOON<br />
2003, Springer Verlag , LNCS 2697, 112-121, ISSN 0302-9743<br />
Lefmann, H.: Sparse Parity-Check Matrices over GF (q), 21 Seiten, erscheint in<br />
Combinatorics, Probability and Computing, Cambridge University Press<br />
Lefmann, H.: On Heilbronn`s Problem in Higher Dimension, 10 Seiten, erscheint in<br />
Combinatorica, Springer Verlag<br />
Tamm, U.: The Berlekamp-Massey algorithm and Combinatorics, Proccedings<br />
International Workshop on Coding and Cryptography, WCC 2003, Versailles, 2003,<br />
433-443, ISBN 2-7261-1205-6<br />
Tamm, U.: Communication complexity and data compression, Proceedings 3 rd Asian-<br />
European Workshop on Coding and Information Theory, Kamogawa, Japan, 2003,<br />
92 - 95, ISBN 4-902087-04-9<br />
Tamm, U.: On a problem of Berlekamp, Proceedings 2003 International Symposium<br />
on Information Theory, Yokohama, Japan, 2003, 4, IEEE Press, ISBN 0-7803-7728-1<br />
Tamm, U.: Compression and decompression algorithms, erscheint in Algorithms of<br />
Informatics<br />
2.13.5 Vorträge<br />
Lefmann, H.: Sparse Parity Check Matrices over Finite Fields, Thirthy-fourth<br />
Southeastern International Conference on Combinatorics, Graph Theory and<br />
Computing, Boca Raton, 03. - 07.03.2003<br />
Lefmann, H.: Sparse Parity Check Matrices over Finite Fields, 9 th International<br />
Computing and Combinatorics Conference, Big Sky, MT, 25. - 28.07.2003<br />
Tamm, U.: Catalan-Zahlen und Erweiterungen, Hochschule Mittweida, 21.01.2003<br />
93
Tamm, U.: Computerschach-Experiment, Forschungsgruppe „General Theory of<br />
Information Transfer and Combinatorics“, Universität Bielefeld, 28.02.2003<br />
Tamm, U.: The Berlekamp-Massey Algorithm and Combinatorics, International<br />
Workshop on Coding and Cryptography, WCC 2003, Versailles, 24. - 28.03.2003<br />
Tamm, U.: On a Problem of Berlekamp, International Symposium on Information<br />
Theory, Yokohama, Japan, 29.06. - 04.07.2003<br />
Tamm, U.: Communication Complexity and Data Compression, 3 rd Asian-European<br />
Workshop on Coding and Information Theory, Kamogawa, Japan, 24. - 27.07.2003<br />
Tamm, U.: Communication Complexity, Symposium “Information Theory and Some<br />
Friendly Neighbours”, Zentrum für interdisziplinäre Forschung (ZIF), Bielefeld,<br />
11. - 15.08.2003<br />
Tamm, U.: The Berlekamp-Massey Algorithm and Combinatorics, Kolloquium über<br />
Kombinatorik, Universität Magdeburg, 14. - 15.11.2003<br />
2.13.6 Mitarbeit in Gremien:<br />
Lefmann, H.:<br />
- Beirat Internationales Universitäts Kolleg, TU Chemnitz<br />
- ECTS und Sokrates Beauftragter, Fakultät für Informatik<br />
- Fakultätsratsmitglied, Fakultät für Informatik<br />
- Vorsitzender <strong>des</strong> Prüfungsausschusses, Fakultät für Informatik<br />
- Promotionskommission Lingsheng Shi, Humboldt-Universität Berlin<br />
2.13.7 Sonstiges<br />
Tamm, U.: Lehrauftrag Hochschule Mittweida, Vorlesung „IT-Sicherheit“, SS 2003<br />
94
3. Studium und Lehre<br />
Das Fundament der Lehrtätigkeit der Fakultät für Informatik sind die folgenden<br />
beiden Studiengänge zur Informatik:<br />
- der klassische Diplomstudiengang Informatik,<br />
- der Diplomstudiengang Angewandte Informatik,<br />
- eine wesentliche Beteiligung am Studiengang Wirtschaftsinformatik,<br />
- die Ausbildung von Magistern nach dem Chemnitzer Modell.<br />
Außerdem bietet die Fakultät ein Ergänzungsstudium für im Beruf stehende Lehrer<br />
an. Der Studiengang Wirtschaftsinformatik wird gemeinsam mit der Fakultät für<br />
Wirtschaftswissenschaften gestaltet und mit der Philosophischen Fakultät die<br />
Magisterausbildung.<br />
Um Studenten anderer Fachrichtungen Grundkenntnisse in Informatik zu vermitteln,<br />
werden speziell konzipierte Einführungsveranstaltungen angeboten. Inhaltlich werden<br />
alle Studiengänge weiter unten in eigenen Abschnitten vorgestellt. Zunächst aber<br />
wird die Entwicklung der beiden Informatikstudiengänge anhand statistischen<br />
Materials dargestellt.<br />
Im Dezember 2003 sind in den Informatikstudiengängen über 800 Studenten<br />
eingeschrieben. Davon studieren etwa 420 Studenten den klassischen<br />
Diplomstudiengang Informatik und etwa 380 Studenten den Studiengang<br />
Angewandte Informatik.<br />
Hinzu kommen Studenten aus dem Ergänzungsstudium für Lehrer, sowie die<br />
zunehmende Anzahl von Magisterstudenten – insgesamt über 100. Zu diesen über<br />
900 Studierenden müssen noch weitere 330 hinzugezählt werden, die dem Bereich<br />
Wirtschaftsinformatik entstammen.<br />
Letztere sind zwar nominell an der Fakultät für Wirtschaftswissenschaften<br />
eingeschrieben, belasten die Fakultät für Informatik in der Betreuung durch<br />
Vorlesungen und insbesondere durch Übungen aber erheblich.<br />
Insgesamt ergibt sich zum Ende <strong>des</strong> Jahres 2003 die Zahl von 1.235 zu betreuenden<br />
Studierenden für die Fakultät für Informatik. Teilt man diese Zahl rein schematisch<br />
auf die 13 Professuren der Fakultät auf, so ergeben sich 95 Studenten pro Professur!<br />
Ein Großteil der Studenten hat erst in den vergangenen Jahren das Informatikstudium<br />
aufgenommen und fordert daher auch noch in den nächsten Jahren von der Fakultät<br />
die letzten Reserven.<br />
95
Die Zahl der Studienanfänger hat sich gegenüber den Vorjahren etwas reduziert, liegt<br />
aber immer noch in einem Bereich, der für die Fakultät eine extreme personelle<br />
Belastung darstellt. Ausschlaggebend hierfür ist einerseits die extrem dünne<br />
Personaldecke der Fakultät, sowie die darüber hinaus noch zu erwartenden<br />
Personaleinsparungen, die in einer kleinen Fakultät erheblich schwerer zu verkraften<br />
sind, als in einer großen.<br />
Der Erfolg der Angewandten Informatik ist darauf zurückzuführen, dass die Fakultät<br />
für Informatik die Angewandte Informatik aktuellen Tendenzen folgend um die<br />
Richtung Medieninformatik erweitert hat. Diese Richtung erfreut sich<br />
außerordentlicher Beliebtheit. Der Grund dafür mag in der Kombination von<br />
technischem und grafisch-künstlerischem Profil <strong>des</strong> Studienganges liegen.<br />
Bis auf das Wintersemester 2003/2004 konnte die Qualität von Lehre und<br />
Studienbedingungen trotz der hohen Belastung dank <strong>des</strong> Engagements aller Mitglieder<br />
der Fakultät gesichert werden. Bis zu diesem Semester wurden zur Unterweisung<br />
kleinerer Gruppen von Studenten bei Übungen und Praktika besonders qualifizierte<br />
Studenten höherer Semester als Tutoren eingestellt, wodurch insbesondere die<br />
Probleme, die mit der bedauernswerten Vermassung <strong>des</strong> Lehrbetriebes<br />
zusammenhängen, abgemildert werden konnten.<br />
Dies war durch den Fortfall von Geldern für studentische Hilfskräfte im zweiten<br />
Halbjahr 2003 in genanntem Wintersemester nicht mehr möglich und führte zu einer<br />
bedenklichen Krisensituation: Die Anzahl der Übungsgruppen musste um bis zu 50 %<br />
gekürzt werden, wobei gerade in den grundlegenden Studienjahren (1. und 2.<br />
Studienjahr) Massenübungen entstanden, die pädagogisch und didaktisch wertlos<br />
waren.<br />
Die im Sommersemester 2002 besetzte Professur für Medieninformatik wurde zum<br />
Wintersemester wieder frei, wodurch die Fortführung <strong>des</strong> Vertiefungsgebietes<br />
„Medieninformatik“ im Studiengang „Angewandte Informatik“ deutlich erschwert<br />
wurde – zumal hierin mittlerweile der Schwerpunkt dieses Studienganges, gemessen an<br />
der Anzahl der Studierenden, liegt.<br />
Die ersten Informatikdiplome (damals eigentlich noch Ingenieurdiplome) der TU<br />
Chemnitz wurden im Jahre 1989 verliehen. Im Jahr 2000 hat die Anzahl der<br />
Absolventen mit nur noch 13 ihren absolut niedrigsten Wert erreicht - im krassen<br />
Gegensatz zur Zahl der Anfänger. Die Zahl der Absolventen ist im Jahr 2003 auf 33<br />
gestiegen. Sie hat damit allerdings den Höchststand von 1994 bei weitem noch nicht<br />
wieder erreicht.<br />
Bei den verliehenen Diplomen im Jahr 2003 handelt es sich um 24 klassische<br />
Informatikdiplome und neun Diplome in der Angewandten Informatik. Da es den<br />
Studiengang Angewandte Informatik erst seit 1996 gibt, ist die Absolventenzahl noch<br />
gering.<br />
96
Sieht man Absolventen- und Anfängerzahlen im Zusammenhang und berücksichtigt,<br />
dass ein Informatikstudium üblicherweise vier bis sechs Jahre dauert, so wird der<br />
Grund für die aktuellen Absolventenzahlen klar:<br />
Die verhältnismäßig geringe Zahl von Studienanfängern im letzten Drittel der 90’er<br />
Jahre. Im Jahr 1994 hat diese Zahl mit nur noch 51 Anfängern ihren absoluten<br />
Tiefpunkt erreicht.<br />
Dieser Tiefpunkt ist Ergebnis der damaligen gesamtwirtschaftlichen Situation<br />
gewesen. Auch der Autor dieser Zeilen erinnert sich daran, dass damals Kollegen<br />
nach der Promotion in Informatik für einige Monate nach einer adäquaten<br />
Arbeitsstelle auf die Suche gingen (aber schließlich doch immer eine fanden).<br />
Augenblicklich hat dagegen jeder Informatiker sofort mehrere attraktive Angebote.<br />
Das Vordiplom ist eine nach zwei Studienjahren zu absolvierende Zwischenprüfung.<br />
Auf der Tabelle der bestandenen Vordiplomprüfungen ist in den letzten vier Jahren<br />
ein deutlicher Anstieg festzustellen, im Jahr 2003 sogar die höchste Anzahl seit 1991.<br />
Es ist davon auszugehen, dass dieser Anstieg recht bald eine weitere Erhöhung der<br />
Anzahl der Absolventen zur Folge hat. An der folgenden Tabelle ist interessant, dass<br />
die Anzahl der Vordiplome im Jahr 2001 der Informatik der klassischen Informatik<br />
wieder etwas höher ist als die der Angewandten Informatik, im Gegensatz zum Jahr<br />
2000.<br />
Die Vielfalt der von der Fakultät angebotenen Studiengänge Informatik, Angewandte<br />
Informatik, Ergänzungsstudium für Lehrer, Magisterstudiengänge und<br />
Wirtschaftsinformatik spiegelt das Bemühen der Fakultät wider, das Studienangebot<br />
auch zusammen mit anderen Fakultäten der TU Chemnitz in einem kontinuierlichen<br />
Prozess kritisch zu überprüfen und dadurch zu verbessern. Dieser kontinuierliche<br />
Verbesserungsprozess ist in einem Gebiet wie der Informatik, in dem die<br />
Anforderungen an die Absolventen einem solch rasanten Wechsel unterworfen sind,<br />
von ganz besonderer Bedeutung.<br />
Als Beispiel dieses Wandels sei der Bereich der „Neuen Medien“ genannt, der auf<br />
Grund der verbesserten Kommunikationsmöglichkeiten über das Internet und das<br />
world-wide-web in der letzten Zeit ganz erstaunlich gewachsen ist. Und dem Bedarf<br />
an ausgebildeten Spezialisten ist kaum nachzukommen.<br />
Als Konsequenz hat die TU Chemnitz unbürokratisch und flexibel reagiert und an der<br />
Fakultät für Informatik die erwähnte Professur der Fachrichtung Medieninformatik<br />
neu eingerichtet.<br />
97
Auch wenn das flexible Mitgestalten aktueller Entwicklungen für eine Fakultät<br />
unerlässlich sein sollte, darf man nicht außer Acht lassen, dass je<strong>des</strong> Fach einer<br />
Universität auf einem wissenschaftlichen und verhältnismäßig statischen Kern<br />
aufbaut. Ohne diesen Kern wird jede Flexibilität substanzlos und verkommt zu einem<br />
hastigen Verfolgen von Modetrends, die so plötzlich auftauchen wie sie wieder<br />
verschwinden.<br />
Deshalb wird ─ neben modernen Spezialisierungsrichtungen ─ der wissenschaftliche<br />
Kern in allen Studiengängen der Fakultät mit einem deutlichen Anteil an der zur<br />
Verfügung stehenden Unterrichtszeit vermittelt. Dem Absolventen soll diese<br />
umfassende Grundlagenausbildung das intellektuelle Rüstzeug und die hinreichende<br />
Selbstsicherheit zur selbständigen Erarbeitung und Beurteilung neuer<br />
Zusammenhänge mit auf den Berufsweg geben. Dass eine solche<br />
Grundlagenausbildung, neben Spezialfertigkeiten, auch dem Bedürfnis der<br />
Arbeitgeber nach qualifizierten Absolventen entgegenkommt, sollte nicht in Frage<br />
stehen.<br />
Aus vorstehenden Bemerkungen ergibt sich, dass zur erfolgreichen Absolvierung<br />
eines Studiengangs der Fakultät die Interessenten folgende Voraussetzungen<br />
mitbringen sollten: Wichtig sind gute Kenntnisse in Mathematik und die Freude und<br />
Fähigkeit auf einer abstrakten, formalen Ebene zu arbeiten. Allgemein menschliche<br />
Fähigkeiten wie Geschick und Gewandtheit im sozialen Umgang sind nicht nur, wie<br />
inzwischen allgemein bekannt, im späteren Berufsleben unabdingbar, sondern sie<br />
tragen auch zu einem zufriedenstellenderen Verlauf <strong>des</strong> Studiums, und damit zu<br />
besseren Leistungen bei. In diesem Zusammenhang sollte darauf hingewiesen<br />
werden, dass Englischkenntnisse in der Informatikbranche sehr wichtig sind. Sie sind<br />
aber keine formale Voraussetzung für die Aufnahme eines Informatikstudiums.<br />
Mögliche Informatikkenntnisse aus der Schule sind sicherlich sinnvoll. Es ist aber zu<br />
betonen, dass sie nicht zwingend erforderlich sind, um einen Informatikstudiengang<br />
erfolgreich zu absolvieren. Das gleiche gilt auch für Programmierkenntnisse und den<br />
Besitz eines eigenen Computers.<br />
98
Für alle auftretenden informatikspezifischen Fragen und Probleme steht als erster<br />
Ansprechpartner die Fachstudienberatung oder der Studiendekan der Informatik zur<br />
Verfügung, die fast immer weiterhelfen können.<br />
Ansprechpartnerin Dipl.-Math. Margitta Pippig<br />
Fachstudienberatung<br />
Postanschrift Technische Universität Chemnitz<br />
Fakultät für Informatik<br />
TU Chemnitz<br />
09107 Chemnitz<br />
Sitz: Straße der Nationen 62<br />
Zi. 226 f<br />
Tel.: (03 71) 5 31-13 63<br />
E-Mail: margitta.pippig@informatik.tu-chemnitz.de<br />
URL: http://www.tu-chemnitz.de/informatik<br />
Für allgemeine Fragen auch zur Einschreibung und den zu berücksichtigenden<br />
Terminen ist die Zentrale Studienberatung zuständig.<br />
Postanschrift Technische Universität Chemnitz<br />
Zentrale Studienberatung<br />
TU Chemnitz<br />
09107 Chemnitz<br />
Sitz: Straße der Nationen 62<br />
Zi. 046<br />
Tel.: (03 71) 5 31-18 40/-16 37/-16 90<br />
E-Mail: studienberatung@tu-chemnitz.de<br />
URL: http://www.tu-chemnitz.de/studium/beratung/<br />
Im Folgenden wird das Studienangebot der Fakultät im Einzelnen erläutert. Die<br />
Prüfungs- und Studienordnungen der reinen Informatikstudiengänge können Sie unter<br />
der oben angegebenen www-Adresse der Fachstudienberatung abrufen.<br />
99
Der Diplomstudiengang Informatik<br />
Wie alle Diplomstudiengänge unterteilt sich der Diplomstudiengang Informatik in ein<br />
Grundstudium, das die ersten vier Semester ausfüllt und ein Hauptstudium, das in der<br />
Informatik die darauffolgenden fünf Semester umfasst. Damit ist der Abschluss <strong>des</strong><br />
Studiums innerhalb von neun Semestern, das sind 4 ½ Jahre, möglich. Neben der<br />
Informatik an sich studiert jeder Student ein Nebenfach aus dem Angebot der TU<br />
Chemnitz, das während der ganzen Zeit beibehalten wird. Die Lehrveranstaltungen<br />
<strong>des</strong> Nebenfachs schlagen mit etwa einem Fünftel der zur Verfügung stehenden Zeit<br />
zu Buche. Ziel dieses Nebenfachs ist es, den Blick der Absolventen auch für<br />
informatikferne Probleme zu schärfen, <strong>des</strong>halb kann das Nebenfach sowohl aus den<br />
ingenieur- und naturwissenschaftlichen Richtungen, als auch aus den<br />
geisteswissenschaftlichen Richtungen gewählt werden. Die allgemeine Einsicht, dass<br />
eine Horizonterweiterung immer etwas Positives hat, hat im Zusammenhang mit der<br />
Informatik eine ganz besondere Relevanz, denn die meisten praktischen<br />
Anwendungen der Informatik lösen Probleme in informatikfernen Wissensgebieten.<br />
Das Grundstudium ist im Wesentlichen schulmäßig organisiert. Das heißt, der<br />
Student besucht Lehrveranstaltungen nach einem verbindlichen Stundenplan.<br />
Dadurch wird ein bei allen Studenten gleiches Grundwissen gelegt. Das<br />
Grundstudium wird mit der Vordiplomprüfung abgeschlossen. Im Hauptstudium ist<br />
es den Studenten in von der Prüfungsordnung gegebenen recht weit gesteckten<br />
Grenzen möglich, Lehrveranstaltungen nach Interesse und Neigung auszuwählen.<br />
Das gilt insbesondere für eine Vertiefungsrichtung, in der die Diplomarbeit<br />
geschrieben wird.<br />
Gemäß dem Studienplan ist die Diplomarbeit zum Abschluss <strong>des</strong> Studiums im<br />
neunten Semester anzufertigen. Studienbegleitende Proseminare, Seminare, Praktika<br />
und Projektarbeiten stellen den Anwendungsbezug der Ausbildung und der<br />
Vermittlung überfachlicher Fähigkeiten, wie Rhetorik und didaktischem Geschick<br />
sicher.<br />
Den Absolventen <strong>des</strong> Diplomstudiengangs Informatik bieten sich mannigfache<br />
Berufschancen sowohl in öffentlicher Verwaltung, im wissenschaftlichem Bereich ─<br />
etwa zwecks einer Promotion ─ oder in Industrieunternehmen. Gemäß seiner<br />
Ausbildung wird der Diplom-Informatiker zumin<strong>des</strong>t zum Berufsanfang techniknah<br />
eingesetzt. Der weitere Verlauf der beruflichen Laufbahn ist damit aber keineswegs<br />
vorgeschrieben. Im Laufe der Zeit können bei Interesse und Eignung auch<br />
Führungspositionen administrativen Charakters eingenommen werden.<br />
100
Der Diplomstudiengang Angewandte Informatik<br />
Wie der Diplomstudiengang Informatik teilt sich der Studiengang Angewandte<br />
Informatik in Grund- und Hauptstudium, die Gesamtstudienzeit beträgt wieder neun<br />
Semester. Charakteristisch für das Studium der Angewandten Informatik ist die<br />
intensive Beschäftigung mit einer angewandten Vertiefungsrichtung, die in einem<br />
wesentlich größerem Umfang als das Nebenfach <strong>des</strong> Diplomstudiengangs studiert wird.<br />
Im Gegensatz zum Nebenfach ist die Vertiefungsrichtung im Studienplan eng mit dem<br />
eigentlichen Informatikstudium verzahnt. Im Unterschied zum reinen<br />
Informatikstudium beinhaltet das Studium der Angewandten Informatik zusätzlich ein<br />
15-wöchiges Betriebspraktikum, das in der vorlesungsfreien Zeit zu absolvieren ist und<br />
einen Einblick ins eigentliche Berufsleben verschafft.<br />
Das Studium der Angewandten Informatik ist mit folgenden Vertiefungsrichtungen<br />
möglich:<br />
- Eingebettete Systeme,<br />
- Informations- und Kommunikationssysteme,<br />
- Konstruktions- und Produktionstechnik,<br />
- Medieninformatik.<br />
Das Gebiet der Eingebetteten Systeme beschäftigt sich speziell mit techniknahen<br />
Computerprogrammen, eben Programmen, die direkt in einem technischen<br />
Zusammenhang eingebettet sind. Beispiele sind etwa Programme zur<br />
Maschinensteuerung. Bei den Informations- und Kommunikationssystemen geht es<br />
um Rechnernetze, deren bekanntester Vertreter das Internet ist. Allerdings spielen<br />
Rechnernetze auch in kleinerem Rahmen als sogenannte Intranets (im Gegensatz zum<br />
Internet) eine Rolle.<br />
Konstruktions- und Produktionstechnik ist ein in der Fakultät für Maschinenbau<br />
angesiedeltes Vertiefungsgebiet. Die Medieninformatik ist eine ganz aktuelle<br />
Richtung und stillt das Bedürfnis nach Informatikern, die um die Außenwirkung von<br />
Computerprogrammen wissen, das heißt, die zum Beispiel mit den Möglichkeiten<br />
und Grenzen der Bildschirmgestaltung vertraut sind.<br />
Die drei Vertiefungsrichtungen: Eingebettete Systeme, Informations- und<br />
Kommunikationssysteme und Medieninformatik sind direkt der Informatik zu-gehörig,<br />
während die Konstruktions- und Produktionstechnik weit über die Informatik<br />
hinausführt. Die meisten Studenten der Angewandten Informatik verteilen sich auf die<br />
beiden Vertiefungsrichtungen: Informations- und Kommunikationssysteme und<br />
Medieninformatik. Die Berufsaussichten sind vergleichbar zu denen der klassischen<br />
Informatik. Wegen mangelnden Interesses wurde die vormals angebotene<br />
Vertiefungsrichtung Angewandte Chemie eingestellt.<br />
101
Das Ergänzungsstudium für Lehrer<br />
Das Ergänzungsstudium Informatik für Lehrer wird von der Fakultät angeboten, um<br />
dem akuten Mangel von Informatiklehrern an den verschiedenen Schultypen zu<br />
begegnen. Es dauert 4 Semester für Mittelschullehrer und 6 Semester für Lehrer an<br />
berufsbildenden Schulen und Gymnasien. Die Auswahl der Teilnehmer erfolgt über<br />
die zuständigen Schulämter. Der Anzahl der Teilnehmer ist pro Jahr auf 50 bis 60<br />
begrenzt.<br />
Wirtschaftsinformatik<br />
Der Studiengang der Wirtschaftsinformatik wird zu etwa einem Drittel von der<br />
Fakultät für Informatik und zu zwei Dritteln von der Fakultät für<br />
Wirtschaftswissenschaften gestaltet. Ende 2003 sind 330 Studenten in der<br />
Wirtschaftsinformatik eingeschrieben, zum WS 2003 haben etwa 45 Neuanfänger das<br />
Studium aufgenommen. Absolventen der Wirtschaftsinformatik tragen dem<br />
Bedürfnis der Industrie nach Informatikern mit umfassenden Kenntnissen der<br />
Wirtschaftswissenschaften Rechnung. Die Tätigkeitsbereiche von<br />
Wirtschaftsinformatikern sind eher nicht-technischer Natur, wie es zum Beispiel der<br />
Vertrieb oder die Arbeit in einer Unternehmensberatung ist. Allerdings sind auch hier<br />
die Grenzen zu klassischen Informatikertätigkeiten, wie Systemwartung oder<br />
Programmierung durchlässig. Organisatorisch ist der Studiengang<br />
Wirtschaftsinformatik an der Fakultät für Wirtschaftswissenschaften angesiedelt.<br />
Weitere Informationen gibt der zuständige Fachstudienberater der Fakultät für<br />
Wirtschaftswissenschaften, Prof. Dr. Bernd Stöckert.<br />
Informatik im Magisterstudiengang<br />
Zusammen mit einem Fach der Philosophischen Fakultät kann Informatik als zweites<br />
Hauptfach eines Magisterstudiengangs studiert werden. Die möglichen<br />
Fächerkombinationen (zum Beispiel 1. Hauptfach Anglistik, 2. Hauptfach<br />
Informatik) tragen dem Bedürfnis nach soliden Informatikkenntnissen auch bei<br />
geisteswissenschaftlichen Tätigkeiten, etwa bei Verlagen und Zeitschriften<br />
Rechnung. Darüber schätzen auch informatiktypische Arbeitgeber gelegentlich den<br />
durch eine geisteswissenschaftliche Ausbildung wesentlich veränderten Blickwinkel.<br />
Ende 2003 sind 37 Studenten in einem Magisterstudiengang mit 2. Hauptfach<br />
Informatik eingeschrieben. Die ersten Ansprechpartner zu den<br />
Magisterstudiengängen sind die Studienberater der Philosophischen Fakultät.<br />
102
Höhere wissenschaftliche Abschlüsse<br />
Wie jede Fakultät einer Universität besitzt die Fakultät für Informatik der TU<br />
Chemnitz das Promotions- und Habilitationsrecht. Interessenten an einem solchen<br />
höheren Abschluss müssen von einem Professor oder einer Professorin der Fakultät<br />
wissenschaftlich betreut sein. Habilitationen sind eher seltene Ereignisse. Bisher fand<br />
erst eine an der Fakultät statt: Dr. Kühnhauser (inzwischen Professor an der TU<br />
Ilmenau) im Jahre 1999. Zwei Promotionen konnten im Jahr 2003 erfolgreich<br />
abgeschlossen werden.<br />
Übersicht der angebotenen Lehrveranstaltungen<br />
Die folgende Darstellung der im Sommersemester 2003 und Wintersemester<br />
2003/2004 angebotenen Vorlesungen, Seminare und Praktika zeigt, dass sich die<br />
Fakultät erfolgreich bemüht, trotz der hohen Studentenzahlen, interessierten<br />
Studenten vertiefende Lehrveranstaltungen spezielleren Charakters anzubieten. Diese<br />
vertiefenden Lehrveranstaltungen sind unabdingbar, da sie ein wissenschaftliches<br />
Studium an einer Universität erst ausmachen. Es ist darauf hinzuweisen, dass die<br />
folgende Aufstellung aus Gründen der Überschaubarkeit nicht die zu fast allen<br />
Vorlesungen gehaltenen Übungen enthält.<br />
(In der folgenden Aufstellung steht V für Vorlesung, S für Seminar, P für Praktikum.)<br />
103
Sommersemester 2003<br />
Professur Datenverwaltungssysteme<br />
(Prof. W. Benn)<br />
Datenbanken II V 2<br />
Datenstrukturen V 4<br />
Seminar Datenbanken S 2<br />
Juniorprofessur Echtzeitsysteme<br />
(Dr. R. Baumgartl)<br />
Echtzeitsysteme V 2<br />
Proseminar Moderne Betriebssysteme S 2<br />
Forschungsseminar Betriebssysteme S 2<br />
Praktikum Embedded Programming P 4<br />
Professur Graphische Datenverarbeitung und Visualisierung<br />
(Prof. G. Brunnett)<br />
Computergraphik II V 2<br />
Solid Modeling V 2<br />
Algorithmen und Datenstrukturen V 1<br />
Virtual Reality V 2<br />
Grundlagen Objektrekonstruktion V 2<br />
Computergraphik P 4<br />
Professur Informationssysteme und Softwaretechnik<br />
(Prof. P. Kroha)<br />
Informationssysteme V 2<br />
Softwaretechnologie I V 2<br />
Soltwarepraktikum V 1<br />
Seminar CASE-Werkzeuge S 2<br />
Professur Künstliche Intelligenz<br />
(Prof. W. Dilger)<br />
Künstliche Intelligenz V 3<br />
Data-Mining V 2<br />
Bildverarbeitung V 2<br />
Expertensysteme V 2<br />
Konnektionistische Wissensverarbeitung V 2<br />
Kognition V 2<br />
Proseminar KI S 2<br />
Forschungsseminar KI/MoSi S 2<br />
104
Professur Medieninformatik<br />
(Prof. C. Wolff)<br />
Multimediaapplikationen V 2<br />
Integrierte Multimediastandards V 2<br />
Medienprogrammierung V 2<br />
Seminar Web, Service und Engineering S 2<br />
Multimediaapplikationen P 2<br />
Professur Modellierung und Simulation<br />
(Prof. P. Köchel)<br />
Stochastische Entscheidungsprozesse V 2<br />
Modellierung und Simulation V 2<br />
Forschungsseminar KI/MoSi S 2<br />
Proseminar Spez. In Informatik S 2<br />
Professur Praktische Informatik<br />
(Prof. G. Rünger)<br />
Compilerbau II V 2<br />
Höhere Programmiersprachen V 2<br />
Theorie der Programmiersprachen V 2<br />
Seminar Parallele Programmierung S 2<br />
Praktikum Java P 4<br />
Professur Rechnerarchitektur und Mikroprogrammierung<br />
(Prof. W. Rehm)<br />
Cluster- und Gridcomputing V 2<br />
Rechnerorganisation V 4<br />
Parallelrechner V 2<br />
Cluster- u. Gridcomputing P 4<br />
Professur Rechnernetze und Verteilte Systeme<br />
(Prof. U. Hübner)<br />
Prinzipien der Systemadministration V 2<br />
Proseminar Rechnernetze S 2<br />
Protokolle und Management V 4<br />
Rechnernetz-Sicherheit V 2<br />
Seminar Workshop Rechnernetze S 2<br />
Professur Systemprogrammierung und Betriebssysteme<br />
(Prof. W. Kalfa)<br />
Betriebssysteme u. Rechnernetze V 2<br />
105
Professur Technische Informatik<br />
(Prof. W. Hardt)<br />
Hardware/Software Co<strong>des</strong>ign V 2<br />
Hardwarepraktikum P 2<br />
Professur Theoretische Informatik<br />
(Prof. A. Goerdt)<br />
Theoretische Informatik II V 4<br />
Höhere Programmiersprachen V 2<br />
Wahrscheinlichkeitsrechnung V 2<br />
Seminar (Ober) zur Fragen der Theoretischen Informatik S 2<br />
Proseminar/Seminar Spielbaumsuche S 2<br />
Professur Theoretische Informatik u. Informationssicherheit<br />
(Prof. H. Lefmann)<br />
Theoretische Informatik III V 3<br />
Theoretische Informatik I V 4<br />
Datensicherheit II V 2<br />
Seminar Approximationsalgorithmen S 2<br />
Proseminar Kodierverfahren S 2<br />
Proseminar Effiziente Algorithmen S 2<br />
Seminar (Ober) Theoretische Informatik u. Informationssicherh. S 2<br />
Fakultätsrechen- und Informationszentrum<br />
(Dr. Müller)<br />
Grundlagen der Informatik V 2<br />
Informatik Grundlagen V 2<br />
Praktikum Grundlagen der Informatik P 4<br />
106
Wintersemester 2003/2004<br />
Professur Datenverwaltungssysteme<br />
(Prof. W. Benn)<br />
Datenbanken V 2<br />
Objektorientierte Datenbanken V 2<br />
Seminar Implementation von Datenbanksystemen S 2<br />
Juniorprofessur Echtzeitsysteme<br />
(Dr. R. Baumgartl)<br />
Betriebssysteme II V 2<br />
Professur Graphische Datenverarbeitung und Visualisierung<br />
(Prof. G. Brunnett)<br />
Geometrische Modellierung V 2<br />
Computergrafik V 2<br />
Algorithmen und Datenstrukturen V 3<br />
Seminar Computergrafik S 2<br />
Professur Informationssysteme und Softwaretechnik<br />
(Prof. P. Kroha)<br />
Softwaretechnologie II V 2<br />
Information-Retrieval-Systeme V 2<br />
Seminar Software Engineering S 2<br />
Praktikum CASE-Systeme P 4<br />
Professur Künstliche Intelligenz<br />
(Prof. W. Dilger)<br />
Maschinelles Lernen V 2<br />
Robotik V 2<br />
Logische Programmierung V 2<br />
Multiagentensysteme V 2<br />
Einführung in die Informatik V 2<br />
Wissenspräsentationen/Problemlösung V 2<br />
Ausgewählte KI-Aspekte der Agententechnologie S 2<br />
Forschungsseminar KI/MoSI S 2<br />
Professur Medieninformatik<br />
(Prof. C. Wolff )<br />
Mediengestaltung V 2<br />
Medientheorie V 2<br />
Mediengestaltung P 4<br />
107
Professur Modellierung und Simulation<br />
(Prof. P. Köchel)<br />
Algorithmen und Programmierung V 3<br />
Stochastische Modell V 2<br />
Forschungsseminar KI/MoSI S 2<br />
Professur Praktische Informatik<br />
(Prof. G. Rünger)<br />
Parallele und verteilte Programmierung V 4<br />
Compilerbau I V 2<br />
Seminar Compileroptimierung bei Parallelrechnern S 2<br />
Praktikum Compilerwerkzeuge und Parallelverarbeitung P 4<br />
Professur Rechnerarchitektur und Mikroprogrammierung<br />
(Prof. W. Rehm)<br />
Maschinenorientierte Programmierung V 2<br />
Rechnerarchitektur V 3<br />
Maschinenorientierte Programmierung P 1<br />
Rechnerarchitektur P 1<br />
Seminar Hauptseminar Cluster/Grid/P2P/-Computing S 2<br />
Professur Rechnernetze und Verteilte Systeme<br />
(Prof. U. Hübner)<br />
Rechnernetze V 2<br />
Entwurf verteilter Systeme V 2<br />
Multimedia-Netz-Praxis V 1<br />
Werkzeuge und Techniken für digitale Publikationen V 1<br />
Multimedia-Netz-Praxis V 1<br />
Netzwerkmanagement V 2<br />
Professur Betriebssysteme und Systemprogrammierung<br />
(Prof. W. Kalfa)<br />
Betriebssysteme V 2<br />
Systemprogrammierung V 2<br />
Proseminar Linux-Internals S 2<br />
Professur Technische Informatik<br />
(Prof. W. Hardt)<br />
Digitaltechnik V 4<br />
Rechnerorganisation und Rechnerarchitekturen V 2<br />
Hardwarepraktikum P 4<br />
108
Professur Theoretische Informatik<br />
(Prof. A. Goerdt)<br />
Datenschutz/Datensicherheit V 2<br />
Parallele Algorithmen V 2<br />
Multimedia V 2<br />
Proseminar Heuristisches Suchen S 2<br />
Seminar Kommunkationskomplexität S 2<br />
Seminar Heuristisches Suchen S 2<br />
Professur Theoretische Informatik u. Informationssicherheit<br />
(Prof. H. Lefmann)<br />
Theoretische Informatik I V 4<br />
Approximations- und Online-Algorithmen V 2<br />
Systemsicherheit V 2<br />
Datensicherheit V 2<br />
Proseminar Datenkompression S 2<br />
Seminar (Ober) Theoretische Informatik S 2<br />
Praktikum Informationssicherheit P 4<br />
Fakultätsrechen- und Informationszentrum<br />
(Dr. Müller)<br />
Grundlagen der Informatik V 2<br />
109
110
4. Kenndaten der Fakultät<br />
4.1 Entwicklungsgeschichte der Fakultät<br />
1969 Gründung der Sektion Rechentechnik und Datenverarbeitung einschließlich<br />
Rechenzentrum<br />
Grundlagenausbildung in Informatik für alle Fakultäten<br />
1970 Nebenfachausbildung in Informatik für Studenten der Mathematik<br />
1981 Nebenfachausbildung in Informatik für Studenten <strong>des</strong> Maschinenbaues<br />
1984 Umbenennung in Sektion Informatik<br />
Hauptfachausbildung in Informatik<br />
1988 Ausbildung von Berufsschullehrern mit Zweitfach Informatik<br />
1991 Teilung der Sektion Informatik in den Fachbereich Informatik und das<br />
Universitätsrechenzentrum<br />
1992 Neustrukturierung <strong>des</strong> Fachbereiches Informatik<br />
1993 Gründung der Fakultät für Informatik<br />
1996 Start <strong>des</strong> Studienganges Angewandte Informatik<br />
1999 Einrichtung der Vertiefungsrichtung Medieninformatik innerhalb <strong>des</strong><br />
Studienganges Angewandte Informatik<br />
111
112
4.2 Veranstaltungen der Fakultät<br />
4.2.1 Informatik-Kolloquien 2003<br />
Prof. Dr. Dr. Christian Posthoff<br />
University of the West Indies, Trinidad and Tobago<br />
Mittwoch, 25.06.2003, 14:00 Uhr, Raum 1/336<br />
Parallelisierung <strong>des</strong> SAT-Problems<br />
Prof. Dr. Klaus Meer<br />
University of Southern Denmark, Odense<br />
Montag, 02.06.2003, 14:00 Uhr, Raum 1/336<br />
Reelle Komplexitätstheorie: Eine Einführung<br />
Josef Kohout<br />
Universität von Westböhmen, Pilsen<br />
Mittwoch, 07.05.2003, 14:00 Uhr, Raum 1/336<br />
Delaunay triangulation in 2D and 3D in parallel and distributed environment<br />
Prof. Dr. Ivana Kolingerova<br />
Universität von Westböhmen, Pilsen<br />
Dienstag, 06.05.2003, 10:00 Uhr, Raum 1/336<br />
Speeding Up Delaunay Triangulation in 2D and 3D<br />
Prof. Wilfried Krug<br />
DUALIS GmbH Dresden<br />
Donnerstag, 03.04.2003, 13:45 Uhr, Raum 1/336<br />
Integration von Simulations- und Optimierungstools in der Produktions-Planung und<br />
-Steuerung<br />
Dr. Amin Coja-Oghlan<br />
Humboldt-Universität zu Berlin<br />
Donnerstag, 30.01.2003, 14:00 Uhr, Raum 1/336<br />
Approximieren der chromatischen Zahl zufälliger Graphen mittels semidefiniter<br />
Programmierung<br />
Prof. Dr. rer. nat. Klaus Hering<br />
Hochschule für Technik, Wirtschaft und Kultur, Leipzig<br />
Mittwoch, 22.01.2003, 12:30 Uhr, Raum 1/336<br />
Parallele compilergesteuerte Logiksimulation auf Modellpartitionierungsbasis<br />
113
4.2.2 Weitere Veranstaltungen<br />
Zentral geplante Veranstaltungen der Technischen Universität Chemnitz wurden<br />
vorbereitet und deren Durchführung unterstützt. Dazu gehören:<br />
- Tage der offenen Tür<br />
(09.01.2003 und 14.06.2003)<br />
- Chemnitzer Herbstuniversität<br />
(21.10.2003 – 23.10.2003)<br />
- Girls Day<br />
(08.05.2003)<br />
- Studentenwerbung „5 vor 12“<br />
(27.09.2003)<br />
- 50. Jahrestag der Gründung der Hochschule für Maschinenbau in Karl-Marx-Stadt<br />
(25.11.2003)<br />
114
4.3 Kenndaten der Ausbildung<br />
4.3.1 Anzahl und Entwicklung der Studentenzahlen<br />
Stand: 01.12.2003<br />
Informatik: 421<br />
Angewandte Informatik: 383<br />
Informatik, Magister-Hauptfach 37<br />
Lehramtskandidaten: 64<br />
Wirtschaftsinformatik: 330<br />
Promotionsstudenten: 8<br />
Studienanfänger<br />
Jahr Studienanfänger<br />
Informatikstudiengänge<br />
Studienanfänger<br />
Informatik<br />
Studienanfänger<br />
Angewandte<br />
Informatik<br />
1984 25<br />
1985 50<br />
1986 100<br />
1987 100<br />
1988 110<br />
1989 110<br />
1990 110<br />
1991 110<br />
1992 70<br />
1993 60<br />
1994 51<br />
1995 55<br />
1996 81 65 16<br />
1997 82 69 13<br />
1998 96 71 25<br />
1999 179 103 66<br />
2000 280 125 155<br />
2001 239 117 122<br />
2002 189 104 85<br />
2003 155 97 58<br />
115
Vordiplom<br />
Jahr Anzahl<br />
Vordiplome<br />
Notendurchschnitt<br />
Vordiplome<br />
Informatik<br />
Vordiplome<br />
Angewandte<br />
Informatik<br />
1991 86 2,5 86<br />
1992 86 2,7 86<br />
1993 57 2,8 57<br />
1994 43 2,8 43<br />
1995 40 2,9 40<br />
1996 19 2,8 19<br />
1997 23 2,5 23<br />
1998 33 2,7 25 8<br />
1999 36 2,6 36 0<br />
2000 39 2,5 16 23<br />
2001 45 2,7 31 14<br />
2002 69 2,6 51 18<br />
2003 89 2,5 40 48<br />
116
4.3.2 Absolventen<br />
Habilitationen<br />
Insgesamt: 1<br />
davon 2003: 0<br />
Promotionen<br />
Insgesamt: 25<br />
davon 2003: 2 (Wellner, J. und Vanco, M.)<br />
Diplomanden<br />
Jahr Anzahl Diplome<br />
Notendurchschnitt<br />
1989 22<br />
1990 42<br />
1991 79<br />
1992 83<br />
1993 67 2,0<br />
1994 70 1,6<br />
1995 51 2,0<br />
1996 54 2,0<br />
1997 38 2,0<br />
1998 39 2,8<br />
1999 23 2,0<br />
2000 13 1,9<br />
2001 21 2,1<br />
2002 36 2,0<br />
2003 33 1,8<br />
117
118
4.4 Ausstattung<br />
4.4.1 Personalentwicklung<br />
Jahr 1996 1997 1998 1999 2000 2001 2002 2003<br />
Professuren<br />
wiss. Mitarbeiter<br />
11 11 10 10 12 13 13 13<br />
- Land 28 27 23 25 27 27 30 30<br />
- Drittmittel 10 11 13,5 13 14,5 13 17 17<br />
nichtwiss.<br />
Mitarbeiter<br />
20 20 18 17 16 17 16 16<br />
4.4.2 Sachmittel (Lan<strong>des</strong>mittel)<br />
Jahr 1996 1997 1998 1999 2000 2001 2002 2003<br />
(TDM) (TDM) (TDM) (TDM) (TDM) (TDM) (TEuro) (TEuro)<br />
TG 51<br />
Lehre und<br />
Forschung<br />
225 309 356,5 337,5 362 491 89,2 109<br />
Stud./wissen.<br />
Hilfskräfte<br />
170 200 137 114 205 319 219 110<br />
119