e p i l o g - Fakultät für Informatik, TU Wien
e p i l o g - Fakultät für Informatik, TU Wien
e p i l o g - Fakultät für Informatik, TU Wien
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Wolfgang Morandell<br />
Evaluation and Reconstruction of Strip-Shredded Text Documents<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />
Abstrakt: In meiner Masterarbeit arbeite ich die Wiederherstellung von<br />
durch Shredder zerstörter Textdokumente aus. Im Gegensatz zu<br />
herkömmlicher Dokumentenwiederherstellung - die auf Farb- oder<br />
Umrissinformationen beruht - ist die Wiederherstellung von Textdokumenten<br />
noch nicht eingehend untersucht worden. Normalerweise werden<br />
Papierdokumente mittels Shredder zerstört, d.h. in längliche Papierstreifen<br />
zerlegt. In dieser Arbeit wird versucht, diesen Prozess rückgängig zu<br />
machen. Zuallererst beschreibe ich die Problemstellung formal. Als<br />
nächstes werde ich eine Möglichkeit aufzeigen wie Lösungen zu diesem<br />
Problem eingeschätzt werden können. Weiters werden eine Reihe von<br />
Verbesserungsstrategien vorgestellt, die bei der Evaluierung helfen.<br />
Definierte Konstruktionsheuristiken ermitteln gute Lösungen innerhalb kurzer<br />
Zeit. Mittels Optimierungsalgorithmen wird nun versucht eine möglichst gute<br />
Anordnung der Schnipsel zu finden, im Idealfall die ursprüngliche. Eine<br />
Testapplikation simuliert den Prozess des Shreddens einer Seite. Diese Seite<br />
wird dann mittels der oben beschriebenen Evaluierungstechniken und<br />
Optimierungsmethoden wie Multistart Variable Neighborhood Search,<br />
Simulated Annealing und Iterated Local Search wieder zusammengesetzt. Es<br />
wurden ausführliche Tests mit einem 60 Instanzen Testset durchgeführt.<br />
Die implementierte Applikation konnte mehr als die Hälfte aller Testinstanzen<br />
wieder korrekt zusammensetzen und kann auch mehrere Seiten auf einmal<br />
wiederherstellen.<br />
Anna Potocka<br />
Webbasierte Darstellung großer Datenmengen als Pivot-Tabelle mithilfe<br />
ressourcenoptimierter Aggregationsverfahren<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof Dr. Günther Raidl<br />
74<br />
Abstrakt: Pivot-Tabellen sind komplexe, mehrdimensionale Tabellen, die zur<br />
gleichzeitigen Auswertung von mehreren, zusammenhängenden Merkmalen<br />
zugrunde liegender Daten dienen. Bestehende Software stößt bei sehr<br />
großen Datenmengen nicht nur an Zeit- sondern auch an Kapazitätslimits.<br />
Auch der Trend zu webbasierten Tools und die Anforderung nach<br />
Plattformunabhängigkeit kann mit den vorhandenen Lösungen bisher nicht<br />
abgedeckt werden. Im Zuge dieser Diplomarbeit werden vier Methoden zur<br />
Erstellung von Pivot-Tabellen aus gegebenen Datenbanktabellen entwickelt,<br />
die sich durch die Anzahl und Art der Datenbankabfragen, die Komplexität<br />
der Berechnungen und die Größe des benötigten Cache voneinander<br />
unterscheiden. Die Performanceuntersuchungen stellen laufzeitintensive