23.12.2013 Aufrufe

e p i l o g - Fakultät für Informatik, TU Wien

e p i l o g - Fakultät für Informatik, TU Wien

e p i l o g - Fakultät für Informatik, TU Wien

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Wolfgang Morandell<br />

Evaluation and Reconstruction of Strip-Shredded Text Documents<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />

Abstrakt: In meiner Masterarbeit arbeite ich die Wiederherstellung von<br />

durch Shredder zerstörter Textdokumente aus. Im Gegensatz zu<br />

herkömmlicher Dokumentenwiederherstellung - die auf Farb- oder<br />

Umrissinformationen beruht - ist die Wiederherstellung von Textdokumenten<br />

noch nicht eingehend untersucht worden. Normalerweise werden<br />

Papierdokumente mittels Shredder zerstört, d.h. in längliche Papierstreifen<br />

zerlegt. In dieser Arbeit wird versucht, diesen Prozess rückgängig zu<br />

machen. Zuallererst beschreibe ich die Problemstellung formal. Als<br />

nächstes werde ich eine Möglichkeit aufzeigen wie Lösungen zu diesem<br />

Problem eingeschätzt werden können. Weiters werden eine Reihe von<br />

Verbesserungsstrategien vorgestellt, die bei der Evaluierung helfen.<br />

Definierte Konstruktionsheuristiken ermitteln gute Lösungen innerhalb kurzer<br />

Zeit. Mittels Optimierungsalgorithmen wird nun versucht eine möglichst gute<br />

Anordnung der Schnipsel zu finden, im Idealfall die ursprüngliche. Eine<br />

Testapplikation simuliert den Prozess des Shreddens einer Seite. Diese Seite<br />

wird dann mittels der oben beschriebenen Evaluierungstechniken und<br />

Optimierungsmethoden wie Multistart Variable Neighborhood Search,<br />

Simulated Annealing und Iterated Local Search wieder zusammengesetzt. Es<br />

wurden ausführliche Tests mit einem 60 Instanzen Testset durchgeführt.<br />

Die implementierte Applikation konnte mehr als die Hälfte aller Testinstanzen<br />

wieder korrekt zusammensetzen und kann auch mehrere Seiten auf einmal<br />

wiederherstellen.<br />

Anna Potocka<br />

Webbasierte Darstellung großer Datenmengen als Pivot-Tabelle mithilfe<br />

ressourcenoptimierter Aggregationsverfahren<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof Dr. Günther Raidl<br />

74<br />

Abstrakt: Pivot-Tabellen sind komplexe, mehrdimensionale Tabellen, die zur<br />

gleichzeitigen Auswertung von mehreren, zusammenhängenden Merkmalen<br />

zugrunde liegender Daten dienen. Bestehende Software stößt bei sehr<br />

großen Datenmengen nicht nur an Zeit- sondern auch an Kapazitätslimits.<br />

Auch der Trend zu webbasierten Tools und die Anforderung nach<br />

Plattformunabhängigkeit kann mit den vorhandenen Lösungen bisher nicht<br />

abgedeckt werden. Im Zuge dieser Diplomarbeit werden vier Methoden zur<br />

Erstellung von Pivot-Tabellen aus gegebenen Datenbanktabellen entwickelt,<br />

die sich durch die Anzahl und Art der Datenbankabfragen, die Komplexität<br />

der Berechnungen und die Größe des benötigten Cache voneinander<br />

unterscheiden. Die Performanceuntersuchungen stellen laufzeitintensive

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!