Prof. Dr. Peter Sanders - DFG
Prof. Dr. Peter Sanders - DFG
Prof. Dr. Peter Sanders - DFG
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Forschungsschwerpunkte – <strong>Prof</strong>essor <strong>Peter</strong> <strong>Sanders</strong><br />
Die Arbeitsgruppe von <strong>Peter</strong> <strong>Sanders</strong> schließt Lücken zwischen Theorie und Praxis in der<br />
Algorithmenforschung und ist damit in international angesehenen akademischen Zeitschriften<br />
und Konferenzen ebenso gern gesehen wie bei Industrieunternehmen wie Google, SAP,<br />
Microsoft oder BMW. Algorithmen (Handlungsvorschriften zur systematischen Lösung eines<br />
Problems) sind die Grundlage der Programmierung von Computern und damit eine Schlüsseltechnologie<br />
für die Informationsgesellschaft. Wichtige Errungenschaften wie die Entschlüsselung<br />
des menschlichen Genoms oder die Verfügbarkeit des Wissens der Menschheit<br />
über Suchmaschinen sind maßgeblich auf effiziente Algorithmen zurückzuführen. In den<br />
vergangenen Jahrzehnten hatten sich in der Algorithmenforschung viele Lücken zwischen<br />
Theorie und Praxis aufgetan. Während die Algorithmentheorie auf der Suche nach mathematisch<br />
beweisbaren Ergebnissen Besonderheiten der Anwendungen oder wichtige Aspekte<br />
moderner Rechner oft vernachlässigte, entstanden in vielen Anwendungsgebieten Ad-hoc-<br />
Lösungen mit unklaren Eigenschaften. <strong>Peter</strong> <strong>Sanders</strong> Arbeitsgruppe überbrückt diese Lücken<br />
mittels der Methodik des Algorithm Engineering, die realistische Modellierung, praxisorientierten<br />
Algorithmenentwurf, mathematische Analyse, ausgefeilte Implementierung und<br />
ausführliche experimentelle Evaluierung zu einem Prozess zusammenfasst, der an die wissenschaftliche<br />
Methode der Naturwissenschaften erinnert. Im Folgenden werden einige Beispiele<br />
erläutert.<br />
Die „Basic Toolbox“: Bestimmte algorithmische Techniken wie Sortieren, Organisation einer<br />
Menge von Elementen zum schnellen Auffinden von Daten oder prioritätsgesteuerte Bearbeitung<br />
(Prioriätslisten) werden in fast allen nichttrivialen Computerprogrammen benötigt. Die<br />
Arbeitsgruppe von <strong>Peter</strong> <strong>Sanders</strong> hat hier Weltrekorde bei der Energieeffizienz und bei der<br />
effizienten Handhabung riesiger Datenmengen (bis zu 100 Terabyte) erzielt. Eine besondere<br />
Herausforderung ist dabei die Organisation von Datenbewegungen zwischen verschiedenen<br />
Ebenen von Computerspeichern (Festplatte, Flash-Speicher, RAM, Prozessor-Caches). Dies<br />
ist insofern spannend, weil die eigentlichen Berechnungen (Additionen, Multiplikationen<br />
u. a.), die traditionell im Vordergrund algorithmischer Überlegungen standen, kaum mehr ins<br />
Gewicht fallen.<br />
Routenplanung: Routenplaner im Internet oder auf Mobilgeräten sind eine Paradeanwendung<br />
der Informatik und helfen, nach Studien, bis zu 20 Prozent Fahrzeit und Energie zu<br />
Forschungsschwerpunkte – Gottfried Wilhelm Leibniz-Preis 2012<br />
<strong>Prof</strong>essor <strong>Peter</strong> <strong>Sanders</strong><br />
Stand Januar 2012<br />
<strong>DFG</strong>
Seite 2 von 3<br />
sparen. Da das Lehrbuchverfahren (Dijkstras Algorithmus) zu langsam ist, behalf sich die<br />
Industrie in der Vergangenheit mit Heuristiken, die keine optimalen Wege garantieren, aufwändige<br />
manuelle Aufbereitung der Daten erfordern und trotzdem oft quälend langsam sind.<br />
Ausgehend von seinen Erfahrungen mit grundlegenden Algorithmen zur Verarbeitung von<br />
Netzwerken hat <strong>Peter</strong> <strong>Sanders</strong> Routenplanungsverfahren entwickelt, die sehr schnell sind,<br />
optimale Lösungen garantieren und vollautomatisch arbeiten. Seine Verfahren nutzen aus,<br />
dass Straßennetze eine hierarchische Struktur haben – die Mittelstücke optimaler Routen<br />
bestehen immer wieder aus den gleichen Straßen. Während die Basisverfahren inzwischen<br />
breit industriell eingesetzt werden, forscht die Gruppe von <strong>Peter</strong> <strong>Sanders</strong> an Verallgemeinerungen,<br />
zum Beispiel Berücksichtigung von Staumeldungen, Energieverbrauch oder öffentlichen<br />
Verkehrsmitteln. Auch weitere Anwendungen wie Logistikoptimierung, Vermittlung von<br />
Mitfahrgelegenheiten oder Verkehrssimulation spielen eine Rolle.<br />
Suchmaschinen und Datenbanken: Entscheidend für die Erschließung großer Datenmengen<br />
(zum Beispiel Webseiten, Textsammlungen, Unternehmensinformationssysteme, Gendatenbanken,<br />
geografische Informationssysteme) sind Indexdatenstrukturen, die den schnellen<br />
Zugriff auf alle Daten ermöglichen, in denen bestimmte Suchmuster auftauchen. Im Grunde<br />
ist dies eine Fortsetzung der Karteikästen und Stichwortverzeichnisse aus der Vor-<br />
Computer-Zeit, jedoch mit den Möglichkeiten moderner Technologie und neuen Herausforderungen<br />
durch die gewaltigen involvierten Datenmengen. <strong>Peter</strong> <strong>Sanders</strong> hat hier mehrere<br />
grundlegende Ergebnisse erzielt. Zum Beispiel hat er ein besonders effizientes Verfahren zur<br />
Berechnung von sogenannten Suffix-Tabellen entwickelt, die die schnelle Suche beliebiger<br />
Muster in Textsammlungen ermöglichen. Auch bei der Auswertung typischer Suchmaschinenanfragen,<br />
bei der alle Dokumente gesucht werden, die eine vorgegebene Liste von<br />
Schlüsselwörtern enthalten, ist sein Ansatz die schnellste bekannte Lösung. Gegenwärtig<br />
beschäftigt er sich mit Indexen, die auch bei Schreibfehlern noch funktionieren (zum Beispiel<br />
bei Adressangaben) sowie mit einer neuen Technologie für Unternehmensdatenbanken, die<br />
klassische Datenbankanfragen (SQL) um Größenordnungen beschleunigen könnten.<br />
Parallelverarbeitung: Über Jahrzehnte hinweg haben Computer in kurzen Zeitabständen ihre<br />
Rechengeschwindigkeit verdoppelt. Aus fundamentalen technologischen Gründen ist diese<br />
Zeit vorbei und Leistungssteigerung lässt sich vor allem durch den parallelen Einsatz vieler<br />
Hardwarekomponenten (zum Beispiel Prozessoren oder Speichermodule) erreichen. <strong>Peter</strong><br />
<strong>Sanders</strong> beschäftigt sich auch hier mit dem grundlegenden Werkzeugkasten an Algorithmen.<br />
Neben parallelen Versionen der klassischen „basic toolbox“ sind dies grundlegende Kommunikationsmuster<br />
zwischen Rechnern und Lastverteilungsmethoden zur gleichmäßigen Auslastung<br />
aller Hardwarekomponenten. Ein überraschendes Ergebnis ist zum Beispiel das Fol-<br />
Forschungsschwerpunkte – Gottfried Wilhelm Leibniz-Preis 2012<br />
<strong>Prof</strong>essor <strong>Peter</strong> <strong>Sanders</strong><br />
Stand Januar 2012<br />
<strong>DFG</strong>
Forschungsschwerpunkte – Gottfried Wilhelm Leibniz-Preis 2012<br />
<strong>Prof</strong>essor <strong>Peter</strong> <strong>Sanders</strong><br />
Stand Januar 2012<br />
Seite 3 von 3<br />
gende: Man speichert jeweils zwei Kopien aller Datenobjekte an zufälligen Orten (Rechner,<br />
Festplatten oder Speichermodule). Anschließend können beliebige Teilmengen dieser Objekte<br />
unter fast perfekt gleichmäßiger Auslastung aller Komponenten parallel verarbeitet<br />
werden.<br />
Zwischen den oben beschriebenen vielfältigen Themen gibt es immer wieder unerwartete<br />
Querverbindungen. Zum Beispiel liefert eine Uminterpretation der oben beschriebenen zufälligen<br />
Lastverteilung einen Ansatz für besonders platzsparende Indexdatenstrukturen. Ein von<br />
<strong>Peter</strong> <strong>Sanders</strong> entwickeltes Verfahren zur Zerlegung von Netzwerken in ungefähr gleich große,<br />
kompakte Stücke (Graphpartitionierung) eignet sich sowohl zur Verbesserung bestimmter<br />
Routenplanungsverfahren als auch zur Lastverteilung bei komplexen numerischen Simulationen<br />
auf Superrechnern. Umgekehrt helfen Strategien zur Hierarchieextraktion aus der<br />
Routenplanung bei der Graphpartitionierung.<br />
<strong>DFG</strong>