22.02.2013 Aufrufe

Institut für Mathematik der Universität Augsburg - am Institut für ...

Institut für Mathematik der Universität Augsburg - am Institut für ...

Institut für Mathematik der Universität Augsburg - am Institut für ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

dently and symmetrically un<strong>der</strong> rotations. Its results (as well as the results of similar investigations un<strong>der</strong> different<br />

stochastic models) gave the assertion that the average behavior is very good and absolutely harmless in comparison<br />

with the worst case behavior.<br />

Now it is questionable, whether the average case result is that meaningful for one who has to solve some special<br />

problems, because very bad ex<strong>am</strong>ples are balanced with quite different very good cases. These questions gave<br />

rise for a new “idea” of attacking the “real world behavior”, the so called smoothed analysis. In the last decade, in<br />

particular Spielman & Teng investigated the following model. Take a fixed instance and modify it by small<br />

disturbances in the form of additive Gaussian distributed terms with a fixed variance σ. Then perform such a<br />

thing like an average case-analysis for that set of instances in the neighborhood of the original instance. Repeat<br />

that for all choices of the original center and for all variances σ and describe this kind of worst behavior as a<br />

1<br />

function of σ . These investigations were - especially in the beginning - based and closely related to techniques of<br />

the average-case analysis of Borgwardt. In the meantime the techniques differ very much as a result of adapting<br />

them to the necessities of smoothed analysis. So it is the aim of this bachelor thesis to describe both approaches<br />

in detail, to compare the techniques and results and their special features.<br />

Bachelorarbeiten<br />

B<strong>am</strong>mann Eva: Online Paging bei Informationsvorlauf<br />

Erstgutachter: Prof. Borgwardt, Zweitgutachter: Prof. Jungnickel<br />

Frau B<strong>am</strong>mann beschäftigt sich in ihrer Bachelorarbeit mit einer Spezialaufgabe im Bereich <strong>der</strong> Online-Optimierung,<br />

nämlich dem Online Paging.<br />

Online-Optimierung besteht darin, bei einer langen Sequenz von Anfragen und Aufträgen, <strong>der</strong>en Ausführung auf<br />

verschiedene Arten vorgenommen werden könnten, die einzelnen Anfragen schon zu bearbeiten und über die<br />

Ausführungsweise zu entscheiden, bevor die weiteren Anfragen bekannt sind. Dadurch - also durch die Nichtberücksichtigung<br />

<strong>der</strong> späteren Anfragen bei den aktuellen Entscheidungen - wird aber die Ges<strong>am</strong>tgüte des Ausführungsprozesses<br />

verschlechtert gegenüber <strong>der</strong> Alternativsituation, wo alle Anfragen von vornherein bekannt<br />

wären. Dies erklärt also den Unterschied zwischen Online- und Offline-Optimierung. Online-Optimierung mit<br />

Informationsvorlauf (k) stellt nun ein Zwischending zwischen beiden Extremen dar. Hier sind zum Zeitpunkt <strong>der</strong><br />

Bearbeitung einer Anfrage jeweils k weitere (noch nicht aufgeführte) Aufträge bekannt und können in die<br />

Entscheidung über die Ausführung einbezogen werden. Also ist d<strong>am</strong>it zu rechnen, dass <strong>der</strong> Ges<strong>am</strong>tprozess nun<br />

umso effektiver abläuft, je größer k wird. Interessant ist nun <strong>der</strong> Funktionsverlauf dieser „Kosten“, wenn k vor 0<br />

auf ∞ steigt. Dies kann z.B. mit probabilistischer Analyse, also mit zufälliger Erzeugung von Daten, simuliert und<br />

ausgewertet werden. Für jedes k ergibt sich dann ein Erwartungswert <strong>der</strong> Kosten und somit eine Funktion <strong>der</strong><br />

Erwartungswerte abhängig von k .<br />

Die Thematik dieser Arbeit konzentriert sich nun auf Online-Paging als Spezialproblem <strong>der</strong> Online-Optimierung.<br />

Hierbei werden von einem großen, aber langs<strong>am</strong>en Speicher immer wie<strong>der</strong> Dateien benötigt, um gelesen o<strong>der</strong><br />

bearbeitet zu werden. Erleichtert wird diese Herausfor<strong>der</strong>ung aber nun dadurch, dass man über einen schnellen<br />

Arbeitsspeicher verfügt, in dem man einige Dateien ablegen kann, wenn man glaubt, diese bald wie<strong>der</strong> zu benötigen.<br />

Da bei Fortschreiten <strong>der</strong> Sequenz aber immer neue Dateien (Seiten) gebraucht werden, muss immer<br />

wie<strong>der</strong> Platz im Arbeitsspeicher geschaffen werden, indem eine dort befindliche Seite verdrängt wird. Entscheidend<br />

ist aber nun, welche Seite verdrängt wird. Dies sollte sich naiverweise daran orientieren, wie bald und wie<br />

häufig man die betreffende Seite wie<strong>der</strong> brauchen wird. Diese „naive“ Einschätzung kann mit verschiedenen<br />

mathematischen Spielregeln umgesetzt werden und Frau B<strong>am</strong>mann hatte die Aufgabe, solche Spielregeln zu<br />

finden und <strong>der</strong>en Wirks<strong>am</strong>keit zu testen (auszuwerten). Angewendet und ausgewertet werden 10 verschiedene<br />

Heuristiken. Deren Wirkungsweise unterscheidet sich im Wesentlichen darin, wie die Häufigkeitserfahrungen aus<br />

<strong>der</strong> Vergangenheit <strong>der</strong> Sequenz und dem Informationsverlauf gegeneinan<strong>der</strong> gewichtet und als mathematisches<br />

Vergleichskriterium modelliert werden. (Die beiden letzten nehmen dann auch noch Bezug auf die Annahme,<br />

dass die Verteilung <strong>der</strong> angefragten Seiten bekannt sei).<br />

Filipiak Irene: Nichtglatte Optimierung<br />

Erstgutachter: Prof. Borgwardt, Zweitgutacher: Prof. Jungnickel<br />

78

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!