31.07.2015 Aufrufe

Loadbalancing auf Parallelrechnern mit Hilfe endlicher Dimension ...

Loadbalancing auf Parallelrechnern mit Hilfe endlicher Dimension ...

Loadbalancing auf Parallelrechnern mit Hilfe endlicher Dimension ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.4 ADI-SOS und ADI-Čebyševund I ⊗ M (1) vertauscht. Das Verfahren wird entsprechend <strong>mit</strong> ADC-SOS2 bezeichnet.Satz 4.4 und Korollar 4.5 gelten ebenfalls für G (1) ≠ G (2) . Prinzipiell ist sogar eineÜbertragung <strong>auf</strong> d > 2 Faktoren möglich. Die Lastvektoren erhalten dann d-fache Indizesund pro Schritt müssen aus 2 d alten d · 2 d−1 neue Lastwerte berechnet werden. DieAnwendung der Verfahren <strong>auf</strong> höherdimensionale Graphen ist daher nicht sinnvoll.VergleichNun soll untersucht werden, welche der beiden SOS-Versionen für Produktgraphen bessereResultate erzielt. Da das ADI-SOS2 <strong>auf</strong> Grund der Berechnung von Zwischenwertennicht wie die anderen Verfahren durch einfache Matrixoperationen ausgedrückt werdenkann, lassen sich die üblichen Sätze zur Berechnung des Flusses nicht mehr anwenden, sodass im Gegensatz zum ADI-SOS keine theoretischen Resultate angegeben werden können.Experimente zeigen jedoch, dass die Flüsse von ADI-SOS2 nicht nur höher sind alsdie von ADI-SOS erzeugten, sondern sogar ganz erheblich über den schon relativ hohenFlüssen von SDI-SOS liegen. In der Konvergenzgeschwindigkeit unterscheiden sich beideVerfahren dagegen nicht, wie nicht nur Experimente belegen sondern im Folgenden auchgezeigt wird. Der Grund dafür, dass das insgesamt schlechtere ADI-SOS2 hier überhauptbetrachtet wird, ist der, dass sich nur dieses effizient <strong>auf</strong> OPS übertragen lässt.Bevor die Konvergenz von ADI-SOS und ADI-SOS2 verglichen wird, werden neue MatrizenS 1 und S 2 zur Beschreibung der Verfahren eingeführt. Vernachlässigt man jeweilsden ersten Schritt der Verfahren, so kann man die beiden Verfahren so formulieren, dassjeder Schritt nur aus einer Multiplikation <strong>mit</strong> einer (vergrößerten) Matrix besteht:bei ADI-SOS und⎛ ⎞⎜⎝w k−1,k−1w k−1,kw k,k−1w k,kbei ADI-SOS2.( ) (wk−1w k =⎛⎟⎠ = ⎝)0 I(1 − β) I βM (1) ⊗ M (1)} {{ }=:S 1( wk−2w k−1 )⎞0 0 0 I0 0 (1−β)I βM (1) ⊗I⎠0 (1−β)I 0 βI⊗M (1)(1−β) 2 β(1−β)M (1) ⊗I β(1−β)I⊗M (1) β 2 M (1) ⊗M (1)} {{ }=:S 2⎛w k−2,k−2 ⎞⎜w k−2,k−1⎟⎝w k−1,k−2 ⎠w k−1,k−1Satz 4.6. Die Parameter α und β seien optimal gewählt, γ bezeichne den zweitgrößtenEigenwert von M (1) . Dann stimmt der zweitgrößte Eigenwert von S 1 <strong>mit</strong> dem von S 2überein und für diesen gilt γ S = 1−√ 1−γ 2γ.Beweis. Die Eigenwerte und Eigenvektoren von M (1) werden <strong>mit</strong> µ i und z i bezeichnet,also M (1) z i = µ i z i . Wie üblich sei µ 1 = 1 > µ 2 ≥ · · · ≥ µ n und z 1 = w. Sind α und β2optimal gewählt, dann ist γ = µ 2 = −µ n und β = √ .1+ 1−γ 2Das Eigensystem von S 1 lässt sich leicht berechnen. Es istϕ i,j,± = βµ iµ j2±√β 2 µ 2 i µ2 j4+ 1 − β99

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!