2 DiffusionsverfahrenDie zugehörige Fehlerabschätzung lautet∥∥e k ∥ ∥∥2≤ 2 (β opt − 1) k 21 + (β opt − 1) k ∥ ∥e 0 ∥ ∥2.Das Čebyšev-Verfahren ist also geringfügig besser als SOS.2.3 Endliche Diffusionsverfahren: OPS und OPTBei den bisher vorgestellten Verfahren handelt es sich um nicht-endliche Iterationsverfahren,die mehr oder weniger schnell gegen die Gleichverteilung w konvergieren. In[DFM98, DFM99] wurde ein neues Verfahren vorgestellt, das, ähnlich dem cg-Verfahrenzur Lösung linearer Gleichungssysteme, in endlich vielen Schritten die exakte Lösungbestimmt. Dieses Verfahren wird als Optimal Polynomial Scheme (OPS) bezeichnet.Das Verfahren basiert dar<strong>auf</strong>, dass Polynome p OPSkaus der Menge Π k berechnet werden,die bezüglich des folgenden Innenproduktes orthogonal sind:〈p, q〉 =m∑j=2ω j p(µ Diffj )q(µ Diffj ) (2.1)<strong>mit</strong> ω j = 1 − µ Diffj . Solche Orthogonalpolynome lassen sich <strong>mit</strong> <strong>Hilfe</strong> einer Dreitermrekursion〈berechnen. Das (m − 1)-te Polynom ist zu sich selbst orthogonal, d. h. es istpOPSm−1 , 〉 pOPS m−1 = 0 und so<strong>mit</strong> gilt pOPSm−1 (µDiff i ) = 0 für i = 2, . . . , m.Um das Verfahren durchführen zu können, müssen zunächst alle Eigenwerte µ Diffi derDiffusionsmatrix M Diff bekannt sein. Außerdem müssen vorab Parameter α i , β i und γ iberechnet werden. Für k = 0, . . . , m − 1 sind die Polynome p OPSkgegeben durchp OPS0 (t) = 1p OPS1 (t) = 1 γ 1[(α 1 − t) p OPS0 (t)]p OPSk (t) = 1 [](α k − t) p OPSk−1γ (t) − β kp OPSk−2 (t) , k = 2, . . . , m − 1k<strong>mit</strong>〈tpOPSk−1α k =, 〉pOPS k−1〈pOPSk−1 , 〉 , k = 1, . . . , m − 1 (2.2)pOPS k−1〈pOPSk−1β k = γ , 〉pOPS k−1k−1 〉, k = 2, . . . , m − 1 (2.3)〈pOPSk−2 , pOPS k−2γ 1 = α 1 − 1, γ k = α k − 1 − β k , k = 2, . . . , m − 1 . (2.4)Sind diese Größen einmal berechnet, dann kann das eigentliche in Algorithmus 2.4dargestellte OPS-Verfahren durchgeführt werden.30
w 1 = 1 γ 1[α1 w 0 − M Diff w 0]x 1 = 1 γ 1αA Diff T w 0for k = 2, . . . , m − 1 dow k = 1 [γ αk kw k−1 − M Diff w k−1 − β k w[k−2]]x k = 1γ k(α k − 1) x k−1 − αA Diff T w k−1 − β k x k−2end for2.3 Endliche Diffusionsverfahren: OPS und OPTAlgorithmus 2.4: OPS-VerfahrenAllgemein gilt bei polynomialen <strong>Loadbalancing</strong>-Verfahren nach Lemma 2.17 für dieFehlerm∑e k = p k (µ Diffi )z i ,i=2wobei die z i wieder Eigenvektoren von M Diff sind. Beachtet man, dass die z i paarweiseorthogonal sind, erhält man nach Übergang zur euklidischen Norm∥∥∥e k ∥∥2m ( = ∑m)p k (µ Diffi ) 2 ‖z i ‖ 2 2 ≤ ∑p k (µ Diffi ) 2 mmax ‖z i‖ 22 i=22 .i=2In [DFM99] wird gezeigt, dass der Faktor ∑ mi=2 p k(µ Diffi ) 2 aus der letzten Abschätzung∑für obige Wahl der ω i in jedem Schritt minimal wird. Insbesondere ist e m−1 =mi=2 p m−1(µ Diffi )z i = 0 und da<strong>mit</strong> w m−1 = w.Die Konvergenz der verschiedenen Diffusionsverfahren (FOS, SOS, Čebyšev und OPS)ist in Abbildung 2.1 am Beispiel eines Zyklus der Länge 12 dargestellt. Für die Parameterα bzw. β wurden in den entsprechenden Verfahren jeweils die optimalen Wertegewählt. In dem Diagramm wird die Überlegenheit des OPS-Verfahrens deutlich, SOSund Čebyšev unterscheiden sich nur geringfügig, FOS ist nicht konkurrenzfähig. In derAbbildung wie auch in allen anderen Beispielen, sofern nicht anders angegeben, beträgtdie Gesamtlast 100·n, wobei n die Anzahl der Knoten ist. Die Ausgangsverteilung wurdezufällig erzeugt. Bei den nicht-endlichen Verfahren wird jeweils iteriert, bis der absoluteFehler in der l 2 -Norm garantiert kleiner ist als 0,5. Denn schließlich muss am Ende derRechnung jeder Lastwert <strong>auf</strong> die nächste natürliche Zahl gerundet werden, da nur ganzeLasteinheiten verschoben werden können. In den Beispielen bleibt also ein relativerFehler von 0,5 %. Beim Vergleich der Verfahren sollte man also nicht vergessen, dassdie Anzahl der Schritte bei den nicht-endlichen Verfahren <strong>mit</strong> wachsender Gesamtlastzunimmt, bei den endlichen Verfahren dagegen konstant ist.Das OPS-Verfahren ist im Gegensatz zu den anderen Verfahren etwas <strong>auf</strong>wändiger zuimplementieren, da zunächst die Skalare α k , β k und γ k aus den Eigenwerten berechnetwerden müssen. In [EFMP99] wird <strong>mit</strong> dem OPT -Verfahren ein anderer Algorithmusvorgestellt, der wesentlich einfacher und un<strong>mit</strong>telbar verständlich ist. Er kommt ohnedie Dreitermrekursion aus, vgl. Algorithmus 2.5. Auch wenn die Eigenwerte im Algorithmus<strong>auf</strong>steigend durchl<strong>auf</strong>en werden, hat die Reihenfolge bei exakter Rechnung keineni=231