3 <strong>Dimension</strong>-Exchange-Verfahrenŵ 0 = w 0ˆx 0 = 0for j = 1, . . . , c do {Schleife über die Farben}ŵ j = M j ŵ j−1ˆx j = ˆx j + αA T j ŵj−1end forw 1 = 1 [γ α1 1w 0 − ŵ c]x 1 = − 1 γ 1ˆx cfor k = 2, . . . , m − 1 doŵ 0 = w k−1ˆx 0 = x k−1for j = 1, . . . , c do {Schleife über die Farben}ŵ j = M j ŵ j−1ˆx j = ˆx j + αA T j ŵj−1end forw k = 1 [γ αk kw k−1 − ŵ c − β k w k−2]x k = 1 [γ αk kx k−1 − ˆx c − β k x k−2]end forAlgorithmus 3.7: DE-OPS-VerfahrenBeweis. Zu zeigen ist, dass p m−1 (µ DEi ) = 0 ist für i = 2, . . . , m. Denn <strong>mit</strong> der üblichenZerlegung der Anfangslast w 0 in Eigenvektoren z i von M DE erhält man dannm∑w m−1 = p m−1 (M DE )w 0 = p m−1 (M DE ) z i =i=1m∑p m−1 (µ i )z i = z 1 = w .i=1Zunächst werden die Polynome <strong>mit</strong> dem Faktor γ k skaliert, was <strong>auf</strong> folgende neue Rekursionführt.<strong>mit</strong>ˆp 0 (t) = 1ˆp 1 (t) = (α 1 − t) ˆp 0 (t)ˆp k (t) = (α k − t) ˆp k−1 (t) − ˆβ k ˆp k−2 (t), k = 2, . . . , m − 1α k = 〈tˆp k−1, ˆp k−1 〉〈ˆp k−1 , ˆp k−1 〉 , k = 1, . . . , m − 1ˆβ k =β k= 〈ˆp k−1, ˆp k−1 〉γ k−1 〈ˆp k−2 , ˆp k−2 〉 , k = 2, . . . , m − 1 .Ersetze nun die Polynome ˆp k durch Vektoren f k ∈ R m−1 , f k = ( p k (µ DE2 ), . . . , p k(µ DEm ) ) T .Definiere außerdem M = diag(µ DE2 , . . . , µDE m ), Ω = I − M = diag(ω 2 , . . . , ω m ) und die48
3.5 Endliche <strong>Dimension</strong>-Exchange-VerfahrenBilinearform 〈f, g〉 = ∑ mj=2 ω jf j g j = f T Ωg. Da<strong>mit</strong> erhalten wir eine neue Rekursion fürdie Vektoren f k :<strong>mit</strong>f 0 = (1, . . . , 1) Tf 1 = (α 1 I − M) f 0f k = (α k I − M) f k−1 − ˆβ k f k−2 , k = 2, . . . , m − 1α k = 〈Mf k−1, f k−1 〉〈f k−1 , f k−1 〉= f k−1 T MΩf k−1fk−1 T Ωf , k = 1, . . . , m − 1k−1ˆβ k = 〈f k−1, f k−1 〉〈f k−2 , f k−2 〉 = f k−1 T Ωf k−1fk−2 T Ωf , k = 2, . . . , m − 1k−2Da M DE eine reelle Matrix ist, sind die Eigenwerte µ DEi und die ω i entweder reell oder sietreten in komplex konjugierten Paaren <strong>auf</strong>. Folglich sind die Produkte 〈f, f〉 und 〈Mf, f〉reell – allerdings können sie negativ oder null werden. Im Falle 〈f k−1 , f k−1 〉 = 0 brichtder Algorithmus ab. Im folgenden wird davon ausgegangen, dass kein solcher Break-down<strong>auf</strong>tritt. Dann kann man leicht nachweisen, dass 〈f k , f l 〉 = 0 ist für k ≠ l. Außerdemist keiner der Vektoren f 0 , . . . , f m−2 der Nullvektor, denn sonst gäbe es ein Polynomvom Grad k ≤ m − 2 <strong>mit</strong> m − 1 Nullstellen. Also muss f m−1 = 0 sein, was den Beweisabschließt.Bemerkung 3.16. Bei der Rekursion für die Vektoren f k im letzten Beweis handelt essich um nichts anderes als das komplex symmetrische Lanczos-Verfahren [CW85]. Esberechnet MF = F J <strong>mit</strong> F = (f 0 · · · f m−1 ) und J = tridiag(−1, α i , − ˆβ i+1 ).Auf den Abdruck der Verfahren SDE-OPT sowie SDE-OPS wird hier verzichtet, diealgorithmischen Unterschiede zu den unsymmetrischen Varianten ähneln denen zwischenDE-FOS (Alg. 3.3) und SDE-FOS (Alg. 3.4). Da die Matrix M SDE symmetrisch ist, ist sieim Gegensatz zu M DE <strong>auf</strong> jeden Fall diagonalisierbar und es treten keinerlei komplexeZahlen <strong>auf</strong>. Die Beweise für die Korrektheit von SDE-OPT und SDE-OPS stimmen exakt<strong>mit</strong> denen für OPT und OPS überein, da auch hier in beiden Fällen eine symmetrischeMatrix verwendet wird.Wie bei den Diffusionsverfahren auch wird zukünftig die Abkürzung DE-OPX für einbeliebiges der beiden Verfahren DE-OPS bzw. DE-OPT benutzt, entsprechendes gilt fürSDE-OPX.3.5.1 DE-OPT im nicht-diagonalisierbaren FallBisher ist nicht bekannt, ob überhaupt Graphen und Kantengewichte existieren, so dassM DE nicht diagonalisierbar ist. Dennoch soll in diesem Abschnitt gezeigt werden, dass dasDE-OPT-Verfahren so modifiziert werden kann, dass es auch dann noch eine Gleichverteilungberechnet. Allerdings muss dann statt der Eigenwerte von M DE deren Jordan-Form49