31.07.2015 Aufrufe

Loadbalancing auf Parallelrechnern mit Hilfe endlicher Dimension ...

Loadbalancing auf Parallelrechnern mit Hilfe endlicher Dimension ...

Loadbalancing auf Parallelrechnern mit Hilfe endlicher Dimension ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

5.6 Synchron oder Asynchron?hier wie beim FOS der zweitgrößte Eigenwert zu Rate gezogen. Die Praxis zeigt, dass dieabschließenden Fehler <strong>auf</strong> diese Weise zumindest in der Größenordnung von 1 2 bleiben.Endliche Verfahren wie OPS oder OPT werden nicht vorzeitig abgebrochen, auch wenndies manchmal sinnvoll wäre; vergleiche hierzu zum Beispiel die Konvergenz für das GitterG 24 in Abbildung 2.4. Stattdessen werden immer m − 1 Schritte durchgeführt, wobeim die Anzahl verschiedener Eigenwerte ist, inklusive 1. Allerdings werden bei der Berechnungder Eigenwerte solche Eigenwerte als gleich angesehen und da<strong>mit</strong> nur einmalgezählt, die absolut näher als 10 −12 beieinander liegen. (Eine vergleichbare relative Genauigkeitkann <strong>mit</strong> den üblichen Berechnungsmethoden für Eigenwerte nicht garantiertwerden.)5.6 Synchron oder Asynchron?Bei <strong>Dimension</strong>-Exchange-Verfahren ist die Reihenfolge der Kommunikation eines Prozessors<strong>mit</strong> seinen Nachbarn durch die Einfärbung des Graphen strikt festgelegt. DerDatenaustausch erfolgt paarweise durch eine Sende-Empfangs-Operation (Sendrecv inMPI).Da der gleichzeitige Datenaustausch <strong>mit</strong> mehreren Nachbarknoten, wie er für Diffusionsverfahrenoptimal wäre, <strong>auf</strong> den meisten Systemen nicht durchführbar ist, wird auchbei diesen Verfahren einzeln <strong>mit</strong> allen Nachbarn kommuniziert. Am einfachsten ist es,hierzu die sowieso vorhandene Einfärbung zu benutzen und genauso zu verfahren, wiebeim <strong>Dimension</strong>-Exchange auch. Alternativ hierzu wurde folgende asynchrone Alternativeuntersucht: Zu Beginn eines Schrittes wird für alle Nachbarn ein nicht-blockierendesSenden (Isend) des eigenen Lastwertes initialisiert. In der dar<strong>auf</strong>folgenden Schleife werdenLastinformationen von den Nachbarn nacheinander, aber in beliebiger Reihenfolge,empfangen und weiterverarbeitet. Erst danach werden die Sendeoperationen abgeschlossen.Verfahren, die nach diesem Prinzip arbeiten, bekommen den Zusatz Async-.Die schnellsten Diffusionszeiten erreicht man durch eine Kombination von Vorwärts-Rückwärts-Iteration und asynchroner Kommunikation; bezeichnet wird dies <strong>mit</strong> FB-Async-. Zwei <strong>auf</strong>einander folgende Kommunikationen über eine spezielle erste oder letzteKante werden zusammengefasst und nur für die übrigen ”<strong>mit</strong>tleren“ Kanten wird asynchroneKommunikation verwendet.5.7 Verwendete Rechner und SoftwareDie Zeitmessungen wurden <strong>auf</strong> drei verschiedenen <strong>Parallelrechnern</strong> bzw. Rechnerclusterndurchgeführt.ALiCEALiCE (Alpha-Linux-Cluster-Engine,www.theorie.physik.uni-wuppertal.de/Computerlabor/ALiCE.phtml) ist der Parallelrechnerder Universität Wuppertal. Er besteht aus 128 Compaq DS10 Workstations.Jeder einzelne Rechner ist <strong>mit</strong> einem Alpha 21264 EV67 Prozessor <strong>mit</strong> 616 MHz113

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!