Schedule-Längen erwartungsgemäÿ, da zu oft schlechtere Mappings übernommen werden. Die Verschlechterung bei sehr kleinen Wahrscheinlichkeiten ist dagegen nur sehr gering und kann daher kaum als Beleg für Tendenzen dienen. Trotzdem unterstützt sie die Erwartung, dass bei zu geringen Einstellungen das Verlassen lokaler Minima nicht mehr möglich ist und häuger schlechtere Ergebnisse erzielt werden. 4.6 Reaktion auf die Beschaenheit der Task-Graphen (kleine Taskanzahlen) Die Mapper reagieren teilweise recht deutlich auf die verschiedenen Task-Graphen. Es macht also Sinn deren Eigenschaften bei der Mapperauswahl in Betracht zu ziehen. Beispielsweise kommt der Greedy-Mapper gut mit niedrigem Vorgängerabstand zurecht, während der ACO- Mapper sich dort besonders schwer tut. Der Greedy-Mapper liefert in den Messungen dann sogar kürzere Schedule-Längen als der ACO-Mapper mit 10 Ameisen. Auällig ist auÿerdem, dass sich manche schlechte Eignungen durch Erhöhung der Durchgangszahlen ausgleichen lassen, wie beim SA-Mapper auf inkonsistenten Systemen, bei anderen bleibt dagegen der Unterschied über die Durchgänge nahezu konstant (z.B. Konsistenz beim ACO-Mapper mit 10 Ameisen). 5 Zusammenfassung und Ausblick Zusammenfassend können wir feststellen, dass die untersuchten Meta-Heuristiken erfolgreich zum Mapping paralleler Programme eingesetzt werden können und dass sie im Vergleich zu dem klassischen Greedy-Mapper bessere Ergebnisse liefern. Dies muss allerdings mit einer höheren Laufzeit für den Scheduling-Prozess bezahlt werden. Daher sind Meta-Heuristiken primär nur für statisches Scheduling zu empfehlen. Hier kann der Zeitbedarf zur Berechnung der Schedules durch entsprechende Parametrierung an die gewünschte Güte angepasst werden. Erhöht man die Zahl der Individuen bzw. Durchläufe so erhält man auch bessere Schedules. Während im vorliegenden Bericht nur das Mapping durch eine Meta-Heuiristik ausgeführt wurde, soll in künftigen Arbeiten auch der Priorsierungsschritt einbezogen werden. Es ist zu erwarten, dass dadurch die Qualität der Lösungen weiter erhöht werden kann. Literatur 1. Abraham, A., Buyya, R., Nath, B.: Nature's Heuristics for Scheduling Jobs on Computational Grids, In: The 8th IEEE International Conference on Advanced Computing and Communications (ADCOM 2000). IEEE Computer Society (2000) 2. Ahmad, I., Kwok, Y.-K.: Optimal and Near-Optimal Allocation of Precedence-Constrained Tasks to <strong>Parallel</strong> Processors: Defying the High Complexity Using Eective Search Techniques, In: ICPP '98: Proceedings of the 1998 International Conference on <strong>Parallel</strong> Processing. IEEE Computer Society (1998) 424431 3. Bank, M., Hönig, U., Schimann, W.: An ACO-based approach for scheduling task graphs with communication costs, In: Proceedings of the 2005 International Conference on <strong>Parallel</strong> Processing (ICPP 2005). IEEE Computer Society (2005) 623629 4. Bansal, S., Kumar, P., Singh, K.: An improved duplication strategy for scheduling precedence constrained graphs in multiprocessor systems, In: IEEE Transactions on <strong>Parallel</strong> and Distributed Systems, Vol. 14, No. 6. IEEE Computer Society (2003) 5. Blum, C., Roli, A.: Metaheuristics in Combinatorial Optimization: Overview and Conceptual Comparison, In: ACM Computing Surveys, Vol. 35, No. 3. ACM Press (2003) 268308 6. Chapin, S.J. et al.: Benchmarks and Standards for the Evaluation of <strong>Parallel</strong> Job Schedulers, In: Job Scheduling Strategies for <strong>Parallel</strong> Processing: IPPS/SPDP'99 Workshop, Lecture Notes in Computer Science, Vol. 1659. Springer-Verlag (1999) 6790 7. Davidovi¢, T., Crainic, T.G.: New Benchmarks for Static Task Scheduling on Homogeneous Multiprocessor Systems with Communication Delays. Centre de Recherche sur les Transports, CRT-2003-04, Université de Montréal (2003) 46
8. Davidovi¢, T., Crainic, T.G.: Benchmark-Problem Instances for Static Task Scheduling of Task Graphs with Communication Delays on Homogeneous Multiprocessor Systems. Centre de Recherche sur les Transports, CRT- 2004-15, Université de Montréal (2004) 9. Dorigo, M., Stützle, T.: Ant Colony Optimization. MIT Press (2004) 10. Esquivel, S., Gatica, C., Gallard, R.: A Genetic Approach using Direct Representation of Solutions for the Paralell Task Scheduling Program, In: Journal of Computer Science and Technology, Vol. III. ISTEC (2000) 713 11. Garey, M.R., Johnson, D.S.: Computers and Intractability: A Guide to the Theory of NP-Completeness. W.H. Freeman (1979) 12. Goldberg, D.E.: Genetic Algorithms in search, optimization and machine learning. Addison-Wesley (1989) 13. Grajcar, M.: Genetic list scheduling algorithm for scheduling and allocation on a loosely coupled heterogeneous multiprocessor system, In: DAC '99: Proceedings of the 36th ACM/IEEE conference on Design automation. ACM-Press (1999) 280285 14. Hagras, T., Jane£ek, J.: A Simple Scheduling Heuristic for Heterogeneous Computing Environments, In: Proceedings of the Second International Symposium on <strong>Parallel</strong> and Distributed Computing, IEEE Computer Society (2003) 15. Hönig, U., Schimann, W.: A <strong>Parallel</strong> BranchandBound Algorithm for Computing Optimal Task Graph Schedules, In: Proceedings of the Second International Workshop on Grid and Cooperative Computing (GCC'03), Lecture Notes in Computer Science, Vol. 3033. Springer-Verlag, Berlin Heidelberg New York (2004) 1825 16. Hönig, U., Schimann, W.: Fast optimal task graph scheduling by means of an optimized parallel A ∗ -Algorithm, In: Proceedings of the International Conference on <strong>Parallel</strong> and Distributed Processing Techniques and Applications (PDPTA'04), Vol. 2. CSREA Press (2004) 842848 17. Hönig, U., Schimann, W.: A comprehensive Test Bench for the Evaluation of Scheduling Heuristics, In: Proceedings of the sixteenth IASTED International Conference on <strong>Parallel</strong> and Distributed Computing and Systems (PDCS '04) ACTA Press (2004) 437442 18. Hönig, U., Schimann, W.: Comparison of nature inspired and deterministic scheduling heuristics considering optimal schedules, In: Adaptive and Natural Computing Algorithms. Springer Wien NewYork (2005) 361364 19. Kal, M., Ahmad, I.: Optimal task assignment in heterogeneous computing systems, In: 6th Heterogeneous Computing Workshop (HCW '97). IEEE Computer Society (1997) 20. Kirkpatrick, S., Gelatt (Jr.), C.D., Vecchi, M.P., Optimization by Simulated Annealing, In: Science, Vol. 220, No. 4598. AAAS (1983) 671680 21. Kwok, Y.-K., Ahmad, I.: Ecient Scheduling of Arbitrary Task Graphs to Multiprocessors Using a <strong>Parallel</strong> Genetic Algorithm, In: Journal of <strong>Parallel</strong> and Distributed Computing, Vol. 47, No. 1. Elsevier (1997) 5877 22. Kwok, Y.-K., Ahmad, I.: Benchmarking the Task Graph Scheduling Algorithms, In: Proceedings of the 12th International <strong>Parallel</strong> Processing Symposium, IEEE Computer Society (1998) 531537 23. Kwok, Y.-K., Ahmad, I.: Static Scheduling Algorithms for Allocating Directed Task Graphs to Multiprocessors, In: ACM Computing Surveys, Vol. 31, No. 4. ACM (1999) 406471 24. Kwok, Y.-K., Ahmad, I.: Benchmarking and Comparison of the Task Graph Scheduling Algorithms, In: Journal of <strong>Parallel</strong> and Distributed Computing, Vol. 59, No. 3. Elsevier (1999) 381422 25. Merkle, D., Middendorf, M., Schmeck, H.: Ant Colony Optimization for Resource-Constrained Project Scheduling, In: IEEE Transactions on Evolutionary Computation, Vol. 6, No. 4. IEEE Computer Society (2002) 333346 26. Nabhan, T.M., ZoMaia, A.Y.: A <strong>Parallel</strong> Simulated Annealing Algorithm with Low Communication Overhead, In: IEEE Transactions on <strong>Parallel</strong> and Distributed Systems, Vol. 6, No. 12. IEEE Computer Society (1995) 12261233 27. Nanda, A.K., DeGroot, D., Stenger, D.L.: Scheduling Directed Task Graphs on Multiprocessors using Simulated Annealing, In: Proceedings of the 12th International Conference on Distributed Computing Systems. IEEE Computer Society Press (1992) 2027 28. Ritchie, G.: Static Multi-processor Scheduling with Ant Colony Optimisation & Local Search. Master Thesis, School of Informatics, University of Edinburgh, EDI-INF-IM030077 (2003) 29. Ritchie, G., Levine, J.: A hybrid ant algorithm for scheduling independent jobs in heterogeneous computing environments, In: Proceedings of the 23rd Workshop of the UK Planning and Scheduling Special Interest Group (PLANSIG 2004) 30. Schöneburg, E., Heinzmann, F., Feddersen, S.: Genetische <strong>Algorithmen</strong> und Evolutionsstrategien. Addison- Wesley (1994) 31. Stützle, T.: An Ant Approach to the Flow Shop Problem, In: Proceedings of the 6th European Congress on Intelligent Techniques & Soft Computing (EUFIT'98), Vol. 3. ELITE Foundation (1998) 15601564 32. Tobita, T., Kasahara, H.: A standard task graph set for fair evaluation of multiprocessor scheduling algorithms, Journal of Scheduling, Vol. 5, No. 5. John Wiley & Sons (2002) 379394 33. YarKhan, A., Dongarra, J.: Experiments with Scheduling Using Simulated Annealing in a Grid Environment, In: GRID '02: Proceedings of the Third International Workshop on Grid Computing, Lecture Notes in Computer Science, Vol. 2536. Springer-Verlag, Berlin Heidelberg New York (2002) 232242 34. Xie, X., Yao, W., You, J: An Optimal Task Scheduling for Cluster Systems using Task Duplication, In: Proceedings of the Second International Workshop on Grid and Cooperative Computing (GCC'03), Lecture Notes in Computer Science, Vol. 3033. Springer-Verlag, Berlin Heidelberg New York (2004) 863870 47
- Seite 1 und 2: GESELLSCHAFT FÜR INFORMATIK E.V. P
- Seite 3: GESELLSCHAFT FÜR INFORMATIK E.V. P
- Seite 6 und 7: schaftler S.C. Hu zunächst ein 3-P
- Seite 8 und 9: [Leh90] [LGR88] Lehmann-Emilius, L.
- Seite 11 und 12: Wolfgang Händler und die Erlanger
- Seite 13 und 14: Models for Parallel Computing: Revi
- Seite 15 und 16: has the responsibility for load bal
- Seite 17 und 18: etween L and o it is possible to mo
- Seite 19 und 20: commit completely to shared memory
- Seite 21 und 22: Systolic computing is a pipelining-
- Seite 23 und 24: Practical Relevance. While dataow c
- Seite 25 und 26: epresents a unique way of exploitin
- Seite 27 und 28: 12. Guy Blelloch. Programming Paral
- Seite 29: 75. D. B. Skillicorn. miniBSP: a BS
- Seite 33 und 34: 21. PARS-Workshop (Full Papers) Sei
- Seite 35 und 36: D-Grid Volker Gülzow DESY in Hambu
- Seite 37 und 38: estimmten Rechner des Zielsystems z
- Seite 39 und 40: Das im Jahr 1983 von Kirkpatrick et
- Seite 41 und 42: schreitet selektiert. Die Wahrschei
- Seite 43 und 44: Die Architekturbeschreibungen denie
- Seite 45: Abbildung 3. Schedule-Länge bei gr
- Seite 49 und 50: Verbindung zu dieser Adresse her. D
- Seite 51 und 52: und gegenwärtig geringen Verbreitu
- Seite 53 und 54: Wiedererrichtung von Verteilbäumen
- Seite 55 und 56: gen, andererseits auch Updatepakete
- Seite 57 und 58: Segments Left Der Wert dieses 8 Bit
- Seite 59 und 60: des RSA-Algorithmus überprüft. Al
- Seite 61 und 62: auswirkt. Sollten diese Überprüfu
- Seite 63 und 64: Sec Arithmetisches Mittel der Stand
- Seite 65 und 66: Reparallelisierung und Migration vo
- Seite 67 und 68: 3 Reparallelisierung von OpenMP-Kon
- Seite 69 und 70: 3.2 Reduktionen Reduktionen fassen
- Seite 71 und 72: Zustand der Applikation gesichert u
- Seite 73 und 74: Erlangen (RRZE) betrieben und beste
- Seite 75 und 76: 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 K
- Seite 77 und 78: ÑÙÐØÒÈÊÅÓÒÈÖÐÐÐÓÑ
- Seite 79 und 80: ÙØØ××ÑÙÐØÓÒÛÓÙÐÕÙ
- Seite 81 und 82: ÒÑ×××ÒÒÔÙØÒÓÙØÔÙØ
- Seite 83 und 84: ××ÒØÑÓiÒÖÚØÑÓi+1ºÌÑ
- Seite 85 und 86: 160 140 pramsim pramsim 2 threads p
- Seite 87 und 88: ÔÔÐØÓÒÔÖÓÖѺÐ×ÓØØ
- Seite 89 und 90: ÓØÚÖÝÒÖÒÙÐÖØÝÓØ×Ñ
- Seite 91 und 92: Of course, additional parallelism p
- Seite 93 und 94: combine policies are also predened
- Seite 95 und 96: done on the PPE, we need to have pr
- Seite 97 und 98:
8 7 Speedup Pi speedup 8 7 Speedup
- Seite 99 und 100:
cumbersome syntax, as shown in Sect
- Seite 101 und 102:
hig sind. Der Datenaustausch erfolg
- Seite 103 und 104:
Dieses Wissen wird bei der leistung
- Seite 105 und 106:
erechnen. Jobs vom Typ JT 1 würden
- Seite 107 und 108:
von der ersten auf die zweite Ausfa
- Seite 109 und 110:
short % DONE medium % DONE long % D
- Seite 111 und 112:
4.2 Kombinierte Verteilung Das komb
- Seite 113 und 114:
5 Zusammenfassung Die Simulation de
- Seite 115 und 116:
the performance advantage of MPI wi
- Seite 117 und 118:
system in order to t to the VMM. Th
- Seite 119 und 120:
Once the topology is discovered, an
- Seite 121 und 122:
12 Intel MPI Benchmark: PingPong cl
- Seite 123 und 124:
200 180 polopt - High Voltage Switc
- Seite 125 und 126:
Auswirkungen von Multicore- und Mul
- Seite 127 und 128:
Tower sehr nahe kommt. Alle fliegen
- Seite 129 und 130:
Speichercontroller besitzen und fü
- Seite 131 und 132:
Die Dateioganisation ist in Bild 2
- Seite 133 und 134:
Das hier dargestellte schwache Absc
- Seite 135 und 136:
Objektorientierte Programmierung vo
- Seite 137 und 138:
Abbildung 1. Gitterzelle mit E- und
- Seite 139 und 140:
Die Funktion zur Berechnung des H-F
- Seite 141 und 142:
und stellt eine Kapselung des eindi
- Seite 143 und 144:
in p 3D-Subgitter ungefähr gleiche
- Seite 145 und 146:
S-Net: A Declarative Approach towar
- Seite 147 und 148:
Using the S-Net support for variant
- Seite 149 und 150:
snet_handle_t *foo( snet_handle_t *
- Seite 151 und 152:
A distinctive feature of S-Net is t
- Seite 153 und 154:
net XYZ connect ((A..B | C..D)!)*{}
- Seite 155 und 156:
References 1. Sutter, H.: The free
- Seite 157 und 158:
ausüben. Beweisbare Aussagen über
- Seite 159 und 160:
Mark MPI Program Translate into Aut
- Seite 161 und 162:
#include #include #include "mpi.h
- Seite 163 und 164:
werden. Die Ergebnisse der Verifika
- Seite 165 und 166:
Literatur [AD94] R. Alur and D.L. D
- Seite 167 und 168:
ØÖÒ×ÓÖÑØÓÒ nÑÒ×ÓÒÐ
- Seite 169 und 170:
×ØÖÙØÒÙÑÖ׸ÛÖm×Ø×Þ
- Seite 171 und 172:
ÖÖÓÖ׺Ì×Ý×ØÑ×ÚÖÝÖ
- Seite 173 und 174:
ÓÑÔÙØØÓÒ×ÓÒ¾ÔÖÓ××
- Seite 175 und 176:
º½¼ºËØÓØÒ×ÑÐÚÖÕÙØ
- Seite 177 und 178:
problem considered here, the sets a
- Seite 179 und 180:
after extending it by 2 cells canno
- Seite 181 und 182:
algorithm does not use any BDD-spec
- Seite 183 und 184:
7 Summary and Outlook The results o
- Seite 185 und 186:
Graphics Processing Units as Fast C
- Seite 187 und 188:
The GTX version of the GeForce 8800
- Seite 189 und 190:
Nvidia has implemented highly optim
- Seite 191 und 192:
70,000 60,000 Performance of TRSM f
- Seite 193 und 194:
the Figure represents the sgemm per
- Seite 195 und 196:
21. PARS-Workshop (Poster) Seite Im
- Seite 197 und 198:
Implementing APL-like data parallel
- Seite 199 und 200:
- Horizontal and vertical rotation
- Seite 201 und 202:
Instruction Fetch Fetch Operands Lo
- Seite 203 und 204:
Parallelisierung der automatischen
- Seite 205 und 206:
Abbildung 2. Beispielaufnahmen (lin
- Seite 207 und 208:
Bioinspired Parallel Algorithms for
- Seite 209 und 210:
Hybride parallele Implementierung v
- Seite 211 und 212:
ÒÓÖÑÖØØÒËÙÒÒ 29 28 27 2
- Seite 213 und 214:
Parallelisierung von SAT-basierter
- Seite 215 und 216:
1 while ( d e c i d e ( ) ) do 2 pr
- Seite 217 und 218:
eine Lösung nicht zuletzt durch d
- Seite 219 und 220:
ØÓÖ½ÐÒ×ÑÖÐ×ÖÒÒÙغ
- Seite 221 und 222:
ËÔÖÒÖØÚÓÒ¾¸»×ÖËÈ×
- Seite 223 und 224:
ÇØÓÖÒØÖØÅ××¹È××Ò¹
- Seite 225 und 226:
ÐØÒµº ÑÒØÖغ´ÍÑÔÖØ
- Seite 227 und 228:
3.Workshop Grid-Technologie für de
- Seite 229 und 230:
3. Workshop „Grid-Technologie fü
- Seite 231 und 232:
Inhaltsverzeichnis Untersuchung der
- Seite 233 und 234:
Untersuchung der Laufzeit Thread-ba
- Seite 235 und 236:
300 250 Laufzeit 200 150 100 50 AMD
- Seite 237 und 238:
Variablen für andere Threads auf d
- Seite 239 und 240:
5 Literatur Literatur [1] www.knopp
- Seite 241 und 242:
ÈÐØÞÖÙÒ ÙÒ ÈÖÓÖ×ÖÙ
- Seite 243 und 244:
140,00 120,00 100,00 Zeit in Sekund
- Seite 245 und 246:
ÃÙ ÒÓÑÑÒº ËÝÒÖÓÒ×Ø
- Seite 247 und 248:
Ein ZA-basiertes Modell zur Simulat
- Seite 249 und 250:
3. Ein ZA-Modell für die single-fi
- Seite 251 und 252:
Teilautomaten in die entsprechend e
- Seite 253 und 254:
6. Auswertung Das vorgestellte ZA-M
- Seite 255 und 256:
Lehrstuhl für Rechnerarchitektur u
- Seite 257 und 258:
Figure 2: Multi-cluster example. Pr
- Seite 259 und 260:
(a) Weight vector: {220, 200, 180}
- Seite 261 und 262:
1.2 1.1 Relative Load 1 0.9 0.8 0.7
- Seite 263 und 264:
SCEs und Grid-Computing T. Pingel,
- Seite 265 und 266:
Automatisierungsprozess wird ledigl
- Seite 267 und 268:
2.3 Klassifikation Die Projekte wur
- Seite 269 und 270:
5. Einsammeln aller Output-Dateien,
- Seite 271 und 272:
sowie gfeval() auf Backend- beziehu
- Seite 273 und 274:
Investigations have shown that Tote
- Seite 275 und 276:
For α a value of 1 8 , which is cl
- Seite 277 und 278:
6 Grid Experiments A major concern
- Seite 279 und 280:
Acknowledgements We thank the D-Gri
- Seite 281 und 282:
User Problem Front-End Results Jobs
- Seite 283 und 284:
schlagen, die die Mächtigkeit besi
- Seite 285 und 286:
wird. Prinzipiell sind zwei Variant
- Seite 287 und 288:
287
- Seite 289 und 290:
Abbildung 2: Aufbau eines Unicore G
- Seite 291 und 292:
Abbildung 5: Aufbau eines Unicore-G
- Seite 293 und 294:
293
- Seite 295 und 296:
GESELLSCHAFT FÜR INFORMATIK E.V. P
- Seite 297 und 298:
2. Zur Historie von PARS Bereits am
- Seite 299 und 300:
PARS-Mitteilungen/Workshops: Aufruf
- Seite 301 und 302:
1. Parallelrechner-Algorithmen und
- Seite 303 und 304:
CALL FOR PAPERS 9 th Workshop on Pa
- Seite 305 und 306:
Las Palmas de Gran Canaria, Canary
- Seite 307 und 308:
PARS Einladung zur Mitarbeit in der