[Leh90] [LGR88] Lehmann-Emilius, L.: Rekonfiguration und Rückwärtsfehlerbehebung für Multiprozessoren mit begrenzter Nachbarschaft – Eine Untersuchung zu verteilten Recovery. Dissertation. Arbeitsberichte des IMMD 23, 2, Universität Erlangen-Nürnberg 1990 Lehmann, L.; Distler, G.; Riemer, T.; Höpfl, F.: Fehlerbehebung durch Rücksetzen in Multiprozessor-Baumkonfigurationen. GI-Jahrestagung, Informatik-Fachberichte 188, 399-411, Springer-Verlag, Berlin Heidelberg New York 1988 [Mae77] Maehle, E.: Fehlertolerante <strong>Rechnerstrukturen</strong>. Diplomarbeit, Arbeitsberichte des IMMD, 10, Nr. 4, Universität Erlangen-Nürnberg 1977 [Mae79] [Mae81a] [Mae81b] [Mae82] [Mae84] [Mae85a] Maehle, E.: Entwurf von Selbsttestprogrammen für Mikrocomputer, In: Remmele, W.; Schecher, H. (Hrsg.): Microcomputing, 204-216, Teubner Verlag, Stuttgart 1979 Maehle, E.: Self-Test Programs and Their Application to Fault-Tolerant Multiprocessor Systems. In: Dal Cin, M.; Dilger, E. (eds): Self-Diagnosis and Fault-Tolerance, 186-200, Attempto- Verlag, Tübingen 1981 Maehle, E.: Modulare fehlertolerante Multi-Mikroprozessorsysteme nach dem Baukastenprinzip. VDI-Tagung ’Technische Zuverlässigkeit’, VDI-Bericht Nr. 395, 91-95, Nürnberg 1981 Maehle, E.: Fehlertolerantes Verhalten in Multiprozessoren - Untersuchungen zur Diagnose und Rekonfiguration. Dissertation, Arbeitsberichte des IMMD, 15, Nr. 2, Universität Erlangen- Nürnberg 1982 Maehle, E.: Multiprozessor-Baukasten (DIRMU). Workshop ’Rechnerarchitekturen für die numerische Simulation auf der Basis superschneller Lösungsverfahren’, GMD-Studien 88, 127- 138, St. Augustin 1984 Maehle, E.: Systematischer Entwurf von Mikrocomputer Selbsttestprogrammen. 13. Tagung ’Technische Zuverlässigkeit’, Nürnberg 1985, 145-159, VDE Verlag, Berlin 1985 [Mae85b] Maehle, E.: Fault-Tolerant DIRMU Multiprocessor Configurations. Computer Architecture Technical Committee Newsletter, 51-56, IEEE Computer Society, June 1985 [Mae86] Maehle, E.: Multiprocessor Testbed DIRMU 25: Efficiency and Fault-Tolerance. In: Paul, G., Almasi G. S. (eds): <strong>Parallel</strong> Systems and Computation, Proc. 1986 IBM Europe Institute Seminar on <strong>Parallel</strong> Computing, Oberlech 1986, 149-163, Elsevier Science Publishers B.V. (North Holland) 1988 [Mae02] [MaH81] [MaJ82] [MaW85] Maehle, E.: Fehlertolerante <strong>Parallel</strong>rechnersysteme: Rückblick auf Forschungsarbeiten in Erlangen, Augsburg, Paderborn und Lübeck 1977-2002. <strong>Mitteilungen</strong> der Fachgruppe Fehlertolerierende Rechensysteme, 81-98, St. Augustin 2002 Maehle, E.; Hu, S. C.: Ein Baukastensystem für fehlertolerante Multi-Mikroprozessorsysteme. 11. GI-Jahrestagung, Informatik-Fachberichte 50, 307-317, Springer-Verlag, Berlin Heidelberg New York 1981 Maehle, E.; Joseph, H.: Selbstdiagnose in fehlertoleranten DIRMU Multi-Mikroprozessor- Konfigurationen. GI-Fachtagung ’Fehlertolerierende Rechensysteme’, Informatik-Fachberichte 54, 59-73, Springer-Verlag, Berlin Heidelberg New York 1982 Maehle, E.; Wirl, K.: Erfahrungen mit parallelen Programmen auf DIRMU Multiprozessor- Konfigurationen. GI-Workshop ’<strong>PARS</strong> 85’, Braunschweig 1985, <strong>PARS</strong>-<strong>Mitteilungen</strong> Nr. 3, 102-114, Oktober 1985 8
[MaW86] Maehle, E.; Wirl, K.: <strong>Parallel</strong> Programs for Numerical and Signal Processing on the Multiprocessor System DIRMU 25. In: Reijns, G. L.; Barton, M. H. (eds): Proc. IFIP Working Conference ‘Highly <strong>Parallel</strong> Computers’, Nizza 1986, 29-39, Elsevier Science Publishers B.V. (North Holland) 1987 [MMW86a] Maehle, E.; Moritzen, K.; Wirl, K.: A Graph Model and Its Application to a Fault-Tolerant Multiprocessor System. Proc. Int. Conf. on Fault-Tolerant Computing ‘FTCS-16’, 292-297, Wien 1986 [MMW86b] Maehle, E.; Moritzen, K.; Wirl, K.: Fault-Tolerant Hardware Configuration Management on the Multiprocessor System DIRMU 25. Proc. CONPAR 86, Aachen 1986, Lecture Notes in Computer Science 237, 190-197, Springer-Verlag, Berlin Heidelberg New York London Tokyo 1986 [MMW84] Maehle, E.; Moritzen, K.; Wirl, K.: Experimente mit N-Version Programmierung auf dem DIRMU Multiprozessorsystem. In: Belli, F.; Pfleger, S.; Seifert, M. (Hrsg.): Software- Fehlertoleranz und -Zuverlässigkeit, Informatik Fachberichte 83, 133-142, Springer-Verlag, Berlin Heidelberg New York Tokyo 1984 [Mor84] [Mor86] [MoW83] [MWJ86] [RoM89] [Wir88] Moritzen, K.: System Level Fault Diagnosis in Distributed Systems. Fachtagung ‚Fehlertolerierende Rechensysteme’, Informatik-Fachberichte 84, 301-312, Springer-Verlag, Berlin Heidelberg New York Tokyo 1984 Moritzen, K.: Softwarehilfsmittel zur Programmierung von Multiprozessoren mit begrenzten Nachbarschaften – ein Beitrag zur Konfigurationsverwaltung. Dissertation, Arbeitsberichte des IMMD 19, 7, Universität Erlangen-Nürnberg 1986 Moritzen, K., Wirl, K.: Verteilte Diagnose auf dem DIRMU-Multiprozessorsystem. In: Maehle, E.; Schmitter, E. (Hrsg.): Fehlertolerante Mehrprozessor- und Mehrrechnersysteme, GI- Workshop, Arbeitsberichte des IMMD 16, 11, 176-186, Universität Erlangen-Nürnberg 1983 Maehle, E.; Wirl, K.; Jäpel, D.: Experiments with <strong>Parallel</strong> Programs on the DIRMU Multiprocessor Kit. In: Feilmeier, M.; Joubert, G.; Schendel, U. (eds): <strong>Parallel</strong> Computing 85, Int. Conf. Berlin 1985, 515-520, Elsevier Science Publisher B.V. (North Holland) 1986 Rost, J.; Maehle, E.: Implementation of a <strong>Parallel</strong> Branch-and-Bound Algorithm for the Traveling Salesman Problem. Jesshope, C. R., Reinartz, K. D. (eds): Proc. CONPAR 88, 152-159, Cambridge University Press, Cambridge 1989 Wirl, K.: Multiprozessorsystem DIRMU 25 – Architektur und Anwendungsbeispiele. Bericht Zentrale Aufgaben Informationstechnik, Prozessortechnik 1, Siemens AG, München 1988 9
- Seite 1 und 2: GESELLSCHAFT FÜR INFORMATIK E.V. P
- Seite 3: GESELLSCHAFT FÜR INFORMATIK E.V. P
- Seite 6 und 7: schaftler S.C. Hu zunächst ein 3-P
- Seite 11 und 12: Wolfgang Händler und die Erlanger
- Seite 13 und 14: Models for Parallel Computing: Revi
- Seite 15 und 16: has the responsibility for load bal
- Seite 17 und 18: etween L and o it is possible to mo
- Seite 19 und 20: commit completely to shared memory
- Seite 21 und 22: Systolic computing is a pipelining-
- Seite 23 und 24: Practical Relevance. While dataow c
- Seite 25 und 26: epresents a unique way of exploitin
- Seite 27 und 28: 12. Guy Blelloch. Programming Paral
- Seite 29: 75. D. B. Skillicorn. miniBSP: a BS
- Seite 33 und 34: 21. PARS-Workshop (Full Papers) Sei
- Seite 35 und 36: D-Grid Volker Gülzow DESY in Hambu
- Seite 37 und 38: estimmten Rechner des Zielsystems z
- Seite 39 und 40: Das im Jahr 1983 von Kirkpatrick et
- Seite 41 und 42: schreitet selektiert. Die Wahrschei
- Seite 43 und 44: Die Architekturbeschreibungen denie
- Seite 45 und 46: Abbildung 3. Schedule-Länge bei gr
- Seite 47 und 48: 8. Davidovi¢, T., Crainic, T.G.: B
- Seite 49 und 50: Verbindung zu dieser Adresse her. D
- Seite 51 und 52: und gegenwärtig geringen Verbreitu
- Seite 53 und 54: Wiedererrichtung von Verteilbäumen
- Seite 55 und 56: gen, andererseits auch Updatepakete
- Seite 57 und 58: Segments Left Der Wert dieses 8 Bit
- Seite 59 und 60:
des RSA-Algorithmus überprüft. Al
- Seite 61 und 62:
auswirkt. Sollten diese Überprüfu
- Seite 63 und 64:
Sec Arithmetisches Mittel der Stand
- Seite 65 und 66:
Reparallelisierung und Migration vo
- Seite 67 und 68:
3 Reparallelisierung von OpenMP-Kon
- Seite 69 und 70:
3.2 Reduktionen Reduktionen fassen
- Seite 71 und 72:
Zustand der Applikation gesichert u
- Seite 73 und 74:
Erlangen (RRZE) betrieben und beste
- Seite 75 und 76:
8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 K
- Seite 77 und 78:
ÑÙÐØÒÈÊÅÓÒÈÖÐÐÐÓÑ
- Seite 79 und 80:
ÙØØ××ÑÙÐØÓÒÛÓÙÐÕÙ
- Seite 81 und 82:
ÒÑ×××ÒÒÔÙØÒÓÙØÔÙØ
- Seite 83 und 84:
××ÒØÑÓiÒÖÚØÑÓi+1ºÌÑ
- Seite 85 und 86:
160 140 pramsim pramsim 2 threads p
- Seite 87 und 88:
ÔÔÐØÓÒÔÖÓÖѺÐ×ÓØØ
- Seite 89 und 90:
ÓØÚÖÝÒÖÒÙÐÖØÝÓØ×Ñ
- Seite 91 und 92:
Of course, additional parallelism p
- Seite 93 und 94:
combine policies are also predened
- Seite 95 und 96:
done on the PPE, we need to have pr
- Seite 97 und 98:
8 7 Speedup Pi speedup 8 7 Speedup
- Seite 99 und 100:
cumbersome syntax, as shown in Sect
- Seite 101 und 102:
hig sind. Der Datenaustausch erfolg
- Seite 103 und 104:
Dieses Wissen wird bei der leistung
- Seite 105 und 106:
erechnen. Jobs vom Typ JT 1 würden
- Seite 107 und 108:
von der ersten auf die zweite Ausfa
- Seite 109 und 110:
short % DONE medium % DONE long % D
- Seite 111 und 112:
4.2 Kombinierte Verteilung Das komb
- Seite 113 und 114:
5 Zusammenfassung Die Simulation de
- Seite 115 und 116:
the performance advantage of MPI wi
- Seite 117 und 118:
system in order to t to the VMM. Th
- Seite 119 und 120:
Once the topology is discovered, an
- Seite 121 und 122:
12 Intel MPI Benchmark: PingPong cl
- Seite 123 und 124:
200 180 polopt - High Voltage Switc
- Seite 125 und 126:
Auswirkungen von Multicore- und Mul
- Seite 127 und 128:
Tower sehr nahe kommt. Alle fliegen
- Seite 129 und 130:
Speichercontroller besitzen und fü
- Seite 131 und 132:
Die Dateioganisation ist in Bild 2
- Seite 133 und 134:
Das hier dargestellte schwache Absc
- Seite 135 und 136:
Objektorientierte Programmierung vo
- Seite 137 und 138:
Abbildung 1. Gitterzelle mit E- und
- Seite 139 und 140:
Die Funktion zur Berechnung des H-F
- Seite 141 und 142:
und stellt eine Kapselung des eindi
- Seite 143 und 144:
in p 3D-Subgitter ungefähr gleiche
- Seite 145 und 146:
S-Net: A Declarative Approach towar
- Seite 147 und 148:
Using the S-Net support for variant
- Seite 149 und 150:
snet_handle_t *foo( snet_handle_t *
- Seite 151 und 152:
A distinctive feature of S-Net is t
- Seite 153 und 154:
net XYZ connect ((A..B | C..D)!)*{}
- Seite 155 und 156:
References 1. Sutter, H.: The free
- Seite 157 und 158:
ausüben. Beweisbare Aussagen über
- Seite 159 und 160:
Mark MPI Program Translate into Aut
- Seite 161 und 162:
#include #include #include "mpi.h
- Seite 163 und 164:
werden. Die Ergebnisse der Verifika
- Seite 165 und 166:
Literatur [AD94] R. Alur and D.L. D
- Seite 167 und 168:
ØÖÒ×ÓÖÑØÓÒ nÑÒ×ÓÒÐ
- Seite 169 und 170:
×ØÖÙØÒÙÑÖ׸ÛÖm×Ø×Þ
- Seite 171 und 172:
ÖÖÓÖ׺Ì×Ý×ØÑ×ÚÖÝÖ
- Seite 173 und 174:
ÓÑÔÙØØÓÒ×ÓÒ¾ÔÖÓ××
- Seite 175 und 176:
º½¼ºËØÓØÒ×ÑÐÚÖÕÙØ
- Seite 177 und 178:
problem considered here, the sets a
- Seite 179 und 180:
after extending it by 2 cells canno
- Seite 181 und 182:
algorithm does not use any BDD-spec
- Seite 183 und 184:
7 Summary and Outlook The results o
- Seite 185 und 186:
Graphics Processing Units as Fast C
- Seite 187 und 188:
The GTX version of the GeForce 8800
- Seite 189 und 190:
Nvidia has implemented highly optim
- Seite 191 und 192:
70,000 60,000 Performance of TRSM f
- Seite 193 und 194:
the Figure represents the sgemm per
- Seite 195 und 196:
21. PARS-Workshop (Poster) Seite Im
- Seite 197 und 198:
Implementing APL-like data parallel
- Seite 199 und 200:
- Horizontal and vertical rotation
- Seite 201 und 202:
Instruction Fetch Fetch Operands Lo
- Seite 203 und 204:
Parallelisierung der automatischen
- Seite 205 und 206:
Abbildung 2. Beispielaufnahmen (lin
- Seite 207 und 208:
Bioinspired Parallel Algorithms for
- Seite 209 und 210:
Hybride parallele Implementierung v
- Seite 211 und 212:
ÒÓÖÑÖØØÒËÙÒÒ 29 28 27 2
- Seite 213 und 214:
Parallelisierung von SAT-basierter
- Seite 215 und 216:
1 while ( d e c i d e ( ) ) do 2 pr
- Seite 217 und 218:
eine Lösung nicht zuletzt durch d
- Seite 219 und 220:
ØÓÖ½ÐÒ×ÑÖÐ×ÖÒÒÙغ
- Seite 221 und 222:
ËÔÖÒÖØÚÓÒ¾¸»×ÖËÈ×
- Seite 223 und 224:
ÇØÓÖÒØÖØÅ××¹È××Ò¹
- Seite 225 und 226:
ÐØÒµº ÑÒØÖغ´ÍÑÔÖØ
- Seite 227 und 228:
3.Workshop Grid-Technologie für de
- Seite 229 und 230:
3. Workshop „Grid-Technologie fü
- Seite 231 und 232:
Inhaltsverzeichnis Untersuchung der
- Seite 233 und 234:
Untersuchung der Laufzeit Thread-ba
- Seite 235 und 236:
300 250 Laufzeit 200 150 100 50 AMD
- Seite 237 und 238:
Variablen für andere Threads auf d
- Seite 239 und 240:
5 Literatur Literatur [1] www.knopp
- Seite 241 und 242:
ÈÐØÞÖÙÒ ÙÒ ÈÖÓÖ×ÖÙ
- Seite 243 und 244:
140,00 120,00 100,00 Zeit in Sekund
- Seite 245 und 246:
ÃÙ ÒÓÑÑÒº ËÝÒÖÓÒ×Ø
- Seite 247 und 248:
Ein ZA-basiertes Modell zur Simulat
- Seite 249 und 250:
3. Ein ZA-Modell für die single-fi
- Seite 251 und 252:
Teilautomaten in die entsprechend e
- Seite 253 und 254:
6. Auswertung Das vorgestellte ZA-M
- Seite 255 und 256:
Lehrstuhl für Rechnerarchitektur u
- Seite 257 und 258:
Figure 2: Multi-cluster example. Pr
- Seite 259 und 260:
(a) Weight vector: {220, 200, 180}
- Seite 261 und 262:
1.2 1.1 Relative Load 1 0.9 0.8 0.7
- Seite 263 und 264:
SCEs und Grid-Computing T. Pingel,
- Seite 265 und 266:
Automatisierungsprozess wird ledigl
- Seite 267 und 268:
2.3 Klassifikation Die Projekte wur
- Seite 269 und 270:
5. Einsammeln aller Output-Dateien,
- Seite 271 und 272:
sowie gfeval() auf Backend- beziehu
- Seite 273 und 274:
Investigations have shown that Tote
- Seite 275 und 276:
For α a value of 1 8 , which is cl
- Seite 277 und 278:
6 Grid Experiments A major concern
- Seite 279 und 280:
Acknowledgements We thank the D-Gri
- Seite 281 und 282:
User Problem Front-End Results Jobs
- Seite 283 und 284:
schlagen, die die Mächtigkeit besi
- Seite 285 und 286:
wird. Prinzipiell sind zwei Variant
- Seite 287 und 288:
287
- Seite 289 und 290:
Abbildung 2: Aufbau eines Unicore G
- Seite 291 und 292:
Abbildung 5: Aufbau eines Unicore-G
- Seite 293 und 294:
293
- Seite 295 und 296:
GESELLSCHAFT FÜR INFORMATIK E.V. P
- Seite 297 und 298:
2. Zur Historie von PARS Bereits am
- Seite 299 und 300:
PARS-Mitteilungen/Workshops: Aufruf
- Seite 301 und 302:
1. Parallelrechner-Algorithmen und
- Seite 303 und 304:
CALL FOR PAPERS 9 th Workshop on Pa
- Seite 305 und 306:
Las Palmas de Gran Canaria, Canary
- Seite 307 und 308:
PARS Einladung zur Mitarbeit in der