originale Druckvorlage - DPG-Tagungen
originale Druckvorlage - DPG-Tagungen
originale Druckvorlage - DPG-Tagungen
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Teilchenphysik Mittwoch<br />
T 403 HEP Computing<br />
Zeit: Mittwoch 14:00–16:00 Raum: HS I<br />
T 403.1 Mi 14:00 HS I<br />
Erfahrungen mit verteiltem Computing in DØ —<br />
•Daniel Wicke, Christian Schmitt und Peter Mättig für die<br />
DØ-Kollaboration — Bergische Universität Wuppertal<br />
Die bei den Proton-Antiproton Kollisionen am Tevatron anfallenden<br />
Ereigniszahlen führen zu enormen Anforderungen an die Computing-<br />
Infrastruktur. Das DØ-Experiment am Tevatron verfolgt die Strategie<br />
die anfallenden Aufgaben auf weltweit verteilten Systemen zu lösen. Bereits<br />
seit Beginn des RunII im März 2001 werden die benötigten Simulationen<br />
außerhalb der zentralen FNAL Systeme erzeugt. Für Analysen<br />
wurde ein System von regionalen Zentren etabliert, welche die Institute<br />
der jeweiligen Region mit Daten versorgen. Diese Struktur, die ähnlich<br />
den Tier 0, Tier 1 und Tier 2 Zentren für LHC aufgebaut ist, wurde<br />
im Spätherbst für die Reprozessierung von DØ-Daten mit der neuesten<br />
Rekonstruktionssoftware verwendet. Damit hat DØ als erstes laufendes<br />
Experiment alle wichtigen Computingaufgaben auf verteilten Systemen<br />
implementiert und angewendet. Im Vortrag sollen die Erfahrungen die<br />
DØ mit verteiltem Rechnen gesammelt hat vorgestellt und die Rolle des<br />
GridKa beleuchtet werden. Besondere Beachtung wird der Übertragung<br />
der gewonnenen Erfahrungen auf das LHC Computing Grid gegeben.<br />
T 403.2 Mi 14:15 HS I<br />
Dezentrale Datenprozessierung und -analyse bei DØ —<br />
•Thomas Nunnemann für die DØ-Kollaboration — LMU München<br />
Die Größe des aufgenommenen Datenvolumens der Tevatron-Experimente<br />
erfordert die Einbindung von Resourcen regionaler und lokaler<br />
Rechenzentren für die Datenprozessierung, -simulation und -analyse.<br />
Die Rekonstruktion der Ereignisse erfolgt bei DØ basierend auf drei<br />
Datenformaten: Rohdaten, DSTs und sogenannten thumbnails (Mikro-<br />
DSTs mit zehnfach reduzierten Datenvolumen). Dies wurde zu einem<br />
signifikanten Anteil am GridKa-Rechenzentrum durchgeführt, wobei insbesondere<br />
der Datenaustausch über Grid-Technologien und der Datenbankzugriff<br />
über einen lokalen Proxy realisiert wurden. Ebenfalls vorgestellt<br />
werden Erfahrungen mit rechen- und datenintensiver Analyse am<br />
GridKa und lokalen Rechenzentren.<br />
T 403.3 Mi 14:30 HS I<br />
Reprozessierung von DØ-Daten im European DataGrid —<br />
•Torsten Harenberg, Mihai-Octavian Dima, Peter Mättig<br />
und Daniel Wicke — Bergische Universität Wuppertal – Gaußstr. 20<br />
– 42097 Wuppertal<br />
Das DØ-Experiment am Tevatron benötigt nach dem Detektor- und<br />
Maschinenupgrade im Jahr 2001 (dem sog. ” Run II“) erheblich mehr<br />
Rechenleistung als zuvor. Die DØ-Kollaboration löst diese Anforderung<br />
durch den Aufbau eines weltweiten Rechnerverbundes unter Einbeziehung<br />
von GRID-Werkzeugen. Insbesondere wurde versucht, einen Teil<br />
der Reprozessierung von 500.000.000 DØ-Ereignissen im Rahmen des European<br />
DataGrid (EDG) auszuführen. Damit sollte das EDG innerhalb<br />
eines aktiv Daten nehmenden Experiments angewandt werden. Für das<br />
EDG soll es ein letzter Test sein, der die Benutzbarkeit des Systems<br />
unterstreicht. Es werden die Motivation zu diesem Projekt, welches in<br />
Zusammenarbeit mit dem NIKHEF durchgeführt wurde, die bisherigen<br />
Erfahrungen und Resultate sowie ein Ausblick auf zukünftige Aktivitäten<br />
vorgestellt.<br />
T 403.4 Mi 14:45 HS I<br />
Das BABAR Tier-A-Zentrum am GridKa — •Andreas Petzold<br />
für die BABAR-Kollaboration — TU Dresden, Institut für Kernund<br />
Teilchenphysik, 01062 Dresden<br />
Das BABAR-Experiment am Stanford Linear Accelerator Center<br />
nimmt seit 1999 Daten. Die große Menge an aufgezeichneten und<br />
simulierten Ereignissen erfordert Rechenleistungen, die auf einige<br />
Hochleistungsrechenzentren, so genannte Tier-A Zentren, verteilt sind.<br />
Seit November 2002 dient das Grid-Computing-Zentrum GridKa am<br />
Forschungzentrum Karlsruhe als deutsches Tier-A-Zentrum. Die dem<br />
BABAR-Experiment von GridKa zur Verfügung gestellte Rechenleistung<br />
wird neben Datenanalyse und Simulation im Jahr 2004 vor al-<br />
lem für Datenvorselektion (Skimming) genutzt werden. In Zukunft wird<br />
GridKa als Grid-Kompetenzzentrum für BABAR und andere Experimente<br />
(insbesondere am LHC) fungieren. Gegenwärtig werden mehrere<br />
Grid-Middleware-Lösungen für ein verteiltes BABAR-Computing bewertet.<br />
Der Schwerpunkt liegt dabei auf dem LHC Computing Grid<br />
(LCG) und dem ALICE Environment (AliEn). Diskutiert werden die<br />
Computingstruktur und die Grid-Aktivivtäten von BABAR am GridKa.<br />
T 403.5 Mi 15:00 HS I<br />
CMS Computing am GridKa — •Jens Rehn 1 , Achim Burdziak<br />
2 , Thomas Kreß 2 , Andreas Nowack 2 , Günter Quast 1 , Klaus<br />
Rabbertz 1 , Frank Raupach 2 , Hartmut Stadie 1 und Serge Sushkov<br />
2 — 1 Institut für experimentelle Kernphysik, Universität Karlsruhe<br />
— 2 RWTH Aachen<br />
Das im Aufbau befindliche CMS Experiment wird zusammen mit den<br />
drei anderen LHC Experimenten mit einer Flut an Daten konfrontiert<br />
werden, die nicht mehr durch die Nutzung der Computing Ressourcen<br />
eines einzelnen Rechenzentrums zu bewältigen ist. Dabei wird das Grid<br />
eine entscheidende Rolle bei der Optimierung der Verteilung auf mehrere<br />
Zentren spielen.<br />
CMS bereitet sich zur Zeit auf die Bewältigung dieser Herausforderung<br />
mit Hilfe einer groß angelegte Produktion simulierter Daten vor.<br />
Hierfür werden alle zu Verfügung stehenden Rechenzentren genutzt, wobei<br />
dem Grid Computing Center Karlsruhe (GridKa) als Tier 1 Zentrum<br />
die zentrale Rolle des deutschen Beitrages zukommt.<br />
Über die software–technische Realisierung und die bisherigen Erfahrungen<br />
mit dem CMS Computing am GridKa soll in diesem Votrag berichtet<br />
werden.<br />
T 403.6 Mi 15:15 HS I<br />
Grid-Computing bei CDF — Gary Barker, Martin Erdmann,<br />
Michael Feindt, Thomas Müller, •Ulrich Kerzel,<br />
Günter Quast und Kurt Rinnert — Institut für Experimentelle<br />
Kernphysik,Wolfgang-Gaede Straße 1, 76131 Karlsruhe<br />
Die im RunII des Tevatron Experiments anfallenden Datenmengen sind<br />
so<br />
groß, dass sowohl die Analyse der Daten, als auch die<br />
MC Simulationen weltweit verteilt werden.<br />
Der Vortrag liefert einen Ueberblick ueber die aktuellen<br />
Remote-Computing und Grid-Aktivitäten beim CDF Experiment,<br />
sowie einen Ausblick in die Zukunft.<br />
T 403.7 Mi 15:30 HS I<br />
Installation der Software des LHC Computing Grid auf einem Institutscluster<br />
— •Hartmut Stadie, Günter Quast, Klaus Rabbertz<br />
und Jens Rehn — Institut für Experimentelle Kernphysik, Universität<br />
Karlsruhe (TH)<br />
Die erwarteten großen Datenmengen der LHC-Experimente können<br />
nur mit vielen verteilten Rechenzentren bewältigt werden. Ziel des LHC<br />
Computing Grid, LCG , Projektes ist es, die bestehende Grid-Software<br />
auf verschiedenen Rechenzentren zu installieren und so einen Prototyp<br />
des LHC-Computing-Modells zu bauen. Neben den großen nationalen Rechenzentren<br />
sind auch universitäre Rechencluster in diesem Modell von<br />
Bedeutung. Wir berichten über die Installation der LCG-Software auf<br />
unserem Institutscluster und stellen unsere ersten Erfahrungen mit der<br />
Anwendung der Gridwerkzeuge für die Datenverarbeitung vor.<br />
T 403.8 Mi 15:45 HS I<br />
Perspectives for high performance cluster computing —<br />
•Zoltan Fodor — University of Wuppertal<br />
Perspectives for high performance cluster computing<br />
Z. Fodor<br />
I highlight recent progress in cluster computers and discuss status and<br />
prospects of cluster computers with a particular emphasis for lattice<br />
QCD. An appropriately chosen balance between the computing power<br />
and the network can provide a advantageous price/performance ratio.