12.01.2013 Aufrufe

originale Druckvorlage - DPG-Tagungen

originale Druckvorlage - DPG-Tagungen

originale Druckvorlage - DPG-Tagungen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Teilchenphysik Mittwoch<br />

T 403 HEP Computing<br />

Zeit: Mittwoch 14:00–16:00 Raum: HS I<br />

T 403.1 Mi 14:00 HS I<br />

Erfahrungen mit verteiltem Computing in DØ —<br />

•Daniel Wicke, Christian Schmitt und Peter Mättig für die<br />

DØ-Kollaboration — Bergische Universität Wuppertal<br />

Die bei den Proton-Antiproton Kollisionen am Tevatron anfallenden<br />

Ereigniszahlen führen zu enormen Anforderungen an die Computing-<br />

Infrastruktur. Das DØ-Experiment am Tevatron verfolgt die Strategie<br />

die anfallenden Aufgaben auf weltweit verteilten Systemen zu lösen. Bereits<br />

seit Beginn des RunII im März 2001 werden die benötigten Simulationen<br />

außerhalb der zentralen FNAL Systeme erzeugt. Für Analysen<br />

wurde ein System von regionalen Zentren etabliert, welche die Institute<br />

der jeweiligen Region mit Daten versorgen. Diese Struktur, die ähnlich<br />

den Tier 0, Tier 1 und Tier 2 Zentren für LHC aufgebaut ist, wurde<br />

im Spätherbst für die Reprozessierung von DØ-Daten mit der neuesten<br />

Rekonstruktionssoftware verwendet. Damit hat DØ als erstes laufendes<br />

Experiment alle wichtigen Computingaufgaben auf verteilten Systemen<br />

implementiert und angewendet. Im Vortrag sollen die Erfahrungen die<br />

DØ mit verteiltem Rechnen gesammelt hat vorgestellt und die Rolle des<br />

GridKa beleuchtet werden. Besondere Beachtung wird der Übertragung<br />

der gewonnenen Erfahrungen auf das LHC Computing Grid gegeben.<br />

T 403.2 Mi 14:15 HS I<br />

Dezentrale Datenprozessierung und -analyse bei DØ —<br />

•Thomas Nunnemann für die DØ-Kollaboration — LMU München<br />

Die Größe des aufgenommenen Datenvolumens der Tevatron-Experimente<br />

erfordert die Einbindung von Resourcen regionaler und lokaler<br />

Rechenzentren für die Datenprozessierung, -simulation und -analyse.<br />

Die Rekonstruktion der Ereignisse erfolgt bei DØ basierend auf drei<br />

Datenformaten: Rohdaten, DSTs und sogenannten thumbnails (Mikro-<br />

DSTs mit zehnfach reduzierten Datenvolumen). Dies wurde zu einem<br />

signifikanten Anteil am GridKa-Rechenzentrum durchgeführt, wobei insbesondere<br />

der Datenaustausch über Grid-Technologien und der Datenbankzugriff<br />

über einen lokalen Proxy realisiert wurden. Ebenfalls vorgestellt<br />

werden Erfahrungen mit rechen- und datenintensiver Analyse am<br />

GridKa und lokalen Rechenzentren.<br />

T 403.3 Mi 14:30 HS I<br />

Reprozessierung von DØ-Daten im European DataGrid —<br />

•Torsten Harenberg, Mihai-Octavian Dima, Peter Mättig<br />

und Daniel Wicke — Bergische Universität Wuppertal – Gaußstr. 20<br />

– 42097 Wuppertal<br />

Das DØ-Experiment am Tevatron benötigt nach dem Detektor- und<br />

Maschinenupgrade im Jahr 2001 (dem sog. ” Run II“) erheblich mehr<br />

Rechenleistung als zuvor. Die DØ-Kollaboration löst diese Anforderung<br />

durch den Aufbau eines weltweiten Rechnerverbundes unter Einbeziehung<br />

von GRID-Werkzeugen. Insbesondere wurde versucht, einen Teil<br />

der Reprozessierung von 500.000.000 DØ-Ereignissen im Rahmen des European<br />

DataGrid (EDG) auszuführen. Damit sollte das EDG innerhalb<br />

eines aktiv Daten nehmenden Experiments angewandt werden. Für das<br />

EDG soll es ein letzter Test sein, der die Benutzbarkeit des Systems<br />

unterstreicht. Es werden die Motivation zu diesem Projekt, welches in<br />

Zusammenarbeit mit dem NIKHEF durchgeführt wurde, die bisherigen<br />

Erfahrungen und Resultate sowie ein Ausblick auf zukünftige Aktivitäten<br />

vorgestellt.<br />

T 403.4 Mi 14:45 HS I<br />

Das BABAR Tier-A-Zentrum am GridKa — •Andreas Petzold<br />

für die BABAR-Kollaboration — TU Dresden, Institut für Kernund<br />

Teilchenphysik, 01062 Dresden<br />

Das BABAR-Experiment am Stanford Linear Accelerator Center<br />

nimmt seit 1999 Daten. Die große Menge an aufgezeichneten und<br />

simulierten Ereignissen erfordert Rechenleistungen, die auf einige<br />

Hochleistungsrechenzentren, so genannte Tier-A Zentren, verteilt sind.<br />

Seit November 2002 dient das Grid-Computing-Zentrum GridKa am<br />

Forschungzentrum Karlsruhe als deutsches Tier-A-Zentrum. Die dem<br />

BABAR-Experiment von GridKa zur Verfügung gestellte Rechenleistung<br />

wird neben Datenanalyse und Simulation im Jahr 2004 vor al-<br />

lem für Datenvorselektion (Skimming) genutzt werden. In Zukunft wird<br />

GridKa als Grid-Kompetenzzentrum für BABAR und andere Experimente<br />

(insbesondere am LHC) fungieren. Gegenwärtig werden mehrere<br />

Grid-Middleware-Lösungen für ein verteiltes BABAR-Computing bewertet.<br />

Der Schwerpunkt liegt dabei auf dem LHC Computing Grid<br />

(LCG) und dem ALICE Environment (AliEn). Diskutiert werden die<br />

Computingstruktur und die Grid-Aktivivtäten von BABAR am GridKa.<br />

T 403.5 Mi 15:00 HS I<br />

CMS Computing am GridKa — •Jens Rehn 1 , Achim Burdziak<br />

2 , Thomas Kreß 2 , Andreas Nowack 2 , Günter Quast 1 , Klaus<br />

Rabbertz 1 , Frank Raupach 2 , Hartmut Stadie 1 und Serge Sushkov<br />

2 — 1 Institut für experimentelle Kernphysik, Universität Karlsruhe<br />

— 2 RWTH Aachen<br />

Das im Aufbau befindliche CMS Experiment wird zusammen mit den<br />

drei anderen LHC Experimenten mit einer Flut an Daten konfrontiert<br />

werden, die nicht mehr durch die Nutzung der Computing Ressourcen<br />

eines einzelnen Rechenzentrums zu bewältigen ist. Dabei wird das Grid<br />

eine entscheidende Rolle bei der Optimierung der Verteilung auf mehrere<br />

Zentren spielen.<br />

CMS bereitet sich zur Zeit auf die Bewältigung dieser Herausforderung<br />

mit Hilfe einer groß angelegte Produktion simulierter Daten vor.<br />

Hierfür werden alle zu Verfügung stehenden Rechenzentren genutzt, wobei<br />

dem Grid Computing Center Karlsruhe (GridKa) als Tier 1 Zentrum<br />

die zentrale Rolle des deutschen Beitrages zukommt.<br />

Über die software–technische Realisierung und die bisherigen Erfahrungen<br />

mit dem CMS Computing am GridKa soll in diesem Votrag berichtet<br />

werden.<br />

T 403.6 Mi 15:15 HS I<br />

Grid-Computing bei CDF — Gary Barker, Martin Erdmann,<br />

Michael Feindt, Thomas Müller, •Ulrich Kerzel,<br />

Günter Quast und Kurt Rinnert — Institut für Experimentelle<br />

Kernphysik,Wolfgang-Gaede Straße 1, 76131 Karlsruhe<br />

Die im RunII des Tevatron Experiments anfallenden Datenmengen sind<br />

so<br />

groß, dass sowohl die Analyse der Daten, als auch die<br />

MC Simulationen weltweit verteilt werden.<br />

Der Vortrag liefert einen Ueberblick ueber die aktuellen<br />

Remote-Computing und Grid-Aktivitäten beim CDF Experiment,<br />

sowie einen Ausblick in die Zukunft.<br />

T 403.7 Mi 15:30 HS I<br />

Installation der Software des LHC Computing Grid auf einem Institutscluster<br />

— •Hartmut Stadie, Günter Quast, Klaus Rabbertz<br />

und Jens Rehn — Institut für Experimentelle Kernphysik, Universität<br />

Karlsruhe (TH)<br />

Die erwarteten großen Datenmengen der LHC-Experimente können<br />

nur mit vielen verteilten Rechenzentren bewältigt werden. Ziel des LHC<br />

Computing Grid, LCG , Projektes ist es, die bestehende Grid-Software<br />

auf verschiedenen Rechenzentren zu installieren und so einen Prototyp<br />

des LHC-Computing-Modells zu bauen. Neben den großen nationalen Rechenzentren<br />

sind auch universitäre Rechencluster in diesem Modell von<br />

Bedeutung. Wir berichten über die Installation der LCG-Software auf<br />

unserem Institutscluster und stellen unsere ersten Erfahrungen mit der<br />

Anwendung der Gridwerkzeuge für die Datenverarbeitung vor.<br />

T 403.8 Mi 15:45 HS I<br />

Perspectives for high performance cluster computing —<br />

•Zoltan Fodor — University of Wuppertal<br />

Perspectives for high performance cluster computing<br />

Z. Fodor<br />

I highlight recent progress in cluster computers and discuss status and<br />

prospects of cluster computers with a particular emphasis for lattice<br />

QCD. An appropriately chosen balance between the computing power<br />

and the network can provide a advantageous price/performance ratio.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!