Curriculum vitae et studiorum della dott.ssa ... - INFN Napoli
Curriculum vitae et studiorum della dott.ssa ... - INFN Napoli
Curriculum vitae et studiorum della dott.ssa ... - INFN Napoli
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>Curriculum</strong> <strong>vitae</strong> <strong>et</strong> <strong>studiorum</strong><br />
<strong>della</strong> <strong>dott</strong>.<strong>ssa</strong> Ale<strong>ssa</strong>ndra Doria<br />
Dati personali<br />
• Ale<strong>ssa</strong>ndra Doria, nata a <strong>Napoli</strong> il 9 Maggio 1966.<br />
• Nazionalità: Italiana<br />
• Stato civile: Coniugata. 2 figli.<br />
• Residenza: Viale Winspeare 38, 80127 <strong>Napoli</strong>. Tel: 081 642064<br />
• E-mail: ale<strong>ssa</strong>ndra.doria@na.infn.it<br />
Attuale posizione professionale<br />
Tecnologo presso la Sezione di <strong>Napoli</strong> dell’Istituto Nazionale di Fisica Nucleare<br />
dal 2001.<br />
Titoli di studio<br />
• Maturità Scientifica conseguita nell'anno 1984 con votazione 58/60.<br />
• Laurea in Fisica conseguita presso l'Università Federico II di <strong>Napoli</strong>, il 16<br />
Luglio 1992 con votazione pari a 110/110 e lode.<br />
Lingue straniere<br />
• Inglese: scritto ottimo, orale ottimo<br />
• Francese: scritto discr<strong>et</strong>o, orale discr<strong>et</strong>o<br />
Formazione post-laurea<br />
• Corso “OSF Motif Programming”<br />
Hewl<strong>et</strong>t-Packard, Roma, Maggio 1993.<br />
• Corso “ANSI C Advanced Programming”<br />
Hewl<strong>et</strong>t-Packard, Roma, S<strong>et</strong>tembre 1993.<br />
• Corso “X Window”<br />
Hewl<strong>et</strong>t-Packard, Roma, Ottobre 1993.<br />
• Corso “PHIGS” (Programmer's Hierarchical Interactive Graphics System)<br />
Hewl<strong>et</strong>t-Packard, Roma, Novembre 1993.<br />
• “CERN School of Computing”<br />
Sopron (Ungheria), Agosto 1994.<br />
• Corso “UNIX: HP-UX V10”<br />
Hewl<strong>et</strong>t-Packard, Roma, S<strong>et</strong>tembre 1995.<br />
• “C++ for Particle Physics”<br />
Prof. P. Kunz, Padova, 11-15 Dicembre 1995.<br />
1
Contratti e borse di studio<br />
• 1 Maggio 1993 - 30 Aprile 1994.<br />
Borsa di studio <strong>della</strong> Hewl<strong>et</strong>t-Packard Italiana per una collaborazione con<br />
l'<strong>INFN</strong> nell'ambito dell'esperimento L3 al collisore e+e- LEP del CERN.<br />
Ogg<strong>et</strong>to: Sviluppo su workstation HP del programma di visualizzazione degli<br />
eventi di L3<br />
• 1 S<strong>et</strong>tembre 1994 - 1 S<strong>et</strong>tembre 1996<br />
Borsa di studio <strong>INFN</strong> presso la Sezione di <strong>Napoli</strong>, nell'ambito dell'esperimento<br />
KLOE al collisore e+e- DAΦNE dei Laboratori Nazionali di Frascati dell'<strong>INFN</strong>.<br />
Ogg<strong>et</strong>to: Sviluppo del Sistema di acquisizione dati di KLOE.<br />
• 2 S<strong>et</strong>tembre 1996 - 1 Maggio 2001<br />
Contratto a tempo d<strong>et</strong>erminato (art. 36) con profilo professionale di<br />
Tecnologo presso la Sez. <strong>INFN</strong> di <strong>Napoli</strong>, nell'ambito dell'esperimento KLOE.<br />
Ogg<strong>et</strong>to: Sviluppo del Sistema di acquisizione dati di KLOE<br />
• Dal 2 Maggio 2001 ad oggi<br />
Contratto a tempo ind<strong>et</strong>erminato con profilo professionale di Tecnologo in<br />
forza al servizio di Calcolo e R<strong>et</strong>i <strong>della</strong> Sezione <strong>INFN</strong> di <strong>Napoli</strong>, con una<br />
particolare connotazione di supporto agli esperimenti di fisica <strong>della</strong> alte energie<br />
ed ai prog<strong>et</strong>ti GRID.<br />
Responsabilità tecnico-scientifiche<br />
• Dal 2001 al 2004 - Rappresentante ATLAS-Italia nel comitato tecnico TIER1.<br />
• Da Ottobre 2003 ad oggi - Responsabile <strong>della</strong> Registration Authority <strong>della</strong><br />
Sezione <strong>INFN</strong> di <strong>Napoli</strong><br />
• Da Ottobre 2005 ad oggi - Responsabile operativo del Tier2 di ATLAS <strong>Napoli</strong>, si<br />
occupa dell’organizzazione e <strong>della</strong> gestione delle attività del centro, dell’allocazione<br />
delle risorse di calcolo e <strong>della</strong> pianificazione delle attività in collaborazione con gli<br />
altri centri Tier1 e Tier2, nonché di coordinare gli interventi del personale e dei<br />
responsbili tecnici.<br />
• Da Ottobre 2005 ad oggi - Vice responsabile gestionale e di coordinamento del<br />
Tier2 di ATLAS <strong>Napoli</strong>, coadiuva il responsabile nel coordinamento locale, nel<br />
coordinamento con l’infrastruttura nazionale Grid, nella gestione delle procedure<br />
d’acquisto e nella ricerca ed organizzazione del personale.<br />
• Dal 2005 ad oggi – Security Officer per il sito Tier2 di ATLAS <strong>Napoli</strong>.<br />
• Dal 2007 ad oggi - Responsabile AFS <strong>della</strong> Sezione di <strong>Napoli</strong>.<br />
Incarichi e partecipazione a commissioni di gara e di prog<strong>et</strong>to<br />
• Novembre 2003 - Responsabile del procedimento per la fornitura di biprocessori<br />
per la farm prototipo di ATLAS.<br />
• S<strong>et</strong>tembre 2005 - Membro <strong>della</strong> commissione tecnica di gara per biprocessori e<br />
storage per la farm di ATLAS/Tier2.<br />
• S<strong>et</strong>tembre/Dicembre 2005 - Membro <strong>della</strong> Commissione tecnica per la<br />
realizzazione del prog<strong>et</strong>to Tier2 di ATLAS.<br />
2
Presentazioni Orali a Conferenze Nazionali ed Internazionali<br />
• ``Me<strong>ssa</strong>ge System and Data Transmission in KLOE DAQ system'',<br />
CHEP 1997 , Computing in High Energy Physics. Berlino, 7-11 Aprile 1997.<br />
• ``A ROOT based Monitoring System for the KLOE Experiment'',<br />
AIHENP'99 , Cr<strong>et</strong>a, 12-16 Aprile 1999.<br />
• ``Tools di Monitoring in KLOE'',<br />
III Workshop <strong>INFN</strong> sul Software e Calcolo moderno, Martina Franca (BA),<br />
18-22 Ottobre 1999.<br />
• ``Online Monitoring System at KLOE'',<br />
CHEP 2000 , Computing in High Energy Physics. Padova, 7-11 Febbraio 2000.<br />
• “Il calcolo nell'esperimento ATLAS”<br />
Workshop sulle problematiche di calcolo e r<strong>et</strong>i nell'<strong>INFN</strong>, Paestum, Giugno 2003 .<br />
• “Deployment of Job Priority mechanisms in the Italian Cloud of the ATLAS<br />
experiment”, CHEP 2009 , Computing in High Energy Physics. Praga, 21-27 Marzo<br />
2009.<br />
Presentazioni Poster a Conferenze Nazionali ed Internazionali<br />
• “L’ esperimento ATLAS”,<br />
IES08 Italian e-Science 2008. <strong>Napoli</strong>, 27-29 Maggio 2008.<br />
• “Powerfarm: a power and emergency management thread-based software tool<br />
for the ATLAS <strong>Napoli</strong> Tier2”,<br />
CHEP09, Computing in High Energy Physics. Praga, 21-27 Marzo 2009.<br />
Attività didattica universitaria con ruolo docente:<br />
• Docente del corso “Programmazione ad ogg<strong>et</strong>ti e linguaggi avanzati per<br />
l’analisi dei dati in Fisica” organizzato dall’ateneo “Federico II” di <strong>Napoli</strong> in<br />
collaborazione con le regione Campania nell’ambito dei Corsi di base di Tecnologia<br />
dell’Informazione e <strong>della</strong> Comunicazione, <strong>Napoli</strong> Febbraio 2003. Durata del corso 40<br />
ore.<br />
• Titolare del corso “Linguaggi di programmazione II” del Corso di Laurea in<br />
Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo “Federico II” per<br />
l’a.a. 2004/05. Durata del corso 48 ore.<br />
3
Attività seminariale in corsi universitari e di <strong>dott</strong>orato:<br />
• ``Ogg<strong>et</strong>ti: paradigmi, archit<strong>et</strong>tura e linguaggi '' ,<br />
seminari sul linguaggio Java per il XIII Ciclo di Dottorato in Fisica Fondamentale ed<br />
Applicata, dell’Ateneo “Federico II” di <strong>Napoli</strong>, anno 1998 .<br />
• ``Ogg<strong>et</strong>ti: paradigmi, archit<strong>et</strong>tura e linguaggi '' ,<br />
seminari sul linguaggio Java per il XIV Ciclo di Dottorato in Fisica Fondamentale ed<br />
Applicata dell’Ateneo “Federico II” di <strong>Napoli</strong>, anno 1999.<br />
• Seminari per i Corsi di “Introduzione alle Griglie Computazionali” del corso di<br />
Laurea in Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo “Federico<br />
II” per gli a.a. 2004/05, 2005/06, 2006/07, 2007/08. Titolare del Corso il Prof.<br />
L.Merola.<br />
• Seminari per il Corso di “Griglie Computazionali”, del corso di Laurea in<br />
Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo “Federico II” per l’<br />
a.a. 2008/09. Titolare del Corso il Prof. L.Merola.<br />
Attività tutoriali e divulgative:<br />
Presso il CERN:<br />
• Tutorial su “Distributed Data Management”, ATLAS Software Week, Ottobre<br />
2007.<br />
Per l’<strong>INFN</strong>:<br />
• Corso ``Linguaggi Compilati Object Oriented: C++ e Java''<br />
organizzato dal Comitato <strong>INFN</strong> per la transizione alle Nuove Tecnologie di Calcolo,<br />
Bologna Maggio 1999.<br />
• Seminario divulgativo “Ricerca scientifica e tecnologie informatiche: Intern<strong>et</strong>,<br />
WEB e Grid”, per la giornata di orientamento dal titolo “Uno sguardo sulla fisica<br />
attraverso l’Istituto Nazionale di Fisica Nucleare” presso il Liceo Scientifico<br />
Mercalli di <strong>Napoli</strong>. 11 Marzo 2009.<br />
Correlazione di tesi di laurea:<br />
• Corso di Laurea in Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo<br />
“Federico II”:<br />
o “Analisi e monitoraggio, in ambiente GRID, <strong>della</strong> distribuzione dati<br />
dell’esperimento ATLAS.”, Vincenza Palumbo, Laurea Triennale a.a.<br />
2007/08.<br />
o “Il monitoring <strong>della</strong> Grid”, Valerio de Matthaeis, Laurea Magistrale a.a.<br />
2008/09.<br />
o “Un sistema per la gestione delle emergenze in un Data Center in ambito<br />
Power e Cooling”, Giuseppe P<strong>et</strong>rizzo, Laurea Triennale a.a. 2008/09.<br />
4
Sintesi dell’attività di ricerca e sviluppo tecnologico<br />
• L3:<br />
o 1993/94 - Realizzazione dello “scan program” per l’esperimento L3, che<br />
perm<strong>et</strong>te l'analisi visuale degli eventi generati dalle collisioni e+e-, in grafica<br />
tridimensionale.<br />
• KLOE:<br />
o 1995/97 - Realizzazione del programma di Run Control per il Sistema di<br />
acquisizione dati dell’esperimento, sia per la parte relativa al controllo ed<br />
alla comunicazione tra i procassi di acquisizione, che per l’interfaccia grafica.<br />
o 1997/98 - Implementazione in ROOT del sistema di Monitoring Online e<br />
Offline.<br />
• ATLAS:<br />
o 2001 - Realizzazione di una farm prototipale per il gruppo ATLAS <strong>Napoli</strong><br />
o 2002/04 - Partecipazione ai programmi di validazione Data Challenges del<br />
modello di calcolo di ATLAS in Grid, sperimentando l’integrazione tra il<br />
software dell’esperimento ed il middlware di LCG.<br />
o 2005 – Stesura del prog<strong>et</strong>to per il Tier2 di ATLAS <strong>Napoli</strong>. Studio delle<br />
soluzioni per la scelta di processori, storage, configurazione di r<strong>et</strong>e e per le<br />
infrastrutture.<br />
o 2005/06 – Realizzazione del centro Tier2, approvato dai referee nel 2006,<br />
nella veste di responsabile operativo. Partecipazione all’acquisto delle risorse,<br />
installazione e configurazione dei sistemi di calcolo e di storage. Integrazione<br />
delle risorse nel sistema di calcolo di ATLAS e in WLCG – WorldWide LHC<br />
Computing Gird.<br />
o Dal 2006 ad oggi – Partecipazione come Senior Shifter ai turni di controllo<br />
del Sistema di Calcolo distribuito di ATLAS.<br />
o 2006 – Service Challenge 4 portato a termine con successo, dimostrando che<br />
l’infrastruttura me<strong>ssa</strong> a punto è in grado di sostenere per 3 s<strong>et</strong>timane il<br />
throughput di dati nominale richiesto in presa dati.<br />
o 2007/08 – Sviluppo del sistema di monitoraggio e gestione delle emergenze<br />
del centro, che consente di ricevere allarmi in caso di situazioni anomale e di<br />
intervenire con una procedura automatica qualora sia nece<strong>ssa</strong>rio uno<br />
spegnimento d’emergenza del centro (mancanza di corrente, temperatura oltre<br />
i limiti).<br />
o 2008 – Partecipazione a CCRC08 in cui tutti i 4 esperimenti LHC hanno<br />
dimostrato di poter utilizzare simultaneamente l’infrastruttura di calcolo<br />
LCG.<br />
o 2008 – Studio, test e applicazione dei meccanismi di Job Priorities e di Fair<br />
Share, per una condivisione ottimizzata delle risorse del sito. In base ai test<br />
eff<strong>et</strong>tuati il meccanismo è stato validato per il suo utilizza da parte di<br />
ATLAS.<br />
5
• GRID e Servizio Calcolo e R<strong>et</strong>i:<br />
o 2001/02 – Partecipazione al work-package 8 del prog<strong>et</strong>to <strong>INFN</strong>-GRID,<br />
relativo al supporto agli esperimenti HEP.<br />
o 2002 – Attività nel work-package 4 di <strong>INFN</strong>-GRID relativo al “computer<br />
fabric”.<br />
o 2002/03 – Realizzazione <strong>della</strong> farm <strong>della</strong> sez. di <strong>Napoli</strong> nel prog<strong>et</strong>to <strong>INFN</strong>-<br />
GRID.<br />
o 2003 ad oggi – Supporto ai gruppi sperimentali per l’utilizzo di Grid e per le<br />
farm di calcolo “di esperimento”.<br />
o 2007 ad oggi – Gestione del server nazionale di autenticazione AFS persso la<br />
sez. di <strong>Napoli</strong><br />
o 2006/08 – Partecipazione ad EGEE II nell’ambito dell’attività SA1<br />
(EUROPEAN GRID SUPPORT, OPERATION AND MANAGEMENT) .<br />
o 2003 ad oggi – Attività come responsabile <strong>della</strong> Registration Authority per<br />
la Sezione <strong>INFN</strong> di <strong>Napoli</strong>, identificazione degli utenti e supporto per l’uso<br />
dei certificati X.509 .<br />
Comp<strong>et</strong>enze acquisite<br />
Le comp<strong>et</strong>enze acquisite nel corso di Laurea e nei numerosi corsi di formazione post-laurea<br />
sono state ampliate e perfezionate applicandole alle diverse attività svolte, raggiungendo cosi<br />
una elevata comp<strong>et</strong>enza in numerosi s<strong>et</strong>tori, in particolare:<br />
• Sistemi operativi Unix/Linux, system management e programmazione di shell.<br />
• Prog<strong>et</strong>tazione e realizzazione sistemi di Acquisizione Dati.<br />
• Grid Computing e sue applicazioni.<br />
• Prog<strong>et</strong>tazione, gestione e monitoraggio di centri di calcolo.<br />
• Protocolli e R<strong>et</strong>i.<br />
• Programmazione in linguaggi C, C++, Java, Perl; programmazione grafica.<br />
Descrizione d<strong>et</strong>tagliata dell’ attività di ricerca e sviluppo tecnologco<br />
Ale<strong>ssa</strong>ndra Doria si è laureata in Fisica con orientamento Cibern<strong>et</strong>ico, il 16 Luglio<br />
1992, con votazione pari a 110/110 e lode, discutendo una Tesi dal titolo: “ Valutazione<br />
degli operatori logici e relazionali e gestione di dati a precisione arbitraria in un sistema<br />
multiprogrammabile simulato su r<strong>et</strong>e neurale''. Il lavoro di tesi ha comportato un<br />
approfondito studio dei sistemi basati sulle r<strong>et</strong>i neurali, in particolare secondo il modello di<br />
Mc Culloch e Pitts, al fine di implementare con una simulazione di r<strong>et</strong>e neurale una<br />
“macchina” concorrente programmabile mediante una linguaggio simbolico.<br />
Il prog<strong>et</strong>to di tesi è stato realizzato nel linguaggio di programmazione parallela OCCAM ed<br />
ha portato ad affrontare numerose problematiche relative a programmazione ed archit<strong>et</strong>ture<br />
concorrenti.<br />
In L3 (dal 1993 al 1996)<br />
Nel Maggio 1993 ha vinto una borsa di studio annuale <strong>della</strong> Hewl<strong>et</strong>t-Packard Italiana<br />
sotto la supervisione del Prof. L. Merola, per una collaborazione con l’<strong>INFN</strong> per<br />
l'esperimento L3 all'acceleratore LEP del CERN. Tale borsa è stata finalizzata alla<br />
6
ealizzazione del programma che perm<strong>et</strong>te l'analisi visuale (Scan program) degli eventi<br />
generati dalle collisioni e+e-, rappresentando in grafica tridimensionale sia l'apparato<br />
sperimentale di L3 che la risposta dei rivelatori al pa<strong>ssa</strong>ggio delle particelle.<br />
La parte di grafica tridimensionale è stata realizzata nello standard PHIGS (Programmers<br />
Hierarchical Interactive Graphics Standard) che definisce un m<strong>et</strong>odo per organizzare gli<br />
ogg<strong>et</strong>ti grafici in una struttura gerarchica. PHIGS perm<strong>et</strong>te alla rappresentazione grafica di<br />
ricevere input in modo interattivo e consente di collegare le funzioni grafiche con chiamate a<br />
funzioni in linguaggi come FORTRAN e C.<br />
Lo Scan program è dotato di un'interfaccia grafica a ``finestre e menu'' che consente<br />
all'utente di interagire in modi diversi con gli eventi rappresentati, ad esempio modificando il<br />
proprio ``punto di vista'' con rotazioni, traslazioni e zoom. Per l'implementazione<br />
dell'interfaccia grafica è stato utilizzato il toolkit OSF/Motif, basato sulle librerie X<br />
(standard grafico per i sistemi UNIX).<br />
Il lavoro è stato svolto prevalentemente presso il CERN collaborando dir<strong>et</strong>tamente con lo<br />
staff CERN responsabile dell’esperimento.<br />
La collaborazione con L3 è proseguita con la manutenzione del programma sviluppato e la<br />
partecipazione agli shift di Run Control dell’esperimento fino alla chiusura del LEP.<br />
Durante questo periodo si è occupata <strong>della</strong> installazione e gestione delle numerose<br />
workstation HP, con sistema operativo HP-UX in dotazione del gruppo I <strong>della</strong> Sezione di<br />
<strong>Napoli</strong>.<br />
In KLOE (dal 1994 al 2001)<br />
Nel S<strong>et</strong>tembre 1994 ha vinto una borsa di studio dell’<strong>INFN</strong> di durata biennale, con la<br />
quale è iniziata la partecipazione all'esperimento KLOE, installato presso la Φ factory<br />
DAΦNE ai Laboratori Nazionali di Frascati, occupandosi in particolare <strong>della</strong> prog<strong>et</strong>tazione e<br />
dello sviluppo di software per il sistema di acquisizione dati.<br />
Alla scadenza <strong>della</strong> borsa di studio, la partecipazione all'esperimento KLOE è proseguita<br />
grazie ad un contratto <strong>INFN</strong> come Tecnologo, rinnovato per 5 anni.<br />
Le principali responsabilità acquisite nell'ambito di KLOE riguardano il sistema di<br />
comunicazione tra i processi di acquisizione, i programmi per il controllo del run ed il<br />
monitoraggio dell'acquisizione dati.<br />
Ha partecipato sin dell’inizio alla prog<strong>et</strong>tazione ad alla realizzazione del software per<br />
sistema di acquisizione dati dell’esperimento KLOE, presso l’acceleratore Daφne ai<br />
Laboratori Nazionali di Frascati.<br />
Il periodo di assemblaggio dell’apparato e <strong>della</strong> fase di test in assenza di fascio, sono stati<br />
intensi dal punto di vista dello sviluppo e <strong>della</strong> me<strong>ssa</strong> a punto del software di acquisizione<br />
dati. Il sistema è composto da un vasto insieme di processi distribuiti con compiti diversi,<br />
che vanno dalla collezione di sub-eventi alla costruzione e registrazione degli eventi<br />
compl<strong>et</strong>i, dal controllo del run al monitoraggio dell’acquisizione. Il sistema di acquisizione<br />
dati è stato prog<strong>et</strong>tato e realizzato per sostenere un flusso totale di dati fino a 50 MB/s.<br />
Ale<strong>ssa</strong>ndra Doria si è occupata <strong>della</strong> definizione ed dell'implementazione del Me<strong>ssa</strong>ge<br />
System, il meccanismo generale con cui l'insieme dei processi coinvolti nell'acquisizione<br />
dati comunicano tra di loro. Il Me<strong>ssa</strong>ge System consente a qualsiasi processo, scritto<br />
secondo uno schema definito, di inviare e ricevere me<strong>ssa</strong>ggi in modo asincrono ed<br />
affidabile; ogni me<strong>ssa</strong>ggio ricevuto corrisponde ad un'azione eseguita dal processo. Il<br />
7
protocollo specializzato SNMP è utilizzato per la trasmissione affidabile dell'informazione<br />
sulla r<strong>et</strong>e. Il Me<strong>ssa</strong>ge System rappresenta il fulcro del programma di Run Control, il quale<br />
gestisce e sincronizza attraverso l'invio di comandi tutti i processi che, distribuiti sulle<br />
diverse CPU, prendono parte all'acquisizione dei dati.<br />
Il programma di Run Control è stato sotto la compl<strong>et</strong>a responsabilità di Ale<strong>ssa</strong>ndra Doria .<br />
Il Run Control, dotato di una interfaccia grafica realizzata in tcl/tk, consente all'operatore di<br />
inizializzare, avviare e fermare l'intera acquisizione, nonché di controllarne i param<strong>et</strong>ri<br />
rilevanti come il numero ed il tipo del run, il numero di eventi acquisiti, lo stato delle<br />
tensioni dei rivelatori e così via. Il Run Control ha anche il compito di registrare in un<br />
database le mappe e le condizioni di ogni run e di attivare numerosi programmi per il<br />
monitoraggio di ogni parte dell’acquisizione.<br />
Un successivo impegno per KLOE è stato la realizzazione di un sistema per il monitoring<br />
on-line e off-line dei dati acquisiti dall’esperimento, implementato in linguaggio C++. Per<br />
la realizzazione del sistema di monitoring A.D. ha utilizzato per la prima volta nell’ambito<br />
<strong>della</strong> collaborazione il framework ROOT, che era ancora in fase di sviluppo al CERN,<br />
primo framework per l’analisi dati in tecnologia object-oriented. Attraverso una interfaccia<br />
grafica interattiva il sistema consente di creare, selezionare e presentare un grande numero di<br />
istogrammi relativi alla risposta dei rivelatori, al sistema di Trigger, all'el<strong>et</strong>tronica di Front<br />
End, ottenuti sia dai dati online che da file precedentemente registrati.<br />
Dopo l’inizio <strong>della</strong> presa dati di KLOE, per rispondere alle esigenze riscontrate da parte dei<br />
fisici che si sono occupati dei vari sottosistemi dell’esperimento, ha inserito nel programma<br />
di Run Control numerose nuove funzionalità. Sono state ad esempio inserite nel sistema le<br />
calibrazioni on-line dei rivelatori (calorim<strong>et</strong>ro el<strong>et</strong>tromagn<strong>et</strong>ico e camera a drift), eff<strong>et</strong>tuate<br />
automaticamente ogni volta che sia stata raccolta una sufficiente quantità di dati. Il<br />
programma è stato inoltre integrato con l’invio di comandi al sistema di Slow Control, che<br />
controlla tutti i param<strong>et</strong>ri dell’apparato rivelatore (alte e basse tensioni, soglie …), in modo<br />
da centralizzare tutte le operazioni di controllo nece<strong>ssa</strong>rie allo svolgimento standard del run.<br />
In ATLAS (dal 2001 a oggi)<br />
Ale<strong>ssa</strong>ndra Doria collabora all’esperimento ATLAS di LHC, come responsabile operativo<br />
e viceresponsabile gestionale e di coordinamento del Tier2 presso la sezione <strong>INFN</strong> di<br />
<strong>Napoli</strong> .<br />
In quanto responsabile operativo è incaricata di organizzare e gestire le attività di supporto<br />
operativo nece<strong>ssa</strong>rie per l'utilizzo del centro da parte <strong>della</strong> collaborazione; si occupa tra<br />
l’altro dell' allocazione delle risorse di calcolo e <strong>della</strong> pianificazione delle attività di<br />
produzione in collaborazione con gli altri centri Tier1 e Tier2.<br />
Coadiuva inoltre il responsabile gestionale e di coordinamento <strong>dott</strong>. Gianpaolo Carlino nelle<br />
sue attività di coordinamento locale, contatti con la collaborazione, coordinamento con<br />
l'infrastruttura nazionale di Grid, gestione delle procedure di acquisto, ricerca e<br />
organizzazione del personale di esperimento.<br />
Il modello computazionale scelto in comune per gli esperimenti LHC è quello di una World<br />
Wide GRID, basato sulla realizzazione di una archit<strong>et</strong>tura di strutture di calcolo<br />
geograficamente distribuite, connesse da una r<strong>et</strong>e ad alta banda, nonché sullo sviluppo di un<br />
insieme di strumenti software capaci di rendere trasparente per l'utente l'allocazione delle<br />
risorse di calcolo e dei dati , siano essi locali o remoti. Il modello di calcolo a<strong>dott</strong>ato da<br />
ATLAS consite n una struttura gerarchica organizzata il diversi livelli, d<strong>et</strong>ti Tier. Il Tier0<br />
8
isede al CERN ed è responsabile del il primo proce<strong>ssa</strong>mento e dell’archiviazione dei dati<br />
raw e <strong>della</strong> distribuzione ai Tier1 di tali dati. I dieci centri Tier1 devono archiviare e dati raw<br />
e derivati, garantirne l’accesso ed eseguire le attività di riproce<strong>ssa</strong>mento. Ad ogni Tier1<br />
fanno capo un insieme di Tier2, raggruppati su base regionale in federazioni d<strong>et</strong>te Cloud. Le<br />
risorse dei centri Tier2 sono destinate all’analisi degli utenti in GRID ed alla simulazione<br />
Montecarlo. Sono previsti anche centri Tier3 solo per utilizzo locale.<br />
Dal 2001 al 2004 ha fatto parte per ATLAS del Comitato Tecnico del centro Regionale<br />
Tier1, presso il CNAF di Bologna, che si è occupato delle scelte e realizzazioni tecniche<br />
presso il Tier1 riguardanti gli esperimenti.<br />
A partire dall’anno 2001 si è occupata di organizzare per il gruppo ATLAS <strong>della</strong> sez. di<br />
<strong>Napoli</strong> una struttura di calcolo coerente con il modello sopra descritto.<br />
Ha innanzitutto realizzato e gestito una farm prototipale composta da 8 biprocessori<br />
Linux e 300 GB di area disco, che è stata utilizzata per la simulazione, la ricostruzione e<br />
l’analisi sia da utenti locali che da utenti di altre sezioni, come parte delle risorse di <strong>INFN</strong>-<br />
GRID,.<br />
Con tale farm prototipale ha fatto sì che la farm di ATLAS <strong>Napoli</strong> potesse partecipare al<br />
ATLAS Data Challenge 1 negli anni 2002-2003 e al Data Challenge 2 nel 2004. Queste<br />
fasi iniziali dell’attività di computing di ATLAS erano motivate dalla richiesta del “LHC<br />
Computing Review” di eff<strong>et</strong>tuare test di crescente dimensione e complessità al fine di<br />
m<strong>et</strong>tere le basi e validare il nuovo computing model incentrato sulla griglia computazionale<br />
studiando le soluzioni di middleware elaborate nell’ambito del prog<strong>et</strong>to LCG e di quelli che<br />
l’avevano preceduto.<br />
Il DC1 è stato il primo un programma di validazione del software e del modello di calcolo<br />
di ATLAS su scala mondiale, che ha riguardato la simulazione Montecarlo di un esteso<br />
campione di eventi (circa 10 7 ) e successivamente del relativo “pile-up” per diversi valori<br />
<strong>della</strong> luminosità. Questi eventi sono stati successivamente utilizzati per studi sul trigger di<br />
alto livello e ricostruiti per la verifica del buon funzionamento del software. Con il DC2<br />
invece tale uso è stato consolidato coinvolgendo fino a 20 nazioni e 70 siti tra cui quello di<br />
<strong>Napoli</strong> .<br />
Nel s<strong>et</strong>tembre 2005 è stata nominata nella commissione tecnica incaricata di preparare il<br />
prog<strong>et</strong>to per la realizzazione dei Tier2 italiani nelle sedi proposte di Frascati, Milano, <strong>Napoli</strong><br />
e Roma.<br />
Il lavoro ha richiesto di esaminare tutti gli asp<strong>et</strong>ti tecnici, logistici, organizzativi per la<br />
realizzazione di centri Tier2 ed è stato redatto un documento proponente soluzioni adeguate<br />
per la sede di <strong>Napoli</strong>.<br />
Nel 2006 le sezioni di <strong>Napoli</strong> e Roma, dopo una lunga fase di referaggio, sono state<br />
approvate come i due primi Tier2 italiani per ATLAS.<br />
La realizzazione del Tier2 ha richiesto ogni anno l’acquisto, l’installazione e la<br />
configurazione di nuove risorse di storage e di calcolo, fino a raggiungere allo stato<br />
attuale un sistema composto da un’area di storage di oltre 500 TB e da 60 biprocessori<br />
(single-core, dual-core e quad-core), per un totale di 506 cores che corrispondono ad<br />
altr<strong>et</strong>tante unità di calcolo. Il tutto è interconnesso attraverso dell’opportuna infrastruttura di<br />
r<strong>et</strong>e, che tiene conto dei flussi di dati previsti, sia all’interno <strong>della</strong> LAN che da/verso la r<strong>et</strong>e<br />
geografica. Ale<strong>ssa</strong>ndra Doria, in qualità di responsabile operativo del centro, ha avuto un<br />
ruolo d<strong>et</strong>erminante per tutte le scelte e le attività connesse allo sviluppo del Tier2.<br />
9
Nell’anno 2006 ha fatto sì che il Tier2 di <strong>Napoli</strong> partecipasse con successo al Service<br />
Challenge 4, una importante fase di validazione del middleware di LCG e delle<br />
infrastrutture di r<strong>et</strong>e, mantenendo per 3 s<strong>et</strong>timane il througput richiesto di 200 Mbyte/s per il<br />
trasferimento di dati dal Tier1 verso il Tier2 .<br />
Successivamente sono state portate avanti con successo nuove fasi di validazione, eseguite in<br />
comune da tutti gli esperimenti LHC, quali il Common Computing Readiness Challenges<br />
(CCRC) nel 2008 e il Scale Testing for Experiment Program (STEP) nel 2009 in cui<br />
l’intero sistema di computing veniva sottoposto a stress superiore a quello atteso durante la<br />
presa dati.<br />
Dalla fine del 2006 fa parte del gruppo ADCoS - ATLAS Distributed Computing operation<br />
Shifts – nel ruolo di “Senior Shifter”. Il gruppo, composto da membri dell’esperimento<br />
distribuiti tra America, Europa ed Asia, si occupa del controllo 24h/24 del sistema di<br />
Computing distribuito di ATLAS. Attraverso le pagine di monitoraggio messe a punto<br />
dall’esperimento, lo shifter in turno rileva eventuali malfunzionamenti nei trasferimenti di<br />
dati nella Grid, nell’attività di produzione Montecarlo o di ricostruzione dati. Ne identifica la<br />
causa che può risiedere in servizi centrali di ATLAS, in fallimenti (hardware o software)<br />
nelle risorse di calcolo e di storage distribuite oppure in problemi nelle connessioni di r<strong>et</strong>e.<br />
Notifica quindi il problema riscontrato ai responsabili dei servizi o delle risorse ed<br />
eventualmante interviene per escludere dal sistema distribuito la causa dei fallimenti. Gli<br />
shifter “Senior” hanno anche il compito di istruire lo shifter “Trainee” che viene ad essi<br />
affiancato. L’ attività nel gruppo ADCoS richiede una profonda conoscenza del sistema di<br />
calcolo distribuito di ATLAS e del funzionamento <strong>della</strong> Grid.<br />
Nel 2007-2008 ha sviluppato, coordinando il lavoro di tre contrattisti del prog<strong>et</strong>to<br />
S.C.O.P.E. dell’Università Federico II di <strong>Napoli</strong>, un sistema per il monitoraggio e per la<br />
gestione delle emergenze del centro Tier2. Tale sistema è interfacciato ad un insieme di<br />
sensori posizionati nei rack e nel sistema di alimentazione el<strong>et</strong>trica, che rilevano situazioni<br />
anomale come la mancanza di corrente, l’aumento <strong>della</strong> temperatura, la presenza di acqua o<br />
fumo nei rack stessi. Oltre ad inviare allarmi e notifiche per gli eventi rilevati, il sistema è<br />
capace di eff<strong>et</strong>tuare automaticamente uno spegnimento di emergenza dell’intero Tier2, in un<br />
ordine prestabilito e salvaguardando l’integrità dei dati.<br />
Il medesimo sistema può essere usato dagli amministratori del sito per la riaccensione di tutti<br />
i dispositivi tenendo conto delle dipendenze tra essi, nonché per lo spegnimento totale o<br />
parziale in caso di interventi di manutenzione.<br />
Nel 2008 ha eff<strong>et</strong>tuato lo studio ed il test dei meccanismi di Job Priorities e di Fair Share,<br />
che consentono di condividere le risorse di un sito tra diverse Virtual Organization e tra<br />
diversi gruppi <strong>della</strong> ste<strong>ssa</strong> VO, ottimizzandone l’utilizzo e risp<strong>et</strong>tando delle policy<br />
prestabilite. In base ai test eff<strong>et</strong>tuati il meccanismo è stato validato per il suo utilizzo da<br />
parte di ATLAS. Il lavoro è stato presentato alla conferenza CHEP 2009.<br />
Nel 2008, eff<strong>et</strong>tuando analisi e test sull’accesso ai dati da parte dei job di analisi, le cui<br />
prestazioni sono particolarmente limitate dall I/O, ha contribuito a d<strong>et</strong>erminare una nuova<br />
configurazione <strong>della</strong> r<strong>et</strong>e che soddisfacesse il throughput richiesto. È stata quindi ripensata<br />
la struttura <strong>della</strong> LAN del Tier2, acquistando ed installando degli switch che consentono<br />
collegamenti a 10 Gb/s tra le risorse di calcolo ed i server di storage.<br />
10
L’insieme di queste attività ha portato ad acquisire una approfondita conoscenza ed una<br />
consistente esperienza su tutti gli asp<strong>et</strong>ti relativi al Grid Computing. Si è occupata<br />
dell’installazione e <strong>della</strong> configurazione sia dei sistemi operativi che del middleware,<br />
gestendo i continui aggiornamenti tra le successive versioni del middleware LCG-gLite e le<br />
transizioni tra le diverse release del sistema operativo. Per far fronte alle necessità tecniche<br />
del Tier2, tanto sotto l’asp<strong>et</strong>to del calcolo quanto per gli impianti, ha cura di coordinare gli<br />
interventi del personale e dei responsbili tecnici.<br />
Ha affrontato le problematiche relative alla realizzazione di un grosso centro di calcolo,<br />
studiando le possibili soluzioni per la scelta dei processori, per la configurazione dello<br />
storage e per la configurazione di r<strong>et</strong>e, aggiornando continuamente le soluzioni proposte<br />
in base alle novità tecnologiche disponibili sul mercato ed alle crescenti esigenze del centro.<br />
Attività di servizio e in GRID<br />
Per la notevole esperienza maturata nelle tecnologie software più avanzate, applicate ai<br />
s<strong>et</strong>tori dell'acquisizione e dell' analisi dati nella fisica delle alte energie, negli anni 1998 e<br />
1999 ha collaborato con il CNTC (Comitato Nuove Tecnologie di Calcolo dell’<strong>INFN</strong>),<br />
facendo parte del gruppo di docenti per i corsi di aggiornamento sulle nuove tecnologie<br />
nell'<strong>INFN</strong>. Ha quindi partecipato alla preparazione dei corsi sui linguaggi ad ogg<strong>et</strong>ti, sui<br />
sistemi operativi e sui database relazionali ed a ogg<strong>et</strong>ti, tenendo in prima persona il corso sui<br />
linguaggi ad ogg<strong>et</strong>ti nella sede di Bologna nel Maggio 1999.<br />
Nell'ambito dei prog<strong>et</strong>ti nazionali <strong>INFN</strong>, Ale<strong>ssa</strong>ndra Doria ha collaborato attivamente con il<br />
prog<strong>et</strong>to <strong>INFN</strong>-GRID.<br />
Nel 2001 – 2002 ha lavorato per il work-package 8 del prog<strong>et</strong>to <strong>INFN</strong>-GRID, relativo al<br />
supporto agli esperimenti HEP, eff<strong>et</strong>tuando l’integrazione dei servizi Grid nel sistema di<br />
produzione di ATLAS presso la farm prototipo di ATLAS presente nella sezione di <strong>Napoli</strong>.<br />
Nell’anno 2002 ha preso parte, nell’ambito delle attività del Servizio Calcolo e R<strong>et</strong>i <strong>della</strong><br />
sez. di <strong>Napoli</strong>, al work-package 4 di <strong>INFN</strong>-GRID relativo al “computer fabric”. Lo scopo<br />
del wp4 è stato lo studio <strong>della</strong> organizzazione ottimale di un insieme di risorse (processori,<br />
memoria, dischi) connesse su r<strong>et</strong>e privata e lo sviluppo di strumenti che consentano l’utilizzo<br />
di tali risorse come una singola risorsa di calcolo, che prende il nome di farm.<br />
Per il wp4 ha contribuito alla valutazione del sistema openMosix, un pacch<strong>et</strong>to Open<br />
Source che, attraverso una estensione del kernel Linux, realizza il bilanciamento dinamico<br />
del carico tra i processori di una farm. Ha inoltre partecipato a test eff<strong>et</strong>tuati su una farm<br />
presente presso la sezione <strong>INFN</strong> di Lecce, i cui nodi sono interconnessi mediante uno switch<br />
ed interfacce di r<strong>et</strong>e con tecnologia Myrin<strong>et</strong>, per esplorarne le diverse prestazioni e la loro<br />
utilizzabilità nell’ambito di <strong>INFN</strong>-GRID e degli esperimenti HEP.<br />
Sempre nell’ambito dell’attività con il Servizio Calcolo e R<strong>et</strong>i <strong>della</strong> sezione, a partire<br />
dall’anno 2002 ha contribuito in modo d<strong>et</strong>erminenate alla prog<strong>et</strong>tazione, alla realizzazione<br />
ed alla gestione <strong>della</strong> prima farm <strong>della</strong> sezione di <strong>Napoli</strong> nel prog<strong>et</strong>to <strong>INFN</strong>-GRID.<br />
Grazie all’esperienza acquisita ha quindi costantemente fornito supporto ai gruppi<br />
sperimentali <strong>della</strong> sezione (Pamela, CMS, Argo, Virgo, oltre che ATLAS) per quanto<br />
riguarda le problematiche relative al calcolo distribuito e a GRID, in particolare per la<br />
realizzazione e la gestione delle numerose farm di calcolo “di esperimento” presenti in<br />
sezione, che fanno parte <strong>della</strong> infrastruttura nazionale di GRID dell’<strong>INFN</strong>.<br />
11
Ha partecipato al prog<strong>et</strong>to EGEE II per tutta la sua durata (2006-2008), nell’ambito<br />
dell’attività SA1 (EUROPEAN GRID SUPPORT, OPERATION AND MANAGEMENT)<br />
per il supporto su problemi operazionali, gestione dei siti e problem solving.<br />
Si occupa <strong>della</strong> gestione del servizio AFS per la sezione di <strong>Napoli</strong>, di cui è responsabile a<br />
partire dall’anno 2007, facendo inoltre parte del gruppo nazionale di lavoro AFS dal 2004<br />
al 2009. La sezione di <strong>Napoli</strong> ospita uno dei tre server nazionali di autenticazione AFS per<br />
la cella infn.it (gli altri due sono a Roma e a Bologna) del quale la sottoscritta è responsabile,<br />
curandone la gestione in collaborazione con il CASPUR.<br />
Ale<strong>ssa</strong>ndra Doria ricopre dal 2003 il ruolo di responsabile <strong>della</strong> Registration Authority<br />
per la Sezione <strong>INFN</strong> di <strong>Napoli</strong>, che garantisce alla <strong>INFN</strong> Certification Authority la<br />
richieste di certificati X.509 provenienti dal personale <strong>della</strong> sezione e dagli associati. Tale<br />
incarico, affidato dal Dir<strong>et</strong>tore di Sezione, prevede il riconoscimento di ogni persona<br />
richedente un certificato <strong>INFN</strong> e l’approvazione di tale richiesta sotto la propria<br />
responsabilità. L’utilizzo dei certificati X.509 ha assunto nel tempo un’importanza ed una<br />
diffusione sempre maggiore, poiché consente l’autenticazione all’utilizzo delle risorse di<br />
calcolo e di storage nel contesto GRID internazionale e l’utilizzo delle r<strong>et</strong>i wireless in tutte<br />
le sezioni e laboratori dell’<strong>INFN</strong>.<br />
<strong>Napoli</strong> 19/2/2010<br />
12