12.08.2013 Views

Curriculum vitae et studiorum della dott.ssa ... - INFN Napoli

Curriculum vitae et studiorum della dott.ssa ... - INFN Napoli

Curriculum vitae et studiorum della dott.ssa ... - INFN Napoli

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Curriculum</strong> <strong>vitae</strong> <strong>et</strong> <strong>studiorum</strong><br />

<strong>della</strong> <strong>dott</strong>.<strong>ssa</strong> Ale<strong>ssa</strong>ndra Doria<br />

Dati personali<br />

• Ale<strong>ssa</strong>ndra Doria, nata a <strong>Napoli</strong> il 9 Maggio 1966.<br />

• Nazionalità: Italiana<br />

• Stato civile: Coniugata. 2 figli.<br />

• Residenza: Viale Winspeare 38, 80127 <strong>Napoli</strong>. Tel: 081 642064<br />

• E-mail: ale<strong>ssa</strong>ndra.doria@na.infn.it<br />

Attuale posizione professionale<br />

Tecnologo presso la Sezione di <strong>Napoli</strong> dell’Istituto Nazionale di Fisica Nucleare<br />

dal 2001.<br />

Titoli di studio<br />

• Maturità Scientifica conseguita nell'anno 1984 con votazione 58/60.<br />

• Laurea in Fisica conseguita presso l'Università Federico II di <strong>Napoli</strong>, il 16<br />

Luglio 1992 con votazione pari a 110/110 e lode.<br />

Lingue straniere<br />

• Inglese: scritto ottimo, orale ottimo<br />

• Francese: scritto discr<strong>et</strong>o, orale discr<strong>et</strong>o<br />

Formazione post-laurea<br />

• Corso “OSF Motif Programming”<br />

Hewl<strong>et</strong>t-Packard, Roma, Maggio 1993.<br />

• Corso “ANSI C Advanced Programming”<br />

Hewl<strong>et</strong>t-Packard, Roma, S<strong>et</strong>tembre 1993.<br />

• Corso “X Window”<br />

Hewl<strong>et</strong>t-Packard, Roma, Ottobre 1993.<br />

• Corso “PHIGS” (Programmer's Hierarchical Interactive Graphics System)<br />

Hewl<strong>et</strong>t-Packard, Roma, Novembre 1993.<br />

• “CERN School of Computing”<br />

Sopron (Ungheria), Agosto 1994.<br />

• Corso “UNIX: HP-UX V10”<br />

Hewl<strong>et</strong>t-Packard, Roma, S<strong>et</strong>tembre 1995.<br />

• “C++ for Particle Physics”<br />

Prof. P. Kunz, Padova, 11-15 Dicembre 1995.<br />

1


Contratti e borse di studio<br />

• 1 Maggio 1993 - 30 Aprile 1994.<br />

Borsa di studio <strong>della</strong> Hewl<strong>et</strong>t-Packard Italiana per una collaborazione con<br />

l'<strong>INFN</strong> nell'ambito dell'esperimento L3 al collisore e+e- LEP del CERN.<br />

Ogg<strong>et</strong>to: Sviluppo su workstation HP del programma di visualizzazione degli<br />

eventi di L3<br />

• 1 S<strong>et</strong>tembre 1994 - 1 S<strong>et</strong>tembre 1996<br />

Borsa di studio <strong>INFN</strong> presso la Sezione di <strong>Napoli</strong>, nell'ambito dell'esperimento<br />

KLOE al collisore e+e- DAΦNE dei Laboratori Nazionali di Frascati dell'<strong>INFN</strong>.<br />

Ogg<strong>et</strong>to: Sviluppo del Sistema di acquisizione dati di KLOE.<br />

• 2 S<strong>et</strong>tembre 1996 - 1 Maggio 2001<br />

Contratto a tempo d<strong>et</strong>erminato (art. 36) con profilo professionale di<br />

Tecnologo presso la Sez. <strong>INFN</strong> di <strong>Napoli</strong>, nell'ambito dell'esperimento KLOE.<br />

Ogg<strong>et</strong>to: Sviluppo del Sistema di acquisizione dati di KLOE<br />

• Dal 2 Maggio 2001 ad oggi<br />

Contratto a tempo ind<strong>et</strong>erminato con profilo professionale di Tecnologo in<br />

forza al servizio di Calcolo e R<strong>et</strong>i <strong>della</strong> Sezione <strong>INFN</strong> di <strong>Napoli</strong>, con una<br />

particolare connotazione di supporto agli esperimenti di fisica <strong>della</strong> alte energie<br />

ed ai prog<strong>et</strong>ti GRID.<br />

Responsabilità tecnico-scientifiche<br />

• Dal 2001 al 2004 - Rappresentante ATLAS-Italia nel comitato tecnico TIER1.<br />

• Da Ottobre 2003 ad oggi - Responsabile <strong>della</strong> Registration Authority <strong>della</strong><br />

Sezione <strong>INFN</strong> di <strong>Napoli</strong><br />

• Da Ottobre 2005 ad oggi - Responsabile operativo del Tier2 di ATLAS <strong>Napoli</strong>, si<br />

occupa dell’organizzazione e <strong>della</strong> gestione delle attività del centro, dell’allocazione<br />

delle risorse di calcolo e <strong>della</strong> pianificazione delle attività in collaborazione con gli<br />

altri centri Tier1 e Tier2, nonché di coordinare gli interventi del personale e dei<br />

responsbili tecnici.<br />

• Da Ottobre 2005 ad oggi - Vice responsabile gestionale e di coordinamento del<br />

Tier2 di ATLAS <strong>Napoli</strong>, coadiuva il responsabile nel coordinamento locale, nel<br />

coordinamento con l’infrastruttura nazionale Grid, nella gestione delle procedure<br />

d’acquisto e nella ricerca ed organizzazione del personale.<br />

• Dal 2005 ad oggi – Security Officer per il sito Tier2 di ATLAS <strong>Napoli</strong>.<br />

• Dal 2007 ad oggi - Responsabile AFS <strong>della</strong> Sezione di <strong>Napoli</strong>.<br />

Incarichi e partecipazione a commissioni di gara e di prog<strong>et</strong>to<br />

• Novembre 2003 - Responsabile del procedimento per la fornitura di biprocessori<br />

per la farm prototipo di ATLAS.<br />

• S<strong>et</strong>tembre 2005 - Membro <strong>della</strong> commissione tecnica di gara per biprocessori e<br />

storage per la farm di ATLAS/Tier2.<br />

• S<strong>et</strong>tembre/Dicembre 2005 - Membro <strong>della</strong> Commissione tecnica per la<br />

realizzazione del prog<strong>et</strong>to Tier2 di ATLAS.<br />

2


Presentazioni Orali a Conferenze Nazionali ed Internazionali<br />

• ``Me<strong>ssa</strong>ge System and Data Transmission in KLOE DAQ system'',<br />

CHEP 1997 , Computing in High Energy Physics. Berlino, 7-11 Aprile 1997.<br />

• ``A ROOT based Monitoring System for the KLOE Experiment'',<br />

AIHENP'99 , Cr<strong>et</strong>a, 12-16 Aprile 1999.<br />

• ``Tools di Monitoring in KLOE'',<br />

III Workshop <strong>INFN</strong> sul Software e Calcolo moderno, Martina Franca (BA),<br />

18-22 Ottobre 1999.<br />

• ``Online Monitoring System at KLOE'',<br />

CHEP 2000 , Computing in High Energy Physics. Padova, 7-11 Febbraio 2000.<br />

• “Il calcolo nell'esperimento ATLAS”<br />

Workshop sulle problematiche di calcolo e r<strong>et</strong>i nell'<strong>INFN</strong>, Paestum, Giugno 2003 .<br />

• “Deployment of Job Priority mechanisms in the Italian Cloud of the ATLAS<br />

experiment”, CHEP 2009 , Computing in High Energy Physics. Praga, 21-27 Marzo<br />

2009.<br />

Presentazioni Poster a Conferenze Nazionali ed Internazionali<br />

• “L’ esperimento ATLAS”,<br />

IES08 Italian e-Science 2008. <strong>Napoli</strong>, 27-29 Maggio 2008.<br />

• “Powerfarm: a power and emergency management thread-based software tool<br />

for the ATLAS <strong>Napoli</strong> Tier2”,<br />

CHEP09, Computing in High Energy Physics. Praga, 21-27 Marzo 2009.<br />

Attività didattica universitaria con ruolo docente:<br />

• Docente del corso “Programmazione ad ogg<strong>et</strong>ti e linguaggi avanzati per<br />

l’analisi dei dati in Fisica” organizzato dall’ateneo “Federico II” di <strong>Napoli</strong> in<br />

collaborazione con le regione Campania nell’ambito dei Corsi di base di Tecnologia<br />

dell’Informazione e <strong>della</strong> Comunicazione, <strong>Napoli</strong> Febbraio 2003. Durata del corso 40<br />

ore.<br />

• Titolare del corso “Linguaggi di programmazione II” del Corso di Laurea in<br />

Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo “Federico II” per<br />

l’a.a. 2004/05. Durata del corso 48 ore.<br />

3


Attività seminariale in corsi universitari e di <strong>dott</strong>orato:<br />

• ``Ogg<strong>et</strong>ti: paradigmi, archit<strong>et</strong>tura e linguaggi '' ,<br />

seminari sul linguaggio Java per il XIII Ciclo di Dottorato in Fisica Fondamentale ed<br />

Applicata, dell’Ateneo “Federico II” di <strong>Napoli</strong>, anno 1998 .<br />

• ``Ogg<strong>et</strong>ti: paradigmi, archit<strong>et</strong>tura e linguaggi '' ,<br />

seminari sul linguaggio Java per il XIV Ciclo di Dottorato in Fisica Fondamentale ed<br />

Applicata dell’Ateneo “Federico II” di <strong>Napoli</strong>, anno 1999.<br />

• Seminari per i Corsi di “Introduzione alle Griglie Computazionali” del corso di<br />

Laurea in Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo “Federico<br />

II” per gli a.a. 2004/05, 2005/06, 2006/07, 2007/08. Titolare del Corso il Prof.<br />

L.Merola.<br />

• Seminari per il Corso di “Griglie Computazionali”, del corso di Laurea in<br />

Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo “Federico II” per l’<br />

a.a. 2008/09. Titolare del Corso il Prof. L.Merola.<br />

Attività tutoriali e divulgative:<br />

Presso il CERN:<br />

• Tutorial su “Distributed Data Management”, ATLAS Software Week, Ottobre<br />

2007.<br />

Per l’<strong>INFN</strong>:<br />

• Corso ``Linguaggi Compilati Object Oriented: C++ e Java''<br />

organizzato dal Comitato <strong>INFN</strong> per la transizione alle Nuove Tecnologie di Calcolo,<br />

Bologna Maggio 1999.<br />

• Seminario divulgativo “Ricerca scientifica e tecnologie informatiche: Intern<strong>et</strong>,<br />

WEB e Grid”, per la giornata di orientamento dal titolo “Uno sguardo sulla fisica<br />

attraverso l’Istituto Nazionale di Fisica Nucleare” presso il Liceo Scientifico<br />

Mercalli di <strong>Napoli</strong>. 11 Marzo 2009.<br />

Correlazione di tesi di laurea:<br />

• Corso di Laurea in Informatica <strong>della</strong> Facoltà di Scienze MM FF e NN dell’Ateneo<br />

“Federico II”:<br />

o “Analisi e monitoraggio, in ambiente GRID, <strong>della</strong> distribuzione dati<br />

dell’esperimento ATLAS.”, Vincenza Palumbo, Laurea Triennale a.a.<br />

2007/08.<br />

o “Il monitoring <strong>della</strong> Grid”, Valerio de Matthaeis, Laurea Magistrale a.a.<br />

2008/09.<br />

o “Un sistema per la gestione delle emergenze in un Data Center in ambito<br />

Power e Cooling”, Giuseppe P<strong>et</strong>rizzo, Laurea Triennale a.a. 2008/09.<br />

4


Sintesi dell’attività di ricerca e sviluppo tecnologico<br />

• L3:<br />

o 1993/94 - Realizzazione dello “scan program” per l’esperimento L3, che<br />

perm<strong>et</strong>te l'analisi visuale degli eventi generati dalle collisioni e+e-, in grafica<br />

tridimensionale.<br />

• KLOE:<br />

o 1995/97 - Realizzazione del programma di Run Control per il Sistema di<br />

acquisizione dati dell’esperimento, sia per la parte relativa al controllo ed<br />

alla comunicazione tra i procassi di acquisizione, che per l’interfaccia grafica.<br />

o 1997/98 - Implementazione in ROOT del sistema di Monitoring Online e<br />

Offline.<br />

• ATLAS:<br />

o 2001 - Realizzazione di una farm prototipale per il gruppo ATLAS <strong>Napoli</strong><br />

o 2002/04 - Partecipazione ai programmi di validazione Data Challenges del<br />

modello di calcolo di ATLAS in Grid, sperimentando l’integrazione tra il<br />

software dell’esperimento ed il middlware di LCG.<br />

o 2005 – Stesura del prog<strong>et</strong>to per il Tier2 di ATLAS <strong>Napoli</strong>. Studio delle<br />

soluzioni per la scelta di processori, storage, configurazione di r<strong>et</strong>e e per le<br />

infrastrutture.<br />

o 2005/06 – Realizzazione del centro Tier2, approvato dai referee nel 2006,<br />

nella veste di responsabile operativo. Partecipazione all’acquisto delle risorse,<br />

installazione e configurazione dei sistemi di calcolo e di storage. Integrazione<br />

delle risorse nel sistema di calcolo di ATLAS e in WLCG – WorldWide LHC<br />

Computing Gird.<br />

o Dal 2006 ad oggi – Partecipazione come Senior Shifter ai turni di controllo<br />

del Sistema di Calcolo distribuito di ATLAS.<br />

o 2006 – Service Challenge 4 portato a termine con successo, dimostrando che<br />

l’infrastruttura me<strong>ssa</strong> a punto è in grado di sostenere per 3 s<strong>et</strong>timane il<br />

throughput di dati nominale richiesto in presa dati.<br />

o 2007/08 – Sviluppo del sistema di monitoraggio e gestione delle emergenze<br />

del centro, che consente di ricevere allarmi in caso di situazioni anomale e di<br />

intervenire con una procedura automatica qualora sia nece<strong>ssa</strong>rio uno<br />

spegnimento d’emergenza del centro (mancanza di corrente, temperatura oltre<br />

i limiti).<br />

o 2008 – Partecipazione a CCRC08 in cui tutti i 4 esperimenti LHC hanno<br />

dimostrato di poter utilizzare simultaneamente l’infrastruttura di calcolo<br />

LCG.<br />

o 2008 – Studio, test e applicazione dei meccanismi di Job Priorities e di Fair<br />

Share, per una condivisione ottimizzata delle risorse del sito. In base ai test<br />

eff<strong>et</strong>tuati il meccanismo è stato validato per il suo utilizza da parte di<br />

ATLAS.<br />

5


• GRID e Servizio Calcolo e R<strong>et</strong>i:<br />

o 2001/02 – Partecipazione al work-package 8 del prog<strong>et</strong>to <strong>INFN</strong>-GRID,<br />

relativo al supporto agli esperimenti HEP.<br />

o 2002 – Attività nel work-package 4 di <strong>INFN</strong>-GRID relativo al “computer<br />

fabric”.<br />

o 2002/03 – Realizzazione <strong>della</strong> farm <strong>della</strong> sez. di <strong>Napoli</strong> nel prog<strong>et</strong>to <strong>INFN</strong>-<br />

GRID.<br />

o 2003 ad oggi – Supporto ai gruppi sperimentali per l’utilizzo di Grid e per le<br />

farm di calcolo “di esperimento”.<br />

o 2007 ad oggi – Gestione del server nazionale di autenticazione AFS persso la<br />

sez. di <strong>Napoli</strong><br />

o 2006/08 – Partecipazione ad EGEE II nell’ambito dell’attività SA1<br />

(EUROPEAN GRID SUPPORT, OPERATION AND MANAGEMENT) .<br />

o 2003 ad oggi – Attività come responsabile <strong>della</strong> Registration Authority per<br />

la Sezione <strong>INFN</strong> di <strong>Napoli</strong>, identificazione degli utenti e supporto per l’uso<br />

dei certificati X.509 .<br />

Comp<strong>et</strong>enze acquisite<br />

Le comp<strong>et</strong>enze acquisite nel corso di Laurea e nei numerosi corsi di formazione post-laurea<br />

sono state ampliate e perfezionate applicandole alle diverse attività svolte, raggiungendo cosi<br />

una elevata comp<strong>et</strong>enza in numerosi s<strong>et</strong>tori, in particolare:<br />

• Sistemi operativi Unix/Linux, system management e programmazione di shell.<br />

• Prog<strong>et</strong>tazione e realizzazione sistemi di Acquisizione Dati.<br />

• Grid Computing e sue applicazioni.<br />

• Prog<strong>et</strong>tazione, gestione e monitoraggio di centri di calcolo.<br />

• Protocolli e R<strong>et</strong>i.<br />

• Programmazione in linguaggi C, C++, Java, Perl; programmazione grafica.<br />

Descrizione d<strong>et</strong>tagliata dell’ attività di ricerca e sviluppo tecnologco<br />

Ale<strong>ssa</strong>ndra Doria si è laureata in Fisica con orientamento Cibern<strong>et</strong>ico, il 16 Luglio<br />

1992, con votazione pari a 110/110 e lode, discutendo una Tesi dal titolo: “ Valutazione<br />

degli operatori logici e relazionali e gestione di dati a precisione arbitraria in un sistema<br />

multiprogrammabile simulato su r<strong>et</strong>e neurale''. Il lavoro di tesi ha comportato un<br />

approfondito studio dei sistemi basati sulle r<strong>et</strong>i neurali, in particolare secondo il modello di<br />

Mc Culloch e Pitts, al fine di implementare con una simulazione di r<strong>et</strong>e neurale una<br />

“macchina” concorrente programmabile mediante una linguaggio simbolico.<br />

Il prog<strong>et</strong>to di tesi è stato realizzato nel linguaggio di programmazione parallela OCCAM ed<br />

ha portato ad affrontare numerose problematiche relative a programmazione ed archit<strong>et</strong>ture<br />

concorrenti.<br />

In L3 (dal 1993 al 1996)<br />

Nel Maggio 1993 ha vinto una borsa di studio annuale <strong>della</strong> Hewl<strong>et</strong>t-Packard Italiana<br />

sotto la supervisione del Prof. L. Merola, per una collaborazione con l’<strong>INFN</strong> per<br />

l'esperimento L3 all'acceleratore LEP del CERN. Tale borsa è stata finalizzata alla<br />

6


ealizzazione del programma che perm<strong>et</strong>te l'analisi visuale (Scan program) degli eventi<br />

generati dalle collisioni e+e-, rappresentando in grafica tridimensionale sia l'apparato<br />

sperimentale di L3 che la risposta dei rivelatori al pa<strong>ssa</strong>ggio delle particelle.<br />

La parte di grafica tridimensionale è stata realizzata nello standard PHIGS (Programmers<br />

Hierarchical Interactive Graphics Standard) che definisce un m<strong>et</strong>odo per organizzare gli<br />

ogg<strong>et</strong>ti grafici in una struttura gerarchica. PHIGS perm<strong>et</strong>te alla rappresentazione grafica di<br />

ricevere input in modo interattivo e consente di collegare le funzioni grafiche con chiamate a<br />

funzioni in linguaggi come FORTRAN e C.<br />

Lo Scan program è dotato di un'interfaccia grafica a ``finestre e menu'' che consente<br />

all'utente di interagire in modi diversi con gli eventi rappresentati, ad esempio modificando il<br />

proprio ``punto di vista'' con rotazioni, traslazioni e zoom. Per l'implementazione<br />

dell'interfaccia grafica è stato utilizzato il toolkit OSF/Motif, basato sulle librerie X<br />

(standard grafico per i sistemi UNIX).<br />

Il lavoro è stato svolto prevalentemente presso il CERN collaborando dir<strong>et</strong>tamente con lo<br />

staff CERN responsabile dell’esperimento.<br />

La collaborazione con L3 è proseguita con la manutenzione del programma sviluppato e la<br />

partecipazione agli shift di Run Control dell’esperimento fino alla chiusura del LEP.<br />

Durante questo periodo si è occupata <strong>della</strong> installazione e gestione delle numerose<br />

workstation HP, con sistema operativo HP-UX in dotazione del gruppo I <strong>della</strong> Sezione di<br />

<strong>Napoli</strong>.<br />

In KLOE (dal 1994 al 2001)<br />

Nel S<strong>et</strong>tembre 1994 ha vinto una borsa di studio dell’<strong>INFN</strong> di durata biennale, con la<br />

quale è iniziata la partecipazione all'esperimento KLOE, installato presso la Φ factory<br />

DAΦNE ai Laboratori Nazionali di Frascati, occupandosi in particolare <strong>della</strong> prog<strong>et</strong>tazione e<br />

dello sviluppo di software per il sistema di acquisizione dati.<br />

Alla scadenza <strong>della</strong> borsa di studio, la partecipazione all'esperimento KLOE è proseguita<br />

grazie ad un contratto <strong>INFN</strong> come Tecnologo, rinnovato per 5 anni.<br />

Le principali responsabilità acquisite nell'ambito di KLOE riguardano il sistema di<br />

comunicazione tra i processi di acquisizione, i programmi per il controllo del run ed il<br />

monitoraggio dell'acquisizione dati.<br />

Ha partecipato sin dell’inizio alla prog<strong>et</strong>tazione ad alla realizzazione del software per<br />

sistema di acquisizione dati dell’esperimento KLOE, presso l’acceleratore Daφne ai<br />

Laboratori Nazionali di Frascati.<br />

Il periodo di assemblaggio dell’apparato e <strong>della</strong> fase di test in assenza di fascio, sono stati<br />

intensi dal punto di vista dello sviluppo e <strong>della</strong> me<strong>ssa</strong> a punto del software di acquisizione<br />

dati. Il sistema è composto da un vasto insieme di processi distribuiti con compiti diversi,<br />

che vanno dalla collezione di sub-eventi alla costruzione e registrazione degli eventi<br />

compl<strong>et</strong>i, dal controllo del run al monitoraggio dell’acquisizione. Il sistema di acquisizione<br />

dati è stato prog<strong>et</strong>tato e realizzato per sostenere un flusso totale di dati fino a 50 MB/s.<br />

Ale<strong>ssa</strong>ndra Doria si è occupata <strong>della</strong> definizione ed dell'implementazione del Me<strong>ssa</strong>ge<br />

System, il meccanismo generale con cui l'insieme dei processi coinvolti nell'acquisizione<br />

dati comunicano tra di loro. Il Me<strong>ssa</strong>ge System consente a qualsiasi processo, scritto<br />

secondo uno schema definito, di inviare e ricevere me<strong>ssa</strong>ggi in modo asincrono ed<br />

affidabile; ogni me<strong>ssa</strong>ggio ricevuto corrisponde ad un'azione eseguita dal processo. Il<br />

7


protocollo specializzato SNMP è utilizzato per la trasmissione affidabile dell'informazione<br />

sulla r<strong>et</strong>e. Il Me<strong>ssa</strong>ge System rappresenta il fulcro del programma di Run Control, il quale<br />

gestisce e sincronizza attraverso l'invio di comandi tutti i processi che, distribuiti sulle<br />

diverse CPU, prendono parte all'acquisizione dei dati.<br />

Il programma di Run Control è stato sotto la compl<strong>et</strong>a responsabilità di Ale<strong>ssa</strong>ndra Doria .<br />

Il Run Control, dotato di una interfaccia grafica realizzata in tcl/tk, consente all'operatore di<br />

inizializzare, avviare e fermare l'intera acquisizione, nonché di controllarne i param<strong>et</strong>ri<br />

rilevanti come il numero ed il tipo del run, il numero di eventi acquisiti, lo stato delle<br />

tensioni dei rivelatori e così via. Il Run Control ha anche il compito di registrare in un<br />

database le mappe e le condizioni di ogni run e di attivare numerosi programmi per il<br />

monitoraggio di ogni parte dell’acquisizione.<br />

Un successivo impegno per KLOE è stato la realizzazione di un sistema per il monitoring<br />

on-line e off-line dei dati acquisiti dall’esperimento, implementato in linguaggio C++. Per<br />

la realizzazione del sistema di monitoring A.D. ha utilizzato per la prima volta nell’ambito<br />

<strong>della</strong> collaborazione il framework ROOT, che era ancora in fase di sviluppo al CERN,<br />

primo framework per l’analisi dati in tecnologia object-oriented. Attraverso una interfaccia<br />

grafica interattiva il sistema consente di creare, selezionare e presentare un grande numero di<br />

istogrammi relativi alla risposta dei rivelatori, al sistema di Trigger, all'el<strong>et</strong>tronica di Front<br />

End, ottenuti sia dai dati online che da file precedentemente registrati.<br />

Dopo l’inizio <strong>della</strong> presa dati di KLOE, per rispondere alle esigenze riscontrate da parte dei<br />

fisici che si sono occupati dei vari sottosistemi dell’esperimento, ha inserito nel programma<br />

di Run Control numerose nuove funzionalità. Sono state ad esempio inserite nel sistema le<br />

calibrazioni on-line dei rivelatori (calorim<strong>et</strong>ro el<strong>et</strong>tromagn<strong>et</strong>ico e camera a drift), eff<strong>et</strong>tuate<br />

automaticamente ogni volta che sia stata raccolta una sufficiente quantità di dati. Il<br />

programma è stato inoltre integrato con l’invio di comandi al sistema di Slow Control, che<br />

controlla tutti i param<strong>et</strong>ri dell’apparato rivelatore (alte e basse tensioni, soglie …), in modo<br />

da centralizzare tutte le operazioni di controllo nece<strong>ssa</strong>rie allo svolgimento standard del run.<br />

In ATLAS (dal 2001 a oggi)<br />

Ale<strong>ssa</strong>ndra Doria collabora all’esperimento ATLAS di LHC, come responsabile operativo<br />

e viceresponsabile gestionale e di coordinamento del Tier2 presso la sezione <strong>INFN</strong> di<br />

<strong>Napoli</strong> .<br />

In quanto responsabile operativo è incaricata di organizzare e gestire le attività di supporto<br />

operativo nece<strong>ssa</strong>rie per l'utilizzo del centro da parte <strong>della</strong> collaborazione; si occupa tra<br />

l’altro dell' allocazione delle risorse di calcolo e <strong>della</strong> pianificazione delle attività di<br />

produzione in collaborazione con gli altri centri Tier1 e Tier2.<br />

Coadiuva inoltre il responsabile gestionale e di coordinamento <strong>dott</strong>. Gianpaolo Carlino nelle<br />

sue attività di coordinamento locale, contatti con la collaborazione, coordinamento con<br />

l'infrastruttura nazionale di Grid, gestione delle procedure di acquisto, ricerca e<br />

organizzazione del personale di esperimento.<br />

Il modello computazionale scelto in comune per gli esperimenti LHC è quello di una World<br />

Wide GRID, basato sulla realizzazione di una archit<strong>et</strong>tura di strutture di calcolo<br />

geograficamente distribuite, connesse da una r<strong>et</strong>e ad alta banda, nonché sullo sviluppo di un<br />

insieme di strumenti software capaci di rendere trasparente per l'utente l'allocazione delle<br />

risorse di calcolo e dei dati , siano essi locali o remoti. Il modello di calcolo a<strong>dott</strong>ato da<br />

ATLAS consite n una struttura gerarchica organizzata il diversi livelli, d<strong>et</strong>ti Tier. Il Tier0<br />

8


isede al CERN ed è responsabile del il primo proce<strong>ssa</strong>mento e dell’archiviazione dei dati<br />

raw e <strong>della</strong> distribuzione ai Tier1 di tali dati. I dieci centri Tier1 devono archiviare e dati raw<br />

e derivati, garantirne l’accesso ed eseguire le attività di riproce<strong>ssa</strong>mento. Ad ogni Tier1<br />

fanno capo un insieme di Tier2, raggruppati su base regionale in federazioni d<strong>et</strong>te Cloud. Le<br />

risorse dei centri Tier2 sono destinate all’analisi degli utenti in GRID ed alla simulazione<br />

Montecarlo. Sono previsti anche centri Tier3 solo per utilizzo locale.<br />

Dal 2001 al 2004 ha fatto parte per ATLAS del Comitato Tecnico del centro Regionale<br />

Tier1, presso il CNAF di Bologna, che si è occupato delle scelte e realizzazioni tecniche<br />

presso il Tier1 riguardanti gli esperimenti.<br />

A partire dall’anno 2001 si è occupata di organizzare per il gruppo ATLAS <strong>della</strong> sez. di<br />

<strong>Napoli</strong> una struttura di calcolo coerente con il modello sopra descritto.<br />

Ha innanzitutto realizzato e gestito una farm prototipale composta da 8 biprocessori<br />

Linux e 300 GB di area disco, che è stata utilizzata per la simulazione, la ricostruzione e<br />

l’analisi sia da utenti locali che da utenti di altre sezioni, come parte delle risorse di <strong>INFN</strong>-<br />

GRID,.<br />

Con tale farm prototipale ha fatto sì che la farm di ATLAS <strong>Napoli</strong> potesse partecipare al<br />

ATLAS Data Challenge 1 negli anni 2002-2003 e al Data Challenge 2 nel 2004. Queste<br />

fasi iniziali dell’attività di computing di ATLAS erano motivate dalla richiesta del “LHC<br />

Computing Review” di eff<strong>et</strong>tuare test di crescente dimensione e complessità al fine di<br />

m<strong>et</strong>tere le basi e validare il nuovo computing model incentrato sulla griglia computazionale<br />

studiando le soluzioni di middleware elaborate nell’ambito del prog<strong>et</strong>to LCG e di quelli che<br />

l’avevano preceduto.<br />

Il DC1 è stato il primo un programma di validazione del software e del modello di calcolo<br />

di ATLAS su scala mondiale, che ha riguardato la simulazione Montecarlo di un esteso<br />

campione di eventi (circa 10 7 ) e successivamente del relativo “pile-up” per diversi valori<br />

<strong>della</strong> luminosità. Questi eventi sono stati successivamente utilizzati per studi sul trigger di<br />

alto livello e ricostruiti per la verifica del buon funzionamento del software. Con il DC2<br />

invece tale uso è stato consolidato coinvolgendo fino a 20 nazioni e 70 siti tra cui quello di<br />

<strong>Napoli</strong> .<br />

Nel s<strong>et</strong>tembre 2005 è stata nominata nella commissione tecnica incaricata di preparare il<br />

prog<strong>et</strong>to per la realizzazione dei Tier2 italiani nelle sedi proposte di Frascati, Milano, <strong>Napoli</strong><br />

e Roma.<br />

Il lavoro ha richiesto di esaminare tutti gli asp<strong>et</strong>ti tecnici, logistici, organizzativi per la<br />

realizzazione di centri Tier2 ed è stato redatto un documento proponente soluzioni adeguate<br />

per la sede di <strong>Napoli</strong>.<br />

Nel 2006 le sezioni di <strong>Napoli</strong> e Roma, dopo una lunga fase di referaggio, sono state<br />

approvate come i due primi Tier2 italiani per ATLAS.<br />

La realizzazione del Tier2 ha richiesto ogni anno l’acquisto, l’installazione e la<br />

configurazione di nuove risorse di storage e di calcolo, fino a raggiungere allo stato<br />

attuale un sistema composto da un’area di storage di oltre 500 TB e da 60 biprocessori<br />

(single-core, dual-core e quad-core), per un totale di 506 cores che corrispondono ad<br />

altr<strong>et</strong>tante unità di calcolo. Il tutto è interconnesso attraverso dell’opportuna infrastruttura di<br />

r<strong>et</strong>e, che tiene conto dei flussi di dati previsti, sia all’interno <strong>della</strong> LAN che da/verso la r<strong>et</strong>e<br />

geografica. Ale<strong>ssa</strong>ndra Doria, in qualità di responsabile operativo del centro, ha avuto un<br />

ruolo d<strong>et</strong>erminante per tutte le scelte e le attività connesse allo sviluppo del Tier2.<br />

9


Nell’anno 2006 ha fatto sì che il Tier2 di <strong>Napoli</strong> partecipasse con successo al Service<br />

Challenge 4, una importante fase di validazione del middleware di LCG e delle<br />

infrastrutture di r<strong>et</strong>e, mantenendo per 3 s<strong>et</strong>timane il througput richiesto di 200 Mbyte/s per il<br />

trasferimento di dati dal Tier1 verso il Tier2 .<br />

Successivamente sono state portate avanti con successo nuove fasi di validazione, eseguite in<br />

comune da tutti gli esperimenti LHC, quali il Common Computing Readiness Challenges<br />

(CCRC) nel 2008 e il Scale Testing for Experiment Program (STEP) nel 2009 in cui<br />

l’intero sistema di computing veniva sottoposto a stress superiore a quello atteso durante la<br />

presa dati.<br />

Dalla fine del 2006 fa parte del gruppo ADCoS - ATLAS Distributed Computing operation<br />

Shifts – nel ruolo di “Senior Shifter”. Il gruppo, composto da membri dell’esperimento<br />

distribuiti tra America, Europa ed Asia, si occupa del controllo 24h/24 del sistema di<br />

Computing distribuito di ATLAS. Attraverso le pagine di monitoraggio messe a punto<br />

dall’esperimento, lo shifter in turno rileva eventuali malfunzionamenti nei trasferimenti di<br />

dati nella Grid, nell’attività di produzione Montecarlo o di ricostruzione dati. Ne identifica la<br />

causa che può risiedere in servizi centrali di ATLAS, in fallimenti (hardware o software)<br />

nelle risorse di calcolo e di storage distribuite oppure in problemi nelle connessioni di r<strong>et</strong>e.<br />

Notifica quindi il problema riscontrato ai responsabili dei servizi o delle risorse ed<br />

eventualmante interviene per escludere dal sistema distribuito la causa dei fallimenti. Gli<br />

shifter “Senior” hanno anche il compito di istruire lo shifter “Trainee” che viene ad essi<br />

affiancato. L’ attività nel gruppo ADCoS richiede una profonda conoscenza del sistema di<br />

calcolo distribuito di ATLAS e del funzionamento <strong>della</strong> Grid.<br />

Nel 2007-2008 ha sviluppato, coordinando il lavoro di tre contrattisti del prog<strong>et</strong>to<br />

S.C.O.P.E. dell’Università Federico II di <strong>Napoli</strong>, un sistema per il monitoraggio e per la<br />

gestione delle emergenze del centro Tier2. Tale sistema è interfacciato ad un insieme di<br />

sensori posizionati nei rack e nel sistema di alimentazione el<strong>et</strong>trica, che rilevano situazioni<br />

anomale come la mancanza di corrente, l’aumento <strong>della</strong> temperatura, la presenza di acqua o<br />

fumo nei rack stessi. Oltre ad inviare allarmi e notifiche per gli eventi rilevati, il sistema è<br />

capace di eff<strong>et</strong>tuare automaticamente uno spegnimento di emergenza dell’intero Tier2, in un<br />

ordine prestabilito e salvaguardando l’integrità dei dati.<br />

Il medesimo sistema può essere usato dagli amministratori del sito per la riaccensione di tutti<br />

i dispositivi tenendo conto delle dipendenze tra essi, nonché per lo spegnimento totale o<br />

parziale in caso di interventi di manutenzione.<br />

Nel 2008 ha eff<strong>et</strong>tuato lo studio ed il test dei meccanismi di Job Priorities e di Fair Share,<br />

che consentono di condividere le risorse di un sito tra diverse Virtual Organization e tra<br />

diversi gruppi <strong>della</strong> ste<strong>ssa</strong> VO, ottimizzandone l’utilizzo e risp<strong>et</strong>tando delle policy<br />

prestabilite. In base ai test eff<strong>et</strong>tuati il meccanismo è stato validato per il suo utilizzo da<br />

parte di ATLAS. Il lavoro è stato presentato alla conferenza CHEP 2009.<br />

Nel 2008, eff<strong>et</strong>tuando analisi e test sull’accesso ai dati da parte dei job di analisi, le cui<br />

prestazioni sono particolarmente limitate dall I/O, ha contribuito a d<strong>et</strong>erminare una nuova<br />

configurazione <strong>della</strong> r<strong>et</strong>e che soddisfacesse il throughput richiesto. È stata quindi ripensata<br />

la struttura <strong>della</strong> LAN del Tier2, acquistando ed installando degli switch che consentono<br />

collegamenti a 10 Gb/s tra le risorse di calcolo ed i server di storage.<br />

10


L’insieme di queste attività ha portato ad acquisire una approfondita conoscenza ed una<br />

consistente esperienza su tutti gli asp<strong>et</strong>ti relativi al Grid Computing. Si è occupata<br />

dell’installazione e <strong>della</strong> configurazione sia dei sistemi operativi che del middleware,<br />

gestendo i continui aggiornamenti tra le successive versioni del middleware LCG-gLite e le<br />

transizioni tra le diverse release del sistema operativo. Per far fronte alle necessità tecniche<br />

del Tier2, tanto sotto l’asp<strong>et</strong>to del calcolo quanto per gli impianti, ha cura di coordinare gli<br />

interventi del personale e dei responsbili tecnici.<br />

Ha affrontato le problematiche relative alla realizzazione di un grosso centro di calcolo,<br />

studiando le possibili soluzioni per la scelta dei processori, per la configurazione dello<br />

storage e per la configurazione di r<strong>et</strong>e, aggiornando continuamente le soluzioni proposte<br />

in base alle novità tecnologiche disponibili sul mercato ed alle crescenti esigenze del centro.<br />

Attività di servizio e in GRID<br />

Per la notevole esperienza maturata nelle tecnologie software più avanzate, applicate ai<br />

s<strong>et</strong>tori dell'acquisizione e dell' analisi dati nella fisica delle alte energie, negli anni 1998 e<br />

1999 ha collaborato con il CNTC (Comitato Nuove Tecnologie di Calcolo dell’<strong>INFN</strong>),<br />

facendo parte del gruppo di docenti per i corsi di aggiornamento sulle nuove tecnologie<br />

nell'<strong>INFN</strong>. Ha quindi partecipato alla preparazione dei corsi sui linguaggi ad ogg<strong>et</strong>ti, sui<br />

sistemi operativi e sui database relazionali ed a ogg<strong>et</strong>ti, tenendo in prima persona il corso sui<br />

linguaggi ad ogg<strong>et</strong>ti nella sede di Bologna nel Maggio 1999.<br />

Nell'ambito dei prog<strong>et</strong>ti nazionali <strong>INFN</strong>, Ale<strong>ssa</strong>ndra Doria ha collaborato attivamente con il<br />

prog<strong>et</strong>to <strong>INFN</strong>-GRID.<br />

Nel 2001 – 2002 ha lavorato per il work-package 8 del prog<strong>et</strong>to <strong>INFN</strong>-GRID, relativo al<br />

supporto agli esperimenti HEP, eff<strong>et</strong>tuando l’integrazione dei servizi Grid nel sistema di<br />

produzione di ATLAS presso la farm prototipo di ATLAS presente nella sezione di <strong>Napoli</strong>.<br />

Nell’anno 2002 ha preso parte, nell’ambito delle attività del Servizio Calcolo e R<strong>et</strong>i <strong>della</strong><br />

sez. di <strong>Napoli</strong>, al work-package 4 di <strong>INFN</strong>-GRID relativo al “computer fabric”. Lo scopo<br />

del wp4 è stato lo studio <strong>della</strong> organizzazione ottimale di un insieme di risorse (processori,<br />

memoria, dischi) connesse su r<strong>et</strong>e privata e lo sviluppo di strumenti che consentano l’utilizzo<br />

di tali risorse come una singola risorsa di calcolo, che prende il nome di farm.<br />

Per il wp4 ha contribuito alla valutazione del sistema openMosix, un pacch<strong>et</strong>to Open<br />

Source che, attraverso una estensione del kernel Linux, realizza il bilanciamento dinamico<br />

del carico tra i processori di una farm. Ha inoltre partecipato a test eff<strong>et</strong>tuati su una farm<br />

presente presso la sezione <strong>INFN</strong> di Lecce, i cui nodi sono interconnessi mediante uno switch<br />

ed interfacce di r<strong>et</strong>e con tecnologia Myrin<strong>et</strong>, per esplorarne le diverse prestazioni e la loro<br />

utilizzabilità nell’ambito di <strong>INFN</strong>-GRID e degli esperimenti HEP.<br />

Sempre nell’ambito dell’attività con il Servizio Calcolo e R<strong>et</strong>i <strong>della</strong> sezione, a partire<br />

dall’anno 2002 ha contribuito in modo d<strong>et</strong>erminenate alla prog<strong>et</strong>tazione, alla realizzazione<br />

ed alla gestione <strong>della</strong> prima farm <strong>della</strong> sezione di <strong>Napoli</strong> nel prog<strong>et</strong>to <strong>INFN</strong>-GRID.<br />

Grazie all’esperienza acquisita ha quindi costantemente fornito supporto ai gruppi<br />

sperimentali <strong>della</strong> sezione (Pamela, CMS, Argo, Virgo, oltre che ATLAS) per quanto<br />

riguarda le problematiche relative al calcolo distribuito e a GRID, in particolare per la<br />

realizzazione e la gestione delle numerose farm di calcolo “di esperimento” presenti in<br />

sezione, che fanno parte <strong>della</strong> infrastruttura nazionale di GRID dell’<strong>INFN</strong>.<br />

11


Ha partecipato al prog<strong>et</strong>to EGEE II per tutta la sua durata (2006-2008), nell’ambito<br />

dell’attività SA1 (EUROPEAN GRID SUPPORT, OPERATION AND MANAGEMENT)<br />

per il supporto su problemi operazionali, gestione dei siti e problem solving.<br />

Si occupa <strong>della</strong> gestione del servizio AFS per la sezione di <strong>Napoli</strong>, di cui è responsabile a<br />

partire dall’anno 2007, facendo inoltre parte del gruppo nazionale di lavoro AFS dal 2004<br />

al 2009. La sezione di <strong>Napoli</strong> ospita uno dei tre server nazionali di autenticazione AFS per<br />

la cella infn.it (gli altri due sono a Roma e a Bologna) del quale la sottoscritta è responsabile,<br />

curandone la gestione in collaborazione con il CASPUR.<br />

Ale<strong>ssa</strong>ndra Doria ricopre dal 2003 il ruolo di responsabile <strong>della</strong> Registration Authority<br />

per la Sezione <strong>INFN</strong> di <strong>Napoli</strong>, che garantisce alla <strong>INFN</strong> Certification Authority la<br />

richieste di certificati X.509 provenienti dal personale <strong>della</strong> sezione e dagli associati. Tale<br />

incarico, affidato dal Dir<strong>et</strong>tore di Sezione, prevede il riconoscimento di ogni persona<br />

richedente un certificato <strong>INFN</strong> e l’approvazione di tale richiesta sotto la propria<br />

responsabilità. L’utilizzo dei certificati X.509 ha assunto nel tempo un’importanza ed una<br />

diffusione sempre maggiore, poiché consente l’autenticazione all’utilizzo delle risorse di<br />

calcolo e di storage nel contesto GRID internazionale e l’utilizzo delle r<strong>et</strong>i wireless in tutte<br />

le sezioni e laboratori dell’<strong>INFN</strong>.<br />

<strong>Napoli</strong> 19/2/2010<br />

12

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!