10.07.2015 Views

Progetto di massima Centro Tier 2 di Torino - Infn

Progetto di massima Centro Tier 2 di Torino - Infn

Progetto di massima Centro Tier 2 di Torino - Infn

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Alessandro Bruno Pr. Ric. INFN ITS – construction DB SDDArnal<strong>di</strong> Roberta Ric. INFN Analisi dati e simulazione – ZDCBatigne Guillaume borsista INFN ITS – construction DB e calibrazione SDDBruna Elena dottoranda Analisi dati e simulazione – ITSCerello Piergiorgio Ric INFN ITS – responsabile GRID activities <strong>di</strong> ALICE(Europa)Crescio Elisabetta Assegnista ITS – tracking e vertexingDe Marco Nora Pr. Ric. INFN Analisi dati e simulazione - ZDCGau<strong>di</strong>chet Ludovic borsista ITS geometria – analisiGemme Roberto dottorando ZDC – simulazioneMasera Massimo PA responsabile offline ITS e referente italiano peril calcolo <strong>di</strong> AliceMonteno Marco ric. INFN ITS – fisica p-p in ALICEOppe<strong>di</strong>sano Chiara Assegnista Analisi dati e simulazione – ZDCPrino Francesco Ric. INFN Analisi dati e simulazione – ITSScomparin Enrico Pr. Ric. INFN Analisi dati e simulazione – ZDC e MUONarmÈ dalla fine dell’anno 2000 che il gruppo <strong>di</strong> <strong>Torino</strong> gestisce un prototipo <strong>di</strong> <strong>Tier</strong>-2 che hapartecipato con successo alle attività <strong>di</strong> calcolo dell’esperimento degli ultimi anni. Il centro <strong>di</strong><strong>Torino</strong> è uno dei tre siti pilota (con Legnaro e Milano) ad essere stato registrato in LCGall’inizio dell’attività della GRID <strong>di</strong> produzione nel 2003.Nel corso dell’ultimo anno, l’attività dei gruppi <strong>di</strong> <strong>Torino</strong> e <strong>di</strong> Alessandria si è articolata su trelinee:Sviluppo e consolidamento del prototipo <strong>di</strong> <strong>Tier</strong>-2 con l’installazione <strong>di</strong> nuovi server<strong>di</strong>sco e <strong>di</strong> no<strong>di</strong> <strong>di</strong> calcolo. Su una parte delle risorse si è installato il middleware <strong>di</strong>LCG e più recentemente sono stati testati un Resource Broker e una User Interface <strong>di</strong>gLite. Inoltre, nelle fasi I e II del Physics Data Challenge 2004 (P.D.C.), si èconfigurato su <strong>di</strong> una User Interface <strong>di</strong> LCG un servizio <strong>di</strong> CE e SE <strong>di</strong> AliEn perinterfacciare l’ambiente <strong>di</strong> produzione dell’esperimento con LCG. Il proto <strong>Tier</strong>-2torinese ha partecipato al Physics Data Challenge del 2004, contribuendo a poco menodel 10% della statistica totale. A <strong>Torino</strong> era installata e gestita l’interfaccia perl’accesso alle risorse LCG.Sviluppo e test <strong>di</strong> software legato all’uso della Grid. Nella seconda metà del 2004 si èutilizzato il sistema <strong>di</strong> interfaccia AliEn-LCG, sviluppato a <strong>Torino</strong>, per l’accesso allerisorse <strong>di</strong> <strong>Infn</strong>Grid. Inoltre è stato testato il Resource Broker <strong>di</strong> gLite ed il FileCatalogue (LFC) <strong>di</strong> LCG, con una simulazione <strong>di</strong> alcune migliaia <strong>di</strong> eventi che sonoutilizzati nell’ambito del Physics Working Group sugli Heavy Flavour. Infine, a partiredal febbraio 2005, si è iniziata l’attività <strong>di</strong> interfacciamento tra AliEn e le nuovecomponenti middleware della GRID <strong>di</strong> produzione (LCG e gLite). L’attività è tuttora incorso e l’interfaccia sarà utilizzata nelle Service Challenge del 2005. Queste attivitàsono coor<strong>di</strong>nate, a livello della Collaborazione, da Piergiorgio Cerello, nell’ambito


delle Service Challenge <strong>di</strong> LCG. Stefano Bagnasco rappresenta la persona <strong>di</strong>collegamento tra la Collaborazione ed il progetto speciale <strong>Infn</strong>Grid per quanto riguardalo sviluppo del middleware e la sua rispondenza alle necessità specifiche <strong>di</strong> Alice ed èimpegnato nello sviluppo e nella implementazione delle componenti necessarie.Sviluppo <strong>di</strong> software legato ai rivelatori e a stu<strong>di</strong> <strong>di</strong> fisica. L’attività in questo sensoriflette le responsabilità che i gruppi <strong>di</strong> <strong>Torino</strong> e Alessandria hanno nell’ambito dellacostruzione dell’apparato. Per quanto riguarda lo ZDC, per determinare la centralità incollisioni p-A, è stato realizzato un generatore per simulare l’emissione <strong>di</strong> nucleonilenti (tracce grigie) che risultano essere proporzionali al numero <strong>di</strong> collisioni nucleonenucleone.I risultati delle simulazioni sono stati inclusi nel PPR. È tuttora in corso losviluppo della fast simulation dello ZDC per la determinazione accurata della centralitàdegli urti Pb-Pb. Per quanto riguarda il muon arm, è stata stu<strong>di</strong>ata la produzione <strong>di</strong>coppie <strong>di</strong> muoni da deca<strong>di</strong>mento del quark b, identificando la relativa componente nellospettro <strong>di</strong> massa invariante dei <strong>di</strong>muoni. È stato inoltre portato a termine lo stu<strong>di</strong>o delladeterminazione del comportamento a basso x (


La sede proposta per il centro <strong>Tier</strong>-2 <strong>di</strong> <strong>Torino</strong> è la Sala Farm del <strong>Centro</strong> <strong>di</strong> Calcolo dellasezione INFN <strong>di</strong> <strong>Torino</strong> in via Pietro Giuria 1. Nella stessa sala saranno ospitate anche le farmdegli esperimenti non LHC.2Risorse <strong>di</strong> calcolo.2.1 Tipologia e quantità delle risorse <strong>di</strong> calcolo (CPU, Disco, switch<strong>di</strong> rete <strong>di</strong> primo livello con in<strong>di</strong>cazione potenza elettrica assorbita)La valutazione delle risorse necessarie in funzione degli anni è stata fatta a partire dalle stime<strong>di</strong> ALICE per le risorse dei propri <strong>Tier</strong>-2, in termini <strong>di</strong> KSI2k e TB. La stima è basata sui daticontenuti nel Computing Technical Design Report, sul peso della componente italiana in senoalla Collaborazione e sul suo impegno nelle attività <strong>di</strong> calcolo. Si è tenuto conto anche delle in<strong>di</strong>cazionisui limiti <strong>di</strong> spesa forniti in via preliminare dall’INFN. Queste valutazioni sono statepresentate nella seduta <strong>di</strong> giugno 2005 della Commissione Scientifica Nazionale III. I progettidei 4 <strong>Tier</strong>-2 <strong>di</strong> ALICE sono stati fatti assumendo un’equi<strong>di</strong>stribuzione delle risorse sui quattrositi. Da queste valutazioni sono state poi derivate le stime in numero <strong>di</strong> box e <strong>di</strong>schi, e <strong>di</strong> conseguenzale necessità in termini <strong>di</strong> spazio fisico, potenza elettrica e costi. A tal fine è stata utilizzatala seguente tabella, usata come riferimento comune da tutti gli esperimenti <strong>di</strong> LHC (modello<strong>di</strong> previsione PASTAIII del CERN mo<strong>di</strong>ficato da B. Panzer)2004 2005 2006 2007 2008 2009 2010kSi2k/box 2,40 3,60 5,40 8,10 12,15 18,23 27,34GB/<strong>di</strong>sk 200 330 540 900 1500 2400 4000La quantità <strong>di</strong> risorse per il <strong>Tier</strong>-2 <strong>di</strong> <strong>Torino</strong> in funzione del tempo è riportata nella tabella seguente:2005 2006 2007 2008 2009 2010KSI2K 150 150 283 645 1210 1500TB 23 52 103 232 444 532La stessa informazione è riportata qui in forma grafica per la CPU:


CPU (KSI2K)1600140012001000KSI2K8006004002000<strong>di</strong>c-05mar-06E per il <strong>di</strong>sco:giu-06set-06<strong>di</strong>c-06mar-07giu-07set-07<strong>di</strong>c-07mar-08giu-08set-08Year<strong>di</strong>c-08mar-09giu-09set-09<strong>di</strong>c-09mar-10giu-10set-10<strong>di</strong>c-10DISKS (TB)600500400TB3002001000<strong>di</strong>c-05mar-06giu-06set-06<strong>di</strong>c-06mar-07giu-07set-07<strong>di</strong>c-07mar-08giu-08set-08YEAR<strong>di</strong>c-08mar-09giu-09set-09<strong>di</strong>c-09mar-10giu-10set-10<strong>di</strong>c-10La valutazione in termini <strong>di</strong> KSI2k e TB si traduce in box da una unità standard e numero <strong>di</strong> <strong>di</strong>schiapplicando la tabella <strong>di</strong> conversione convenzionalmente adottata:2005 2006 2007 2008 2009 2010CPU (BOXES) 47 47 52 82 88 99DISKS 83 138 166 251 301 275


.2.2 Profilo <strong>di</strong> acquisizioneLe risorse verranno installate nello stesso anno <strong>di</strong> acquisizione per essere <strong>di</strong>sponibili a fineanno alla Collaborazione. Il profilo temporale tiene conto delle sostituzioni dell’hardwareobsoleto, assumento una vita operativa <strong>di</strong> quattro anni sia per la cpu che per i <strong>di</strong>schi. Il profilo<strong>di</strong> acquisti per anno è riassunto dalla tabella seguente, presentata in Commisione III:2006 2007 2008 2009 2010CPU(BOXES)/YR 0 21 30 37 11DISKS /YR 55 65 86 95 29CPU (Ksi2K)/YR 0 173 363 675 290DISKS (TB) /YR 30 59 129 227 117.2.3 Target <strong>di</strong> performance <strong>di</strong> utilizzo dei mezzi <strong>di</strong> calcoloTempi <strong>di</strong> installazione e configurazione, efficienza <strong>di</strong> utilizzo della CPU e dello storage, downtime perinterventi <strong>di</strong> manutenzione.Il tempo <strong>di</strong> installazione fisica delle macchine, sia che venga effettuata dai fornitori, sia chevenga effettuata dal personale del centro, richiede tempi che si possono stimare in 2-3 giorniper equipaggiare un rack da 42 U. La configurazione del sistema operativo e del software <strong>di</strong>GRID viene fatta con tool automatici: con i sistemi APT/YAIM si impiega tipicamente mezzagiornata lavorativa per il server e il repository e circa un’ora a box, certificazione compresa.Sono previsti downtime totali della farm in caso <strong>di</strong> upgrade del software o <strong>di</strong> interventi sucomponenti critici del sistema (switch <strong>di</strong> rete, controller FibreChannel,…)Per minimizzare l’impatto dei guasti della farm, verrà posta particolare attenzione agli elementicritici quali servizi <strong>di</strong> sito, storage ed elettronica <strong>di</strong> rete. Sulla base dell’esperienza maturatafinora verranno utilizzati:Elementi hardware ridondanti (alimentatori, <strong>di</strong>schi in configurazione RAID)Disponibilità adeguata <strong>di</strong> parti spare (<strong>di</strong>schi, alimentatori)Estensione <strong>di</strong> garanzia con interventi on-site Next Business Day oppure con AdvanceReplacementIn base all’esperienza maturata sul prototipo, ci si aspetta una frequenza <strong>di</strong> 1-2 incidentirilevanti (downtime totale del sistema per più <strong>di</strong> qualche ora) all’anno.3Infrastrutture.3.1 Infrastrutture <strong>di</strong> reteDescrizione dell' infrastruttura <strong>di</strong> rete nelle sue due componenti <strong>di</strong> struttura interna e <strong>di</strong> collegamentoalla rete geografica. Si assume che il primo livello <strong>di</strong> connessione delle singole macchine del <strong>Tier</strong> 2 siaparte integrante dell'architettura delle farm, mentre il secondo livello costituisca l'infrastruttura locale<strong>di</strong> rete che, in uno schema <strong>di</strong> base, potrebbe essere formata da un unico centro-stella con <strong>di</strong>verse portead alta velocità. Per il collegamento verso l'esterno, e' utile venga in<strong>di</strong>cata, oltre a quella necessariaper il <strong>Tier</strong> 2, anche la banda complessiva totale prevista in ingresso e uscita, comprensiva delle altreutenze presenti in sede. La BGA e' la Banda Garantita <strong>di</strong> Accesso e la BEA e' la Banda Effettiva <strong>di</strong>Accesso che <strong>di</strong> solito sta tra 2 e 10 volte la BGA <strong>massima</strong> ed è determinata dalla tecnologia <strong>di</strong> accesso


(valori multipli <strong>di</strong> 1, 2.5 o 10 Gbit/s).Per quanto riguarda l’infrastruttura <strong>di</strong> rete <strong>di</strong> primo livello, che è parte integrantedell’architettura delle farm, al momento vengono utilizzati switch con porte prevalentemente a1 Gb/s. Non sono presenti switch con porte a 10 Gb/s. Alcuni server, tuttavia, utilizzanocollegamenti multipli allo switch, effettuando il load balancing, in modo tale da aumentare ilthroughput complessivo.Gli in<strong>di</strong>rizzi ip dei no<strong>di</strong> e dei server delle farm del <strong>Tier</strong>-2 appartengono ad una rete privata ecomunicano con la rete esterna attraverso opportuni gateway (il Computing Element, ad es.)oppure me<strong>di</strong>ante la traduzione degli in<strong>di</strong>rizzi me<strong>di</strong>ante NAT.I no<strong>di</strong> visibili delle farm hanno un in<strong>di</strong>rizzo pubblico appartenente ad una sottorete <strong>di</strong> classe Cde<strong>di</strong>cata alle farm e fisicamente separata dalla rete pubblica <strong>di</strong> Sezione.Gli switch delle farm del <strong>Tier</strong>-2 sono collegati al centro stella della Sala Farm (attualmentecostituito da un Summit 5i, con 16 porte a 1 Gbit/s) e quest’ultimo è collegato al router <strong>di</strong>frontiera della sezione (Cisco 7304, acquistato nel 2004) me<strong>di</strong>ante un link in fibra ottica ad 1Gb/s. Lo switch centro stella della Sala Farm dovrà essere sostituito nel 2006 per aumentare ilnumero <strong>di</strong> porte <strong>di</strong>sponibili.A sua volta il router <strong>di</strong> frontiera è collegato al PoP GARR-G, ospitato dalla Sezione INFNnello stesso e<strong>di</strong>ficio, me<strong>di</strong>ante un link in fibra ottica ad 1 Gb/s.Attualmente sono in corso alcuni test <strong>di</strong> performance del trasferimento dati tra il <strong>Tier</strong>-2 <strong>di</strong><strong>Torino</strong> ed il <strong>Tier</strong>-1 del CNAF, nell’ambito delle attività per il Service Challenge 3.Per quanto riguarda la banda necessaria per il <strong>Tier</strong>-2, ALICE prevede la necessità <strong>di</strong> una bandagarantita a partire dal 2007, fino a raggiungere 1 Gb/s in uscita e 200 Mb/s in entrata nel 2010(ve<strong>di</strong> tabella).Non è attualmente possibile valutare con precisione le necessità <strong>di</strong> banda per gli esperimentinon LHC a partire dal 2008, né il costo degli switch necessari (aumento <strong>di</strong> 8 porte Gb/s dal2008 e <strong>di</strong> due porte 10 Gb/s nel 2010).Sistemi <strong>di</strong> reteunita' 2005 2006 2007 2008 2009 2010Caratteristiche principaliNumero <strong>di</strong> porte centro-stella a 10Gbps n. 0 0 0 0 0 2Numero <strong>di</strong> porte centro-stella a 1 Gbps n. 16 24 24 32 32 32BGA in uscita dal <strong>Tier</strong> 2 Mbps 300 600 600 1000BGA in entrata dal <strong>Tier</strong> 2 Mbps 50 100 100 200BGA in uscita complessiva Mbps 70 70 370 650 650 1000BGA in entrata complessiva Mbps 70 70 120 150 150 250BEA verso il GARR Mbps 1000 1000 1000 1000 1000 10000CostiCosto centro stella e altreapparecchiature <strong>di</strong> rete kEuro 4Costo manutenzione annualekEuro


.3.2 LogisticaCaratteristiche strutturali della Sala Macchine che possono influenzare le scelte impiantistiche:• Collocazione sala, superficie totale <strong>di</strong>sponibile e superficie necessaria per il <strong>Tier</strong> 2• Caratteristiche sala (accessibilità, esposizione a rischi ambientali, altezza soffitto, portatapavimento, previsione <strong>di</strong> pavimento flottante, ... )• Conseguenti vincoli sulla <strong>di</strong>sposizione delle apparecchiature <strong>di</strong> calcolo (peso dei rack, altezza deirack, ...) e sull' accessibilità alle stesse.• Collocazione delle unità tecnologiche (UPS, con<strong>di</strong>zionamento, eventuale gruppo elettrogeno, quadrielettrici, impianto antincen<strong>di</strong>o, ecc.)La Sala Farm, dove sarà localizzato il <strong>Tier</strong>-2, è ospitata nel <strong>Centro</strong> <strong>di</strong> Calcolo della sezioneINFN che si trova nel I seminterrato del vecchio e<strong>di</strong>ficio dell’Istituto <strong>di</strong> Fisica. E’ dotata <strong>di</strong>pavimento galleggiante.Alle farm sono riservate 12 linee elettriche trifase che sono collegate al quadro elettrico del<strong>Centro</strong> <strong>di</strong> Calcolo me<strong>di</strong>ante due linee da 80 A ciascuna. Queste linee, il quadro della Sala Farmcon gli interruttori magnetotermici a cui le farm sono collegate, ed il quadro elettrico del<strong>Centro</strong> <strong>di</strong> Calcolo sono stati realizzati nel 2004 con fon<strong>di</strong> <strong>di</strong> sezione.Al <strong>Centro</strong> <strong>di</strong> Calcolo si può accedere dal corridoio nel I seminterrato del vecchio e<strong>di</strong>ficio <strong>di</strong>Fisica oppure dal cortile (a cui si accede da C.so Massimo D’Azeglio 46). L’ingresso latocortile è particolarmente utile per effettuare il trasporto <strong>di</strong> materiali.


.3.3 Impianti tecnologici.3.3.1 Potenza elettricaLe linee ed i quadri elettrici del <strong>Centro</strong> <strong>di</strong> Calcolo, che comprendono anche linee e quadro dellaSala Farm, sono stati realizzati nel 2004 e sono <strong>di</strong>mensionati in modo tale da poter sostenerel’assorbimento elettrico attuale e quello previsto almeno fino al 2007. Deve essere peròverificato (e la richiesta è già stata inoltrata all’ufficio tecnico dell’Università) se la sottocabinadell’Istituto <strong>di</strong> Fisica a cui il <strong>Centro</strong> <strong>di</strong> Calcolo è collegato è in grado <strong>di</strong> sostenere l’aumentoprevisto <strong>di</strong> potenza elettrica, tenendo anche conto del fatto che a tale sottocabina sono collegatealtre utenze dell’Istituto.Per le necessità dal 2008 in poi occorrerà fare una ulteriore e più precisa valutazione.Tabella 1unita' 2005 2006 2007 2008 2009 2010Caratteristiche principaliPotenza elettrica totale necessaria permacchine centro <strong>Tier</strong> 2 kW 22,1 24,3 27,5 42,9 47,3 50,6Potenza elettrica totale necessaria peraltre macchine presenti in sala kW 60,0 70,0 75,0 ? ? ?Potenza elettrica <strong>di</strong>sponibile in sala kVAPotenza elettrica <strong>di</strong>sponibile in cabina kVAPotenza <strong>massima</strong> <strong>di</strong>sponile per rack kVADisponibilita' sistema <strong>di</strong> monitoring espegnimento automatico su allarme meseCostiInterventi necessarikEuroCosto interventikEuroCosto manutenzione annualekEuroCosto energia elettricakEuroPer il calcolo della potenza necessaria per il <strong>Tier</strong>-2 (riportati nella tabella) sono stati utilizzati(dopo varie interazioni e <strong>di</strong>scussioni) i valori costanti <strong>di</strong> 400 W per box e 40 W per <strong>di</strong>sco chedovrebbero rappresentare una stima cautelativa delle necessità reali.Per quanto riguarda il costo della fornitura <strong>di</strong> energia elettrica per il <strong>Centro</strong> <strong>di</strong> Calcolo (e quin<strong>di</strong>anche per il <strong>Tier</strong>-2) attualmente tale costo non insiste sulla sezione INFN <strong>di</strong> <strong>Torino</strong> poiché è acarico dei Dipartimenti <strong>di</strong> Fisica dell’Università con i quali è stata stipulata una convenzionegenerale.E’ molto probabile, pero’, che con la crescita significativa del consumo <strong>di</strong> corrente elettricasarà necessario ridefinire l’accordo con l’Università definendo un contributo specifico perquesta spesa a carico della sezione INFN.


.3.3.2 Sistemi <strong>di</strong> raffreddamento e trattamento dell' ariaAttualmente la sala calcolo, in cui sarà ospitato il <strong>Tier</strong>-2, è raffreddata da due con<strong>di</strong>zionatoricon le seguenti caratteristiche:con<strong>di</strong>zionatore resa frigorifera tot (kw) resa frigorifera sens. (kw)HIMOD 42UA 43.4 41.3HIMOD 65UA 66.6 60.6Totale 110.0 101.6Il secondo (e più potente) con<strong>di</strong>zionatore è stato installato nel 2004 per <strong>di</strong>ssipare il caloreprodotto dalle farm. L’incremento <strong>di</strong> potenza <strong>di</strong> calcolo e storage del <strong>Tier</strong>-2 non dovrebbecomportare problemi <strong>di</strong> con<strong>di</strong>zionamento almeno fino alla fine del 2007. E’ in fase <strong>di</strong>valutazione l’incremento <strong>di</strong> potenza <strong>di</strong> calcolo e storage per gli esperimenti non LHC per poterfare una valutazione complessiva della potenza frigorifera necessaria.E’ però necessario dotarsi da subito <strong>di</strong> sistemi per il convogliamento dell’aria attraverso i rack,in modo tale da incrementare in modo significativo l’efficienza della <strong>di</strong>ssipazione del caloreprodotto dalle farm.La spesa sarà valutata sulla base delle raccomandazioni che saranno date dal gruppo <strong>di</strong> lavorocostituito nel workshop sulle infrastrutture <strong>Tier</strong>-2 <strong>di</strong> Padova (ottobre 2005).Inoltre, un ulteriore elemento che influisce sulla <strong>di</strong>ssipazione del calore, è il tipo <strong>di</strong> calcolatoriutilizzati (ad es. sistemi blade vs calcolatori 1U) e anche <strong>di</strong> questo bisognerà tenere conto nelprocesso <strong>di</strong> definizione delle specifiche per i nuovi acquisti <strong>di</strong> hardware..3.3.3 UPSAttualmente non esiste un impianto UPS centralizzato per le farm.Le farm del <strong>Tier</strong>-2 sono protette da due piccoli UPS (da 3000 VA e 5000 VA) che proteggono iserver importanti e lo switch <strong>di</strong> rete consentendo lo shutdown delle macchine in caso <strong>di</strong>mancanza <strong>di</strong> corrente.Sicuramente questo servizio dovrà essere notevolmente potenziato a partire dal 2006.La valutazione sarà effettuata tenendo conto delle raccomandazioni che saranno date dalgruppo <strong>di</strong> lavoro costituito nel workshop sulle infrastrutture <strong>Tier</strong>-2 <strong>di</strong> Padova (ottobre 2005).


.3.3.4 Gruppo elettrogenoStrategia <strong>di</strong> gestione dei black-out non programmati non gestibili dall' UPS ed eventuale acquisizionemotivata <strong>di</strong> un gruppo elettrogeno.Attualmente non è presente un gruppo elettrogeno e non lo si ritiene in<strong>di</strong>spensabile per ilfunzionamento del <strong>Tier</strong>-2..3.3.5 KVMTecnologia adottata (seriale, IP) e caratteristiche <strong>di</strong> scalabilità ed accessibilità.Attualmente i calcolatori delle farm sono collegati a switch KVM standalone o, al più, collegatiin cascata. E’ prevista l’implementazione <strong>di</strong> una soluzione console su ip in modo tale daconsentire la gestione remota delle farm e per questo nel 2005 è stato richiesto unfinanziamento alla CCR (in terza priorità, non ancora assegnato). Per il 2006 sono statirichiesti ulteriori 60 kEur per rack, remotizzazione console, UPS, etc. alla CommissioneCalcolo e Reti..3.3.6 Impianto anti-incen<strong>di</strong>oEsiste un impianto antincen<strong>di</strong>o comune per il <strong>Centro</strong> <strong>di</strong> Calcolo e la sala farm. Tale impianto ècostituito da 3 bombole <strong>di</strong> gas ecologico NAF S III, due a vista ed una sotto il pavimento galleggiante.Le bombole sono state ricollaudate il 1 aprile 2003.Non si ritiene necessario potenziare l’impianto..3.3.7 Sistemi <strong>di</strong> allarmeE’ attivo un impianto antifurto per il <strong>Centro</strong> <strong>di</strong> Calcolo dove sarà ospitato il <strong>Tier</strong>-2. In caso <strong>di</strong>allarme è previsto l’intervento del personale <strong>di</strong> una <strong>di</strong>tta <strong>di</strong> sorveglianza privata (serviziopagato dall’Università)..3.3.8 Controllo <strong>di</strong> accesso e <strong>di</strong> videosorveglianzaE’ in fase <strong>di</strong> realizzazione la separazione della sala farm, dove sarà ospitato il <strong>Tier</strong>-2, dal<strong>Centro</strong> <strong>di</strong> Calcolo. L’accesso alla sala farm avverrà da un ingresso de<strong>di</strong>cato con controllo <strong>di</strong>accesso me<strong>di</strong>ante scheda magnetica e chiavi. Non esiste impianto <strong>di</strong> videosorveglianza.


4Risorse umane.4.1 Ruoli <strong>di</strong> responsabilità.4.1.1 Responsabilità gestionale e <strong>di</strong> coor<strong>di</strong>namento:Incarico assegnato a membro della collaborazione, coa<strong>di</strong>uvato eventualmente da un vice-responsabile,che svolge le funzioni <strong>di</strong>:● coor<strong>di</strong>namento locale● contatti con la collaborazione, con le Commissioni INFN, ecc.● coor<strong>di</strong>namento con l'infrastruttura nazionale <strong>di</strong> Grid● gestione procedure <strong>di</strong> acquisto● ricerca e organizzazione personale <strong>di</strong> esperimentoLa responsabilità gestionale ed operativa del centro sarà assunta dalle seguenti persone: Massimo Masera (PA) Enrico Scomparin (primo ric. - vice) Luciano Gaido (primo tecnologo - coor<strong>di</strong>namento con l’infrastruttura <strong>di</strong> GRID) Piergiorgio Cerello (ric. - coor<strong>di</strong>namento con la Collaborazione).4.1.2 Responsabilità tecniche● responsabile(i) impianti e servizi generali● responsabile architettura hardware e software del <strong>Tier</strong>2● coor<strong>di</strong>namento personale tecnico● accesso e funzionamento risorse locali attraverso la Gridresponsabile impianti e servizi generali e coor<strong>di</strong>namento personale: Luciano Gaido(primo tecnologo)responsabile architettura hardware e software: Mario Sitta (RU) e Stefano Lusso(tecnologo)accesso e funzionamento risorse locali attraverso la Grid: Stefano Bagnasco (“tempodeterminato”).4.1.3 Responsabilità operativeUn membro della collaborazione, incaricato <strong>di</strong> organizzare e gestire le attività <strong>di</strong> supporto operativonecessarie per l'utilizzo del centro da parte della collaborazione, incluse l' allocazione delle risorse <strong>di</strong>calcolo e la pianificazione delle attività <strong>di</strong> produzione in collaborazione con gli altri centri <strong>Tier</strong>1 e<strong>Tier</strong>2Le responsabilità operative sono assunte dalle stesse persone che hanno le responsabilitàgestionali, menzionate al punto 4.1.1


.4.2 Personale tecnico.4.2.1 Personale per i servizi <strong>di</strong> basePersonale facente parte del servizio <strong>di</strong> calcolo della Sezione o Laboratorio che assicuri con lanecessaria continuità i servizi <strong>di</strong> rete, gestione sicurezza (es.: security contact <strong>di</strong> Grid), E-mail, backup,ecc.I servizi <strong>di</strong> base, comuni con la Sezione, saranno forniti dal Servizio Calcolo e Reti <strong>di</strong> Sezione.4.2.2 Personale sistemistico de<strong>di</strong>cato (1.5-2 FTE <strong>di</strong>stribuiti su due e o piùpersone)Personale tecnico o tecnologo incaricato <strong>di</strong> svolgere:● installazioni hardware e software, configurazioni, interventi● gestione contatti per interventi <strong>di</strong> installazione, riparazione e manutenzione● gestione DB hardware, sistemi <strong>di</strong> monitoring e <strong>di</strong> allarmistica● gestione eventuale tape library de<strong>di</strong>cata● gestione installazione/aggiornamento middleware e servizi GridSi ritiene che in linea <strong>di</strong> <strong>massima</strong> siano necessari: da 2 FTE per l'avvio del centro e durante i perio<strong>di</strong><strong>di</strong> maggiore attività (es.: installazioni) fino ad 1 FTE quando il centro lavorerà a regime; la presenzadovrà essere assicurata in orario <strong>di</strong> lavoro, perio<strong>di</strong> <strong>di</strong> ferie inclusi. Vanno specificate eventualinecessità <strong>di</strong> outsourcing.Stefano Lusso (tecnologo del servizio calcolo e reti)Mario Sitta (RU)Pietro Cortese (RU)Federico Nebiolo (tempo determinato)Riccardo Brunetti (tempo determinato)Stefano Bagnasco (tempo determinato)La Sezione ha deciso che il prossimo concorso per un posto da tecnologo sarà destinato alservizio calcolo e reti per il supporto del <strong>Tier</strong>-2.4.2.3 Servizio <strong>di</strong> supporto sistemistico on-call remotoDisponibilità ad intervenire in finestre temporali al <strong>di</strong> fuori dell'orario <strong>di</strong> lavoro nei perio<strong>di</strong> in cui ilcentro e' operativo. Deve essere commisurato con gli obiettivi espressi al punto 1.1Il servizio non è previsto al momento. Tuttavia, su una base <strong>di</strong> “best effort” e sull’esperienzamaturata finora, si cercherà <strong>di</strong> organizzare un monitoraggio remoto da parte <strong>di</strong> membri dellaCollaborazione, durante i giorni festivi..4.2.4 Servizio <strong>di</strong> intervento per gravi emergenze 24x7Personale <strong>di</strong> agenzie <strong>di</strong> vigilanza per interventi in caso <strong>di</strong> gravi allarmi (incen<strong>di</strong>o, elevatatemperatura, ecc.)Gli impianti <strong>di</strong> allarme e anti incen<strong>di</strong>o del <strong>Tier</strong>-2 sono collegati al sistema <strong>di</strong> gestione allarmidell’Istituto <strong>di</strong> Fisica che prevede l’attivazione automatica dell’impianto anti incen<strong>di</strong>o el’intervento del personale <strong>di</strong> una <strong>di</strong>tta <strong>di</strong> vigililanza.


.4.2.5 Supporto operativoPersonale incaricato <strong>di</strong> svolgere i seguenti compiti:● manutenzione del software <strong>di</strong> esperimento● movimentazione e archiviazione dei dati● gestione documentazione per gli utenti● servizio <strong>di</strong> supporto agli utenti● interfacciamento con personale sistemistico● coor<strong>di</strong>namento sottomissione job e controllo produzioni● contatto locale per l'operazione della griglia <strong>di</strong> produzioneL' impegno <strong>di</strong>penderà dal livello <strong>di</strong> attività del centro. E' verosimile che complessivamente si tratti <strong>di</strong>compiti che richiedono l'equivalente <strong>di</strong> 1 FTE.Parte <strong>di</strong> queste attività (ad esempio la manutenzione del software <strong>di</strong> esperimento) sarà gestita alivello <strong>di</strong> Collaborazione via Grid. Le attività <strong>di</strong> manutenzione e supporto locali saranno forniteda:Roberta Arnal<strong>di</strong> (ric. INFN)Francesco Prino (ric. INFN).4.3 Attribuzioni iniziali <strong>di</strong> responsabilita'Elencati nei paragrafi precedenti5Piano <strong>di</strong> sviluppo e milestonesTesto_da_inserire (UPS e aria forzata nei rack dal 2006)6Piano finanziario complessivoPiano complessivo in cui vengono riassunti i costi <strong>di</strong> investimento, <strong>di</strong> manutenzione e <strong>di</strong> funzionamentodei centri, con in<strong>di</strong>cazione <strong>di</strong> eventuali sorgenti <strong>di</strong> finanziamento <strong>di</strong>verse dall' INFN.● impianti● acquisti● outsourcing● manutenzione impianti e macchine● sorgenti <strong>di</strong> finanziamentoTesto_da_inserire


7Dichiarazione del Direttore della strutturaIl Direttore della Sezione/Laboratorio <strong>di</strong> ....... valuta positivamente il progetto <strong>di</strong> <strong>Centro</strong> <strong>Tier</strong>2per l' (gli) esperimento(i) .......... che ritiene sia realizzabile e mantenibile sulla base degliimpegni espressi dai gruppi coinvolti. Ritiene che i Servizi della Sezione/Laboratoriointeressati, siano in grado <strong>di</strong> garantire il personale necessario all' attivazione e alla gestionedel <strong>Centro</strong>. In particolare conferma che il personale attualmente addetto al Servizio Calcolodella Sezione/Laboratorio, potrà farsi carico della realizzazione del centro e che i piani <strong>di</strong>sviluppo della Sezione /Laboratorio sono compatibili con l' impegno <strong>di</strong> garantire il supportosistemistico delineato nei paragrafi 4.2.1, 4.2.2, 4.2.3 <strong>di</strong> questo documento, come in<strong>di</strong>cato nellaseguente tabella.Tabella 2Supporto sistemisticoPersonale con contratto a tempoindeterminatoPersonale con contratto a tempodeterminatounita' 2005 2006 2007 2008 2009 2010personeFTEpersoneFTE......., ..../..../.....Il Direttore

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!