giovedì 12 novembre 2009

Il 'tick-tock' di Intel risuona al CERN: La potenza del GRID.

--------------------------------------
L'Organizzazione europea per la ricerca nucleare deve andare incontro a esigenze di elaborazione sempre crescenti. Numeri e tecnologie in gioco.
--------------------------------------
“I fisici non sono certamente considerati tra le persone più ordinate del mondo... ma gli esperimenti che conduciamo presso il CERN sono in realtà il risultato di una grande collaborazione a livello mondiale ed è quindi necessario essere organizzati...”. E' una persona ironica Sergio Bertolucci, l'italiano a capo della ricerca del CERN, l'Organizzazione europea per la ricerca nucleare, che abbiamo avuto la possibilità di ascoltare in occasione di un evento organizzato da Intel a Ginevra. In effetti il prossimo avvio del Large Hadron Collider (LHC) l'acceleratore di particelle progettato per svelare i segreti del Big Bang, dopo i problemi tecnici dello scorso anno, andrà a ingrossare ulteriormente la quantità di dati a disposizione degli scienziati di tutto il mondo che verranno fatti transitare ed elaborati sull'infrastruttura informatica in dotazione presso il CERN e quindi distribuiti globalmente attraverso una rete grid (il Worldwide LHC Computing Grid, WLCG) creata appositamente. Rete che attualmente coinvolge oltre 160 siti in 34 Paesi per decine di petabyte di storage occupati. Come abbiamo già avuto modo di spiegare in un altro articolo, il grid è organizzato su più livelli denominati Tier 0 (il CERN), Tier 1 (11 siti) e Tier 2 (i restanti 150 siti). La parola organizzazione sembra insomma particolarmente attinente al tema... così come quella dell'efficienza.In tal senso, come ha spiegato il CTO del CERN, Sverre Jarp, la strategia IT dell'organizzazione europea ha vissuto negli anni un’evoluzione che ha visto il passaggio da un'architettura basata su unico mainframe, a una trentina di server RISC fino a migliaio di pc server: “Nel ‘vecchio’ computer center avevamo problemi energetici e l’efficienza si è rivelata un elemento vitale considerate le esigenze che esponenzialmente crescevamo”. Decisiva in tal senso è stata considerata l’adozione delle tecnologie multi core con la possibilità di eseguire processi indipendenti su ciascun core di processore. Da fine 2006 è di fatto stato scelto di sposare il passaggio ai processori quad-core di Intel e recentemente sono state valutate soluzioni che sfruttano i chip Xeon 5500 (basati su architettura Nehalem) che, ha spiegato Jarp, nella loro versione a basso voltaggio L5520 hanno dimostrato attraverso test interni ai laboratori (il cosiddetto framework openlab) una efficienza del 36% maggiore rispetto al predecessore E5410 in termini di prestazioni per watt. Oggi il computer center del CERN ospita circa 6.300 server multi core con sistema operativo Linux per un totale di 39.000 core, 14 petabyte di dati su 42.600 unità a disco e oltre 34 petabyte di dati su 45.000 cartucce a nastro. Il progetto prevede quindi entro primavera 2010 il posizionamento di un totale di oltre duemila server biprocessore.
Ma l'evento ginevrino è stata anche l'occasione per ascoltare le esperienze di due altre realtà utenti Intel. La prima è la casa automobilistica BMW che, attraverso le parole di Axel Knut Bethkenhagen, manager del suo gruppo IT, ha illustrato una strategia che ha visto una sempre maggiore cooperazione e integrazione della parte sistemi informativi nelle varie aree operative, nonché la scelta di ridurre la presenza di server RISC, il deciso passaggio ad ambienti Linux e Windows e l'adozione di sistemi di virtualizzazione di vario genere. Il tutto scegliendo piattaforme basate su Intel per soddisfare ancora una volta la crescita delle esigenze elaborative.“Ci riferiamo ad esempio al crash simulation al posto dei crash test fisici o all'utilizzo della realtà virtuale in luogo del clay modeling (ossia la modellazione tridimensionale manuale, n.d.r.)”, ha spiegato Bethkenhagen. Anche nel caso di BMW c'è già stato un passaggio ai nuovi Xeon inseriti in una struttura che vede attualmente 128 nodi standard, 4 nodi grandi e 2 nodi gateway. Tra i vantaggi evidenziati da BMW il raddoppio delle istanze di virtualizzazione per ciascun host fisico e consumi inferiori del 33% rispetto all'implementazione precedente.Un ultimo caso di adozione di Nehalem presentato a Ginevra è stato quello di PerkinElmer, fornitore di tecnologie analitiche destinate al settore farmaceutico. “Ci vogliono tra i sette e i dieci anni perché un farmaco possa arrivare al pubblico”, ha spiegato Karsten Kottig, illustrando quindi come, con l'utilizzo di infrastrutture di elaborazione distribuite e tecnologie avanzate, sia possibile accelerare la ricerca. Si parla di analisi cellulari, simulazioni tridimensionali e così via.
A Ginevra era presente anche Christian Morales, vice president del sales and marketing group e general manager di Intel EMEA, che ha tracciato la storia dell’andamento economico mondiale degli ultimi 25 anni, tra crisi e risalite, caratterizzati nel contempo da una serie di innovazioni proposte da Intel nell’ambito dei processori. “E’ in queste situazioni che l’IT può fare la differenza”, ha affermato Morales riferendosi alla competitività delle imprese e sottolineando nel contempo il ruolo sempre più pervasivo di internet sia sul fronte business che consumer e che porterà a un incremento dei dispositivi online sempre maggiore, con stime per il 2015 di 15 miliardi di device di vario tipo collegati alla rete. Non si parla in tal senso solo di notebook, desktop e server, che rappresentano di fatto per Morales solo la punta dell’iceberg di questo esercito di device in rete.In generale tutto questo pone quindi Intel di fronte a una serie di sfide da affrontare per poter rispondere ad esigenze di elaborazione che incrementeranno ulteriormente, anche per via del traffico che si moltiplicherà sulle reti dati. Già il prossimo anno ci saranno quindi sviluppi con l’introduzione di ulteriori istruzioni per la cifratura dei dati presenti in Westmere (ulteriore evoluzione di Nehalem), chip realizzato con processo a 32 nanometri, portando, questo l’obiettivo, a incrementi ulteriori di prestazioni. Il tutto seguendo il cosiddetto modello di sviluppo tick-tock che riguarda in particolare due fasi di innovazione che si alternano: nuovi processi di miniaturizzazione e quindi densità dei transistor sull'architettura esistente (il tick) e successiva adozione dei ritrovati su una nuova microarchitettura di processore (il tock). Ed è proprio così, ha continuato Morales, che Intel ha effettuato il passaggio dai 45 nanometri del 2007 ai 32 nanometri odierni, per poi arrivare al passo successivo dei 22 nanometri previsto nel 2011.

Nessun commento: