martedì 9 novembre 2010

Il progetto "100 Year Starship": la colonizzazione dello spazio sta per iniziare!

Fonte:
------------------------------
MILANO - Sarà, se realizzata, la prima astronave destinata ad atterrare su un pianeta dello spazio profondo. Anche se è forte il rischio che, una volta lanciata e percorsa una distanza significativa dalla Terra, non ne sapremo più nulla. Perché è destinata fin dall'inizio a non tornare mai indietro. Gli astronauti infatti sono destinati a diventare coloni.

IL PROGETTO - Simon Worden, il direttore del centro ricerche della Nasa di Ames negli Stati Uniti, ha reso noto nel corso di un seminario della Long Now Foundation tenutosi il 16 ottobre scorso a San Francisco, l'esistenza di un progetto, fino ad ora segreto, che vede collaborare insieme la stessa Nasa e la Darpa (la sigla sta per Defense Advanced Research Projects Agency), l'agenzia scientifica del Pentagono. Il progetto si chiama 100-year Starship, ovvero l'astronave dei prossimi cento anni, questo sarebbe l'arco di tempo in cui la nave spaziale dovrebbe diventare realtà. Sarebbero già stati stanziati dei soldi per tracciare la fattibilità del progetto (100mila dollari da parte della Nasa e un milione di dollari da parte della Darpa) che prevederebbe la creazione di un nuovo tipo di propulsione per rendere possibile il viaggio interstellare. Una delle idee allo studio attualmente, prevederebbe lo sviluppo di una propulsione termica a microonde per permettere alla nave di lasciare il suolo terrestre. Secondo l'idea accennata da Worden, la nave dovrebbe essere alleggerita al decollo del suo carburante che dovrebbe essere lanciato separatamente nello spazio per poi essere agganciato una volta fuori dall'orbita. Ovviamente in caso di un viaggio estremamente lungo bisognerebbe pensare a un numero sufficiente di astronauti per dare continuità alle generazioni che si succederebbero sulla nave, oltre a fornire loro le possibilità di sopravvivere una volta raggiunto il pianeta prescelto. Il primo obiettivo concreto però ipotizzato da Worden e sicuramente prima del passo verso pianeti extrasolari, sarebbero le due lune di Marte, per cui si ipotizza anche una data, il 2030 circa. Le parole di Worden hanno generato una vivace discussione nel mondo nell'informazione scientifica americana, soprattutto per il fatto che il direttore del centro ricerche della Nasa si è in seguito rifiutato di rispondere alle domande dei giornalisti che volevano approfondire il tema. Così, fatto insolito,
la Darpa stessa ha emesso un comunicato stampa in cui spiega che il progetto 100-year Starship è più di un semplice progetto ingegneristico volto a fabbricare un nuovo tipo di nave spaziale. Per Paul Eremenko che è il coordinatore della Darpa per il progetto «100-year Starship è un progetto multidisciplinare che prevede innovazioni in una miriade di discipline come fisica, matematica, biologias, economia, psicologia, politica, sociologia, scienze culturali, ingegneria per permettere di avvicinare l'obiettivo dei viaggi spaziali di lunga portata, ma da cui trarrà beneficio l'intera umanità».

INTERROGATIVI - Del resto molti sono gli interrogativi che la notizia del progetto ha portato nella comunità scientifica e non solo. Al di là del superamento dei problemi di carattere ingegneristico e del reperimento dei fondi (per cui la stessa Darpa ha aperto alla collaborazione con i privati) non è chiaro come l'opinione pubblica prenderà l'idea del viaggio senza ritorno. Quest'ultimo infatti costituirebbe il segnale di un passaggio importante: quello dall'esplorazione alla colonizzazione dello spazio extraterrestre. E il punto fondamentale non diventerebbe più solo come raggiungere la meta extraterrestre, ma come riuscire a far sopravvivere l'umanità in un ambiente alieno.

Marco Letizia 05 novembre 2010 (ultima modifica: 07 novembre 2010)

Un passo in avanti per la fusione nucleare

Fonte: Le Scienze
-------------------------
Grazie a un nuovo dispositivo, il cosiddetto divertore a "fiocco di neve" che riduce le contaminazioni del plasma.
I fisici del National Spherical Torus Experiment (NSTX) del Princeton Plasma Physics Laboratory sono ora più vicini a risolvere una delle grandi sfide della ricerca sulla fusione nucleare: come ridurre l'effetto del calore comunicato dal plasma ad alta temperatura alle pareti della camera in cui esso è confinato grazie alla sperimentazione dei cosiddetti divertori “fiocco di neve” (snowflake”).
Nel reattore di tipo tokamak il plasma assume una caratteristica forma toroidale (“a ciambella”) in virtù dell'azione di intensi campi magnetici. A causa dell'instabilità del plasma, molte particelle che lo costituiscono riescono a sfuggire. Attorno viene creato uno strato di plasma a temperatura inferiore, che costituisce l'interfaccia plasma-materiale. In tale strato, le particelle sfuggite e il calore fluiscono – attraverso una linea di campo magnetico “aperta” - verso un divertore.
Quest'ultimo è un dispositivo che ha lo scopo non solo di proteggere le pareti del reattore dal calore e quindi dall'erosione, ma anche di evitare la contaminazione del plasma. Un metodo utilizzato per proteggere il dispositivo utilizza i divertori, camere in cui possono fluire il calore espulso dal plasma e le impurità.
Se però il plasma che colpisce la superficie del divertore è troppo caldo, si possono verificare la fusione delle componenti poste “di fronte” al plasma e di conseguenza una perdita di potere di raffreddamento.
La recente idea di un divertore magnetico innovativo denominato “fiocco di neve” sviluppata grazie ai calcoli di D.D. Ryutov del Lawrence Livermore National Laboratory è stata realizzata recentemente presso l'NSTX con sole due o tre bobine magnetiche confermando pienamente le previsioni teoriche.
Come sottolineano gli studiosi durante la presentazione dei risultati al Convegno annuale dell'American Physical Society, che si tiene a Chicago in questi giorni, il nuovo dispositivo non influenza le alte prestazioni e il confinamento del plasma ad alta temperatura, ma anzi ne riduce la contaminazione e rappresenta una via praticabile per lo sviluppo dell'energia nucleare da fusione. (fc)

Il Large Hadron Collider genera mini Big Bang ...con temperature di oltre 10 trilioni di gradi!

-----------------
Il Large Hadron Collider (LHC) ha raggiunto i suoi obiettivi per il 2010 e ha intrapreso una nuova fase di attività, che vedrà gli scienziati impegnati a indagare il tipo di materia presente subito dopo il Big Bang. Negli ultimi sette mesi, gli scienziati al lavoro sul LHC al CERN (Organizzazione europea per la ricerca nucleare) hanno studiato le collisioni tra protoni. Il loro obiettivo principale era quello di ottenere una "luminosità" (una misura del numero delle collisioni) pari a 10 elevato alla 32 per centimetro quadrato al secondo, risultato che hanno raggiunto il 13 ottobre, 2 settimane in anticipo sul programma. Questa fase dell'esperimento dedicata al protone si è conclusa il 4 novembre. I risultati prodotti durante questo periodo comprendono la conferma di alcuni aspetti del Modello Standard delle particelle e delle forze ad alte energie, le prime osservazioni del top quark nelle collisioni tra protoni e i limiti posti alla produzione di nuove particelle come i quark "eccitati". "Questo mostra che l'obiettivo che ci eravamo prefissati per quest'anno era realistico, ma difficile, ed è molto gratificante vederlo raggiunto in questa straordinaria ricerca. Questa è una testimonianza dell'ottima progettazione della macchina, oltre che del duro lavoro svolto per fare sì che avesse successo," ha commentato Rolf Heuer, direttore generale del CERN. "Questo è di buon auspicio per i nostri obiettivi per il 2011." Il LHC ha già iniziato la sua prossima fase di attività, che prevede lo scontro tra loro di ioni di piombo a energie da record, in un tentativo di ricreare il tipo di condizioni che esistevano nei primi momenti di esistenza dell'universo. Le prime collisioni tra ioni di piombo si sono già verificate, suscitando l'entusiasmo degli scienziati che lavorano all'esperimento ALICE, uno dei quattro esperimenti in corso al LHC. "Noi siamo entusiasti di questo risultato! Le collisioni hanno generato mini Big Bang alle temperature e alle densità più alte mai raggiunte in un esperimento," ha esclamato il dott. David Evans dell'università di Birmingham nel Regno Unito. "Questo procedimento, che si è svolto in un ambiente sicuro e controllato, ha generato bolidi sub atomici incredibilmente caldi e densi con temperature di oltre 10 trilioni di gradi, un milione di volte più caldi del centro del sole," ha aggiunto. "A queste temperature persino i protoni e i neutroni, che compongono il nucleo degli atomi, si sciolgono portando a una calda e densa zuppa di quark e gluoni conosciuta come plasma di quark e gluoni. "Studiando questo plasma, i fisici sperano di imparare nuove cose sull'interazione forte, una delle quattro forze fondamentali della natura. L'interazione forte non solo tiene insieme i nuclei degli atomi, ma è anche responsabile del 98% della loro massa. Io adesso non vedo l'ora di studiare un minuscolo pezzo di ciò di cui era fatto l'universo un milionesimo di secondo dopo il Big Bang." Un altro successo per il LHC è rappresentato dal modo in cui la Worldwide LHC Computing Grid (WLCG) ha sopportato l'immensa quantità di dati generata durante la fase dell'esperimento che ha riguardato i protoni. La WLCG fa ricorso alla potenza di elaborazione di oltre 140 centri di elaborazione nel mondo per supportare gli esperimenti presso il LHC. Il sistema gestisce oltre un milione di elaborazioni al giorno, e le velocità di trasferimento dei dati hanno raggiunto i 10 gigabyte (l'equivalente di 2 interi DVD di dati) al secondo. Gli esperimenti con gli ioni di piombo che si stanno svolgendo ora al LHC porranno nuove sfide alla WLCG, poiché genereranno un maggiore flusso di dati rispetto alle collisioni tra protoni. Test hanno dimostrato che il sistema di memorizzazione dati del CERN dovrebbe essere in grado di sopportare questo flusso di dati. Gli esperimenti con gli ioni di piombo sono stati programmati fino al 6 dicembre, quando il LHC chiuderà per lavori di manutenzione. Ricomincerà a lavorare nuovamente in febbraio, ritornando alle collisioni tra protoni.
Per maggiori informazioni, visitare: CERN:
http://www.cern.ch
ARTICOLI CORRELATI: 29844, 30986, 31533
Categoria: VarieFonte: CERN; Science and Technology Facilities Council (STFC)Documenti di Riferimento: Sulla base di informazioni fornite dal CERN e dal Science and Technology Facilities Council (STFC)Codici di Classificazione per Materia: Coordinamento, cooperazione; Metodi di misurazione; Ricerca scientifica; Ricerca spaziale e satellitare
RCN: 32739

lunedì 16 agosto 2010

Un orologio atomico di nuova generazione il cui elemento chiave potrebbe essere il Torio-229.

Fonte: Cordis
--------------------
Alcuni scienziati europei stanno per dedicare completamente il loro impegno allo sviluppo di un orologio atomico nucleare, dispositivo che rappresenterà un importante passo avanti rispetto agli orologi atomici attualmente in uso. Un impegno, questo, reso possibile grazie ai fondi (1,3 milioni di euro) messi a disposizione mediante una borsa "starting" di durata quinquennale dal Consiglio europeo della ricerca (CER) a Thorsten Schumm, dell'Istituto per la fisica atomica e subatomica del Politecnico di Vienna (Austria). I fondi del CER si aggiungono a un riconoscimento START assegnato al dott. Schumm dal Fondo austriaco per la ricerca a fine 2009. Il fulcro del progetto è rappresentato dall'isotopo radioattivo torio-229. Gli atomi sono costituiti da nuclei attorniati da una nube di elettroni. Nella maggior parte degli atomi, la quantità di energia necessaria a provocare dei cambiamenti (quale lo stato di eccitazione, per esempio) nel nucleo e nelle nubi elettroniche differiscono di diversi ordini di magnitudo. Proprio per questo motivo, gli scienziati che studiano i diversi componenti dell'atomo ricorrono a strumenti diversi. Gli scienziati attivi nell'ambito della fisica atomica, per esempio, per l'analisi delle nubi elettroniche utilizzano perlopiù laser, mentre i ricercatori che si occupano di fisica atomica per lo studio del nucleo ricorrono agli acceleratori di particella. Il torio-229 si distingue poiché il suo stato di eccitazione del nucleo è innescato da un'energia particolarmente ridotta. "Potrebbe essere possibile indurre lo stato di eccitazione in un nucleo atomico utilizzando la luce (laser)!", scrivono i ricercatori sul loro sito Internet. "L'obiettivo del progetto è individuare e caratterizzare questa transizione nucleare a bassa energia e renderla accessibile per studi e applicazioni di grande rilievo". Nello specifico, il dott. Schumm spera, insieme ai suoi colleghi, di poter sfruttare queste particolari proprietà del nucleo del torio-229 per la costruzione di un orologio atomico nucleare. Attualmente, il secondo viene definito come 9.192.631.770 oscillazioni di un'onda luminosa. Questo provoca alcune variazioni specifiche all'interno della nube elettronica di un atomo di cesio: una caratteristica, questa, sfruttata negli orologi atomici utilizzati per definire i parametri temporali in uso. Tuttavia, le transizioni elettroniche sono estremamente sensibili ai campi magnetici ed elettrici ed è per questo che gli orologi atomici sono dotati di strutture schermanti complesse. Inoltre, poiché le misurazioni devono essere effettuate senza considerare le cause che le determinano, la prossima generazione di orologi atomici dovrà basarsi sui satelliti. Un orologio atomico nucleare creato sulla base del torio-229 riuscirebbe a raggirare questo tipo di problemi. "Gli ioni di torio possono essere inseriti nei cristalli UV [ultravioletti] trasparenti", spiegano i ricercatori. "Inoltre la tecnologia sottovuoto, ingombrante e complessa, attualmente necessaria per gli orologi atomici potrebbe essere sostituita da un singolo cristallo a temperatura ambiente stimolato con atomi di torio-229". Se il team riuscisse nel suo intento, l'orologio atomico nucleare che ne risulterebbe potrebbe migliorare sensibilmente l'accuratezza dei nostri standard temporali. Il dott. Schumm ha già iniziato a costituire la sua équipe di lavoro e sono stati avviati i lavori per la costruzione di un laboratorio all'avanguardia che possa soddisfare gli standard elevati richiesti per poter utilizzare il laser (per farlo la temperatura deve essere estremamente stabile e le vibrazioni devono essere molto ridotte) e gli standard di radioprotezione. Il laboratorio dovrebbe essere pronto per il prossimo ottobre. Secondo il team, l'Istituto per la fisica atomica e subatomica èn uno dei pochi posti al mondo in cui la fisica nucleare e delle particelle può essere unita con la spettroscopia al laser di precisione. "Questo ambiente è davvero unico e dimostra l'impegno del Politecnico di Vienna per questo progetto", ha commentato il dott. Schumm.
Per maggiori informazioni, visitare: Sito web del progetto Thorium:
http://www.thorium.at/ Politecnico di Vienna http://www.tuwien.ac.at/ Consiglio europeo della ricerca (CER): http://erc.europa.eu/
Categoria: ProgettiFonte: Politecnico di ViennaDocumenti di Riferimento: Sulla base di informazioni fornite dal Politecnico di ViennaAcronimi dei Programmi: MS-A C, FP7, FP7-IDEAS, FUTURE RESEARCH-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Tecnologia dei materiali ; Ricerca scientifica; Altre tecnologie
RCN: 32427

domenica 15 agosto 2010

I rifiuti come carburante per i robot autonomi: Von Neumann aveva visto giusto ...alla fine si auto-replicheranno!

Fonte: Cordis
---------------------------
Come dice il proverbio, l'immondizia di un uomo è il tesoro di un altro. In questo caso, l'immondizia in questione è usata da un robot per creare energia per il prorpio funzionamento. Negli ultimi anni, il team di scienziati finanziati dall'UE che sta dietro alle serie EcoBot (I, II, III) di robot ha generato energia alimentando la macchina con rifiuti e materie prime. Adesso hanno in mente di ricavare energia dall'urina per lo stesso scopo. Il progetto EcoBot-III ha ricevuto 320.000 euro di finanziamenti nell'ambito del Sesto programma quadro (6° PQ) dell'UE. Il dott. Ioannis Leropoulos, il professor John Greenman, il professor Chris Melhuish e altri ricercatori del Bristol Robotics Laboratory (BRL) nel Regno Unito si sono occupati di una serie di esperimenti condotti nell'ambito di EcoBot I, II, III. Il loro particolare metodo consisteva nel creare un apparato digerente artificiale per il robot. Questo "intestino" è stato progettato intorno a una nuova tecnologia di pila a combustibile microbiologica (microbial fuel cell o MFC), che attinge a colture batteriche per decomporre il "cibo" e generare energia. "Nel corso degli anni abbiamo alimentato le MFC con frutta guasta, erba tagliata, gusci di gamberi e mosche morte nel tentativo di studiare diversi tipi di materiali di scarto da usare come fonte di alimentazione per le MFC, ha spiegato il dott. Ieropoulos. "Abbiamo cercato di trovare i migliori materiali di scarto in grado di creare una maggiore quantità di energia." L'accesso all'energia è uno dei maggiori ostacoli all'uso di robot autonomi, in particolare nelle zone inaccessibili. Gli scienziati credono che un robot, per essere effettivamente autonomo, non solo deve usare la propria energia in modo saggio ma deve anche essere in grado di generare energia a partire dall'ambiente che lo circonda. Questo significa essere in grado di cercare, raccogliere e digerire i materiali di scarto per ripristinare le proprie riserve di energie. Il che a sua volta, ha il potenziale per contribuire significativamente alla questione della gestione dei rifiuti. L'ultima sfida che sta alla base dell'attuale impegno del team riguarda l'uso dell'urina per le MFC. Il dott. Leropoulos ha spiegato che l'urina è ricca di nitrogeno e possiede cloruro, potassio, bilirubina e altri composti - i quali la rendono ideale per le MFC. I test preliminari hanno già dimostrato che è un materiale di scarto molto efficiente. Il primo passo per i ricercatori consiste nel fare in modo che le MFC lavorino insieme in una serie di pile legate in un flusso continuo detto "catasta". Una catasta di MFC legate tra loro è più efficiente e produce più energia rispetto alla stessa quantità di MFC prese singolarmente. Il team sta lavorando per produrre un prototipo di orinatoio portatile che userebbe urina per produrre energia a partire da pile a combustibile. Sebbene il progetto sia nella sua fase iniziale, gli scienziati credono che una macchina di questo tipo potrebbe essere usata per eventi all'aperto come concerti. I ricercatori si sono già assicurati l'interesse dell'azienda Ecoprod Technique, con sede nel Regno Unito, che produce orinatoi senz'acqua. Marcus Rose dell'Ecoprod ha definito questa collaborazione interessante e preziosa per l'azienda: "Abbiamo parlato con i ricercatori che dicono che questo prodotto è l'unico tipo perfettamente adatto per completare questa ricerca. Siamo impazienti di dare il nostro contributo a questo progetto unico.” Nell'ambito del progetto EcoBot, i ricercatori stanno attualmente esplorando la possibilità di usare la tecnologia di produzione di energia delle MFC sott'acqua. L'apparecchio funzionerebbe come una forra artificiale nella quale l'ossigeno verrebbe usato in un catodo acquoso e la materia organica come biomassa. "I progressi in questo campo danno un contributo significativo alle sfide che dobbiamo affrontare oggi in termini di produzione di energia e smaltimento dei rifiuti," ha concluso il dott. Ieropoulos. "Speriamo che questa ricerca contribuirà a cambiare il nostro modo di pensare riguardo l'energia e i rifiuti umani." EcoBot I e EcoBot II sono stati sviluppati nel 2002 e nel 2004 rispettivamente.
Per maggiori informazioni, visitare: EcoBot:
http://www.brl.ac.uk/projects/ecobot/index.html Bristol Robotics Laboratory: http://www.brl.ac.uk/index.html University of Bristol: http://www.bris.ac.uk/ University of the West of England: http://www.uwe.ac.uk/
ARTICOLI CORRELATI: 32361
Categoria: Risultati dei progettiFonte: Bristol Robotics LaboratoryDocumenti di Riferimento: Sulla base di informazioni fornite dal Bristol Robotics LaboratoryAcronimi dei Programmi: FRAMEWORK 6C, MS-UK C-->Codici di Classificazione per Materia: Biotecnologia; Coordinamento, cooperazione; Altri temi relativi all'energia; Robotica ; Fonti di energia rinnovabile; Ricerca scientifica; Gestione dei rifiuti
RCN: 32423

Metà della popolazione mondiale corre il rischio di contrarre la malaria.

Fonte: Cordis
-----------------------
Nel Regno Unito alcuni ricercatori hanno dimostrato che, se venisse attuato un programma d'intervento capillare, gli strumenti attualmente disponibili per combattere la malaria potrebbero ridurre in maniera significativa l'incidenza della forma maligna della malattia in alcune regioni dell'Africa. I risultati dello studio, pubblicati sulla rivista Public Library of Science (PLoS) Medicine, rappresentano le conclusioni del progetto TRANSMALARIABLOC ("Blocking malaria transmission by vaccines, drugs and immune mosquitoes: efficacy assessment and targets") che ha ricevuto finanziamenti per 3 milioni di euro in riferimento alla tematica dedicata alla salute del Settimo programma quadro (7°PQ). Nel corso del decennio scorso c'è stato un considerevole impegno per ridurre la trasmissione di questa malattia in Africa. Tuttavia, è difficile determinare con esattezza l'efficacia degli interventi specifici. Sebbene numerosi paesi abbiano riferito di una diminuzione dei casi di trasmissione della malaria, questa patologia, che ha esisto mortale, continua a rappresentare un problema molto grave. Secondo lo studio, metà della popolazione mondiale corre il rischio di contrarre la malaria, una malattia, questa, che costa annualmente la vita a quasi un milione di persone solo nell'Africa sub-sahariana. Il Plasmodium falciparum, il protozoo parassita della specie Plasmodium che causa la malaria negli esseri umani, viene trasmesso dalle zanzare Anopheles, insetti che pungono (e iniettano i parassiti mortali) soprattutto nelle ore serali. Con l'ausilio di un modello di simulazione avanzato, i ricercatori sono riusciti a dimostrare che l'uso capillare e prolungato di zanzariere impregnate di insetticida unito alle terapie di combinazione con i derivati dell'artemisinina (ACT) permette di ridurre la presenza dei parassiti fino all'1% nelle zone caratterizzate da una trasmissione della malaria da lieve e moderata che vedono le zanzare prediligere gli ambienti chiusi. Il modello di simulazione individuale contemplava tre specie di zanzare e la prevalenza del P. falciparum (malaria maligna) in 34 regioni africane con livelli di trasmissione del parassita malarico diversi. I ricercatori hanno esaminato gli effetti dell'adozione delle terapie ATC, dell'adozione di zanzariere impregnate di insetticidi, del costante utilizzo delle stesse, del trattamento con insetticidi degli ambienti interni (indoor residual spraying), della stagione, del monitoraggio di massa e del trattamento di aree con livelli di trasmissione lievi, moderati ed elevati. Gli scienziati hanno inoltre analizzato gli effetti potenziali di un eventuale vaccino. I risultati hanno dimostrato che le aree caratterizzate da livelli di trasmissione da lievi a moderati potrebbero beneficiare in misura significativa di intervento, ma che nelle zone con livelli di trasmissione elevati o che vedono le zanzare colpire soprattutto all'aria aperta sono necessari urgentemente nuovi strumenti. Considerata la serie di strumenti oggi a disposizione, affermano gli autori, è irrealistico pensare che la larga diffusione dei parassiti possa scendere sotto l'1% nelle aree in cui i livelli di trasmissione sono elevati. I nuovi interventi dovrebbero riguardare le zanzare che vivono negli ambienti esterni, in modo particolare quelle della specie Anopheles arabiensis. Il processo di trasmissione della malaria è estremamente complesso e vi sono ancora alcuni punti oscuri. Il nuovo modello rappresenta solo una semplificazione, mettono in guardia gli autori, e non devono essere interpretati come previsioni con un elevato margine di certezza. "Il nostro modello rappresenta necessariamente la semplificazione di dinamiche molto complesse che sono alla base della trasmissione e del controllo della malaria. Per questo i risultati numerici devono essere interpretati come dati intuitivi relativi a scenari potenziali e non come previsioni certe di quanto può accadere in una data area", si legge nello studio. I ricercatori TRANSMALARIABLOC stanno valutando alcuni strumenti sviluppati in base alle ultime conoscenze acquisite sulla biologia dei parassiti e delle zanzare. Il progetto auspica la creazione di un ambiente nuovo dedicato alla ricerca sulla trasmissione della malaria.
Per maggiori informazioni, visitare: London School of Hygiene & Tropical Medicine:
http://www.lshtm.ac.uk/ Per consultare TransMalariaBloc su Europa, fare clic: qui
ARTICOLI CORRELATI: 29220, 31217, 31383, 31665
Categoria: Risultati dei progettiFonte: Public Library of ScienceDocumenti di Riferimento: Griffin, J.T., et al. (2010) Reducing Plasmodium falciparum malaria transmission in Africa: a model-based evaluation of intervention strategies. PLoS Medicine 7:e1000324. DOI: 10.1371/journal.pmed.1000324.Acronimi dei Programmi: MS-UK C, FP7, FP7-COOPERATION, FP7-HEALTH, FUTURE RESEARCH-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Servizi/prestazioni sanitarie ; Medicina, sanità; Sviluppo regionale; Ricerca scientifica; Aspetti sociali
RCN: 32418

sabato 10 luglio 2010

Una volta Venere era abitabile?

Fonte: Cordis
-------------------
Oggi, Venere corrisponde alla nostra idea dell'Inferno: temperature 2 o 3 volte superiori a quelle di un forno, un'atmosfera nociva e una pressione superficiale circa 100 volte quella della Terra - e quindi pochissima acqua. In passato però il pianeta potrebbe essere stato molto più simile alla nostra Terra e potrebbe aver avuto persino oceani. A quattro anni dall'inzio della missione europea Venus Express, gli scienziati stanno svelando i misteri di questo pianeta. Venere è il pianeta più vicino alla Terra. Le sue dimensioni e la sua massa sono paragonabili con quelle del nostro pianeta e si è formato in un periodo simile e a partire da materiali simili. Venere però adesso è completamente diversa. "Capire l'evoluzione di Venere dovrebbe aiutarci a capire non solo l'evoluzione della Terra ma forse anche dei sistemi planetari (al di fuori del sistema solare)," ha detto il dott. Colin Wilson dell'Università di Oxford nel Regno Unito. L'Agenzia spaziale europea (ESA) ha lanciato la missione Venus Express per svelare i misteri del piccolo pianeta nel novembre del 2005. Arrivato ad aprile 2006, il satellite esamina Venus già da quattro anni. "Venus Express continua a costituire una ricca fonte di dati e informazioni" e la conferenza di quest'anno (tenutasi a giugno ad Aussois, Francia) ha contribuito a svelare alcune delle più interessanti scoperte fatte finora, secondo Håkam Svedhem, uno degli scienziati del progetto Venus Express. Venus Express ha fornito ai ricercatori un quadro completo della struttura, la composizione e le dinamiche del pianeta, nonché immagini mai viste prima della Venus Monitoring Camera. "La composizione basilare di Venere è molto simile a quella della Terra," ha spiegato il dott. Svedhem, tranne che per l'acqua che è abbondante sulla Terra e praticamente inesistente su Venere. Miliardi di anni fa però Venere aveva probabilmente molta più acqua e i dati del Venus Express hanno confermato che il pianeta ha perso grandi quantità di acqua nello spazio a causa delle radiazioni ultraviolette del Sole. "Tutto fa pensare che in passato ci fossero grandi quantità di acqua su Venere," ha sottolineato il dott. Wilson. Ma questo non significa necessariamente che ci fossero oceani sulla sua superficie. Il dott. Eric Chassefière, esperto di pianeti presso l'Université Paris-Sud in Francia, ha sviluppato un modello computerizzato che suggerisce che l'acqua si trovasse per lo più nell'atmosfera del pianeta e non sulla sua superficie e che fosse esistita solamente nelle prime fasi della vita di Venere. È difficile verificare questa ipostesi. Il dott. Chassefière crede che ulteriori modelli, insieme ad altri dati provenienti da Venus Express, aiuteranno gli scienziati a capire l'evoluzione del pianeta. In passato, sia la Russia che gli Stati Uniti hanno inviato veicoli spaziali sul nostro vicino; gli scienziati hanno poi messo da parte Venere per circa dieci anni fino al lancio di nuove imprese spaziali. Le prossime missioni forniranno più dati e contribuiranno a svelare i misteri di Venere. In particolare la missione giapponese Akatsuki dovrebbe raggiungere Venere a dicembre 2010. Osserverà il pianeta da un'orbita diversa e fornirà informazioni complementari a quelle apportate da Venus Express.
Per maggiori informazioni, visitare: Missione Venus Express dell'Agenzia spaziale europea
http://sci.esa.int/science-e/www/area/index.cfm?fareaid=64 Venus climate orbiter Akatsuki della JAXA (Japan Aerospace Exploration Agency): http://www.jaxa.jp/projects/sat/planet_c/index_e.html
ARTICOLI CORRELATI: 30270, 31972
Categoria: VarieFonte: ESADocumenti di Riferimento: Sulla base di informazioni fornite dall'ESACodici di Classificazione per Materia: Coordinamento, cooperazione; Scienze della Terra; Ricerca scientifica; Ricerca spaziale e satellitare
RCN: 32307

Scoperti due anticorpi che neutralizzano il 90 per cento dei ceppi di Hiv.

Fonte: Le Scienze
---------------------------
La scoperta e l'analisi strutturale che spiega come operano sono importanti per lo sviluppo di un vaccino preventivo di uso globale.
Grazie a una nuova tecnica di analisi, un gruppo di ricercatori del National Institute of Allergy and Infectious Diseases (NIAID) dei National Institutes of Health diretti da John R. Mascola è riuscito a identificare nel sangue di soggetti infettati dall'Hiv due anticorpi naturali, chiamati VRC01 e VRC02, che sono in grado di neutralizzare più ceppi di Hiv, il 91 per cento circa, e con più efficacia rispetto agli anticorpi finora noti.La determinazione della struttura a livello atomico di uno di essi, VRC01, ha permesso di definire anche il modo in cui l'anticorpo svolge la propria azione. La scoperta è illustrata in due articoli pubblicati sulla rivista Science (Structural Basis for Broad and Potent Neutralization of HIV-1 by Antibody VRC01 e Rational Design of Envelope Surface Identifies Broadly Neutralizing Human Monoclonal Antibodies to HIV-1)."La scoperta di questi anticorpi neutralizzanti che combattono l'Hiv e l'analisi strutturale che spiega come operano rappresentano importanti progressi che potranno accelerare gli sforzi per trovare un vaccino preventivo per l'Hiv di uso globale", ha commentato Anthony S. Fauci, M.D., direttore del NIAID. "Inoltre la tecnica utilizzata dal team per trovare questi anticorpi rappresenta un nuova strategia che potrebbe essete utilizzata per progettare vaccini contro molte altre patologie."L'identificazione di tipi di anticorpi in grado di neutralizzare i diversi ceppi dell'Hiv è estremamente difficile perché il virus modifica in continuazione le proteine di superficie, rendendosi irriconoscibile al sistema immunitario e dando origine a una straordinaria varietà di ceppi. VRC01 e VRC02 si legano però al sito di legame CD4 del virus - quello che permette a esso di legarsi ai linfociti e invaderli - che prioprio per questo non può variare così rapidamente. "Gli anticorpi attaccano una parte del virus che praticamente non varia, e ciò spiega perché sono in grado di neutralizzare uno spettro così ampio di ceppi del virus", ha detto Mascola.

giovedì 8 luglio 2010

Scienziati europei cercano di sfondare la barriera della capacità di immagazzinamento dati.

Fonte: Cordis
----------------------
La possibilità di conservare enormi quantità di documenti, foto, video e musica sui nostri computer e altri gadget è il risultato di enormi progressi della tecnologia nel corso degli anni. Alcuni scienziati del progetto finanziato dall'UE TERAMAGSTOR ("Terabit magnetic storage technologies") hanno adesso in programma di allargare ulteriormente i confini con un hard disk con una capacità immagazinamento di un terabit per pollice quadrato (1 Tbit/in2). Il progetto è stato finanziato con 3,45 Mio EUR dal Tema "Tecnologie dell'informazione e della comunicazione" (TIC) del Settimo programma quadro (7° PQ) dell'UE. Il progetto TERMAGSTOR succede all'originale progetto MAFIN ("Magnetic films on nanospheres: innovative concept for storage media"), che era stato finanziato con 1,3 Mio EUR dall'Area tematica "Tecnologie della società dell'informazione" (TIC) del Sesto programma quadro (6? PQ) dell'UE. Per sviluppare il loro concetto, i ricercatori TERAMAGSTOR hanno usato minuscole nanosfere magnetizzate, che con 25 nanometri di diametro sono più grandi dei tradizionali grani ma più piccole delle cellule di immagazinamento normali. Secondo il team, il vantaggio offerto dall'uso di queste nanosfere consiste nel fatto che esse si autoassemblano in una matrice normale, il che potrebbe tenere bassi i costi. Le nanosfere sono state poi mescolate con una soluzione a base di alcool che è stata messa sul substrato. Per far si che queste particelle rimanessero al loro posto, gli scienziati hanno aggiunto una pellicola magnetica (una lega ferro-platino che ha suscitato non poco interesse nel settore industriale) sulla superficie per formare una specie di "calotta" magnetica. Questa calotta agisce effettivamente come un magnete (con un polo nord e un polo sud), e la matrice può essere usata come congegno di immagazinamento. Andrebbe notato che, visto che sfere separate da 25 nanometri equivalgono a una densità di immagazinamento di 1 terabit (1000 gigabit) per pollice quadrato, il team di MAFIN ha pensato che lo stesso metodo con sfere più piccole potrebbe generare densità fino a 6 volte maggiori. A parte il mezzo di registrazione in sè, i ricercatori hanno anche studiato le tecniche di registrazione (hanno scoperto che bisognerà operare delle modifiche al ferro-platino in modo che le informazioni possano essere registrate e lette facilmente) e hanno sperimentato l'uso di un sonda a punta magnetica (in sostituzione della tradizionale testina di registrazione) per magnetizzare e leggere ognuna delle nanosfere. A differenza degli hard disk di oggi che registrano le informazioni su uno strato ferromagnetico fatto di grani, l'obiettivo di MAFIN era quello di sviluppare un nuovo mezzo di registrazione magnetica per applicazioni di immagazinamento magnetico a densità ultra alta. TERMAGSTOR si è basato sui risultati del progetto proof-of-concept per progettare, fabbricare e testare futuri mezzi di immagazinamento magnetici perpendicolari con una densità areale (la densità di un oggetto bidimensionale) maggiore di 1 Tbit/in2. Chimici, fisici, ingegneri e scienziati dei materiali di nove istituti europei hanno cominciato a lavorare su TERAMAGSTOR nel 2008, sotto la guida di Demokritos, il Centro nazionale di ricerca scientifica in Grecia. L'approccio del team si basa sullo sviluppo di pellicole avanzate usando tecniche provenienti dalla nanotecnologia, una delle tecnologie di produzione fondamentale del 21° secolo. Nell'ambito di MAFIN, lo scopo era quello di costruire una superficie di registrazione comprensiva di cellule magnetiche create per lo scopo e di produrre queste nanostrutture a costi bassi e su larga scala. Il progetto triennale TERMAGSTOR si concluderà ad aprile 2011.
Per maggiori informazioni, visitare: TERAMAGSTOR:
http://www.teramagstor.eu/ MAFIN: http://idefix.physik.uni-konstanz.de/MAFIN/ ICT Results: http://cordis.europa.eu/ictresults/index.cfm
Categoria: ProgettiFonte: ICT ResultsDocumenti di Riferimento: Sulla base di informazioni fornite da ICT ResultsAcronimi dei Programmi: FP6-INTEGRATING, FP6-IST, FRAMEWORK 6C, FP7, FP7-COOPERATION, FP7-ICT, FUTURE RESEARCH-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Applicazioni della tecnologia dell'informazione e della comunica; Elaborazione dati, Sistemi di informazione; Ricerca scientifica
RCN: 32298

Nuovo microscopio cattura straordinarie immagini dello sviluppo degli animali.

Fonte: Cordis
---------------------
Per comprendere a fondo le complesse fasi che caratterizzano lo sviluppo di un embrione, osservarle non è certo sufficiente. Tuttavia, anche i normali microscopi non consentono di osservare facilmente questi dettagli, che oltre ad essere molto piccoli e complessi variano a grande velocità. I nuovi progressi tecnici permettono di "catturare" in video lo sviluppo dei moscerini della frutta e di osservare le fasi di formazione degli occhi e del mesencefalo del Danio rerio. Il team che ha perfezionato questo metodo, composto da scienziati tedeschi e statunitensi, ha presentato il suo lavoro sulla rivista Nature Methods. La trasformazione di una cellula in animale è un processo estremamente complesso e rapido. La cellula, infatti, si divide in decine di migliaia di nuove cellule con grande velocità. Queste cellule si muovono poi all'interno dell'embrione e si sviluppano in organi diversi. L'elaborazione dell'immagine e l'analisi dei dati automatizzati, per esempio, consentono agli scienziati di seguire il comportamento delle cellule già dai primi giorni di sviluppo del Danio rerio. Tuttavia, il successo di questi approcci dipende dalla potenza del microscopio. "I campioni non-trasparenti (opachi) come quelli dei moscerini della frutta diffondono luce. Questo fa in modo che il microscopio catturi sia immagini a fuoco che immagini non a fuoco. Informazioni di buona e di cattiva qualità, potremmo dire", ha spiegato Ernst Stelzer, scienziato presso lo European Molecular Biology Laboratory (EMBL) e coautore dello studio. "La nostra nuova tecnica ci consente di scegliere tra questi due tipi di informazioni". Un paio di anni fa, gli scienziati che hanno lavorato allo sviluppo di questa tecnica erano già riusciti a sviluppare un nuovo microscopio in grado di sfruttare fluorescenza e raggi laser molto sottili. Gli scienziati hanno ora affinato il metodo utilizzato, migliorando qualità dell'immagine e contrasto mediante la scelta di illuminare i campioni con una serie di strisce e non con un fascio di luce omogeneo. Questo ha permesso loro di catturare immagini di fasi diverse dell'illuminazione. Un computer ha poi affiancato queste immagini eliminando gli effetti della diffusione della luce e creando quindi un'immagine estremamente accurata. Gli scienziati hanno utilizzato questo approccio da diverse angolazioni, ottenendo due risultati importanti. Per prima cosa hanno ottenuto circa 1 milione di immagini relative ai primi tre giorni di sviluppo del Danio rerio da diverse angolazioni e hanno girato dei filmati che riprendono i movimenti delle cellule che mostrano chiaramente la formazione degli occhi e del mesencefalo. Poi, nonostante l'embrione del moscerino della frutta sia opaco, sono riusciti a riprodurre alcuni straordinari video in 3D in time-lapse che mostrano chiaramente le dinamiche cellulari dello sviluppo. Gli scienziati sono riusciti ad ottenere questi risultati senza esporre i campioni a una luce eccessiva che avrebbe potuto danneggiarli. Le immagini, oltre ad essere di straordinario interesse, saranno molto utili agli scienziati. Potranno, infatti, essere utilizzate per effettuare analisi computazionali dei movimenti e della divisione cellulare e per creare un modello per la mappatura e il confronto dell'espressione genica all'interno di un organismo. Il dottor Stelzer ha sottolineato che questo nuovo metodo "ci permette di analizzare organismi fino ad oggi poco studiati proprio per le loro 'poco fortunate' proprietà ottiche". Allo studio, coordinato dai ricercatori della sede di Heidelberg del Laboratorio europeo di biologia molecolare (EMBL), hanno contribuito in modo determinante anche ricercatori dell'Università di Heidelberg, del Politecnico di Karlsruhe e della Goethe Universität, come anche scienziati dell'Howard Hughes Medical Institute e dello Sloan-Kettering Institute, entrambi con sede negli Stati Uniti.
Per maggiori informazioni, visitare: Nature Methods:
http://www.nature.com/nmeth/index.html EMBL Heidelberg: http://www.embl.de/
ARTICOLI CORRELATI: 29966, 30923
Categoria: VarieFonte: Nature Methods; EMBLDocumenti di Riferimento: Kelle, P.J., et al. (2010) Fast, high-contrast imaging of animal development with scanned light sheet-based structured-illumination microscopy. Nature Methods, pubblicato online il 4 luglio. DOI: 10.1038/nmeth.1476.Acronimi dei Programmi: MS-D C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Innovazione, trasferimento di tecnologie; Tecnologia dei materiali ; Metodi di misurazione; Ricerca scientifica
RCN: 32296

martedì 29 giugno 2010

20 attosecondi: il tempo più breve mai misurato.

Fonte: Cordis
-------------------
Oltre un secolo fa Albert Einstein risolse un apparente paradosso nella teoria della fotoemissione, descrivendo la luce in quanto composta da particelle, chiamate fotoni, piuttosto che onde. Da allora, la fotoemissione è stata spiegata come un processo nel quale un elettrone è emesso istantaneamente da un atomo dopo che l'atomo assorbe energia da un fotone. Adesso, alcuni fisici finanziati dall'UE hanno mostrato che questo non succede immediatamente. Mentre dimostrava la presenza di un ritardo dopo che il fotone colpisce l'elettrone, il team è riuscito a misurare il tempo più breve mai registrato in natura. Capire meglio queste minuscole interazioni fornisce preziose informazioni su tutti i processi biologici e chimici. I risultati sono stati pubblicati su Science. La ricerca è stata condotta da fisici dell'Istituto Max Planck di ottica quantistica, la Technische Universität München e la Ludwig-Maximilians-Universität München in Germania, che hanno collaborato con fisici provenienti da Austria, Grecia e Arabia Saudita. Il loro lavoro è stato sostenuto dall'UE attraverso una borsa di reintegrazione Marie Curie e una Starting Grant del Consiglio europeo della ricerca (CER). Per rilasciare elettroni dal loro orbitale atomico, sono stati sparati veloci impulsi di luce laser verso atomi neon per meno di quattro femtosecondi (un femtosecondo e un quadrilionesimo di secondo). Gli atomi sono stati colpiti simultaneamente da impulsi ultravioletti estremi, della durata di altri 180 attosecondi (un attosecondo è un quintilione di secondo). I fisici hanno quindi registrato il momento in cui gli elettroni venivano espulsi dall'atomo usando il campo controllato dell'impulso laser sincronizzato come una sorta di "cronografo per attosecondi". Il risultato è stato un ritardo misurabile di circa 20 attosecondi tra il rilascio di un elettrone che occupa l'orbitale 2p e quello dell'elettrone che occupa l'orbitale 2s. La tecnica di misurazione usata dai fisici è la più veloce al mondo. Inoltre, il tempo di 20 attosecondi registrato rappresenta l'intervallo di tempo più breve mai direttamente misurato ad oggi. "Un attosecondo è un miliardesimo di un miliardesimo di secondo, un intervallo di tempo incredibilmente breve," ha spiegato il dott. Reinhard Kienberger dell'Istituto Max Plank di ottica quantistica. "Ma dopo l'eccitazione con la luce, uno degli elettroni lascia l'atomo prima dell'altro. Siamo quindi stati in grado di mostrare che gli elettroni "esitano" brevemente prima di lasciare l'atomo." I membri del team provenienti da Germania, Grecia e Austria hanno determinato che l'esitazione misurava cinque attosecondi. Il motivo per il quale gli elettroni esitano in questa maniera prima di essere emessi è da interpretare. Il dott. Vladislav Yakovlev, anch'egli dell'Istituto Max Planck di ottica quantistica, ha spiegato: "Lo sforzo computativo necessario per creare un modello di un sistema con così tanti elettroni è superiore alla capacità computativa dei supercomputer odierni." Ciononostante i fisici suggeriscono che una causa potrebbe essere l'insieme di interazioni tra elettroni e tra elettroni e il loro nucleo atomico. "Tale interazione elettrone-elettrone potrebbe significare che passa un breve lasso di tempo prima che un elettrone agitato dall'onda di luce incidente venga rilasciato dai suoi compagni elettroni e possa così lasciare l'atomo," ha detto il dott. Martin Schulze dell'Istituto Max Plank di ottica quantistica. Il dott. Ferenc Krausz della Ludwig-Maximilians-Universität München ha evidenziato le implicazioni di ampia portata dei risultati ottenuti dal team: "Queste interazioni che oggi non comprendiamo appieno esercitano un'influenza fondamentale sui movimenti dell'elettrone nelle dimensioni più piccole, che determinano il corso di tutti i processi biologici e chimici, per non parlare della velocità dei microprocessori, che stanno nel cuore dei computer."
Per maggiori informazioni, visitare: Science:
http://www.sciencemag.org/ Technische Universität München: http://portal.mytum.de Istituot Max Planck di ottica quantistica: http://www.mpq.mpg.de/cms/mpq/ Ludwig-Maximilians-Universität München http://www.en.uni-muenchen.de/
ARTICOLI CORRELATI: 32194
Categoria: Risultati dei progettiFonte: Science; Technische Universität München:Documenti di Riferimento: Schultze, M., et al. (2010) Delay in Photoemission. Nature, pubblicato online il 25 giugno 2010. DOI: 10.1126/science1189401.Acronimi dei Programmi: MS-EL C, MS-A C, MS-D C, FP6-MOBILITY, FP6-STRUCTURING, FRAMEWORK 6C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Scienze della Terra; Metodi di misurazione; Ricerca scientifica
RCN: 32261

martedì 22 giugno 2010

Il più grande impianto al mondo di desalinizzazione a energia solare, sarà completato nel 2012.

Fonte: ScienzeNews.it
-----------------------------
Un nuovo impianto di purificazione dell'acqua marina sfrutterà le ultime innovazioni nel campo delle tecnologie per l'energia solare e un sistema di filtrazione più efficiente. Il desalinizzatore verrà realizzato in Arabia Saudita, Paese che ricava la maggior parte del fabbisogno di acqua potabile attraverso la rimozione del cloruro di sodio e di altri sali dall'acqua marina.
L'agenzia nazionale per la ricerca (King Abdul Aziz City for Science and Technology – KACST) dell'Arabia Saudita ha pianificato l'uso dell'energia solare, una delle risorse energetiche più abbondati del Paese, per soddisfare il fabbisogno nazionale di acqua potabile. A tale scopo è in fase di costruzione nella città di Al-Khafji il più grande impianto al mondo di desalinizzazione a energia solare, sarà completato nel 2012 e produrrà 30 mila metri cubi di acqua potabile al giorno per soddisfare il fabbisogno di 100 mila persone. In seguito verranno realizzati altri impianti in numerose località dell'Arabia Saudita.
L'impianto userà una nuova tecnologia di celle fotovoltaiche a concentrazione e un sistema innovativo per filtrare l'acqua sviluppato dalla KACST in collaborazione con IBM e con la University of Texas. Il nuovo desalinizzatore otterrà l'energia necessaria per il suo funzionamento da un impianto solare a concentrazione che prevede lenti e specchi per incanalare la luce del sole verso celle solari ultra efficienti. Il processo di conversione della luce solare in elettricità genera molto calore pertanto è necessario un buon impianto di raffreddamento. La soluzione proposta da IBM per disperdere il calore in eccesso prevede l'impiego di una lega di indio e gallio che passa sotto ai chips di silicone, l'uso di questo metallo liquido ha permesso ai ricercatori di concentrare 2300 volte l'energia solare su un dispositivo solare di un centimetro quadrato. Gli impianti di desalinizzazione sfruttano la distillazione per ottenere acqua potabile dall'acqua marina, mentre i nuovi impianti, compreso quello in fase di realizzazione nella città di Al-Khafji, usano l'osmosi inversa che prevede il passaggio forzato dell'acqua marina attraverso una membrana polimerica ottenendo così la separazione dei sali dall'acqua.Per il nuovo impianto di desalinizzazione è stata messa a punto una membrana innovativa, sviluppata da IBM e University of Texas, che consente una osmosi inversa più efficiente dal punto di vista energetico.Le membrane di poliammide attualmente in uso si intasano facilmente con oli e microrganismi, tendono inoltre a rompersi nel tempo a causa del trattamento dell'acqua marina con cloro.La nuova membrana polimerica contiene un materiale usato da IBM per modellare i circuiti di rame sui chips dei computer. Il nuovo materiale contiene composti florurati che, a valori di pH alti, si caricano e preservano la membrana dall'azione del cloro e dello sporco.Il risultato è che l'acqua fluisce molto più rapidamente rispetto alle membrane per osmosi inversa attualmente in uso.La nuova membrana è competitiva anche dal punto di vista della qualità dell'acqua poiché permette di rimuovere il 99,5 % dei sali, risultato analogo a quello delle attuali membrane.Il principale obiettivo del nuovo impianto è riuscire ad ottenere acqua potabile in modo più sostenibile per l'ambiente. L'impianto soddisferà anche la necessità di abbassare i costi della desalinizzazione dell'acqua marina: quasi la metà della spesa è dovuta al costo dell'energia usata nel processo che, nella maggior parte degli impianti attualmente in funzione, viene ottenuta dai combustibili fossili. Sebbene il costo della produzione di energia dagli impianti solari sia ancora molto elevato e superiore al costo dei combustibili fossili in numerosi Paesi, ha senso affrontare adesso questa spesa poiché si rivelerà la soluzione più economica nel prossimo futuro.L'impiego dell'energia solare consentirà la riduzione delle emissioni di gas serra ottenendo così un vantaggio ambientale di enorme valore.

Inizia a svilupparsi un mercato mondiale sia per l'energia mareomotrice sia per l'energia delle onde marine.

---------------------------
Sono in progetto dieci nuovi impianti che sfrutteranno l'energia mareomotrice e l'energia delle onde marine per generare energia elettrica pulita nel mare a nord della Scozia.
Il governo inglese ha dato il via libera a nuovi e consistenti progetti per l'utilizzo dell'energia rinnovabile dal mare: si tratta di 6 progetti per l'energia delle onde e 4 progetti per l'energia delle maree. Gli impianti verranno realizzati a partire dal 2013 attorno alle isole di Orkney in Scozia e potranno generare energia pari a 1,2 gigawatt.Si tratta di un passo avanti molto importante per l'Inghilterra che fino ad ora ha installato solo impianti sperimentali e di piccole dimensioni. “Le energie rinnovabili sono un settore in rapida crescita” afferma Martin McAdam, amministratore delegato di
Aquamarine Power che, in collaborazione con Scottish and Southern Energy, garantisce energia per 200 megawatt e attualmente rappresenta il principale produttore di energia rinnovabile in Inghilterra.
Le acque che circondano la Scozia sprigionano grandi quantità di energia grazie alla loro posizione geografica strategica: schiacciate tra l'Oceano Atlantico e il Mare del Nord.Le onde che raggiungono le coste delle isole di Orkney sono mediamente alte 2 metri e possono superare i 10 metri. Da queste onde è possibile ricavare energia pari al 15-20% del fabbisogno totale inglese.I dieci impianti scozzesi rientrano in un più ampio progetto dell'European Marine Energy Centre (EMEC) che sovvenziona in parte i lavori.“Inizia a svilupparsi un mercato mondiale sia per l'energia mareomotrice sia per l'energia delle onde marine, questo è il motivo che spinge l'interesse delle grandi compagnie energetiche” afferma Amaan Lafayette, manager presso E.ON, azienda vincitrice di due licenze per la realizzazione dei nuovi impianti in Scozia.I nuovi impianti dovranno dimostrare di poter affrontare una lunga permanenza in acque aperte, si tratta di una sfida molto impegnativa, infatti bisogna tenere presente che numerosi prototipi non hanno retto di fronte alla forza del mare – basta ricordare i prototipi per l'energia mareomotrice installati nell'East River di New York nel 2007 o i generatori della Pelamis Wave Power posti al largo del Portogallo, tra problemi tecnici e turbolenze marine inaspettate entrambi i progetti non sono andati a buon fine.Il direttore dell'EMEC, Neil Kermode, spiega che le tecnologie per lo sfruttamento dell'energia marina sono ancora in fase di sviluppo e dovranno superare numerosi ostacoli prima di diventare completamente operative. Gran parte dei generatori che verranno installati nel mare attorno alle isole di Orkney sono dispositivi di seconda generazione, molto più progrediti e dotati di una migliore tecnologia rispetto ai generatori attuali.Tra le tecnologie per l'energia marina è stato sviluppato Oyster di Aquamarine Power, si tratta di un convertitore idroelettrico di onde marine. Il dispositivo è costituito da un flap messo in moto meccanicamente dalle onde e collegato al fondo marino a circa 10 metri di profondità. L'energia delle onde muove il flap che mette in funzione un pistone idraulico che invia acqua a elevata pressione ad una turbina elettrica posta a riva. Oyster non ha parti mobili o generatori di energia posti in acqua e questo dovrebbe preservare il dispositivo da eventuali danni tecnici causati dalla lunga permanenza in mare.L'azienda ha installato il suo primo prototipo di Oyster lo scorso ottobre ed ora sta realizzando l'impianto su grande scala: un dispositivo dotato di 3 flap che vanno ad alimentare una turbina da 2,5 megawatt. I test sono previsti all'EMEC il prossimo anno.I dispositivi per l'energia mareomotrice che verranno installati nei siti scozzesi usano tutti turbine poste sotto il livello dell'acqua e saranno quindi silenziose e non visibili dalla superficie. Le turbine dell'azienda OpenHydro sfruttano una tecnologia semplice e robusta, saranno poste sul fondale marino senza pericolo per il traffico navale, le turbine di Marine Current Turbines e quelle di Hammerfest Strom assomigliano di più a impianti eolici mossi dalla corrente marina al posto che dal vento. Affinché gli impianti su grande scala possano essere realizzati con un buon margine di sicurezza i costruttori auspicano di poter condurre sufficienti test su dispositivi in scala più piccola con lo scopo di verificare in ogni dettaglio la fattibilità dei singoli progetti.Tutti i dispositivi che verranno installati in Scozia sono molto costosi da realizzare e i costruttori avranno particolari facilitazioni economiche già predisposte dal governo inglese nell'ambito dello sviluppo delle energie rinnovabili nel Paese.Il governo inglese ha recentemente incluso gli impianti per lo sfruttamento dell'energia marina in un ampio piano di valutazione di impatto ambientale volto a tutelare lo sviluppo sostenibile delle coste. Per questo motivo i dieci siti che ospiteranno gli impianti dovranno essere analizzati anche sotto il profilo ambientale. “E' necessario fare una specifica valutazione di impatto ambientale per ognuno dei siti e studiare in modo preciso il tipo di tecnologia più adatta in base alle caratteristiche del singolo sito” spiega Lafayette.L'ESPRI (Electric Power Research Institute) mette in luce che l'energia delle onde marine e delle maree potrebbe soddisfare circa il 10% del fabbisogno energetico degli USA e potrebbe essere ottenuta ad un costo simile a quello sostenuto per gli impianti eolici presenti in numerosi stati americani come Hawaii, California, Oregon e Massachusetts.Sono comunque in fase di valutazione ulteriori aspetti legati alla realizzazione degli impianti marini con l'obiettivo di fornire un quadro esaustivo di questo tipo di tecnologia entro il prossimo anno.Se le nuove tecnologie per il rinnovabile hanno conquistato il mare della Scozia, potranno presto raggiungere ulteriori importanti traguardi in altre aree del Pianeta con nuovi progetti per lo sfruttamento delle onde del mare e delle maree. Proprio come accadde in Danimarca con l'installazione degli impianti eolici che, dagli anni '70 e '80 ad oggi, hanno conquistato posizioni importanti nel mercato energetico mondiale.

giovedì 3 giugno 2010

Preparati DNAzimi, componenti per biocomputer.


---------------------------------
Scienziati finanziati dall'Unione europea sono riusciti a dimostrare la realizzabilità dei componenti destinati a una sorta di "biocomputer", preparando la strada per compiere nuovi progressi tecnologici nel campo della bioingegneria. Gli scienziati, del Dipartimento di chimica dell'Università di Liegi (Belgio) e dell'Istituto di chimica della Università ebraica di Gerusalemme (Israele) hanno illustrato i dettagli del proprio lavoro in un articolo pubblicato sulla rivista Nature Nanotechnology.L'Unione europea ha finanziato la ricerca nell'ambito del progetto MOLOC ("Molecular logic circuits"), al quale sono stati assegnati 2 milioni di euro (dei 2,67 milioni stanziati complessivamente) in riferimento al tema "Tecnologie dell'informazione e della comunicazione" del Settimo programma quadro (7° PQ).Per lo studio, coordinato dal professor Itamar Willner dell'Università ebraica di Gerusalemme, i ricercatori hanno teoricamente sviluppato e dimostrato in modo sperimentale che gli acidi nucleici catalitici artificiali, conosciuti con il nome di DNAzimi, e i loro substrati possono essere utilizzati come piattaforma per le operazioni logiche che costituiscono il fulcro dei processi computazionali.Il lavoro potrebbe rivelarsi utile per lo sviluppo di nuove applicazioni nell'ambito della nanomedicina, per esempio, dove l'effettuazione di operazioni logiche a livello molecolare potrebbe facilitare l'analisi della patologia in corso e stimolare la reazione degli agenti terapeutici."I sistemi biologici in grado di effettuare operazioni computazionali potrebbero essere d'ausilio per la bioingegneria e la nanomedicina. Il DNA (acido deossiribonucleico), come altre biomolecole, è già stato utilizzato come componente attivo all'interno dei circuiti biocomputazionali", scrivono i ricercatori."Tuttavia, affinché i circuiti biocomputazionali possano essere utilizzati in queste applicazioni, è necessario mettere a punto una raccolta di elementi computazionali che provi l'accoppiamento modulare di questi elementi e la scalabilità di un approccio di questo genere.Il team ha creato una piattaforma computazionale basata sul DNA che sfrutta due raccolte di acidi nucleici, una delle quali è costituita da subunità dei DNAzimi. La seconda raccolta, invece, comprende i substrati dei DNAzimi."Dimostriamo che la raccolta dei DNAzimi, progettati e sintetizzati dal team del Professor Willner, consente la realizzazione di un insieme completo di porte logiche che possono essere utilizzate per il calcolo di qualsiasi funzione Booleana" ha spiegato Francoise Remacle dell'Università di Liegi, coordinatrice del progetto MOLOC."Abbiamo anche dimostrato che l'assembramento dinamico [di queste porte] nei circuiti può essere diretto mediante impulsi selettivi. Inoltre, il progetto consente l'amplificazione degli output".Il progetto MOLOC, avviato nel 2008, dovrebbe concludersi al termine del 2010. L'obiettivo dell'iniziativa è progettare e dimostrare la realizzabilità e i vantaggi dei circuiti logici il cui elemento di base è costituito da un'unica molecola (o insiemi di atomi e molecole) che agisce come circuito logico. Questi sistemi si distinguono dai sistemi in cui le molecole svolgono il ruolo di interruttori.Oltre all'Università di Liegi e all'Università ebraica di Gerusalemme, sono partner del progetto MOLOC: l'Istituto di ricerca sullo stato solido (IFF) presso il Forschungszentrum Jülich, l'Istituto Max Planck per l'ottica quantistica, il dipartimento di chimica dell'Università Heinrich-Heine di Düsseldorf, l'Istituto di ottica applicata della Technische Universität Darmstadt (tutti in Germania) e l'Istituto Kavli per le nanoscienze del Politecnico di Delft (Paesi Bassi).

sabato 29 maggio 2010

Craig Venter e il "Batterio artificiale": una sintesi chimica per i "DNA-copia" del futuro.

Breve nota introduttiva:
------------------------------------
Una delle più grandi rivoluzioni nel mondo della microbiologia, è sicuramente avvenuta nel lontano 1986 con la scoperta della PCR (Polymerase Chain Reaction;ovvero:reazione a catena della polimerasi), da parte dell’ormai famoso biochimico americano (premio Nobel nel 1993) Kary Mullis. Ora sembrerebbe che un altro grande passo avanti sia stato fatto, nel campo della biologia molecolare; questa volta a nome di Craig Venter, il biologo statunitense, noto per aver sfidato il Progetto Genoma Umano nella corsa al sequenziamento del genoma. In questo breve articolo (firmato dai microbiologi Giovanna Riccardi e Marco Gobbetti), viene presentata una piccola analisi sull’esperimento di Craig Venter (et al.), in cui si evidenziano gli aspetti positivi, ma anche negativi, che tali idee/scoperte a volte celano attraverso i complessi (e molti ancora ignoti) meccanismi che la vita ha dovuto adotarre e modificare nel corso di milioni di anni, per garantire la sopravvivenza di ogni specie vivente (dai micro-organismi fino agli animali veri e propri). Se è vero quindi che la forza di ogni specie, sta principalmente nella sua variabilità genetica, forse è giunto davvero il tempo in cui l’uomo si renda conto che ogni volta che modifichiamo artificialmente determinati parametri che la natura ha definito nel corso di milioni di anni di evoluzione,dobbiamo anche mettere in conto che la logica binaria, nel mondo reale, funziona solo fino ad un certo punto: casualità e caos, hanno sempre la precedenza (e questo nel mondo macroscopico lo notiamo ovunque, senza dover necessariamente andare a scomodare Heisenberg e il Principio di Indeterminazione).
Fausto Intilla
-
Articolo di Giovanna Riccardi e Marco Gobbetti:
-
Il batterio “artificiale”: la parola ai microbiologi.
-
Giovedì 20 maggio 2010 il Team coordinato da Craig Venter ha pubblicato sull’autorevole rivista scientifica Science l’articolo “Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome” (“Creazione di una cellula batterica controllata da un genoma sintetizzato chimicamente”) che ha immediatamente innescato un acceso dibattito non solo all’interno della Comunità Scientifica. I “media”, sempre in cerca di notizie sensazionali, hanno già scritto fiumi di parole su quello che secondo loro è il contenuto essenziale della ricerca: la creazione della vita artificiale. Tuttavia, scorrendo i vari articoli, emergono considerazioni non sempre chiare ed interpretazioni talvolta forzate o contraddittorie, che non contribuiscono a chiarire l’importante messaggio di innovazione scientifica contenuto nella scoperta dei ricercatori.
Come scienziati specializzati nella conoscenza delle cellule dei microrganismi, oggetto della ricerca del gruppo di Venter, proponiamo la nostra analisi al riguardo.
Cosa ha fatto veramente C. Venter? Esattamente quanto dice il titolo del suo articolo, in cui ovviamente il termine “creazione” è usato nel senso più esteso di “invenzione ed esecuzione di un’opera”. Infatti:
1) Il gruppo di Venter ha sintetizzato chimicamente e messo insieme pezzo dopo pezzo l’intero genoma di un batterio (Mycoplasma mycoides, parassita polmonare di alcuni ruminanti) per poi introdurlo nella cellula di un batterio di una specie simile (Mycoplasma capricolum), cellula che era stata privata del suo corredo genetico originario. E’ importante rilevare che la cellula ricevente è di origine naturale e solo il genoma, che costituisce soltanto una piccola ma importantissima parte della cellula è stato sintetizzato inizialmente per via chimica.
2) Gli scienziati hanno (ri)costruito il genoma “artificiale” copiando il genoma di un batterio vivente già noto. Deve essere sottolineato, che l’informazione contenuta nel DNA degli organismi viventi è il risultato di miliardi di anni di evoluzione biologica. Lo stato della tecnica e della conoscenza non consente di inventare “ex novo” un intero genoma per la costruzione di un organismo completamente sintetico. Leggere un testo e copiarlo è tutt’altra cosa che averlo capito e interpretato; ancora adesso il funzionamento, anche di un organismo semplice come un batterio, è ben lontano dall’essere compreso nel suo complesso e ancor più lontano dal poter essere re-inventato.
La novità rilevante di questa ricerca è la capacità di sintetizzare chimicamente l’intero genoma di un batterio, il Mycoplasma mycoides, in una struttura idonea per essere introdotta e funzionare in un altro batterio simile al primo, il Mycoplasma capricolum che, privo del suo DNA originario, acquisisce replicazione autonoma e proprietà biologiche dell’organismo donatore.
3) Per mettere insieme i diversi pezzi di DNA sintetizzati chimicamente e ottenere una quantità di genoma sintetico sufficiente per le manipolazioni genetiche, i ricercatori hanno usato un altro microrganismo, il lievito di birra (Saccharomyces cerevisae), come fabbrica cellulare.
4) Per funzionare, il DNA ha bisogno di una macchina molto complicata, la cellula; questa macchina è costruita in base alle istruzioni impartite dal DNA stesso. Per il momento Venter e i suoi sono riusciti a ”copiare” in laboratorio il DNA di un microrganismo, ma è come se avessero impiegato una “macchina usata” per farlo funzionare (ovvero un altro microrganismo privato del suo DNA naturale).

Questo risultato quindi, al di là del clamore mediatico che ha portato a interpretazioni anche fantasiose sulle reali conseguenze degli esperimenti fatti, costituisce un traguardo importante nell’ambito della Microbiologia, dell’Ingegneria Genetica e delle Biotecnologie e mette a disposizione una nuova opportunità per trarre informazioni sulla “vita”, pur essendo ben altra cosa che la “creazione della vita”, fosse anche solo di una piccola cellula batterica.
Il ruolo del genoma è fondamentale in quanto contiene l’informazione genetica e controlla non solo la struttura ma anche le varie funzioni metaboliche della cellula. Abbiamo ora a disposizione una nuova opportunità per comprendere meglio come sono fatte e come funzionano le cellule, non solo dei batteri ma anche le nostre, e per modificarle in modo più mirato. Tuttavia, questo lavoro non nasce dal nulla nei super-laboratori di C. Venter: è il frutto di decenni di ricerche sui microrganismi, spesso fatte con risorse modeste, molto spesso mosse dalla pura curiosità di capire questo mondo sterminato e affascinante in tantissimi laboratori di tutto il mondo. Jacques Monod diceva che “quel che vale per un batterio vale anche per un elefante”, con il vantaggio che i batteri si possono studiare più agevolmente degli elefanti. Infatti, la comunità dei microbiologi in senso lato è stata protagonista principale di numerose scoperte scientifiche biologiche che riguardano anche l’uomo.
Tutto questo evidenzia ancora una volta l’importanza dei microrganismi non soltanto come oggetti di indagine per comprenderne il funzionamento, la fisiologia ed i meccanismi di interazione con altri organismi. Infatti, lo studio dei microrganismi come sistemi modello è stato determinante per lo sviluppo di numerose e fondamentali conoscenze biologiche.
Il lavoro pubblicato da C. Venter e collaboratori offre la possibilità di esplorare le potenzialità della sintesi di DNA in vitro per la realizzazione di sistemi microbici specializzati in funzioni con ampie applicazioni pratiche, quali la produzione di farmaci e altre sostanze di uso comune, la detossificazione di ambienti contaminati, la produzione di bioenergia, la produzione di vaccini e così via.
Non a caso nel XIX secolo Louis Pasteur, il fondatore della Microbiologia moderna, diceva: “Signori, spetterà ai microbi l’ultima parola”.
-
Pavia, 26 Maggio 2010
-
Giovanna Riccardi
Presidente della Società Italiana di Microbiologia
Generale e Biotecnologie Microbiche (SIMGBM)
http://www.simgbm.it/
-
Marco Gobbetti
Presidente della Società Italiana di Microbiologia
Agraria, Alimentare ed Ambientale (SIMTREA)
http://www.simtrea.org/
-
Scarica l'articolo in formato PDF:

sabato 15 maggio 2010

In America si cerca una soluzione al problema delle scorie nucleari. Forse l'Università di Austin l'ha trovata.

Fonte: Casa & Clima
-------------------------
Un gruppo di fisici americani dell’Institute for Fusion Studies dell’Università di Austin, Texas, ha annunciato di conoscere il modo per sfruttare la fusione nucleare al fine di distruggere le scorie nucleari prodotte dalla fissione. Ciò potrebbe essere il modo per rilanciare l'immagine dell'energia nucleare che molti suoi oppositori ritengono un problema proprio a causa dell'impossibilità di smaltirne le scorie.
-
Fissione e fusione:
Per fare chiarezza è meglio precisare che la fissione consiste nello spezzare, per mezzo di neutroni, i nuclei di elementi pesanti come l’Uranio, e utilizzare l’energia liberata. Su questo processo si basano le attuali centrali nucleari. Nella fusione nucleare, invece, l’energia si libera in seguito al compattamento di nuclei di atomi leggeri come l’idrogeno e il deuterio. Ad oggi l'uomo non è ancora riuscito a rendere funzionante una centrale a fusione.
-
Bombardare le scorie:
I fisici americani si dichiarano in grado di realizzare una sorgente di neutroni chiamata “Compact Fusion Neutron Source” (CFNS), grande all'incirca come una stanza e costituita da una “ciambella” magnetica contenente deuterio a 100 milioni di gradi Celsius. Le parti non riciclabili delle scorie prodotte dai reattori americani tradizionali (circa il 75%) che si calcola abbiano una vita media di qualche centinaia di migliaia di anni, verrebbero bombardate con neutroni dai nuovi reattori ibridi fissione-fusione CNFS, il quale le renderebbe inoffensive al 99%, oltre a produrre energia.
-
Soluzione realistica?
Un CNFS può smaltire le scorie di 15 reattori convenzionali. Così il problema dei depositi geologici potrebbe essere risolto, (a proposito, in Italia si parla tanto di ritorno al nucleare ma mai di come stoccare in modo sicuro le scorie delle centrali dismesse) anche se qualcuno è ancora scettico, come Giancarlo Aquilanti, capo della task force nucleare di Enel: “Si tratta sicuramente di un progetto serio ma anche complicato. E non è detto che sia l’alternativa più economica e vicina nel tempo per sbarazzarsi delle scorie nucleari di alta attività. Personalmente penso che possa risultare più promettente bruciarle nei reattori ad alta velocità di quarta generazione che vedranno la luce fra il 2025 e il 2040”.

venerdì 14 maggio 2010

Scoperto un nuovo gruppo di particelle extraterrestri, nella neve antartica.

------------------------------
Un'équipe di ricercatori finanziata dall'Unione europea ha fatto una scoperta unica al mondo: ha infatti rinvenuto un nuovo gruppo di particelle extraterrestri nella regione centrale dell'Antartide. Il lavoro è in realtà il risultato del progetto ORIGINS ("Elucidating the origins of Solar System(s): anatomy of primitive meteorites"), che ha ricevuto 2,6 milioni di euro in riferimento al programma Marie Curie del Sesto programma quadro (6° PQ) dell'Unione europea. L'obiettivo del progetto è consolidare le conoscenze delle origini del nostro sistema planetario e di quelli exoplanetari. I risultati di questo recente studio sono stati pubblicati sulla rivista Science. A scoprire i micrometeoriti nella neve sono stati i ricercatori del Centre de spectrométrie nucléaire et de spectrométrie de masse (CSNSM) in Francia, che fa parte dell'Istituto nazionale di fisica nucleare e delle particelle (a sua volta appartenente al Centro nazionale francese della ricerca scientifica, CNRS). Utilizzando il microscopio elettronico a trasmissione (TEC), il team del CSNSM ha scoperto che i micrometeoriti rinvenuti, dallo straordinario stato di conservazione, sono composti da materia organica contenente piccoli assemblaggi di materiali provenienti dalle più fredde e remote regioni del sistema solare. I ricercatori, che beneficiano del supporto logistico dell'Istituto polare Paul-Émile Victor (IPEV, Francia) e del Programma Nazionale Ricerche in Antartide (PRNA, Italia), hanno scoperto queste particelle negli strati di neve più pulita posti a circa a quattro metri di profondità. Le ricerche sono state effettuate in prossimità della base scientifica italo-francese Concordia, che si trova nel Dome C della regione centrale del continente antartico. Secondo gli scienziati, questi micrometeoriti (che misurano appena 0,1 mm) sarebbero unici al mondo. Nessun laboratorio, infatti, sarebbe in possesso di materiale analogo: i due granuli di polvere si sono rivelati particolarmente ricchi di carbonio (contengono una percentuale di materiale carbonico compresa tra il 50 e l'80%). I risultati di questa ricerca, che ha sollevato grande interesse, hanno consentito di avviare ulteriori studi che vedono il coinvolgimento del CSNSM, dell'Università di Lille 1, dell'Ecole Normale Supérieure di Parigi e del Museo di storia naturale francese. Il team del CSNSM ha utilizzato un sofistico strumento (denominato ion microprobe) per dimostrare che la composizione isotopica dell'idrogeno dei meteoriti analizzati presenta un rapporto deuterio/idrogeno particolarmente elevato. "Si suppone che la polvere interplanetaria primitiva contenga i componenti del più antico sistema solare, ivi inclusi minerali e materia organica", si legge nello studio. "Nelle nevi dell'Antartide centrale abbiamo rinvenuto micrometeoriti che contengono una quantità esorbitante di materiale carbonico e sono caratterizzati da una quantità estremamente elevata di deuterio (superiore di 10-30 volte rispetto ai valori terrestri) delle dimensioni di centinaia di micrometri quadri". I risultati della ricerca dimostrano che le particelle provengono con molta probabilità dalle comete, che nel sistema solare rappresentano corpi celesti di dimensioni relativamente ridotte. I nuclei delle comete sono costituiti da ghiaccio, polvere e minuscole particelle di roccia. Durante il passaggio delle comete in vicinanza del sole, le temperature più elevate causano la sublimazione del ghiaccio che ne compone il nucleo. Questo causa l'immissione nello spazio interplanetario di una miscela di gas e di granuli cometari. Alcuni di questi ultimi possono attraversare l'orbita della Terra mentre si muovono verso il sole: i granuli cometari rivenuti in Antartide potrebbero essere arrivati sulla Terra in una circostanza analoga. Nell'articolo i ricercatori sottolineano che fino ad oggi solo la missione spaziale statunitense Stardust ha fornito ai ricercatori di tutto il mondo la possibilità di effettuare analisi mineralogiche e geochimiche dei grani cometari. Le particelle di polvere scoperte nei pressi della base Concordia sono analoghe ai campioni prelevati nell'ambito della missione Stardust. "Le masse delle particelle variano da pochi decimi di microgrammi a pochi microgrammi, superando di più di un ordine di magnitudo le masse dei frammenti di polvere della cometa 81P (altrimenti chiamata Wild 2) prelevati dalla missione Stardust", scrivono gli autori.
Per maggiori informazioni, visitare: Science:
http://www.sciencemag.org/ Centre de spectrométrie nucléaire et de spectrométrie de masse (CSNSM): http://www.csnsm.in2p3.fr/
ARTICOLI CORRELATI: 30631, 32034
Categoria: Risultati dei progettiFonte: Science; CSNSMDocumenti di Riferimento: Duprat, J., et al. (2010) Extreme deuterium excesses in ultracarbonaceous micrometeorites from central Antarctic snow. Science, 328, 742-745. DOI: 10.1126/science1184832.Acronimi dei Programmi: MS-FR C, MS-I C, FP6-MOBILITY, FP6-STRUCTURING, FRAMEWORK 6C-->Codici di Classificazione per Materia: Metodi di misurazione; Scienze della Terra; Ricerca scientifica; Coordinamento, cooperazione
RCN: 32093

martedì 11 maggio 2010

Inquinamento provocato da industrie, traffico e produzione elettrica, causano infarti e ictus.

---------------------------
WASHINGTON (Reuters) - Uno studio diffuso dall'American Heart Association dice che le prove che l'inquinamento provocato da industrie, traffico e produzione elettrica causano infarti e ictus sono più forti che mai.
E le polveri sottili prodotto dalla combustione di carburanti fossili come benzina, carbone e petrolio sono in tutta evidenza le prime responsabili.
"Il particolato appare aumentare direttamente il rischio provocando eventi in individui sensibili in ore o giorni di aumentato livello d'esposizione, anche tra coloro che altrimenti sarebbero stati in salute per anni", ha detto ieri il dottor Robert Brook dell'Università del Michigan, che ha guidato il gruppo autore del rapporto.
La revisione condotta su sei anni di ricerche mediche indica anche una forte prova sul ruolo dell'inquinamento nell'intasamento delle arterie, e una "piccola ma consistente" associazione tra esposizione a breve termine all'inquinamento atmosferico e morte prematura.
"Il primo messaggio per questi gruppi a rischio elevato è che devono agire per controllare i loro fattori tradizionali di rischio modificabili: pressione sanguigna, colesterolo, diabete, fumo", ha detto Brook.
L'American Heart Association dice che il particolato agisce in molti modi, anche provocando infiammazioni: "E' possibile che certe particelle molto piccole, o elementi chimici che viaggiano insieme a esse, possano raggiungere la circolazione e causare un danno diretto", ha detto Brook.
"Queste risposte possono comprendere coagulazione del sangue e trombosi, funzionamento vascolare e circolazione sanguigna danneggiati, pressione alta, e possono anche danneggiare l'attività elettrica cardiaca che a sua volta può provocare infarti, ictus e anche la morte".
L'associazione raccomanda che gli anziani o chiunque soffra di disturbi cardiaci, pressione alta, colesterolo alto o diabete presti attenzione all'inquinamento atmosferico e agli avvisi sulla qualità dell'aria.