lunedì 27 luglio 2009

Brontosauri e dinosauri si ridimensionano: Audio-Intervista a Raffaele Sardella

Fonte:
a cura di Barbara Gallavotti

Dinosauri magri, così magri da fare invidia a un felino: è l'inedita immagine che emerge da uno studio pubblicato sulla rivista della Società Zoologica di Londra. I ricercatori infatti hanno ricalcolato il peso di un brontosauro, giungendo alla conclusione che l'animale poteva pesare 18 tonnellate, invece delle 38 che gli erano state attribuite fino a oggi. Una dieta di 20.000 chili non è male, e viene da chiedersi come è possibile che i paleontologi abbiano un tale margine di incertezza. Abbiamo provato a capirlo con Raffaele Sardella, dell'Università di Roma.

Ascolta l'intervista a Raffaele Sardella:
Scarica il file audio in mp3

martedì 21 luglio 2009

Tomografia Neutronica: dove la fisica si fonde con l'archeologia.

Fonte:
di Federico Pedrocchi

Ci sono oggetti antichi che non possono essere maneggiati a piacimento per scoprire qualcosa che li riguarda.
Pensate a delle ampolle, a dei vasi sigillati; il loro contenuto, anche se alterato dai secoli, potrebbe essere analizzato ricavando informazioni preziose. Oppure si pensi alle sculture. Può sembrare strano ma l'interno delle opere scultoree può dare molte indicazioni sulle tecniche usate, sui rifacimenti; nel caso di alcune parti della Porta Est del Battistero di Firenze - un'opera di Lorenzo Ghiberti - ebbero una prima versione che evidentemente conteneva dei difetti e quindi furono rifuse dallo stesso Ghiberti.Anche in questi casi siamo in presenza di dati che non possono certo essere recuperati penetrando in modo invasivo all'interno delle opere d'arte.Tomografia Neutronica: questa è la tecnica dalla quale un progetto europeo che vede impegnati molti paesi, ma che è coordinato da Giuseppe Gorini dell'Università di Milano - Bicocca, si aspetta di ricavare e mettere a punto un nuovo e potente strumento di indagine.

Ascolta l'intervista a Giuseppe Gorini:
Scarica il file audio in mp3

lunedì 20 luglio 2009

Un flash a raggi infrarossi e ultravioletti che consente di scattare foto al buio senza bagliori.

Fonte: Galileo

Messo a punto un flash a raggi infrarossi e ultravioletti che consente di scattare foto al buio senza bagliori.
Scattare foto notturne senza il fastidioso lampo del flash e bandire per sempre l'effetto occhi rossi dalle nostre fotografie? Presto potrebbe essere realtà. Una coppia di ricercatori della New York University, Dilip Krishnan e Rob Fergus, ha messo a punto una fotocamera che usa un flash in grado di emettere raggi infrarossi e ultravioletti (componenti dello spettro elettromagnetico invisibili all’occhio umano e quindi non fastidiosi), eliminando invece tutte le lunghezze d’onda dello spettro del visibile.
Grazie alla preventiva rimozione dei filtri che normalmente impediscono di fissare UV e infrarossi, la nuova macchina fotografica è in grado di catturare una prima immagine del soggetto “illuminato”, che risulta nitida ma dai colori alterati. Le foto scattate con questo flash, infatti, ricordano le immagini verdine che si osservano con un binocolo notturno. Per ovviare a questo difetto e ottenere un’immagine fedele ai colori reali, la macchina fotografica scatta un secondo fotogramma immediatamente dopo il primo, senza l’ausilio di nessun flash. Come prevedibile questa seconda immagine sarà scura e offuscata, ma fedele nei colori. A questo punto un sofisticato sowftware saprà combinare le due fotografie ottenendone una terza del tutto realistica.
Nonostante i risultati sorprendenti del prototipo, pubblicati sulla rivista New Scientist, alcuni problemi restano: alcuni oggetti e materiali assorbono gli infrarossi e i raggi UV e quindi non appaiono nelle foto scattate con la tecnica del flash invisibile. Nella foto di un volto, per esempio, le lentiggini scompaiono del tutto. (s.s.)
Riferimenti: New Scientist

Ambienti familiari bilingue: ...un "toccasana" per i bambini.

Fonte:
a cura di Chiara Albicocco

Mamma russa e papà egiziano, mamma italiana e papà sloveno… Provate a pensare a che confusione può avere in testa un figlio che si trova, ogni giorno, a doversi destreggiare con accenti e idiomi di lingue diverse. Potrebbe verificarsi un ritardo cognitivo? Niente affatto risponde la ricerca scientifica. Un recente articolo apparso sulla prestigiosa rivista Science* ci rivela che il bambino che deve districarsi tra la lingua paterna e quella materna, in realtà, sviluppa un'acutezza e un stato cognitivo superiore ai coetanei monolingui.
L'articolo è firmato da Jacques Mehler, docente di neuroscienzee direttore del Laboratorio “Linguaggio, cognizione e sviluppo” della SISSA di Trieste, ci racconta della scoperta prodotta nei suoi laboratori.

Ascolta l'intervista a Jacques Mehler:
Scarica il file audio in mp3

La ricerca:
Oggi molti bambini, in tutto il mondo, crescono in un ambiente familiare bilingue, imparando a destreggiarsi tra la lingua del papà e quella della mamma. Con quali conseguenze? Crescere in una famiglia in cui si parla più di una lingua conferisce al bambino un vantaggio cognitivo: accresce infatti alcune funzioni cognitive, le cosiddette funzioni esecutive. Ovvero quei processi fondamentali per eseguire ciascun tipo di compito, non solo verbale. Determinanti per gestire e pianificare attività, che permettono di coordinare delle azioni e inibirne delle altre, spostando l’attenzione da un aspetto a un altro a seconda del compito da eseguire. Come, per esempio, inibire le tecniche proprie della discesa libera per praticare con successo lo sci di fondo. Lo spiega su Science* Jacques Mehler insieme ad Agnes Melinda Kovàcs, della Scuola Internazionale Superiore di Studi Avanzati di Trieste.
Ancora prima di iniziare a parlare, un bambino che è esposto a due idiomi fin dalla nascita sa distinguere la lingua materna da quella paterna e riesce ad apprendere regolarità linguistiche più velocemente di un bambino monolingue. Il cervello di un bambino esposto a due lingue, infatti, è più duttile perché è allenato a distinguere gli stimoli verbali della lingua paterna da quelli della lingua materna, senza che le due lingue interferiscano tra loro. Questo non significa che sia più intelligente, ma come un maestro di scacchi è più veloce di un neofita nel memorizzare diverse configurazioni sulla scacchiera, così un bilingue è in grado di acquisire più velocemente e distinguere diverse strutture linguistiche rispetto a un coetaneo monolingue. Perchè è allenato a farlo. E il suo sviluppo cognitivo ne trae vantaggio. Insomma, se un bambino cresce fin dalla culla in un ambiente bilingue apprenderà in maniera naturale due differenti idiomi grazie a una proprietà generale del cervello, la plasticità. E grazie alla ricchezza dell’ambiente linguistico, migliorano alcuni meccanismi di apprendimento. Il bilinguismo infatti è positivo per lo sviluppo cognitivo. Ma ciò non vuol dire che bisogna forzare l’apprendimento di una seconda lingua per rendere tutti i bambini dei bilingui.I neuroscienziati della Sissa hanno realizzato in laboratorio una serie di esperimenti con bambini di 12 mesi - metà bilingui, metà monolingui – impegnandoli in un compito che richiede il controllo delle funzioni esecutive, in modo da poter confrontare la loro performance, e verificare se i bilingui sono effettivamente più bravi nell’apprendere simultaneamente diverse strutture linguistiche.

L’esperimento:
Nella situazione sperimentale, ai bambini sono stati presentati stimoli verbali diversi. Ovvero sequenze trisillabiche aventi differenti strutture: alcune dalla struttura linguistica ABA, come “lobalo” o “mubamu”, in cui la prima sillaba è diversa dalla seconda, ma è uguale alla terza, altre invece dalla struttura linguistica AAB, come per esempio “loloba” e “mimifu”, in cui la prima sillaba è uguale alla seconda, che è diversa dalla terza. Subito dopo l’ascolto dello stimolo sonoro, sullo schermo appariva un pupazzo: a sinistra se la struttura era del tipo AAB, a destra se era del tipo ABA. L’esperimento era finalizzato a testare la capacità dei bambini di anticipare il lato dello schermo cui sarebbe apparso il pupazzo in seguito allo stimolo sonoro.Per riuscire correttamente nel compito, dunque, i bambini dovevano cogliere le regolarità strutturali presenti negli stimoli verbali e associare a ciascuna struttura linguistica un lato dello schermo su cui spostare lo sguardo. I ricercatori hanno constatato che il bambino bilingue apprende con maggiore facilità due strutture linguistiche simultaneamente e riesce a reagire al cambiamento di situazione. I bambini cresciuti in un ambiente bilingue si sono rivelati infatti più capaci dei loro coetanei monolingui nel prevedere il lato dello schermo dove sarebbe comparso il pupazzo subito dopo aver ascoltato gli stimoli sonori. I bambini monolingui, invece, sono riusciti a eseguire il compito correttamente solo con una struttura, la struttura verbale AAB.
Il vantaggio dei bambini bilingui può essere ricondotto alle abilità di selezionare e monitorare gli stimoli, che li rende capaci di prendere in considerazione solo ciò che ha importanza in un determinato contesto. Come in fondo fanno gli adulti bilingui: devono di volta in volta accendere l’interruttore di una lingua e spegnere l’altra, al fine di parlare quella più appropriata allo scopo. Per chi cresce imparando due lingue, passare da una all'altra è naturale.«I bambini che crescono in una famiglia in cui non si parla una sola lingua, riescono a monitorare più velocemente differenti stimoli linguistici ancora prima di imparare a parlare, e così riescono ad apprendere le proprietà fondamentali della lingua di entrambi i genitori. Così da poter gestire senza difficoltà due idiomi diversi. Infatti anche se un bambino bilingue grosso modo deve imparare il doppio dei vocaboli rispetto a un suo coetaneo monolingue, perché deve apprendere due lingue anziché una, non manifesta alcun ritardo nello sviluppo delle capacità linguistiche. E produrrà le sue prime parole come i bambini monolingui: la prima parola indicativamente intorno a un anno, fino a produrne una quindicina intorno ai diciotto mesi di vita.

Articolo scientifico:
Science* Flexible Learning of Multiple Speech Structures in Bilingual Infants Agnes Melinda Kovacs and Jacques Mehler Published online July 9 2009; 10.1126/science.1173947 (Science Express Reports) Abstract PDF Supporting Online Material

Gli autori:
Jacques Mehler è professore di neuroscienze cognitive alla Scuola Internazionale Superiore di Studi Avanzati di Trieste, dove dal 2001 dirige il Laboratorio “Linguaggio, cognizione e sviluppo”.Nato a Barcellona, ha studiato in Argentina, in Inghilterra e negli Stati Uniti dove ha conseguito nel 1964 il Phd alla Harvard University. Prima di arrivare a Trieste ha diretto il Laboratorio di scienze cognitive e psicolinguistica all'Ecole des Hautes Etudes en Sciences Sociales-CNRS di Parigi.Il Language, Cognition and Development Lab che dirige alla Sissa è un luogo di ricerca dove con il suo team è impegnato a comprendere i meccanismi attraverso i quali impariamo, memorizziamo e acquisiamo il linguaggio. Conduce studi con i neonati, con i bambini monolingui e bilingui e anche con gli adulti. Finora sono migliaia le famiglie che hanno collaborato, accompagnando i bambini in laboratorio per condurre alcuni esperimenti. Tuttora le porte del laboratorio sono aperte per tutti i soggetti interessati a partecipare agli esperimenti, assolutamente non invasivi.
Agnes Melinda Kovàcs a maggio 2008 ha conseguito il dottorato in neuroscienze cognitive alla Sissa di Trieste e ora continua la sua attività di ricerca al Central European University di Budapest e presso l’Hungarian Academy of Sciences.

L'evoluzione della tecnologia ...dallo spazio al pianeta Terra.

Fonte:
a cura di Chiara Albicocco
Ascolta l'audio del servizio

Da bambini tutti abbiamo odiato l'apparecchio per i denti, soprattutto quello di ceramica fatto a placchette attaccate direttamente sul dente. Ecco non immaginerete mai che quella stessa ceramica è stata impiegata per la prima volta come rivestimento per le navicelle spaziali. Questo è solo uno dei tanti esempi di come la tecnologia studiata e progettata per le missioni spaziali, possa arrivare sulla Terra, nelle nostre case, fra le nostre mani… e anche nelle nostre bocche.
Ora pensate ai caschi da motociclista dietro alla loro progettazione c'è lo studio svolto da fior fior di ingegneri che hanno messo a punto il casco spaziale, quello indossato dagli astronauti durante le missioni, composto da tre strati di una speciale plastica, con la visiera protettiva e la superficie anti-graffio. E sempre a proposito di caschi, anche l'elmetto da football americano ha una storia evolutiva legata allo spazio, infatti la speciale schiuma che c'è all'interno e che serve per attutire gli urti dei giocatori di football è stata in realtà concepita per rendere più confortevoli i sedili dello shuttle durante la fase di lancio.
E' grazie agli ingegneri della Nasa che la sala pesi della vostra palestra vi permette di mantenervi in forma, sì perché le attrezzature che utilizzate e, in particolare i pesi, sono stati progettati per l'allenamento dei muscoli degli astronauti.
Inutile dirvi che il joystick dei videogiochi viene concepito prima di tutto per la guida del Lunar Roving Vehicle, la navicella della missione Apollo per ispezionare il suono lunare. E solo in un secondo momento, viene utilizzato dai ragazzi per muovere sugli schermi dei computer il personaggio di un videogame.
Forse la tecnologia che più di ogni altra ha rivoluzionato e sta rivoluzionando le nostro vite è la tecnologia wireless. Il trapano a batteria che non necessita della corrente elettrica, usato per la riparazione della navicella spaziale, è stato in realtà realizzato per permettere agli astronauti di portare a terra un souvenir, cioè per bucare ed estrarre un pezzetto di suolo lunare. Oggi senza questa ingegnosa trovata non potremmo utilizzare i PC portatili, l'aspira-briciole e come dimenticare… i nostri inseparabili telefonini.
Ricerche infinite sui materiali tessili da portare nello spazio si traducono in vere e proprie scoperte utilissime per l'abbigliamento terrestre. Esempi? Le tute dei pompieri, ignifughe e resistenti alle condizioni più estreme hanno preso in prestito le tecnologie di protezione del corpo dalle tute astronautiche… ma non finisce qui… I materiali che permettono alle tute spaziali di essere isolanti e traspiranti al tempo stesso vengono impiegati anche per le tende da campeggio utilizzate nelle situazioni di emergenza dalla protezione civile.Il polipropilene della biancheria degli astronauti che raffredda la superficie corporea e permette l'evaporazione del sudore ha ispirato la realizzazione di abbigliamenti da lavoro come le uniformi della polizia, dei piloti aeronautici e anche quelle dei fornai!
Al contrario, erroneamente, si pensa che il velcro sia nato nei laboratori della nasa per la chiusura delle tute spaziali, di sicuro i bottoni non sono consoni per un viaggio su Marte… provate a pensare se dovesse staccarsene uno… ago e filo in micro-gravità non so come si comporterebbero…Ma dicevo… il velcro si pensa sia stato progettato per lo spazio, invece no, è stato inventato da un ingegnere svizzero nel 1941 al ritorno da un passeggiata in campagna. Arrivato a casa si accorse di avere dei minuscoli fiori rossi attaccati alla giacca. Colto dalla curiosità, li analizzò al microscopio e scoprì che erano fiori che sul calice avevano degli uncini, li studio e decise riprodurli artificialmente con il nylon. L'invenzione fu con successo brevettata bel 1955.
E chissà mai che tra poco non troveremo sulle nostre tavole sale e pepe in formato liquido, proprio come quello che utilizzano gli astronauti… non possiamo permetterci che la caduta accidentale di qualche granello di sale possa ostruire le preziosissime attrezzature spaziali o che un pizzico di pepe finisca nel naso degli astronauti, provocando fastidiose conseguenze… eccì!

venerdì 17 luglio 2009

CLIMANIMAL:lo scopo è di individuare le zone in cui le condizioni risultano rischiose per gli animali.

Fonte:
a cura di Chiara Albicocco

Loro, proprio come noi, soffrono il caldo.Ma sono sicuramente più vulnerabili. Sto parlando degli animali soprattutto quelli da allevamento. Uno studio dell' IBIMET (Istituto di Biometeorologia del CNR) ha individuato le zone del nostro paese in cui le condizioni meteorologiche sono più rischiose.Marina Baldi, la coordinatrice dell'istituto ci racconta che tipo di analisi meteorologiche sono state svolte e quali sono i risultati.

Ascolta l'intervista a Marina Baldi:
Scarica il file audio in mp3

La ricercaL'Istituto di Biometeorologia del Consiglio Nazionale delle Ricerche (Ibimet-Cnr) partecipato al progetto CLIMANIMAL voluto dal Ministero delle politiche agricole alimentari e forestali, i cui risultati finali sono stati illustrati oggi a Viterbo. Il progetto ha lo scopo di individuare le zone sul territorio italiano in cui le condizioni termo-igrometriche possono essere rischiose per gli animali durante la stagione estiva
L'intensificarsi della frequenza con cui le ondate di calore colpiscono le nostre latitudini ed in particolare l'Italia ha portato ad un sempre maggiore interesse verso lo studio degli effetti che queste provocano sulla salute dell'uomo e degli animali. Uno studio recente ha mostrato che negli Stati Uniti le perdite economiche nel settore zootecnico, dovute alle ondate di calore possono essere comprese fra 1.69 e 2.36 miliardi dollari. Alcune stime parlano di un costo economico totale per l'Europa per l'evento 2003 di circa 12 miliardi di Euro, in gran parte dovuto alle perdite in agricoltura, incluso il settore zootecnico, dovute alla siccità e alla lunga ondata di calore verificatasi in quell'anno (da giugno a settembre, con brevi interruzioni), una delle più lunghe ed intense mai verificatesi nel nostro Paese. In particolare, nel campo dell'agricoltura e della zootecnia è noto che le condizioni ambientali, come la concomitanza di alte temperature ed umidità per più giorni consecutivi, possono causare condizioni di stress per gli animali e avere un impatto negativo sulla loro riproduzione, produzione e salute. Nel nostro Paese, in cui il numero di allevamenti di bestiame, sia piccoli che grandi, e' altissimo ed in cui la industria ad esso associata rappresenta una grossa fetta della economia nazionale, le perdite dovute a condizioni di disagio degli animali possono essere notevoli e, se questo e' vero per tutti gli animali da allevamento, lo e' ancor più per le vacche. L'Istituto di Biometeorologia ha partecipato ad un progetto di ricerca voluto dal Ministero delle politiche agricole alimentari e forestali, denominato CLIMANIMAL, i cui risultati finali sono stati illustrati nel corso di un Convegno che si è tenuto oggi a Viterbo, presso il Centro Congressi Pianeta Benessere, nel corso del quale sono state consegnate le targhe di partecipazione agli Allevatori coinvolti.Il progetto CLIMANIMAL - coordinato dal Dip.to di Scienze Animali della Università della Tuscia e a cui partecipano esperti nel campo della salute, produzione e riproduzione di questi animali quali AIA (associazione Italiana Allevatori) e ANAFI (Associazione Nazionale Allevatori Frisona Italiana) - ha lo scopo di individuare quali sono le zone sul territorio italiano in cui le condizioni termo-igrometriche possono essere rischiose per gli animali, ed in particolare per le vacche, durante la stagione estiva ed individuare eventuali strumenti di gestione delle situazioni di disagio e/o rischio dovuti a fattori climatici.Per far questo, l'IBIMET ha considerato la combinazione di due grandezze meteorologiche che sono la temperatura e la umidità dell'aria e ha ricostruito l'andamento del cosiddetto indice termoigrometrico o di disagio per 100 stazioni meteorologiche distribuite sul territorio nazionale per i mesi estivi, negli ultimi 30 anni. Nel caso in cui questo indice superi determinati valori di soglia, possiamo avere rischio Nullo, Minimo, Medio o Massimo.Il territorio italiano risulta quindi suddiviso in aree 'bioclimaticamente omogenee' e ciascuna zona e' stata assegnata ad una determinata 'classe' di appartenenza. Per ciascuna classe quindi e' stato calcolato il numero di giorni in cui l'indice di disagio nelle estati a partire dal 1971 fino al 2006 incluso ha superato i diversi valori di soglia.Per le zone in classe elevata, ad esempio, e' molto elevato il numero di giorni a rischio massimo, mentre le zone in classe bassa (classe 1 o 2) sono caratterizzate da un numero molto basso di giorni a rischio elevato. La pianura Padana, in cui si ha una altissima densità di allevamenti di bestiame e di caseifici, e', ad esempio, in una classe per cui il numero di giorni a rischio medio e/o massimo e' sufficientemente elevato.Dallo studio svolto all'Ibimet emerge inoltre una indicazione molto importante ovvero che il numero di giorni ad alto rischio che comportano quindi maggior disagio per il bestiame e' significativamente aumentato nel corso degli ultimi anni, a partire dal 2001, rispetto al periodo precedente (1971-2000), segno, presumibilmente, di un clima che sta cambiando.Questo risultato e', ai fini gestionali degli allevamenti, molto importante, in quanto indica come vi sia una alta probabilità che sia necessario adottare delle opportune contromisure, come, ad esempio, il raffrescamento delle stalle, una appropriata distribuzione di acqua e di mangime, operando sia sulla quantità che sulla qualità del mangime stesso, la necessita' di tenere il bestiame all'interno delle stalle piuttosto che al pascolo.IBIMET ha anche curato per tutta la durata del progetto la messa in opera e il funzionamento di otto stazioni meteorologiche presso altrettante aziende agricole laziali, nonché la raccolta ed elaborazione dati meteorologici raccolti. Ha quindi valutato l'andamento dell'indice termoigrometrico nei mesi estivi presso le aziende. Sono attualmente in corso di elaborazione le analisi della correlazione fra tale indice e le prestazioni e lo stato di salute degli animali. Lo studio proseguirà nel corso dell'estate 2009, in modo da avere un quadro più completo delle correlazioni.

Filmato il processo di infezione del virus HIV: il VIDEO

I ricercatori del Nest di Pisa hanno ricreato la struttura del grafene all'interno di un semiconduttore, conferendogli eccezionali proprietà.

Fonte:
Il primo semiconduttore che presenta le stesse eccezionali caratteristiche del grafene è stato realizzato in Italia, a Pisa, dal Nest (Laboratorio nazionale per le nanoscienze e nanotecnologie) dell’Infm-Cnr (Istituto nazionale di fisica per la materia) e della Scuola Normale Superiore di Pisa.
Scavando la superficie di un semiconduttore con un raggio di ioni, i fisici hanno ricreato su di essa una nanoscultura che, per forma, è indistinguibile dal grafene originale, arrivando a confezionare un prodotto fuori dal comune. Il grafene, infatti, è costituito di un singolo strato di atomi, tutti di carbonio e legati tra loro a nido d’ape, struttura che consente agli elettroni di muoversi al suo interno con estrema facilità e a velocità altissime (vedi Galileo). Attualmente, però, produrre grafene in grandi quantità non è possibile, perché non è facilmente lavorabile né scalabile (riproducibile in diverse scale, cioè misure).
Invece, il semiconduttore utilizzato dai ricercatori del Nest come supporto è in arseniuro di gallio, già impiegato nella costruzione di transistor veloci e laser; questo materiale è facilmente lavorabile e scalabile e, una volta assunta la forma del grafene, ne assume anche le proprietà fisiche. La ricerca ha ancora più valore dal momento che tutte le tecnologie e le apparecchiature utilizzate sono quelle comunemente impiegate nella nanofabbricazione a livello industriale.
“Siamo davvero felici di essere stati i primi ad aver realizzato il grafene artificiale”, hanno commentato Vittorio Pellegrini e Marco Polini del Nest: “Crediamo che questa ‘copia' già inserita in un semiconduttore - cioè proprio nel posto in cui la vuole l’industria - possa rendere le straordinarie proprietà del grafene più accessibili. Aver conseguito questo risultato ci permette di essere tra i primi a sfruttarne le possibili ricadute applicative”.
L'importanza dello studio, pubblicato nella sezione comunicazioni rapide di Physical Review B, è stata sottolineata anche dalla American Physical Society. (fe.f.)
Riferimento: Synopsis on Phys. Rev. B 79, 241406 (2009)

Y, cromosoma in via di estinzione

Fonte:
La sua progressiva degenerazione sarebbe iniziata fra 80 e 130 milioni di anni fa, e sta ancora continuando, facendone prevedere la definitiva scomparsa.
Il cromosoma sessuale Y si è evoluto molto più velocemente dell'altro cromosoma sessuale, l'X, tanto da "perdere per strada" numerosi geni. E se la velocità di cambiamento continuerà allo stesso ritmo, il cromosoma Y è destinato a scomparire. E' questa la sconcertante conclusione a cui è giunta una ricerca condotta da Kateryna Makova, Melissa Wilson e collaboratori della Penn State, che firmano un articolo sulla rivista "PLoS Genetics"."Nei mammiferi euteri, o placentati, i cromosomi sessuali contengono una regione di DNA addizionale, che nei mammiferi marsupiali e monotremi è collocata su cromosomi non sessuali", spiega la Makova. "All'inizio, frammenti di DNA all'interno di questa regione addizionale venivano scambiati fra i cromosomi X e Y, ma fra gli 80 e i 130 milioni di anni fa la regione si è trasformata in due entità completamente separate che non si scambiano più DNA. Una delle regioni è divenuta specificamente associata al cromosoma X, l'altra al cromosoma Y."Confrontando il DNA dei cromosomi X e Y negli euteri con quello degli autosomi di opossum e ornitorinco, i ricercatori sono stati in grado di risalire nel tempo fino al punto in cui i cromosomi X e Y si scambiavano materiale genetico. "La nostra ricerca ha rivelato il DNA Y-specifico ha iniziato a evolvere rapidamente, mentre quello X-specifico ha mantenuto lo stesso tasso evolutivo degli autosomi". "Oggi il cromosoma Y umano contiene meno di 200 geni, mentre l'X ne contiene circa 1100", osserva la Wilson. "Sappiamo che pochi geni sull'Y sono importanti, come quelli coivolti nella formazione degli spermatozoi, ma sappiamo anche che la maggioranza dei geni non era importante per la sopravvivenza, dato che sono andati perduti. Sebbene ci siano prove che il cromosoma Y stia ancora degradandosi, alcuni dei geni su di esso possono essere essenziali, cosa che possiamo inferire dal fatto che questi geni si siano conservati così a lungo." Per controllare questa ipotesi di essenzialità di alcuni geni di Y, i ricercatori hanno confrontato i livelli di espressione e di funzionalità dei geni sull'Y con i corrispondenti sulla X. "Se l'espressione o le funzioni dei geni sono differenti, ha senso che quelli sul cromosoma Y si siano mantenuti perché fanno qualcosa che i geni sul cromosoma X non fanno. L'ipotesi si è rivelata corretta", ha osservato la Makova. Ciò nonostante, hanno osservato i ricercatori, "riteniamo che sia possibile che alla fine il cromosoma Y sparisca completamente. Se ciò avverrà, non sarà comunque la fine dei maschi. Piuttosto, verosimilmente una nuova coppia di autosomi intraprenderà la strada per diventare una coppia di cromosomi sessuali", afferma la Makiva. Ora i ricercatori intendono usare i dati ottenuti per creare un modello al computer che tracci la degenerazione del cromosoma Y, sperando di stabilire quanto tempo occorrerà per la sua scomparsa, e di identificare i processi più significativi per la sua degenerazione. (gg)

Individuato uno specifico gene che funge da interruttore per la produzione di anticorpi.

Fonte:

E' rappresentato da un gene, chiamato BCL6, la cui attivazione o inattivazione determina la produzione o l'interruzione della produzione di anticorpi da parte delle cellule B.
Uno specifico gene che funge da interruttore per la produzione di anticorpi è stato individuato da un gruppo di ricercatori del La Jolla Institute for Allergy and Immunology in collaborazione con biologi della Yale University, che illustrano la scoperta in un articolo pubblicato su "Science Express". "La scoperta è di valore enorme in termini di benefici a lungo termine sia per la ricerca sia per la società, in quanto getta luce su una parte essenziale del puzzle legato allo sviluppo dei vaccini: qual è l'interruttore molecolare che che dice all'organismo di creare degli anticorpi?", ha commentato Mitchell Kronenberg, direttore scientifico del La Jolla Institute.La produzione di anticorpi è un processo a più tappe che coinvolge interazioni fra diversi attori cellulari fra i quali un ruolo chiave lo hanno i linfociti T helper CD4, che segnalano ad altre cellule la necessità di produrre anticorpi. "Ci sono diverse varietà di cellule T helper CD4 e per molti anni la comunità scientifica ha pensato che una di queste varietà, i CD4 helper di tipo 2 (TH-2), innescassero il processo anticorpale. Ma una decina di anni fa si è capito che ciò non è vero e che dovrebbe esistere una quinta varietà di cellule Thelper CD4 che innesca la produzione di anticorpi, chiamata TFH", spiega Shane Crotty, che ha diretto lo studio.Il gruppo diretto da Crotty ha appunto identificato i meccanismi che regolano la via TFH. "Abbiamo scoperto che il gene BCL6 funziona come un interruttore, come regolatore principale di questo processo. In una serie di esperimenti abbiamo mostrato che se si attiva questo gene si ottengono molte più cellule T helper CD4 del tipo TFH, in grado a loro volta di comunicare alle cellule B di produrre anticorpi". Per testare la scoperta i ricercatori hanno poi provato a silenziare quel gene, constatando che in tal modo si interrompeva la produzione di anticorpi, un esperimento poi ripetuto e confermato dal gruppo di ricerca della Yale University. La scoperta può avere riflessi anche su diverse malattie autoimmuni, come l'artrite reumatoide: "Alcune malattie autoimmuni sono scatenate da un'infiammazione indotta dagli anticorpi. La capacità di interromperne la produzione può offrire nuove opportunità terapeutiche a chi ne soffre", ha concluso Crotty. (gg)

giovedì 16 luglio 2009

Veicoli in grado di scambiare tra loro informazioni sulle condizioni stradali.

SOURCE

Il Politecnico di Milano sta costruendo veicoli in grado di scambiare tra loro informazioni sulle condizioni stradali.
In futuro avremo automobili che si parlano e scambiano tra loro informazioni sulle condizioni della strada e della viabilità, in modo da modificare l'assetto e avvisare i guidatori di eventuali pericoli. Le immaginano così al Politecnico di Milano, dove si stanno costruendo i veicoli che dovrebbero aumentare la nostra sicurezza stradale.
Ormai ogni macchina possiede dispositivi in grado di rilevare le condizioni di assetto e di comunicarle a un “cervello”, la centralina elettronica, che risponde per esempio agendo sull'impianto frenante o sugli ammortizzatori per aumentare la sicurezza e rendere più confortevole il viaggio. Perché, allora, non immaginare una rete in cui ciascun veicolo funge da sensore per gli altri? Per esempio per comunicare la presenza di una macchia d'olio o una curva particolarmente scivolosa per il fondo bagnato all'auto che segue. Sembra estremamente complicato e infatti lo è, però il dipartimento di meccanica del Politecnico ha già realizzato alcuni prototipi dotati di sensori all'interno dei pneumatici che rilevano le variazioni delle condizioni di marcia. Questi dispositivi utilizzano la vibrazione prodotta dall'auto in movimento come fonte di energia, e le onde radio come sistema di comunicazione.
Certo, migliaia di veicoli che inviano dati contemporaneamente potrebbero dar luogo a una ridondanza di informazioni, necessarie per alcuni ma irrilevanti per altri. “Le auto trasmetteranno segnali criptati, decifrabili da un sistema che filtrerà i dati in arrivo, permettendo di estrarre solo le informazioni utili”, spiega a Galileo Francesco Braghin, tra i responsabili del progetto.
L'idea è quella di creare un dialogo tra una rete mobile, gli autoveicoli - che rilevano le condizioni di marcia istante per istante interfacciandosi direttamente con i propri dispositivi e gli altri veicoli -, e una rete fissa, cioè le infrastrutture, che comunicano (sempre tramite onde radio e in tempo reale) la situazione della viabilità.
Lo scoglio più grande consiste nella realizzazione dei sensori: la rilevazione istantanea delle condizioni di marcia e aderenza pneumatico-fondo stradale, e la gestione ottimale del controllo di tutti i dati e la loro trasmissione rappresentano la sfida tecnologica dei prossimi mesi.
Altri sistemi, in studio presso i laboratori dell'Intel di Santa Clara (California), stanno utilizzando serie di impulsi laser velocissimi che codificano una sorta di linguaggio morse per far dialogare semafori e automobili e i veicoli tra loro. (a.d.)

mercoledì 15 luglio 2009

Archeologia: I tatuaggi di Oetzi erano fatti con la fuliggine.

Fonte: APCom

Si tratta dei più antichi del mondo ed avevano scopi terapeutici Roma, 15 lug. (Apcom) - Era fatto con la fuliggine il più antico tatuaggio mai inciso su pelle umana: quello ritrovato su Oetzi, la mummia di un uomo morto 5300 anni fa e ritrovato nel ghiaccio nel 1991 ed oggi conservato in una cella frigorifera visibile al pubblico nel Museo Archeologico dell'Alto Adige di Bolzano. Di Oetzi gli scienziati hanno analizzato tutto, a cominciare dai suoi abiti, le armi e gli utensili ritrovati vicino a lui; hanno diagnosticato le sue malattie: l'artrite, problemi alla schiena e allo stomaco, ed è stato perfino sequenziato il suo genoma mitocondriale. Oggi i "laboratori" di tatuaggi offrono ai clienti una vasta scelta di coloranti: rossi contenenti mercurio, manganese per il porpora e perfino pigmenti che brillano al buio. Ma 5300 anni fa per i tatuaggi si usava per lo più fuliggine e non venivano fatti per bellezza, ma per scopi terapeutici, come potrebbe essere stato il caso di Oetzi. Lo afferma su Journal of Archeological Science , Maria Anna Pabst, una ricercatrice del Medical University di Graz, Austria , che ha eseguito sui tessuti epidermici dell'uomo di Similaun biopsie con il microscopio elettronico e ottico. Gli arti di Oetzi sono "disegnati" con croci e piccoli gruppi di linee parallele, alcune delle quali incise vicini ai punti dell'agopuntura. Per scoprire con che cosa erano stati fatti quei segni, Anna Pabst ha analizzato minutamente sottili sezioni di pelle prelevate dai tatuaggi ritrovati sull'uomo di Similaun e sezioni di pelle non tatuata. Le analisi sui frammenti di pelle tatuata hanno rivelato la presenza di numerose piccole particelle cosparse di cristalli di forma allungata. Relativamente alla composizione chimica, si è visto che queste particelle sono costituite essenzialmente di fuliggine, mentre i cristalli sono silicati. L'inchiostro di Oetzi, dice la ricercatrice, potrebbe essere stato grattato da rocce che si trovavano intorno ad un fuoco e contenenti silicati. Secondo la Pabst i confratelli di Oetzi potrebbero aver forato in profondità la pelle con una spina per iniettare l' inchiostro fatto con la fuliggine.


Uno studio rivela che l'aria è piena di funghi.

Fonte: Cordis

La quantità e la diversità dei funghi contenuti nell'aria sono molto maggiori di quanto si pensasse in precedenza, è quanto viene affermato in una nuova ricerca tedesca pubblicata su Proceedings of the National Academy of Sciences (PNAS). Secondo lo studio, respiriamo da 1 a 10 spore fungine ogni volta che inspiriamo. I risultati sono importanti perché molti funghi causano allergie, provocano malattie in persone e animali e danneggiano le piante. Le spore fungine hanno anche un ruolo nella formazione delle nubi. Gli scienziati sanno già da tempo che i funghi rappresentano una parte significativa delle minuscole particelle che fluttuano nell'aria, sia nelle aree urbane che negli ambienti prettamente naturali, come ad esempio le foreste pluviali. Fino ad ora la diversità di questi funghi trasportati dall'aria non era però stata documentata. In questo recente studio, gli scienziati hanno raccolto campioni di particolato sottile e più grosso che fluttua nell'aria nel corso di un periodo di un anno. Hanno poi usato analisi del DNA per identificare le specie fungine presenti nei campioni. "Per pescare le diverse specie nella zuppa genetica dei nostri campioni abbiamo usato una sorta di amo genetico," ha spiegato Janine Fröhlich dell'Istituto di chimica Max Planck e dell'Università Johannes Gutenberg a Mainz, in Germania. "Al contrario di studi precedenti però, abbiamo usato tipi di esche diversi per specie di funghi diverse. In questo modo, siamo stati in grado di identificare una proporzione significativamente più grande delle specie presenti. Inoltre, abbiamo raccolto e analizzato campioni per un anno, il che ci ha fornito dati molto più ampi e più significativi rispetto agli studi precedenti." I ricercatori sono stati in grado di identificare diverse centinaia di specie di funghi nei loro campioni. In media ci sono tra le 1000 e 10.000 spore fungine in ogni metro cubo d'aria. "Una persona inspira tra i 10.000 e 20.000 litri d'aria al giorno e ogni respiro contiene tra 1 e 10 spore," ha commentato Viviane Després dell'Università Johannes Gutenberg. "I nostri dati mostrano che la diversità dei funghi trasportati dall'aria [�] è molto maggiore rispetto a quanto indicato da studi precedenti," concludono gli scienziati. "Le informazioni sulla diversità e l'abbondanza dei funghi trasportati dall'aria e di altre particelle bioaerosol è rilevante per molte aree di ricerca come ad esempio le biogeoscienze, il clima e l'ecologia, la medicina umana e veterinaria, l'igiene industriale e ambientale, l'agricoltura, la bioingegneria e la sicurezza." "Siamo interessati al numero di spore fungine presenti nell'aria per tre motivi," ha spiegato Ulrich Pöschl dell'Istituto di chimica Max Planck, che ha guidato lo studio. "In primo luogo perché possiamo usare le spore per studiare se i cambiamenti climatici stanno alterando gli ecosistemi. In secondo luogo, le spore fungine hanno un ruolo importante come causa di allergie, di danni alle piante e di malattie per persone, piante e animali." Oltre a questo, le spore fungine potrebbero aiutare a provocare le piogge, aggiunge. "Le spore fungine e altre particelle aerosol biologiche possono servire da nuclei di condensazione e cristallizzazione per le gocce d'acqua e i cristalli di ghiaccio, e quindi contribuiscono alla creazione di nubi, nebbia e precipitazioni," ha sottolineato. Ulteriori studi sul numero e le proprietà delle spore fungine nell'aria potrebbero aiutare a migliorare le nostre conoscenze di questi processi del sistema climatico. "Le interazioni sono talmente complesse che troviamo sempre nuovi processi e fattori da prendere in considerazione," ha detto il dott. Pöschl riguardo il legame tra i funghi, la biosfera e il clima.
Per maggiori informazioni, visitare: Società Max Planck: http://www.mpg.de Università Johannes Gutenberg Mainz: http://www.uni-mainz.de/ PNAS: http://www.pnas.org
ARTICOLI CORRELATI: 27197, 30592

martedì 14 luglio 2009

I cicli orbitali ci dicono che andiamo verso una nuova glaciazione.


Fonte: WIKIPEDIA

Con il termine Era Glaciale si indica un lungo periodo di tempo (milioni di anni) in cui i poli della Terra sono ricoperti da calotte di ghiaccio più o meno estese (in cui quindi la temperatura media dei poli si mantiene sotto lo 0 °C ). Le Ere Glaciali sono considerate nel loro complesso i periodi freddi del clima e sono caratterizzate da fasi di avanzamento dei ghiacci, chiamate Periodi Glaciali e fasi di ritiro dei ghiacci, chiamate Periodi Interglaciali ( periodi con durata media di alcune decine o centinaia di migliaia di anni).
Le Ere Interglaciali sono periodi lunghi (milioni di anni), in cui non esistono ghiacci ai poli e separano due Ere Glaciali successive.
In glaciologia, la scienza che studia i ghiacciai, il termine glaciazione ( letteralmente azione, movimento dei ghiacci) è sinonimo di Era glaciale e indica un periodo di tempo in cui i poli della Terra sono ricoperti da calotte glaciali più o meno estese; secondo questa definizione ci troviamo ancora oggi in un periodo di glaciazioni, in quanto la Groenlandia e l'Antartico sono ancora ricoperte dai ghiacci. Più comunemente quando si parla degli ultimi milioni di anni della Terra, con glaciazioni ci si riferisce a lunghi periodi di abbassamento della temperatura (periodi glaciali particolarmente freddi) durante i quali le calotte glaciali si espandono in direzione dell'equatore fino a ricoprire gran parte dell'Europa e del Nord America. In questo senso l'ultima glaciazione è finita circa 10.000 anni fa.

Quello che più interessa è l’ultima era glaciale verificatasi nel Quaternario, con probabile inizio già nel Pliocene, cioè circa un milione di anni fa. Infatti l'effetto del glacialismo sulla conformazione dei paesaggi attuali è legato in particolar modo agli ultimi due milioni d'anni di storia della Terra. Per gli ultimi 600.000 anni del Quaternario, classicamente si distinguono quattro periodi glaciali, denominati dal più antico al più recente Gunz, Mindel, Riss e Wurm con tre interglaciali presenti tra i quattro glaciali. Recenti studi hanno in realtà messo in discussione questa suddivisione, contando fino a 6, forse 8 periodi glaciali negli ultimi 800.000 anni.
L’alternarsi periodi glaciali e interglaciali è dovuto a particolari movimenti della Terra in particolare esistono alcuni "cicli millenari"(precessione degli equinozi e nutazioni dell’asse terrestre, rotazione della linea degli apsidi, rotazione della linea degli equinozi, variazione di eccentricità dell'orbita terrestre, traslazione del sistema solare nella galassia, traslazione della galassia nello spazio) che influenzano la quantità di radiazione solare che colpisce le differenti parti della terra nei diversi tempi dell'anno e nei vari periodi geologici. Altre possibili cause sono le eccezionali attività vulcaniche, l’intensità delle macchie solari, le variazioni nella composizione dell'atmosfera (gas serra),lo spostamento delle placche tettoniche,…
La presenza di numerosi ghiacciai e lo spesso manto di ghiaccio della Groenlandia e dell'Antartide stanno ad indicare che la Terra sta ancora attraversando un'era glaciale. C'è allora da chiedersi: quando l'Emisfero Nord entrerà di nuovo in un periodo di avanzamento dei ghiacci come quello che terminò 10-12.000 anni fa? I cicli orbitali ci dicono che andiamo verso una nuova glaciazione. Nel passato i cicli di forte glaciazione da 100.000 anni furono intervallati da un periodo interglaciale di 9-12.000 anni.
L'attuale periodo interglaciale ha circa 10.700 anni. Andiamo quindi incontro ad una ripresa della glaciazione. Tuttavia, nessun trend di breve periodo o di scala decennale o persino centennale riesce a rivelare con una certa affidabilità se stia per cominciare o meno una glaciazione. Ci sono stati almeno tre periodi ciclici di riscaldamento e raffreddamento all'interno dell'attuale periodo interglaciale. L'ottimo climatico ha raggiunto il suo picco 7.000 anni fa, quando la temperatura media dell'aria, dedotta dal volume di ghiaccio, era di 1,11 °C più alta del presente. è proprio quel periodo che lo studioso indiano B.G. Tilak indica come la data più recente possibile per la composizione dei Veda, quando l'Equinozio di Primavera era in Orione. La sua ipotesi dell'origine polare del gruppo linguistico indo-europeo, tuttavia, non esclude la datazione ad un più antico ciclo di precessione. I due lunghi cicli di riscaldamento che si sono verificati da 4.000 a 8.000 anni prima dell'attuale possono avere poco a che fare con l'effetto serra che si sostiene causato dalla produzione industriale di biossido di carbonio. Una Piccola Era Glaciale cominciò circa 650 anni fa e durò fino al diciannovesimo secolo. Da allora la Terra si è riscaldata lentamente, ma la temperatura media non si è mai avvicinata all'ottimo di 7.000 e 4.500 anni fa. Le ragioni di questi trend climatici più brevi non sono tutte ancora pienamente comprese. Tra i tanti fattori che occorre prendere più attentamente in considerazione ci sono la posizione della Terra nella galassia, i mutamenti nelle emissioni solari, le variazioni cicliche più piccole nell'orbita terrestre e le correnti oceaniche.

Le cause che portano il clima terrestre a entrare e uscire ciclicamente da un' era glaciale sono ancora controverse. Vi è tuttavia un consenso generale nell'indicare tre fattori come determinanti per il verificarsi di questo processo: la composizione dell'atmosfera, i cambiamenti dell'orbita terrestre intorno al Sole e dell'orbita del Sole intorno alla Via Lattea; la disposizione dei continenti sulla superficie terrestre.
Il primo di questi tre fattori è probabilmente il più influente, e giocò un ruolo fondamentale soprattutto nella prima glaciazione, la più rigida di tutte.
La presenza di terre all'interno dei circoli polari artico e antartico appare necessaria per lo sviluppo di un' era glaciale, probabilmente perché le terre emerse forniscono uno spazio sul quale la neve e il ghiaccio si possono accumulare durante i periodi freddi.
L'orbita della Terra non ha una grande importanza come fattore scatenante di una glaciazione, ma sembra influenzare molto il susseguirsi dei periodi glaciali e interglaciali all'interno dell'attuale glaciazione.
Un'altra causa è data dal numero delle macchie solari, il cui numero influenza la temperatura terrestre.

lunedì 13 luglio 2009

L'industria della produzione della seta in Italia si sta spegnendo.

Fonte: Moebiusonline

a cura di Barbara Gallavotti

Silenziosamente, l'ultramillenaria industria della produzione della seta in Italia si sta spegnendo. Dapprima è stata la concorrenza con i grandi produttori asiatici a metterla in pericolo, poi, proprio quando gli aiuti comunitarii avrebbero potuto sostenere i nostri produttori, i bachi sono stati sterminati da un veleno utilizzato per liberare le coltivazioni di meli dai parassiti. Eppure i bachi sono creature straordinarie, potrebbero addirittura essere utilizzati per produrre proteine utili come farmaci. Ci racconta la loro storia Silvia Cappellozza, dell'Unità Ricerca di Api-Bachicoltura a Padova.

Ascolta l'intervista a Silvia Cappellozza:
Scarica il file in mp3

sabato 11 luglio 2009

Università di Firenze:Nuove ipotesi sulla correlazione tra HIV e AIDS (pubbl. su “Medical Hypotheses”)

Fonte: MET

In un lavoro pubblicato da ricercatori fiorentini su “Medical Hypotheses”
Tra infezione da HIV e la sindrome di AIDS conclamato non ci sarebbe una relazione causa-effetto e tra le due potrebbe esserci più distanza di quanto non si ritenga. Questa ipotesi ha nella comunità scientifica internazionale autorevoli sostenitori, primo fra tutti Peter H. Duesberg professore di biologia molecolare presso l’Università della California a Berkeley, ma anche Henry H. Bauer professore emerito di Chimica e di Scienze al Politecnico della Virginia e il Premio Nobel per la Chimica 1993 Kary B. Mullis.L’ipotesi viene rilanciata da un gruppo di ricercatori dell’Università di Firenze, coordinata da Marco Ruggiero ordinario di Biologia molecolare presso la Facoltà di Scienze Matematiche, Fisiche e Naturali, attraverso un articolo pubblicato dalla rivista “Medical Hypotheses”, che si fonda su un’analisi di dati epidemiologici e normativi.Molti sono i problemi ancora aperti per quanto riguarda l’AIDS, ad esempio la produzione di un vaccino o una terapia del tutto efficace. La questione più enigmatica riguarda la patogenesi della malattia. Ed è proprio a questo riguardo che tra gli scienziati si rilevano opinioni diverse. “Il nostro lavoro si basa sui dati epidemiologici del Ministero della Salute italiano e dell’Istituto Superiore di Sanità – spiega Ruggiero – In questi dati emerge uno iato tra l’infezione da parte del retrovirus (HIV) e la sindrome definita come AIDS. Infatti, nelle statistiche registrate dal Ministero della Salute, si evidenzia che può essere diagnosticata la sindrome di immunodeficienza acquisita (AIDS) in assenza di segni di infezione da parte del virus, ma se una malattia può esistere in assenza di un determinato agente, è messo in dubbio allora che tale agente ne sia la causa”. Dai dati dell’Istituto Superiore di Sanità, inoltre, aggiunge Ruggiero, “emerge che oltre un quarto dei casi di AIDS neonatale non è imputabile a trasmissione verticale, cioè madre-figlio, escludendo, quindi, la trasmissione del virus come agente causale. In sintesi, concludiamo che per lo stesso Ministero della Salute l’HIV non è la sola causa dell’AIDS. Una conclusione che, per quanto basata su dati e documenti ufficiali, potrebbe essere errata, certamente – sottolinea Ruggiero – ed è per questo che chiediamo al Ministero di confutare la nostra ipotesi”. Nel gruppo di ricercatori, composto da biologi e medici del Dipartimento Patologia e Oncologia sperimentali e Dipartimento di Anatomia, Istologia e Medicina Legale, c’è anche un giovanissimo neolaureato Matteo Prayer Galletti, dalla cui tesi di laurea triennale in Scienze biologiche ha preso spunto il lavoro.
10/07/2009 13:34 Università di Firenze

Computer quantistico: dal Cesio la chiave per l'implementazione di super-algoritmi.

Fonte: Le Scienze
Dimostrata sperimentalmente la possibilità di sfruttare le peculiarità del mondo quantistico per implementare algoritmi super-efficienti nei futuri computer quantistici.
Un gruppo di fisici dell'Università di Bonn, che firmano un articolo su “Science”, ha dimostrato la possibilità di sfruttare sperimentalmente le particolari caratteristiche esibite nel mondo quantistico dal cosiddetto “cammino casuale”, che potrà permettere l'implementazione di algoritmi super-efficienti nei futuri computer quantistici.
Nel mondo classico, se ci si sposta dalla propria posizione di un passo a destra o a sinistra a seconda che esca testa o croce dal lancio di una moneta, si compie quello che viene detto un “cammino casuale”. Se si traccia su un grafico la frequenza della diverse posizioni assunte nel corso di un elevato numero di lanci della moneta, si ottiene una classica curva a campana. Il moto browniano ne è un altro esempio.
I fisici tedeschi hanno riprodotto questo esperimento a scala microscopica con un atomo di cesio. Gli atomi possono assumere differenti stati quantistici, analoghi alla testa e alla croce di una moneta, ma anche uno stato di sovrapposizione, ossia “un po' testa e un po' croce”.
Sfruttando fasci laser, i ricercatori hanno spinto un atomo di cesio in direzioni opposte: “In questo modo siamo stati in grado di muovere i due stati in direzioni distanti una frazione di millesimo di millimetro”, spiega Artur Widera, che ha diretto la ricerca. In seguito, hanno “lanciato la moneta” ancora una volta riportando le componenti in uno stato di sovrapposizione.
Dopo diversi ripetizioni di questo “cammino casuale quantistico”, l'atomo di cesio era stato stirato come se si trovasse un po' ovunque e solo nel momento della misurazione si “decideva” dove e in che stato esso si trovasse. Nella distribuzione delle probabilità della sua posizione interviene però in maniera significativa anche altro effetto quantistico, analogo a quello che nel caso della luce è chiamato interferenza, dovuto al fatto che alcuni stati possono rinforzarsi e altri annullarsi.
Ripetendo più volte l'esperimento, i ricercatori hanno quindi tracciato la curva della probabilità di presenza dell'atomo nei vari punti: “La nostra curva è chiaramente differente da quella ottenuta in un cammino casuale classico. Non ha un massimo al centro ma agli estremi”, nota Michal Karski, un altro degli autori. “Questo è ciò che ci si aspettava sulla base delle considerazioni teoriche, e che rende il cammino quantistico particolarmente attraente per le sue possibili applicazioni.”
“Con questo effetto abbiamo dimostrato che si possono realmente implementare algoritmi del tutto nuovi”, conclude Widera, ricordando che attualmente se si vuole individuare un “1” in una fila di “0” bisogna controllare ogni cifra singolarmente e il tempo necessario per farlo cresce linearmente con il numero di cifre. Sfruttando l'algoritmo della “cammino quantistico casuale” è invece possibile cercare nei diversi punti simultaneamente, abbattendo drasticamente il tempo di ricerca. (gg)

giovedì 9 luglio 2009

Fusione nucleare: Audio-intervista a Francesco Gnesotto,direttore del Consorzio RFX di Padova.



Un passo avanti verso la fusione nucleare è arrivato da Padova. Un grammo di idrogeno sottoposto a fusione produce milioni di volte più energia di quella che si produce bruciandolo. Perciò la fusione, come molti sanno, è la grande speranza del futuro per avere energia pulita e virtualmente illimitata. Attualmente c'è una specie di competizione per sviluppare la tecnologia più adatta, ma la direzione in cui si è andati più avanti, è decisamente una sola: il cosiddetto confinamento magnetico. Il punto, infatti, è che per realizzare la fusione bisogna prendere un gas di idrogeno e portarlo a temperature altissime, dell'ordine di decine o centinaia di milioni di gradi. In questo stato l'idrogeno è un plasma rovente e la difficoltà principale sta nel contenerlo; tenerlo chiuso da qualche parte, insomma. Attenzione: non nel senso che può esplodere. Anzi, il problema è mantenerlo acceso. Il contenimento del plasma è un gioco di equilibri molto delicato: appena qualcosa va storto il plasma si disperde, si raffredda e la reazione si spegne. E' un po' come tenere in equilibrio una scopa sulla punta delle dita: appena ci si allontana dall'equilibrio la scopa cade.
Ebbene, la notizia è che al consorzio RFX di Padova, dove si studiano i plasmi e si sperimenta un particolare tipo di confinamento magnetico - ce ne sono diversi. Questo è un dato importante per la nostra discussione - il gruppo guidato dal Prof. Piero Martin dell'Università di Padova e dalla Dr.ssa Maria Ester Puiatti del CNR, è riuscito a fare assumere a un plasma da fusione a 15 milioni di gradi una forma ad elica dotata di una sorta di equilibrio spontaneo. Insomma: qualcosa che renderebbe più facile contenerlo. Ci facciamo raccontare tutto da Francesco Gnesotto, direttore del consorzio RFX.

video

Sale a cinque il numero delle persone il cui genoma è stato completamente sequenziato.


Nature pubblica lo studio sull'ultimo codice genetico sequenziato integralmente. È di un individuo della Corea del Sud.
Un africano, due nordeuropei (almeno di origine), un cinese e ora un coreano. Così il numero delle persone il cui genoma è stato completamente sequenziato sale a cinque, con l'ultima versione integrale del Dna di un individuo della Corea del Sud pubblicata su Nature di questa settimana.
Da Craig Venter e James Watson, analizzati nella loro "interezza" rispettivamente nel 2002 e nel 2008, i ricercatori continuano ad accumulare informazioni sulle piccole differenze genetiche tra le etnie, che si riflettono nella predisposizione alle malattie e nella risposta a farmaci. Lo spiega, in una lettera riportata sulla rivista inglese, il gruppo di ricercatori dell'Università di Seoul che ha sequenziato questo ultimo codice appartenente a un connazionale anonimo identificato con la sigla AK1. Gli studiosi riportano differenze nel numero e nelle caratteristiche di alcune parti di Dna rispetto ai quattro genomi umani già noti.
In particolare i ricercatori si sono concentrati sui cosiddetti “polimorfismi a singolo nucleotide” (o Snp, single nucleotide plomorphysm), ovvero i siti in cui un gene di un individuo si differenzia dallo stesso gene di un altro (o dal “modello base” più antico) per il cambiamento di una sola lettera.
Il numero di Snp individuate in AK1 è risultato pari a quello di James Watson, mentre è più alto di quello del codice cinese e meno rispetto a quello africano. Degli oltre nove milioni di Snp individuate in questi cinque genomi, circa l'8 per cento è comune a tutti. Il 21 per cento invece delle Snp di AK1 sono uniche e presenti in geni legati alle capacità sensoriali, ad alcune funzioni immunologiche e alla predisposizione a particolari malattie.
Ancora non è chiaro cosa comportino queste differenze, ma secondo i ricercatori sono molte sono le informazioni che si potranno ottenere studiando e comparando genomi provenienti da gruppi etnici diversi. Non solo per ripercorrere l'evoluzione della nostra specie e ricostruire le ondate migratorie, ma anche nell'ottica di una medicina sempre più personalizzata. (c.v.)
Riferimento: DOI: 10.1038/nature08211

mercoledì 8 luglio 2009

La chimica dei nano aggregati: dai laboratori al buco nell'Ozono.


A cura di Maurizio Melis
Scarica l'intervista a Marco Masia

C'è tutta una chimica sconosciuta, che fino a pochi anni fa non era nemmeno possibile esplorare, perché non esistevano gli strumenti adatti. Siamo, infatti, in uno di quei casi in cui è decisamente la tecnologia a stimolare nuova ricerca di base. Parliamo della chimica dei nano aggregati: cioè di una tutta una chimica che entra in gioco quando sono coinvolte poche molecole alla volta. E' una chimica che ha regole diverse da quella tradizionale, e tuttavia è alla base di numerosi fenomeni naturali. Per esempio, è implicata nella formazione del buco dell'Ozono.
Il primo anello della formazione del buco nell'Ozono è la dissociazione dell'acido cloridrico all'interno di gocce di acqua di pochi miliardesimi di metro, sospese nel gelo della stratosfera. Un dato riscontrato sperimentalmente, ma rimasto fin'ora senza una spiegazione. Nella stratosfera, la dissociazione dell'acido nelle nanogocce d'acqua catalizza - cioè favorisce e accelera - la creazione di cloro. È questo cloro che va poi a interagire con l'ozono causandone la scomparsa. Una reazione ben compresa dagli scienziati, tranne che per la sua prima fase: come può avvenire questa dissociazione nella stratosfera, dove la temperatura è bassissima? Perché vi sia una reazione, infatti, le molecole che vi prendono parte devono necessariamente avere sufficiente energia termica (calore) da interagire tra loro. Energia che certamente non posseggono nel gelo di quelle regioni.
Per risolvere questo enigma, i ricercatori hanno studiato la reazione grazie ai nanoaggregati, molecole piccolissime: le più piccole unità chimiche in grado di prendere parte a reazioni. Questi oggetti microscopici sono stati analizzati grazie a una tecnica innovativa, la spettroscopia infrarossa in elio superfluido, che consente di catturare in una goccia di elio le molecole che compongono il nanoaggregato nel quale avviene la reazione. L'elio è del tutto inerte chimicamente, così la piccolissima goccia diventa un vero e proprio "laboratorio microscopico", nel quale è possibile studiare in dettaglio la massa e le interazioni delle molecole che vi sono intrappolate. Raffreddando questo microlaboratorio al di sotto dei -272°, i ricercatori hanno finalmente potuto osservare "in diretta" il fenomeno di dissoluzione dell'acido.
La dinamica della dissociazione è semplice: quattro molecole di acqua e una di cloruro di idrogeno vanno ad interagire tra loro all'interno della nanogoccia. E il cloruro, cedendo un protone, fa si che si generi la più piccola goccia d'acido possibile. Ma da dove deriva l'energia per questa reazione? La spiegazione, sostengono gli scienziati, sta tutta in un fenomeno detto di aggregazione molecolare: molecole "lontane" fra loro - anche se dotate di poca energia termica - tendono ad attirarsi, e da questo processo di avvicinamento si genera proprio l'energia cinetica (e quindi termica) necessaria a causare la reazione. Uno degli aspetti più sorprendenti è che la dissociazione si verifica sempre e soltanto quando la quarta molecola d'acqua "cade" sull'acido cloridrico, che nel frattempo si è già legato ad altre tre molecole (vedi immagine).
Questo processo era ignoto, è cioè una nuova modalità con cui le molecole possono interagire a bassa temperatura, finora sconosciuta. Si tratta quindi un dato molto generale, che va al di là del caso specifico dell'Ozono. Per esempio, un tale processo potrebbe essere responsabile, almeno in parte, della formazione di molecole complesse nello spazio.
L'esperimento è stato condotto da ricercatori dell'Università tedesca di Bochum, mentre parallelamente, Marco Masi dell'INFM e dell'Università di Sassari, ha sviluppato la teoria e simulato la reazione al computer, fornendo così la chiave di lettura a quanto osservato. Lo studio si è guadagnato la pubblicazione su Science.

martedì 7 luglio 2009

Fusione nucleare: il futuro è nelle "mani" di DEMO e della Z-Machine.

Fonte: Wikipedia

Z-Machine:
La Z machine (in italiano Macchina Z) è il più grande generatore di raggi X del mondo, progettato per la sperimentazione sul comportamento dei materiali in condizioni estreme di temperatura e pressione. Installata presso i Sandia National Laboratories ad Albuquerque in New Mexico, la Z machine è utilizzata per la raccolta dati e la simulazione, con l'aiuto di modelli computerizzati, di armamenti nucleari.
La macchina opera rilasciando un impulso elettrico associato ad un campo magnetico. L'energia risultante dalla scarica di 20 milioni di ampère vaporizza una schiera di sottili fili di tungsteno e un potente campo magnetico comprime il plasma prodotto. Questo, collassando, produce a sua volta raggi X che creano un'onda d'urto sul materiale in esame. La potente fluttuazione all'interno del campo magnetico (o impulso elettromagnetico) genera anche corrente elettrica in tutti gli oggetti metallici presenti nella camera.
Il nome Z machine deriva dal fatto che la corrente viaggia verticalmente verso l'oggetto in esame, lungo quello che convenzionalmente è chiamato "asse Z", essendo gli assi "X" e "Y" orizzontali (vedi la voce Z-pinch).
Originariamente progettata per fornire un'alimentazione di 50 terawatts in un unico e veloce impulso, i progressi tecnologici hanno consentito di raggiungere i 290 terawatts, sufficienti per lo studio della fusione nucleare. La macchina libera in 70 nanosecondi secondo 80 volte l'ammontare globale di potenza elettrica prodotta nel mondo. Tuttavia soltanto una piccola quantità di elettricità è consumata per ogni prova (pari a quella impiegata in 100 abitazioni per due minuti). Inoltre, prima dell'inizio del processo, si procede lentamente alla ricarica dei generatori Marx.
Il 7 aprile 2003 Sandia ha annunciato di aver realizzato la fusione del deuterio all'interno della Z machine. In seguito allo stanziamento di 60 milioni di dollari, nell'ambito del programma di rinnovamento annunciato nel 2004, la potenza in uscita della macchina verrà portata a 350 terawatts, mentre l'output per i raggi X raggiungerà 2,7 megajoule.
La Z machine è ora capace di spingere piccole piastre fino a 34 chilometri al secondo, più della velocità di rivoluzione della Terra nella sua orbita attorno al Sole (30 km/s), e un valore tre volte superiore alla velocità di fuga dal pianeta (11,2 km/s).
Nel 2005, la Z machine ha prodotto plasma con temperature al di sopra dei 2 GK (10^9 K) o 2 miliardi di °C. Gli scienziati del progetto erano dubbiosi riguardo agli esiti delle sperimentazioni, ma dopo quattordici mesi di analisi con modelli computerizzati e ulteriori esami, hanno concluso che i risultati siano effettivamente validi. Si crede che il plasma ad alta temperatura sia stato prodotto dall'uso di una bobina leggermente più grande del normale, composta da fili di acciaio poco più spessi degli usuali fili di tungsteno.
DEMO:
DEMO è il nome del reattore a fusione attualmente studiato in Europa. Lo scopo principale del progetto è dimostrare la possibilità di generare energia elettrica tramite la reazione di fusione nucleare. Questo a differenza del progetto ITER che ha lo scopo di dimostrare la possibilità di ottenere del plasma in grado di sostenere la reazione di fusione nucleare per un tempo sufficientemente lungo (1000 s). Le caratteristiche del plasma di DEMO devono quindi essere più spinte di quelle del plasma di ITER, cioè tali da mantenere la stabilità della reazione di fusione per un tempo indeterminato. Il consumo di Trizio, molto maggiore di quello previsto in una macchina con plasma pulsato come ITER, richiede la presenza in DEMO di un blanket triziogeno [1], cioè di una parte di macchina destinata a produrre Trizio dalla cattura di un neutrone da parte del Litio. Infatti il Trizio, essendo un isotopo con un periodo di dimezzamento di circa 12 anni[2], deve essere prodotto in loco.
Scopo di DEMO è di dimostrare la possibilità di produrre energia elettrica dalla reazione di fusione nucleare, mentre dimostrare l'economicità di questa forma di produzione di energia è lasciato a successive filiere di reattori. Tuttavia questi reattori dovranno sfruttare l'esperienza operativa di DEMO per raggiungere lo scopo di avere una produzione di energia elettrica a costi più bassi di quelli dell'energia prodotta da altre fonti (carbone, fissione nucleare). La densità di potenza (rapporto fra potenza generata e volume in cui viene generata questa potenza) della fusione nucleare è nettamente inferiore a quella della fissione nucleare ed inferiore anche a quella della potenza ottenuta da combustibili fossili, quindi la fusione nucleare richiede strutture più voluminose e costose. Per ridurre i costi dell'energia si deve aumentare il rendimento termodinamico del ciclo di generazione dell'energia, cioè si deve aumentare la temperatura del ciclo (vedi Ciclo di Carnot). Quindi come vettore termico (cioè come fluido che trasferisce l'energia da dove viene generata a dove viene trasformata in enegia elettrica) non si può utilizzare acqua (come nelle centrali elettriche a combustibili fossili o nei reattori a fissione nucleare ad acqua - PWR e BWR), ma si devono usare metalli liquidi o gas. In DEMO si pensa di utilizzare come vettore termico Elio o una lega di Piombo con il 17% di Litio.
La lega di piombo con il 17% di atomi di litio (Pb-17Li) rappresenta un eutettoide, cioè una lega che fonde a temperature relativamente basse (vedi eutettico), la temperatura di fusione del Pb-17Li è di 235 °C, quindi il limite inferiore di temperatura per l'utilizzo di questa lega come vettore termico è di 250 °C, mentre il limite superiore, dato praticamente dalla resistenza meccanica dei materiali strutturali, è superiore a 600 °C nel caso di strutture in acciaio. Il Pb-17Li, essendo un conduttore elettrico, quando si muove in un campo magnetico, come quello generato in un reattore a fusione, è soggetto, oltre ai normali fenomeni fluidodinamici, anche a fenomeni magnetoidrodinamici, che possono aumentare sensibilmente la resistenza al movimento in queste condizioni, riducendo quindi la velocità con cui può muoversi nel tokamak.
L'elio, essendo gassoso, ha caratteristiche di scambio termico molto basse, quindi può essere utilizzato solo tenendo alte velocità e pressione, la pressione a cui si fa riferimento negli studi di DEMO è di 8 MPa. Questa elevata pressione del gas limita la massima temperatura di impiego a circa 500 °C in strutture resistenti di acciaio, mentre può essere aumentata utilizzando come materiali strutturali metalli refrattari (particolarmente Tungsteno).
Il vettore termico, dopo essere stato riscaldato dalla reazione di fusione viene portato fuori dal recipiente di contenimento del vuoto (vacuum vessel - VV) e, nel caso del Pb-17Li, cede il calore ad un gas che viene utilizzato in una turbina, che, muovendo un alternatore, genera l'energia elettrica. Il passo intermedio dello scambio di calore con un gas per utilizzarlo in turbina naturalmente è assente nel caso dell'elio.
Gli studi attuali di DEMO sono coordinati dall'EFDA (European Fusion Development Agreement), organismo dell'Unione Europea, e vengono condotti in diverse nazioni europee. Oltre agli studi tecnici su blanket/prima parete (si prevede che questi due componenti vengano integrati in un'unica struttura) e sul divertore sono in corso studi economici sul migliore utilizzo dell'energia di reazione e sulla migliore taglia dell'impianto. Infine sono in corso studi socioeconomici per affrontare il problema di insediare l'impianto senza suscitare l'opposizione della popolazione locale a questa nuova tecnologia.È previsto di provare in ITER modelli dei blanket refrigerati ad He, mentre ci sono forti difficoltà per provare in ITER divertore e prima parete a causa dei problemi di sicurezza collegati alla presenza di gas ad alta temperatura.

lunedì 6 luglio 2009

Fasce di van Allen: Cosa sono? Quali pericoli comportano per il genere umano?

Fonte: Wikipedia
La fascia di van Allen è un toro di particelle cariche (plasma) trattenute dal campo magnetico terrestre. Quando la fascia è eccitata, alcune particelle colpiscono l'alta atmosfera e danno luogo a una fluorescenza nota come aurora polare. La presenza della fascia di van Allen era già stata teorizzata prima dell'era spaziale, ma ottenne una conferma sperimentale solo con il lancio delle missioni Explorer 1 (31 gennaio 1958) ed Explorer 3, sotto la supervisione del prof. James van Allen. I primi studi sistematici della fascia di radiazioni furono eseguiti grazie alle sonde Explorer 4 e Pioneer 3.
Da un punto di vista qualitativo, è utile notare che la fascia di van Allen consiste in realtà di due fasce che circondano il nostro pianeta, una interna ed una più esterna. Le particelle cariche sono distribuite in maniera tale che la fascia interna consiste principalmente di protoni, mentre quella esterna consiste principalmente di elettroni.
Sebbene il termine fasce di van Allen si riferisca esplicitamente alle cinture che circondano la Terra, simili strutture sono state osservate attorno ad altri pianeti. Il Sole, al contrario, non possiede fasce di radiazioni durevoli nel tempo.
L'atmosfera terrestre limita inferiormente l'estensione delle fasce ad un'altitudine di 200-1000 km; il loro confine superiore non arriva oltre i 40.000 km ( che corrispondono a circa 7 raggi terrestri) di distanza dalla superficie della Terra. Le fasce si trovano in un'area che si estende per circa 65 gradi a Nord e a Sud dell'equatore celeste.
La fascia esterna:
La fascia di van Allen esterna si estende ad un'altitudine di circa 10.000–65.000 km ed è particolarmente intensa tra i 14.500 km e i 19.000 km. Si ritiene che essa consista di plasma intrappolato dalla magnetosfera della Terra. Il satellite sovietico Luna 1 ha registrato la presenza di pochissime particelle altamente cariche all'interno di questa fascia. Qui gli elettroni mostrano un flusso particolarmente intenso, e quelli con un'energia cinetica E > 40 keV possono disperdersi nello spazio interplanetario. Questa continua perdita di particelle cariche è un effetto del vento solare.
La fascia esterna contiene diversi tipi di particelle, fra cui elettroni e numerosi ioni. La maggior parte degli ioni compare sotto forma di protoni energetici, ma vi è anche una certa percentuale di particelle alfa e di ioni di ossigeno O+, simili a quelli presenti nell'atmosfera ma assai più energetici. La presenza di diverse categorie di particelle suggerisce che la fascia sia generata dalla concomitanza di diversi fenomeni.
Rispetto alla fascia interna, quella esterna è più estesa ed è circondata da una regione a bassa intensità nota come ring current. Essa contiene inoltre una maggiore varietà di particelle ed è caratterizzata da un livello di energia minore (meno di 1 MeV), che aumenta significativamente solo quando una tempesta magnetica provoca la risalita di nuove particelle dalla magnetosfera.
Il merito della scoperta della fascia esterna è conteso fra gli Stati Uniti (con l'Explorer 4) e l'Unione Sovietica (con gli Sputnik II/III).
La fascia di van Allen e il volo spaziale:
I pannelli solari, i circuiti integrati e i sensori possono rimanere danneggiati da intensi livelli di radiazione. Nel 1962 un'esplosione nucleare ad alta quota (la cosiddetta prova Starfish Prime) provocò un temporaneo aumento di energia nella regione, causando malfunzionamenti in numerosi satelliti. Può anche accadere che le componenti elettroniche delle sonde risultino danneggiate da forti tempeste magnetiche. La miniaturizzazione e la digitalizzazione dei circuiti logici ed elettronici hanno reso i satelliti più vulnerabili all'influsso delle radiazioni, giacché la carica degli ioni impattanti può essere addirittura maggiore di quella contenuta del circuito. Oggigiorno i sistemi elettronici dei satelliti vengono resi più resistenti alle radiazioni per durare più a lungo. I sensori del telescopio spaziale Hubble, ad esempio, vengono sovente spenti quando l'apparecchio attraversa regioni di radiazione intensa come l'Anomalia del Sud Atlantico.
Le origini della fascia:
Si ritiene comunemente che le fasce di van Allen siano il risultato della collisione del vento solare con il campo magnetico terrestre. La radiazione solare viene quindi intrappolata dalla magnetosfera. Le particelle elettrocariche vengono respinte dalle regioni dove il campo magnetico è più intenso, ovvero quelle polari, e continuano a rimbalzare in direzione nord-sud nelle zone tropicali ed equatoriali.
La separazione fra la fascia interna e quella esterna è causata dalla presenza di onde radio a bassa frequenza che respingono le eventuali particelle che potrebbero venirsi a trovare in tale regione. Tempeste magnetiche particolarmente intense possono spingere delle particelle cariche in questa zona, ma entro pochi giorni l'equilibrio viene ristabilito. Si pensava inizialmente che queste onde radio fossero generate da turbolenze presenti nelle fasce stesse, ma un recente studio ad opera di James Green, del Goddard Space Flight Center della NASA, ha evidenziato un legame con le misurazioni dell'intensità e della distribuzione dei fulmini effettuate dal satellite Micro Lab 1.
In passato l'Unione Sovietica accusò gli Stati Uniti di aver dato origine alla fascia di van Allen interna a seguito di test nucleari effettuati nel Nevada; allo stesso modo, l'URSS stessa è stata accusata dagli statunitensi di aver generato la fascia esterna. Non è chiaro come gli effetti degli esperimenti nucleari avrebbero potuto superare l'atmosfera e raggiungere l'altitudine che caratterizza le fasce di radiazioni; certamente non è stata osservata alcuna diminuzione apprezzabile della loro intensità da quando i test nucleari nell'atmosfera sono stati banditi per trattato.
Rimuovere le fasce di van Allen:
Le fasce di van Allen costituiscono un pericolo per i satelliti artificiali e sono fonte di preoccupazioni per la salute umana; la costruzione di scudi per proteggere macchinari e uomini dal loro influsso è particolarmente onerosa dal punto di vista economico.
Una recente proposta da parte di Robert Forward, nota come HiVolt, suggerisce un metodo per portare nel giro di un anno il livello della fascia interna all'1% di quello attuale. La sua proposta comporta il dispiegamento di trappole elettricamente cariche in orbita; in questo modo gli elettroni dovrebbero essere deflessi dal campo elettrostatico generato artificialmente e dovrebbero disperdersi senza danni.