venerdì 19 agosto 2011

Materia oscura: forse è un'illusione creata dal vuoto quantistico.

Fonte: Le Scienze

La materia oscura potrebbe non esistere e i fenomeni attribuiti a essa potrebbero essere spiegati con la polarizzazione gravitazionale del vuoto quantistico.

La presenza della materia oscura potrebbe essere solo un'illusione causata dalla polarizzazione gravitazionale del vuoto quantistico. L'ipotesi - illustrata in un articolo in corso di pubblicazione su Astrophysics and Space Science e anticipato su arXiv - è stata avanzata da Dragan Slavkov Hajdukovic, un fisico del CERN che, ben poco convinto, dall'ipotesi della materia oscura avanzata per spiegare le note anomalie cosmologiche, sta proponendo modelli in grado di spiegarle che siano alternativi sia all'esistenza della materia oscura sia alla ventilata modificazione della legge di gravità, considerata ancor meno convincente. "Il messaggio chiave del mio lavoro è che la materia oscura potrebbe non esistere e che i fenomeni attribuiti a essa potrebbero essere spiegati con la polarizzazione gravitazionale del vuoto quantistico", ha detto Hajdukovic. "Gli esperimenti e le osservazioni future riveleranno se i miei risultati sono solo sorprendenti coincidenze numeriche o un embrione di una nuova rivoluzione scientifica.""Per quanto riguarda la gravità, la fisica tradizionale presuppone che vi sia una sola carica gravitazionale, identificata con la massa inerziale, mentre io ho assunto che, come nel caso delle interazioni elettromagnetiche, ci siano due cariche gravitazionali: una carica gravitazionale positiva per la materia e una carica gravitazionale negativa per l'antimateria ", ha spiegato Hajdukovic.Se materia e antimateria sono gravitazionalmente repulsive, le coppie particella-antiparticella virtuali che esistono per un tempo limitato nel vuoto quantistico sono "dipoli gravitazionali." In questo scenario, il vuoto quantistico contiene molti dipoli gravitazionali virtuali, prendendo la forma di un fluido dipolare."Possiamo considerare il nostro universo come una unione di due entità che interagiscono tra loro", ha detto Hajdukovic. "La prima entità è la nostra materia 'normale' (quindi non assumiamo l'esistenza della materia oscura e energia oscura), immerso nella seconda entità, il vuoto quantistico, considerato come un mare di diversi tipi di dipoli virtuali, tra cui i dipoli gravitazionali."In prossimità di stelle massicce e galassie i dipoli gravitazionali virtuali del vuoto quantistico possono essere polarizzati gravitazionalmente dalla materia barionica. Quando questi dipoli virtuali si allineano, producono un ulteriore campo gravitazionale in grado di sommarsi al campo gravitazionale prodotto da stelle e galassie. Il vuoto quantistico gravitazionalmente polarizzato potrebbe così produrre lo stesso effetto sia dell'ipotetica materia oscura sia di una modificazione della legge di gravità.Le equazioni elaborate da Hajdukovic consentono di calcolare gli effetti della polarizzazione gravitazionale a diverse distanze dal centro di una galassia, che sono in buon accordo con le osservazioni. (gg)

lunedì 8 agosto 2011

Come ti sconfiggo il mal di treno.

Fonte: Daily Wired

Per vincere il malessere che si prova quando un treno percorre una curva, basta servirsi di un sistema GPS che comunica ai vagoni qual è il momento esatto in cui cambiare assetto. La compagnia di treni svizzera sta investendo in questa tecnologia 3,2 miliardi di franchi.
L’ing. Francesco Di Majo se ne è andato all’inizio di quest’anno. A lui si deve l’invenzione del treno ad assetto variabile, conosciuto in tutto il mondo con il nome di Pendolino. L’ingegnere aveva trovato il modo di costruire treni capaci di sfrecciare in curva a velocità del 25-30% più elevate del normale. L’unica nota dolente di questa meraviglia ingegneristica è un problema che ancora oggi affligge la maggior parte dei passeggeri: quel senso di malessere che colpisce la testa e lo stomaco quando il treno è in curva. A proporre una possibile soluzione a questo problema ci ha pensato un gruppo di ricerca coordinato dal professor Bernard Cohen del Mount Sinai Medical Center, in Usa, che ha pubblicato i risultati dello studio sul Federation of American Societies for Experimental Biology (FASEB) Journal. Quando entrano in una curva, i vagoni del treno sono soggetti a due forze: da una parte c’è un’accelerazione centripeta che spinge verso il centro della curva, dall’altra una forza centrifuga che, per reazione alla prima, muove il vagone verso l’ esterno. Per un passeggero comodamente seduto nella sua vettura, questo gioco forze avrà un unico risultato: lo spiaccicherà al finestrino o sui braccioli esterni del suo sedile. E da questo, si suppone, nasce il mal di treno. Per cercare di alleviare questo malessere, il binario esterno di un tratto curvilineo viene leggermente rialzato rispetto all’altro: ne risulta una lieve diminuzione della forza centrifuga così noiosa ai passeggeri. Nel Pendolino, per aumentare al massimo la velocità in curva (ma sempre nei limiti della sicurezza), un sistema promuove attivamente l’ inclinazione dei vagoni verso l’interno per compensare la forza centrifuga. Lo fa attraverso dei sensori posizionati sul primo vagone, che rilevano l’inizio di una curva trasmettendo l’informazione ai vagoni successivi. Il problema, spiegano i ricercatori, è che c’è un inevitabile ritardo dal momento in cui il primo vagone dà il segnale e quello in cui le altre carrozze lo ricevono. Quindi, gli altri vagoni non entrano in curva con l’assetto migliore e, in più, rallentano la velocità. Il problema potrebbe essere risolto se il rilevamento delle curve non avvenisse tramite sensori posti sul primo vagone, ma grazie a un GPS. Per verificare la validità di questa teoria, i ricercatori hanno condotto un esperimento di due mesi monitorando le reazioni di 200 passeggeri. I treni utilizzati nel test erano ad assetto fisso e variabile e, in quest’ultimo caso, il rilevamento delle curve poteva avvenire sia tramite sensori posizionati sul primo vagone sia con GPS. I passeggeri non hanno riscontrato alcun malessere quando viaggiavano in assetto fisso, dimostrando che non è la forza centrifuga in sé a causarlo. Ma, naturalmente, in questa modalità i treni viaggiavano molto più lenti. Per aumentare la velocità e al contempo migliorare il comfort dei passeggeri, i ricercatori hanno visto che bastava rilevare le curva tramite sistema GPS. Dopo aver visto i risultati, la Schweizerische Bundeshanen (cioè la compagnia che gestisce il sistema ferroviario in Svizzera e che ha commissionato lo studio) ha investito ben 3,2 miliardi di franchi svizzeri per avviare la costruzione di nuovi treni dotati di questa tecnologia. “ E’ una scoperta sensazionale e una soluzione pratica per risolvere un problema che affligge tutti noi”, ha commentato soddisfatto Bernard Cohen.

domenica 7 agosto 2011

Stress idrico: servono nuove tecnologie per i dissalatori.

Fonte: Le Scienze

I processi per dissalare l'acqua di mare richiedono una quantità minima di energia che non può essere ridotta, e la tecnologia attuale si sta avvicinando a quel limite. Allo stato attuale, un terzo della popolazione mondiale vive in paesi sottoposti a stress idrico e l'aumento della popolazione, la contaminazione delle sorgenti di acqua dolce e il cambiamento climatico faranno ulteriormente crescere questa percentuale nei prossimi dieci anni. Proprio per aumentare le risorse idriche disponibil,i negli ultimi anni in molti paesi sono stati costruiti grandi impianti di dissalazione dell'acqua di mare e si prevede che in futuro ne verranno costruiti molti altri.Tuttavia - osserva William Phillip, che con il collega Menachem Elimelech dell'Università di Yale ha dedicato al problema un ampio studio ora pubblicato su Science - "la dissalazione dell'acqua di mare è un processo ad alta intensità energetica; consuma molta più energia che trattare tradizionali sorgenti di acqua fresca", ha detto Phillip. "Tuttavia, queste fonti tradizionali non saranno in grado di soddisfare la crescente domanda di acqua in tutto il mondo. Capire dove si inserisca la dissalazione dell'acqua di mare in questo ventaglio di opzioni di approvvigionamento è un problema critico."Il principale metodo di dissalazione dell'acqua di mare oggi utilizzato ricorre infatti all'osmosi inversa, un processo in cui l'acqua di mare viene forzata attraverso una membrana che filtra il sale. Per ridurre la quantità di energia necessaria per spingere l'acqua attraverso da anni gli scienziati si sono concentrati sul miglioramento del flusso d'acqua testando nuovi materiali, come i nanotubi di carbonio. Nel nuovo studio, Elimelech e Phillip dimostrano però che l'osmosi inversa richiede una quantità minima di energia che non può essere ridotta, e che la tecnologia attuale si sta avvicinando a quel limite. Secondo i ricercatori, per ottenere guadagni reali in termini di efficienza è necessario quindi puntare sulle fasi pre e post-trattamento della dissalazione.Secondo gli autori la dissalazione deve essere considerata solo l'ultima risorsa nel tentativo di fornire acqua fresca per le popolazioni del mondo, a cui ricorrere solo dopo aver sfruttato le diverse altre opzioni esistenti, fra cui il trattamento delle fonti d'acqua di bassa qualità, il riciclo, il riutilizzo e la conservazione delle acque. Queto ordine di priorità è dettato anche dal fatto che non esistono di fatto studi sulle possibili conseguenze sugli ecosistemi marini di una eventuale diffusione su grande scala degli impianti di dissalazione.Ciò non toglie, concludono i ricercatori, che la dissalazione abbia un grande ruolo da svolgere oggi e nel futuro: "Tutto questo richiederà nuovi materiali e una nuova chimica, ma crediamo che è su questo che dobbiamo concentrare i nostri sforzi futuri. Il problema della mancanza d'acqua può solo peggiorare, e dobbiamo essere pronti ad affrontare la sfida con il miglioramento di tecnologie sostenibili." (gg)

Si può prevedere scientificamente il comportamento umano?


a cura di Federico Pedrocchi e Alberto Agliotti


Immaginate di trovarvi alle prese con i 50 milioni di pezzi che compongono un jumbo e di doverlo ricostruire. Problema complicato, ma non complesso, se avete il libretto di istruzioni. Se non l'avete e non avete neppure un modello di riferimento, o peggio non avete nemmeno idea di cosa sia un aereo, dovete tentare un'operazione di ingegneria inversa, cioè studiare i singoli elementi e fare ipotesi sul funzionamento dell'insieme. "Un sistema complesso emerge dall'interazione degli elementi che lo compongono ed è molto di più della loro somma" - spiega Mario Rasetti, docente di Fisica teorica al Politecnico di Torino. "La complessità studia quei fenomeni nei quali il numero di variabili e di gradi di libertà è enorme e non c'è maniera deterministica di analizzarli." Per i suoi studi sui sistemi complessi, il fisico ungherese Albert-László Barabási ha ricevuto il
premio Lagrange 2011 dalla Fondazione ISI, di cui Rasetti è presidente. Nel suo ultimo saggio, Lampi (Einaudi, 28 euro), Barabási si interroga sulla prevedibilità del comportamento umano. Per la prima volta nella storia disponiamo di un enorme insieme di dati oggettivi sulle nostre attività: sono le tracce elettroniche che lasciamo attraverso mail, cellulari, carte di credito, un immenso database che oggi possiamo analizzare con potenti computer. Il nostro comportamento è fatto da una serie di azioni che siamo abituati a considerare come eventi discreti, casuali e isolati. Secondo Barabási, la realtà è molto diversa. In Lampi, né complicato, né complesso, ma sempre piacevolmente scorrevole, ci racconta perché. Albert-László Barabási, Lampi, edizioni Einaudi, 28 euro.


Ascolta l'intervista a Mario Rasetti:

Scarica il file audio in mp3

Il web compie venti anni. Dal Cern a Google.

Fonte: Il Capoluogo

L'Aquila, 7 ago 2011 - 20 anni di web, dal 1991 al 2011. Da quando cioè fu messo on line il primo sito web. E' vero che l'idea di rete e i primi utilizzi risalgono in realtà agli anni Sessanta con Arpanet, progetto del ministero della Difesa statunitense, a scopi militari, e poi con altre sperimentazioni. Ma il primo indirizzo www, supportato dal protocollo http lo dobbiamo al ricercatore inglese del Cern di Ginevra Tim Berners Lee. L'indirizzo del sito è http://info.cern.ch/hypertext/WWW/TheProject.html e la peculiarità dell'intuizione di Berners Lee fu quella di poter "navigare" le informazioni attraverso strutture ipertestuali, accedendo ai contenuti non in modo lineare, ma con una consultazione più elastica e soprattutto condivisa. Ovviamente le finalità erano orientate ad una condivisione delle ricerche scientifiche, ma sappiamo bene oggi quale mole di informazioni e di quale varietà venga condivisa sulla rete. Il percorso dagli anni novanta è stato rapido e ricco di novità, i browser a larga diffusione (il primo fu Mosaic nel 1993) hanno permesso agli utenti di accedere alla rete, insieme ad una maggiore efficienza delle strutture di connessione.
Internet, il concetto di rete, hanno dato un grande contributo alla possibilità di accesso alle informazioni, alla condivisione, hanno favorito la comunicazione e ci hanno aiutato nei lavori più svariati, influenzando l'economia, la vita sociale, culturale e anche politica. Oggi quindi il web viene sempre più considerato una "cosa seria" e, per questo, si cerca di individuare delle regole, come ad esempio in Italia sta facendo l'Agcom per la condivisione dei contenuti protetti da diritto d'autore, oppure come ricorda lo stesso papà del web, Berners Lee, la cui preoccupazione invece è nella tutela della privacy dei cittadini, soprattutto per la mole di dati personali che vengono gestiti dai tycoon del web (Google, Facebook...).

sabato 6 agosto 2011

La teoria del Multiverso trova nuove tracce a suo sostegno.


Identificate quattro aree nella radiazione cosmica di fondo compatibili con il modello proposto.

MILANO - Prima era solo un'elegante teoria che molti scienziati consideravano pura ipotesi senza nessuna possibilità di essere dimostrata, ora c'è qualche traccia. La «teoria del multiverso», cioè di un numero infinito di universi (il nostro sarebbe uno dei tanti) contenuti in mega-bolle che si originano una dall'altra, ha trovato un sostegno in due articoli pubblicati in Physical Review Letters e Physical Review D da un gruppo di cosmologi dell'University College London (Ucl), Imperial College London e del Perimeter Institute for Theoretical Physics.
BOLLE - Il gruppo ha studiato e identificato quali forme assumerebbero nel nostro universo le eventuali tracce delle bolle di altri universi nel tessuto della radiazione cosmica di fondo (Cmb), che è ciò che resta del Big Bang che diede origine al nostro universo poco meno di 14 miliardi di anni fa. Gli scienziati hanno messo a punto un programma per osservare come apparirebbe il nostro universo con le collisioni cosmiche con altre bolle-universo oppure uno che non le contiene, e quale di questi due è il più simile con i dati ottenuti in sette anni di osservazioni del
satellite Nasa Wmap, che studia in dettaglio la radiazione cosmica di fondo. Inoltre hanno evidenziato un limite massimo delle possibili tracce di bolle-universo che sono venute in contatto con il nostro che saremmo in grado di osservare nel tessuto della Cmb. Secondo Hiranya Peiris, del dipartimento di fisica e astronomia di Ucl e co-autrice degli articoli, dai dati osservati da Wmap sono state identificate quattro zone di forma circolare che hanno caratteristiche compatibili con il modello proposto dal gruppo di studio.
CONOSCENZA - La stessa Peiris però ammette che «quattro regioni non sono un numero statisticamente significativo» per poter dire che il multiverso esista veramente, però si dice convinta che i dati che saranno ottenuti dal
telescopio spaziale Planck dell'Esa - che studia la Cmb con maggiore dettaglio - potranno fornire maggiori informazioni. George Efstathiou, direttore dell'istituto di cosmologia dell'Università di Cambridge, interpellato in merito dalla Bbc, ha commentato che lo studio del gruppo di Peiris è «il primo serio tentativo» per dimostare l'esistenza del multiverso e soprattutto «è molto interessante dal punto di vista metodologico». Secondo Peiris, però, anche se fossimo in grado di provare l'esistenza di queste bolle-universo potremmo non essere mai in grado di conoscere nulla del loro interno.
Paolo Virtuani

venerdì 5 agosto 2011

Nuovi progressi per la scrittura magnetica.

Fonte: Cordis

I file per computer che usiamo tutti i giorni per lavoro o per piacere non sono nient'altro che flussi di dati digitali fatti di una sequenza di zero e uno. Questi zero e questi uno si trovano su un sottile strato magnetico dell'hard disk di un computer, dove i campi magnetici che puntano verso l'alto rappresentano un uno e i campi magnetici che puntano verso il basso rappresentano uno zero. Le dimensioni di questi campi magnetici adesso hanno raggiunto un paio di decine di nanometri, il che significa che possiamo comprimere un terabyte di dati nello spazio di appena quattro centimetri quadrati. Anche se può sembrare eccezionale, questa "miniaturizzazione" causa numerosi problemi a fisici e ingegneri. Il settore dell'informatica in rapido avanzamento e in continua espansione adesso esige che ognuna di queste informazioni sia scritta in questi piccolissimi bit magnetici una alla volta e nel modo più veloce possibile e più efficiente dal punto di vista energetico. Un aiuto potrebbe venire nella forma di un nuovo metodo di scrittura magnetica dei dati, come quello sviluppato da un team di scienziati finanziati dall'UE provenienti da Spagna e Francia. In un articolo pubblicato sulla rivista Nature, il team spiega come il loro metodo potrebbe aiutare a risolvere questi problemi e a soddisfare le esigenze di un mercato in evoluzione. Lo studio ha ricevuto un contributo iniziale del Consiglio europeo della ricerca (CER) del valore di circa 1,5 milioni di euro attraverso il progetto NOMAD ("Nanoscale magnetization dynamics"), finanziato nell'ambito del tema "Idee" del Settimo programma quadro (7? PQ). Il metodo attuale, che usa i campi magnetici prodotti da fili e bobine, ha gravi limiti di scalabilità e di efficienza energetica. La nuova tecnica del team elimina il bisogno di ingombranti campi magnetici e permette una scrittura estremamente semplice e reversibile di elementi di memoria, iniettando una corrente elettrica parallela al piano di un bit magnetico. La chiave di questo effetto sta nel creare interfaccia asimmetriche sopra e sotto lo strato magnetico, inducendo così un campo magnetico in tutto il materiale, in questo caso una pellicola di cobalto di meno di un nanometro di spessore sistemata tra il platino e l'ossido di alluminio. A causa dei sottili effetti relativistici, gli elettroni che attraversano lo strato magnetico vedono efficacemente il campo magnetico del materiale come un campo magnetico, il che a sua volta influenza la loro magnetizzazione. A seconda dell'intensità della corrente e della direzione della magnetizzazione, si può indurre un campo magnetico efficiente intrinseco al materiale che sia abbastanza forte da invertire la magnetizzazione. La ricerca ha implicazioni per lo sviluppo di memorie magnetiche ad accesso casuale, o "MRAM". Se queste MRAM sostituissero le RAM standard, che devono essere aggiornate ogni pochi millisecondi, significherebbe che un computer potrebbe essere acceso istantaneamente e si otterrebbe un sostanziale risparmio di energia. Nello studio il team dimostra che questo metodo funziona in modo affidabile a temperatura ambiente. Un altro vantaggio di questa scoperta è che la scrittura magnetica indotta dalla corrente è più efficiente in strati magnetici "duri" che in quelli "morbidi". Questo è in qualche modo sorprendente, visto che i materiali magnetici morbidi sono per definizione più facili da cambiare usando campi magnetici esterni; è comunque molto utile visto che i magneti duri possono essere miniaturizzati a dimensioni nell'ordine dei nanometri senza perdere le loro proprietà magnetiche. Questo permetterebbe di aumentare la densità di memorizzazoine delle informazioni senza compromettere la capacità di scriverle. Il fine generale del progetto NOMAD, che continuerà fino al 2013, consiste nello sviluppare metodi all'avanguardia per controllare le proprietà magnetodinamiche degli elementi molecolari e metallici di dimensioni dell'ordine dei nanometri.
Per maggiori informazioni, visitare: Institut Català de Nanotecnologia:
http://www.nanocat.org/#
Categoria: Risultati dei progettiFonte: Institut Català de Nanotecnologia:Documenti di Riferimento: Mihai Miron, I. et al. (2011) Perpendicular switching of a single ferromagnetic layer induced by in-plane current injection. Nature. DOI: 10.1038/nature10309.Acronimi dei Programmi: MS-FR C, MS-E C, FP7, FP7-IDEAS, FUTURE RESEARCH-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Innovazione, trasferimento di tecnologie; Nanotecnologia e nanoscienze; Ricerca scientifica
RCN: 33690

Nel cuore dei chip fotonici.

Fonte: Galileo

Le fibre ottiche permettono di scambiare informazioni alla velocità della luce. Ma grazie ad una nuova scoperta potremmo avere anche sofisticati dispositivi elettronici che sfruttano la luce al posto della corrente elettrica. Un team coordinato da Liang Feng del California Institute of Technology (Caltech) è infatti riuscito a controllare il percorso della luce all'interno di chip al silicio, bloccando ogni forma di riflessione o di interferenza con altri fasci luminosi. La scoperta, apparsa su Science, è un notevole passo avanti verso la creazione di chip fotonici che sfruttano solamente fasci luminosi per elaborare le informazioni. Se infatti la trasmissione delle informazioni può già contare sulle fibre ottiche, l'analisi dei segnali viene ancora condotta dai tradizionali chip elettronici, basati sul moto di cariche elettriche nel silicio. I chip fotonici oggi in corso di sviluppo nei laboratori consentono di raggiungere velocità di trasmissione di 10 Gigabit per secondo (Gbps), ma grazie a questi recenti sviluppi si potrebbe anche quadruplicare la velocità entro pochi anni. Il dispositivo realizzato da Feng e colleghi è una versione “fotonica” di un diodo, un componente elettronico fondamentale che consente di far scorrere la corrente elettrica solo in un verso, bloccando completamente il flusso nel verso opposto. Costruire un diodo per controllare il verso di percorrenza della luce è una grande sfida tecnologica che, ricorda Feng, ha richiesto più di vent'anni di ricerche. I test di questo nuovo dispositivo sono stati condotti in collaborazione con un team dell'Università di San Diego, dove Maurice Ayace, coautore dello studio, ha sviluppato un sistema per studiare il percorso dei raggi luminosi all'interno della guida. Sfruttando un microscopio a scansione di campo prossimo (SNOM), Ayace è riuscito a costruire una specie di “stetoscopio ottico”, che consente di studiare il comportamento della luce all'interno del diodo anche senza vederla. Grazie a questo strumento, i ricercatori del Caltech e di San Diego hanno confermato che il diodo fotonico può elaborare correttamente i segnali in ingresso. Il tutto ovviamente alla velocità della luce.
Riferimenti: Science DOI: 10.1126/science.1206038
Credit immagine: Caltech/Liang Feng

Ottenuti spermatozoi dalle cellule staminali.

Fonte: Le Scienze

Partendo da cellule staminali embrionali di topo un gruppo di ricercatori ha ottenuto precursori degli spermatozoi, che hanno prodotto spermatozoi funzionali e sani.

Lavorando sul modello animale, un gruppo di ricercatori dell'Università di Kyoto è riuscito a trovare un modo per trasformare le cellule staminali embrionali in spermatozoi. La scoperta, annunciata on line dalla rivista Cell in un articolo a prima firma Katsuhiko Hayashi, apre in prospettiva nuove strade per la ricerca e la cura dell'infertilità. Nel corso della ricerca, Katsuhiko Hayashi e colleghi sono riusciti a trasformare cellule staminali embrionali di topo in precursori degli spermatozoi (PGC), e dimostrato che queste cellule possono dare origine a spermatozoi funzionali e sani. I ricercatori osservano che la ricostituzione in vitro delle cellule germinali rappresenta una delle sfide fondamentali della biologia.Una volta trapiantate in topi che non erano in grado di produrre normalmente spermatozoi, queste cellule progenitrici derivate dalle staminali hanno prodotto spermatozoi dall'aspetto normale, che sono stati successivamente utilizzati per fertilizzare con successo ovuli di topo. Gli ovuli fecondati sono stati quindi impiantati in una madre, dando vita a una progenie sana che, quando ha raggiunto la maturità sessuale, ha mostrato di essere normalmente fertile. Con la stessa procedura, osservano i ricercatori, sarebbe possibile arrivare a generare una prole fertile a partire da cellule staminali pluripotenti indotte, ottenibili a partire da cellule adulte della pelle."Il proseguimento delle indagini volte alla ricostituzione in vitro dello sviluppo delle cellule germinali, ivi compresa quella delle cellule progenitrici delle cellule germinali femminili, sarà un elemento critico per una più completa comprensione della biologia delle cellule germinali in generale, così come per il progresso della tecnologia riproduttiva e della medicina", hanno concluso i ricercatori. (gg)

giovedì 4 agosto 2011

Alla ricerca del bosone di Higgs: nuova fisica al Cern?

Fonte: LSWN

Dipartimento di Fisica della Materia e Ingegneria Elettronica, Università di Messina, I-98166 Messina, Italy.
Dinanzi a domande ancestrali, al senso stesso delle cose, la mente dell’uomo può diventare preda di smarrimento e inquietudine. Tuttavia la ricerca scientifica, con le sue verità validate dall’esperienza e attraverso il proprio metodo, può contribuire a diminuire tale senso di incertezza.Una delle questioni più delicate, uno dei misteri che maggiormente affascinano l’uomo è la ragione stessa della materialità delle cose, del loro essere oggetti dotati di massa. Generazioni di scienziati stanno cercando di dare risposta a tale questione ipotizzando modelli e concependo esperimenti.
Lo scorso 22 luglio 2011, scienziati del CERN (European Organization for Nuclear Research) hanno presentato alla “International Europhysics Conference on High Energy Physics” (conferenza sulle alte energie organizzata dalla Società Europea di Fisica), alcuni risultati ("Measurements of Particle Production in pp-Collisions in the Forward Region at the LHC /
Ruf, Thomas (CERN)" http://cdsweb.cern.ch/record/1370101/files/LHCb-TALK-2011-146.pdf) di notevole interesse che potrebbero indicare la presenza di almeno una nuova particella elementare.
All’interno dell’LHC (Large Hadron Collider), gigantesco collisore circolare di particelle dal diametro di circa 27 km, vengono fatti collidere frontalmente fasci di particelle che ruotano in senso opposto. Tali collisioni avvengono ciascuna ad energie (nel caso dei protoni) migliaia di miliardi di volte superiori rispetto all’energia di una singola particella di luce visibile. Prezioso frutto di tali scontri sono miriadi di altre particelle delle quali vengono analizzate e studiate la carica, la massa e molte altre importanti caratteristiche fisiche. Fra gli scopi principali quello di elaborare importantissime informazioni in base alle quali cercare di comprendere le interazioni fondamentali della natura e il ruolo giocato dalle particelle coivolte.
Certamente, uno dei principali obiettivi di un tale enorme sforzo non solo tecnologico ma concettuale, computazionale e, soprattutto, energetico è la comprensione del meccanismo fisico di produzione della massa. Negli anni '60 il prof. Peter Ware Higgs propose una teoria che potrebbe consentire di spiegare per quale motivo le particelle hanno massa. Proprio alla ricerca della particella di Higgs, del bosone anche conosciuto come “particella di Dio”(1), è rivolta la massima attenzione della comunità dei fisici.
In tale contesto, l’annuncio dello scorso 22 luglio, sembra aver mandato in fibrillazione i fisici: un eccesso di 2.8 sigma nella regione di massa dei 140-145 GeV e un eccesso di circa 2 sigma verso i 250 GeV.
Il linguaggio dei fisici, monoreferenziale e privo di sfumature linguistiche per i non addetti ai lavori, può risultare molto difficile e incomprensibile: un eccesso non è nient’altro che uno scostamento (in positivo) da quanto ci si sarebbe potuto aspettare di rivelare sperimentalmente partendo dalle sole conoscenze teoriche certe in quel momento.
Un eccesso diventa significativo quando supera i 3 sigma: fra 3 e 5 sigma si parla di evidenza sperimentale mentre al di sopra dei 5 sigma si parla di scoperta. Per dare un’idea, 3 sigma equivale a gettare circa 8 volte consecutive una moneta ed ottenere sempre e costantemente testa (evento improbabile). Il valore 5 sigma equivale invece a gettare circa 20 volte una moneta ottenendo sempre lo stesso risultato (evento altamente improbabile).
Si tratta di una mera questione di probabilità: se un evento si ripete sempre allo stesso modo un numero molto elevato di volte allora lo si da per confermato.
Riuscire ad avere un eccesso di 5 sigma significa, quindi, ottenere lo stesso evento un numero tanto elevato di volte tali da dare la ragionevole sicurezza che, a parità di condizioni sperimentali, le medesime leggi fisiche saranno rispettate anche nel futuro.
(1) il bosone di Higgs è anche detto particella di Dio per la capacità che avrebbe di giustificare la massa delle altre particelle attraverso la sua stessa esistenza.
Evidenza e scoperta
Si parla di scoperta oltre il livello 5 sigma.
Fra 3 e 5 sigma si parla di evidenza sperimentale.
3 sigma equivale a gettare circa 8 volte consecutive una moneta ed ottenere sempre e costantemente testa – tale occorrenza è improbabile.
5 sigma equivale, invece, a gettare circa 20 volte una moneta ottenendo sempre lo stesso risultato – tale occorrenza è altamente improbabile
Perché la comunità scientifica chiami “scoperta” un risultato innovativo è necessario che l’entità dei dati raccolti sia sufficientemente elevata da consentire di raggiungere un chiaro livello 5 sigma. Solo allora sarà ragionevole credere che volendo condurre il medesimo esperimento sotto le medesime condizioni sperimentali questo segua le leggi scoperte.
I risultati presentati dal CERN, in maniera particolare quello nella regione dei 140-145 GeV, fanno immaginare che presto potrebbero esserci sviluppi estremamente interessanti. Il risultato a 140-145 GeV esce rafforzato dal confronto con uno studio condotto da scienziati della collaborazione CDF del Fermilab (Collider Detector Fermilab at Tevatron): il livello di tale studio presenta un eccesso superiore e pari a 3.2 sigma. A illustrare tale risultato, Viviana Cavaliere, giovane fisica italiana.
Mentre il pensiero dell’intera comunità dei fisici sembra quasi naturalmente rivolgersi alla sfuggente particella, al tanto agognato bosone di Higgs, leggendo l’articolo dei 3.2 sigma del Fermilab ci si rende conto che se di particella si tratta potrebbe trattarsi di tutt’altra particella, ma non del bosone di Higgs.
Tale contesto si complica ulteriormente a causa di un risultato ottenuto dall’esperimento D0 condotto da scienziati del Fermilab: nessun eccesso da registrare! La situazione, evidentemente, non è ancora assolutamente chiara. Gli scienziati sono divisi tra chi sospetta ci sia di mezzo il bosone di Higgs, tra chi intravede una nuova particella elementare (segno forse di una nuova interazione della natura) e tra chi, invece, non vede alcun segnale, l’unica certezza è che nulla allo stato attuale degli esperimenti è certo!
A rendere la situazione ancora più interessante e intricata è un ulteriore articolo pubblicato dai ricercatori di CDF: il livello di significatività passa da 3.2 sigma a ben 4.1 sigma. Per riassumere, la soglia della scoperta sperimentale è più vicina ma l’esperimento concorrente del Fermilab non vede nulla e il CERN inizia a farci sperare. Che intrigo!
Data l’incertezza, forse conviene seraficamente allinearsi alla dichiarazione equilibrata resa da Sergio Bertolucci, CERN's Director for Research and Scientific Computing: “Discovery or exclusion of the Higgs particle, as predicted by the Standard Model, is getting ever closer,” (
http://press.web.cern.ch/press/PressReleases/Releases2011/PR09.11E.html) ovvero “la scoperta o l’esclusione della particella di Higgs, per come predetta dal modello standard, è sempre più vicina”.
I computer continuano a elaborare l'incessante flusso di dati che giungono dagli esperimenti. Forse il prof. Higgs avrà ragione o forse no. Di certo la fisica ne uscirà vincitrice mentre si cerca di far chiarezza riguardo alle varie ipotesi in gioco:
conferma sperimentale dell'esistenza del bosone di Higgs;
necessità di scovare un nuovo modello teorico che spieghi la generazione della massa;
conferma dell'esistenza sperimentale di una o più particelle elementari diverse da quella di Higgs (magari legate all’esistenza di una nuova interazione fondamentale);
comprensione e reinterpretazione degli eccessi rivelati qualora ci si accorga che, in realtà, non vi sia alcun nuovo risultato degno di nota.
Non resta che aspettare mentre stiamo probabilmente assistendo alla stesura di alcune delle pagine più entusiasmanti della conoscenza umana!
Riferimenti
International Europhysics Conference on High Energy Physics
http://eps-hep2011.eu/
Peter Ware Higgs - Da Wikipedia, l'enciclopedia liberahttp://it.wikipedia.org/wiki/Peter_Higgs
CDF, livello 4.1 sigma“Invariant Mass Distribution of Jet Pairs Produced in Association with a W boson in p p bar Collisions at √s = 1.96 TeV”, A. Annovi, P. Catastini, V. Cavaliere, L.Ristori, http://www-cdf.fnal.gov/physics/ewk/2011/wjj/7_3.html;
CDF, livello 3.2 sigma“Invariant Mass Distribution of Jet Pairs Produced in Association with a W boson in p p bar Collisions at √s =1.96TeV”, CDF collaboration, Phys. Rev. Lett. 106, 171801 (2011)
http://prl.aps.org/abstract/PRL/v106/i17/e171801;
“Invariant Mass Distribution of Jet Pairs Produced in Association with a W boson in ppbar Collisions at sqrt(s)=1.96TeV”, CDF collaboration, submitted 04 April 2011,
http://arxiv.org/abs/1104.0699;
Nessun segnale da parte di D0“Study of the dijet invariant mass distribution in p p bar → W→(l→lv)+jj final states at √s =1.96TeV”,
http://www-d0.fnal.gov/Run2Physics/WWW/results/final/HIGGS/H11B/H11B.pdf;
“Tevatron teams clash over new physics”, Eugenie Samuel Reich, 10 June 2011, Nature, doi:10.1038/news.2011.361,
http://www.nature.com/news/2011/110610/full/news.2011.361.html#B3;
Articoli divulgativi“Large Hadron Collider results excite scientists”, Paul Rincon, BBC, News Science & Environment, 23 July 2011,
http://www.bbc.co.uk/news/science-environment-14258601;
“Higgs boson ‘hints’ also seen by US labs”, Paul Rincon, BBC, News Science & Environment, 24 July 2011,
http://www.bbc.co.uk/news/science-environment-14266358. Rocco Vilardi

Ecco il mattone per costruire sulla Luna.


Piccolo parallelepipedo grigio, di materiale compatto. L'Agenzia spaziale italiana lo finanzia con 500 mila euro.

MILANO - Dalla Sardegna alla Luna. La storia ruota attorno ad un piccolo parallelepipedo grigio di materiale compatto che potrà diventare un mattone lunare, cioè un elemento per la costruzione di un insediamento sul nostro satellite naturale. Ha già ottenuto il parere positivo dell’Ufficio europeo dei brevetti ed ora è in corso l’estensione internazionale. Il mattone lunare è frutto del progetto Cosmic condotto dal professor Giacomo Cao, chimico dell’Università di Cagliari ed al quale hanno partecipato il CRS4 (centro di ricerche e sviluppo e studi superiori in Sardegna), il Dipartimento energia e trasporti del Cnr, l’Istituto tecnico industriale Enrico Fermi di Cosenza e la società privata Corem. L’Agenzia spaziale italianaAsi lo ha finanziato con 500 mila euro.
MATERIALI LUNARI - «Il mattone – spiega Cao – è formato da materiali presenti sul suolo selenico come l’ilmenite perché ogni progetto di futuro insediamento considerato dalle agenzie spaziali è far ricorso a elementi esistenti nel luogo per ridurre i carichi e i costi di trasporto di strutture verso il satellite. Per realizzarlo ai fini del brevetto abbiamo fatto ricorso ai materiali equivalenti esistenti sulla Terra ma che riproducono le caratteristiche di quelli lunari». Una struttura selenica deve proteggere gli astronauti dalle radiazioni che piovono dallo spazio assieme ai micro meteoriti e creare un ambiente all’interno del quale sia possibile vivere e lavorare in sicurezza. Il brevetto riguarda un processo per la produzione dei mattoni necessari a questo genere di strutture protettive. Un secondo brevetto depositato ma che attende risposta e sviluppato sempre nell’ambito del progetto Cosmic riguarda invece un processo attraverso il quale ricavare elementi utili alla sopravvivenza su Marte dall’atmosfera e dal suolo: ad esempio l’ossigeno dall’atmosfera di anidride carbonica e gli ossidi di ferro dal terriccio. «Queste sono risorse naturali – spiega Cao – preziose per consentire l’attività e la vita sul vicino pianeta».
STUDI - Ricerche su questi fronti sono in corso a livello internazionale da molti anni. Si è costituita addirittura una «Società del cemento lunare» sostenuta da alcune compagnie giapponesi e americane per produrre elementi utili alla fabbricazione in situ. E anche per ricavare ossigeno dall’atmosfera marziana necessario alla respirazione degli astronauti o ai propulsori dei razzi la società aerospaziale americana Lockheed ha sperimentato un impianto già funzionante. «I nostri brevetti – dice Cao – tengono conto delle esperienze fin qui compiute e vanno oltre nella tecnologia che in questi anni è notevolmente maturata». Cinesi e indiani si stanno dando da fare per arrivare sulla Luna e in futuro anche la Nasa se il Congresso riuscirà a costringere il presidente Obama ad accettare la prospettiva come sta facendo con i progetti della capsula Orion e del grande razzo SLS che aveva cancellato e avviati dal suo predecessore Bush. Nel piano eliminato c’era anche l’insediamento lunare. Forse nel prossimo futuro ritornerà a galla e nella tradizionale collaborazione che unisce l’Italia agli Usa in campo spaziale il mattone della Sardegna potrebbe giocare il suo ruolo.
Giovanni Caprara

Stampante 3D, per funzionare utilizza il sole e la sabbia del deserto.


Fonde il silicio dei granelli che raffreddandosi si trasforma in vetro realizzando vasi e bicchieri.

MILANO - Non solo stampa in 3D, ma lo fa usando la sabbia del deserto del Sahara. Markus Kayser, 28 anni, studente tedesco del Royal College of Arts di Londra, all’impresa impossibile stava pensando già da qualche tempo. «L’anno scorso ero nel deserto egiziano a testare la mia macchina a pannelli solari, la Sun Cutter», scrive sul suo sito. «Durante l’esperimento mi sono reso conto che usando il potere della luce e impiegando la sabbia – due elementi che sulle dune non mancano di certo – potevo dare vita a oggetti in vetro».
GENIO DEL DESERTO – Così da quel momento Markus non ha smesso un minuto di lavorare alla sua teoria. Poi, in febbraio, è riuscito a perfezionarla nel Sahara marocchino. E a Siwa, in Egitto, ha potuto gridare eureka. La Sun Cutter si era finalmente evoluta nella Solar Sinter 3D. Il sistema è complesso, ma semplice (e geniale allo stesso tempo) è l’idea che sta alla base di tutto. Il silicio contenuto nella sabbia, riscaldato fino al punto di fusione e poi raffreddato, solidificandosi diventa vetro. Questo processo di conversione è stato utilizzato negli ultimi anni per la tecnologia delle stampanti 3D. Strumenti che creano oggetti praticamente dal nulla. Markus ha aggiunto all’impianto i raggi del sole della sua macchina solare, utili per scaldare il silicio. Ed è così riuscito a creare suppellettili di ogni tipo, dai vasi ai bicchieri, in un luogo davvero impervio. Il tutto partendo - è il caso di dirlo - dalla cosa più semplice al mondo: un granello di sabbia.

Marta Serafini , 03 agosto 2011 , 17:06

Creata una batteria nanoscopica.

Fonte: Le Scienze

I dispositivi mostrano buona capacità, ma si cercano nuovi materiali che consentano di aumentare il numero di cicli di carica e scarica utili.

Il prototipo di una batteria agli ioni di litio delle dimensioni di un nanofilo è stata realizzata da un gruppo di ricercatori della Rice University, che la descrivono in un articolo pubblicato sulla rivista Nano Letters dell'American Chemical Society.Le batterie sperimentali così ottenute sono alte 50 micron - circa il diametro di un capello umano e quasi invisibile se visti di taglio. Teoricamente, questi dispositivi di accumulo di energia possono essere assemblati in schiere e collegati in modo perfettamente scalabile. Questi dispositivi potrebbero trovare impiego come fonte di alimentazione ricaricabile per le nuove generazioni di strumenti nanoelettronici.I ricercatori, che si dedicano al progetto da anni, avevano riferito della creazione di una prima nano-batteria lo scorso dicembre. Ora, migliorando la tecnica di produzione sono riusciti a portare il catodi all'interno degli stessi nanofili, affogati in una matrice di ossido di polietilene che funge sia da gel elettrolitico in cui sono immagazzinati ioni litio, sia da isolante fra i vari nanofili. "L'idea è quella di fabbricare dispositivi di accumulo a nanofili ultrasottili con la separazione tra gli elettrodi a scala nanometrica", ha detto Arava Leela Mohana Reddy, co-autore della ricerca. "Questo influenza il comportamento elettrochimico del dispositivo."I dispositivi mostrano buona capacità, ma i ricercatori stanno cercando di mettere a punto nuovi materiali che consentano di aumentarne la capacità di carica e scarica, che attualmente diminuisce dopo una ventina di cicli."C'è molto da fare per ottimizzare i dispositivi in termini di prestazioni", ha detto l'autore principale dello studio, Sanketh Gowda. "L'ottimizzazione del separatore polimerico e il suo spessore e l'esplorazione di diversi sistemi di elettrodi potrebbe portare a notevoli miglioramenti." (gg)

mercoledì 3 agosto 2011

Il robot in grado di pensare e imparare grazie all’algoritmo SOINN e all’intelligenza collettiva.




Possono i robot pensare, imparare e mostrare un’intelligenza simile a quella umana? Se avete letto Asimov o visto il film “I Robot” saprete benissimo che questo tema è ricorrente nella letteratura fantascientifica ma, forse, oggi possiamo togliere il prefisso “fanta”.
Al Tokyo Institute of Technology, infatti, è stata sviluppata una tecnologia chiamata SOINN, un sistema che crea una rete neurale che si potenzia da sola e permette ai robot di agire in maniera simile agli umani quando si tratta di eseguire compiti non scriptati. Sfruttando le conoscenze pregresse e le esperienze, il robot nell’esperimento decide quali azioni eseguire e in quale ordine. Compito affidatogli: servire un bicchiere d’acqua fredda a una persona.
Partendo da conoscenze di base “ad esempio il ghiaccio rende l’acqua fredda”, il robot sceglie l’ordine delle azioni da eseguire per ottenere il risultato tramite SOINN, un algoritmo semplice, leggero nei calcoli (così da essere efficace anche senza processori potenti) e in grado di comunicare con la rete.
Ovviamente le situazioni d’uso sono più complesse ma, collegandosi con altri robot in rete, un modello in Giappone può chiedere a quello inglese come si prepara il the e adatterà alle diverse forme di tazze e utensili le istruzioni del collega britannico. Fulcro del progetto è comunque la capacità di imparare e adattarsi sfruttando sensori tattili, uditivi e visuali.
Un’applicazione davvero interessante che potrebbe essere utile anche in campo industriale: le macchine in linea, ad esempio, potrebbero andare in crisi al variare delle condizioni ambientali rilevate e un sistema di auto-adattività permette di risparmiare tempo e denaro, fondamentali in produzione.

L'esperimento in cui finisce il tempo.

Fonte: Daily Wired

Igor Smolyaninov è un fisico, e ha riprodotto una situazione in cui la quarta dimensione, semplicemente, termina. Tutti ormai lo sappiamo, ai fisici piace giocare con i modelli matematici più particolari, come quelli che descrivono i buchi neri. Per questi cervelli, avere a che fare con la realtà monotona di tutti i giorniè un po' troppo noioso. Ecco, allora, che a volte qualche genio decide di ricreare in laboratorio un modello completamente diverso di spazio in cui, per esempio, il tempo cessa di esistere e la luce subisce delle mutazioni improvvise. È il caso di Igor Smolyaninov, un fisico della University of Maryland che ha pubblicato online uno studio nel quale esplora il destino delle particelle luminose in una situazione in cui il tempo termina. Per farlo, il fisico, ha usato un meta-materiale: uno strato di plastica sottile, il polimetil metacrilato (Pmma). La peculiarità di questo materiale è quella di costringere la luce a muoversi al suo interno in un sistema con due dimensioni di tempo e una di spazio. Una sorta di 'universo ribaltato' rispetto alla realtà tradizionale formata da due coordinate spaziali e una temporale. Quella, per esempio, di una lamina d'oro. Smolyaninov ha sfruttato queste caratteristiche per far passare la luce dal sistema ribaltato a quello tradizionale, cancellando completamente la dimensione del tempo. Per farlo, il fisico ha orientato uno strato di Pmma in modo perpendicolare rispetto a una lamina d'oro. Dopo di che, ha proiettato un raggio di fotoni che ha attraversato l'universo ribaltato (il Pmma) per arrivare fino all'universo reale (l'oro). Quando la luce ha varcato il confine tra i due universi, si è generata una nube di elettroni, plasmoni, in cui la dimensione temporale non esisteva più. Questa improvvisa cancellazione del tempo ha generato una sorprendente quantità di energia. Oltre a questo fenomeno, Smolyaninov ha anche registrato delle variazioni nel campo elettromagnetico delle particelle luminose. Grazie a questo modello sperimentale, al quale pensa di aggiungere dei semiconduttori quantici, il fisico proverà a studiare il comportamento della luce quando viene risucchiata dai buchi neri. E magari in questo modo scoprire il destino dell'Universo.

Realizzato lo sfuggente " pompaggio quantistico".

Fonte: Le Scienze

Per la prima volta è stato misurato in un nanofilo il passaggio di corrente senza un voltaggio applicato, una possibilità prevista teoricamene dalla meccanica quantistica.

Un dispositivo in grado di implementare un meccanismo quantistico predetto dalla teoria ma mai osservato fino ad ora è stato realizzato da un gruppo di ricerca dell'Istituto nanoscienze del CNR (CnrNano): il pompaggio quantistico di elettroni. "Nel mondo classico, per muovere gli elettroni all'interno di un materiale conduttore, si applica una tensione ai suoi capi e gli elettroni, spostandosi, generano una corrente", spiega Francesco Giazotto, primo firmatario dell'articolo pubblicato su Nature Physics in cui è descritta la ricerca. "Ma la teoria prevede che nei dispositivi che operano secondo i principi della meccanica quantistica le cose vadano diversamente e che sia possibile generare una corrente elettrica senza applicare una differenza di potenziale dall'esterno, bensì limitandosi a sfruttare grandezze quantistiche del sistema. Più precisamente, è la variazione nel tempo di opportune grandezze quantistiche che agisce come 'meccanismo di pompaggio', inducendo così il passaggio di una corrente".L'unico tentativo sperimentale di realizzarlo, condotto nel 1999 alla Stanford University, aveva dimostrato la difficoltà di modulare nel tempo le grandezze quantistiche in un dispositivo nanoscopico e non aveva dato risultati conclusivi. Successivamente nessuno si era cimentato nell'impresa. Ora nel nuovo esperimento Giazotto e colleghi hanno utilizzato la superconduttività per modulare le variabili quantistiche e indurre il pompaggio di carica."Abbiamo sfruttato un effetto tipico della superconduttività, l'effetto Josephson, per generare i parametri quantistici dipendenti dal tempo in un dispositivo quantistico superconduttivo, noto come Squid. Ed effettivamente abbiamo misurato il passaggio di corrente senza un voltaggio applicato in un nanofilo di arseniuro di indio incluso nello Squid", spiega Giazotto. "Abbiamo poi verificato che fossero rispettate una serie di simmetrie attese per le grandezze misurate e, dopo prolungate misure, i nostri dati sperimentali sono risultati compatibili con un meccanismo di pompaggio quantistico"."Il prossimo passo - conclude il ricercatore - potrebbe essere quello di realizzare un esperimento analogo ma con materiali totalmente diversi, con l'obiettivo di studiare il ruolo del pompaggio quantistico in sistemi elettronici differenti, come nanotubi di carbonio o grafene, oggi di grande interesse sia per la ricerca che per la tecnologia".

martedì 2 agosto 2011

La materia grigia degli esseri umani ha raggiunto i suoi limiti.


Teniamoci stretti gli Shuttle, i computer quantistici e le nanomacchine, perché forse in futuro non riusciremo a inventare niente di più sofisticato. Che sia chiaro, agli esseri umani non mancano certo le idee, bensì la possibilità di sviluppare qualche connessione neuronale in più. Il nostro cervello, infatti, avrebbe raggiunto il massimo delle sue capacità di elaborazione dati. A dirlo non è un pessimista qualunque, ma Simon Laughlin, neuroscienziato dell’ Università di Cambridge. Secondo Laughlin, coautore di un libro sull’autonomia energetica degli organismi intitolato Work Meets Life, per potenziare le sue capacità cognitive la materia cerebrale avrebbe bisogno di quantità extra di ossigeno troppo elevate. Significa che, per far funzionare il cervello, non possiamo permetterci di spendere più carburante di quanto già non facciamo. “Il nostro cervello consuma energia per funzionare”, spiega Laughlin, “e questo dispendio di risorse è tanto elevato da limitare le performance cerebrali. Significa che c’è un limite alla quantità di informazioni che possiamo elaborare nella nostra testa”.Il problema non è tanto nelle dimensioni del nostro cervello, ma nel grado di interconnessione tra le sue cellule, i neuroni. Come in un computer, per elaborare informazioni più complesse dovremmo prima espandere la potenza del nostro processore aumentando la sua capacità di calcolo. Ma, purtroppo, la nostra centralina cerebrale consuma già il 20% dell’energia prodotta dall’intero organismo. Inoltre, anche se le dimensioni del cervello rimanessero costanti, sarebbe impossibile aumentare la densità dei suoi neuroni miniaturizzandoli ancor di più. Si tratta di un limite fisiologico che, se superato, produrrebbe più danni che benefici.

Tutti i dati raccolti dagli scienziati fanno presagire che per l’essere umano sia arrivata la fine della corsa evolutiva. Il nostro cervello non avrà mai cellule più piccole e numerose né sarà più veloce di quanto non sia già oggi. A ripetere questa triste verità c’è anche Ed Bullmore, uno psichiatra di Cambridge che lavora a fianco di Laughlin. Gli studi di brain imaging di Bullmore hanno dimostrato che nel cervello delle persone dalla mente più brillante gli impulsi cerebrali viaggiano più velocemente del solito. “Si paga un prezzo per l'intelligenza'', spiega lo studioso, ''essere più intelligenti significa migliorare le connessioni tra diverse aree del cervello e questo si scontra contro forti limiti in energia e spazio''.

E' il gene del linguaggio e della parola a regolare i circuiti neurali

Fonte Cordis

Una nuova ricerca mostra che il gene Foxp2, conosciuto per essere associato al linguaggio e alla parola negli esseri umani, aiuta a controllare i circuiti neurali del cervello. Presentato nella rivista PLoS Genetics, lo studio è stato in parte finanziato da una borsa di studio intraeuropea Marie Curie nell'ambito del Settimo programma quadro (7° PQ) dell'UE. Le scoperte aiutano a chiarire come il gene comanda particolari caratteristiche dello sviluppo del sistema nervoso, contribuendo così a gettare un ponte tra i geni e aspetti complessi dell'attività del cervello. Lo studio, realizzato da ricercatori provenienti da Francia, Paesi Bassi, Regno Unito e Stati Uniti, ha scoperto che Foxp2 agisce regolando i livelli di espressione di altri geni. I ricercatori hanno utilizzato delle tecniche su tutto il genoma per identificare gli obbiettivi principali di Foxp2. Questo sistema ha permesso loro di comprendere meglio i compiti del gene nei pathway biologici durante i processi che generano, modellano e riorganizzano il sistema nervoso. Guidato dal Wellcome Trust Centre for Human Genetics, Università di Oxford nel Regno Unito, il team afferma che Foxp2 codifica per una proteina regolatrice, accrescendo così la nostra comprensione di aspetti insoliti dell'attività del cervello. Solo un decennio fa, dei ricercatori scoprirono che mutazioni del gene umano innescano una rara forma di disturbo della parola e del linguaggio. Quindi, nei 10 anni successivi, vennero avviati molti studi sul gene umano e sulle versioni corrispondenti trovate in altre specie. Gli scienziati scoprirono, ad esempio, che la mutazione influenza l'imitazione vocale negli uccelli canterini. Dati gli scopi dello studio, il team, guidato dai dottori del Wellcome Trust Centre for Human Genetics Sonja C. Vernes e Simon E. Fisher, ha esaminato il ruolo del gene come regolatore di intensità genetico, che aumenta o diminuisce la produzione da parte di altri geni. Il loro screening di tessuto cerebrale embrionale li ha portati a individuare un certo numero di nuovi obbiettivi regolati da Foxp2. Per molti di questi obbiettivi, essi affermano, è già stato riconosciuto il loro ruolo nella connettività del sistema nervoso centrale. I ricercatori hanno scoperto che modificando i livelli di Foxp2 nei neuroni si influenzavano la lunghezza e le ramificazioni delle proiezioni neuronali, che gli esperti ritengono essere importanti nella modulazione dei circuiti del cervello in fase di sviluppo. "Noi abbiamo fatto seguire degli esperimenti funzionali ai dati sul genoma, mostrando che Foxp2 influisce sulla escrescenza dei neuriti nei neuroni primari e nei modelli di cellula nervosa," scrivono gli autori. "I nostri dati indicano che Foxp2 modula la formazione della rete neuronale, regolando in modo diretto e indiretto i mRNA coinvolti nello sviluppo e nella plasticità delle connessioni neuronali." "Studi come questo sono fondamentali per gettare un ponte tra i geni e gli aspetti complessi dell'attività del cervello," ha commentato il dott. Fisher, che guida anche il Language and Genetics Department creato di recente presso l'Istituto Max Planck di Psicolinguistica nei Paesi Bassi . "Lo studio in corso fornisce la più dettagliata caratterizzazione dei percorsi dei target di Foxp2 mai realizzata. Essa offre un buon numero di convincenti nuovi geni candidati che potrebbero essere esaminati in soggetti con problemi di linguaggio."
Per maggiori informazioni, visitare: Wellcome Trust Centre for Human Genetics:
http://www.well.ox.ac.uk/home PLoS Genetics: http://www.plosgenetics.org/home.action Azioni Marie Curie: http://ec.europa.eu/research/mariecurieactions/
ARTICOLI CORRELATI: 33299
Categoria: Risultati dei progettiFonte: PLoS Genetics; Wellcome Trust Centre for Human GeneticsDocumenti di Riferimento: Vernes, S. C. et al.. (2011) "Foxp2 Regulates Gene Networks Implicated in Neurite Outgrowth in the Developing Brain". PLoS Genetics, 7 (7): e1002145 DOI: 10.1371/journal.pgen1002145Acronimi dei Programmi: MS-FR C, MS-NL C, MS-UK C, FP7, FP7-PEOPLE, FUTURE RESEARCH-->Codici di Classificazione per Materia: Biotecnologia; Coordinamento, cooperazione; Scienze biologiche; Ricerca scientifica
RCN: 33670

sabato 18 giugno 2011

Il sapore mutevole dei neutrini.

Fonte: Le Scienze

I ricercatori parlano di indizi e non di scoperta perché il terremoto che ha colpito il Giappone il 11 marzo 2011 ha costretto a sospendere l'esperimento per i danni all'acceleratore J-PARC, sito a meno di 200 chilometri da Fukushima. Dopo un tragitto sotterraneo di 295 chilometri, un fascio di neutrini sparato dal Proton Accelerator Research Complex (J-PARC), situato sulla costa orientale del Giappone, ha raggiunto il rivelatore Super-Kamiokande, situato sulla costa occidentale, che ha rilevato un cambiamento del loro "sapore". Se la scoperta verrà confermata, potrebbe contribuire a spiegare perché l'universo è fatto di materia, piuttosto che anti-materia. I neutrini sono particelle elementari che si possono presentare in tre modalità, o "sapori": muonici, elettronici e tau. In esperimenti precedenti, i fisici hanno misurato il cambiamento di neutrini muonici in neutrini tau e di neutrini elettronici di neutrini muonici e neutrini tau."Ma nessuno aveva visto neutrini muonici trasformarsi in neutrini elettronici", ha detto Chris Walter, della Duke University, che partecipa alla collaborazione internazionale T2K, volta specificamente allo studio di queste sfuggenti particelle. I ricercatori hanno determinato il sapore dei neutrini prima in prossimità dell'acceleratore e quindi al loro arrivo al Super-Kamiokande: sei delle 88 particelle che sono stati in grado di rilevare avevano iniziato la loro vita come neutrini muonici per trasformarsi strada facendo in neutrini elettronici. "Così com'è, questo risultato è estremamente interessante, ma siamo solo agli inizi," ha detto Walter, spiegando che purtroppo è stato possibile eseguire solamente il due per cento delle misurazioni previste a causa del terremoto che ha colpito il Giappone il 11 marzo 2011 e ha costretto alla sospensione di T2K, che si spera possa riprendere entro la fine dell'anno. Intanto, i risultati preliminari sono stati presentati per la pubblicazione sulle Physical Review Letters.Oggetto della misurazione è un parametro fondamentale,il cosiddetto theta-13, che controlla il passaggio da neutrino muonico a elettronico. "La buona notizia è che abbiamo indizi che theta-13 è grande, e che può essere 'abbastanza' grande": se theta-13 è grande, può permettere agli scienziati di misurare la differenza fra le oscillazioni dei neutrini e degli anti-neutrini. Nell'universo primigenio, spiega Walter, "qualcosa ha causato l'esistenza di un po' più di materia rispetto all'anti-materia. Quando materia e anti-materia si sono annientate, è rimasto quel po' di materia in più, che è tutto ciò che vediamo oggi. Ma non si capisce come sia successo. La differenza tra le proprietà di neutrini e anti-neutrini che potremo misurare negli esperimenti futuri potrebbero dare indizi su come la materia sia stata generata in eccesso." (gg)

Un filmato in 3-D del modo in cui cambia il cervello mentre si sviluppa l'azione di un farmaco anestetico.

Fonte: Le Scienze

I risultati di uno studio corroborano l'ipotesi secondo cui la coscienza sarebbe la manifestazione di una efficiente collaborazione di differenti gruppi di cellule cerebrali. Per la prima volta un gruppo di ricercatori è stato in grado di osservare che cosa succede al cervello nel momento in cui si perde conoscenza. Grazie a sofisticate apparecchiature di imaging sono stati in fatti in grado di ricostruire un filmato in 3-D del modo in cui cambia il cervello mentre si sviluppa l'azione di un farmaco anestetico. Il filmato è stato presentato e illustrato al Congresso europeo di Anestesiologia in corso ad Amsterdam.Secondo i ricercatori, diretti da Brian Pollard dell'Università di Manchester, la perdita di coscienza implica un cambiamento in profondità di attività elettrica cerebrale, con un'alterazione dell'attività di alcuni gruppi di neuroni che ostacola la comunicazione tra le diverse parti del cervelloI risultati sembrano così corroborare l'ipotesi secondo cui la coscienza sarebbe la manifestazione di una efficiente collaborazione di differenti gruppi di cellule cerebrali, in funzione anche degli stimoli sensoriali disponibili, e che essa non costituisca uno stato "tutto o niente", ma che sia paragonabile piuttosto a un varialuce, che si modula in rapporto a crescita, umore, farmaci ecc. Quando una persona viene anestetizzata, diversi piccoli gruppi di neuroni o collaborano meno o inibiscono la comunicazione con altri gruppi. Per realizzare il filmato, i ricercatori sono ricorsa a una variante della tecnica di imaging tomografia a impedenza elettrica (EIT), chiamata FEITER (functional electrical impedance tomography by evoked response), che consente la visualizzazione ad alta velocità e il monitoraggio in profondità dell'attività elettrica cerebrale."Siamo stati per la prima volta in grado di vedere in tempo reale una perdita di coscienza in regioni anatomicamente distinte del cervello. Stiamo lavorando per cercare di interpretare i cambiamenti che abbiamo osservato. Ancora non sappiamo esattamente che cosa succeda al suo interno quando si verifica una perdita di coscienza, ma questo è un altro passo nella direzione della comprensione del cervello e le sue funzioni", ha concluso Pollard. (gg)

Realizzato un fascio laser con una lunghezza d'onda di 1,2 Angstrom, la più breve mai misurata.

Fonte: Le Scienze

Laser con lunghezze d'onda così brevi permettono di osservare direttamente e di manipolare oggetti a scala atomica, con uno spettro di applicazioni che va dalla medicina alla progettazione di nuovi farmaci. Il centro di ricerca giapponese RIKEN e il Japan Synchrotron Radiation Research Institute (JASRI) hanno realizzato un fascio laser con una lunghezza d'onda di 1,2 Angstrom, la più breve mai misurata.
L'incredibile risultato è stato raggiunto utilizzando il SACLA (Spring-8 Angstrom Compact free electron Laser) un laser a elettroni liberi a raggi X (XFEL), presentato presso il RIKEN nel febbraio di quest'anno ad Harima, in Giappone, che apre al strada allo studio della struttura di atomi e molecole a un livello di dettaglio mai raggiunto finora.
L'uso della radiazione laser per indagare la struttura della materia, inconcepibile fino a pochi anni fa, sta letteralmente trasformando le tecniche di visualizzazione del mondo atomico. Grazie a lunghezze d'onda molto più brevi e intensità molto maggiori rispetto ad altri laser, l'XFEL permette di osservare direttamente e di manipolare oggetti a scala atomica, con uno spettro di applicazioni che va dalla medicina alla progettazione di nuovi farmaci.
Il SACLA, uno dei due dispositivi al mondo a offrire questa nuova sorgente di luce, ha la capacità di produrre radiazione un miliardo di volte più energetica e con impulsi mille volte più corti di qualunque altra sorgente di raggi X. Nel marzo di quest'anno, l'impianto ha posto una prima pietra miliare con accelerazioni di fascio fino a 8 GeV e generazione spontanea di raggi X di 0,8 Angstrom.
Solo tre mesi dopo, è stato raggiunto un secondo risultato fondamentale: il 7 giugno il SACLA ha incrementato con successo la densità del fascio di elettroni di alcune centinaia di volte e lo ha diretto con una precisione di alcuni micron per produrre un laser a raggi X con una lunghezza d'onda di soli 1,2 Angstrom. La nuova misura è ben oltre il precedente record di 1,5 Angstrom stabilito nel 2009 nell'unica altra struttura operativa di XFEL del mondo, il Linac Coherent Light Source (LCLS) degli Stati Uniti. (fc)

Il ruolo del rame nel Parkinson

Fonte: Le Scienze

Scoperto il modo in cui il rame determina un anomalo ripiegamento di una proteina, l'alfa-sinucleina, portando alla formazione delle fibrille che caratterizzano la malattia. Il modo il cui il rame induce un ripiegamento anomalo di una proteina associata alla malattia di Parkinson, portando alla formazione delle caratteristiche placche fibrillari è stato chiarito da una ricerca condotta presso la North Carolina State University. La proteina coinvolta, l'alfa-sinucleina, è infatti il componente principale delle placche fibrillari.Da tempo si era scoperto che alcuni metalli, fra cui il rame, possono aumentare il tasso di ripiegamento anomalo di questa proteina, aumentandone la deposizione in fibrille, ma non eran noti i meccanismi che intervengono nel processo. "Sapevamo che il rame era in grado di interagire con una certa sezione della proteina, ma non avevamo un modello di ciò che stava accadendo a livello atomico", osserva Rose Frisco, prima firmataria dell'articolo pubblicato su Nature Scientific Reports che descrive la ricerca.Il problema del modo in cui si ripiegano le proteine per assumere la specifica conformazione indispensabile alla loro funzionalità rappresenta un problema estremamente complesso anche dal punto di vita matematico, tanto che fino a pochi anni fa era considerato alla di fuori delle possibilità di elaborazione dei più potenti computer. In questo caso a tale complessità si aggiungeva quella di identificare i possibili siti di interferenza da parte del rame. Per poter fra fronte alla mole di calcoli necessari per risolvere le equazioni che descrivevano il processo, i ricercatori sono dovuti ricorrere al supercomputer Jaguar dell'Oak Ridge National Laboratory."Comprendere il meccanismo molecolare della malattia di Parkinson potrebbe aiutare i ricercatori nello sviluppo di nuovi farmaci che curino la malattia e che non si limitino ad alleviare i sintomi", ha osservato Jerzy Bernholc, coautore della ricerca. (gg)

Ciascuno di noi nasce con circa 60 nuove mutazioni genetiche, assenti nel genoma dei genitori.

Fonte: Le Scienze

Ciascuno di noi nasce con circa 60 nuove mutazioni genetiche, assenti nelgenoma dei genitori. E' questa la stima fatta sulla base dei risultati delle prima ricerca che abbia misurato direttamente le nuove mutazioni nel genoma umano provenienti da madre e padre, diretta da Matt Hurlesdel Wellcome Trust Sanger Institute e Philip Awadalla del 1000 Genomes Project, e pubblicata su Nature Genetics. Sebbene la maggior parte delle specificità di un individuo derivi dal rimescolamento dei geni dei genitori, anche le nuove mutazioni sono una importante fonte di variazione e novità. Trovare nuova mutazione è tecnicamente molto impegnativo, perché, in media, solo 1 su 100 milioni di lettere di DNA viene alterata ogni generazione.Finora le misurazioni sui tassi di mutazione nell'essere umano erano state ottenute come medie fra i sessi e/o su diverse generazioni, mentre non era mai stata tentata una misurazione delle nuove mutazioni fra un genitore e un figlio su più soggetti o famiglie. Il risultato deriva da un attento studio di due famiglie: i ricercatori hanno cercato nuove mutazioni presenti nel DNA dei bambini ma assenti nel genoma dei genitori, distinguendo fra quelle che si sono verificate durante la produzione di spermatozoi o uova dei genitori e quelle che possono essersi verificate nel corso della vita del bambino. In una famiglia il 92 percento delle mutazioni derivava dal padre, mentre nell'altra questa percentuale era appena del 36 per cento. "Da tempo i genetisti umani hanno ipotizzato che i tassi di mutazione potrebbero essere differenti fra i sessi o fra le famiglie", osserva Hurles. "Ora sappiamo che in alcune famiglie la maggior parte delle mutazioni deriva dalla madre, mentre in altre deriva dal padre, e questa è una sorpresa poiché molti si aspettavano che in tutte le famiglie le mutazioni derivassero per lo più dal padre visto il numero di volte maggiore che il genoma deve essere copiato per produrre uno spermatozoo, a differenza di quanto avviene per le cellule uovo.""Oggi, siamo stati in grado di testare le teorie precedenti grazie allo sviluppo di nuove tecnologie sperimentali e di nuovi algoritmi di analisi. Questo ci ha permesso di trovare queste nuove mutazioni, che sono come aghi molto piccoli in un pagliaio di grandi dimensioni", ha aggiunto Awadalla. (gg)

domenica 12 giugno 2011

Vita: gli ingredienti li hanno portati i meteoriti

Fonte: Galileo.it

A più di un decennio dal loro arrivo sulla Terra, i frammenti del meteorite di Tagish Lake hanno cominciato a “parlare”. E hanno confermato una delle ipotesi più accreditate sulle origini del materiale organico - cioè a base di carbonio, l’elemento costituente degli organismi viventi - presente nel nostro Sistema Solare: deriverebbe tutto da una stessa fonte, e precisamente dal cosiddetto mezzo interstellare (ISM). Significa che le molecole probiotiche come gli aminoacidi, da cui si è poi originata la vita sulla Terra, potrebbero effettivamente essere giunte in sella agli asteroidi. Dove si sarebbero anche differenziate grazie a processi idrotermali.
A ricostruire la storia di queste molecole è stato un gruppo di ricerca del Dipartimento di Magnetismo Terrestre della
Carnegie Institution (Stati Uniti) e dell'Università di Alberta (Canada), i cui risultati sono stati pubblicati su Science. Ciò che contraddistingue questi reperti – hanno spiegato i ricercatori - è il fatto di contenere campioni dei materiali che verosimilmente presero parte alla formazione dei pianeti del nostro Sistema Solare, circa 4,6 miliardi di anni fa”.
Gli studiosi, guidati da Christopher Herd, hanno preso in esame quattro campioni della pioggia di meteoriti che nel gennaio del 2000 si riversò nell'area del lago Tagish, nell'estremo Nord del Canada. I campioni sono considerati tra i più incontaminati mai giunti in laboratorio: caddero sulla superficie ghiacciata di un lago, furono raccolti senza contatto manuale e da allora sono sempre rimasti ghiacciati. Proprio queste loro caratteristiche li hanno resi il banco di prova ideale per indagare l'origine della grande variabilità nel tipo di materiale organico presente nei vari frammenti meteoritici di tutto il mondo.
Dalle analisi condotte da Herd e colleghi è emerso che l’elevata variabilità è il risultato di un'attività idrotermale che ha avuto luogo nell'arco di qualche milione di anni dalla formazione del Sistema Solare, quando i meteoriti erano ancora parte di corpi celesti più grandi, verosimilmente asteroidi. La scoperta, dunque, suggerisce che la diversità organica all'interno di uno stesso meteorite, o tra più meteoriti, sia dovuta principalmente a processi chimici e termali avvenuti nell'asteroide di origine.
Il team si è concentrato sia sulle molecole organiche non solubili sia su quelle solubili. In queste ultime è stata registrata un'altissima concentrazione (da 10 a 100 volte più elevata del normale) di molecole di “interesse probiotico”, come aminoacidi, nucleobasi, acidi monocarbossilici (MCAs), zuccheri e idrocarboni policiclici aromatici. “La tipologia e l'abbondanza degli aminoacidi presenti nei campioni, in particolare, sono coerenti con l'ipotesi di una comune origine extraterrestre”, precisano gli autori. “Allo stesso tempo, sono chiaramente influenzati, secondo dinamiche complesse, dalle storie dei meteoriti da cui derivano. Campioni come quelli ritrovati nel lago canadese possono ancora fornirci indizi preziosi sulla fonte del materiale organico – e dunque della vita – sul nostro pianeta”.
Riferimento:
DOI: 10.1126/science.1203290
Credit Immagine: Michael Holly, Creative Services, University of Alberta

Nuove proprietà ottiche per il grafene

Fonte: Le Scienze

Le eccezionali doti di questo materiale potrebbero essere sfruttate in modo conveniente nelle applicazioni elettroniche. La possibilità di metamateriali bidimensionali - ovvero costituiti da uno strato monoatomico - è stata proposta dai ricercatori del Department of Electrical and Systems Engineering dell'Università della Pennsylvania, secondo uno schema che prevede l'utilizzo di grafene.
Lo studio dei metamateriali è un campo interdisciplinare tra scienza e ingegneria che è cresciuto notevolmente in anni recenti: esso si basa sull'idea che i materiali possano essere progettati in modo che le loro proprietà ondulatorie siano determinate non solo dal materiale di cui sono costituite, ma anche dalla disposizione, dalla forma e dalle dimensioni delle irregolarità, note anche come inclusioni o “meta-molecole”, che sono presenti nel materiale “ospite”.
“Calibrando le proprietà delle inclusioni, così come la loro forma e densità, è possibile ottenere proprietà d'insieme che difficilmente si trovano in natura”, ha commentato Nader Engheta che ha guidato la ricerca e firmato l'articolo di resoconto sulla rivista Science.
Queste proprietà inusuali hanno a che fare generalmente con la manipolazione delle onde elettromagnetiche o di quelle acustiche; in questo caso si tratta delle onde nell'infrarosso. Del cambiamento di forma, velocità e direzione di questo tipo di onde si interessa un sottocampo della disciplina noto come “ottica di trasformazione” e può trovare applicazione in molti ambiti, dalle telecomuniczioni all'elaborazione dei segnali.
Engheta e colleghi hanno ora mostrato come l'ottica di trasformazione possa essere ottenuta utilizzando il grafene, un “foglio” di atomi di carbonio di spessore monoatomico.
Molti ricercatori, tra cui quelli della Penn University, hanno cercato in anni recenti di sviluppare nuovi metodi di produzione e manipolazione del grafene, poiché le sue eccezionali doti di conducibilità potrebbero essere sfruttate in modo conveniente nelle applicazioni elettroniche. L'interesse di Engheta e colleghi era focalizzato sulla capacità del graenene di trasportare e "guidare" le onde elettromagnetiche oltre alle cariche elettriche.In quest'ultimo studio, si è dimostrato come l'applicazione di una tensione elettrica al foglio di grafene possa cambiare sia la conducibilità elettrica, sia la trasmissione delle onde elettromagnetiche realizzando in sostanza un'ottica di trasformazione. (fc)