martedì 30 giugno 2009

CERN,LHC: Intervista a Fabiola Gianotti, ricercatrice al progetto ATLAS.


Fonte: Libero News
(Un articolo di Giancarlo Meloni)
-----------------------------------------------------
La Macchina di Dio
Sarà un segno del destino, ma la fisica continua a litigare col tempo. Ha cominciato con Einstein ad anticipare il tempo futuro, e ora si volta a guardare il passato: una rivisitazione del Cosmo con una specie di enorme microscopio, appunto Lhc, che guarda indietro nei miliardi di anni trascorsi, fino a un decimo di miliardesimo di secondo dal Big Bang, l’esplosione da cui tutto ha avuto origine. Soprattutto con lo scopo di scoprire la supersimmetria dell’Universo, dove ciascuna particella, la conosciamo o no, avrebbe sempre la sua particella simmetrica, una specie di partner in ambito oscuro dotato di caratteristiche complementari, come quella di essere più pesante e con numero quantico diverso. Quasi a dire: l’unico modo per avvicinarsi alla verità è cercarla nel suo simmetrico.
Spetta sempre alla fisica il compito di fare luce tra le cose non ancora chiarite che sono nell’aria. Perché nessuno sembra ancora sapere neppure dove materialmente stiamo andando e quando saremo certi di essere arrivati. Ed è ora di dirlo.
Nell’ottobre prossimo, Lhc si metterà dunque di nuovo in moto. Sono mesi e mesi che diecimila fisici e ingegneri, e metà del mondo, aspettano questa occasione: verificare le cose come stanno, conoscere e fare conoscere i fatti, non le chiacchiere i pettegolezzi le fantasie dei media, tipo buchi neri che divorano la Terra. E tutto anche per ridare una reputazione alla fisica dopo che, per causa di un esperimento cominciato male, se l’era vista un po’ rovinata.
L'Esperimento
Cern di Ginevra, 19 settembre 2008. Il Large hadron collider (Grande collisore di adroni) è stato avviato da 9 giorni nel gigantesco tunnel sotterraneo – 100 metri di profondità, 27 chilometri di lunghezza – dove due fasci di protoni che si muovono in direzioni opposte hanno iniziato a circolare, a velocità via via sempre più simile a quella della luce, per rendere possibile l’insolito fenomeno della trasformazione di energia in materia e migliaia di altri “eventi” finora in gran parte inesplorati.
Sono le 11,20 del mattino e i responsabili dell’avveniristica operazione, riuniti in una sala controllo, ricevono la notizia dell’incidente: un’esplosione, una fiammata, il pavimento di uno dei 1232 cilindri metallici di Lhc ha ceduto, una fuga di elio liquido rende l’aria irrespirabile. Forti l’emozione e la delusione dei presenti, tutti piuttosto euforici per i buoni risultati fino al momento ottenuti. Fra loro c’è anche una giovane signora, Fabiola Gianotti, che adesso, seduta a una scrivania del suo laboratorio, commenta quel difficile momento con una bella voce quasi da ragazzina e l’aria un po’ scanzonata di chi sa passare immediatamente dal ricordo all’azione: «Nessun dramma. Siamo fisici e sappiamo che l’errore è sempre da mettere in conto. Ci si rimbocca le maniche e si riparte subito».
Tempi duri, donne dure
«Quando i tempi sono duri servono uomini duri», ha detto Erwin Schrödinger, Nobel per la fisica nel 1933. «E questi quasi sempre sono donne». Sembra una battuta, ma è realtà bella e buona, specie dopo quanto accaduto in questo ultimo anno al Cern di Ginevra, che anche per rimettere le cose in carreggiata dopo l’imbarazzante flop del 19 settembre ti chiama in fretta e furia una scienziata piuttosto fuoriclasse e il 1° marzo 2009 la nomina direttore di “Atlas”, 3000 fisici e ingegneri alle sue dipendenze, il più grande dei quattro “progetti” su cui è incardinato l’intero, colossale esperimento Lhc.
La fisica europea ha dunque oggi una specie di Milite Ignoto che si chiama Fabiola Gianotti. Ignoto per modo di dire, beninteso. Non c’è istituto di ricerca, di casa nostra o straniero, non c’è comitato scientifico internazionale, non c’è studioso della materia che ne ignori il nome, l’attività, il valore. Ma la gran massa del pubblico non la conosce anche perché non fa nulla per farsi conoscere. Non è scontrosa, ma sta in disparte. Finché ci riesce.
Laureata in fisica delle particelle all’Università di Milano, dottorato di ricerca in fisica subnucleare, membro del Comitato supervisore del “Fermilab” di Chicago (il più importante laboratorio di ricerca Usa) e del Consiglio nazionale delle ricerche francese, immaginavo di trovare in lei una di quelle severe e autoritarie docenti universitarie che si esprimono con parole e concetti comprensibili a pochi. Tutto il contrario. Ha l’aria e i modi della “ragazza della porta accanto”, i capelli scompigliati, il fisico scattante di una sportiva che va sempre di corsa, più che della scienziata immersa nei calcoli. Eppure col talento che ha potrebbe permettersi qualunque cosa, senza aver l’aria di abusare. Mettetele sul naso un paio di occhialini cerchiati d’oro e avrete il più perfetto tipo di manager all’americana, di quelli che ti pianificano in un lampo il lavoro di migliaia di tecnici. Non le manca nemmeno, a tratti, una sfumatura di freddezza, come debbono averla, penso, simili grandi capi, anche se è chiaro che per lei è come un paio di scarpe strette, prima te le levi dai piedi meglio stai.
Fantasia e umiltà
«Alla sua età già responsabile di un progetto come Atlas, le è andata bene», dico sperando di toccare un tasto sensibile.
«Benino», si schermisce con malizia, senza mostrarsi né compiaciuta né infastidita, sebbene l’interesse che la sua nomina ha suscitato confermi che si tratta di un fatto piuttosto eccezionale, anzi unico. «Ma vede», continua senza prendere fiato come se nella domanda ci fosse una trappola incorporata, «per andare avanti, oltre a passione entusiasmo fantasia, serve soprattutto molta umiltà. Come diceva Newton, quello che conosciamo è una goccia d’acqua, quello che non conosciamo, un mare. Me lo ripeto sempre».
Il trasferimento in Svizzera
Peraltro, Fabiola questa difficile promozione non c’è dubbio che se l’è guadagnata alla grande. Dopo laurea e dottorato di ricerca si è caricata sulle spalle il sacco dell’emigrante e ancora oggi, passati vent’anni, non l’ha abbandonato. Concorso dopo concorso, una borsa di studio via l’altra, Parigi Chicago, nel 1994 vince al Cern di Ginevra un posto permanente di ricercatore e si trasferisce definitivamente in Svizzera dove inizia subito a occuparsi della progettazione e della costruzione di Lhc, con una parentesi tra il 1996 e il 2001 in Aleph, uno degli esperimenti realizzati all’acceleratore Lep, il predecessore di Lhc. A poco a poco cresce assieme alla superstruttura che ora dirige e che, come ci si aspetta, rivoluzionerà la fisica e le nostre conoscenze dell’Universo.
Quando lei non è qui, al Cern, a poca strada dal lago di Ginevra, in questo suo ufficio nella sala di controllo di Atlas fra prati alberi giardini con vista del monte Bianco e delle montagne del Giura, che è situato esattamente sopra il rivelatore Atlas - sottoterra nel tunnel di Lhc, alto come una casa di sei piani e pesante come la Torre Eiffel - dove vive? E quando non lavora con fasci di protoni e adroni, cosa fa?
«Ore e ore tra jogging, nuoto e musica. Sono diplomata al Conservatorio di Milano, suono il pianoforte, musica classica, Schubert, Chopin, Bach. Mi piace leggere, specialmente Thomas Eliot, quello di “Assassinio nella cattedrale”, e Flaiano. Mi diverte cucinare, organizzare cene con gli amici. Le torte al cioccolato e alla crema sono la mia specialità. In un certo senso anche la pasticceria è una scienza esatta perché gli ingredienti vanno calcolati con precisione, come in laboratorio. Dove abito? Qui vicino, in una casa molto graziosa che guarda sul lago».
Dunque un’esistenza che non si riassume affatto nella sua eccezionale carriera, anche perché scopri in fretta, è lei a confessarlo, che questa primadonna della ricerca nucleare ha una doppia vita perfetta, dove l’eleganza dell’abbigliamento e lo shopping hanno un posto di primo piano, e le belle scarpe, quelle che costano un occhio, rappresentano per lei una specie di attrazione fatale. Ne ha moltissime, di ogni tipo. Suo fratello, ingegnere, la chiama Imelda Marcos.
Mentre sollecito risposte le guardo le mani. Sono lunghe e molto belle. Ma credo che nessuno le abbia mai viste ferme perché scommetto che non lo sono neanche quando dorme. Mani che sanno lavorare, da usare con l’istintiva abilità della donna e del fisico. I fisici infatti operano personalmente pure sui macchinari più complicati, non hanno bisogno di tecnici, o di operai. Tali e quali Fermi e Segrè, Rasetti e Amaldi, nel mitico Istituto di via Panisperna.
Un’altra mia curiosità. In due parole, qual è il primo obiettivo che lei si propone di raggiungere con questo superimpianto Lhc, che è un po’ anche una sua creatura considerato che lei ha contribuito a farlo nascere, a cominciare dalla progettazione e costruzione del calorimetro di Atlas?
«Io credo che questo esperimento possa segnare una svolta nella ricostruzione della grande avventura dell’Universo e che darà soluzioni e spiegazioni a problemi e interrogativi fondamentali relativi alla struttura della materia, all’origine della massa, alla composizione del Cosmo. Atlas e Cms (l’altro grande progetto, coordinato dall’indiano Tejinder Virdee) cercheranno di risolvere misteri del tipo: i quark sono costituenti elementari della materia o sono a loro volta costituiti da altre particelle? Esiste il bosone di Higgs, cosiddetto di Dio, la particella ipotizzata per spiegare il fatto che particelle elementari possiedono una massa? Di cosa è fatta la materia oscura, che rappresenta il 20% dell’universo, e di cui non sappiamo niente? Soprattutto vogliamo scoprire la particella supersimmetrica che può spiegare questo mistero».
La passione per il tacco 12
Ci vorranno fiuto e fortuna eccezionali per ottenere questi risultati, inserirli nel giro logico di un sistema perfetto, provarli e riprovarli, averne la verifica. Uno pensa: in un ambiente come quello della scienza, in cui tutti sono classificati in base alla riuscita, una donna al vertice non stona. Se però ha l’aspetto e la voce di una trentenne, la incontri in tuta e scarpette da ginnastica mentre corre nei vialetti del Cern, o magari la sorprendi mentre nelle boutiques di Ginevra si compra “décolléte” con 12 centimetri di tacco, qualcosa comincia a cambiare. Ma tant’è. Lei se ne infischia. Non riuscirebbe, anche se volesse, a essere diversa. Il fatto è che questa signora è nata con l’autorevolezza in corpo: un dono indefinibile, che pochissimi hanno, che non si sa bene in cosa consiste e dove risiede, e di cui lei stessa sembra non essere consapevole.
Senza apparente fatica, puntuale come un orologio svizzero, ogni giorno alle 7,30 Fabiola Gianotti è al lavoro nel suo ufficio o nella sala controllo di Atlas, oppure nell’anello sotterraneo di Lhc, dove si battono i denti perché la temperatura è polare (all’interno dei 1232 cilindri metallici è prossima allo zero assoluto, -271 Centigradi), pronta a affrontare enormi, eterni enigmi scientifici da togliere il fiato. E spesso si è già macinata un’ora di jogging. Perché, uno si chiede, qualche star di cinema o tivù, di quelle che giudicano la puntualità incompatibile col prestigio, non è lì a vederla? La lezione gioverebbe.
«L’unica conferma della validità di un’idea è l’esperimento», ha scritto il grande fisico americano Richard Feynemann. Nel mondo di oggi la forza di questo concetto ha lasciato sulla scienza un’impronta profonda e ora, con Lhc, si presenta la migliore occasione: quella di potere finalmente “toccare con mano” autentici misteri universali.
La ipotetica formazione di buchi neri all’interno di Lhc, voragini capaci di inghiottire la Terra, sarà un rischio probabile? chiedo.
«È una paura ridicola. Per un evento così sarebbe necessaria una quantità enorme di energia che non potrà mai essere ottenuta in nessun esperimento artificiale. E c’è da dire che nello spazio si registrano continue collisioni, circa diecimila al secondo, da cui si sprigionano energie miliardi di volte superiori a quelle che otterremo noi, e finora nessuna ha mai provocato catastrofi».
Quali risultati prevede, o spera, da Lhc?
«Verificare se in natura esistono altre forze oltre a quelle che conosciamo, scoprire nuove particelle elementari, studiare l’infinitamente piccolo per poter capire l’infinitamente grande. In particolare, ricercare e individuare le particelle supersimmetriche anche perché una di queste, il “neutralino” ammesso che esista, oppure qualcosa di equivalente, potrebbe spiegarci la materia oscura, di cui non sappiamo niente. Le nostre attuali conoscenze dell’Universo sono poche. Ci risulta che solo il 5% è composto degli atomi che conosciamo, mente il 20% è materia oscura e il 75% energia oscura. I rivelatori Atlas e Cms cercheranno di risolvere incognite di questo tipo, mentre il rivelatore LhcB, coordinato dal fisico russo Andrei Golutvin, indagherà sul perché c’è così poca antimateria nel nostro universo e il rivelatore Alice, diretto dal tedesco Jurgen Schukraft, studierà le caratteristiche di un particolare stato di materia: il plasma di quark e gluoni, le particelle che tengono uniti i quark».
Difficile uguagliare il taglio nitido e chiaro delle spiegazioni. Non fa pesare la eccezionale preparazione fisicomatematica, e la sua modestia, non sappiamo fino a che punto sincera, ti fa spesso venir voglia di ringraziarla.
Il camice bianco e i maglioni
Ci sono in giro molte fotografie di Fabiola Gianotti. Nessuna somiglia all’altra anche se tutte somigliano all’originale. C’è una Fabiola bruna e notturna come un’ala di corvo e ce n’è un’altra leggera e trasparente come una guaina di cellofan; ce n’è una loquace, che ispira confidenza, e un’altra taciturna, che mette soggezione. Come diavolo faccia questa donna a trasformarsi nello spazio di pochi minuti o secondi soltanto lei lo sa, o forse non lo sa nemmeno lei. In ogni caso, non c’è dubbio che è molto meglio delle sue immagini che circolano. Alta, sottile, porta eretto sul collo un volto asciutto, dai lineamenti delicati e in rilievo, incorniciato da capelli corvini che le fanno aureola sulla fronte. Le parsimoniose misure d’ordinanza che il Cern e le continue riunioni di vertice prescrivono le vanno un po’ strette, in tutto: dal camice bianco, che indossa pochissimo, ai giacconi, casco e maglioni che il freddo del tunnel sotterraneo richiede.
I fatti parlano chiaro, diceva il solito beninformato: le scienze esatte sono per i cervelli maschili! Fabiola Gianotti è la dimostrazione del contrario. E che un grande scienziato può sempre arrivare primo, anche se è donna. Anche se è interamente “fatto in casa”, figlia com’è di un geologo piemontese e di una laureata in lettere siciliana, cresciuta e educata a Milano da illustri maestri italiani (Mandelli, Di Lella, Fiorini) nella scuola di fisica di via Celoria. «Non è seconda a nessuna, almeno in Europa», sottolinea. Poi con la consueta calma e l’istintivo ottimismo aggiunge: «Stiamo consolidando l’acceleratore Lhc in tutte le sue giunture. Entro ottobre ripartiamo. I primi giri dei fasci di protoni erano andati benissimo. Quindi una doccia fredda, ma è passata».
E già Fabiola Gianotti pensa alla costruzione di un altro acceleratore elettrone-positrone, una macchina di grandissima potenza e precisione per approfondire le nuove conoscenze che Lhc fornirà.



17. Fabiola Gianotti, LHC Collisions, épisode 17
by lhc_collisions

domenica 28 giugno 2009

R.Mallett e J.Magueijo, due menti, due geniali teorie e molti punti in comune.


Ronald L.Mallett,è un professore di fisica (P.hD) ed insegna all’Università del Connecticut,negli Stati Uniti. La sua notorietà, è dovuta quasi esclusivamente ad un progetto (da lui stesso voluto e portato avanti da lungo tempo), per la realizzazione di una“Macchina del Tempo”. (Foto in alto)
João Magueijo, è anch’egli un fisico teorico nonché assistente (l’equivalente di un professore di ruolo negli Stati Uniti) all’Imperial College di Londra. La sua notorietà è dovuta essenzialmente all’ipotesi (da egli stesso sostenuta) che la velocità della luce non sia costante nell’Universo; da questa premessa ha elaborato una serie di teorie legate ai concetti di Relatività Speciale e Generale,che assieme prendono il nome di VSL (l’acronimo si traduce in: Varying Speed of Light). (Foto in basso)

Con queste parole, R.Mallett, da forma all’introduzione dell’articolo pubblicato su “Physics Letters” l’otto maggio del 2000, ed intitolato: “ Il Campo Elettromagnetico debole, della Radiazione Elettromagnetica in un anello laser”: “Il Campo Gravitazionale dovuto al flusso circolare di una radiazione elettromagnetica, che emerge da un anello laser unidirezionale, è definito risolvendo le equazioni lineari di campo di Einstein, ad ogni punto interno dell’anello laser. Le equazioni di spin della teoria Generale della Relatività, vengono in seguito usate per studiare il comportamento di un neutrone al centro dell’anello laser.Si rileva quindi che tale particella, manifesta il fenomeno conosciuto con il nome di trascinamento dei sistemi di riferimento (frame-dragging) inerziale” . Detto in parole povere quindi, la radiazione elettromagnetica di un raggio laser circolare, dovrebbe deformare lo spazio-tempo all’interno dell’anello stesso di luce , e di conseguenza provocare il frame-dragging (spostamento laterale) del neutrone. Nello stesso articolo, Mallett ci fa osservare anche che nella meccanica classica Newtoniana, è soltanto la materia a generare il campo gravitazionale; ed una delle conseguenze quindi più interessanti della teoria della Relatività Generale, è la predizione che anche la luce è da ritenersi una “fonte di gravità”. Il campo gravitazionale di un raggio di luce non circolare, fu studiato molti anni fa da Tolman (e ciò fu fatto usando un’approssimazione del campo debole, per le equazioni di Einstein del campo gravitazionale).Tolman poi determinò l’accelerazione di una particella stazionaria, nelle vicinanze del raggio di luce. Ciò che egli scoprì, fu che l’accelerazione di tale particella era due volte più grande di quella ipotizzata sulla base della teoria di Newton per il campo gravitazionale di un’ asta (barra) compatta di simile lunghezza e densità. Questo sembrò implicare che,in qualche modo, la luce forse è molto più “efficace” della materia, nel generare un campo gravitazionale. Tutto il lavoro di Mallett sulla possibilità di manipolare lo spazio-tempo, è da intendersi quindi come un epilogo (una generalizzazione) di vecchie teorie ed esperimenti inerenti al campo gravitazionale, con l’introduzione del concetto di “flusso circolare di radiazione elettromagnetica”. L’apparato sperimentale di Mallett, grazie agli ultimi ritrovati nel campo della tecnologia laser,è in grado di generare un intenso,coerente e continuo flusso circolare di luce. Facendo i dovuti calcoli relativistici , nell’ipotesi di un neutrone rotante stazionario, posto esattamente al centro dell’anello laser, Mallett scopre che una delle sue equazioni, ha esattamente la “forma” richiesta per definire il “frame-dragging” nella teoria generale relativistica della gravitazione. È risaputo ormai da parecchio tempo che la soluzione di Stockum per la metrica esterna di un cilindro di polvere rotante infinitamente lungo, contiene linee temporali chiuse.Il lavoro di Mallett,dimostra che anche le curve temporali chiuse, intervengono in un cilindro di luce rotante infinitamente lungo. Tali curve,potrebbero condurre un’ ipotetica particella nucleare, nel passato. Una delle obiezioni più “importanti” che Mallett ricevette in relazione ai suoi postulati , pubblicati su “Physics Letters”, fu quella del matematico e studente di cosmologia, Ken Olum .Quest’ultimo dichiarò che in ogni caso, anche se tutte le equazioni relativistiche di Mallett (inerenti allo spazio-tempo all’interno dell’anello di luce laser) risultavano corrette, l’energia necessaria per distorcere lo spazio-tempo dovrebbe essere sproporzionatamente ed infinitamente grande; e considerando la tipologia dei laser che vengono usati oggigiorno, tale anello dovrebbe avere un diametro addirittura maggiore di quello dell’Universo osservabile. A questo punto Mallett , a sua difesa, fece osservare questo: l’energia richiesta per la distorsione dello spazio-tempo diminuisce, quand’ anche (contemporaneamente) la velocità del fascio di luce laser diminuisce.Egli propose quindi,come soluzione al problema, di far passare il raggio di luce laser attraverso una “sostanza” che ne diminuisse la velocità; ma anche in questo caso, ricevette delle dure critiche da parte del fisico J. Richard Gott, che a tal proposito gli fece osservare quanto segue: “La luce viaggia molto più lentamente attraverso l’acqua che non attraverso lo spazio vuoto, ma ciò non significa che tu invecchi molto più lentamente mentre fai del nuoto subacqueo o che è più facile distorcere lo spazio-tempo sott’acqua”. Ed ecco che a questo punto, cominciano ad apparire assai interessanti, le ipotesi-teorie di Magueijo , sulla variabilità della velocità della luce. In sintesi,il fisico portoghese propose una modificazione della Relatività Speciale,nella quale un’energia fisica, come ad esempio l’energia di Planck, unisce la velocità della luce come invariante, a dispetto di una completa Relatività di strutture inerziali, in accordo con la teoria di Einstein per le basse energie.Questa nuova teoria, dovrebbe,in linea di principio, trovarsi in accordo con la Relatività Speciale, quando il campo gravitazionale è debole,se non addirittura assente ;e in esperimenti che proverebbero la natura dello spazio-tempo su scale di energia molto più piccole dell’ Energia di Planck .Tali considerazioni portano immediatamente alla seguente domanda: “In quali strutture di riferimento,la lunghezza e l’energia di Planck,rappresentano delle “soglie” per il nuovo fenomeno?” Supponiamo che vi sia una scala di lunghezza fisica che misuri la dimensione delle strutture spaziali negli spazi-tempi quantistici, quali la zona ed il volume discreti previsti vicino alla gravità quantistica .Se questa scala è la Lunghezza di Planck,in una struttura inerziale di riferimento, la relatività speciale suggerisce che può essere differente nella struttura di un altro osservatore: un’implicazione diretta della Contrazione di Lorentz-Fitzgerald. Senza addentrarmi ulteriormente in altri dettagli tecnici, che alla fine non farebbero altro che rendere ancora più difficile la comprensione del “nocciolo della questione”; cercherò ora di presentare in parole povere ciò che si evince da tutte le ipotesi e le considerazioni di Magueijo; affinché sia possibile intuire, anche per i meno esperti in materia, le varie analogie e interconnessioni con le teorie di R.Mallett. Riducendo il tutto veramente all’osso,possiamo affermare che (sulla base delle ipotesi di Magueijo): Variando la velocità della luce ,nemmeno l’energia “immagazzinata” nel vuoto rimane immutata (costante). Detta così,in tutta la sua semplicità,sembrerebbe una cosa da nulla; ma a livello teorico, da un punto di vista quantistico-relativistico, le implicazioni che tale considerazione comporta nella questione sollevata da Ronald Mallett, sulla possibilità (secondo lui quasi scontata) di manipolare lo spazio-tempo attraverso dei fasci circolari di luce laser, sono davvero enormi. In base ai miei parametri di giudizio,in un discorso di questo tipo, entra sicuramente in causa quella parte della fisica ancora ignota,le cui basi sarebbero da ricercare nell'ormai famosa Teoria di gauge di Weyl (...da tempo a mio avviso,ingiustamente lasciata in "disparte") che si prefiggeva di trovare una sorta di unificazione tra campo magnetico e gravitazionale,al fine di poter farli apparire,come delle semplici "proprietà geometriche" dello spazio-tempo. Non dimentichiamoci che sulla base della teoria quantistica dei campi, quando le energie delle eccitazioni dei campi raggiungono energie cofrontabili con la massa di Planck [Massa di Planck = (hc/G)^1/2 ~ 10^19 massa protone] non è più possibile trascurare gli effetti della gravità. A questo punto subentra quindi una limitazione teorica, poiché, in base alla teoria di Einstein, dovremmo tener conto della deformazione dello spazio-tempo, ma questo porterebbe ad un’inconsistenza matematica nel calcolo delle ampiezze di probabilità.Le varie estensioni della teoria dei campi che sono state proposte per risolvere tale problema (teoria delle stringhe, extra-dimensioni spaziali,discretizzazione dello spazio tempo),da un punto di vista fenomenologico, non hanno finora fornito alcun risultato “incoraggiante”. L'ipotesi di Everett (o "interpretazione a molti mondi"),impone numerose restrizioni al procedimento di quantizzazione.Tale ipotesi,suggerisce anche di imporre particolari restrizioni alle condizioni inerenti alla funzione d'onda dell'Universo;restrizioni che non appaiono naturali nelle altre interpretazioni.Secondo queste ultime,l'Universo odierno è costituito da un unico "ramo" generato nel lontano passato dalle forze a cui è dovuta la riduzione della funzione d'onda.Di conseguenza,nelle interpretazioni diverse dall'ipotesi di Everett,gli effetti quantistici della gravità consistono,almeno attualmente,nel generare piccole fluttuazioni attorno a un Universo essenzialmente classico.Questo punto di vista della cosmologia quantistica (sviluppato in profondità da J.V.Narlikar),porta a modelli cosmologici distinti da quelli suggeriti dall'ipotesi di Everett.Un'analisi dettagliata di ciò che un osservatore vedrebbe,mostra che vi sono delle differenze tra i modelli basati sull'ipotesi originale di Everett e quelli di Narlikar,anche se al giorno d'oggi l'evoluzione sarebbe descritta con ottima approssimazione da un Universo di Friedmann classico in entrambi i casi.I due tipi di modelli differiscono enormemente in prossimità della singolarità iniziale,e ciò può portare a differenze osservabili tra quelli basati sull'ipotesi di Everett e quelli basati sulla riduzione della funzione d'onda.L'esistenza di queste differenze permette di ovviare alla critica principale mossa all'ipotesi di Everett dai suoi oppositori;critica esposta in modo molto conciso da Shimony:"Dal punto di vista di qualunque osservatore - o più esattamente,dal punto di vista di ogni "diramazione" di un osservatore - la diramazione del mondo da lui osservata si evolve in modo stocastico.Poichè tutte le altre diramazioni sono inaccessibili alle sue osservazioni,l'interpretazione di Everett ha esattamente lo stesso contenuto empirico - nel senso più ampio possibile - di una teoria quantistica modificata in cui sistemi isolati di tipo opportuno subiscono occasionalmente "salti quantici" che violano l'equazione di Schrödinger.Pertanto Everett ottiene l'evoluzione continua dello stato quantistico globale al prezzo di una violazione estrema del principio di Occam (...)"L'ipotesi di Everett però non viola il principio di Occam.Quando il sistema osservato è piccolo,l'Universo,inteso nel senso corrente di tutto ciò che esiste,non si scinde.Solo l'apparato di misura si scinde.Se decidiamo che è l'Universo a scindersi,esso consiste di tutti gli Universi classici permessi dal dominio,in cui la funzione d'onda dell'Universo non è nulla.Solo in apparenza quindi,questa è una violazione del principio di Occam;poichè uno dei problemi presenti a livello classico consiste nel considerare il fatto evidente che tra tutti i punti dello spazio dei dati iniziali delle equazioni di Einstein,uno solo è stato "realizzato".È un problema comune a tutte le teorie classiche.A livello classico,per risolvere questo problema si devono porre le condizioni iniziali sullo stesso piano delle leggi fisiche.Si devono inoltre introdurre ulteriori leggi fisiche per implicare la riduzione della funzione d'onda.Adottando l'ipotesi di Everett non si deve invece ricorrere a nessuna legge nuova,perchè in questo caso tutti i punti nello spazio dei dati iniziali corrispondono a Universi classici realmente esistenti.In definitiva quindi,la cosmologia fondata sull'ipotesi di Everett,amplia l'orizzonte ontologico per "risparmiare" sulle leggi fisiche.Applicare l'interpretazione di Copenhagen,alla cosmologia quantistica (e dal punto di vista dinamico,il collasso della funzione d'onda da essa postulato),appare quindi addirittura ridicolo.È assai probabile che in un futuro,a mio avviso non troppo lontano,l'ipotesi di Everett (interpretazione a molti mondi) sostituirà sia quella statistica che quella di Copenhagen.
Video-documentario (in lingua inglese) in cui lo stesso R.Mallett, spiega diversi concetti fisici e dettagli, relativi alla sua ipotetica "Macchina del Tempo": VIDEO

Fausto Intilla - www.oloscience.com

giovedì 25 giugno 2009

Scienza e caso, scienza e fortuna: mettetela come volete, sta di fatto che la storia della scienza è piena di scoperte per caso.

Fonte: Moebiusonline

a cura di Maurizio Melis

Scienza e caso, scienza e fortuna: mettetela come volete, sta di fatto che la storia della scienza è piena di scoperte per caso. Non che la fortuna sia sufficiente (né, al caso, si possono attribuire la maggior parte delle conquiste scientifiche, che anzi, di solito sono il frutto di un lavoro lungo e mirato) ma l'imprevisto, l'anomalia, sono spesso state al centro di importanti scoperte. C'è anche un termine per definire questi casi in cui la fortuna gioca un ruolo decisivo: serendipity, o serendipità, in italiano. Un'antica favola persiana narra infatti di tre principi di Serendippo, l'attuale Sri Lanka, uomini intelligenti ma un tantino ingenui, che cercavarono invano una certa principessa. Non la trovarono mai, ma lungo la strada "per caso, per sagacia o per associazioni di idee " trovarono invece molti altri tesori : piante, animali, pietre preziose e curiose invenzioni.
Di Serendipità ha parlato Giulio Giorello durante una conferenza in occasione di "Storie di Scienza", la rassegna varesina dedicata ai percorsi e ai personaggi storici-scientifici. Lo studioso di filosofia della scienza ha raccontato tanti casi di serendipità: dalla scoperta della penicillina, dovuta a una finestra lasciata aperta per errore sopra a una coltura di staffilo-cocchi, alla scoperta dell'America, causata da un errore di calcolo che sottostimava il diametro della Terra. Nel servizio ne abbiamo scelti due (incusa una strana vicenda di sesso tra insetti) che vogliamo farvi riascoltare dalla sua voce. Se invece avete un po' più di tempo da perdere, sentite l'audio integrale della conferenza di Giorello, mentre chiacchiera a Varese con Federico Pedrocchi e il pubblico di Storie di Scienza.

La sabbia in caduta libera si comporta come se fosse acqua e si aggrega in granuli simili a gocce (con video).

Fonte: Galileo

Una videocamera ad alta velocità mostra la sabbia in caduta libera che si comporta come fosse acqua, aggregandosi in granuli. Causa: le forze elettrostatiche.
La sabbia in caduta libera si comporta come fosse acqua e si aggrega in granuli simili a gocce. Lo hanno letteralmente osservato i ricercatori dell'Università di Chicago, fotografando i granelli che precipitano da diversi metri, con una speciale videocamera in movimento del valore di 80mila dollari.
Il video e lo studio sono oggi su Nature, dove John Royer, fisico a capo della ricerca, dà una spiegazione del fenomeno: molecole d’acqua e i granelli di sabbia sono soggetti alle stesse forze di coesione.
Le gocce che si formano quando un liquido fluisce liberamente sono prodotte dalla tensione superficiale, una forza di natura elettrostatica che agisce sulla superficie libera di un liquido plasmandone la forma. Stranamente, anche un flusso di particelle solide in caduta libera si comporta come un liquido, scomponendosi in tanti piccoli aggregati. Fino ad oggi si credeva che ciò fosse dovuto non alla tensione superficiale, bensì all’effetto di forze di natura non elettrostatica. Royer ha invece dimostrato che anche nei solidi agisce una debole tensione superficiale responsabile della coesione tra particelle. Per farlo si è servito, oltre che della telecamera, di un microscopio a forza atomica con cui ha misurato le forze di interazione tra i grani sabbiosi. L’intensità delle forze di coesione rilevata con il microscopio era ben 100 mila volte inferiore rispetto a quella caratteristica dei liquidi, ma, nonostante questo, sufficiente a tenere uniti i grani di sabbia come fossero piccole gocce.
Modificando le caratteristiche della superficie dei granelli, il grado di umidità o la natura dei materiali utilizzati, i fisici sono riusciti a controllare l’intensità delle forze di coesione e quindi i processi di formazione delle gocce. Per John Royer, la scoperta è un punto di partenza molto importante per approfondire le conoscenze sui sistemi granulari e sulla natura delle forze che governano il loro comportamento. (m.s.)
Riferimento: doi:10.1038/nature08115 Letter

Il cancro colpisce alcuni animali con la stessa incidenza degli esseri umani.

SOURCE

Il cancro minaccia la conservazione di alcune specie selvatiche perché rappresenta una delle prime cause di morte. Lo studio su Nature Reviews Cancer.
Il cancro colpisce alcuni animali con la stessa incidenza degli esseri umani, tanto che potrebbe essere la causa di estinzione di alcune specie selvatiche. Lo affermano i ricercatori della Società di Conservazione della Fauna e della Flora di New York che hanno rilevato un aumento dei casi di tumore negli animali selvatici negli ultimi anni.
Secondo i loro risultati, pubblicati oggi su Nature Reviews Cancer, le specie più colpite sono proprio quelle a rischio di estinzione, come il diavolo della Tasmania, un piccolo marsupiale carnivoro, decimato già verso la fine degli anni Novanta da una rara forma di cancro trasmissibile (il tumore facciale del diavolo). La causa è sconosciuta, ma si è visto che è le cellule maligne sono in grado di diffondersi tra gli esemplari attraverso i morsi e durante le lotte. Per salvare la specie, i biologi stanno isolando gli animali ancora non infetti in riserve o zoo.
Denise McAloose and Alisa Newton, autrici dello studio, hanno investigato le possibili cause di cancro nelle diverse specie, e hanno trovato una correlazione tra tumori e inquinamento ambientale. Per esempio, per il beluga che vive nell’estuario del fiume San Lorenzo (Canada), una forma di cancro intestinale rappresenta la seconda causa di morte. Il colpevole potrebbe essere un composto organico (un idrocarburo policiclico aromatico che si ritrova nel petrolio, ma anche nei rifiuti urbani), già noto per essere cancerogeno per la nostra specie. In questo caso, riportano le ricercatrici, è chiaro il contributo antropico. Altri animali, invece, sono colpiti da tumori agli organi genitali dovuti a virus. Tra questi vi sono soprattutto i leoni marini nei mari della California e i delfini lungo le coste del Sud America, mentre le tartarughe marine verdi sono contagiate da un virus che provoca fibropapillomatosi. (p.f.)

I meccanismi neurofisiologici dell'ipnosi

Fonte: Le Scienze

La suggestione ipnotica di paralisi non inibisce l'attività dei centri motori, ma ne altera la comunicazione con il resto del cervello attraverso un'area che gestisce l'immagine di sé.
L'ipnosi ha un effetto indiscutibile sul comportamento e sul cervello. Diversi studi hanno attestato che la suggestione ipnotica è in grado di indurre cambiamenti nell'attività cerebrale correlata alla memoria, alla percezione del dolore, ai movimenti volontari attraverso processi che mediano il controllo esecutivo e l'attenzione, ma in nessuno di essi si era controllato se tali cambiamenti sono legati a un'inibizione dell'attività motoria o a uno scollegamento dei sistemi di controllo dell'esecuzione delle azioni. La risposta viene ora da una ricerca condotta preso il Centro di neuroscienze dell'Università di Ginevra, i cui autori firmano un articolo sulla rivista "Neuron". "Abbiamo usato la risonanza magnetica per visualizzare direttamente se una suggestione ipnotica di paralisi attivi specifici processi inibitori e se questi possano o meno corrispondere a quelli responsabili dell'inibizione in condizioni post-ipnotiche", ha detto Yann Cojan, che ha diretto lo studio.Nell'esperimento i soggetti erano stati istruiti a compiere o meno un movimento di una mano a seconda del tipo di stimolo che ricevevano. Una parte dei soggetti è stata quindi ipnotizzata suggerendo loro che mano sinistra fosse paralizzata, mentre ai restanti i soggetti era stato detto di simularne soltanto la paralisi. In questo modo i ricercatori hanno potuto rilevare che l'ipnosi provocava una serie di cambiamenti di attività nelle aree prefrontale e parietale coinvolte nell'attenzione, oltre a notevoli modificazioni nell'attività di connessione fra la corteccia motoria e le altre aree del cervello. Nonostante la suggestione di paralisi, la corteccia motoria dei soggetti ipnotizzati risultava attivata in modo normale durante la fase preparatoria del compito. Ciò suggerisce che l'ipnosi non sopprima l'attività nei cammini motori o che elimini la rappresentazione dell'intenzione motoria. L'ipnosi era peraltro associata a un aumento di attivazione del precuneo, una regione cerebrale coinvolta nella memoria e nell'immagine di sé, e con una riconfigurazione del controllo di esecuzione mediato dai lobi frontali.I ricercatori hanno così concluso che l'ipnosi induce una disconnessione dei comandi motori dai normali processi volontari sotto l'influsso di circuiti cerebrali coinvolti nel controllo dell'esecuzione e dell'immagine di sé. "Questi risultati suggeriscono che l'ipnosi possa esaltare i processi di auto-monitoraggio che consentono alla rappresentazione interna di sé generata dalla suggestione di guidare il comportamento, ma che non agiscano direttamente attraverso una inibizione motoria". (gg)

Allungata di 1000 volte la vita di un qubit

Fonte: Le Scienze

La volatilità della "memoria" di un qubit era ritenuta finora uno degli ostacoli più ardui nella realizzazione di un computer quantistico.
Prolungare drasticamente la "vita" di un qubit in un computer quantistico: questo l’obiettivo raggiunto da un gruppo di fisici dell’Università del Michigan, guidati da Duncan Steel, che hanno sfruttato un laser per scatenare una reazione naturale di feedback, finora sconosciuta, in grado di stabilizzare il campo magnetico di un punto quantistico.Quest’ultimo – denominato anche quantum dot, in inglese - è una nanostruttura a semiconduttore che si candida per la realizzazione di un qubit, il "mattone elementare" del futuro computer quantistico."Nel nostro approccio, il bit quantistico per la memorizzazione dell'informazione è uno spin elettronico confinato in un singolo punto in un semiconduttore, come l'arseniuro di gallio: invece che rappresentare gli 0 e gli 1 così come fa un transistor in un computer classico, in bit quantistico può trovarsi in una combinazione di 0 e 1", ha spiegato Steel.In questo schema, i bit dovrebbero essere costituiti da schiere di punti quantistici semiconduttori contenenti un singolo elettrone extra, ma sarebbero facilmente perturbati dalle fluttuazioni magnetiche dai nuclei degli atomi che costituiscono il punto quantistico, con gravi ripercussioni per la possibilità di memorizzazione dell'informazione.Infatti, bloccando ogni elettrone in un particolare stato di spin, passo necessario per realizzare un qubit, si dà origine a un accoppiamento con i gli spin dei nuclei che distrugge la "memoria" in pochi miliardesimi di secondo.In quest'ultimo studio, l'uso del laser consente di stabilizzare il punto quantistico, prolungando l'esistenza del qubit di molti ordini di grandezza. Eccitando il punto quantistico con un laser, gli scienziati sono riusciti a bloccare l'interazione di questi spin: il punto quantistico si trova in un livello energetico più alto, lasciando una lacuna nella nube elettronica atomica. Lo spin complessivo della nube elettronica rimasta conferisce alla lacuna un suo campo magnetico che interagisce direttamente con i nuclei, controllandone il campo magnetico senza alcun intervento dall'esterno, eccetto che per la fase di eccitazione."Questa scoperta era inattesa: i feedback nonlineari nei sistemi fisici vengono osservati molto raramente", ha spiegato Steel. "Abbiamo di fronte ancora notevoli ostacoli tecnici, ma il nostro lavoro mostra come una delle difficoltà ritenute quasi insormontabili non si è poi rivelata tale". (fc)

lunedì 22 giugno 2009

Sul concetto di "Libero Arbitrio": Siamo davvero liberi di scegliere il nostro destino?

Laplace una volta disse:

"Un'intelligenza che, ad un dato istante, conoscesse tutte le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastnza profonda per sottomettere questi dati all'analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire, come il passato, sarebbe presente ai suoi occhi."
Perchè questa teoria è stata smentita?
...perchè tutti hanno preferito basarsi unicamente sul Principio di Indeterminazione di Heisenberg,ignorando il fatto che esso scaturisca e prenda forma dall'Umana Ignoranza, definita dai nostri stessi limiti di osservazione.L'uomo in genere preferisce credere solo e unicamente a ciò che è in grado di vedere...ma se tutto fosse visibile,paradossalmente,egli non vedrebbe più nulla;poichè verrebbe accecato dal Tutto.Il Determinismo è morto con la nascita del Principio di Indeterminazione di Heisenberg;e tutti gli scienziati se ne guardano bene dal portarlo ancora in luce,per paura di perdere di credibilità all'interno della comunità in cui operano...e quindi di perdere il lavoro.Esso comunque (Determinismo),celato nei cuori di parecchi scienziati (...forse i migliori),continuerà ugualmente a vivere...permettendo alla scienza di non dover mai scomodare Heisenberg,Schrödinger,Bohr e tutti coloro che hanno gettato le basi della meccanica quantistica.(Se Gödel fosse stato preso veramente sul serio,tutta la matematica sarebbe sicuramente finita su un binario morto.Ogni scienza,per poter progredire,paradossalmente,ha bisogno sempre da parte nostra,di un pizzico di Illogicità ed Ignoranza).

Il risultato importante ottenenuto dal Teorema di Bell è stata una separazione fra due problemi (probabilità e non località),che Einstein aveva ritenuto inestricabilmente interconnessi. I risultati di Alain Aspect dimostrano che la non-località fa parte della natura,indipendentemente dal fatto che essa abbia o no qualcosa a che fare con la meccanica quantistica,e i risultati empirici non hanno nulla da dire sul problema se la completa e corretta teoria sottostante sia probabilistica o deterministica (Bohr o Bohm,per intenderci).Entrambe le versioni funzionano e noi, a tutt'oggi,non abbiamo ancora alcuna ragione quantitativa,empirica,per preferire l'una o l'altra.Oggi,se si vuole,si può ancora credere in universi paralleli,o in variabili nascoste e nel loro determinismo,ma non si può più immaginare che tali sforzi possano rendere la meccanica quantistica subordinata ad una concezione del mondo anteriore,e oggi screditata.
A questo punto vorrei citare R.Penrose:”Come Einstein e i suoi seguaci delle teorie delle variabili nascoste,io credo fortemente che lo scopo della fisica sia quello di fornire una descrizione oggettiva della Realtà”,una descrizione,in altri termini,che non dipenda dalle scelte imprevedibili che può fare “questo” o “quello” sperimentatore. Se si toglie quest’oggettività,come fa la concezione di Copenhagen,si sgretolano i fondamenti della scienza.Ma analizziamo con maggiore precisione quest’idea di oggettività. Penrose usa l’espressione “descrizione della realtà”,e i seguaci di Bohr,più di quelli di Einstein,sosterranno che l’Interpretazione di Copenhagen fornisce proprio una tale “descrizione”,la quale sarebbe oggettiva nel senso che chiunque possegga una corretta formazione quantomeccanica può fare gli stessi esperimenti e pervenire quindi alle stesse conclusioni generali.Che cosa fornisce infatti la meccanica quantistica se non un mezzo per analizzare qualsiasi situazione sperimentale si voglia immaginare,e predire a partire da essa la varietà di possibili risultati in cui ci si imbatterà? Questo non è forse un procedimento oggettivo? È vero che le predizioni hanno una natura probabilistica,ma ciò non significa che non siano oggettive: tutti saranno d’accordo circa le probabilità pertinenti; una serie di esperimenti compiuti dalle stesse persone o da persone diverse produrrà un elenco di risultati in accordo con tali probabilità; e i risultati di singoli esperimenti saranno invariabilmente nell’ambito dei risultati possibili permessi dalla meccanica quantistica.Lo stesso Penrose prosegue dicendo che non è l’indeterminismo della meccanica quantistica a preoccuparlo.Dove sta dunque esattamente il problema?La risposta è che col vocabolo “oggettività” gli scienziati intendono tradizionalmente qualcosa di più della capacità di concordare sui risultati (o sui risultati probabili) degli esperimenti. Essi intendono una cosa più profonda, ossia che i risultati sperimentali si riferiscono ad una realtà oggettiva,essendo tutti in accordo con la stessa realtà sottostante.È questa seconda idea che la scuola di Copenhagen rifiuta: come per il caso degli esperimenti EPR, si deve evitare scrupolosamente la tentazione di supporre che i risultati di due esperimenti incompatibili (due esperimenti che non si possono fare fisicamente nello stesso tempo,sullo stesso sistema) debbano fornire risultati in armonia fra loro.Possiamo dividere la nozione di oggettività degli scienziati in due parti.Secondo quella che potremmo chiamare l’”oggettività debole”,per il buon funzionamento della scienza è essenziale che tutti gli scienziati possano concordare sulle regole, e che possano concordare senza ambiguità (quando vengono a trovarsi di fronte a una situazione sperimentale specificata) su ciò che può accadere e su ciò che non può accadere.Questa condizione sembra in effetti essenziale alla scienza,e la meccanica quantistica,in qualunque interpretazione scegliamo,aderisce a questo principio.Quella che possiamo chiamare “oggettività forte” va oltre, e dichiara che l’immagine del mondo fornita dalla somma totale di tutti i risultati sperimentali su tutti gli aspetti possibili del mondo,non è in effetti solo un’immagine ma si identifica in realtà con il mondo oggettivo,qualcosa che esiste fuori di noi, e prima di ogni concezione o misurazione che potremmo averne o eseguirne.L’oggettività debole è un criterio minimo che gli scienziati devono accettare per poter compiere il loro lavoro: essi debbono poter concordare su regole e procedure per compiere confronti privi di ambiguità di risultati sperimentali,per essere sicuri che lo stesso esperimento,compiuto da persone diverse,darà sempre risultati coerenti. C’è una tentazione quasi irresistibile,confortata dai risultati di centinaia di anni di ricerche scientifiche, a compiere il salto dall’oggettività debole a quella forte.Esso rimane però un salto “fideistico”,non una necessità scientifica.Poiché la teoria di Bohm, è matematicamente identica alla teoria quantistica standard,può darsi che nessun esperimento possa mai essere effettivamente decisivo in tal senso.Quale delle due concezioni si preferisca è quindi una questione di gusto filosofico. La maggior parte dei fisici accetta implicitamente la concezione di Copenhagen in quanto è la più semplice; la versione di Bohm aggiunge complicazioni matematiche senza produrre alcun risultato nuovo.Ciò nonostante, molti fra i fisici che seguono implicitamente la linea di Copenhagen cominciano a sentirsi un po’ in imbarazzo quando si trovano direttamente di fronte alle sue implicazioni più profonde.La rivoluzione si completerà forse nel tempo,quando i risultati sperimentali degli ultimi anni saranno pienamente recepiti e gli scienziati li accetteranno nel loro vero valore.
A mio avviso,la posizione di Bohr (la sua filosofia di Copenhagen) è un modo sistematico di occuparsi della meccanica quantistica,evitando però al tempo stesso qualsiasi assunto ingiustificato o non necessario su ciò che è "reale".Il nuovo sviluppo è che la meccanica quantistica,nonostante la sua mancanza di una realtà oggettiva,da origine tuttavia ad un mondo macroscopico che agisce,per la maggior parte del tempo,come se fosse oggettivamente reale.Gli esperimenti di Aspect,mostrando che la natura non si conforma al teorema di Bell,dimostrarono in pratica che la non oggettività della meccanica quantistica potrebbe essere rivelata in un esperimento progettato ed eseguito con cura.Esso richiede però uno "sforzo" speciale,e dimostrazioni del genere non hanno luogo per caso nel mondo che ci circonda.Così,quasi paradossalmente,possiamo credere per lo più in una realtà oggettiva,perchè la MQ predice che il mondo dovrebbe comportarsi in tal modo.Ma proprio perchè il mondo si comporta in un certo modo, abbiamo acquistato una fede profonda in una realtà oggettiva.
Fausto Intilla (www.oloscience.com)

Nasce il "Saser": Generatore di onde sonore coerenti a frequenze ultraelevate al posto di onde luminose.

Fonte: Le Scienze

E' in grado di produrre onde sonore coerenti ad altissima frequenza, nell'ordine dei terahertz.
E' nato dalla curiosità di alcuni ricercatori, ma il “Saser”, un nuovo tipo di “laser” in grado di generare onde sonore coerenti a frequenze ultraelevate al posto di onde luminose, si candida a essere una tecnologia dalle numerosissime applicazioni.
L'apparecchiatura, descritta in un articolo sulla rivista "Physical Review B", è stata messa a punto da un gruppo di fisici dell'Università di Nottingham con colleghi del Lashkarev Institute of Semiconductor Physics di Kiev, in Ucraina, e produce un intenso fascio di onde sonore uniformi a scala nanometrica.
Mentre il laser sfrutta pacchetti di onde elettromagnetiche, i fotoni, il Saser usa pacchetti di onde sonore detti fononi. Nel laser il fascio di fotoni viene prodotto stimolando gli elettroni con una fonte di energia esterna in modo che rilascinio energia quando entrano in collisione con un altro fotone all'interno di una cavità ottica altamente riflettente. In questo modo si può generare un fascio di luce laser coerente e controllabile nel quale tutti i fotoni hanno la stessa frequenza.
Il Saser imita questa tecnologia per produrre un fascio sonoro di fononi che viaggia non attraverso una cavità ottica ma un “supereticolo” costituito da 50 strati alternati di due materiali superconduttori, arseniuro di gallio e arseniuro di alluminio, dello spessore ciascuno di pochi atomi. Quando vengono stimolati da una fonte di energia, un fascio di luce, i fononi si moltiplicano continuando a rimbalzare fra gli strati del reticolo fino a sfuggire dalla struttura sotto forma di un fascio di fononi a frequenza ultraelevata.
Il fascio di onde acustiche coerenti prodotto ha una lunghezza d'onda dell'ordine dei nanometri, facendo del Saser il primo apparecchio in grado di produrre onde acustiche nello spettro di frequenza dei terahetz. Il superreticolo può essere modificato in modo da manipolare le onde sonore emesse.
Una delle possibili applicazioni del Saser è rappresentata dalla possibilità di ottenere sonogrammi per osservare eventuali difetti in oggetti microscopici, come per esempio i chip. Il fascio Saser può essere poi impiegato per la produzione di apparecchiature di imaging medica, trasformando il suo segnale in onde elettromagnetiche. Sfruttandone l'elevata intensità, il Saser può anche essere sfruttato per alterare le proprietà elettroniche di nanostrutture e per creare clock di computer migliaia di volte più veloci.
“Il nostro lavoro è stato stimolato dalla pura curiosità scientifica, ma abbiamo la sensazione che questa tecnologia abbia la potenzialità di trasformare il campo dell'acustica nello stesso modo in cui il laser ha completamente trasformato l'ottica nei 50 anni che sono passati dalla sua invenzione”, ha detto Anthony Hent, che ha diretto la ricerca. (gg)

sabato 20 giugno 2009

Dal MIT il cemento che dura 16 mila anni.

FONTE

Ultradenso, super resistente e dalla durata quasi illimitata: è la scoperta degli ingegneri del Mit.
Ricercatori del Massachusetts Institute of Technology (Mit) stanno lavorando a un nuovo tipo di cemento, dalla grande resistenza e ultradenso, capace di durare per 16mila anni. Una squadra di ingegneri del Mit, capeggiata da Franz-Josef Ulm, ha compreso che aumentando la densità del cemento è possibile prevenire il suo deterioramento, causato – hanno scoperto i ricercatori – da una riorganizzazione a livello nanometrico delle particelle che lo compongono.
Il segreto della durata illimitata
Quando le particelle di C-S-H (silicati di calcio idrati) che costituiscono la pasta di cemento si riorganizzano, si determinano pacchetti di densità diversa all'interno del cemento, ossia una deformazione viscosa del materiale e il suo deterioramento. I ricercatori del Mit hanno scoperto che mescolando altri minerali ai C-S-H (ad esempio le particelle provenienti dai fumi della lavorazione dell'alluminio) si formano ulteriori nanoparticelle che aumentano dell'87% la densità dei microgranuli, rallentando i movimenti interni al cemento e quindi il suo deterioramento.
“Fino ad ora, non siamo stati capaci di costruire su larga scala strutture in calcestruzzo leggere e dalla lunga durata”, ha spiegato Ulm. Questo perché “quanto più sottile è la struttura, tanto più è sensibile alla deformazione viscosa. Attraverso questa nuova comprensione del cemento potremmo costruire in filigrana: strutture leggere, eleganti, resistenti e che richiederanno molto meno materiale”, ha aggiunto Ulm. Un calcestruzzo dalla durata pressoché illimitata consente infatti un minore utilizzo di materiale e una minore necessità di risanamenti o sostituzioni delle strutture usurate.
Benefici per l'ambiente
Di conseguenza, ne beneficerebbe anche l'ambiente con la riduzione delle emissioni di CO2, che la lavorazione del cemento attuale produce in grandi quantità. Ad oggi, infatti, vengono prodotte a livello mondiale 20 miliardi di tonnellate di calcestruzzo ogni anno, responsabili del 5-10% di tutte le emissioni di CO2 al mondo.

Renato Palmieri: Fisica Unigravitazionale ...qualche considerazione personale.


Ho dato un'occhiata al lavoro di Renato Palmieri (non sono riuscito comunque a trovare tutta la parte in notazione algebrica a dimostrazione delle sue teorie);ritengo valida l'ipotesi di una possibile sorta di complementarietà (più che di uguaglianza) tra fotone e gravitone. Il gravifotone e il graviscalare sono campi che compaiono, tra gli altri, nelle teorie di supergravità accoppiata a certi campi vettoriali (simili al fotone) in 4 dimensioni con 4 generatori di supersimmetria; d'altronde lo stesso Ronald Mallett, negli esposti sulla manipolazione dello spazio-tempo, accenna palesemente alle implicazioni fisico-matematiche della luce,quale "fonte" o "sorgente" primaria di gravità.
Volendo accettare per buona tale ipotesi,rimane comunque un problema di fondo,che francamente non capisco come Palmieri sia riuscito a risolvere:un fisico teorico è in grado di calcolare matematicamente le interazioni del gravitone con il resto della materia,ma in questi calcoli si imbatte in quantità infinite.Numeri infiniti come questi erano già comparsi in precedenza,nel calcolo delle interazioni dei fotoni con la materia.Fortunatamente comunque,questi ultimi infiniti poterono essere dominati,ossia venire eliminati,tramite la rinormalizzazione,che si presenta come un procedimento coerente dal punto di vista matematico.Ma gli infiniti che compaiono nel caso delle interazioni del gravitone non possono essere eliminati con la rinormalizzazione (essendo assai "peggiori").La teoria dell'interazione tra gravità quantistica e materia non è rinormalizzabile,il che significa semplicemente che i fisici non sono in grado di darle un senso.Sono assai scettico invece su molte sue altre considerazioni,quali ad esempio:"(...)tale meccanismo esclude in modo assoluto la possibilità fisica di fenomeni come il "collasso gravitazionale", le "stelle di neutroni", i "buchi neri", il "big bang", l' "espansione dell'universo", la "fuga delle galassie(...).Credo che tutte le idee-ipotesi di Palmieri, poggino fondamentalmente sul concetto di supersimmetria.Mediante una trasformazione supersimmetrica,ad esempio,i campi di bosoni con spin 0 possono essere convertiti in campi di fermioni con spin ½ e viceversa.Come differenti gluoni potevano essere considerati quali diverse componenti di un unico campo di Yang e Mills,così,in base alla supersimmetria,bosoni e fermioni con spin differente possono essere considerati come diverse componenti di un unico “supercampo” (in seguito a un’operazione di supersimmetria,le diverse componenti del “supercampo”,campi di spin differente,si trasformano l’una nell’altra).Agli inizi degli anni 70,la supersimmetria completa implicava che le particelle con spin 0 e quelle con spin ½ avessero la stessa massa (il che avviene anche in modelli supersimmetrici più complessi).Ma queste particelle di massa uguale e di spin differente non sono mai state osservate in natura, e questa è la ragione per cui il modello semplice non ha interesse dal punto di vista sperimentale.Per condurre a una descrizione delle particelle osservatein natura,la supersimmetria deve quindi essere spezzata.In tal caso le masse delle particelle di differente spin correlate dalla supersimmetria, non devono necessariamente essere uguali.
Restando in tema di supergravità,occorre innanzi tutto tener presente che la maggioranza di coloro che vi hanno "lavorato sopra",ha la sensazione che manchi ancora qualche idea decisiva,in assenza della quale le teorie semplicemente non descrivono il "mondo reale".Qualsiasi teoria che "origini" dalla relatività generale,comporta la gravità,cosicchè la supergravità è potenzialmente una teoria dei campi completamente unificata.In tale contesto quindi,tutti i campi,compresi quelli con spin 0, 1/2 e 3/2,sono conseguenza di una supersimmetria locale,mentre precedentemente solo i campi di Yang e Mills con spin 1 potevano essere dedotti dalla simmetria.Il problema degli infiniti (a cui ho accennato all'apertura di questo topic),non ho voluto trattarlo a fondo per non complicare troppo le cose (già,presumo,per molti poco digeribili),ma visto che si parla di supergravità,purtroppo ...debbo farlo.Eseguendo dei calcoli di carattere quantistico (utilizzando la teoria della supergravità),gli infiniti che "affliggono" la teoria della gravità basata solo sul gravitone,scompaiono elidendosi con infiniti uguali e opposti generati dal gravitino.Il punto è che queste elisioni non sono casuali,ma rappresentano un effetto profondo della presenza della supersimmetria.Benchè ancora non si sappia se la teoria della supergravità sia completamente rinormalizzabile,questa "attenuazione degli infiniti",sembra costituire un progresso in direzione di una valida teoria quantistica della gravità.Una delle più grandi "fregature" che comunque sta alla base della teoria della supergravità,è che nella sua forma semplice comprende solo il gravitone e il gravitino (...e ciò ben difficilmente può rispecchiare il "mondo reale" con le sue numerose particelle).Ribadisco ancora di non essermi addentrato veramente a fondo nelle idee-teorie di Palmieri;il fatto quindi che egli abbia costruito tutto il suo "castello matematico" sul principio di supersimmetria e su alcuni postulati inerenti alla supergravità,rimane semplicemente una mia supposizione.
Fausto Intilla - http://www.oloscience.com/

venerdì 19 giugno 2009

Fausto Intilla: il concetto di nucleo inconscio, nuove ipotesi sul'interazione tra psiche e materia.

“Come nella memoria si costellano fatti lontani fra loro, formando mulinelli
nel flusso dei ricordi, così capita nella vita che si aprano vortici dove roteano
svasati in una coincidenza, in una simultaneità inspiegabile, elementi che
dovrebbero essere separati dal tempo e dallo spazio. Ne nasce, in chi vive quegli attimi, una meraviglia pura: un’aura sprigiona da quelle sovrapposizioni. Viene in mente la metafora degli scolastici: gli angeli che sono fuori dal fiume del tempo, di quando in quando vi immergono un piede. Quando avvengono coincidenze, è come se scorgessimo un’orma angelica nel nostro mondo."

Elémire Zolla
Dai “nuclei inconsci” alla Sincronicità:
Qualche anno fa, ebbi l’occasione di conoscere …per “puro caso”, la famosa ricercatrice americana Brenda Dunne, manager dell’istituto e laboratorio di ricerche PEAR (l’acronimo si traduce in: Princeton Engineering Anomalies Research), situato nei pressi della Princeton University,nel New Jersey, Stati Uniti. In quel periodo i miei pensieri erano quasi tutti rivolti verso un tipo di ricerca che fosse in grado di unificare i concetti di Sincronicità (Junghiana), Non Località e collasso della funzione d’onda. Che tale correlazione esista realmente, si evince palesemente analizzando con un minimo di senso critico tutto ciò che tali principi e teorie ci offrono con i loro aneddoti, le loro "speculazioni",le loro "sane radici" culturali da cui provengono,e tant'altro; ma riuscire a definirne i reali contorni e caratteristiche fondamentali (magari anche in termini matematici,possibilmente),è tutto un altro..."paio di maniche". Ebbi quindi modo di discutere di tali argomenti, con la dottoressa Dunne ed alcuni membri del PEAR. La complessità sul piano logico-matematico che ovviamente nasceva dal voler trovare una teoria che unificasse le tre teorie succitate, inizialmente suscitò in noi tutti un certo senso di impotenza unito ad una frustrante semi-consapevolezza che stessimo per avventurarci in qualcosa di “troppo grande” per delle comuni menti umane (come le nostre ovviamente;anche se fornite di una buona dose di “sapienza scientifica”). Passammo quindi alcuni mesi, a tentare di unire le nostre forze per poter giungere a delle sane ipotesi, che ci permettessero di ideare degli esperimenti in grado di dimostrare almeno in parte alcuni “principi base” di unificazione delle tre teorie in questione (Sincronicità,Non Località e collasso della funzione d’onda).
(...)

Le ipotesi e gli esperimenti di Losanna (Svizzera) a sostegno del "Principio di Compensazione Quantistica dei Nuclei Inconsci":
SCARICA IL DOCUMENTO IN VERSIONE INTEGRALE, RELATIVO AGLI ESPERIMENTI SUI NUCLEI INCONSCI.

Proteina Doppel: svelato il meccanismo con cui si trasforma nella sua forma tossica

FONTE

Svelato il meccanismo che trasforma la molecola rendendola tossica. Uno studio su PLoS One firmato dalla Sissa di Trieste.
È stato svelato il meccanismo con cui Doppel, una proteina normalmente presente nei tessuti del corpo umano ma non nel cervello, si trasforma nella sua forma tossica e danneggia le cellule del sistema nervoso portando all'atrofia del cervelletto. La colpa è tutta di una proteina del sangue, l'alpha 2 macroglobulina. A dimostrarlo uno studio della Scuola internazionale di studi superiori avanzati (Sissa) di Trieste, coordinato da Giuseppe Legname e Stefano Benvegnù, e pubblicato su PLoS One.
La proteina Doppel (Dpl) è molto simile – per caratteristiche biochimiche e strutturali - alla proteina prionica, uno sviluppo anomalo della quale è responsabile di malattie neurodegenerative fatali, dette encefaliti spongiformi trasmissibili, come la sindrome della mucca pazza (variante umana della malattia di Creutzfeldt-Jakob). La Dpl normalmente non è espressa nel cervello perché neutralizzata dalle proteine prioniche (sane, non anomale). Per comprendere il meccanismo neurodegenerativo innescato dalla Dpl i ricercatori hanno studiato tutte le proteine con cui questa molecola interagisce. Quello che hanno scoperto è che il suo principale partner è l’alpha 2 macrogolubilina (una proteina del sangue, già noto fattore di rischio per l'Alzheimer) e che proprio questo legame è uno dei possibili meccanismi che scatenano l'azione mortale di Doppler nei confronti delle cellule nervose del cervelletto. Un'azione normalmente contrastata dalla proteina prionica. L'interazione fra Doppel e l’alpha 2 macrogolubilina, però, non è sempre dannosa: “In particolare, sembra che il legame sia benefico per il sistema riproduttivo maschile e che l'espressione di Dpl sia necessaria per una corretta prestazione degli spermatozoi, al contrario la sua espressione nel cervello e l’interazione con l’alpha 2 macrogolubilina sembra altamente tossica. Dunque lo stesso meccanismo biologico pare sia benefico per il sistema riproduttivo maschile e letale per il sistema nervoso centrale”, ha spiegato Giuseppe Legname. (c.v.)

mercoledì 17 giugno 2009

Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?


“Non è tanto il sistema ad essere modificato
dall’osservazione, bensì l’osservatore”.
Hugh Everett III

Nel 1957, quando il fisico americano Hugh Everett III elaborò ed espose per la prima volta al mondo accademico, la sua “Teoria a Molti Mondi”, la maggior parte dei fisici di allora accolse con molto scetticismo (che ben presto si trasformò in vera e propria indifferenza) le idee di quel giovane fisico di 27 anni, che a quei tempi apparivano del tutto assurde e assai lontane da ciò che veniva considerato il “buon senso scientifico”.
Tuttavia, nei primi anni novanta, le cose in ambito accademico iniziarono a cambiare, e molti fisici (...ma non tutti) cominciarono a rivalutare seriamente le ipotesi di Everett, sulla possibilità di un Universo in cui la funzione d’onda non collassi mai, e quindi legata al formalismo della meccanica quantistica più “avanzata”, ossia quella il cui scopo è di cercare di risolvere i punti ancora oscuri dell’Interpretazione di Copenhagen.
In molti si cimentarono quindi nell’elaborazione di costrutti logico-matematici, a sostegno della tesi di Everett (uno dei suoi più agguerriti sostenitori è sicuramente David Deutsch); altri invece cercarono di elaborare delle teorie matematiche atte a demolire definitivamente la Teoria dei Molti Mondi. Uno di questi ad esempio è Abner Shimony, attualmente professore emerito alla Boston University. La sua critica più conosciuta in ambito accademico alla teoria di Everett, la espose con le seguenti parole:"Dal punto di vista di qualunque osservatore - o più esattamente,dal punto di vista di ogni "diramazione" di un osservatore - la diramazione del mondo da lui osservata si evolve in modo stocastico. Poiché tutte le altre diramazioni sono inaccessibili alle sue osservazioni, l'interpretazione di Everett ha esattamente lo stesso contenuto empirico - nel senso più ampio possibile - di una teoria quantistica modificata in cui sistemi isolati di tipo opportuno subiscono occasionalmente "salti quantici" che violano l'equazione di Schrödinger. Pertanto Everett ottiene l'evoluzione continua dello stato quantistico globale al prezzo di una violazione estrema del principio di Occam (...)"
L'ipotesi di Everett però non viola il principio di Occam.
Quando il sistema osservato è piccolo,l'Universo,inteso nel senso corrente di tutto ciò che esiste,non si scinde.Solo l'apparato di misura si scinde.Se decidiamo che è l'Universo a scindersi,esso consiste di tutti gli Universi classici permessi dal dominio,in cui la funzione d'onda dell'Universo non è nulla.Solo in apparenza quindi,questa è una violazione del principio di Occam; poiché uno dei problemi presenti a livello classico consiste nel considerare il fatto evidente che tra tutti i punti dello spazio dei dati iniziali delle equazioni di Einstein,uno solo è stato "realizzato".È un problema comune a tutte le teorie classiche. A livello classico,per risolvere questo problema si devono porre le condizioni iniziali sullo stesso piano delle leggi fisiche.Si devono inoltre introdurre ulteriori leggi fisiche per implicare la riduzione della funzione d'onda.Adottando l'ipotesi di Everett non si deve invece ricorrere a nessuna legge nuova, perché in questo caso tutti i punti nello spazio dei dati iniziali corrispondono a Universi classici realmente esistenti.
Da queste brevi ma essenziali considerazioni, è facile intuire quindi (anche per un profano) quanto sia enorme la quantità di approcci logico-matematici e per certi aspetti anche filosofici, che si possono adottare, sia per cercare di smontare la tesi di Everett, sia per cercare invece di convalidarla. In termini puramente matematici, sull’ipotesi di Everett ci si potrebbe tranquillamente speculare ad infinitum; cosa che a molti potrebbe sembrare quasi un paradosso, considerando la sua eleganza e semplicità da un punto di vista formale.

Forse a causa anche di uno sconforto generale, per l’impossibilità di arrivare ad una “soluzione comune” in grado di chiarire definitivamente ogni cosa, riguardo alla MWI, in questi ultimi anni, l’interesse dei fisici si è spostato principalmente verso ciò che si potrebbero definire delle “prove sperimentali” (seppure indirette, poiché la comunicazione tra i vari mondi non è concessa, nell’ipotesi di Everett), a sostegno o meno dell’ Interpretazione a Molti Mondi.
Tralasciando le ipotesi o teorie più complesse (...ma anche le più assurde ed improbabili), ne prenderò in considerazione una che a mio avviso è sicuramente degna di nota; la sua importanza sta nel fatto che da un punto di vista sperimentale, con il progressivo ed esponenziale avanzamento del progresso scientifico-tecnologico, essa potrebbe (tra non più di 150 anni) fornirci effettivamente una prova indiretta dell’esistenza o meno di altri mondi e dimensioni, al di fuori di quello che attualmente conosciamo (e in cui viviamo). La verifica sperimentale di questa teoria, allo stato attuale della tecnica non è quindi ancora possibile, perché richiederebbe l’utilizzo di acceleratori di particelle in grado di produrre una quantità di energia di 10^19 GeV (dieci alla diciannovesima miliardi di elettronvolt !), andando così oltre la Grande Unificazione (GUT) per raggiungere a pieno titolo la Teoria del Tutto, dove le quattro forze fondamentali della natura (le tre forze di pertinenza quantistica più la gravità) si uniscono.

Le basi su cui poggia tale teoria, consistono nella possibilità che l’Universo a noi noto, decada in un nuovo vuoto quantistico.Alcuni fisici presumono che l’Universo in cui viviamo, si trovi in uno stato di falso vuoto quantistico, e che di conseguenza esso abbia già dovuto sperimentare da tempo una condizione di tunnel quantistico per giungere ad uno stato di vero vuoto quantistico (ground state). Il fatto che questo non sia mai accaduto, dimostrerebbe (indirettamente) la validità e la fondatezza della Teoria a Molti Mondi.Nella teoria quantistica dei campi, lo stato di vuoto rappresenta lo stato di vuoto quantistico con la più bassa energia possibile. In genere tale vuoto non contiene delle particelle fisiche (a volte viene usato anche il termine “campo di punto zero” per indicare lo stato di vuoto di un singolo campo quantizzato). La meccanica quantistica comunque, ci dimostra che non può esistere uno stato di vuoto totale e assoluto, in esso vi saranno sempre presenti (anche se in piccole quantità) delle onde elettromagnetiche assai effimere e sfuggenti come del resto anche particelle in grado scomparire e ricomparire un’infinità di volte, poiché su scale prossime alla lunghezza di Planck, spazio e tempo perdono qualsiasi significato fisico.
Rimanendo sempre nella teoria quantistica dei campi, è possibile comunque prendere in considerazione anche un altro modello o tipologia di vuoto, il cosiddetto: falso vuoto.
Esso è da considerarsi un settore metastabile di spazio, paragonabile ad una sorta di “vuoto perturbativo”, influenzabile dagli effetti di instanton che potrebbero (grazie ad una fugace condizione di tunnel quantistico) portare il falso vuoto in questione in uno stato di energia molto più basso. La condizione di tunnel quantistico, verrebbe innescata in tal caso da fluttuazioni quantistiche oppure dalla creazione di particelle ad alta energia. In poche parole, il falso vuoto rappresenta un “minimo locale”, ma non la più bassa energia di stato, anche se può rimanere stabile per un po' di tempo.
Fig.1
Nel grafico (Fig.1), l’energia (E) è in funzione di un campo scalare (j) in un falso vuoto quantistico. Dal grafico si evince che l’energia (E) del falso vuoto è più elevata rispetto a quella del vero vuoto. Esiste comunque una sorta di barriera, tra i due stati, in grado di impedire l’oscillazione-slittamento del falso vuoto verso quello vero. Affinché possa accadere quindi il fenomeno del “passaggio di stato” tra un vuoto e l’altro, ossia affinché il falso vuoto possa “decadere” in quello vero, occorre stimolare il sistema con la creazione di particelle ad alta energia oppure mediante l’effetto tunnel quantistico.
Gli effetti gravitazionali, in relazione alla teoria sin qui trattata sui vari stati di vuoto quantistico, sono sicuramente numerosi e tutt’altro che semplici da studiare da un punto di vista prettamente matematico, soprattutto se si vuol poi cercare di correlarli all’Interpretazione a Molti Mondi di Everett (alcuni studi sono stati eseguiti da S.Coleman e F.De Luccia, ma non hanno portato a grandi risultati).
Da un punto di vista teorico quindi, sono ancora molte le strade che si possono esplorare nel tentativo di gettare le basi matematiche per la nuova fisica del 2100, o del 2150 (visto l’enorme quantità di energia che occorre impiegare per giungere finalmente al Sacro Graal della fisica, la Teoria del Tutto). Per ora, dobbiamo accontentarci degli ormai prossimi esperimenti che verranno eseguiti al Large Hadron Collider presso il CERN di Ginevra (in Svizzera), entro la fine di quest’anno (2009); esperimenti che in ogni caso, sveleranno (tra al massimo un paio d’anni) parecchi misteri rimasti ancora irrisolti a proposito del Modello Standard e della tanto ricercata Supersimmetria.
Da un punto di vista sperimentale,almeno la Teoria della Grande Unificazione, sembrerebbe sempre più “a portata di mano”.

Fausto Intilla (16 giugno 2009)

Bibliografia:
“Il Principio Antropico”, di John D.Barrow e Frank J.Tipler
“Il Mondo dentro il Mondo”, di John D.Barrow
“La Trama della Realtà”, di David Deutsch

Sitografia:
http://en.wikipedia.org/
http://it.wikipedia.org/

giovedì 11 giugno 2009

Scoperto l'elemento 112: È il più pesante della tavola periodica, con una massa pari a circa 277 volte quella dell'idrogeno.

Fonte: LeScienze

Già nel 1996 un gruppo internazionale di ricerca guidato da Hofmann riuscì a produrre il primo atomo dell'elemento 112, risultato che fu poi ripetuto nel 2002 e confermato in modo inequivocabile e per via indipendente dall'Istituto di ricerca RIKEN, in Giappone.
È il più pesante della tavola periodica, con una massa pari a circa 277 volte quella dell'idrogeno: l'elemento 112, scoperto presso il Centro Helmholtz per la ricerca sugli ioni pesanti di Darmstadt (GSI), è stato riconosciuto ufficialmente dall'International Union of Pure and Applied Chemistry (IUPAC).
La lettera indirizzata dallo IUPAC allo scopritore Sigurd Hofmann contiene anche la richiesta di proporre un nome che, una volta valutato, verrà ufficializzato entro sei settimane.
Già nel 1996 un gruppo internazionale di ricerca guidato da Hofmann riuscì a produrre il primo atomo dell'elemento 112 grazie all'acceleratore del GSI, risultato che fu poi ripetuto nel 2002 e infine confermato in modo inequivocabile e per via indipendente dall'Istituto di ricerca RIKEN, in Giappone.
Secondo quanto reso noto dai ricercatori, il nuovo elemento è stato ottenuto accelerando ioni di zinco (numero atomico 30) e facendoli collidere con un bersaglio di piombo (numero atomico 82) nell'acceleratore lineare lungo 120 metri del GSI: il nuovo nucleo risulta infatti dalla fusione dei due nuclei e il suo numero atomico è la somma dei numeri atomici degli atomi di partenza.
Dal 1981, gli esperimenti con l'acceleratore GSI sono risultati alquanto fruttiferi: sono stati infatti scoperti ben cinque nuovi elementi chimici, caratterizzati da numeri atomici che vanno dal 107 al 111. Già riconosciuti ufficialmente, portano nell'ordine i nomi Bohrio (dal nome del fisico Niels Bohr), Hassio (dal nome latino del Land tedesco dell'Assia), Meitnerio (in onore della fisica e matematica Lise Meitner), Darmstadtio (dal nome della città di Darmstadt) e Roentgenio (in onore dello scopritore dei raggi X Wilhelm Roentgen). (fc)

lunedì 8 giugno 2009

Motori a batteri: Intervista a Luca Angelani, ricercatore presso l'INFM (CNR) di Roma.

Fonte: Moebiusonline

a cura di Mariachiara Albicocco

Siamo abituati a pensarli in negativo, portatori di malattie e cause di infezioni.Stiamo parlando dei batteri, microrganismi dell'ordine del millesimo di millimetro. Sono onnipresenti, nel nostro corpo e in tutto l'ambiente che ci circonda; sono le forme viventi più diffuse sulla Terra, tanto che in un solo cucchiaio di terreno se ne possono trovare fino a 10.000 miliardi.In realtà molti di essi sono particolarmente utili all'uomo; pensiamo, ad esempio, ai batteri che consentono la produzione dello yogurt o a quelli che costituiscono la flora intestinale.
Adesso è dimostrato che si può sfruttare il loro movimento, quello dei batteri, per produrre energia… Detto in tre parole: motore a batteri!Ne parliamo con Luca Angelani, il ricercatore del laboratorio SMC (Statistical Mechanics and Complexity) dell'INFM- CNR di Roma che insieme a Roberto di Leonardo e Giancarlo Ruocco, del laboratorio SOFT di INFM-CNR, ha messo a punto il meccanismo.

Ascolta l'intervista a Luca Angelani:
Scarica il file audio in mp3

La ricercaRicercatori INFM-CNR hanno scoperto come sfruttare in modo semplice il moto dei batteri per produrre energia. Potrebbero rivelarsi preziosissimi in applicazioni ad alta miniaturizzazione, come gli impianti micromedicali, azionando motori di dimensioni ridottissime. La ricerca pubblicata sulle Physical Review Letters (Vol.102, No.4, 30 january 2009).
Trovare un modo per mettere al lavoro i batteri, come fossero animali da soma microscopici per sfruttare l'energia del loro movimento. E farlo nel modo più semplice possibile, in modo da renderne fattibile l'uso in apparati ad alta miniaturizzazione. È questa la direzione indicata dal risultato del lavoro dei ricercatori di INFM-CNR, che simulando sistemi di batteri in soluzione hanno individuato un modo per creare “motori batterici” dal funzionamento prevedibile, costante, ed in grado di avviarsi senza intervento umano.Curiosità scientifica: fino a pochissimo tempo fa, i motori batterici sono diventati un campo di intensa ricerca da quando nel 2006 se ne è dimostrata la fattibilità in Giappone. Si spera di poterne sfruttare le potenzialità in un futuro prossimo, per alimentare tutta una serie di apparecchi microscopici, come impianti micromedicali o nanodispositivi ancora tutti da inventare, per i quali i motori batterici potrebbero fornire una fonte di energia economica e di dimensioni ridottissime.Un motore batterico è composto, oltre che di microrganismi, di due altri ingredienti: la soluzione in cui sono immersi, e particolari microingranaggi che i batteri possono mettere in movimento. È proprio da questi ingranaggi (come dall'albero di un motore automobilistico) che si progetta di estrarre energia. E le difficoltà per farlo nel modo più semplice possibile sono state superate da Luca Angelani, del laboratorio SMC di INFM-CNR, e Roberto di Leonardo e Giancarlo Ruocco, del laboratorio SOFT di INFM-CNR. Se nel 2006 si sono utilizzati batteri geneticamente modificati e microingranaggi con leganti biochimici, con costi altissimi e rese bassissime, oggi grazie al loro lavoro si inverte il risultato: costi azzerati, e rendimento moltiplicato.
La soluzione consiste nell'utilizzo di microingranaggi di una particolare forma asimmetrica (vedi immagine in alto), con denti di lunghezze differenti e orientati nella medesima direzione, simili a stelle lievemente sbilenche. È sufficiente immergere questi ingranaggi in una soluzione di batteri, perché questi ultimi col loro movimento spontaneamente li facciano girare a velocità costante (nella simulazione, batteri di escherichia coli imprimevano ai microingranaggi una velocità costante di due giri al minuto). La somma di batteri e ingranaggi asimmetrici è l'unica vincente: particelle inanimate soggette al moto casuale non causano il movimento, e lo stesso accade per batteri al “lavoro” su ingranaggi simmetrici.
I ricercatori hanno identificato il modo più semplice per “costringere” i batteri a compiere lavoro utile da cui estrarre energia. Alcune applicazioni resteranno certo fantasia (i calcoli, ad esempio, suggeriscono che con i batteri presenti in un metro cubo di soluzione si può generare potenza sufficiente per accendere una normale lampadina), ma moltissime altre possono venire immaginate: che siano apparecchiature mediche, di misurazione, controllo o altro, la strada è aperta perché i batteri possano alimentare i microdispositivi del futuro.

Per saperne di più... visita il sito dei ricercatori!

domenica 7 giugno 2009

In arrivo l'autopsia tomografica: Più sensibile, precisa, economica e veloce.

FONTE: MOLECULARLAB

Più sensibile, precisa, economica e veloce, la tomografia è un valido sostituto all'autopsia tradizionale nella maggior parte dei casi.
Barry Daly, dell'Università del Maryland a Baltimora, nel corso dell'annuale convegno della Radiological Society of North America ha proposto di impiegare la tomografia computerizzata, che ha raggiunto un alto livello di precisione, come sostitutivo all'esame autoptico convenzionale in buona parte dei casi in cui è richiestoEgli sostiene che "La tomografia computerizzata è uno strumento molto sensibile per rilevare le ferite e la causa di morte nelle vittime di fatti di sangue. E dove ci sono ferite e traumi importanti, come negli iincidenti automobilistici può fornire informazioni sufficienti ad evitare un'autopsia tradizionale"Daly ha presentato uno studio in cui mostra la perfetta concordanza tra il metodo tradizionale e tomografico ponendo a confronto i referti ottenuti attraverso le due autopsie relativamente a venti casi di decessi dovuti a incidenti, lesioni da armi da taglio e da armi da fuoco. L'autopsia tomografica ha mostrato di essere anche più precisa, oltre che veloce, nell'identificazione di tutti i principali frammenti in cui può separarsi un proiettile.
Inoltre la nuova metodica è anche in grado di fornire risultati addirittura migliori nell'identificazione di decessi da embolia.La tecnica porterebbe con se quindi vari vantaggi; in caso di morte sospetta la procedura non invasiva non danneggia i dati importanti dal punto di vista legale, inoltre è meno costosa e più rapida, senza contare che può essere utilizzata senza suscitare problemi nei congiunti a causa di convinzioni religiose e culturali.