giovedì 28 febbraio 2013

Prime batterie flessibili per computer indossabili: Si dilatano e si ricaricano senza fili.

Fonte: ANSA Scienze
---------------------------
Si allungano fino al 300% della loro dimensione originale e si ricaricano senza fili: sono le prime batterie flessibili agli ioni di litio, grazie alle quali monitor avvolgibili e computer indossabili diventano più vicini. Il risultato, descritto sulla rivista Nature Communications, si deve al gruppo di ricerca coordinato dall'americano John Rogers, dell'università dell'Illinois.

Le batterie possono funzionare fino a 8-9 ore prima di essere ricaricata e continuano a essere efficienti anche dopo essere stata allungate, piegate, avvolte. Il processo di allungamento è reversibile e le batterie sono capaci di 20 cicli di ricarica.
Le nuove batterie hanno inoltre il vantaggio di ricaricarsi senza fili. Secondo gli autori le batterie flessibili potrebbero essere usate nell'elettronica flessibile, per esempio in dispositivi simili a 'pelli robotiche' da applicare sul corpo umano, per monitorare la salute o per schermi arrotolabili.

La capacità di queste batterie estensibili, sottolineano gli autori, è simile alle batterie tradizionali al litio che hanno le stesse dimensioni. Anche se la ricerca sui dispositivi elettronici procede a grandi passi e con buoni risultati uno degli ostacoli è costituito dalla progettazione di una fonte di un alimentatore in grado di sopportare la flessione e l'allungamento, pur mantenendo le sue prestazioni di accumulo di energia.
I ricercatori hanno superato questa difficoltà utilizzando strati di silicio sui quali sono stati installati elettrodi interconnessi fra loro per mezzo di sottilissimi cavi a spirale.

La matrice di silicio è quadrata e trasparente e contiene 100 elettrodi. "I componenti della batteria sono montati fianco a fianco e collegati da fitti e lunghi fili a spirale", ha osservato uno degli autori, Yonggang Huang della Northwestern University.
"Sono i fili a spirale - ha proseguito Huang - che permettono alle batterie di essere flessibili. Quando abbiamo allungato la batteria, i fili ondulati si sono spiegati come una fisarmonica. E' possibile allungare il dispositivo anche quando la batteria è al lavoro”.

Anche i virus possono avere un sistema immunitario: lo rubano ai batteri che infettano.

Fonte: ANSA Scienze
---------------------------
Anche i virus possono avere un sistema immunitario: lo rubano ai batteri che infettano. La scoperta, pubblicata sulla rivista Nature, si deve allo studio coordinato da Andrew Camilli, dell'americana Tufts University. Il risultato potrebbe aiutare a mettere a punto nuove terapie per la cura di molte infezioni causate da superbatteri resistenti agli antibiotici.

I ricercatori hanno dimostrato per la prima volta che un virus parassita (batteriofago) del vibrione del colera (il batterio responsabile di epidemie di colera negli esseri umani) ruba letteralmente il sistema immunitario di questo batterio. Quindi utilizza il sistema immunitario 'rubato' per disabilitare e superare il sistema di difesa dello stesso batterio contro il virus stesso. Grazie a questa arma segreta il virus riesce a moltiplicarsi, uccidendo così un numero sempre maggiore di batteri.
Finora si pensava che i batteriofagi esistessero solo come particelle primitive di Rna e che in essi mancasse la raffinatezza di un sistema immunitario adattativo, ossia in grado di rispondere rapidamente ad attacchi esterni.

A fornire il nuovo 'ritratto' dei virus è stata l'analisi del materiale genetico dei virus da campioni prelevati da pazienti affetti da colera in Bangladesh. I ricercatori stanno adesso cercando di capire il meccanismo con cui questi virus disabilitano il sistema di difesa dei batteri del colera e se ne impossessano a loro vantaggio.
Questa nuova conoscenza, sottolineano gli autori dello studio, è importante per capire se il sistema immunitario del batteriofago potrebbe superare sistemi di difesa dei batteri di nuova acquisizione e quindi ha implicazioni per la progettazione di nuove terapie contro i ceppi di superbatteri.

Un esperimento di telepatia hi-tech fra due ratti, i cui cervelli si sono collegati elettronicamente a migliaia di chilometri di distanza.

Fonte: ANSA Scienze
---------------------------
Esperimento di telepatia hi-tech fra due ratti, i cui cervelli si sono collegati elettronicamente a migliaia di chilometri di distanza, dal Brasile agli Stati Uniti. L'esperimento, pubblicato sulla rivista Scientific Reports, segna il primissimo passo verso la possibilità di realizzare un cosiddetto ''computer organico'' mettendo in rete più cervelli. Il progetto, dal costo complessivo di 20 milioni, prevede di avere la prima dimostrazione pubblica in Brasile, in occasione dell'inaugurazione dei Mondiali di calcio 2014.

Fra i due cervelli non sono stati trasmessi comandi, ma segnali che rappresentano decisioni prese dal ratto da cui parte l'informazione (codificante), che si trova in Brasile, presso l'Istituto Internazionale di Neuroscienze ''Edmond e Lily Safra'' nel Natal (Els-Iinn), e trasmessi all'altro cervello (ricevente), che si trova in Nord America, a Durham.
''Stiamo creando un singolo sistema nervoso centrale formato dai cervelli di due ratti'', osserva il responsabile della ricerca, Miguel Nicolelis, della Duke University. ''Anche se gli animali sono così distanti riescono a comunicare, nonostante gli inevitabili disturbi nella trasmissione e il ritardo nei segnali'', osserva il primo autore della ricerca, Miguel Pais-Vieira. ''L'esperimento - aggiunge - indica che potrebbe essere possibile creare una rete funzionante di cervelli animali distribuiti in luoghi differenti''. Fondamentalmente, prosegue Nicolelis ''stiamo creando un computer organico capace di risolvere un problema''.

Il punto di partenza dei ricercatori è stata la grande flessibilità del cervello dei ratti: ''i primi studi sulle interfacce uomo-macchina - spiega Nicolelis - ci hanno convinto che il cervello di ratto sia molto più plastico di quanto si pensi''. Il passo successivo è stato domandarsi: ''se il cervello può assimilare i segnali che vengono da sensori artificiali, potrebbe assimilare anche quelli che arrivano da sensori di un organismo diverso?''.
La risposta, positiva, è arrivata dagli esperimenti nei quali ratti che avevano imparato ad eseguire alcune operazioni legate ad una ricompensa, come premere l'interruttore giusto quando su di esso si accende un segnale luminoso o distinguere con i baffi le dimensioni di un'apertura. Quindi i cervelli dei ratti sono stati collegati con microelettrodi inseriti nell'area della corteccia cerebrale che elabora i segnali legati al movimento. Uno dei due ratti riceve un segnale visivo che indica l'interruttore giusto da spingere per avere la ricompensa. Nel momento in cui esegue l'operazione, l'attività cerebrale che la controlla viene tradotta in una stimolazione elettrica. Quest'ultima viene quindi inviata al cervello di un secondo ratto. Il ratto ''ricevente'' si trova davanti a interruttori molto simili a quelli che vede il primo ratto, ma non ha nessuna informazione su quale sia quello giusto da schiacciare, se non l'input che proviene dal cervello del primo ratto.

Al momento questa telepatia hi-tech dimostra di avere un successo pari al 70% e di essere bidirezionale: in caso di insuccesso, i cervelli di entrambi i ratti collaborano con il fine comune di ottenere la ricompensa.
Dopo il successo di questo primo esperimento i ricercatori puntano a collegare fra loro almeno 2.000 cellule nervose contemporaneamente ed a registrare l'attività elettrica prodotta simultaneamente da 10.000 a 30.000 neuroni della corteccia cerebrale nei prossimi 5 anni. Una delle ricadute potrebbe essere il controllo di protesi robotiche.
I ricercatori sono già al lavoro su un esperimento che prevede di collegare più animali per risolvere problemi complessi. Il vantaggio, secondo gli studiosi, è nel fatto che ''in teoria una rete di cervelli potrebbe elaborare soluzioni che i singoli cervelli da soli non srebbero in grado di trovare''.

Un'altra delle soprprese in agguato è nel fatto che i cervelli ''in rete'' comincerebbe ad elaborare un differente senso del sè, percependo come proprie le sensazioni trasmesse loro dagli altri cervelli. Vale a dire che gli organi di senso coinvolti nelle percezioni ricevute vengono sentiti come propri, sebbene appartengano ad un altro ratto. Sono già stati identificati i neuroni che riescono ad avere questa ''doppia'' percezione del sè gli esperimenti in questo campo sono considerati come il primo passo verso un nuovo campo di ricerca chiamato ''neurofisiologia delle interazioni sociali''.

Luigi Maxmilian Caligiuri: Fenomeni paranormali e scienza (telepatia, telecinesi,chiaroveggenza,...)

mercoledì 27 febbraio 2013

Una pistola laser distingue le carni alimentari. L'invenzione è dell' Università Tecnica di Berlino.

Fonte: Sci-X
----------------
Con una pistola laser-Raman, sviluppata presso l’Università Tecnica di Berlino, è possibile distinguere i diversi tipi di carne: maiale, manzo, tacchino e pollo. La carne di cavallo, se indesiderata, la si riconosce in una manciata di secondi, all’interno dello spettro dell’analisi Raman.
Il gruppo di lavoro di "Spettroscopia Laser", diretto dal Dr.-Ing. Heinz-Detlef Kronfeldt, è riuscito a identificare anche carni esotiche come quelle di cammello, coccodrillo e pitone, con la pistola laser. La pistola laser è essenzialmente un piccolo diodo laser rosso, che proietta nella carne e nelle ossa da analizzare un lampo della durata di un secondo. La luce viene diffratta e dalla diffusione ottenuta si possono ricavare le informazioni sul tipo di carne ed anche sull’età della carne stessa.
La pistola laser, sviluppata nel corso degli anni, è oggi in grado di eseguire il test di tipologia dell’animale e della freschezza anche se la carne è avvolta nella pellicola di imballaggio. La pistola laser è disponibile come prototipo presso il Dipartimento dell’università Tecnica di Berlino.

Testo originario

Una nuova tecnologia, consentirà di scrivere e inviare messaggi di testo semplicemente tracciando nell'aria le parole.

Credits immagine: Volker Steger
------------------------
Se nel futuro, camminando per strada, doveste imbattervi in qualcuno che muove le mani per aria come farebbe un direttore d'orchestra, aspettate a pensare che sia impazzito: forse sta semplicemente inviando un sms al partner. Una nuova tecnologia messa a punto dai ricercatori del Karlsruhe Institute of Technology (Kit), infatti, consentirà di scrivere e inviare messaggi di testo semplicemente tracciando nell'aria le parole. Dei sensori collegati a uno speciale guanto registrano i movimenti della mano, un sistema computerizzato cattura i segnali rilevanti e li traduce in testo. Gli sviluppatori dell'invenzione, Tanja Schultz e Cristoph Amma, sono stati premiati con il Google Faculty Research Award, che vale 81mila dollari (62mila euro circa).
Il nuovo sistema, secondo gli inventori, offre grandi potenzialità nel campo dello sviluppo di computer indossabili. Questi sono sistemi informatici che possono essere integrati negli abiti, perfettamente compatibili con la vita quotidiana degli utenti. "I gesti sono tipi di input del tutto nuovi", sostiene Amma. "Indossando il nostro dispositivo, è possibile scrivere lettere nell'aria, come se si utilizzasse una lavagna o un tablet invisibile". Sono attaccati al guanto sensori di accelerazione e giroscopi: contrariamente ai sistemi basati su telecamere, questi sensori sono molto più piccoli e robusti. I dispositivi registrano i movimenti delle mani e li trasmettono a un computer tramite una connessione senza fili: a questo punto, il sistema informatico prima controlla se l'utente stia effettivamente scrivendo, poi passa alla decodifica.
"Tutti i movimenti diversi dalla scrittura", continua Amma, "come ad esempio cucinare, fare il bucato o salutare qualcuno, vengono ignorati. Il sistema funziona in background, restando sempre in ascolto dell'input". Per ogni lettera dell'alfabeto, inoltre, viene memorizzato un disegno caratteristico, che tiene in conto delle differenze individuali nella grafia. Per ora, il sistema è in grado di riconoscere frasi complete scritte in lettere maiuscole e può contare su un vocabolario di 8000 parole: "Il nostro dispositivo ha un tasso di errore dell'11 per cento. Quando 'apprende' la grafia dell'utente, la probabilità di sbagliare scende al 3 per cento", conclude Amma.
La prossima sfida, a questo punto, riguarda il design e la commercializzazione. Aspetti su cui i ricercatori stanno già pensando: l'idea è di inserire i sensori in un bracciale o in un orologio, per minimizzare l'invasività sull'utente finale.

martedì 26 febbraio 2013

Roberto Mortari: "I ritmi segreti dell'Universo" (Aracne Editrice, Roma, 2010)

Il libro, di 336 pagine, è diviso in quattro parti. Nella prima parte vengono esaminati essenzialmente due tipi di fenomeno che consentono di mettere in evidenza una scansione ritmica del tempo nella storia del nostro pianeta. Il primo di essi riguarda i fenomeni glaciali. Si ritiene comunemente che le glaciazioni, con le loro singole puntate glaciali, siano state prodotte da variazioni cicliche dell’inclinazione dell’asse terrestre rispetto al piano dell’eclittica, con una distribuzione diversa nel tempo della insolazione alle diverse latitudini e con effetti opposti nei due emisferi. Essendo ormai chiaro che nel passato l’insolazione deve avere cambiato la sua intensità nello stesso senso su tutta la superficie terrestre, occorre trovare una nuova spiegazione all’origine delle glaciazioni. Tuttavia la “teoria astronomica” continua a essere largamente condivisa.
Il secondo tipo di fenomeni che viene esaminato riguarda la evoluzione diagenetica dei sedimenti recenti. I risultati ottenuti mettono in dubbio la convinzione che molti avvenimenti abbiano una ripetizione “ciclica” nel senso stretto del termine, nel quale vi è implicita l’aspettativa che vi sia una variazione graduale della intensità delle cause.
Infatti, analizzando i parametri fisici e meccanici dei depositi argillosi degli ultimi 12.500 anni, si è osservato che la consolidazione naturale manifesta episodi discontinui, ciascuno della durata di circa 2500 anni. Questo ha permesso di distinguere dei “livelli”, in ciascuno dei quali umidità, densità, coesione e preconsolidazione assumono valori distinti e pressoché costanti. Il passaggio da un livello all’altro è molto netto.
Questa discontinuità nella evoluzione di un sedimento è evidente anche se osserviamo come cambia la pressione di preconsolidazione nel sedimenti argillosi degli ultimi 5÷6 milioni di anni. Nel Pleistocene emergono tre distinti valori, di circa 5,5, 12 e 20 kg/cm2, che appartengono in modo caratteristico ai tre piani Tirreniano, Siciliano e Calabriano nei quali la serie è comunemente suddivisa. Andando in basso nella successione, nel Pliocene si trovano cinque valori compresi tra 30 e 95÷100 kg/cm2, mentre ancora più in profondità, passando alla parte medio-alta del Messiniano,, la preconsolidazione scende rapidamente prima a 75 e poi a 53 kg/cm2 circa.
Anche in questi casi la transizione tra questi valori tipici dei vari “piani” è molto rapida, e la preconsolidazione tende a rimanere con un valore costante per l’intero spessore di un piano.
In questo modo viene corretta l’interpretazione che viene data comunemente del significato della preconsolidazione di queste argille, la quale sostiene che essa è in relazione esclusiva con il peso dei sedimenti sovrastanti. Poiché le forze elettriche possono produrre gli stessi effetti, si può affermare che in tutti i casi esaminati le forze del campo elettrico della Terra solida devono avere prevalso sulle forze del campo gravitazionale. Queste forze rimarrebbero pressoché costanti durante la deposizione di un piano o un livello, per cambiare poi abbastanza rapidamente quando c’è il passaggio al piano o al livello successivo.
La seconda parte tratta le variazioni del livello del mare. Queste variazioni sono state sempre difficili da determinare con una certa accuratezza poiché richiedono un riferimento fisso, che a posteriori può essere dato dal centro della terra ma in pratica al momento delle determinazioni è fornito da una terra emersa che sia riconosciuta stabile, ovvero esente da movimenti verticali dovuti a sollevamenti orogenici, bradisismi, subsidenze o compensazioni isostatiche.
L’argomento è pieno di grandi potenzialità dato che esso può fornire informazioni sia sui movimenti, locali o globali, della crosta terrestre sia, secondariamente, sulla quantificazione dei volumi di ghiaccio che si sono accumulati sui continenti.
Partendo da quest’ultimo aspetto, Shackleton e Opdike (1973) ritennero di poter ricostruire indirettamennte le posizioni del livello marino delle ultime centinaia di migliaia di anni determinando il rapporto isotopico dell’ossigeno di gusci di foraminiferi raccolti in carotaggi eseguiti sui fondi oceanici. Essi erano convinti che questo rapporto dipenda dalla quantità di ghiaccio immobilizzato sui continenti durante le espansioni glaciali, diversamente dall’interpretazione data da Emiliani (1955) secondo il quale il rapporto isotopico dell’ossigeno può semplicemente dar conto di come è cambiata la temperatura.
Alcune importanti incongruenze riscontrate nei loro risultati diedero ragione a Emiliani e possono essere spiegate dalla teoria di Gaia di Lovelock. La stessa teoria serve a spiegare il particolare modo in cui sono cambiate la concentrazione di CO2 nell’atmosfera e la temperatura al suolo durante l’Età Industriale.
Il solo modo di superare queste difficoltà era di affidarsi a un metodo diretto per determinare le variazioni del livello del mare. Esso consiste nel misurare la quota, riferita all’attuale livello marino, delle antiche linee di costa, rintracciabili su quasi tutte le terre emerse, che sono generalmente abbinate a terrazzi di abrasione marina. Il Mediterraneo è una regione privilegiata per questo studio, che infatti si è sviluppato qui fin dalla fine del XIX secolo. Due particolari aspetti sono da rilevare. Il primo è che questi terrazzi hanno morfologie fresche, come se fossero stati abbandonati dal mare da poco tempo. Il secondo è che sulle loro superfici si possono trovare fossili di spiaggia che il più delle volte appartenevano a specie caratteristiche di acque più calde dell’attuale. Su questa base è stata distinta la parte più recente del Pleistocene, a cui è stato dato il nome di Tirreniano.
All’inizio dell’applicazione di questo metodo “altimetrico” sono state possibili correlazioni a distanza, come tra Algeria e Francia. Poi, quando il numero delle linee di costa e il numero dei ricercatori che si sono dedicati a questa ricerca è fortemente aumentato, si è fatta risentire una grande difficoltà dovuta al fatto che le misure venivano effettuate con insufficiente precisione, con il risultato che le correlazioni non erano più certe.
Purtroppo, a causa della generalizzata imprecisione delle misure altimetriche delle linee di costa del Tirreniano, aree anche molto prossime tra di loro sono apparse con misure non correlabili, e la conseguenza è stata che sono stati fatti intervenire sistematicamente sollevamenti differenziali a giustificare le diversità.
Applicando questo giudizio a quasi tutte le situazioni, l’ingressione del Tirreniano è stata drasticamente ridimensionata e oggi si ritiene comunemente che essa abbia raggiunto una quota massima di 6 m, inferiore addirittura a quella, di 7 m, che risulta essere stata raggiunta dal mare durante il culmine interglaciale che si è realizzato 4800 anni fa.
Ma se le misure sono eseguite con la dovuta precisione, cioè approssimate a 1 metro, è possibile rilevare corrispondenze anche a grandi distanze. Così, in Italia (Lazio e Calabria), Grecia (isola di Milos), Somalia e isola di Pasqua si può riconoscere l’esistenza, fino a 144 m, di una identica successione di una ventina di linee di costa. In seguito, la stessa successione, fino a 59 m, è stata riconosciuta da altri autori sull’isola di Barbados.
Linee di costa dello stesso genere si riscontrano anche a quote maggiori. Nella zona centrale dell’Appennino esse sono state rintracciate da 122 fino a 2386 m. Bisogna tener conto però che qui sono intervenuti intensi sollevamenti, diversi da zona a zona. Sfruttando il fatto che per ogni zona il sollevamento è risultato uniforme, è stato possibile ricostruire una successione di dislivelli comuni a tutte le varie zone, che rappresentano in maniera inequivocabile i movimenti del mare.
Si è andata delineando così una grande trasgressione del mare, che ha raggiunto la quota massima di 822 m 270 mila anni fa. Ciò significa che in quel momento il mare è ingredito su tutti i continenti sommergendone complessivamente metà delle superfici. Ingressioni di questo ordine di grandezza sono avvenute già nel passato, ma sono state di maggiore durata, per cui hanno lasciato testimonianze molto più consistenti; le più note sono quelle dell’Ordoviciano e del Cenomaniano, di circa 450 e 90 milioni di anni fa.
È da notare che i terrazzi marini rappresentano stazionamenti che il mare ha avuto per periodi relativamente lunghi, ciascuno di oltre 2000 anni, ed emerge sempre di più l’evidenza che la transizione tra l’uno e l’altro stazionamento rappresenta un movimento rapido. Si rivela anche qui dunque il carattere discontinuo rilevato già nella evoluzione dei sedimenti.
Nella terza parte si analizzano singolarmente i periodi, di varia durata, che scandiscono la manifestazione di diversi fenomeni. Il “ciclo” più facilmente inquadrabile – perché ben precisato dagli astronomi – ha un quasi-periodo di circa 41 mila anni. Nelle stratigrafie isotopiche dell’ossigeno si evidenzia il suo multiplo di 123 mila anni, che ha la caratteristica di un superciclo di durata costante. Esso appare formato da 49 cicli minori, della durata di poco più di 2500 anni.
Un ciclo di circa 2500 anni si ritrova più volte nella letteratura geologica poiché ha regolato le espansioni e i ritiri dei ghiacciai di montagna, le variazioni climatiche dell’Europa settentrionale, la composizione faunistica dei foraminiferi, sia di acque superficiali che profonde, usati come indicatori climatici di tutti i mari.
Cicli di questa durata sono alla base non solo di variazioni rapide del livello del mare ma anche dei cambiamenti di preconsolidazione – e di addensamento – dei terreni postglaciali più recenti. Alla fine, imminente, del ciclo attuale, i sedimenti a grana fina degli ultimi 12.500 anni subiranno una rilevante riduzione di spessore e daranno l’avvio a estesi fenomeni di subsidenza, del tutto analoghi a quelli che oltre 2500 anni fa hanno colpito città come Sibari, Veia, Tartesso, Alessandria d’Egitto e molte altre ancora.
Sono stati riconosciuti altri cicli, di durata minore (160 e 10 anni, 6 mesi, 10 giorni, 16 ore, 1 ora, 15 secondi, 1 secondo), evidenziati soprattutto da variazioni spesso ben riconoscibili del livello del mare.
Cicli di durata maggiore, di 0,67, 11, 179 e 2900 milioni di anni, sono alla base di vari fenomeni, che oltre a variazioni del livello del mare e delle temperature, comprendono i grandi eventi glaciali, le estinzioni di massa, la formazione delle montagne e di intense mineralizzazioni.
Una caratteristica di rilievo delle durate dei vari cicli è che ciascun ciclo contiene sempre un numero intero di cicli minori.
Nella quarta parte si pone il problema della causa che ha prodotto la grande trasgressione del Tirreniano. Poiché è risultato che i fondi oceanici non si sono approfonditi, bisogna pensare che siano cambiate le aree delle loro superfici e quindi che la Terra abbia cambiato le sue dimensioni. Perché ciò sia possibile occorre supporre che la composizione del nucleo della Terra sia diversa da quella che si ritiene comunemente e che sia intervenuto un drastico cambiamento del coefficiente di gravitazione universale G, normalmente considerato di valore costante.
Anche la formazione del sistema solare è stata riconsiderata, facendola derivare non dall’aggregazione di polveri e gas, come si ritiene comunemente, ma dall’impatto col Sole di frammenti di supernova.
Poiché il Sole e altre stelle mostrano variazioni di luminosità secondo gli stessi ritmi scoperti sulla Terra, si è posto il problema della provenienza delle variazioni di G. Dalle curve di luce di due stelle variabili, Eta Carinae e P Cygni, si è trovato che queste variazioni provengono da una direzione che è la stessa secondo la quale si manifestano sia la anisotropia mostrata dalla densità dell’intero universo rilevabile – la cosiddetta “anomalia nord galattica” – sia la debole ma netta anisotropia che interessa la radiazione cosmica di fondo a microonde.
Certamente legato a questa situazione è il fatto che le galassie tendono a disporsi lungo superfici perpendicolari alla direzione individuata. La più vicina a noi di queste superfici è stata chiamata la “Grande muraglia”. Le altre “muraglie galattiche” sono pressoché equidistanti, con una distanza media pari a circa 180 milioni di anni luce. Tale valore corrisponde a uno dei periodi rilevati sulla Terra se si ammette che le muraglie si siano create per un fenomeno di risonanza di onde gravitazionali, che la teoria della relatività considera viaggiare alla velocità della luce. Poiché è da ritenere che questa precisa distribuzione delle galassie abbia richiesto molto tempo, durante il quale la distanza tra le muraglie è rimasta sempre la stessa, si deve pensare che l’universo non si stia espandendo e che vada accolta l’interpretazione che Hubble dava del redshift cosmologico, dovuto a una perdita di energia della luce sulle grandi distanze.
-----------------------------------------------------------------
Roberto Mortari, 1939, laureato in Scienze geologiche nel 1964 all’Università di Roma La Sapienza con 110/110 e lode con una tesi in Geologia applicata, dal titolo Rilevamento geologico della parte sud-occidentale della tavoletta Montieri, III NO del Foglio 120 della Carta d’Italia, con studio del giacimento di pirite della miniera del Ritorto, relatore Prof . Roberto Signorini.
Ha insegnato Geotecnica dal 1968 al 2007 presso la Facoltà di Scienze della stessa università, dando alle lezioni un’impronta diversa da quelle degli omonimi corsi tenuti presso le facoltà di Ingegneria e di Architettura. Ciò è stato ottenuto curando l’importanza della conoscenza della storia geologica di un terreno ai fini di una ottimale caratterizzazione tecnica dello stesso. In quest’ottica sono stati ottenuti notevoli progressi grazie all’osservazione che le caratteristiche tecniche di un terreno variano nel tempo in modo discontinuo e che, per un medesimo intervallo di tempo, tutti i terreni tendono ad acquisire valori analoghi di vari parametri geotecnici, come la resistenza al taglio non drenata, la umidità, la densità, la preconsolidazione, con una modesta variabilità in funzione delle proprietà fisiche del terreno, come la composizione granulometrica e quella mineralogica.
Dal 1969 al 1985 ha svolto attività professionale in Italia e all’estero per i progetti di un aeroporto, un eliporto, due ferrovie, tre autostrade.
È stato consulente tecnico sia di parte che di ufficio in cause civili e penali.
Si è occupato e ha pubblicato lavori di rilevamento geologico, stratigrafia, variazioni del livello del mare, consolidazione di terreni recenti, subsidenza, frane sottomarine, attività vulcanica, faglie sismogenetiche, sollevamento dell’Appennino, glacialismo, variazioni climatiche, datazioni.
Ha sviluppato dal 1972 un’ampia conoscenza delle variazioni del livello del mare del passato partendo dall’osservazione che tali variazioni devono avere avuto un carattere nettamente discontinuo per avere lasciato tracce di erosione a quote ben distinte e identiche in tutte le parti del pianeta che si possano considerare stabili.
Ha riscontrato discontinuità anche nelle testimonianze dei fenomeni glaciali, che perciò non possono essere spiegati con variazioni continue dell’assetto della Terra rispetto al Sole, come sostiene invece la cosiddetta teoria astronomica.
Ha pubblicato un libro dal titolo “I ritmi segreti dell’Universo”, in cui espone le sue ricerche sui ritmi che si riscontrano in natura sia in vari generi di fenomeni sulla Terra che nelle curve di luce di alcune stelle e che per questo fanno pensare che abbiano la loro origine da variazioni, di varia intensità e frequenza, del coefficiente di gravitazione universale.
Nel 2011 ha scritto “2012 – Dalla profezia maya alle previsioni della scienza”, in cui fa delle previsioni sul tipo di fenomeni che possono essere alla base di questa cosiddetta profezia e sui loro tempi di attuazione. Vi espone inoltre studi fatti sulle mura megalitiche di Pyrgi e Orbetello, che comunemente vengono attribuite al III e IV secolo a.C. e che invece risultano essere rispettivamente di 3 e 5 millenni più antiche.

domenica 24 febbraio 2013

Per districare il Dna, potrebbe essere sufficiente un nanocanale. È quanto suggerisce uno studio pubblicato su Soft Matter.

------------------------
Per togliere i nodi dai capelli basta qualche colpo di spazzola, per districare il Dna invece potrebbe essere sufficiente un nanocanale. È quanto suggerisce uno studio pubblicato su Soft Matter e condotto da Cristian Micheletti della Scuola Internazionale Superiore di Studi Avanzati (Sissa) di Trieste e da Enzo Orlandini dell’Università di Padova.
I ricercatori, infatti, spiegano come sia possibile ricorrere a una tecnica passiva per selezionare da un campione di Dna le molecole desiderate, racconta Micheletti: "Canali e filamenti hanno proprietà fisiche che possiamo sfruttare per far passare selettivamente un tipo di molecola. Ci sono filamenti più o meno aggrovigliati e con nodi di tipo diverso. Nel nostro studio abbiamo considerato un modello di filamenti di Dna e ne abbiamo studiato il comportamento all’interno di un nanocanale. Abbiamo osservato che variando l’ampiezza del canale è possibile cambiare drasticamente la quantità e complessità dei nodi formati dal Dna". Un metodo così selettivo (analizzato per ora solo in modo simulativo) da permettere agli scienziati di ottenere sia filamenti districati che con il giusto grado di aggrovigliamento, a seconda delle necessità.
"I fisici sperimentali saranno, in prima battuta, interessati a questa tecnica per ottenere Dna senza nodi", continua Micheletti: "Non dimentichiamo però che questo è un metodo che può servire anche per comprendere meglio, per esempio, il funzionamento delle topoisomerasi, enzimi molto importanti per il metabolismo cellulare".
Riferimenti e credits immagine (rappresentazione di Dna annodato): Sissa; Knotting and metric scaling properties of Dna confined in nano-channels: a Monte Carlo study, Soft Matter Doi: 10.1039/C2SM26401C

venerdì 22 febbraio 2013

Una ricerca mira a rivelare un'ipotetica quinta forza fondamentale della natura dovuta all'interazione a lunga distanza tra gli spin delle particelle.

Rappresentazione artistica dello schema sperimentale: lo spin degli elettroni posti all'interno del mantello terrestre dovrebbe interagire, in linea teorica, con lo spin delle particelle sulla superficie (Marc Airhart (University of Texas at Austin) and Steve Jacobsen (Northwestern University)).
Fonte: Le Scienze
-----------------------
Una ricerca mira a rivelare un'ipotetica quinta forza fondamentale della natura dovuta all'interazione a lunga distanza tra gli spin delle particelle. L'apparato sperimentale con cui verificare questa forza sconosciuta è il nostro pianeta, in particolare i minerali ferrosi che abbondano nel mantello terrestre. Se confermata, questa interazione permetterebbe di studiare punti del mantello inaccessibili con le tecniche attuali.
La viscere della Terra potrebbero diventare un apparato sperimentale naturale per rivelare gli effetti di un'ipotetica "quinta forza". Se venisse confermata, quest'ultima potrebbe per converso fornire un nuovo metodo con cui studiare in dettaglio la composizione degli strati più profondi del nostro pianeta. Sono le due conclusioni speculari di un articolo firmato dai ricercatori dell’Amherst College e dell’Università del Texas a Austin sulla rivista “Science”.

Come si può leggere in un qualsiasi testo di fisica, in natura ci sono quattro forze fondamentali: gravitazionale, elettromagnetica, nucleare forte e nucleare debole. La quinta forza, un’ipotesi formulata da una parte della comunità dei fisici, legherebbe gli spin delle particelle a lunga distanza. Molte estensioni del modello standard prevedono infatti l’esistenza di nuove particelle, che verrebbero scambiate in modo virtuale tra fermioni, cioè tra particelle caratterizzate da valori di spin multipli dispari di 1/2. Tutto questo determinerebbe l’esistenza di interazioni spin-spin molto diverse da quelle che emergono nel contesto dell’elettromagnetismo e che risulterebbero dallo scambio di un bosone vettore (una particella cioè dello stesso tipo di quelle che mediano le forze fondamentali conosciute). Un'altra possibilità contemplata dagli autori è che l'interazione spin-spin sia mediata da una particella ancora più esotica chiamata unparticle, di massa nulla.
Il fatto che l'interazione sia a lunga distanza, consentirebbe in linea di principio di collegare la materia che si trova sulla superficie terrestre con quella a migliaia di chilometri di profondità, cioè nel mantello, lo spesso strato che separa la crosta terrestre dal nucleo ferroso del nostro pianeta. Secondo
gli autori dello studio, proprio l’interazione tra particelle lontane fornirebbe informazioni preziose su una parte del nostro pianeta che risulta inaccessibile con i metodi tradizionali.

In base al modello geologico attuale, il mantello è costituito in gran parte da minerali del ferro. Gli atomi in questi minerali e le particelle da cui sono composti gli atomi stessi sono immersi nel campo magnetico terrestre e quindi i loro spin hanno una specifica orientazione.

I ricercatori coordinati da Larry Hunter, professore di fisica dell’Amherst College, hanno realizzato innanzitutto un modello al computer per mappare i valori attesi delle densità e delle direzioni degli elettroni dei minerali delle viscere della Terra, che hanno chiamato geolettroni. Questi dati sono stati combinati con alcuni risultati ottenuti dal laboratorio di Jung-Fu "Afu" Lin, professore associato della Jackson School of Geosciences dell'Università del Texas e coautore dello studio, che riguardano gli spin elettronici in minerali sottoposti a condizioni di alta temperatura e pressione, paragonabili a quelle presenti all’interno della Terra. L’obiettivo era verificare se gli spin di elettroni, neutroni e protoni in vari laboratori della Terra potessero avere differenti energie in funzione della direzione in cui sono orientati rispetto al campo geomagnetico. Il confronto ha per ora fornito un limite superiore alla presenza dell'interazione spin-spin tra due elettroni, la cui intensità è risultata inferiore a circa un millesimo di quella della forza gravitazionale.

“Sappiamo per esempio che un magnete ha un’energia più bassa quando è orientato parallelamente al campo geomagnetico: è il principio di funzionamento della bussola”, ha sottolineato Hunter. “Nei nostri esperimenti riusciamo a eliminare questa interazione magnetica e a verificare se esiste qualche ‘altra’ interazione che possa essere interpretata come un’interazione a lunga distanza tra gli spin del nostro apparato e gli spin degli elettroni che si trovano all’interno della Terra, allineati con il campo magnetico terrestre. È questa l’interazione spin-spin a distanza che cerchiamo”.

Il primo orecchio artificiale stampato in 3D: E' fatto di collagene e cellule della cartilagine.

Fonte: ANSA Scienza
---------------------------
Ottenuto con collagene e cellule della cartilagine E' stato ottenuto il primo orecchio artificiale stampato in 3D: è del tutto simile a un orecchio naturale ed è descritto sulla rivista PLoS One da un gruppo di ricerca americano del Weill Cornell Medical College.
Realizzato con un gel di collagene e cellule della cartilagine, potrebbe essere una speranza per i bambini nati con malformazioni congenite del padiglione esterno dell'orecchio chiamata microtia, oppure per quanti perdono parte o tutto il loro orecchio esterno per incidenti o tumori.
"Se supererà i futuri test di sicurezza e di efficacia, il primo orecchio di questo tipo, potrebbe essere impiantato già fra meno di tre anni", osserva uno degli autori, il chirurgo plastico Jason Spector.
L'orecchie artificiale viene attualmente costruito con materiali che hanno una consistenza simile al polistirolo o con materiali prelevati da una costola del paziente. "Questa opzione – spiega Spector - è difficile e dolorosa per i bambini e le orecchie raramente hanno un aspetto completamente naturale o un buon rendimento".
Per ottenere l'orecchio stampato in 3D i ricercatori sono partiti da un'immagine digitale tridimensionale di un orecchio umano: quindi hanno convertito l'immagine in uno stampo 3D grazie a una stampante per strutture tridimensionali. Nello stampo è stato poi iniettato il gel di collagene. Quando lo stampo viene rimosso, la densità di questo gel è simile alla consistenza di una marmellata.
Il collagene, spiegano gli esperti, serve come impalcatura su cui fare crescere in un secondo momento le cellule della cartilagine. Il processo è anche veloce: "ci vuole una mezza giornata per progettare lo stampo, un giorno per stamparlo, 30 minuti per iniettare il gel, e possiamo rimuovere il 'calco' dell'orecchio 15 minuti dopo", spiega uno degli autori, l'ingegnere biomedico Lawrence Bonassar.
A questo punto l'orecchio viene lasciato in una coltura con sostanze nutritive per diversi giorni per far screscere sull'impalcatura le cellule della cartilagine e, quando questa si è formata, l'orecchio è pronto per l'impianto. "L'utilizzo di cellule umane, in particolare quelle dello stesso paziente - rileva Spector - riduce ogni possibilità di rigetto".

Il linguaggio 'elettrico' dei fiori, utilizzato come la pubblicità, per attirare gli insetti impollinatori.

Rappresentazione grafica del potenziale elettrico e del campo elettrico di un fiore (fonte: D. Clarke et al., Science)
Fonte: ANSA Scienza
----------------------------
Non solo colori e profumi: per attirare gli insetti che provvedono all’impollinazione i fiori emettono anche qualcosa di simile a messaggi pubblicitari, utilizzando segnali elettrici. A scoprire questo sconosciuto e sofisticato metodo di comunicazione è stato un gruppo di ricerca dell'università britannica di Bristol, il cui lavoro è pubblicato sulla rivista Science.

I colori vivaci, la forma e le fragranze sono le armi più note utilizzate dai fiori per 'sedurre' gli insetti impollinatori. A queste ora si aggiungono i segnali elettrici, finora sconosciuti, con i quali i fiori comunicano informazioni: un equivalente delle insegne al neon dei negozi.

Nonostante fosse noto da tempo che le piante producono un debole campo elettrico, nessun esperimento ne aveva mai dimostrato la funzione. Misurando le variazioni del potenziale elettrico delle petunie, i ricercatori hanno osservato delle modifiche del campo all'avvicinamento di api e bombi, a loro volta carichi elettricamente a causa dello sbattere d'ali nell'aria.
Dopo la 'visita' di un insetto, la carica elettrica del fiore rimane in questo nuovo stato modificato per alcuni minuti: probabilmente è un modo per avvisare gli altri insetti di non avvicinarsi in quanto già visitato. Questi segnali potrebbero quindi essere interpretati come una sorta di insegna al neon che, quando si spegne, indica che il 'locale' è temporaneamente chiuso.

Resta da comprendere, come spiegano gli stessi ricercatori, quali organi di senso permettano a api e bombi di riconoscere questi segnali elettrici finora sconosciuti. "Questo 'nuovo' canale di comunicazione – ha spiegato il coordinatore dello studio, Daniel Robert – rivela come i fiori siano in grado di informare onestamente i loro impollinatori sulla quantità delle loro preziose riserve di nettare e polline. L'ultima cosa che vuole un fiore è attrarre un ape e poi non riuscire a fornirle il nettare: una lezione di pubblicità corretta. In caso contrario, infatti, le api perderebbero presto interesse verso i fiori ingrati".

giovedì 21 febbraio 2013

Una teoria della gravità quantistica potrebbe effettivamente eliminare le incertezze della meccanica quantistica.

Fonte: Gaianews.it
------------------------
Alcune tra le soluzioni alle equazioni di Albert Einstein sono compatibili con scenari a prima vista paradossali. Il viaggio nel tempo è uno di questi. Per viaggiare nel futuro occorrerebbe avvicinarsi ad una frazione non trascurabile della velocità della luce. Invece, per i viaggi nel passato la questione si fa più spinosa, se non altro perché richiede che la struttura dello spaziotempo sia in qualche modo incurvata.
In merito a questa seconda opzione, una ricerca appena comparsa in Physical Review Letters dimostra che, se un oggetto raggiunge un punto del passato viaggiando nello spaziotempo, allora è possibile misurare con precisione due variabili correlate – ad esempio, la posizione e il moto – della traiettoria che ha percorso, violando in questo modo il Principio di Indeterminazione di Heisemberg.
Questa scoperta prevede l’esistenza di una traiettoria, conosciuta come linea (o curva) aperta di tipo tempo (open timelike curve, OTC), che è un caso particolare della linea (o curva) chiusa di tipo tempo (closed timelike curve, CTC).
Una CTC è un concetto teoretico, una linea o curva di universo che connette ogni evento a se stesso. Le CTC sono permesse dalle distorsioni dello spaziotempo previste dalla Relatività Generale: un oggetto, seguendo la freccia temporale verso il futuro e, dunque, percorrendo la CTC, prima o poi tornerà nel punto dello spaziotempo da cui è cominciata la linea di universo stessa – ciò significa che ha viaggiato a ritroso nel tempo.
Ora, i fisici Jacques Pienaar, Tim Ralph, e Casey Myers dell’Università di Queensland in Australia hanno dimostrato che un caso di OTC può teoricamente permettere di misurare, con un grado di precisione arbitraria, una coppia di variabili coniugate di uno stato quantico. La scoperta potrebbe avere importanti implicazioni sul modo stesso di intendere il concetto di indeterminazione e sulla gravità quantistica.
Il Principio di Indeterminazione di Heisemberg. Minore è l’approssimazione con cui conosciamo la posizione di una particella elementare maggiore è l’incertezza riguardo alla sua quantità di moto, e viceversa. L’indeterminazione sembra connessa alla misurazione: ad esempio, per determinare il moto della particella dobbiamo “illuminarla” con dei fotoni, che ne alterano la posizione. E questo vale per ogni coppia di variabili coniugate.
L’indeterminazione è anche intesa in senso più forte, come una caratteristica intrinseca dei sistemi quantistici proprio a causa del dualismo onda-particella. Fino ad ora si sapeva che i modelli teorici di CTC violavano il Principio di Indeterminazione; nessuno sapeva ancora che lo stesso si poteva verificare anche per i sistemi OTC.
“Vi è una certa speculazione sul fatto che il principio di indeterminazione di Heisenberg possa subire modifiche in una futura teoria della gravità quantistica”, ha spiegato Jacques Pienaar. “Tuttavia, la maggior parte di questi studi suggeriscono che la gravità quantistica introdurrà una maggiore incertezza mentre il nostro modello suggerisce il contrario. Una teoria della gravità quantistica potrebbe effettivamente eliminare le incertezze della meccanica quantistica”.
OTC e Relatività Generale. La possibilità di operare una misura perfetta deriva dal carattere peculiare delle traiettorie OTC. Essendo il tipo più semplice di CTC, considerando che le CTC formano anelli chiusi nel tempo che consentono ai sistemi di influenzare gli eventi nel loro passato, le traiettorie OTC formano legami aperti e non permettono ai sistemi di interagire con versioni precedenti di se stessi. In questo modo si eviterebbero i classici paradossi legati ai viaggi a ritroso nel tempo, primo tra tutti il noto paradosso del nonno: se costruisco una macchina del tempo e mi reco nel passato, potrei incontrarlo e, uccidendolo, impedirei la mia stessa nascita.
A dispetto di simili paradossi, le CTC sono compatibili con la Relatività Generale ma sono incompatibili con la fisica quantistica. Un modo per renderli compatibili anche con la teoria dei quanti potrebbe essere questo: accettare l’incompletezza della fisica quantistica, estenderla con l’aggiunta di principi o variabili, come accade con il modello di Deutsch. Se si accetta la non-linearità di Deutsch, compaiono alcune proprietà insolite che, però, permetterebbero di costruire un computer molto potente capace di risolvere problemi molto complessi
L’esperimento di ottica quantistica ha dimostrato che la matematica non lineare del modello di Deutsch vale anche per le OTC, dove non c’è interazione tra passato e presente a condizione che il sistema in cui avviene il viaggio nel tempo e un sistema esterno di riferimento siano entangled. Per arrivare a questa conclusione, i fisici hanno calcolato ciò che accade agli stati quantistici in viaggio lungo un nanocircuito ottico che contiene un OTC.
In questa situazione teorica, due stati quantici sono schiacciati in direzioni ortogonali. Ripetendo più volte il loop di stati nel circuito, gli scienziati hanno scoperto che potevano misurare le componenti ortogonali con precisione arbitraria. In modo simile a due orologi che misurano tempi diversi in differenti condizioni gravitazionali, gli OTC determinano una differenza di tempo tra due traiettorie inizialmente sincronizzate simulando la dilatazione temporale prevista dalla relatività generale.
Gravità quantistica. Jacques Pienaar aiuta a capire quali potrebbero essere le ripercussioni su questa teoria. “Il modello di Deutsch descrive gli strani effetti quantici che potremmo vedere in presenza di CTC in una futura teoria della gravità quantistica”. Infatti, se non ci fossero CTC nell’universo, non ci si aspetterebbe di vederne gli effetti.
Ma dal momento che il rallentamento del tempo a causa della gravità sembra proprio somigliare all’effetto di un OTC, gli scienziati hanno concluso che, se questo è vero, allora sarebbe possibile violare il principio di indeterminazione di Heisenberg.
La connessione tra OTC e i campi gravitazionali è ancora speculativa: conferme potrebbero venire inviando fasci entangled di luce fino ad un satellite in orbita, oppure dall’esecuzione di esperimenti su sistemi entangled nel campo gravitazionale della Terra. Peccato che, nel secondo caso, per ottenere questo risultato bisognerebbe costruire una macchina del tempo o attraversare un wormhole.

Le fluttuazioni quantistiche che dominano il mondo microscopico si possono amplificare fino a influire sulla realtà macroscopica.

Dal micro- al macromondo: anche il risultato del lancio di una moneta è intrinsecamente casuale, come nei processi descritti dalla meccanica quantistica (© moodboard/Corbis)
Fonte: Le Scienze
-----------------------
Secondo uno studio teorico, le fluttuazioni quantistiche che dominano il mondo microscopico influiscono sulla realtà macroscopica. La probabilità quindi sarebbe una caratteristica intrinseca della realtà e non una stima della capacità di descrivere un fenomeno macroscopico.
Le fluttuazioni quantistiche che dominano il mondo microscopico si possono amplificare fino a influire sulla realtà macroscopica. È la conclusione di uno studio teorico secondo cui la probabilità è una caratteristica intrinseca della realtà e non una stima della capacità di descrivere un fenomeno macroscopico. Questo visione implica che, per esempio, il risultato del lancio di una moneta non è prevedibile neppure in linea di principio.
Il mondo alla scala microscopica può essere conosciuto solo attraverso leggi probabilistiche, formalizzate dalla meccanica quantistica. Il mondo macroscopico, almeno per quanto riguarda la meccanica, è invece fatto di eventi prevedibili. E quando si parla di probabilità nel mondo macroscopico, per esempio 50 per cento testa e 50 per cento croce per il lancio di una moneta, lo si fa per "ignoranza", ovvero perché non ci sono dati sufficienti per effettuare una previsione deterministica, possibile comunque in linea di principio.
Questa profonda dicotomia delle fisica raccontata e argomentata mille volte è messa in discussione da Andreas Albrecht e Daniel Phillips dell’Università della California a Davis. In uno studio postato su ArXiV, i due ricercatori sostengono che l’incertezza che nel mondo macroscopico ci porta a formulare ipotesi probabilistiche non dipende affatto dalla nostra ignoranza, ma da un riflesso della probabilità intrinsecamente collegata ai fenomeni quantistici.
L’argomentazione di Albrecht e Phillips inizia con un sistema fisico ideale: un fluido costituito da molecole perfettamente elastiche e che collidono tra loro senza sosta. Secondo il principio d’indeterminazione di Heisenberg non è possibile conoscere nello stesso momento la posizione e la quantità di moto di una particella con precisione arbitraria.
Nel caso del fluido ipotizzato dai due fisici statunitensi, il principio implica che la traiettoria delle molecole è intrinsecamente incerta. Non solo: l’incertezza aumenta a ogni collisione, cioè si amplifica sempre più con il passare del tempo. E si può anche stimare di quanto con semplici formule matematiche: basta considerare alcuni parametri plausibili per massa e dimensioni delle particelle, per il loro camino libero medio (cioè lo spazio percorso in linea retta tra due collisioni successive) e per la loro velocità media. Secondo i calcoli di Albrecht e Phillips, l’effetto complessivo è che le proprietà macroscopiche di un fluido reale – quale può essere l’acqua o l'azoto sotto forma di gas a temperatura e pressione ambiente – sono influenzate da fluttuazioni di natura quantomeccanica, come avviene nel mondo microscopico delle molecole da cui è composto.
Se poi si passa a una scala dimensionale ancora più grande, come per esempio il “testa o croce”, le conseguenze sono notevoli. I due fisici statunitensi infatti sottolineano che, a meno di situazioni sperimentali create ad hoc, in genere una moneta è lanciata e afferrata da una mano, controllata da processi neuronali, che a loro volta dipendono da segnali elettrici che si trasmettono in seguito all’apertura di canali ionici posti sulla membrana dei neuroni.
Ora, gli ioni che entrano ed escono dai neuroni si trovano in un ambiente acquoso, nel quale entrano in gioco le fluttuazioni quantistiche come quelle illustrate prima per il fluido ipotizzato dai due ricercatori. In particolare, come dimostrato in uno studio del 2008, citato da Albrecht e Phillips, nel caso del lancio di una moneta, i segnali neuronali responsabili del gesto e riconducibili al flusso di ioni hanno un’incertezza temporale dell’ordine di un millisecondo. Se poi si considera che, come calcolato dagli scienziati, durante la fase di volo la moneta compie mezzo giro in circa un millisecondo, il quadro è chiaro. Tutto questo implica il gesto della mano che discrimina tra testa e croce è intrinsecamente casuale, dato che risente di fluttuazioni quantistiche impossibili da eliminare e tanto meno da non considerare .
Chiaramente – ammettono gli autori dello studio – quello del lancio della moneta è un caso abbastanza anomalo: non sarebbe così agevole ricavare l’effetto delle fluttuazioni quantomeccaniche nella maggior parte degli eventi macroscopici di cui siamo spettatori nella nostra vita quotidiana.
In ogni caso, lo studio serve a ricordare che spesso ci si affida ai concetti classici di probabilità senza che ne sia stata data una validazione sistematica. Questo problema ha un riflesso importante anche per le cosiddette teorie del multiverso, in cui si ipotizza l'esistenza di universi paralleli al nostro. In queste teorie, sottolineano Albrecht e Phillips, quando si affrontano questioni non risolvibili con la teoria quantistica si ricorre a concetti probabilistici classici, che meriterebbero quindi un'elaborazione formale molto più rigorosa di quella attuale.

mercoledì 20 febbraio 2013

Treni: Con i nuovi supercondensatori si potrà risparmiare fino al 20% dell’elettricità assorbita dalle ferrovie.

-----------------------------
La vita è un gioco di tensioni. Un cedere e un ricevere energia che si ritrova nei rapporti umani, nell’ambiente professionale e anche lungo i binari dei treni. Ambizione comune cercare di dissiparne il meno possibile. Nel caso dei trasporti ferroviari, si parla dell’energia persa durante la fase di frenata. Una potente dispersione energetica di pochi secondi. E allora perché non trovare il sistema giusto per riuscire a riciclarla, facendo bene i conti con i picchi di tensione? A provarci, il Politecnico e le Ferrovienord che recentemente a Milano hanno sottoscritto un accordo di collaborazione scientifica per lavorare insieme a questo problema durante i prossimi tre anni, Lavori che, in modalità pilota, hanno già preso il via il maggio scorso nella sottostazione di San Fermo, trasformata in un laboratorio di ricerca dove i ricercatori osservano i primi risultati degli esperimenti. Prove tecniche prima di estendere i risultati a tutta la rete di Ferrovienord.
.
ENERGIA DAI FRENI – Pochi, tra i 15 e i 20, i secondi in cui viene prodotta e dispersa una quantità notevole di energia. Il tempo, appunto, di una frenata. Un vero e proprio picco energetico che, anche per i gestori di rete, diventa sconveniente utilizzare. Soprattutto perché, tra ritardi e anticipi dei treni, il suo utilizzo risulta difficilmente programmabile. Ma che, oltre alla vendita, potrebbe essere riciclata per alimentare parti del sistema. Una sfida che ha dato alle Nord e agli ingegneri del Politecnico lo stimolo per provare a costruire il sistema adatto per riuscire a stoccarla. «L’obiettivo», spiega Marco Barra Caracciolo, amministratore delegato di Ferrovienord, «è quello di riuscire a sfruttare l’energia di frenatura, restituendola attraverso la linea di contatto». A cui tuttavia si aggiunge la difficoltà di accumularla. «Fino a oggi non esistevano sistemi di accumulo in grado di assorbire picchi di energia così elevati in pochi secondi. Infatti, anche le batterie più avanzate non avevano tempi di ricarica compatibili con gli impulsi energetici della frenatura».
.
SUPERCONDENSATORE – A risolvere questo problema, un sistema che sfrutta la tecnologia dei supercondensatori, che hanno la capacità di accumulare ingenti quantità di energia elettrica, in grado di essere caricati o scaricati quasi istantaneamente e di garantire un’elevatissima potenza specifica. Garanzia di accumulo che farà risparmiare fino al 20% dell’energia elettrica assorbita dai treni, circa 23 mila MWh ogni anno. Ossia, come un impianto fotovoltaico di oltre 300 mila pannelli o l’energia usata per alimentare 6 mila case.
.
PRIMI ESPERIMENTI – A testare la fattibilità del sistema di accumulo e il comportamento dei componenti elettronici, in questi mesi gli ingegneri del Politecnico che hanno usato come laboratorio di verifica la sottostazione di San Ferno. «Gli esperimenti», afferma Barra Caracciolo, «sono stati molto positivi. E, alla fine del 2013, riusciremo a utilizzare l’energia recuperata dalle frenate per l’illuminare un impianto di stazione sotterraneo da realizzare con tecnologia Led e che permetterà di tagliare i consumi energetici legati all’illuminazione del 50%».
.
FERROVIA DEL FUTURO - Parola chiave del nuovo sistema ferroviario: efficienza energetica. Anche perché il comparto è attualmente un vero e proprio divoratore di energia e consuma 5.452.000 MWh di elettricità ogni anno. «Negli ultimi anni», spiega l’ad, «il continuo aumento dei passeggeri ha comportato il rinnovo della flotta. Con treni di ultima generazione, più lunghi e capienti, che aumentano i consumi del 43%. E per evitare gli sprechi e incentivare il riciclo energetico stiamo cercando, insieme al Politecnico, di convergere gli sforzi su bandi e finanziamenti». Programmi di sviluppo europei e ministeriali che, se attivati, potrebbero dare il via a una nuova trasformazione ferroviaria. «Accumulare su scala nazionale l’energia delle frenate», conclude Barra Caracciolo, «farebbe risparmiare un milione di MWh ogni anno al settore dei trasporti ferroviari».

(modifica il 20 febbraio 2013)

Primi 'incontri ravvicinati' con virus pericolosi, studiati in 3D grazie alla luce di sincrotrone.

Fonte: ANSA
-----------------
Sorprendenti 'incontri ravvicinati' con alcuni tra i virus piu' pericolosi per l'uomo saranno possibili grazie alla punta di diamante della ricerca britannica, il centro Diamond Light Source, che inaugura il nuovo laboratorio d'avanguardia 'Crystal' per studiare nei minimi dettagli la struttura 3D dei microrganismi ad elevata pericolosita'. Unica nel suo genere in Europa e solo seconda nel mondo, questa nuova struttura e' stata presentata al congresso dell'American Association for the Advancement of Science (AAAS) a Boston.

Il Diamond Light Source e' ora l'unico centro in Europa dove e' possibile studiare nei dettagli tutti quei virus cosi' pericolosi da richiedere delle severe misure di sicurezza per la loro manipolazione (come i virus responsabili dell'Aids e delle epatiti B e C). Le loro armi e i loro segreti piu' nascosti saranno svelati dai fasci di raggi X prodotti da un acceleratore di particelle (il sincrotrone Diamond) che, come un potentissimo microscopio, permette di studiare i virus fino a livello dei singoli atomi. Sara' cosi' piu' facile sviluppare nuovi farmaci e vaccini per combattere le infezioni.

''Crystal fornisce le uniche strutture in Europa per lo studio dei virus a rischio'', afferma Dave Stuart, direttore delle scienze biologiche del Diamond Light Source. ''Nessuno al mondo puo' risolvere le strutture dei virus con la velocita' e l'efficienza di Diamond''. Le sue capacita' sono gia' state messe alla prova per studiare alcuni virus meno aggressivi come l'Enterovirus umano 71 (EV71), responsabile della malattia detta di 'mani, piedi e bocca' che nei bambini puo' determinare seri problemi al sistema nervoso centrale. Questo microrganismo, che nel 2010 ha colpito quasi due milioni di persone nella sola Cina, e' stato 'fotografato' in 3D nell'atto di 'respirare' proprio grazie alla luce di sincrotrone.

martedì 19 febbraio 2013

Nuovi studi dimostrano in che modo si possono individuare nel genoma umano le mutazioni che danno un vantaggio evolutivo in epoche recenti.

Preparazione di campioni di DNA per le analisi genetiche: gli studi sull'interno genoma hanno aperto nuove possibilità di indivuduazione delle mutazioni che hanno conferito un vantaggio evolutivo in tempi relativamente recenti (© George Steinmetz/Corbis)
Fonte: Le Scienze
----------------------
Due nuovi studi dimostrano in che modo si possono individuare nel genoma umano le mutazioni che danno un vantaggio evolutivo in epoche relativamente recenti e come verificarne gli effetti grazie a topi geneticamente modificati. L’utilità del modello animale è stata verificata su una variante del gene EDAR, presente in molte popolazioni del Sudest asiatico, che determina peli più spessi e un numero più grande di ghiandole sudoripare rispetto alla versione non mutata.
Secondo la teoria dell’origine africana di Homo sapiens, gli esseri umani sono evoluti in Africa per poi colonizzare il resto del pianeta in seguito a una migrazione avvenuta tra 125.000 e 70.000 anni fa. A partire da questo evento, il genoma umano ha subito numerose mutazioni che hanno permesso ai nostri antenati di sopravvivere in un’ampia gamma di ambienti e climi, cambiare dieta e resistere a diverse malattie.

Due studi pubblicati sulla rivista “Cell” da altrettanti gruppi di ricerca coordinati da Pardis Sabeti, professore associato del Department of Organismic and Evolutionary Biology della Harvard University, illustrano ora come individuare alcune centinaia di variazioni geniche che possono aver fornito un vantaggio evolutivo in tempi relativamente recenti della storia umana e come è possibile usare un modello animale per verificare l’effetto di queste mutazioni.

In passato erano stati ipotizzati diversi tipi di pressione selettiva, ma era stato possibile caratterizzare solo una manciata di tratti adattativi nel genoma umano, tra i quali la resistenza alla malaria, la tolleranza al lattosio, la pigmentazione della pelle e l'adattamento all'alta quota. L'avvento della genomica ha aperto grandi prospettive nello studio dell'evoluzione della nostra specie, permettendo di passare dagli studi di singoli geni alle scansioni sull'intero genoma che rendono possibile la formulazione di nuove ipotesi.

Nel primo studio, Sharon R. Grossman del Broad Institute del MIT e colleghi hanno analizzato i dati del progetto 1000 Genomes, una delle più ampie banche dati di variazioni genetiche. In questo modo i ricercatori hanno rilevato 340 mutazioni genetiche adattative oltre a numerose mutazioni che hanno effetto sui meccanismi di regolazione dell’espressione genica grazie a un metodo denominato CMS (composite of multiple signals), sviluppato in precedenza dallo stesso gruppo.
Per dimostrare le potenzialità di questo approccio, i ricercatori hanno caratterizzato una variante del gene TLR5 (Toll-like receptor 5) molto studiato per il suo ruolo cruciale nella risposta immunologica alle infezioni da batteri. Quando la proteina TLR5 si lega alla flagellina, una proteina fondamentale per i batteri flagellati, si attivano le cellule del sistema immunitario dell’ospite. Nel corso della sperimentazione, si è dimostrato che la versione mutata del gene TLR5, denominata L616F, produce una risposta alla flagellina significativamente ridotta.

Nel secondo studio di Yana Kamberov del Dipartimento di genetica della Harvard Medical School e colleghi hanno studiato un tipico caso di pleiotropia, vale a dire il fenomeno in base al quale un'unica mutazione genetica produce diversi nuovi tratti fenotipici. Nel caso specifico, si tratta di una mutazione a carico del gene EDAR, che codifica per il recettore dell’ectodisplasina, coinvolto nei meccanismi di sviluppo dei capelli, delle ghiandole sudoripare e di altre caratteristiche della pelle.

Grazie agli studi di popolazione si è evidenziato che quelle africane ed europee hanno una versione di EDAR molto più antica di quella della maggior parte delle popolazioni del Sudest asiatico, denominata EDARV370A. Gli individui con la versione mutata hanno capelli più spessi, ghiandole sudoripare più dense e una forma dei denti parzialmente diversa. EDAR è anche un gene che si è fortemente conservato nel corso dell’evoluzione dei vertebrati e si trova inalterato anche nel DNA di due modelli animali molto utilizzati negli studi di biologia, come il pesce zebra (Danio rerio) e il topo. Il gruppo di Sabeti ha così pensato di inserire nel genoma di topi il gene mutato EDARV370A al posto di EDAR per poi osservare gli effetti fenotipici della mutazione. In questo modo hanno verificato che gli animali con il gene mutato avevano peli più spessi del normale e un maggior numero di ghiandole sudoripare rispetto a topi di controllo, a cui cioè non era stato inserito il gene mutato. Una simulazione al computer ha poi permesso di stimare che negli esseri umani il gene è comparso circa 30.000 anni fa nella parte centrale dell’attuale Cina.

Rimane ancora da stabilire quale vantaggio evolutivo abbia portato l’evoluzione di questi nuovi tratti, un compito reso più difficoltoso proprio dalla varietà di nuovi tratti indotti da quest'unica mutazione. Tuttavia, per quanto riguarda EDAR, è possibile ipotizzare che la variante EDARV370A abbia favorito l'adattamento degli esseri umani al clima umido della Cina centrale di decine di migliaia di anni fa.

lunedì 18 febbraio 2013

Entro la fine del 2013, sarà trapiantata la prima mano bionica dotata di tatto.

-----------------------------
La prima mano bionica al mondo in grado di restituire il senso del tatto dovrebbe essere trapiantata a Roma entro quest'anno. Lo ha annunciato Silvestro Micera, ricercatore italiano dell'Ecole Polytechnique Federale di Losanna, durante il meeting della American Association for the Advancement of Science (Aaas) in corso a Boston. Il primo paziente, ha spiegato Micera che collabora anche con la Scuola Superiore Sant'Anna di Pisa, dovrebbe essere un ragazzo di 20 anni che ha perso la mano in un incidente.
La mano bionica sarà connessa direttamente al sistema nervoso del paziente - La mano bionica sarà connessa direttamente al sistema nervoso del paziente con degli elettrodi collegati a due dei nervi principali del braccio, il mediano e l'ulnare, e oltre ad essere controllata con il pensiero dovrebbe inviare, tramite sensori sulla superficie, anche i segnali relativi al tatto. "Maggiori sono le sensazioni che un amputato ha dall'arto più grande è la sua accettazione - ha spiegato Micera durante la sessione, come riportano diversi siti dal Guardian al Daily Telegraph - questa potrebbe essere una nuova e più efficace soluzione clinica per questi pazienti entro pochi anni".

Cammino casuale, meglio del calcolatore classico.

Lo schema del cammino casuale quantistico, i fotoni si propagano lungo guide d'onda parallele e possono saltare dall'una all'altra con facilità (© Mike Agliolo/Corbis)
Fonte: Le Scienze
-----------------------
I sistemi quantistici basati sul concetto di cammino casuale possono risolvere in modo relativamente facile problemi che per i calcolatori classici risultano particolarmente ardui. Lo ha dimostrato una nuova ricerca su un sistema di guide d'onda poste sulla superficie di un chip e attraversate da fotoni con cui si è realizzato il cosiddetto campionamento bosonico.
Addizione, sottrazione, moltiplicazione e divisione: sono le quattro operazioni elementari che tutti abbiamo imparato fin da piccoli. Effettuarle con dispositivi di calcolo automatico è un’impresa più complessa, e ciò è particolarmente vero se si vogliono usare i computer quantistici, il cui avvento necessita ancora di significativi passi sul fronte dello sviluppo sia dell’hardware sia del software.
L’ultimo progresso significativo in ordine di tempo è quello descritto sulle pagine della rivista “Science” da Justine B. Spring del Dipartimento di fisica dell’Università di Oxford, nel Regno Unito, e colleghi, che hanno dimostrato che i sistemi quantistici sono in grado di superare in prestazioni i computer classici per alcuni tipi di calcoli senza l’ausilio delle operazioni logiche (AND, OR e così via), necessarie invece per un computer classico.
Il risultato è possibile usando il concetto fisico di cammino casuale (random walk). Nella sua versione classica, esso riguarda, per esempio, una particella che deve andare da un punto A a un punto B avendo a disposizione diversi canali, o cammini, paralleli. In ogni istante, la particella può saltare sul cammino alla sua destra con probabilità P(D) e su quello alla sua sinistra con probabilità P(S). Se i canali sono percorsi da più particelle che non interagiscono tra loro, la probabilità che dall’estremità B di un canale esca una qualunque particella è data dalla somma delle probabilità delle singole particelle.
Nel caso quantistico la faccenda si complica: il comportamento delle particelle è descritto da una funzione d’onda f, e la probabilità di trovare una particella in una certa posizione x è data dal
quadrato di f(x). Se i canali sono percorsi da particelle tra loro identiche, questi calcoli probabilistici ne devono tenere conto. In particolare, la probabilità di trovare la particella p1 nel punto x1 e la particella p2 nel punto x2 deve essere uguale alla probabilità di trovare p1 nel punto x2 e p2 nel punto x1 (in altre parole, il formalismo matematico deve contemplare il fatto che i due oggetti sono indistinguibili).
Questa richiesta, che sembra del tutto formale, pone in realtà alcune restrizioni sulle funzioni d’onda che si traducono nel mondo fisico in un’attrazione per certi tipi di particelle, i bosoni, caratterizzati dall'avere spin intero, e una repulsione per altri tipi, i fermioni, che hanno spin semidispari. I fotoni, i quanti di luce, sono particelle bosoniche e la loro interazione può essere sfruttata per i calcoli quantistici, grazie a un apparato di campionamento bosonico (boson sampling).
Un sistema di questo tipo può essere realizzato con una serie di guide d’onda parallele collocate sulla superficie di un chip così vicine che i fotoni che le attraversano possono passare agevolmente da una all’altra. Al termine di ciascun canale vene posto un rivelatore di singoli fotoni. Variando le caratteristiche dei canali e proseguendo le misurazioni per un tempo sufficientemente lungo, è stato possibile misurare la distribuzione di probabilità di output dai diversi canali per la trasmissione di un certo numero di fotoni.
Il legame con il calcolo quantistico è dovuto al fatto che con N canali la distribuzione di probabilità è proporzionale a una certa funzione, chiamata permanente, di una matrice di NxN elementi legati alle caratteristiche dei canali stessi, controllabili sperimentalmente. Con un calcolatore classico, il calcolo del permanente diventa esponenzialmente più complesso quando N aumenta. Spring e colleghi hanno dimostrato che il campionamento bosonico supera di gran lunga le capacità del calcolo classico, senza la necessità di operazione logiche, così difficili da sviluppare nel contesto tecnologico attuale, in cui i “mattoni elementari” quantistici non sono disponibili o non sono facilmente controllabili.
In un lavoro teorico sulle pagine dello stesso numero di "Science" Andrew M. Childs del Department of Combinatorics and Optimization dell'Università di Waterloo, in Ontario e colleghi considerano il cammino casuale costituito da un grafo ai cui vertici sono posti bosoni, secondo lo schema conosciuto come modello di Bose-Hubbard. I bosoni rappresentano i qubit, ovvero i bit d'informazione binaria quantistica che costituiscono gli elementi su cui dovrebbe basarsi l'architettura dei computer quantistici. Gli scienziati in questo caso hanno mostrato che implementando nei cammini casuali le operazioni logiche è possibile arrivare al calcolo quantistico universale. Inoltre, la combinazione delle due tecniche garantirebbe la "scalabilità" necessaria per arrivare a un computer quantistico effettivamente funzionante e affidabile.

Allo studio rivoluzionaria tecnica non invasiva per rigenerare il cuore (c/video).

Fonte: Euronews
----------------------
Le statistiche dicono che sono sempre di più i pazienti che sopravvivono a un infarto, ma questo vuole anche dire che è sempre più alto il numero delle persone che sono costrette a convivere con un cuore danneggiato.
Immaginate di poter utilizzare una semplice siringa per irrorare un muscolo cardiaco malato con uno strato di cellule sane. Cellule incorporate in un substrato che consenta loro non soltanto di sostituire quelle non più funzionanti, ma anche di favovire la rigenerazione dell’intero tessuto danneggiato. Queste sono le rivoluzionarie prospettive in corso di studio al laboratorio di bioingegneria dello University college di Londra:
“Le cellule sono immerse in un liquido fisiologico e poi la soluzione viene iniettata grazie a una siringa caricata elettricamente – spiega il dottor Suwan Jayasinghe, bioingegnere – L’ago è in grado di spruzzare la soluzione dove necessario, creando un getto nebulizzato dello stesso tipo di quello che si produce tossendo, ad esempio”.
L’ago è attraversato da un campo elettrico per un migliore controllo dell soluzione cellulare. In queste immagini al microscopio si può osservare come le cellule si moltiplichino sul tessuto in laboratorio:
“Allora, qui vediamo delle cellule cardiache che abbiamo coltivato in laboratorio – dice Vassilis Georgiadis, ricercatore associato in biologia molecolare – Dopo pochi giorni si può effettivamente verificare la loro attività fisiologica. In questo caso per monitorarle sfruttiamo la loro attività elettrica grazie a uno specifico macchinario”.
Oggi per riparare un cuore malato si ricorre ancora alla chirurgia. Un giorno, grazie a queste ricerche, le operazioni a cuore aperto diventeranno, forse, solo un brutto ricordo.

E’ lo zucchero il rimedio efficace per guarire le ferite.

Fonte: Gaianews.it
------------------------
Lo zucchero per guarire le ferite. E’ ciò che si sta sperimentando all’ospedale di Birmingham in Gran Bretagna dove un paziente viene curato con questo rimedio, al tempo stesso rivoluzionario e comune. La ricerca sullo zucchero come rimedio per curare le ferite, era stata condotta dall’Università di Wolverhampton.
In questo caso si può dire che il rimedio oltre ad essere rivoluzionario radica le sue potenzialità in una tradizione. Infatti il ricercatore che ha studiato il possibile uso dello zucchero per guarire le ferite, Moses Murandu, cresciuto in Zimbawe, racconta che suo padre era solito guarire le sue ferite di bimbo proprio con lo zucchero.
Il ricercatore ora si sta occupando di sperimentare l’uso dello zucchero semolato su pazienti che hanno piaghe da decupito, ulcere e perfino che hanno subito amputazioni.
Uno dei pazienti in cura con lo zucchero, si chiama Alam Bayliss, ha subito un’amputazione ed è ricoverato al Moseley Hall Hospital. Il paziente ha subito l’amputazione della gamba destra da sopra il ginocchio. Dopo l’operazione era stato ricoverato nell’ospedale dove si trova attualmente, ma purtroppo non ha mostrato segni di una facile guarigione.Per questo motivo i medici hanno pensato di curare il paziente con l’innovativa formula con lo zucchero : in due settimane la ferita si è ridotta moltissimo e sta guarendo bene.
Il signor Bayliss, è un ingegnere elettronico di 62 anni. Ha dichiarato alla stampa: : “E’ stato rivoluzionario. La ferita era molto profonda, era grande quasi quanto il mio dito.”
Quando Moses ha fatto la prima medicazione ha usato molto zucchero, ma poi , man mano che la ferita guariva, ha usato solo qualche cucchiaino, ha spiegato il paziente e ha aggiunto:”Sono davvero molto contento. Sento che ha accelerato la mia guarigione di molto, ed è stato un passo avanti positivo. Ero un po’ scettico all’inizio, ma ho visto lo zucchero in funzione e quanto stava giovando alla ferita mi ha colpito.”
L’efficacia dello zucchero ha avuto un grande effetto sul morale del paziente. L’amputazione di una gamba è un evento drammatico e vedere dei segni di guarigione veloce è stato molto importante. Lo zucchero, ha detto il team che ha seguito il paziente, è stato qualcosa a cui aggrapparsi.
Mosè Murandu sta conducendo esperimenti in 3 ospedali e sta curando 35 persone che rispondo tutte positivamente al trattamento senza alcun effetto colaterale.
Ma come funziona? Lo zucchero distrugge i batteri togliendo loro l’acqua, “assetandoli”. Per questo smettono di moltiplicarsi e muoiono.
”E’ un piacere per me constatare i risultati, ha detto il ricercatore. La medicazione, con lo zucchero, inoltre, ora può essere gestita autnomamemnte dagli altri infermieri perchè è stata creata una sorta di procedura. Lo zucchero dunque, sta acquisendo sempre più fiducia da parte di medici, infermieri e pazienti.

sabato 16 febbraio 2013

Oltre la “Stele di Rosetta”: un potente algoritmo è sulle tracce di idiomi antichi.

Fonte: Gaianews.it
------------------------
Le lingue antiche sono una miniera di informazioni che, in larga misura, non siamo ancora riusciti a decifrare. Gli scienziati dell’Università di Berkeley, in California, hanno ideato un potente sistema di calcolo, una specie di “Stele di Rosetta” computerizzata, in grado di risalire alle prime lingue ancestrali da cui si sono evoluti i moderni idiomi. Il potente algoritmo è in grado di isolare gli antenati linguistici comuni da cui tutte le lingue moderne si sono evolute.
Il principio guida della ricerca è simile alla citata Stele di Rosetta, la lastra in granito scoperta nel 1822 in Egitto che ha permesso di decifrare i geroglifici egiziani. Sul reperto è incisa un’iscrizione in tre lingue: demotico, geroglifico e greco antico. Attraverso la comparazione con il greco antico, un idioma noto agli studiosi, è stato possibile comprendere le regole e i significati della lingua dei faraoni.
Questi antenati, chiamati proto-lingue, sono per ora tre: il proto-indoeuropeo, il proto-afroasiatico e il proto-austronesiano – l’austranesiano è un complesso di oltre 1.200 lingue parlate in una vasta area geografica compresa fra il Madagascar, il sud-est asiatico, Formosa e l’Oceania, da una serie di popolazioni imparentate tra loro e note come Austronesiani.
“Quello che mi entusiasma di questo sistema è che automatizza in una nuova scala molte delle grandi idee che i linguisti hanno avuto sulla ricostruzione storica: più dati, più parole, più lingue, ma meno tempo”, ha detto Dan Klein, Professore Associato di informatica a Berkeley e coautore del paper pubblicato online 11 febbraio sulla rivista Proceedings of National Academy of Sciences.

Un modello statistico e predittivo. Secondo gli storici, la prima scrittura a comparire sulla Terra è stata quella cuneiforme. La usavano i Sumeri, incidendola su tavolette di argilla. Le prime testimonianze risalgono al 3.000 a.C. Successivamente forme di scrittura apparvero in Egitto, quindi in Europa, in Cina e in America del Sud. Non solo esistono circa otto lingue arcaiche ancora da decifrare, ma sono molti gli interrogativi sullo sviluppo e sulle relazioni tra le lingue che ancora oggi parliamo.
Sulla base dello studio dei vocabolari in uso, l’algoritmo promette di aumentare la nostra comprensione della storia e della cultura delle antiche civiltà, e di fornire indizi su come le lingue potrebbero cambiare da oggi in poi. Per ottenere questi risultati il gruppo di ricerca ha ricostruito più di 600 lingue proto-austronesiane partendo da un database esistente di oltre 140.000 parole, replicando con l’85% di precisione ciò che i linguisti avevano fatto manualmente.
A differenza della ricostruzione manuale, un metodo lento e meticoloso che può durare decenni, questo sistema può eseguire una ricostruzione su larga scala in pochi giorni o addirittura ore. “Il nostro modello statistico può essere utilizzato per rispondere a domande scientifiche sulle lingue nel corso del tempo, non solo per fare inferenze sul passato, ma anche per estrapolare come il linguaggio potrebbe cambiare in futuro”, ha precisato Tom Griffiths, Professore Associato di psicologia e direttore della UC Berkeley Lab Computational Cognitive Science.
Come dimostra il caso della Stele di Rosetta, il metodo più utilizzato dai linguisti è quello comparativo. Vengono cioè stabilite relazioni analogiche o differenziali tra le lingue per individuare quei suoni – o fonemi – che cambiano con regolarità nel corso del tempo per determinare se essi condividono una comune madre.
Un albero genealogico delle lingue. Il nuovo tool analizza i cambiamenti sonori a livello delle unità fonetiche di base; di conseguenza i protolinguaggi vengono ricostruiti dal sistema raggruppando parole con significato comune provenienti dai linguaggi moderni correlati, e analizzando le caratteristiche condivise. Nella ricerca è stato utilizzato un metodo statistico, un algoritmo per generare serie numeriche incorrelate che seguono la distribuzione di probabilità che si suppone abbia il fenomeno studiato (Più tecnicamente, si tratta del Metodo di Monte Carlo basato sulla Catena di Markov). Il risultato è un campionamento da distribuzioni di probabilità.
Attraverso gruppi affini ma in lingue diverse, il programma ha selezionato gli idiomi che condividono un suono comune, e ha calcolato le probabilità di una comune derivazione da una proto-lingua. Ad ogni passo il risultato è stato memorizzato in modo da ottenere una struttura simile ad un albero: le radici ei nodi che rappresentano proto-lingue, mentre le parole si trovano nei nodi di questo albero che ne indicano anche l’evoluzione nel tempo.
Ricostruire un largo numero di lingue potrebbe inoltre aiutare gli esperti a mettere alla prova le loro ipotesi grazie a un approccio quantitativo. I ricercatori ritengono che i dati raccolti rappresentino prove inequivocabili a supporto di una teoria del 1955, proposta dal linguista Andre Martinet e non ancora dimostrata: i suoni differenziali, quelli che in una lingua sono cruciali per distinguere le parole tra loro, hanno una bassa probabilità di modificarsi nel tempo.
“La nostra speranza è che questo strumento rivoluzioni il campo della linguistica storica nello stesso modo in cui l’analisi statistica e i computer hanno rivoluzionato la biologia evolutiva”, conclude Alexander Bouchard-Côté, il primo autore della ricerca.
Riferimenti bibliografici: A. Bouchard-Côté, et alii., Automated reconstruction of ancient languages using probabilistic models of sound change, “Proceedings of the National Academy of Sciences”, 2013, DOI:10.1073/pnas.1204678110

Riconoscere i 'terremoti artificiali', come quelli provocati dai test nucleari.

Fonte: ANSA
-------------------
E' stato rilevato dai sismografi localizzati in Italia, nella stazione sismica che si trova in Sicilia, a Valguarnera (Enna), il terremoto artificiale probabilmente scatenato da un test nucleare sotterraneo condotto dalla Corea del Nord. ''L'evento di e' avvenuto nella stessa area nella quale nel 2006 e nel 2009 sono avvenute due esplosioni analoghe'', ha detto il presidente dell'Istituto Nazionale di Geofisica e Vulcanologia (Ingv), Stefano Gresta. Nel 2006 era stato provocato un terremoto di magnitudo 4,1, nel 2009 di 4,5.
Secondo le prime stime l'esplosione avvenuta il 12 febbraio in Corea del Nord ha una potenza di 10 chilotoni (un chilotone e' una quantita' di energia pari a quella liberata da mille tonnellate di tritolo). ''Un'esplosione - ha osservato Gresta - che equivale ad un terremoto naturale di magnitudo attorno a 5''. Esplosioni di questo tipo vengono rilevate dalla rete di stazioni sismiche presenti in tutto il mondo, che fanno capo all'Organizzazione del trattato per la proibizione completa dei test nucleari (Ctbto) e della quale fa parte la stazione di Valguarnera. Riconoscere un terremoto generato da un'esplosione nucleare da un terremoto naturale e' possibile e ''la rete globale - ha spiegato Gresta - e' in grado di distinguere l'origine delle onde sismiche in pochi minuti''.
Il primo arrivo delle onde alle stazioni sismiche e' di tipo compressivo e molto ampio. Inoltre la maggior parte dell'energia liberata da un'esplosione viene trasportata da onde di volume, ossia da onde sismiche che si propagano dalla sorgente in tutte le direzioni attraverso la roccia , e non da onde superficiali. Parallelamente si eseguono nuove misure con sensori infrasonici, che permettono di misurare le onde che si propagano nell'atmosfera, e con sensori in grado di misurare la presenza di particelle radioattive nell'atmosfera L'analisi di questi dati richiede alcune ore.
Il rischio di test di questo tipo e' che l'energia liberata dall'esplosione possa attivare faglie vicine. Il test nella Corea del Nord e' stato abbastanza superficiale e non e' stata liberata una grande quantita' di energia, ''di conseguenza - ha rilevato Gresta - non dovrebbero esserci terremoti indotti, se non in aree piccole''.