lunedì 23 marzo 2009

La fusione nucleare fredda di Yoshiaki Arata

FONTE

1994-2008, Esperimenti di Yoshiaki Arata

1998, Fusione fredda dalla cella ad altissima pressione DS Cell:

Yoshiaki Arata e Zhang, nel 1998, hanno confermato, dopo un lavoro durato diversi anni, proveniente dalla cella immersa in acqua pesante (deuterio) (D2O), un notevole eccesso di energia, superiore agli 80 watt (1,8 volte maggiore dell'energia utilizzata per sostenere tale reazione) per 12 giorni. I due ricercatori hanno poi affermato che l'energia emessa durante tali esperimenti, era troppo grande, in comparazione alla piccola massa dei materiali utilizzati dentro la cella, da giustificare come conseguenza di una eventuale reazione di tipo chimico. La cella ideata da Arata, diversamente ad altre utilizzate nella fusione fredda Palladio-Deuterio, è molto particolare in quanto opera con elevatissime pressioni.Successivamente, nel 2006, alcuni ricercatori italiani del'ENEA di Frascati, hanno ripetuto una parte dell'esperimento di Arata, confermando la presenza di un forte aumento di pressione all'interno di un tubo, immerso in una particolare soluzione liquida, tramite il passaggio di una corrente faradica.

2008, La cella a gas di deuterio:

Successivamente Arata osservava che una notevole quantità di energia utilizzata per attivare la reazione veniva dissipata dall'elettrolita sotto forma di semplice riscaldamento. Perciò, successivamente, ha sviluppato una particolare cella senza elettrolita e senza alimentazione elettrica, la quale, anche se apparentemente molto differente dalle precedenti celle, in pratica non se ne discosta molto dai principio base di funzionamento.
Arata, nel maggio 2008, ha comunicato alla comunità scientifica internazionale, di aver terminato di perfezionare un protocollo, di produzione di energia da fusione fredda, potenzialmente capace di produrre quantità rilevanti di energia. Tale protocollo utilizza un originale sistema composto da particolari nano-particelle di Palladio disperse in una matrice di zirconio. Con complesse procedure di metallurgia, viene ossidato lo Zirconio, ma non il palladio, in modo che quest'ultimo sia disperso all'interno di una matrice amorfa di ossido di zirconio che se da un lato risulta permeabile al deuterio, dall'altro impedisce alle nanoparticelle di palladio di raggrupparsi. L'esperimento di Arata inizia saturando l'atmosfera della cella con deuterio, il quale, velocemente, attraversa la matrice di zirconio venendo quindi assorbito dalle nanoparticelle di palladio, caricandole e quindi portandole alle condizioni critiche per le quali si innescano probabili fenomeni di fusione nucleare.Secondo Arata, una volta avviato il processo di fusione, il sistema così realizzato, è capace di azionare un motore termico, senza nessun altro apporto di energia.

22 maggio 2008, dimostrazione presso l'università di Osaka:

Il primo esperimento pubblico, in cui erano presenti circa 60 persone, tra scienziati e giornalisti, aveva come fine quello di dimostrare la riproducibilità del 100% dei fenomeni di produzione di calore da parte della cella a gas di deuterio in pressione, sviluppata da Arata e dal suo collaboratore Yue-Chang. L'evento ha avuto luogo il 22 maggio 2008, all'Università di Osaka, con una dimostrazione completamente in lingua giapponese. La cella è stata caricata con 7 grammi di speciali nanoparticelle, messa sotto pressione con deuterio a 50 atmosfere, iniziava immediatamente a produrre energia termica, senza nessun tipo di alimentazione elettrica. L'energia termica prodotta, qualche decina di watt, era sufficiente a mettere in moto un motore termico a ciclo di Stirling. Al termine dell'esperimento i presenti hanno voluto nominare tale fenomeno con il nome di Arata Phenomena.

L'esperimento avvenuto il del 22 maggio 2008, nell'Università di Osaka, è stato eseguito con questo protocollo:In un apposito contenitore a pressione, posto all'interno di un calorimetro e collegato, per mezzo di una tubazione, ad uno spettrometro di massa ad altissima risoluzione (Necessario per dimostrare la presenza di 4He (Elio 4), come eventuale residuo della reazione di fusione), sono stati inseriti 7 grammi di di nano-particelle di Palladio disperse in una matrice di Ossido di Zirconio appositamente preparate dal laboratorio di Arata. Nella prima fase del test, in tale recipiente, è stato inserito idrogeno a 50 atmosfere, generando così un breve picco termico dovuto alla idratazione delle stesse, seguito poi da un lento raffreddamento, dimostrando così che in tale situazione non vi è ne emissione di calore, ne presenza di 4He. Il recipiente è stato poi svuotato, degasato e nuovamente riempito, ma questa volta con deuterio a 50 atmosfere. A questo punto vi è stato di nuovo il picco termico dovuto alla idratazione (il deuterio, essendo un isotopo dell'idrogeno, si comporta chimicamente allo stesso modo), ma questa volta il calore, non è andato via via scemando, ma è continuato in modo costante, tanto da permettere il funzionamento di un motore termico a ciclo di Stirling. Il funzionamento è proseguito per diverso tempo, in modo da poter accumulare nel sistema una sufficiente quantità di elio, successivamente è stata fatta una nuova misura del gas presente nel contenitore e questa volta, lo spettrometro di massa, ha rilevato nettamente la presenza di elio mescolato con deuterio, segno evidente che il calore prodotto era dovuto ad una reazione termonucleare. Durante la reazione, gli appositi rilevatori di radiazioni, non hanno rilevato nessuna emissione radioattiva.Arata, ha fatto notare, durante la conferenza che aveva preceduto l'esperimento, che tale esperimento prova in modo assolutamente evidente la capacità di produzione di discrete quantità di calore attraverso una reazione di fusione fredda, ma che comunque rimangono ancora aperti numerosi problemi per lo sfruttamento commerciale di tale tecnologia. I problemi più importanti da superare sono quelli legati al degasaggio dell'elio che si è formato all'interno delle nano-particelle, in quanto il suo accumulo in un certo qual modo avvelena la reazione, ed alla necessità di ricercare un materiale meno costoso e più abbondante del palladio utilizzato per l'esperimento.
Alcuni ricercatori hanno criticato la validità della dimostrazione di Arata sopratutto in relazione al fatto che Arata non ha pubblicato i risultati su nessuna rivista scientifica soggetta a revisione paritaria.

I limiti della ricerca dei pianeti extrasolari


I risultati validi necessiterebbero di un gran numero di transiti per riuscire a rivelare i biomarcatori, quali i gas ozono e metano.
Esiste nella galassia un pianeta simile alla Terra in orbita intorno a una stella simile al Sole? I planetologi sono sempre più vicini a dare una risposta a questa domanda, e il lancio del satellite Kepler della NASA persegue proprio questo obiettivo.Una volta soddisfatti tali parametri, occorrerà rispondere a domande ulterriori: il pianeta è effettivamente abitabile? E più in particolare: ha un'atmosfera di tipo terrestre? Rispondere in questo caso è assai più complicato.
Grazie al suo ampio specchio e alla sua posizione nello spazio, il James Webb Space Telescope (JWST, il cui lancio è previsto per il 2013) offrirà agli astronomi la prima vera possibilità di trovare altre risposte, ma occorre tenere conto di alcune limitazioni fondamentali.In un nuovo studio, Lisa Kaltenegger dell'Harvard-Smithsonian Center for Astrophysics e Wesley Traub del Jet Propulsion Laboratory hanno esaminato la capacità del JWST di caratterizzare l'atmosfera di un ipotetico pianeta di tipo terrestre durante il transito di fronte alla sua stella, quando parte della luce della stella viene filtrata dall'atmosfera del pianeta.In un evento di transito, un pianeta extrasolare distante incrocia la direzione di osservazione dalla Terra: nel corso di tale processo, i gas presenti nella sua atmosfera assorbono una piccola frazione della luce della stella. In base allo spettro di assorbimento misurato è possibile ricavare le specie chimiche presenti.Si è così riscontrato che il JWST sarebbe in grado di rivelare alcuni gas chiamati biomarcatori, come l'ozono e il metano, solo per i pianeti molto vicini alla Terra."Anche sapendo già che si tratta di un pianeta di tipo terrestre dovremmo essere veramente fortunati per caratterizzarne l'atmosfera”, ha spiegato Kaltenegger. "Occorreranno molti transiti per arrivare a qualcosa; forse centinaia, anche per stelle distanti solo 20 anni luce.”Lo studio di Kaltenegger e Traub, accettato per la pubblicazione sulla rivista “The Astrophysical Journal” e disponibile online, ha preso in considerazione pianeti di tipo terrestre in orbita intorno a stelle simili al Sole: per ottenere un segnale rivelabile da un singolo transito, la stella e il pianeta dovrebbero essere molto vicini alla Terra. L'unica stella candidata è Alfa Centauri A, ma in tal caso non è stato trovato alcun pianeta, sebbene la tecnologia per rivelare i pianeti simili al nostro sia disponibile da poco tempo.Lo studio considera poi i pianeti in orbita intorno a stelle classificate come nane rosse, chiamate anche di tipo M. queste sono le più abbondanti nella Via Lattea, molto più comuni di quelle gialle, o tipo G, come il Sole. Esse sono più fredde e fioche del Sole, il che rende la scoperta di un pianeta che transita di fronte a una stella M molto più facile.“Le nane rosse vicine offrono la migliore possibilità di rivelare biomarcatori in un evento di transito”, ha commentato Kaltenegger. "Infine, lo studio delle immagini dirette, ovvero l'analisi dei fotoni potrebbe rivelarsi un metodo ancora più efficace della tecnica di transito per caratterizzare l'atmosfera di tipo terrestre”. (fc)

Nuovi vaccini a base di glicani


Un nuovo sintetizzatore di carboidrati altamente complessi apre le porte alla progettazione di vaccini di nuova concezione.
Un nuovo sintetizzatore di carboidrati completamente automatizzato è stato presentato al 237° Convegno della American Chemical Society, in corso a Salt Lake City. Attulamente la progettazione e la sintesi artificiale di queste molecole, che possono arrivare a una elevatissima complessità strutturale, richiede mesi di lavoro. "Il nostro sistema automatizzato è il metodo più rapido di produrre carboidrati complessi, o glicani. Oggi chi in biologia si trova a dover affrontare un problema con i carboidrati spesso è costretto a fermarsi, perchè non dispone di strumenti adeguati", spiega Peter H. Seeberger, che ha partecipato presso il Politecnico di Zurigo alla progettazione del nuovo sintetizzatore, ora commercializzato da un società start up, la Ancora Pharmaceuticals, di Medford (Mass.).Secondo Seebergere, la posibilità di produre molecole di carboidrati molto complessi apre alla glicochimica e alla glicobiologia possibilità di sviluppo paragonabili a quelle che hanno rappresentato i sintetizzatori automatizzati di DNA e proteine per la genetica e la proteomica. I carboidrati sono molecole molto difficili da costruire a causa della loro complessa struttura ramificata: finora gli scienziati devono accontentarsi di ricorrere a molecole isolate da prodotti naturali, con processi che spesso richiedono tempi estremamente lunghi. Un campo particolarmente promettente per la glicobiologia, osserva Seeberger, è quello della produzione di vaccini, dato che proprio di carboidrati sono costituiti alcuni importanti marcatori presenti sulla superficie dei microrganismi. "Il sintetizzatore ci permette di ottenere una gran varietà di strutture a partire da un particolare organismo: è così possibile controllare se esse sono in grado di indurre una risposta immunitaria adeguata", spiega Seeberger.Sfruttando proprio questa possibilità, il gruppo di Seeberger ha messo a punto un vaccino contro la malaria, per il quale sono previsti i primi trial clinici in Mozambico e in Tanzania nel 2010. "Questo vaccino non uccide il parasita, ma ne blocca l'azione tossica. L'organismo produce anticorpi contro la struttura zuccherina in grado di bloccare la tossina carboidrata che provoca lo stato infiammatorio e l'anemia", osserva Seeberger, che ha proseguito osservando che esso potrebbe venire accoppiato a un vaccino tradizionale basato su proteine, in modo da creare un "vaccino coniugato". Nel laboratorio di Seeberger sono peraltro allo studio altri vaccini contro svariate patologie. (gg)

sabato 21 marzo 2009

PNA (Peptide Nucleic Acid): Una nuova molecola della vita


Il PNA (dall'inglese Peptide Nucleic Acid) è un polimero organico simile al DNA ed all'RNA, differente da essi nella composizione dello "scheletro". Il PNA, infatti, non è presente in natura, ma viene sintetizzato artificialmente ed usato in ricerche biologiche e trattamenti medici.
È stato ipotizzato che le prime forme di vita sulla
Terra possano aver utilizzato il PNA come materiale genetico, grazie alla sua robustezza, passando poi ad un sistema basato su DNA ed RNA.
Il DNA e l'RNA hanno uno scheletro formato rispettivamente dagli zuccheri deossiribosio e ribosio, mentre quello del PNA è composto da unità ripetute di N-(2-amminoetil)-glicina, unite da legami peptidici. Le basi di purina e pirimidina sono legate allo scheletro tramite legami metilene-carbonili.
Il PNA viene rappresentato come un peptide, con l'azoto-terminale in prima posizione (a sinistra) ed il carbonio-terminale in ultima posizione (a destra).
Poiché lo scheletro del PNA non contiene gruppi fosfato carichi, il legame tra filamenti PNA/DNA è più forte di quello DNA/DNA, grazie alla minore repulsione elettrostatica. I primi esperimenti con filamenti di omopirimidina (formati soltanto da ripetizioni di pirimidina) hanno mostrato che la temperatura di fusione di una doppia elica composta da un frammento di PNA formato da 6 timine legato al corrispettivo DNA di 6 adenine è di 31 °C, mentre la doppia elica DNA/DNA corrispondente viene denaturata a temperature inferiori a 10 °C. Le molecole di PNA con basi miste imitano perfettamente le molecole di DNA in termini di riconoscimento delle coppie di basi. I legami della doppia elica PNA/PNA sono ancora più forti di quelli PNA/DNA (a loro volta più forti di quelli DNA/DNA).
Una caratteristica importante degli oligomeri di PNA è quella di presentare una alta specificità anche in presenza di molecole brevi. Gli oligomeri di PNA, infatti, mostrano una maggiore specificità anche nel legame con DNA complementare: ciò significa che gli accoppiamenti errati tra basi sono più destabilizzanti nel caso di filamenti PNA/DNA (ma anche PNA/RNA) piuttosto che tra filamenti di DNA/DNA.
Le molecole di PNA non sono riconosciute né dalle nucleasi né dalle proteasi: per questo motivo sono dunque resistenti alla degradazione enzimatica. I PNA sono stabili anche in un largo range di pH. Infine la loro natura elettricamente neutra potrebbe facilitarne il passaggio attraverso la membrana cellulare, aumentandone il valore terapeutico.
Gli oligomeri di PNA vengono comunemente usati in esperimenti di biologia molecolare, test diagnostici e terapie antisenso. Grazie all’elevata forza di legame non è necessario costruire lunghi oligomeri di PNA, normalmente infatti è sufficiente un PNA di 20-25 basi per ottenere dei buoni oligonucleotidi sonda. Si ritiene anche che i PNA possano avere in futuro un ruolo molto interessante a livello terapeutico.

giovedì 19 marzo 2009

Una nuova sfida per IBM: "hstp", ovvero "hyper-speech transfer protocol".


L'Ibm sta progettando un nuovo protocollo di comunicazione, interamente vocale: invece di collegare ipertesti metterà insieme un nuovo tipo di oggetti, detti "ipervoci".
di ALESSIO BALBI
CON i telefonini destinati a diventare il mezzo di comunicazione di gran lunga più diffuso sulla faccia della Terra, molti si adoperano per portare internet sui cellulari. Qualcuno, invece, lavora per creare una nuova internet, fatta non più di ipertesti, ma di voci. I laboratori indiani del colosso dell'informatica Ibm stanno progettando un nuovo protocollo di comunicazione, interamente vocale, sul modello di quello (l'http) alla base dell'odierna internet. L'hanno chiamato "hstp", ovvero "hyper-speech transfer protocol", perché invece di collegare ipertesti metterà insieme un nuovo tipo di oggetti, detti "ipervoci". Non meraviglia che l'idea venga da Ibm, uno dei principali attori sul mercato del riconoscimento vocale. Lo scenario immaginato dai ricercatori è abbastanza semplice: usare il browser del proprio telefonino sarà un po' come chiamare uno di quei sistemi a risposta automatica che chiedono "Digitare 1 per l'opzione A, digitare 2 per l'opzione B". Le differenze fondamentali saranno due: la scelta delle opzioni non avverrà premendo i pulsanti del telefono, ma parlando nella cornetta. E questi comandi vocali permetteranno non solo di navigare nelle sezioni di un singolo numero telefonico, ma di saltare da un sito all'altro di questa nuova rete, proprio come avviene con le pagine di internet. Un esempio concreto: un utente di questa futura internet vocale che voglia regalare una pianta, potrà parlare con un motore di ricerca e chiedere che gli sia proposta una lista di fiorai nella sua zona. Per essere condotto al sito vocale dell'esercente prescelto, gli basterà pronunciarne il nome. Una volta effettuato l'ordine, sarà trasferito tramite una connessione protetta su un altro sito dove, sempre a voce, comunicherà gli estremi della sua carta di credito per completare la transizione.
Un sistema del genere potrà sembrare rozzo e inefficiente per chi è abituato alle meraviglie multimediali della banda larga. Ma i telefonini si stanno diffondendo a velocità sorprendente in zone, come l'Africa povera e l'India rurale, dove i computer e l'internet veloce sono ancora molto di là da venire. Ed è proprio a queste realtà che si rivolge il progetto Ibm. I ricercatori sono convinti che l'adozione del nuovo protocollo, attualmente in sperimentazione in alcune regioni dell'India, sarà spinta dalla facilità d'accesso e dalla possibilità per chiunque di creare in pochi passi il proprio sito vocale. Eppure, le ricadute della ricerca potrebbero essere ben più ampie: si è da tempo diffusa la convinzione che le tastiere, così come sono configurate attualmente, non siano lo strumento adatto per comandare computer e telefonini in mobilità. L'idea che la voce possa un giorno sostituirsi ai tasti è un vecchio cavallo di battaglia, fra gli altri, del fondatore di Microsoft Bill Gates. Google ha recentemente introdotto la possibilità, per chi naviga con l'Apple iPhone, di effettuare ricerche parlando nel microfono del cellulare. Se l'hstp avrà la capacità, non di sostituirsi, ma di sovrapporsi alla rete come la conosciamo oggi, potrebbe aprirsi un nuovo scenario nell'interazione tra i navigatori e internet.

(19 marzo 2009)

Nanosistemi Produttivi (Dalle molecole ai superprodotti)

Comunicare il potenziale della nanotecnologia e della produzione molecolare é molto più semplice se li si fa "vedere". Per questo Nanorex Inc. (http://www.nanorex.com) ed il Foresight Institute (http://www.foresight.org) hanno collaborato alla realizzazione di una breve animazione al computer denominata "Nanosistemi produttivi: dalle Molecole ai Superprodotti". Questa animazione nasce dalla collaborazione tra l'ingegnere e autore John Burch (http://www.lizardfire.com) ed il pioniere della nanotecnologia, Dr. K. Eric Drexler (http://www.e-drexler.com). Vedrete una "nanofabbrica" in azione e i passi più importanti del processo che, partendo da semplici molecole, produce un computer con un miliardo di CPU.Per ulteriori informazioni (in inglese): www.nanorex.com

mercoledì 18 marzo 2009

L'orologio dei batteri

Un complesso molecolare di 3 proteine realizza sequenze fosforilazione-defosforilazione con un ritmo circadiano preciso e regolare.
Nei batteri esiste una proteina che funge da orologio biologico, subendo reazioni di fosforilazione con ritmo circadiano, creando così "oscillazioni" della durata di 24 ore.E' questa la scoperta fatta dai ricercatori della Harvard University e dell'Howard Hughes Medical Institute e pubblicata sulla rivista "Science".La proteina in questione subisce una ritmica fosforilazione e defosforilazione in due punti chiave della molecola, reazione che è influenzata da altre due proteine con una oscillazione periodica costante.Gli autori dello studio hanno verificato come ponendo in una provetta le tre proteine insieme con ATP, la comune fonte energetica per i sistemi biologici, e una fonte di fosfati, il tutto funziona come una sorta di orologio biologico di base, in grado di mantenere i ritmi circadiani per un lungo periodo di tempo.Erin K. O'Shea, docente di biochimica della Faculty of Arts and Sciences (FAS) di Harvard e coautore dello studio, ha commentato "La caratteristica più incredibile di questo orologio molecolare è la precisione. Anche in assenza di segnali provenienti dall'esterno, cioè in condizioni di totale oscurità, esso può mantenere il suo ritmo per molte settimane e perdendo solo alcune piccole frazioni di giorno."

Redazione MolecularLab.it (18/03/2009)

I telomeri codificano RNA

I telomeri non sono costituiti da DNA silente, la scoperta potrebbe aprire nuove strade allo studio e alla cura dei tumori.

I telomeri - porzioni di DNA che si trovano alle estremità dei cromosomi e che si accorciano ogni volta che la cellula si divide dando il segnale di blocco della divisione quando diventano troppo corti - contengono molecole che vengono trascritte in RNA. E' questa la scoperta, pubblicata su "Science Express", realizzata da un gruppo di ricercatori dell'Università di Pavia e dello Swiss Institute for Experimental Cancer Research (ISREC), coordinati da Elena Giulotto e Joachim Lingner. Poichè finora si pensava infatti che i telomeri fossero "silenti", ossia che il loro DNA non venisse trascritto in filamenti di RNA, la scoperta rimette in discussione tutto il meccanismo con cui si ritiene che funzionino i telomeri e potrebbe fornire una nuova via di intervento per bloccare la rigenerazione continua e incontrollata dei telomeri che si verifica nelle cellule cancerose. Nelle cellule embrionali e in alcune staminali, l'enzima telomerasi provvede a ricostituire i telomeri, in modo che esse possano continuare a dividersi ma col tempo la telomerasi si "usura" e quindi i telomeri si accorciano fino al punto in cui viene bloccata la divisione cellulare. Nelle cellule cancerose l'azione della telomerasi continua con efficienza, rendendole "immortali" grazie a un meccanismo di cui questa ricerca inizia a chiarire le fasi.

Redazione MolecularLab.it (18/03/2009)

La formazione delle sinapsi dipende dalla netrina

Grazie a questa proteina i neuroni distinguono il loro bersaglio formando sinapsi corrette anche in un ambiente cellulare complesso.
Uno studio condotto dai ricercatori della Stanford University coordinati da Daniel Colón-Ramos sul verme nematode Caenorhabditis elegans, e pubblicato su "science" col titolo "Glia Promote Local Synaptogenesis Through UNC-6/Netrin Signaling in C. elegans", ha permesso di scoprire che le cellule gliali guidano i neuroni nei punti precisi in cui devono connettersi gli uni con gli altri grazie alla molecola chiamata netrina UNC-6.Per studiare il processo di formazione delle sinapsi, Colón-Ramos e colleghi hanno considerato due neuroni di C. elegans scoprendo che è la proteina netrina, prodotta da alcune cellule gliali, a indicare al neurone post-sinaptico – cioè quello che riceverà i segnali neuronali – dove potrà trovare la connessione. La netrina inoltre indica al neurone pre-sinaptico dove costruire le sotto strutture richieste per la connessione.I circuiti neuronali vengono infatti assemblati tramite innervazioni coordinate di coppie di neuroni pre- e postsinaptici. Via via che il sistema nervoso si sviluppa, è essenziale che i neuroni si connettano in maniera corretta e in un punto esatto. Il problema è che essi si trovano inizialmente a navigare in un ambiente cellulare complesso, dove occorre discriminare tra diversi bersagli potenziali prima di trovarsi l'uno con l'altro e connettersi.
Redazione MolecularLab.it (18/03/2009)

martedì 17 marzo 2009

Una nuova tecnica per il profilo epigenetico


FONTE

Il Campus Ifom-Ieo sta sperimentando un nuovo strumento per la diagnosi veloce delle alterazioni a livello dei meccanismi di regolazione del Dna.
Ottenere un’immagine dell’epigenoma umano in 3-4 giorni a partire da un piccolo campione di cellule. È la promessa di una nuova tecnologia sviluppata dai ricercatori del Campus Ifom-Ieo di Milano in collaborazione con l’Università degli studi di Milano, il Congenia-Genextra group e i team statunitensi del J. Craig Venter Institute di Rockville e del Sangamo BioSciences di Richmond.
La tecnica, descritta su Development Cell, permette di individuare il profilo epigenetico, cioè i meccanismi di regolazione del Dna, e le alterazioni a suo carico che causano patologie come il cancro.
Nel nostro organismo ogni cellula ha un patrimonio di circa 30 mila geni ereditati dai genitori. Affinché ciascuna cellula assuma un ruolo specifico - neurone, del sangue, epatica... - solo una parte di questi geni viene espressa, mentre gli altri vengono silenziati. Questo meccanismo selettivo, alla base della differenziazione, avviene tramite processi chimici che attivano alcuni geni e ne reprimono altri, senza alterare la sequenza del Dna.
A carico di questi meccanismi di regolazione, quindi a livello epigenetico, possono verificarsi le alterazioni che portano allo sviluppo dei tumori. Tali mutazioni, a differenza di quelle genetiche che avvengono nella sequenza del Dna, sono reversibili se trattate con farmaci. Da qui l’importanza di una tecnica che fornisca il profilo epigenetico di un paziente in tempi brevi, permettendo terapie personalizzate.
Il metodo realizzato dall’équipe di Saverio Minucci, del dipartimento di Oncologia sperimentale dell’Ifom-Ieo di Milano, si basa su un tipo di tecnologia “high throughput”, che consente di individuare in tempi molto veloci la frazione di Dna “attivo” (non silenziato) in ciascun tipo di cellula. Sperimentata in vivo su un milione di cellule umane, la tecnica ha fornito uno screening epigenetico affidabile al 90 per cento. Un buon risultato, se si pensa che altre tecnologie in fase di sviluppo richiedono un campione di cellule fino a cento volte superiore e forniscono dati che hanno un'affidabilità del 30 per cento appena.
Allo stato attuale i test sono condotti su individui sani affinché si possa avere una mappa del profilo epigenetico “normotipo”. Il passo successivo sarà quello di applicare l’analisi a pazienti affetti da patologie tumorali, ed individuare così le alterazioni epigenomiche coinvolte (r.p.).

Tevatron: nuovi risultati sul Bosone di Higgs (non può esistere tra i 160 e i 170 GeV/c2)

FONTE

Sembra restringersi il territorio di caccia per stanare la particella di Higgs, la più ricercata dai fisici di tutto il mondo.
Così almeno affermano gli scienziati del grande laboratorio di fisica americano, il Fermilab, situato a Batavia, alla periferia di Chicago. Nei giorni scorsi, durante l’annuale conferenza Electroweak Physics and Unified Theories, sono state rese note le analisi sugli ultimi risultati degli esperimenti condotti dai due gruppi operanti presso l’acceleratore Tevatron, cioè la macchina per la fisica delle alte energie che è ancora la più potente del mondo in attesa che inizi a funzionare (nel prossimo settembre) l’acceleratore LHC di Ginevra, tuttora in fase di manutenzione. Ebbene, stando alle valutazioni dei fisici del Tevatron, la massa del bosone di Higgs sarebbe da collocare nella fascia più bassa dell’intervallo nel quale è prevedibile individuarlo. Da tempo tale intervallo è stato stabilito tra i 114 e i 185 GeV/c2 (Gigaelettronvolt, cioè la speciale unità di misura della massa delle particelle elementari): il limite inferiore è stato trovato a seguito degli esperimenti condotti al Cern con il precedenti acceleratore Lep; quello superiore è stato dedotto teoricamente in base al valore di altri parametri. Solo in questo intervallo di valori c’è speranza di scovare la particella che dovrebbe aiutarci a capire la natura della massa nell’universo, con tutte le implicazioni che è facile immaginare. Ora però sembra che i valori superiori, almeno quelli tra 160 e 170 GeV/c2, siano da scartare.
Sono due gli esperimenti che hanno portato a questi risultati: quello denominato CDF, Collider Detector at Fermilab, cioè un rivelatore di particelle elementari che analizza i risultati delle collisioni protone- antiprotone; e quello noto come DZero, che rivela le collisioni in un altro punto della folle corsa delle particelle e si avvale di altri strumenti tra i quali un calorimetro a campionatura ad argon liquido. Combinando i risultati dei due esperimenti, i fisici aumentano i dati a loro disposizione per verificare le caratteristiche delle particelle previste dal cosiddetto Modello Standard. È questo il modello attualmente più accreditato per spiegare il microcosmo riducendolo a pochi componenti elementari, suddivisi in particelle pesanti (come i protoni e i neutroni), in quelle leggere come gli elettroni, in quelle di massa quasi nulla come i neutrini; e poi ci sono i fotoni, che trasportano tutti i tipi di radiazioni e inoltre una serie di particelle esotiche di materia e antimateria. In questo quadro c’è posto, almeno teoricamente, per il bosone di Higgs del quale però non si è ancora riusciti ad catturare le impronte rivelatrici. Quello che i due esperimenti del Fermilab sono riusciti a misurare sono i dati di un certo numero di collisioni utili: finora hanno analizzato un terzo degli impatti e ciò è stato sufficiente per poter dedurre quella previsione che esclude la zona alta delle energie possibili per la cattura di Higgs.
Se queste previsioni saranno confermate, la conseguenza più evidente è che la caccia alla celebre particella diventerà più difficile: infatti, se abbiamo a che fare con energie più basse, le particelle prodotte nel decadimento della particella saranno più facilmente confondibili con tante altre che contribuiscono a creare una sorta di “rumore di fondo” subatomico. Quindi l’evento, che potrebbe svelare i segreti della materia, risulterebbe essere mascherato e molto difficile da evidenziare con chiarezza.
Non si può comunque dire che si tratti di una brutta notizia: fa parte della normale avventura di chi indaga la realtà naturale che è quella che è: Ed è anche inutile alimentare la polemica se questi risultati potranno avvantaggiare il Tevatron o l’LHC nel giungere per primo a tagliare l’atteso traguardo. In entrambi gli schieramenti l’atmosfera resta di ottimismo e la convinzione di poter sparare il colpo decisivo non subisce tentennamenti. Si tratterà piuttosto di affinare ancor più le tecniche e gli strumenti, sia pratici che teorici, per far fronte a una sottigliezza e imprevedibilità della natura che non smette di sorprendere gli scienziati e di stimolare la loro creatività.

Batterie cariche in dieci secondi


Una manciata di secondi per ricaricare un cellulare e cinque minuti per un'auto ibrida. È quanto promette una nuova generazione di accumulatori al litio, presentata su Nature.
In futuro, ricaricare una macchina fotografica, un portatile e persino un'automobile ibrida richiederà da qualche secondo a una manciata di minuti appena. A renderlo possibile potrebbe essere una nuova generazione di batteria al litio creata nei laboratori del Massachusetts Institute of Technology (Mit), in grado di abbattere i tempi di ricarica di almeno cento volte rispetto alle normali batterie dello stesso tipo. E che, per l'appunto, sta destando l'interesse di note case automobilistiche.
Ormai da vent’anni la tecnologia che utilizza accumulatori al litio è impiegata nella maggior parte delle apparecchiature portatili. La leggerezza e l’alta capacità di accumulo di energia hanno infatti reso vincenti sul mercato queste batterie, che però presentano lunghi tempi di ricarica perché la migrazione degli ioni litio dal catodo all'anodo (cioè da un polo all'altro della a un polo della batteria) è un processo relativamente lento.
Byoungwoo Kang e Gerbrand Ceder hanno però trovato il modo di accelerarlo, come spiegano sull'ultimo numero di Nature (qui il link allo studio). I due ricercatori hanno riscoperto un materiale già utilizzato negli accumulatori, il litio ferro fosfato. Il catodo delle nuove batterie è infatti costituito da piccolissime nanosfere - dell’ordine di 50 nanometri - di questo materiale, ricoperto poi da un sottile strato di litio fosfato. Le nanosfere rilasciano rapidamente gli ioni litio quando la batteria si carica, che viaggiano attraverso l'elettrolita (il mezzo che separa i de poli) verso l'anodo. Quando la batteria si scarica, gli ioni viaggiano in senso inverso per essere riassorbiti dalle nanosfere, circondate da carbonio che implementa ulteriormente la velocità a cui si muovono le cariche.
I ricercatori hanno calcolato che per ricaricare un cellulare bastano dieci secondi, e cinque minuti per un'auto ibrida, a fronte delle attuali otto ore. (a.d.)

ZP3: La proteina della fecondazione

a cura di Barbara Gallavotti

La forsennata corsa degli spermatozoi verso l'oocita da fecondare, quando è coronata dal successo, termina con l'aggancio a una proteina presente sulla superficie della meta: si chiama ZP3 ed è nota da circa trent'anni. Non è ancora nota invece la sua struttura tridimensionale: una informazione fondamentale sia se si vogliono diagnosticare cause di infertilità sia per progettare anticoncezionali che agiscano sulla fecondazione invece di basarsi sugli ormoni (agendo quindi sulla maturazione dell'oocita), come quelli oggi disponibili. Un primo passo è stato compiuto da un gruppo di ricercatori del Karolinska Institutet di Stoccolma, autori di uno studio ZP3 appena pubblicato su Nature. Ne parliamo con Luca Jovine, parte del gruppo di ricerca di Stoccolma.

Ascolta l'intervista a Luca Jovine

Nanosonde antitumorali

Le nanosonde contengono l'anticorpo erceptina, usato nel trattamento del cancro metastatico: iniettate nel corpo in soluzione salina, andrebbero a vincolarsi ai marcatori proteici sulla superficie delle cellule tumorali.
Una nanosonda in grado di localizzare i tumori, e che in futuro potrebbe essere ingegnerizzata per aggredire le cellule tumorali, rilasciando in modo molto mirato molecole di farmaco: è questo il risultato di una ricerca condotta da Joseph Irudayaraj, docente di ingegneria agricola e biologica presso la Purdue University.Finora, nei laboratori sono state sviluppate sonde che sfruttano nanobarre d'oro o particelle magnetiche: le nanosonde di Irudayaraj invece sfruttano entrambe le tecnologie, rendendo più agevole il tracciamento con differenti sistemi di imaging via via che si muovono nell'organismo verso le cellule cancerose.Le particelle magnetiche infatti possono essere rivelate utilizzando la tecnica di risonanza magnetica (MRI), mentre le nanosbarre d'oro sono luminescenti e possono essere tracciate grazie alla microscopia, un processo più sensibile e preciso. L'MRI per contro ha il vantaggio di poter arrivare più in profondità nei tessuti, ampliando il potenziale campo di applicazione della nuova tecnica. In sostanza, le nanosonde, delle dimensioni 1000 volte più ridotte di un capello umano, contengono l'anticorpo erceptina, utilizzato nel trattamento del cancro metastatico. Esse verrebbero iniettate nel corpo in soluzione salina, e l'erceptina le indurrebbe a vincolarsi ai marcatori proteici sulla superficie delle cellule tumorali."Quando la cellula esprime un marcatore proteico complementare all'erceptina, questa vi si può attaccare, rilasciando un farmaco; ora stiamo sviluppando proprio la tecnologia che consentirà il rilascio. "Le nuove sonde così realizzate sono state testate in cellule in coltura, come descritto in un articolo pubblicato sull'ultimo numero della rivista “Angewandte Chemie”. Il prossimo passo, secondo quanto dichiarato dai ricercatori, dovrà essere una serie di test nel modello murino per determinare la dose e la stabilità delle sonde. (fc)

Identificata la "firma" della coscienza

Quattro differenti "marcatori" elettrofisiologici, fra loro convergenti e complementari, caratterizzano il pasaggio di un'informazione allo stato di coscienza da uno stato pre-conscio.
Quattro specifici, distinti processi si combinano per dare luogo alla "firma" che contraddistingue quell'attività cerebrale che noi esperiamo come coscienza. Lo dimostra una ricerca pubblicata sull'ultimo numero della rivista on line ad accesso pubblico PLoS Biology in cui Stanislas Dehaene, Lionel Naccache, Raphael Gaillard e collaboratori dell'INSERM, a Gif sur Yvette, in Francia, hanno studiato l'attività cerebrale di persone a cui erano stati presentati due differenti tipi di stimoli, uno percepibile coscientemente, l'altro no. L'esperimento è stato possibile grazie alla collaborazione di diversi pazienti che per la terapia di gravi forme di epilessia dovevano comunque essere sottoposti a un intervento per il posizionamento di una serie di micro-elettrodi nel cervello, rendendo così possibile la registrazione, con una risoluzione spaziale e temporale mai ottenuta in precedenza, dell'attività elettrofisiologica intracerebrale. I ricercatori hanno presentato loro su un monitor una serie di parole "mascherate" e non mascherate mentre misuravano i cambiamenti nell'attività cerebrale e il livello di consapevolezza della loro visione delle parole. Confrontando la risposta elettrofisiologica dei neuroni ai due differenti tipi di stimoli, i ricercatori hanno così potuto isolare quattro differenti marcatori elettrofisiologici fra loro convergenti e complementari che caratterizzano l'accesso di un'informazione alla coscienza 300 millisecondi dopo la percezione. Tutte le misure hanno lasciato intravedere un coinvolgimento in uno stato di riverberazione di attività cerebrale a vasto raggio. "Questo lavoro suggerisce che una più matura concezione dei processo di coscienza dovrebbe considerare, invece di un unico marcatore (il correlato neuronale della coscienza). Uno schema di attivazione distribuito e coerente dell'attività cerebrale", spiega Lionel Naccache. I risultati vanno a corroborare il modello di coscienza che prevede l'esistenza di uno spazio di lavoro globale, e che ipotizza che un'informazione in arrivo diventi cosciente quando vengono soddisfatte tre condizioni. In primo luogo, l'informazione deve essere rappresentata da reti di neuroni sensoriali, come quelli della corteccia visiva primaria. Inoltre, la rappresentazione deve durare sufficientemente a lungo per avere accesso al (o "arrivare all'attenzione del") secondo stadio di elaborazione distribuita nella corteccia cerebrale, il principale centro di associazione fra tipi differenti di informazione. Infine, questa combinazione di propagazione dell'informazione "dal basso verso l'alto" e di amplificazione dell'informazione "dall'alto verso il basso" deve innescare, attraverso l'attenzione, un'attività coerente fra differenti centri cerebrali. Attività coerente che sarebbe quella, secondo il modello, che esperiamo come coscienza. Gli autori sottolineano che, secondo questo modello, la coscienza è sempre coscienza "di" qualcosa e che non esiste uno stato di coscienza "puro" svincolato dal contenuto del pensiero. (gg)

lunedì 16 marzo 2009

GIAPPONE: Shuji Kajida presenta Ucroa, la modella-robot

FONTE

TSUKUBA (GIAPPONE), 16 Marzo 2009 - Naomi Campbell confessa di sentirsi vecchia e si preoccupa per il diradarsi delle chiamate del suo agente. Quando ha parlato col mensile GQ, però, la supermodella non aveva ancora preso in considerazione l’avvento di Ucroa, la modella-robot. Una equipe giapponese dell’Istituto di tecnologie industriali avanzate (Aist) ha investito tre anni di lavoro e 200 milioni di yen (1,6 milioni di euro) per la creazione di un robot umanoide in grado di affrontare le passerelle. Il risultato è un prototipo che ha il nome tecnico di Ucroa. La taglia è ben diversa da quella della statuaria ‘venere nerà, d’altra parte è stata creata pensando allo standard giapponese. E quindi: 1,58 di altezza, 43 chili di peso, bruna con i capelli a caschetto, un volto di fattezze umane realizzato studiando i parametri di bellezza delle donne giapponesi tra i 19 ed i 29 anni. La ‘pellè del corpo però è metallica, l’idea di darle un look da liceale è stata accantonata. «Il nostro programma - ha detto il direttore del progetto, Shuji Kajida - consisteva nel concepire un essere che avesse sembianze vicine a quelle umane e potesse interagire con l’uomo, ma abbiamo voluto evitare quella sensazione di disagio che sarebbe emersa se le avessimo dato fattezze troppo simili a quelle di una donna». In compenso, l’andatura di quella che è la quarta piattaforma robotica presentata dall’Aist è decisamente più elegante degli androidi suoi predecessori. «Abbiamo analizzato la camminata delle mannequin per programmare le diverse posture» ha spiegato Kujida. E la Campbell forse si preoccupa ancora di più. (Ansa AFP).

Hard Disk Molecolari - Come ospitare 5000 CD su un centimetro quadro



Sempre più piccolo: se un leitmotiv si può rintracciare nel convulso sviluppo delle tecnologie informatiche, è la progressiva miniaturizzazione di tutti i componenti e i dispositivi elettronici (basta pensare alla tecnologia racchiusa attualmente dai cellulari). Tuttavia, quella che può apparire esclusivamente una moda, è in realtà una sorta di via obbligata; quasi una condanna. Per aumentare la capacità di calcolo e di memorizzazione dei dati non c'è alternativa alla miniaturizzazione. Diversamente, i consumi elettrici e il calore prodotto dai componenti elettronici durante il funzionamento di un qualunque dispositivo, diverrebbero rapidamente insostenibili al crescere della complessità del circuito.
Le memorie magnetiche, che conservano l'informazione a tempo indeterminato, sono uno dei componenti chiave di tutta la filiera. Ecco perché, dal punto di vista tecnologico, si stanno compiendo sforzi enormi per aumentare la densità di scrittura, cioè per scrivere ogni singolo dato nella porzione più piccola possibile di materiale magnetico.
Un hard disk funziona in modo del tutto simile ad un sofisticato giradischi. Ogni volta che lanciamo il comando di scrittura o lettura di un file, il disco viene fatto ruotare rapidamente e un apposito braccio provvede a scrivere o a leggere l'informazione desiderata, magnetizzando piccole porzioni del sottile strato di materiale metallico che ricopre la superficie del disco. A parità di dimensioni del disco, la quantità di dati che in esso è possibile immagazzinare dipende dalla densità di scrittura: quanto più piccole sono le singole porzioni di superficie che conservano un comportamento magnetico, tanti più dati vi si possono memorizzare: un po' come la lunghezza del testo contenuto in una pagina dipende dalle dimensioni del carattere utilizzato.
Gli oggetti più piccoli nei quali sia possibile immagazzinare informazione magnetica sono speciali molecole scoperte all'inizio degli anni '90 da Dante Gatteschi e Roberta Sessoli dell'Università di Firenze. Si tratta di minuscoli aggregati di ioni metallici (per lo più manganese e ferro) con dimensioni dell'ordine del nano-metro, cioè del miliardesimo di metro (bisognerebbe metterne in fila un milione per raggiungere una lunghezza di 1 millimetro). In una collaborazione ormai ultradecennale con l'equipe del Prof. Andrea Cornia del Dipartimento di Chimica di Modena, i ricercatori di Firenze si sono specializzati nella preparazione di queste nano-molecole magnetiche, la cui struttura è spesso assai fragile. E negli ultimi due anni sono riusciti a sviluppare nuove nano-molecole con struttura estremamente stabile. Infine, grazie al contributo di colleghi dell'Université Pierre et Marie Curie di Parigi, hanno finalmente dimostrato che una superficie d'oro ricoperta da un singolo strato di nano-molecole, formate da quattro ioni ferro e agganciate alla superficie con un cavo organico, mostra un effetto memoria. Ci sono quindi tutti gli ingredienti di base necessari per realizzare memorie di massa stabili ad altissima densità: qualcosa come 5000 CD su una superficie di un centimetro quadrato, migliaia di volte la densità di scrittura raggiunta attualmente. Inoltre, queste molecole potrebbero esibire proprietà utili anche nel campo, di più lontana applicazione, della spintronica e dei calcolatori quantistici. Il lavoro, che ha visto come principale autore Matteo Mannini dell'Università di Firenze, è stato recensito da riviste prestigiose quali Nature Nanotecnology e Materials Today".
Siamo decisamente nello stadio della ricerca di base - precisano sia Sessoli che Mannini: le molecole utilizzate sono stabili soltanto a temperature molto basse e l'informazione persiste per tempi assai brevi. Ma l'industria elettronica ci ha abituato a sviluppi molto rapidi. Tra 5 o 6 anni, queste stesse sperimentazioni potrebbero benissimo configurarsi come ricerca applicata. Siamo cioè nella fase in cui si è prodotta una buona idea, dotata di grandi potenzialità, ma che necessita di essere coltivata per esprimere il proprio potenziale, e restituire moltiplicati alla collettività anche gli investimenti fatti fin qui. E' questa una fase in cui l'Italia fatica molto a non perdere il pallino, e vede spesso le proprie idee, assieme a chi le ha concepite, emigrare verso altri lidi. E' questo uno dei punti in cui il Paese deve migliorare più rapidamente, se vuole guadagnare competitività.

Fibre ottiche superveloci

Grazie all’impiego di un materiale organico è stata messa a punto una struttura in grado di trasmettere dati con velocità otto volte superiore a quelle dei dispositivi tradizionali.
Lo studio di materiali in grado di trasmettere dati a velocità sempre più elevate è la costante sfida della tecnologia delle telecomunicazioni ottiche. L’uso di un nuovo materiale di natura organica, sperimentato da un team di ricerca statunitense ed europeo coordinato da Ivan Biaggio della Lehigh University (Stati Uniti), ha consentito di raggiungere velocità di trasmissione dei dati di gran lunga superiori rispetto a quanto ottenuto finora con i dispositivi tradizionali.La novità sta nell’aver combinato delle strutture guida in silicio con il materiale organico, identificato con la sigla Ddmebt (qui il link alla struttura della molecola). Si tratta di una sostanza di tipo “non lineare”, in grado cioè di cambiare la propria struttura molecolare al passaggio della luce, facendola propagare al suo interno ad alta velocità. Per ottenere una sostanza il più possibile omogenea, e quindi ridurre al minimo le interferenze nel passaggio dei dati, i ricercatori hanno vaporizzato il materiale organico e lo hanno lasciato depositare sulle guide di silicio e negli spazi fra di esse. In questo modo, spiegano gli autori dello studio pubblicato sulla rivista Nature Photonics, le molecole di Ddmebt si depositano “come fiocchi di neve”, formando un materiale plastico altamente omogeneo. È proprio negli interstizi fra le guide di silicio, riempite con il nuovo materiale, che la luce passa ad alta velocità, consentendo di trasmettere dati fino a 170 Gigabit al secondo (con le strutture tradizionali, costituite di solo silicio, si possono raggiungere al massimo velocità intorno ai 20-30 Gigabit al secondo). La combinazione con un’architettura in silicio è stata necessaria per incanalare e confinare il flusso di luce all’interno di spazi molto piccoli (le guide di silicio sono separate da poche decine di nanometri). “Abbiamo combinato le caratteristiche migliori di entrambe le tecnologie”, afferma Biaggio, “e crediamo che l’uso di una struttura integrata fra silicio e materia organica potrà consentire in futuro di raggiungere velocità ancora più elevate”. (s.s.)
Riferimento: Nature Photonics ADVANCE ONLINE PUBLICATION DOI:10.1038/nphoton.2009.25

sabato 14 marzo 2009

Verso un'analisi 'topografica' del DNA

FONTE

L'analisi della sua struttura tridimensionale indica come le regioni del genoma non codificanti ma funzionalmente attive siano il doppio di quelle finora considerate.

Un nuovo modo di rilevare le regioni funzionali del DNA, che coinvolge l'osservazione della struttura in 3D del DNA, e non soltanto la sequenza di basi. è stato messo a punto da un gruppo di ricercatori dei National Institutes of Health (NIH), del National Human Genome Research Institute (NHGRI), e dalla Boston University, che lo illustrano in un articolo pubblicato in anteprima online sul sito di "Science". Questo nuovo metodo "topografico" prevede l'identificazione di tutte i ripiegamenti, le anse, le concavità del genoma umano per confrontarle con le caratteristiche strutturali degli elementi corrispondenti rilevabili in altre specie. E' verosimile, osservano i ricercatori, che le caratteristiche strutturali conservate in molte specie abbiano un ruolo importante nelle funzioni dell'organismo, mentre quelle che sono cambiate potrebbero avere un significato minore. "Il nuovo approccio rappresenta un esaltante progresso che accelererà i nostri sforzi di identificazione degli elementi funzionali del genoma. che rappresenta una delle maggiori sfide della genomica di oggi", ha commentato Eric Green. Insieme alle continue innovazioni nel sequenziamento del DNA, questo approccio topografico allargherà i nostri orizzonti nel tentativo di usare le informazioni del genoma per la salute dell'uomo."Nello studio, i ricercatori hanno confrontato la topografia del genoma umano con quella di altre 36 specie di mammiferi, fra le quali il topo, il coniglio, l'elefante e lo scimpanzé. In questo modo hanno trovato che circa il 12 per cento del genoma umano non codificante sarebbe funzionalmente significativo, vale a dire una percentuale doppia rispetto a quella stimata ricorrendo a metodi che si limitano confrontare le sequenze di DNA.I ricercatori osservano infatti che non sempre la sequenza di basi del DNA rappresenta un buon indicatore di funzionalità. Hanno infatti scoperto che sequenze di DNA molto simili possono assumere forma topografiche estremamente differenti, un fatto che può avere un impatto significativo sulla loro possibilità di essere o meno funzionalmente attive. D'altra parte, sequenze differenti possono assumere conformazioni topografiche molto simili e svolgere funzioni analoghe. La conclusione dei ricercatori è che in molti casi la struttura tridimensionale del DNA può essere un fattore predittivo molto più preciso della funzionalità di una sequenza di DNA. (gg)

venerdì 13 marzo 2009

Quando il cervello si rigenera: Nuova scoperta sulle staminali

Il cervello ha una capacità rigenerativa più estesa di quanto creduto fino ad oggi. È questo il risultato di una nuova scoperta scientifica nel campo delle cellule staminali, elaborata nel laboratorio di ricerca sulle cellule staminali dell’Università di Verona e coordinato da Mauro Krampera, ricercatore della sezione di Ematologia diretta da Giovanni Pizzolo, e nel laboratorio di ricerca della sezione di Farmacologia diretta da Guido Fumagalli, grazie all’impegno di Francesco Bifari e Ilaria Decimo, giovani promesse della ricerca dell’ateneo veronese. I risultati della ricerca, condotta su un modello animale, sono stati pubblicati in questi giorni sulla rivista «Journal of Cellular and Molecular Medicine». La nuova scoperta ha portato all’individuazione delle Leptomeningeal Stem Cells (LeSC), una nuova popolazione di cellule staminali che si trovano in una porzione delle meningi che ricopre tutto il sistema nervoso centrale dei mammiferi. Le LeSC sono una popolazione di cellule immature dotate della capacità di auto-mantenersi e differenziarsi in neuroni maturi eccitabili. Ciò dimostrerebbe che il cervello ha una capacità rigenerativa più estesa di quanto creduto fino ad oggi. Una scoperta che apre lo scenario a nuove prospettive terapeutiche nel vasto ambito delle neuropatologie degenerative. Ipotesi che, se verificate nella loro applicabilità, potrebbero essere impiegate nella lotta contro le lesioni traumatiche del midollo spinale, il morbo di Parkinson, la malattia di Alzheimer e per combattere la sclerosi multipla. «Questo lavoro - dicono i ricercatori - rappresenta un importante punto di arrivo per la ricerca veronese ma soprattutto un punto di partenza per le collaborazioni internazionali già avviate i cui sviluppi si mostreranno più chiaramente nei prossimi anni».La ricerca e le sue implicazioni terapeutiche, realizzate anche grazie alla collaborazione delle sezioni di Anatomia patologica e Neurologia dell’Università di Verona, hanno già ricevuto un primo riconoscimento internazionale durante il «5th International Stem Cell School in Regenerative Medicine, Berlin-Rostock», tenutosi in Germania nell’ottobre del 2008.

Un algoritmo per 'leggere' i ricordi


Un gruppo di ricercatori ha potuto individuare solo gli schemi di codifica di alcuni ricordi di tipo spaziale, ma ciò dimostra l'identificazione di tali schemi è realmente possibile.
E' possibile "leggere" i ricordi di una persona semplicemente osservandone l'attività cerebrale: è il risultato di uno studio pubblicato su Current Biology e condotto da ricercatori del Wellcome Trust Centre for Neuroimaging presso l'University College di Londra nel quale si dimostra come i nostri ricordi vengano archiviati secondo schemo regolari. Demis Hassabis ed Eleanor Maguire, che hanno diretto la ricerca e in precedenza avevano studiato il ruolo dell'ippocampo nell'orientamento, della rievocazione dei ricordi e nella prefigurazione di eventi futuri, hanno in particolare analizzato come vengono codificati i ricordi spaziali. Quando ci muoviamo in un ambiente, alcuni neuroni "di localizzazione", situati nell'ippocampo si attivano per dirci dove siamo. Hassabis, Maguire e collaboratori hanno usato la fMRI per controllare l'attività di questi neuroni di localizzazione mentre alcuni volontari si spostavano in una serie di ambienti di realtà virtuale, per analizzare poi i dati con un algoritmo sviluppato Hassabis."Ci siamo chiesti se potessimo vedere nell'attività neuronale schemi interessanti che ci potessero dire a che cosa stava pensando il soggetto o, nel nostro caso, dove si trovava", spiega Maguire "Sorprendentemente, guardando solamente ai dati cerebrali, abbiamo potuto predire con esattezza dove si trovavano, nel loro ambiente di realtà virtuale. In altre parole, potevamo 'leggere' i loro ricordi spaziali.""Osservando l'attività di decine di migliaia di neuroni possiamo vedere che deve esserci una struttura funzionale, uno schema, con cui questi ricordi sono codificati. Altrimenti, il nostro esperimento non sarebbe stato possibile."Maguire ritiene che questa ricerca apra un ampio ventaglio di possibilità per vedere come i ricordi siano effettivamente codificati attraverso i neuroni, guardando al di là della memoria spaziale, verso un più ricco repertorio di ricordi del passato o di prefigurazioni del futuro. "La comprensione di come noi esseri umani archiviamo i nostri ricordi è critica per aiutarci a capire come l'informazione viene elaborata nell'ippocampo e come i ricordi vengono 'erosi' da malattie come l'Alzheimer", ha aggiunto Demis Hassabis. "E' anche un piccolo passo verso l'idea di lettura del pensiero, dato che guardando semplicemente all'attività dei neuroni siamo in grado di dire a che cosa una persona stia pensando." (gg)

giovedì 12 marzo 2009

Scoperta una nuova struttura nanoscopica del ghiaccio.

FONTE

Scoperta una nuova struttura nanoscopica per il ghiaccio: a cinque lati anziché sei. Su Nature Material.
Tra Berlino e Londra grandinano pentagoni. In uno studio che ha coinvolto il Fritz-Haber-Institut, il London Centre for Nanotechnology e l'Università di Liverpool, infatti, è stata scoperta una nuova struttura nanoscopica del ghiaccio, con cinque lati anziché sei. La sua forma è illustrata da Javier Carrasco e colleghi su Nature Materials.
Tutti conoscono la classica forma del fiocco di neve: sei braccia che si allungano dal centro, descrivendo, con le loro estremità, un esagono regolare, ossia il motivo geometrico del reticolo cristallino più comune con cui si presenta l'acqua allo stato solido. Tuttavia, se la struttura cristallina del ghiaccio è ben nota a livello di macroscale, a livello microscopico la sua natura non è altrettanto chiara, soprattutto se si tratta di valutare gli arrangiamenti atomici assunti dall'acqua quando questa si trova a solidificare a contatto con un altro materiale.
“Per la prima volta abbiamo dimostrato che il ghiaccio si può organizzare in una estesa struttura a partire da pentagoni e non da esagoni”, afferma Angelos Michaelides del centro londinese: “una scoperta che ci aiuta anche a comprendere quale sia la natura dei legami idrogeno nell'acqua”. I ricercatori hanno infatti trovato che, alle dimensioni di circa 1 nanometro (un miliardesimo di metro), le prime catene di atomi che si formano - e che fungono da nucleo di aggregazione per le altre molecole - hanno una forma pentagonale e non esagonale.
La forma pentagonale sarebbe favorita rispetto alle altre perché facilita il legame tra l'acqua e le particelle di metallo presenti nell'atmosfera e, allo stesso tempo, assicura un forte legame idrogeno. La scoperta rivela anche una inaspettata adattabilità della struttura, dimostrando che la presenza di un substrato può essere sufficiente a indurre un arrangiamento non esagonale.
Un risvolto pratico di questa ricerca è legato alla possibilità di favorire la formazione di ghiaccio nelle nubi, ossia di innescare tutta quella serie di processi che conduce alla formazione della pioggia. La cristallizzazione di ghiaccio ad alta quota è infatti un passaggio fondamentale. Questa avviene prevalentemente all'interfaccia fra l'acqua liquida e altre particelle sospese nelle nubi (aerosol). Finora si è immaginato di potere accelerare la formazione delle nuvole immettendo in atmosfera molecole dalla struttura cristallina esagonale che facciano da centri di aggregazione. Ma questo studio suggerisce che possa essere più efficace puntare su strutture pentagonali. (l.c.)

Arriva la realtà virtuale che coinvolge i nostri cinque sensi


Una nuova tecnologia permetterà di sperimentare «realmente» viaggi nello spazio e nel tempo.
Viaggiare nello spazio e nel tempo senza mai muoversi, ascoltando i rumori e osservando l’ambiente circostante, con la possibilità di toccare, annusare e gustare le cose: questo è l’intento di Towards Real Virtuality, un progetto inglese che per la prima volta permetterà di provare un’esperienza immersiva di realtà virtuale a tutto tondo, coinvolgendo tutti i nostri sensi contemporaneamente.

UN VIAGGIO A CINQUE SENSI – Sarà possibile collaudare le nuove tecnologie sviluppate dagli scienziati britannici delle Università di York e Warwick grazie all’utilizzo di un «bozzolo virtuale», in grado di trasmettere alla persona che si trova al suo interno tutte le sensazioni caratteristiche di un’esperienza reale. Per la prima volta nel campo della realtà virtuale, i cinque sensi vengono stimolati contemporaneamente da dispositivi specifici e in maniera coordinata. Al punto tale che, secondo quanto affermano i ricercatori, diventa impossibile capire se si sta vivendo un’esperienza reale o di finzione. Proprio per questa sua formidabile affinità con il mondo vero, la tecnologia è stata definita Real Virtuality (virtualità reale). Un modello dimostrativo del «bozzolo virtuale» è stato presentato il 4 marzo 2009, in esclusiva, al Pioneers 09 di Londra, evento organizzato dall'EPSRC (Engineering and Physical Sciences Research Council) e dedicato alle innovazioni scientifiche rilevanti per il mondo delle aziende.

IN OGNI LUOGO, IN OGNI TEMPO – Grazie alla Real Virtuality in futuro si potrà viaggiare in tutto il mondo senza allontanarsi dalla propria città. Il bozzolo virtuale potrà trasformarsi anche in macchina del tempo, ricostruendo gli ambienti, i rumori, i sapori e i profumi delle antiche civiltà e facendo vivere un salto indietro nella storia. Fino ad oggi non era stato inventato – e neppure progettato – un sistema che permettesse di compiere un vero e proprio viaggio sensoriale che coinvolgesse tutti e cinque i sensi contemporaneamente. «I progetti di realtà virtuale si sono focalizzati sempre su uno o due sensi (di solito la vista e l’udito). Non conosciamo nessun altro gruppo di ricerca nel mondo che sta progettando quello che noi stiamo per fare», afferma David Howard, professore presso l’Università di York, a capo del progetto. «L’odore sarà generato elettronicamente attraverso una nuova tecnica sperimentata da Alan Chalmers e gli scienziati dell’Università di Warwick: profumi predeterminati attraverso combinazioni specifiche verranno rilasciati a richiesta. Gusto e olfatto sono strettamente legati, ma abbiamo intenzione di fornire anche una sensazione concreta, come se si avesse qualcosa in bocca. Dispositivi tattili provvederanno al senso del tatto».

ETICA E TECNOLOGIA – Grazie alla continua evoluzione delle tecnologie elettroniche e informatiche i ricercatori inglesi puntano a rendere il «bozzolo interattivo» sempre più leggero, confortevole ed economico. Dopo la presentazione a Londra, quindi, potrebbe non essere lontano il lancio sul mercato, con applicazioni in diversi campi come l’educazione e la protezione ambientale; anche se il progetto ha già sollevato un dibattito pubblico riguardo alle implicazioni etiche e agli effetti che questa tecnologia potrebbe avere sulla salute, comportando l’immersione totale dell’utente in un ambiente virtuale che lo isola completamente dal mondo reale. «Oltre alle implementazioni dal punto di vista tecnologico - afferma Howard - uno dei nostri prossimi obiettivi è anche valutare attentamente tutte le implicazioni, economiche e di altro tipo, dell’impiego delle tecnologie di Virtualità Reale nella società».

Valentina Tubino, 04 marzo 2009

mercoledì 11 marzo 2009

I condensati di Fröhlich, possono avere interessanti applicazioni in campo biochimico.

FONTE

Una ricerca mostra che i condensati di Fröhlich non servono per spiegare la coscienza, ma scopre al contempo che essi possono avere interessanti applicazioni in campo biochimico.
La comprensione della coscienza e dei suoi fondamenti biologici e fisici è ben lontana dall'essere raggiunta: molti ritengono che le teorie classiche non siano in grado di darne conto e diversi ricercatori hanno ipotizzato che la meccanica quantistica vi abbia un ruolo centrale. Una delle più note teorie della "mente quantistica" è quella proposta da Roger Penrose e Stuart Hamerhoff, nota come teoria della "riduzione obiettiva orchestrata" (o teoria Orch OR, da orchestred objective reduction). La teoria ipotizza che i microtubuli cellulari possano funzionare da elementi di calcolo quantistico. All'interno dei microtubuli la coerenza di stati di sovrapposizione quantistica viene mantenuta fino al collasso della funzione d'onda. Normalmente una funzione d'onda collassa in seguito a una misurazione, ma si suppone che il collasso non avvenga finché la sovrapposizione quantistica resta fisicamente separata all'interno della geometria spaziotemporale, detta riduzione obiettiva. Quando un'area di coerenza quantistica collassa, si avrebbe un istante di coscienza. La causa fisica dell'attività coerente nei microtubuli, secondo Penrose e Hamerhoff, potrebbero essere i "condensati di Fröhlich", che analogamente ai condensati di Bose-Einstein sono sistemi con un'unica proprietà collettiva di coerenza quantistica macroscopica. Nei condensati di Fröhlich diversi "oscillatori" in vibrazione possono raggiungere uno stato ordinato altamente condensato, vibrando in risonanza. I condensati di Fröhlich non sono stati peraltro mai osservati sperimentalmente in modo certo, a dispetto di 40 anni di intensa ricerca. Ora, come è riferito in un articolo in via di pubblicazione sui Proceedings of the National Academy of Sciences (PNAS)("Weak, strong, and coherent regimes of Fröhlich condensation and their applications to terahertz medicine and quantum consciousness.", di Jeffrey R. Reimers; Laura K. McKemmish; Ross H. McKenzie; Alan E. Mark; and Noel S. Hush), ricercatori dell'Università di Sidney e dell'Università del Queensland, in Australia, hanno studiato le proprietà fondamentali dei condensati di Fröhlich nel tentativo di determinare il miglior metodo sperimentarle che potrebbe consentire di osservarli.Lo studio ha mostrato che per formare condensati di Fröhlich coerenti sono necessarie energie e temperature molto elevate (anche di cento milioni di Kelvin), e che quindi essi non possono esistere nei sistemi biologici, almeno della forma ipotizzata dalla teoria Orch OR.Tuttavia, i condensati di Fröhlich potrebbero avere di verse applicazioni. I ricercatori hanno infatti scoperto che i condensati "deboli" di Fröhlich possono avere effetti significativi sulle proteine e potrebbero spiegare l'azione degli enzimi in termini di eccitazione di modi vibrazionali, come Fröhlich aveva originariamente proposto. (gg)

Un nuovo metodo per modulare l'espressione dei geni

Rapperesenta un significativo progresso che potrebbe consentire un'analisi molto più accurata del ruolo del DNA nel funzionamento cellulare normale e alterato.
Un gruppo di ricercatori dell'Università del Texas ha costruito un "circuito genico" che permette la precisa modulazione dell'espressione di un gene in una cellula, conseguendo un progresso che potrebbe consentire un'analisi molto più accurata del ruolo del DNA nel funzionamento cellulare normale e alterato. Cone spiegano in un articolo pubblicato anticipatamente sul sito dei Proceedings of the National Academy of Sciences (PNAS), l'effetto di modulazione è stato ottenuto creando un feedback negativo nel circuito di sintesi del gene, secondo un'idea analoga da quella del controllo della distorsione nei circuiti elettronici."Per comprendere che cosa fa un gene bisogna cambiarne l'espressione e osservare che cosa succede", spiega Gábor Balázsi, che ha diretto lo studio. "I metodi attuali non ci permettono un controllo fine dell'espressione dei geni."Quello dei geni knock-out è un approccio "tutto o niente" e la loro soppressione per interferenza con piccole molecole di RNA comporta effetti indesiderati. La transfezione cellulare con un vettore di espressione genica sovra-esprime quel gene, ma in modo incontrollato. Per ovviare a questi inconvenienti il gruppo di Balázsi ha progettato un sistema di espressione genica sintetico, sviluppato per ora in un modello rappresentato dal lievito, che consente una puntuale analisi degli effetti del gene. "Poniamo di avere un gene coinvolto nella resistenza ai farmaci, e si voglia sapere quale protezione ne ottiene la cellula ai differenti livelli di espressione: è possibile inserire il circuito genico nelle cellule, dapprima reprimendo completamente il gene protettivo. Poi è possibile modularne l'espressione al livello desiderato e aggiungere la chemioterapia alla coltura cellulare, per scoprire il rapporto fra gene e difesa cellulare", spiega Balázsi.Il circuito di espressione genica costruito da Balázsi e collaboratori è stato ottenuto con complesse tecniche di sintesi genica e comprende i classici elementi di regolazione degli operoni batterici.Balázsi paragona il meccanismo a quello di distorsione dei circuiti elettronici: gli amplificatori rafforzano un segnale, ma anche lo distorcono. Distorcendo il segnale prima che entri nell'amplificatore in modo opposto a quello causato dall'amplificatore, le due distorsioni si elidono e il segnale risulta chiaro. Ora Balázsi e collaboratori stanno lavorando a un circuito genico che funzioni altrettanto bene in una cellula di mammifero. (gg)


martedì 10 marzo 2009

I bambini di padri over 45 "hanno più problemi cognitivi"

L'orologo biologico non ticchetta per gli uomini, testimoni le paternità avanzate di Michael Douglas, Mick Jagger, Rupert Murdoch, per dirne solo alcuni. O forse ticchetta, ma è più subdolo?
I figli di padri oltre i 45 anni, secondo uno studio australiano pubblicato online sulla Public Library of Science, hanno maggiori difficoltà di concentrazione e minori capacità mnemoniche. E invece i figli delle madri più anziane tendono a cavarsela meglio nei test d'intelligenza rispetto ai compagni nati da madri giovani (forse però non per problemi genetici ma perché sono allevati con più attenzione, suggeriscono i ricercatori).
Lo studio è destinato a fare polemica; intanto è un'analisi retrospettiva sui dati raccolti negli Stati Uniti su oltre 33.500 bambini nati fra il 1959 e il 1965, in tre fasi successive: a otto mesi, quattro e sette anni. John McGrath, a capo del team della Università di Brisbane che ha condotto la ricerca, ha deciso di avvalersi di questa messe di dati di fronte alla crescente tendenza a fare figli in età più avanzata, sia per gli uomini che per le donne.
I bambini erano stati valutati per coordinazione fra mano e occhio, discriminazione sensoriale e conoscenza astratta; i più grandi anche per capacità di lettura, scrittura e nozioni aritmetiche. Secondo McGrath, le capacità neurocognitive dei piccoli decrescevano in maniera sensibile con l'aumentare dell'età del padre. "Il trend di questi dati è relativamente coerente per fasce d'età e funzioni neurocognitive" ha detto McGrath. "Alla luce dell'aumento delle paternità ritardate, le implicazioni cliniche richiedono un esame più accurato". In altre parole: fate figli da giovani.
Lo studio comunque non è in grado di dire se quei bambini degli anni Sessanta più in là recuperarono lo svantaggio coi coetanei. L'età più avanzata del padre potrebbe essere collegata a una serie di problemi congeniti neurologici ma anche all'insorgere di malattie come schizofrenia, dislessia, disordine bipolare, autismo.
Fino ad oggi, molti studi sono stati effettuati sul rischio delle gravidanze in età materna avanzata, e quasi nessuno sui rischi delle paternità ritardate; gli uomini producono cellule spermatiche nuove tutta la vita, caratteristica che si pensava proteggesse la qualità del seme.