lunedì 28 dicembre 2009

Forze di marea e tremori sismici.

Fonte: Le Scienze
-------------------------
Uno strato di acqua ad altissima pressione al di sotto della faglia di San Andreas si comporterebbe come un lubrificante rispetto agli strati rocciosi circostanti.
Le forze gravitazionali esercitate dal Sole e dalla Luna sono in grado di influenzare sottili movimenti sismici, almeno per quanto riguarda la faglia di San Andreas: è questo il risultato di uno studio condotto da ricercatori dell'Università della California a Berkeley, pubblicato sulla rivista “Nature”.
Nello specifico, si tratterebbe di deboli tremori tellurici dovuti alla presenza fra i 15 e i 25 chilometri di profondità di uno strato idrico sottoposto a una pressione elevatissima, tale da portarlo a comportarsi come un lubrificante nei confronti degli strati di roccia circostante che potrebbero così subire facilmente piccoli scivolamenti.
"I tremori che registriamo sembrano essere estremamente sensibili a cambiamenti minimi nello stress”, ha osservato Roland Bürgmann, che con Robert Nadeau e Amanda M. Thomas ha condotto la ricerca. "Avevamo già osservato che onde sismiche provenienti dall'altra parte del globo sono in grado di innescare dei tremori, come nella zona di subduzione di Cascadia al largo della costa dello Stato di Washington con il terremoto di Sumatra dello scorso anno, o il terremoto di Denali del 2002, che li aveva innescati in diverse faglie della California. Ora abbiamo anche constatato che le forze di marea dovute al Luna e al Sole modulano questi tremori.”
"La grossa scoperta è che in profondità ci sono fluidi ad altissima pressione, a pressione litostatica, il che corrisponde alla pressione equivalente al peso di tutta la roccia soprastante, che ha uno spessore dai 15 ai 30 chilometri”, spiega Nadeau. "A una pressione così alta l'acqua fa da lubrificante per la roccia, rendendo la faglia molto debole.”
"Lo stress è di molti, molti ordini di grandezza inferiore alla pressione che c'è là, e questo è davvero molto sorprendente. E' come se poteste spingere con una mano e la faglia si spostasse”, ha detto Bürgmann. In effetti, lo stress di taglio dovuto al Sole alla Luna e alle maree oceaniche è pari a circa 100 Pascal, mentre la pressione a 25 chilometri di profondità corrisponde a circa 600 megaPascals, ossia sei milioni di volte superiore.
Secondo i ricercatori, anche se le forze di marea esercitate dalla Luna e dal Sole non sono in grado di indurre direttamente dei terremoti, possono innescare sciami di tremori profondi che a loro volta possono aumentare la probabilità di terremoti nell'area soprastante alle faglie interessate. (gg)

Il pericolo delle infezioni multiresistenti.

Fonte: Le Scienze
--------------------------
L'improvvisa diffusione in tutto il mondo di un ceppo di E. coli resistente agli antibiotici sta creando una certa preoccupazione nel mondo medico.
L'improvvisa diffusione in tutto il mondo di un batterio resistente agli antibiotici sta creando una certa preoccupazione nel mondo medico: è quanto viene riferito in un articolo apparso sulla rivista f1000 Medicine Reports.
Con il suo intervento Johann Pitout del Dipartimento di patologia e Laboratorio di Medicina dell'
Università di Calgary, intende fare appello alla comunità medica affinché venga monitorata la diffusione del batterio dotato di multiresistenza prima che diventi necessario utilizzare antibiotici più potenti come prima risposta.
A conferire la resistenza alle penicilline sono gli enzimi denominati beta-lattamasi ad ampio spettro (Extended-spectrum β-lactamases, ESBL) che vengono prodotti dai batteri. Gli ESBL sono stati collegati comunemente alle infezioni nosocomiali, che vengono generalmente trattati con particolari antibiotici come i carbapenemici.
Tuttavia, in anni recenti, si è registrato un drastico incremento nelle infezioni di comunità, attribuibili a un singolo ceppo di E. coli che produce ESBL. Secondo Pitout, la rapida diffusione di questo particolare ceppo è dovuto, almeno in parte, ai viaggi internazionali attraverso aree ad alto rischio come il subcontinente indiano.
Utilizzando i carbapenemi come prima risposta a tale incremento delle infezioni si incrementa il rischio di indurre la resistenza degli antibiotici nelle comunità, vanificando alcune delle più potenti strategie antibatteriche disponibili attualmente.
Sempre secondo Pitout, la comunità medica dovrebbe utilizzare tutti i metodi disponibili per identificare le infezioni causate dai batteri che producono ESBL e testare empiricamente l'efficacia di altri antibiotici nel trattare infezioni acquisite in comunità.
“Se le minacce alla salute pubblica emergenti vengono ignorate, la comunità medica può essere forzata a utilizzare i carbapenemi come prima scelta per il trattamento delle gravi infezioni del tratto urinario”. (fc)

Neuroni in vitro che conservano la memoria.

Fonte: Le Scienze
-------------------------
Inserendo nelle sezioni di ippocampo alcuni elettrodi di stimolazione, i ricercatori hanno verificato che l'attività spontanea di alcune particolari strutture “ricordava” quale elettrodo era stato attivato.
Per la prima volta, un gruppo di neuroscienziati della Facoltà di medicina della Case Western Reserve University è riuscito a ricreare schemi di attività di circuiti cerebrali mantenuti in vitro.
Nel campo delle neuroscienze, la memoria umana viene classificata in tre categorie: dichiarativa, che consente di memorizzare fatti o specifici eventi; procedurale, che consente di ricordarsi, per esempio, come si suona il piano o si va in bicicletta; e a breve termine, che permette di ricordare, per esempio, un numero telefonico finché non lo si compone.
In questo particolare studio, i cui risultati sono riportati nell'articolo "
Representing information in cell assemblies: Persistent activity mediated by semilunar granule cells", che comparirà sulla rivista "Nature Neuroscience" ed è attualmente disponibile online, gli autori Ben W. Strowbridge e Phillip Larimer erano interessati a identificare gli specifici circuiti responsabili della memoria di lavoro.
Utilizzando frammenti isolati di tessuto cerebrale di roditori, Larimer ha scoperto un modo per ricreare un tipo di memoria di lavoro in vitro. Per lo studio, la scelta è caduta su particolari strutture dell'ippocampo rappresentate dalle fibre muscoidi e dalle connesse cellule granulari, che sono spesso danneggiate nelle persone affette da epilessia e che hanno la particolarità di conservare la maggior parte della loro attività anche quando mantenute in vita in sottili sezioni di cervello.
"La constatazione che molti soggetti epilettici hanno deficit di memoria ci ha portato a chiederci se esista una connessione fondamentale tra queste strutture e i circuiti di memoria”, ha spiegato Larimer.
Dopo aver constatato un'attività elettrica spontanea in queste strutture mantenute in vitro, i ricercatori hanno inserito nelle sezioni di ippocampo alcuni elettrodi di stimolazione, verificando come la loro attività spontanea “ricordasse” quale elettrodo era stato attivato. Questo tipo di memoria in vitro aveva una durata media di 10 secondi, tanto quanto altri tipi di memoria di lavoro studiati in soggetti umani. (fc)

venerdì 4 dicembre 2009

George Smoot: vi spiego le nuove scoperte sulla nascita dell’universo.

------------------------
Ha saputo catturare per una buona ora l’interesse curioso degli studenti di vari licei lombardi, accorsi ieri pomeriggio alla sala Gaber del palazzo della Regione a Milano, su invito dell'Associazione Euresis e del Centro Culturale di Milano, in collaborazione con la Presidenza della Regione Lombardia e il Dipartimento di Fisica dell'Università degli Studi di Milano. È George Smoot, del Lawrence Berkeley Laboratory, University of California, premio Nobel per la fisica nel 2006 per i risultati ottenuti nel con il satellite Cobe (Cosmic Background Explorer) della Nasa, che hanno aperto un nuovo scenario sulla comprensione dell'intera storia dell'universo. Smoot ha accettato con entusiasmo la proposta di tenere una conferenza per gli studenti sul tema “La prima luce dell'Universo. L'avventura della cosmologia contemporanea” e ha raccontato con vivacità e col supporto di spettacolari immagini la sua esperienza di esploratore delle profondità cosmiche; esperienza culminata con la mappa dell’universo neonato disegnata in base ai dati raccolti da Cobe e che presto sarà perfezionata dai risultati della missione Planck dell’ESA. L’obiettivo delle ricerche di Smoot è di offrirci uno zoom sulle condizioni dell’universo ai suoi inizi, 380.000 anni dopo il big bang, attraverso l’analisi della radiazione di fondo a microonde che dagli abissi del tempo è giunta fino a noi. Così ne ha parlato a ilsussidiario.net poco prima di incontrare gli studenti.

Cosa si aspetta dalla missione Planck?
Col satellite Cobe abbiamo misurato per la prima volta le fluttuazioni del fondo cosmico a microonde (Cosmic Microwave Backgound, CMB), su scale angolari di sette gradi e con una buona precisione. Ora dalla missione Planck mi aspetto misure molto più precise del CMB, sia in termini di temperature che di scala angolare, cioè dell’orizzonte cosmologico che si potrà osservare. Sono misure che ci dovrebbero consentire di comprendere meglio le condizioni dell’universo nei suoi primi istanti e di risalire, dall’esame delle piccole increspature primordiali, alle strutture del cosmo come lo conosciamo oggi, popolato di galassie e dominato dalle forze fondamentali della natura.

Ma sembra che ci saranno “sorprese” anche a livello di rivelazioni sullo spaziotempo...
Sì. Una seconda novità che mi aspetto è di scoprire qualcosa circa i processi che hanno determinato la forma dello spazio-tempo: sarebbe interessante trovare tracce delle onde gravitazionali che potrebbero essere state presenti fin da epoche remote e hanno contribuito a distorcere la trama strutturata dello spazio-tempo. Sarà inoltre interessante raccogliere dati che consentano di mettere alla prova la cosiddetta teoria dell’inflazione, secondo la quale le fase iniziali dell’evoluzione cosmica sono state caratterizzate da un periodo di rapida espansione; le accurate misure di Planck ci permetteranno di studiare come si è innescata l’espansione e quali conseguenze ha prodotto.
Speriamo anche di trovare indizi utili per ricostruire i processi di formazione delle galassie.
Molte altre scoperte saranno possibili. Credo che i prossimi anni saranno anni molto eccitanti per la cosmologia e quindi un po’ per tutti.

In questi giorni ha ripreso a funzionare il super acceleratore LHC al Cern di Ginevra. Come cosmologo, cosa si aspetta dalle ricerche sulle particelle elementare come quelle che si faranno con LHC?
È suggestivo constatare come tutto sia connesso nell’universo. In particolare c’è un legame molto stretto tra il microcosmo e il macrocosmo: ogni cosa che succede a livello della materia microscopica, come quella studiata con LHC ha un riflesso sulla scala macro, quella delle galassie e delle strutture studiate da noi cosmologi. Molte delle domande alle quali cercano di rispondere i fisici delle particelle che operano al Cern, le ritroviamo nelle nostre indagini sull’infanzia del cosmo. Oggi tra le teorie più suggestive che cercano una verifica negli esperimenti come quello di LHC, ci sono quelle basate sulla supersimmetria: la differenza tra il gran numero di particelle presenti probabilmente ai primordi dell’universo rispetto a quelle che troviamo oggi, è dovuta proprio alla rottura della simmetria che si è verificata poco dopo il big bang, al quale le nostre ricerche si stanno avvicinando.

Pensa che sarà possibile arrivare ancor più vicino al momento iniziale, senza incontrare limiti?
Penso che non sapremo mai dove porre il limite. Peraltro, dico sempre ai giovani scienziati che per scoprire qualcosa di nuovo devono credere che ciò sia possibile, devono aver fiducia nei loro strumenti di indagine; altrimenti è inutile anche solo avviare una ricerca. Certo, ultimamente abbiamo fatto molti passi avanti e penso che prima o poi arriveremo ad avere un quadro abbastanza chiaro dello scenario cosmico. A questo punto sarà ancor più interessante porre quelle domande tipiche dei filosofi e dei teologi: perché esiste questo universo? Perché ha questa forma, questo modo di evolvere? Sono domande che comunque è possibile già porre oggi e sulle quali dialogare tra studiosi di diverse discipline.

Secondo la sua esperienza, quali sono state in fisica le scoperte più sorprendenti e inattese?
C’è sempre un quid di imprevedibilità anche nelle scoperte più attese. Certamente la presenza nell’universo della energia oscura, la dark energy, è stata uno delle scoperte che più mi ha sorpreso e che ha implicazioni ancora non del tutto evidenti, sia nella ricostruzione che noi cosmologi facciamo della storia passata dell’universo, sia nelle previsioni sulla sua possibile evoluzione futura.
Tra le altre scoperte in fisica, una che mi è sempre sembrata tra le più imprevedibili è quella della superconduttività, realizzata quasi cento anni or sono e che ancora si sta studiando per poter elevare il limite della temperatura alla quale è possibile far circolare corrente senza perdita di energia.
Ma poi sono sempre stupito dalle novità che vengono dal mondo della biologia e delle scienze neurologiche: sia per l’imprevedibilità delle loro possibili implicazioni, sia perché ci costringono a continui cambiamenti dei paradigmi con i quali inquadriamo molti fenomeni. Le scoperte che mi sorprendono maggiormente sono quelle che mi costringono a cambiare i paradigmi
mentali.

martedì 1 dicembre 2009

Identificato nuovo anticorpo in pazienti con pancreatite autoimmune.

Fonte: MolecularLab
---------------------------
L'anticorpo, simile alla proteina umana UBR2, è diretta alla proteina PBP di Helicobacter pilori.
Uno studio frutto della collaborazione tra i ricercatori dell'Università di Verona, l'ateneo di Genova e l'istituto Gaslini della città ligure, pubblicato oggi dal "New England Journal of Medicine", tra le più prestigiose riviste scientifiche di medicina internazionale, descrive l'identificazione di un nuovo anticorpo presente nella maggior parte dei pazienti con pancreatite autoimmune e assente in quasi tutti i pazienti con cancro del pancreas.La ricerca, finanziata dal ministero dell'Università, è stata condotta da due equipe di ricercatori, genovesi e veronesi, guidati rispettivamente da Antonio Puccetti, responsabile del laboratorio di immunologia clinica del Gaslini di Genova e da Luca Frulloni e Claudio Lunardi, entrambi docenti della facoltà di Medicina dell'Università di Verona.Tale anticorpo è diretto contro una particolare porzione della proteina PBP dell'Helicobacter pilory che presenta una similitudine con una proteina umana (UBR2) presente nelle cellule del pancreas.
Questo meccanismo è definito di "mimetismo molecolare" ed è uno dei possibili meccanismi attraverso cui un agente infettivo può indurre una malattia autoimmune, una malattia cioè in cui il sistema immunitario aggredisce cellule e tessuti del nostro organismo."Dal punto di vista clinico, questo test è importante perché aiuta nel discriminare la pancreatite autoimmune dal cancro del pancreas – spiegano Claudio Lunardi e Luca Frulloni -. Bisogna infatti tenere presente che alcuni pazienti si sottopongono ad intervento chirurgico nel sospetto di cancro del pancreas e invece sono affetti da una pancreatite autoimmune che risponde molto bene alla terapia cortisonica".La pancreatite autoimmune è una malattia caratterizzata da una aggressione immunitaria della ghiandola pancreatica; le sue caratteristiche e i criteri diagnostici sono stati definiti solo negli ultimi anni. Il problema maggiore posto dalla pancreatite autoimmune è la diagnosi differenziale con il temibile cancro del pancreas.Identificare un nuovo marcatore che possa aiutare a distinguere la pancreatite autoimmune dal tumore del pancreas è un passo avanti fondamentale dal punto di vista clinico. Il lavoro condotto, quindi, verte essenzialmente sulla identificazione di un nuovo anticorpo presente nella maggior parte dei pazienti con pancreatite autoimmune. "Questo anticorpo è diretto contro una piccola porzione di una proteina dell'Helicobacter pylori che è simile ad una proteina umana presente nelle cellule del pancreas – spiegano Lunardi e Frulloni -. L'anticorpo diretto contro la proteina batterica riconosce anche la proteina umana, scatenando pertanto l'aggressione immunitaria nei confronti del pancreas. I risultati di questa ricerca sono di grande aiuto nella pratica clinica e sono confermati in un numero di pazienti molto ampio".

Uno studio sulla morte improvvisa e la sindrome da QT lungo.


---------------------------
Uno studio internazionale, finanziato anche da Telethon, individua una variante geneticache spiega il maggior rischio di certe persone di andare incontro a episodi cardiaci fatali.
Perché alcuni individui muoiono improvvisamente di un arresto cardiaco in maniera del tutto inaspettata, spesso in giovane età? Una possibile risposta arriva da uno studio finanziato da Telethon, oltre che dai National Institutes of Health (Nih) americani e dal ministero degli Esteri, e coordinato da Peter Schwartz, direttore della cattedra di Cardiologia dell'Università di Pavia, dell'Unità coronarica della Fondazione Irccs Policlinico San Matteo e del laboratorio di Genetica cardiovascolare dell'Istituto Auxologico Irccs di Milano. Come descritto sulle pagine di Circulation*, la principale rivista scientifica in campo cardiovascolare, è stato individuato un gene che potrebbe spiegare questo aumento del rischio.Da quasi 40 anni Schwartz studia una patologia cardiaca ereditaria nota come sindrome del QT lungo e caratterizzata da un elevato rischio di aritmie, irregolarità del ritmo cardiaco che possono provocare sincope e morte improvvisa, talvolta anche nei lattanti (sindrome della morte in culla). A dare il nome alla malattia è l'allungamento di uno specifico parametro dell'elettrocardiogramma chiamato appunto "intervallo QT".Attualmente si conoscono almeno 12 geni associati alla sindrome, tutti coinvolti nel trasporto di ioni attraverso le membrane delle cellule cardiache. In circa la metà dei casi clinici, i difetti sono a carico del gene KCNQ1 (che controlla il flusso di potassio attraverso le cellule cardiache) e le aritmie potenzialmente letali si manifestano principalmente quando questi pazienti sono sotto stress, fisico o emotivo: sono i ragazzi che muoiono giocando a pallone, nuotando, oppure a scuola per un'interrogazione, ma anche al suono della sveglia o del telefono.
Per ridurre il rischio di sincope o morte improvvisa, le persone affette vengono trattate con farmaci beta-bloccanti e, nei casi più gravi, con la rimozione di particolari nervi della porzione sinistra del cuore coinvolti nell'insorgenza delle aritmie, oppure con l'impianto di un defibrillatore automatico.Eppure quello che i ricercatori non riuscivano a spiegarsi era l'estrema variabilità che osservavano fra gli individui portatori dello stesso difetto genetico: perché in un 20-30% dei casi queste persone vivono senza alcun sintomo per tutta la vita, mente altri vanno incontro ad aritmie talvolta fatali? Dovevano esistere degli altri fattori in grado di contribuire, insieme ai geni già noti, a determinare il rischio. Per scoprirli Schwartz e il suo gruppo hanno studiato il Dna di 500 individui sudafricani, appartenenti a 25 famiglie discendenti da un unico progenitore olandese, giunto a Cape Town nel 1690 (come si legge dai registri battesimali dell'epoca) e affetto da sindrome del QT lungo. La particolarità della popolazione studiata - un'autentica miniera d'oro per i genetisti - sta nel fatto che ben 205 di questi soggetti presentano la stessa mutazione a carico del gene KCNQ1, identica a quella del loro antenato (che per uno strano scherzo del destino si chiamava Pieter Swart, la "versione olandese" di Peter Schwartz).Analizzando il patrimonio genetico di queste persone, i ricercatori hanno studiato due particolari varianti di un altro gene, chiamato NOS1AP, che nelle persone normali inducono un lieve e ininfluente allungamento dell'intervallo QT, ma che quando sono associate a difetti nel gene KCNQ1 fanno letteralmente raddoppiare il rischio di sincope e morte improvvisa. In altre parole, la presenza di queste varianti genetiche, assai comuni nella popolazione generale, potrebbe spiegare almeno in parte il diverso destino dei pazienti con la sindrome del QT lungo.È la prima volta che vengono individuati con precisione dei "geni modificatori", capaci cioè di spiegare le diversità nella manifestazione clinica di una medesima malattia (penetranza in gergo tecnico). Come spiega lo stesso Schwartz, "questa scoperta ci permetterà di "scovare" quei pazienti affetti da sindrome del QT lungo più a rischio e di trattarli tempestivamente con terapie di prevenzione più aggressive". Ma non è tutto: come spesso accade nella ricerca biomedica, lo studio di condizioni piuttosto rare può mettere in luce meccanismi di base che potrebbero avere ricadute anche su patologie più diffuse. "È ragionevole pensare", spiega ancora il ricercatore pavese, "che i geni modificatori messi in luce dal nostro studio siano gli stessi che facilitano la morte improvvisa in certi casi di malattie cardiovascolari molto diffuse come l'infarto del miocardio o lo scompenso cardiaco".La scoperta è frutto di un grosso lavoro di squadra: oltre al team di Schwartz a Pavia, di cui fa parte Lia Crotti prima autrice del lavoro, hanno collaborato i ricercatori sudafricani guidati da Paul Brink dell'Università di Stellenbosch e Al George della Vanderbilt University di Nashville (Usa).* Lia Crotti, Maria Cristina Monti, Roberto Insolia, Anna Peljto, Althea Goosen, Paul A. Brink, David A. Greenberg, Peter J. Schwartz, Alfred L. George, "NOS1AP Is a Genetic Modifier of the Long-QT Syndrome". Circulation, 2009; DOI: 10.1161/CIRCULATIONAHA.109.879643

giovedì 26 novembre 2009

CERN (LHC): Sulla questione dei mini buchi neri.

Un articolo di Fausto Intilla
---------------------------------
Nelle teorie di Grande Unificazione, il comportamento tra particelle e interazioni gravitazionali, è indubbiamente ancor oggi il più enigmatico e discusso “capitolo” delle storia della fisica delle alte energie ( e questo a causa della grande differenza nella scala delle forze, in cui ovviamente la Gravità “la fa da padrona”,in quanto a "lontananza" dalle altre forze). In genere si presume che in vicinanza della scala di Planck, la Gravità dovrebbe assumere dei valori simili alle altre forze; andando così a ristabilire un determinato ordine in grado di dar forma a una possibile teoria di Grande Unificazione.Le varie incognite, in relazione all’evoluzione e al tempo di vita dei mini buchi neri (o buchi neri di Planck) che con molta probabilità si formeranno durante gli esperimenti con il LHC, sono quindi dovute alla nostra attuale incapacità di conciliare la fisica delle particelle ad alte energie , con la Relatività Generale.Le uniche speranze di poter comprendere qualcosa in più rispetto alle nostre attuali conoscenze, possiamo attualmente riporle (a mio avviso), solo nella Teoria delle Stringhe; l’unica in grado di darci qualche indicazione di come potrebbe effettivamente comportarsi la Gravità su scale prossime a quella di Planck (anch’essa comunque con tutte le sue lacune, che in questa sede non sto a spiegare). Sembrerebbe infatti che le dimensioni extra (previste appunto dalla Teoria delle Stringhe), siano responsabili della “Gravità debole” (quella che tutti conosciamo,perchè appartiene alla nostra realtà fisica). Se quindi tali dimensioni extra sono in grado di possedere delle “qualità proprie”, ciò avrebbe delle ripercussioni sull’evoluzione delle masse di Planck (mini buchi neri)...nel senso che potrebbero tendere a ridursi ulteriormente, in quanto a volume. Il problema sta quindi nel non sapere assolutamente come potrebbe comportarsi un simile mini buco nero, di dimensioni ridotte.Recenti studi hanno dimostrato (a livello teorico) che il modello (termodinamico) di Bekenstein-Hawking-Page dei mini buchi neri (adattato al Modello Standard) si rompe vicino alla massa di Planck, per il fatto che predice singolarità prive di orizzonti e una curvatura infinita di cui non si conoscono neppure le conseguenze. Su scale prossime a quella di Planck, è assai probabile quindi che, sia la Relatività Generale che la Meccanica Quantistica, si “rompano”.In tali studi (basati sempre sul modello termodinamico), si è avanzata anche l’ipotesi che la Gravità possa accrescere (come forza) , solo quando le temperature dei mini buchi neri in fase di evaporazione, tendono ad infinito. Questa recente analisi quindi, in un certo qual senso regolarizza il processo di evaporazione (liberandolo dal problema degli infiniti fisici) e lo fa apparire come l’unica condizione possibile qualora vengano a crearsi dei mini buchi neri all'interno del LHC. Una simile evaporazione inoltre, possiede tradizionali proprietà termodinamiche (dopo un apparente cambiamento di fase) e probabilmente conserva le informazioni. Anche se tali analisi si discostano sostanzialmente dalla Teoria delle Stringhe,c’è di buono almeno che vanno a parare sempre nella medesima direzione (ed escludono totalmente l’accrescimento di Bondi); ossia quella in cui per qualsiasi nuovo stato della materia si dovesse scoprire al di sotto della massa di Planck, esso avrà sempre comunque lo stesso comportamento (quello ordinario delle particelle elementari, che in ultima analisi quindi, seguono il Principio di Indeterminazione di Heisenberg). I mini buchi neri che si creeranno all’interno del LHC, con estrema probabilità apparterranno quindi alle classiche dimensioni (3D + t) della nostra realtà fisica ...ed evaporeranno, con altrettanta estrema probabilità, in circa 10^-42 secondi.
------------------------
Per un approfondimento:
------------------------
------------------------
Ancora due parole sul Bosone di Higgs:
Una delle tante "fregature" in relazione alla possibilità o meno di poter scorgere le particelle scalari di Higgs, nelle collisioni con il LHC, sta nel fatto che queste ultime possano tranquillamente esulare dal Principio di esclusione di Pauli(*1). E questo è senza dubbio il motivo per cui tali bosoni (che seguono la statistica di Bose-Einstein(*2),avendo spin intero ...ebbene sì,anche se nullo,viene considerato ugualmente intero) possono condensare in una configurazione degenere dello stato fondamentale (in parole povere possono ..."condensarsi nel vuoto").La chiave per risolvere questo ed altri dilemmi legati al Modello Standard, potrebbe stare (come ho spiegato tempo fa in un video su Youtube: "Sul Bosone di Higgs"), nell'applicazione teorica del concetto di Supersimmetria.Se è vero che la scala a cui i partner supersimmetrici della materia ordinaria devono esistere, non può essere molto più alta della scala della rottura di simmetria dell' interazione debole, allora molto probabilmente con il LHC,teoricamente, oltre i 2 TeV(*3) di energia di collisione, dovremmo assistere ad eventi che possono finalmente o convalidare una volta per tutte il modello supersimmetrico,...o annullarlo per sempre.
Note:
*1.Basti semplicemente pensare ai fotoni (anch'essi per natura dei bosoni), in grado di occupare lo stesso stato quantico nel medesimo istante; esulando quindi dal Principio di esclusione di Pauli.
*2.Tutte le particelle con spin intero (ossia 0;1;2;3;...) seguono,in quanto a distribuzione, la statistica di Bose-Einstein; quelle invece con spin semintero (ossia 1/2; 3/2;...),seguono la statistica di Fermi-Dirac.
*3. Esperimenti sino a 2 TeV di energia di collisione, sono già stati effettuati al Tevatron; dove nel 1995 è stato scoperto il top quark.
---------------------
---------------------
Masse ed energie ultra-relativistiche chiamate in causa:
Nella fisica delle particelle elementari si usano le equazioni relativistiche dell'energia; solitamente comunque si tende a considerare più che le masse delle varie particelle (quando vengono accelerate a velocità prossime a quelle della luce, vale a dire a c),la loro "quantità" di energia cinetica.
Questo per il semplice motivo che, essendo tali particelle accelerate,"vincolate" dal Fattore di Lorentz, sono soggette ad un aumento di massa (relativistico) che accresce in modo esponenziale per valori di v tendenti sempre di più a c (per raggiungere la velcità della luce occorrerebbe, paradossalmente, un'energia infinita).
Nel caso di un protone accelerato, la sua massa dinamica sarebbe data dall'equazione:
massa dinamica = m / [radice di 1-(v/c)^2] ;dove m è la massa a riposo della particella (in questo caso un protone).
Si consideri che per portare un protone ad una velocità di v=0,99999726 c ,all'interno del LHC, occorre un'energia di circa 400 GeV.
Ora, se risolviamo l'equazione succitata con i rispettivi valori, otteniamo una massa dinamica 427 volte più grande di quella a riposo!
La massa a riposo di un protone, equivale a circa: 1,673 x 10^-27 Kg ;per cui la sua massa dinamica a tale velocità sarà di circa 714,37 x 10^-27 Kg. Con un tale incremento di massa, è ovvio quindi che occorrono degli elettromagneti assai potenti, per mantenere costantemente i protoni in traiettoria. Per esempio,ad un'energia di 400 GeV, l'intensità del campo magnetico B necessario,calcolato in base alle leggi del moto di Newton in una traiettoria circolare di raggio r=4'285m (...guarda caso proprio il raggio del LHC ),sarà di:
B=(mv/qr).427= [(1,673 . 10^-27 kg . 3 . 10^8 m/s)/(1,6 . 10^-19 C . 4'285m)] . 427 = 0,31 Tesla. (*1)
Considerando ora il tutto in termini di energia relativistica,avremo:
E (protone a riposo)=
m.c^2= 1,673 . 10^-27 kg . (3 . 10^8 m/s)^2
= 1,506 . 10^-10 J = 0,941 . 10^9 eV= 941 MeV.
La sua energia cinetica relativistica sarà quindi data da:
(massa dinamica - massa a riposo).c^2=
(427-1)mc^2= 426 . 1,673 . 10^-27 kg . (3 . 10^8 m/s)^2= circa 400 GeV
Per cui, se consideriamo delle collisioni tra due fasci di protoni di 400 GeV , avremo come risultato un'energia di collisione di 800 GeV! ...esattamente il doppio.
--------------
Note:
(*1) Una parentesi: con un'energia per fascio di 7'000 GeV (la massima consentita per il LHC),occorre un campo magnetico B di oltre 8 Tesla!
Il campo magnetico terrestre (geomagnetico),non è uniforme su tutta la superficie della Terra. La sua intensità varia dai 20'000 nT(equatore) ai 70'000 nT (poli). [nT sta per nanotesla,ossia: miliardesimi di Tesla].
Considerando quindi una media terrestre di intensità di campo di circa 45'000 nT,il calcolo di quante volte il campo generato dai magneti del LHC (a pieno regime,ossia portato alla sua massima potenza) sarà più intenso rispetto a quello terrestre, è presto fatto:
---
Campo magneti LHC a 7'000 GeV = circa 8,31 T
Campo terrestre medio = circa 0,000045 T
Risolvendo:
8,31 T / 0,000045 T = circa 184'666 volte ...più intenso di quello terrestre!

domenica 22 novembre 2009

The Corporation: Video Documentario in italiano sul potere delle multinazionali.





























Psoriasi e asma: scoperto un nuovo tipo di cellula immunitaria.

Fonte: Cordis
------------------
Alcuni ricercatori finanziati dall'Unione europea hanno scoperto un nuovo tipo di cellula immunitaria determinante in alcune patologie infiammatorie croniche come la psoriasi e l'asma. Il team auspica che questa scoperta possa favorire lo sviluppo di nuovi farmaci per la cura di queste malattie. Lo studio, pubblicato nella rivista online Journal of Clinical Investigation (JCI), è stato in parte finanziato dall'Unione europea attraverso il progetto SENS-IT-IV ("Novel testing strategies for in vitro assessment of allergens") che ha ricevuto 11 milioni di euro in riferimento all'area tematica "Scienze della vita, genomica e biotecnologie per la salute" del Sesto programma quadro (6° PQ). Gli scienziati, provenienti da Germania, Italia e Regno Unito, hanno individuato queste nuove cellule analizzando campioni di cute prelevati da pazienti affetti da psoriasi, eczema atopico e dermatiti allergiche da contatto. Denominata Th22, la cellula recentemente scoperta appartiene al tipo di cellule immunitarie definite cellule ausiliarie T. Le cellule ausiliarie di tipo T - insieme ai linfociti - attivano altre cellule immunitarie nel momento in cui l'organismo viene attaccato, per esempio, da un virus o da un batterio. Inoltre, le cellule ausiliarie T controllano il processo infiammatorio attivato nell'organismo per debellare l'infezione. Le cellule Th22 sembrano essere coinvolte nel controllo e nel coordinamento delle cellule immunitarie che attivano l'infiammazione. Le ricerche degli scienziati hanno rilevato che le cellule Th22 producono una molecola di segnalazione chiamata interleukina-22 (IL-22). Questa molecola invia ai tessuti un complesso segnale che indica l'imminenza del processo infiammatorio o dell'infezione, consentendo così ai tessuti di prepararsi all'agente patogeno o di proteggersi dall'infiammazione. Per questo motivo, nei soggetti sani le cellule Th22 hanno un'azione protettiva. Tuttavia, nei soggetti affetti da malattie croniche cutanee di origine infiammatoria queste cellule non lavorano correttamente, determinando una crescita troppo rapida delle cellule cutanee che porta la cute ad essere dolorante e a squamarsi. "Stiamo assistendo ad un aumento delle malattie croniche - come, per esempio, le dermatiti e le malattie che colpiscono le vie aeree - imputabile al cambiamento dello stile di vita delle persone", ha commentato il dottor Carsten Schmidt-Weber del National Heart and Lung Institute dell'Imperial College London (Regno Unito). "Queste malattie possono avere un impatto significativo sulla vita delle persone, e i pazienti spesso si ritrovano a condurre una battaglia continua per tenere sotto controllo i sintomi. Siamo entusiasti di aver scoperto questa nuova sottoclasse di cellule ausiliarie T, poiché riteniamo che possano fornire un nuovo obiettivo per il trattamento futuro delle malattie croniche di origine infiammatoria". I ricercatori stanno attualmente studiando in dettaglio le cellule Th22 allo scopo di chiarire qual è il loro ruolo nelle malattie infiammatorie. Il team desidera scoprire in quale punto dell'organismo avviene la produzione delle cellule e se esiste un modo per controllarle prima che inizino a causare problemi. L'obiettivo del progetto SENS-IT-IV è ridurre gli esperimenti sugli animali, mediante lo sviluppo di metodi alternativi in vitro per l'effettuazione di test sugli allergeni. Il progetto riunisce 15 università e istituti di ricerca, nonché 9 aziende, alcuni imprenditori e altre organizzazioni. Secondo i partner del progetto "l'esito positivo del progetto contribuirà alla riduzione del numero di animali necessari per effettuare i test di sicurezza e alla messa a punto di strumenti più precisi per lo sviluppo dei prodotti". Gli effetti positivi del progetto, dunque, interesseranno tutti i cittadini europei e potenzieranno la competitività delle aziende europee.
Per maggiori informazioni, visitare: Imperial College Londra:
http://www.imperial.ac.uk Journal of Clinical Investigation (JCI): http://www.jci.org Progetto SENS-IT-IV: http://www.sens-it-iv.eu
ARTICOLI CORRELATI: 28960, 30487
Categoria: Risultati dei progettiFonte: Imperial College London; Journal of Clinical InvestigationDocumenti di Riferimento: Eyerich, S. et al. (2009) Th22 cells represent a distinct human T cell subset involved in epidermal immunity and remodelling. JCI, pubblicato online il 16 novembre. DOI: 10.1172/JCI40202.Acronimi dei Programmi: MS-D C, MS-I C, MS-UK C, FP6-INTEGRATING, FP6-LIFESCIHEALTH, FRAMEWORK 6C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Scienze biologiche; Medicina, sanità; Ricerca scientifica
RCN: 31487

Sindrome di Down: si può sperare in future terapie farmacologiche.

Fonte: Le Scienze
-----------------------
Uno studio sperimentale sul modello animale della sindrome di Down suggerisce che in futuro potrebbe essere perseguibile la via farmacologica per alleviare il deficit mentale.
Uno studio sperimentale condotto su un modello animale della sindrome di Down suggerisce per la prima volta che vi sia la possibilità - in prospettiva - di alleviare per via farmacologica alcune manifestazioni del deficit mentale legato alla malattia. Nello studio ("Restoration of Norepinephrine-Modulated Contextual Memory in a Mouse Model of Down Syndrome"), condotto presso la Stanford University School of Medicine e il Lucile Packard Children's Hospital e pubblicato sulla rivista "Science Translational Medicine", i ricercatori sono infatti riusciti a mostrare che in un gruppo di topi geneticamente ingegnerizzati per riprodurre la sindrome di Down, il precoce potenziamento della via di segnalazione della noradrenalina ha migliorato le loro capacità cognitive. Alla nascita, hanno osservato i ricercatori, i bambini Down non sono in ritardo nello sviluppo cerebrale, ma questo con il tempo si accumula in correlazione a una difficoltà a far tesoro delle esperienze necessarie a un normale sviluppo cerebrale. "Se si interviene abbastanza presto si potrà essere in grado di aiutare i bambini con la sindrome di Down a raccogliere e modulare l'informazione. In linea teorica questo potrebbe portare a un miglioramento delle loro funzioni cognitive", ha detto Ahmad Salehi, primo autore dello studio e attualmente in forza presso il Veterans Affairs Palo Alto Health Care System. I ricercatori sono partiti dall'osservazione che nella sindrome di Down la cognizione non è colpita in tutti i suoi aspetti: chi ne soffre tipicamente ha difficoltà a gestire informazioni spaziali e contestuali di un ambiente complesso, che dipendono dell'ippocampo, ma ricorda molto meglio l'informazione legata a colori, suoni e altri stimoli sensoriali la cui memoria è coordinata da un'altra struttura cerebrale, l'amigdala. Salehi e colleghi hanno quindi osservato che quando formano le tracce mnemoniche contestuali e relazionali i neuroni dell'ippocampo ricevono noradrenalina dai neuroni di un'altra area cerebrale, il locus coeruleus. Quest'ultimo, però, nell'essere umano affetto da sindrome di Down come nel topo ingegnerizzato va incontro a una veloce degenerazione. Somministrando precocemente precursori della noradrenalina a un gruppo di esemplari del loro modello animale, i ricercatori sono riusciti a migliorarne le prestazioni, anche se gli effetti dei farmaci sono stati di breve durata.Altri studi avevano già preso in considerazione gli effetti di un altro neurotrasmettitore, l'acetilcolina, che anch'esso ha un ruolo di primo piano nell'ippocampo. Secondo Salehi questi risultati aprono la prospettiva allo studio di eventuali trattamenti che contemplino il potenziamento congiunto di questi neurotrasmettitori.Lo studio ha anche individuato un legame diretto fra la degenerazione del locus coeruleus e uno specifico gene, l'APP, di cui le persone affette da sindrome di Down possiedono una copia in più sul cromosoma 21 extra. APP è il gene che codifica la proteina precursore della proteina amiloide, coinvolto anche nella malattia di Alzheimer, anch'essa caratterizzata da problemi sia di formazione della memoria, sia di orientamento spaziale. (gg)

L'origine delle miniere di Nickel.

Fonte: Le Scienze
-------------------------
L'analisi è stata effettuata con la misurazione dell'abbondanza relativa di due isotopi dello zolfo, un elemento fondamentale perché si formino minerali di Nickel.
Alcune delle più importanti riserve di nichel presenti sulla Terra si formarono sott'acqua, depositandosi miliardi di anni fa, in un’epoca in cui i cicli chimici erano estremamente diversi da quelli attuali. Grazie all’analisi di particolari tipi di rocce risalenti a circa tre miliardi di anni fa, un gruppo di ricercatori della Carnegie Institution ha scoperto con sorpresa che la formazione di depositi di nichel è legata alla presenza di zolfo un un’antica atmosfera povera di ossigeno.Queste antiche miniere di solfuro di ferro e nichel, che rendono conto di circa il 10 per cento della produzione annuale del metallo, si formarono per la maggior parte tra due e tre miliardi di anni fa quando i magmi ad alta temperatura fuoriuscirono dal fondo oceanico, ma i dettagli finora sono rimasti scarsamente compresi. Per la propria formazione, infatti, questi minerali richiedono la presenza di zolfo, ma né le acque del mare né il magma erano sufficientemente ricchi di questo elemento. "Lo zolfo contenuto nei depositi di nichel deriva dal ciclo atmosferico delle epoche più antiche: la firma isotopica che abbiamo rilevato è quella di un’atmosfera priva di ossigeno”, ha commentato Doug Rumble, del Laboratorio dei geofisica della Carnegie e coautore dell’articolo apparso su “Science”.Secondo quanto si legge nel resoconto, le analisi dei campioni geologici reperiti in Australia e Canada hanno mostrato che lo zolfo giunse in tali depositi dopo un complicato percorso, in cui si sono succedute eruzioni vulcaniche in atmosfera, sorgenti calde e infine magmi fusi in grado di dar origine ai minerali.La prova cruciale deriva dalle misurazioni delle abbondanze relative dell’isotopo zolfo-33 che rispetto al più diffuso zolfo-32 possiede un neutrone in più. I due isotopi hanno le stesse proprietà chimiche; tuttavia le molecole di biossido di zolfo presenti nell’atmosfera vengono scisse in modo differente dalla radiazione ultravioletta, dando luogo a diversi frazionamenti degli isotopi nei prodotti di reazione, osservabili attualmente come anomalie isotopiche."Con un eccesso di ossigeno in atmosfera, i raggi UV non possono penetrare e queste reazioni non possono avere luogo”, ha aggiunto Rumble. "Così se si trovano queste anomalie isotopiche nelle rocce di una certa epoca, è possibile ottenere informazioni sul livello di ossigeno in atmosfera presente in quel periodo”.Collegando la formazione di minerali ricchi di nichel con la composizione dell’atmosfera primordiale, le anomalie consentono così di rispondere alle annose questioni riguardanti l’origine dello zolfo nelle rocce antiche. Ciò consentirebbe, inoltre, di individuare nuovi depositi di minerali, dal momento che la presenza di zolfo e di altri composti chimici rappresenta un fattore chiave per la loro formazione. (fc)

Microrganismi capaci di individuare con precisione gli ordigni.

Fonte: Galileo
---------------------
Un gruppo di studenti dell'Università di Edimburgo ha realizzato microrganismi capaci di individuare con precisione gli ordigni.
Batteri ingegnerizzati in grado di localizzare le mine antipersona. Li hanno messi a punto alcuni studenti dell'Università di Edimburgo grazie al BioBricking, una tecnica che permette l'assemblaggio delle molecole batteriche a partire dai singoli elementi che le compongono, in una sorta di "Lego biochimico". I microrganismi così creati, innocui per persone e animali, reagiscono quando entrano in contatto con gli elementi chimici sprigionati dagli esplosivi sepolti sotto il suolo: spruzzando sul terreno una soluzione di batteri e reagenti, si formerebbero delle macchie verdi a indicare le zone che nascondono gli ordigni.
Secondo l'organizzazione
Handicap International, ogni anno tra le 15.000 e le 20.000 persone muoiono o risultano ferite a causa di mine inesplose, ancora sotterrate in 87 paesi del mondo, tra cui Somalia, ex-Yugoslavia, Cambogia, Iraq ed Afghanistan. Le mine antipersona – di cui l'Italia è stata uno dei principali paesi produttori fino al 1994 – uccidono dieci volte più civili che soldati, e tre vittime su dieci sono bambini. Il principale freno all'eliminazione delle mine terrestri è di natura economica: il loro stesso uso sarebbe obsoleto se si scoprisse un metodo capace di rendere la rimozione meno costosa della costruzione e del posizionamento.
La soluzione proposta dagli studenti scozzesi renderebbe possibile bonificare aree estese con risultati visibili in poche ore. Inoltre, sebbene non ci siano ancora piani per commercializzare il prodotto, i ricercatori sostengono che la loro sia un'alternativa accessibile ed economica rispetto agli attuali sensori anti-mine. “Il nostro studio - spiegato Alistair Elfick, supervisore del progetto - mostra quanto le innovazioni scientifiche possano giovare alla società in senso ampio, e come grazie alle nuove tecnologie sia possibile manipolare le molecole destinandole a un uso specifico". (a.p.)
Riferimento:
University of Edinburgh

Completato il sequenziamento del codice genetico del mais.

Fonte: Galileo
-------------------
Science, Pnas e PloS Genetics pubblicano i risultati delle ricerche che hanno portato al sequenziamento del codice genetico del mais.
È il mais, dopo il riso e il sorgo, il terzo cereale il cui genoma è stato completamente sequenziato. Ci sono voluti trenta milioni di dollari e quattro anni di assiduo lavoro da parte di diversi gruppi di ricerca, uniti nel "Progetto genoma mais". Ai vari studi che hanno contribuito alla conclusione del progetto, Science, PloS Genetics e Pnas hanno dedicato le rispettive copertine. Il genoma ottenuto dai ricercatori conta 32.000 geni distribuiti su dieci cromosomi, per un totale di due miliardi di basi (le lettere del Dna). Quello umano ne ha quasi tre miliardi ma è formato da 20.000 geni su 23 cromsomi. Non è tanto però l'ampiezza o la complessità di questo codice genetico ad aver colpito i ricercatori, quanto il fatto che sia composto da due genomi separati fusi tra loro e che sia composto per l'85 per cento da trasposoni, elementi mobili di Dna ripetuti spesso più volte. Questi elementi potrebbero fornire indizi utili sulla variabilità genetica e sulla funzione dei vari geni presenti nel genoma.
Il Dna sequenziato appartiene a un tipo di mais chiamato mais B73 il quale è ampiamente usato negli studi di genetica e in agricoltura - sia per la produzione alimentare sia di biocombustibili - e dal quale provengono numerose varietà. E molte altre se ne potrebbero ottenere ancora: il lavoro di questi quattro anni potrebbe permettere infatti di sviluppare tipi di mais di resistenti a virus e agenti patogeni o a condizioni climatiche difficili come la mancanza d'acqua. (c.v.) Riferimenti:
Science DOI: 10.1126/science.1183463 PloS Genetics doi:10.1371/journal.pgen.1000711 doi:10.1371/journal.pgen.1000728 doi:10.1371/journal.pgen.1000715 Pnas doi:10.1073/pnas.0904742106 doi:10.1073/pnas.0908008106 doi:10.1073/pnas.0906498106

sabato 21 novembre 2009

IBM: entro 10 anni creeremo un cervello umano artificiale.

Fonte: Zeus News
-----------------------------
Gli scienziati dell'azienda hanno creato un sistema che emula la corteccia cerebrale di un gatto e promettono: entro 10 anni creeremo un cervello umano artificiale.
Ibm ha annunciato un passo avanti verso la creazione di un sistema che simula ed emula le capacità cerebrali legate a sensazione, percezione, azione, interazione e cognizione, eguagliando il basso consumo di energia e le compatte dimensioni del cervello.
I progressi compiuti nella simulazione corticale su grande scala hanno permesso di sviluppare un algoritmo che sintetizza i dati neurologici: in pratica Ibm sostiene che sia possibile costruire un chip per il calcolo cognitivo.
Il team di scienziati del centro di ricerca di Almaden (Usa) - in collaborazione con i colleghi del Lawrence Berkeley National Lab e con i ricercatori della Stanford University - ha costruito un simulatore corticale che incorpora una serie di innovazioni nel calcolo, nella memoria e nella comunicazione, nonché dettagli biologici derivati dalla neurofisiologia e dalla neuroanatomia: l'azienda sostiene che la simulazione supera la scala di una corteccia cerebrale di gatto (che equivale circa al 4,5% di un cervello umano).
Il supercomputer utilizzato - che, al contrario di quanto si possa pensare, non è il più potente al mondo ma solo il quarto per pura potenza di calcolo - è il Dawn Blue Gene/P del Lawrence Livermore National Lab, con 147.456 processori e 144 terabyte di memoria.
È stata l'unione di questo hardware e dell'algoritmo sviluppato dagli scienziati, a permettere di emulare il funzionamento della corteccia cerebrale di un gatto, ossia di 1 miliardo di neuroni e 10 trilioni di singole sinapsi di apprendimento.
Ibm e soci, completata con successo la "fase 0", hanno ricevuto 16,1 milioni di dollari di finanziamenti supplementari dalla Darpa per passare alla "fase 1" del progetto SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics), ossia il tentativo di un costruire un prototipo di chip e avvicinarsi, col tempo, all'intelligenza dei mammiferi e utilizzando allo stesso tempo una quantità significativamente minore di energia rispetto ai sistemi di calcolo attuali.
"L'obiettivo del programma SyNAPSE è creare nuovi componenti elettronici, hardware e architettura in grado di comprendere, adattarsi e rispondere a un ambiente informativo in modi che estendono il calcolo tradizionale, per comprendere le capacità fondamentalmente differenti presenti nei cervelli biologici", spiega il program manager della Darpa, Todd Hylton.
E già si guarda a un futuro - forse tra soli 10 anni - in cui sarà possibile creare un cervello umano artificiale.

Gli impianti di raffreddamento del Large Hadron Collider (VIDEO)

giovedì 19 novembre 2009

Influenza: l’Europa al lavoro sul vaccino del futuro.

Fonte: Euronews
-----------------------------
-----------------------------
Ogni anno l’influenza uccide centinaia di migliaia di persone. Ne contagia milioni e ci costa miliardi. Per contrastare il virus abbiamo i vaccini, ma sono realizzati con una tecnologia antiquata, che non consente una produzione su larga scala.
Per questo, a Vienna, si lavora al progetto di ricerca europeo “Fluvacc”. L’obiettivo è realizzare un nuovo vaccino, da assumere per via nasale. Philippe Neth è uno studente di medicina che lo ha già provato: “Potendo scegliere fra iniezioni intramuscolari e spray nasale – dice -, preferisco senza dubbio lo spray. Non fa male ed è anche più rapido”.
Gli spray nasali rendono la vaccinazione più semplice, soprattutto per chi è più vulnerabile e ha paura delle iniezioni: i bambini.
“Il nostro obiettivo – spiega dall’Università di Vienna la pediatra e immunologa Elisabeth Foerster-Waldl – è quello di far aumentare il numero delle persone vaccinate, soprattutto fra coloro che soffrono di malattie croniche. Diamo quindi il benvenuto a qualsiasi soluzione che faciliti questo compito e venga accettata con favore dai pazienti”.
Lo spray nasale è una soluzione più semplice e pratica, anche perché consentirebbe di vaccinarsi da soli e direttamente a casa propria.
“Il paziente potrà vaccinarsi da solo, senza neanche andare dal medico – conferma Volker Wachek, farmacologo molecolare all’Università di Vienna -. In base ai risultati delle analisi effettuate sul sangue, sembra inoltre che si tratti di un vaccino più efficace. Se parliamo quindi di misure da adottare contro un’epidemia, lo spray nasale dovrebbe offrire una protezione maggiore rispetto alle tradizionali iniezioni intramuscolari”.
La particolare efficacia di questo vaccino dipenderebbe proprio dal fatto che si tratta di uno spray nasale. In quanto tale, agisce infatti esattamente dove si sviluppa l’infezione.
Grazie ai nuovi modelli produttivi sviluppati nei laboratori di Vienna, il progetto Fluvacc promette però di risolvere anche un altro genere di problemi.
“Abbiamo prodotto il nostro vaccino grazie alla cosiddetta ‘genetica inversa’ – spiega il coordinatore Thomas Muster -. Questo significa che possiamo accelerare tutti i processi. In appena tre o quattro giorni siamo in grado di riprodurre ogni ceppo influenzale. Che si tratti di influenza stagionale o epidemica. E partire così con la produzione del vaccino”.
I ricercatori hanno prima identificato il gene, la proteina che rende il virus pericoloso e invisibile al corpo umano. Poi lo hanno cancellato.
“Prima rimuoviamo la proteina che rende il virus invisibile al corpo umano – racconta il virologo Andrej Igorov -. Quando poi iniettiamo il vaccino per via nasale, le cellule riconoscono l’arrivo del virus. Il corpo reagisce quindi immediatamente e ne impedisce la diffusione”.
I vaccini tradizionali vengono prodotti iniettando i virus nelle uova di gallina. Nel caso di un’epidemia, questo sistema non consente però una produzione su vasta scala. Una limitazione a cui i ricercatori hanno cercato di porre rimedio, ricorrendo in alternativa alle colture cellulari.
“Rispetto al metodo tradizionale costituiscono un vantaggio considerevole – conferma ancora Muster -, perché ci sono persone allergiche alle uova, che rischiano lo shock anafilattico. Un pericolo, che con questo nuovo vaccino, invece non esiste”.
Nel progetto è coinvolta anche Lubiana, la capitale della Slovenia. Qui i ricercatori hanno sviluppato una nuova tecnologia per “purificare” il vaccino. L’ultimo passo, prima che possa essere utilizzato e somministrato.
Nel laboratorio “Bia” arriva il vaccino prodotto con le colture cellulari. Un farmaco, quindi non ancora in circolazione. “La particella virale, che è alla base del vaccino – spiega il direttore Ales Strancar -, viene preparata in una specie di ‘brodo’, dove troviamo fra dieci e ventimila sostanze differenti. Fra queste, soltanto una può servire al vaccino. Dobbiamo quindi isolarla in modo che resti più pura possibile, perché altre componenti potrebbero non essere buone o addirittura velenose”.
Visto al microscopio, il brodo appare come una massa scura. All’interno, dei puntini bianchi che sono il vaccino. Accanto, altri più grandi sono invece impurità che ora possono essere rimosse, con una reazione chimica, ottenuta grazie a un nuovo “filtro intelligente”.
“Per il paziente – prosegue Strancar – questo significa avere farmaci più sicuri, più economici, e in alcuni casi ottenerli anche in tempi più brevi”.
La speranza degli scienziati è che grazie a questi sviluppi, aumenti il numero delle persone che vorranno sottoporsi al vaccino. Secondo Franc Strle, uno dei più grandi esperti sloveni in materia, c‘è un solo modo per arginare l’influenza e fermare le epidemie: proprio i vaccini. “Stranamente – dice – continuiamo a sottovalutare il fatto che centinaia di migliaia di persone muoiono ogni anno d’influenza. Ci siamo abituati. E non facciamo niente di particolare per evitarlo”.
Anche se i suoi effetti collaterali sono molto più ridotti di quanto si pensi, in Slovenia si è sottoposto al vaccino appena il 10% della popolazione. “Nessuno – commenta Strle – si chiede se gli air-bag siano importanti, eppure nelle auto ci sono. Di recente ho letto una statistica, secondo cui su 800 persone che salvano, ne uccidono anche 20. Ma nessuno mette in discussione il fatto che servano. Li consideriamo necessari. Ebbene: in proporzione, il vaccino contro l’influenza è molto più sicuro”.
Nei laboratori di Vienna, i ricercatori sostengono che il nuovo vaccino sarà più efficace, perché potrà difenderci sia dal virus, che dalle sue possibili mutazioni. “I risultati dei primi test clinici – dice ancora Thomas Muster -, ci hanno confermato che il nostro vaccino sarà in grado di offrire una protezione maggiore contro l’influenza. Sempre secondo gli stessi test, i suoi effetti collaterali saranno inoltre particolarmente ridotti”.
L’influenza non sarà mai del tutto debellata. Possiamo però combatterla meglio e prepararci ad affrontare nuove epidemie. Questo è l’obiettivo che si propongono gli scienziati, ora impegnati in una corsa contro il tempo, per reinventare la lotta all’influenza.

Riparte il super acceleratore LHC: Lucio Rossi (CERN), "Ecco dove abbiamo sbagliato".

Fonte: Il Sussidiario

Il SuperAcceleratore è di ritorno: quattrocentotrenta giorni di lavoro duro è la distanza che ci separa da quel mattino del 19 settembre 2008 in cui bruciò una connessione tra magneti superconduttori e bruciò anche le speranze di un rapido – e quasi facile – avvio di una fase in cui avremmo osservato “cose mai viste”. Tutto concorreva a convincerci di avercela fatta. I successi tecnici durante la costruzione, i ritardi modesti (circa otto mesi, un’inezia per la complessità della macchina), la partenza folgorante del 10 settembre e anche il can-can mediatico con televisioni che corrono da tutto il mondo, Google che ci dedica il logo e anche la follia del mega-buco-nero! E invece…
Una connessione elettrica tra magneti superconduttori, il gioiello tecnologico prodotto di venti anni di ricerca e spina dorsale della macchina, che va in circuito aperto. Una connessione dicevamo, una parte non particolarmente difficile, anche se deve far passare 13mila ampère (quanto basta per alimentare bene una cittadina) dissipando meno di una lampadina da notte si fuse generando un arco. Lo capimmo dopo, era – banalmente – malfatta e il difetto non era stato rivelato dai tre livelli di sistemi di controllo. Il guasto di per sé avrebbe danneggiato in modo grave solo i due magneti della connessione e ci avrebbe bloccato per almeno 4 mesi. Grave, si, ma non gravissimo: invece una serie di eventi imprevisti ha generato una salita vertiginosa di pressione dell’elio superfluido, il prezioso liquido che tiene i 27 km di magneti a -271 °C (ovvero molto più freddi dello spazio siderale). La pressione (circa cinque volte più elevata del previsto) ha spostato i magneti da 30 tonnellate l’uno in un effetto domino che ha coinvolto circa 700 m dell’acceleratore.

Ai primi ingegneri scesi nel tunnel dopo due giorni la linea dei magneti sembrava disastrata. Che cosa fare? L’incredulità era sui nostri volti. Per molti sembrava uno scacco senza rimedio. Non solo è stato difficile capire tutto l’accaduto (una “task force” di trenta fisici e ingegneri ci ha lavorato per quattro mesi), non solo era difficile a progetto completato prendere delle contromisure adeguate per prevenire simili incidenti, ma soprattutto angustiava la sensazione di essere schiacciato dallo sbaglio, dall’errore. Abituati a essere sempre ai primi posti della corsa tecnologica, a “vincere” sempre, si diventa un po’ presuntuosi, quasi arroganti. E la cosa che costa di più è ammettere, semplicemente, di essersi sbagliati. Sì, anche nelle nostre equazioni o macchinari più complessi progettati con sofisticati FEM e CAD (Finite Element Models e Computer Aided Design) c’è posto per l’errore. Ecco, per trovare l’energia per rinascere occorre partire da questa salutare ammissione: l’errore è possibile, anzi probabile in un sistema cosi complesso. Solo mettendolo in conto si può limitare il suo effetto. Insomma abbiamo re-imparato la lezione del Titanic. Con un vantaggio: colpiti ma non affondati, come nella vecchia battaglia navale, abbiamo potuto ripartire umilmente dal riconoscimento degli errori e, con un lavoro di squadra notevole, abbiamo intrapreso la lunga marcia della risalita, lavorando lungo tre direttrici principali:
- L’inventario dei danni: oltre 700 m ovvero 53 magneti da riportare alla superficie (dai 100 m sottoterra su cui si snodano i 27 km del tunnel); 39 da cambiare completamente, supporti criogenici da rifare, 5 km di tubo a alto vuoto da cambiare o ripulire a fondo nel tunnel; il rifacimento stesso del suolo del tunnel danneggiato.
- La rimozione delle parti danneggiate con un meticoloso lavoro per assicurare la sicurezza del personale, la preparazione dei magneti di riserva (che per fortuna e anche per sana previdenza erano sufficienti, nonostante l’incidente fosse stato del 500% più devastante dell’incidente ragionevolmente prevedibile), i test a freddo in superficie e la re-installazione dei magneti nel tunnel.
- La comprensione più esaustiva possibile delle cause e della dinamica dell’incidente e la messa in opera di tutte le misure per impedire questo e altri incidenti simili. Abbiamo installato un nuovo sistema di diagnostica circa tremila volte più sensibile e utilizziamo molto meglio il sistema che era già installato. Ora utilizziamo misure di precisione nell’elio superfluido, con una sensibilità di 0,01 °C su 100 metri di lunghezza. Non solo, ammaestrati dall’esperienza, abbiamo messo in opera anche misure per mitigare le conseguenze di nuovi possibili incidenti, come l’installazione di valvole di sicurezza e nuovi ancoraggi lungo i 27 km dell’anello: come dire che l’errore è sempre possibile, va messo in conto.

È proprio su questo vorrei porre l’accento: se l’errore, quindi il nostro limite, viene messo in conto come parte ineliminabile del nostro agire, allora le nostre energie sono libere per la costruzione, e questo rende meno sospettosi gli uni verso gli altri nella corsa a “smarcarsi” dalla colpa; tutto ciò permette quindi una dinamica di comune intento che veramente moltiplica le forze. E ciò ha permesso di non solo di risalire rapidamente la china (quando le previsioni di molti scettici raccontavano di due anni e più di stop) ma anche di far fronte alle conseguenze a lungo termine delle cause dell’incidente. La connessione fatta male è stata la spia di un design sbagliato che potrebbe funzionare solo se eseguito con una precisione impensabile su una serie di diecimila e con inevitabili pressioni logistiche e di tempo. Ora sappiamo che dobbiamo intervenire su molte altre connessioni in tutto l’anello prima che l’energia possa essere spinta al massimo.
Dopo l’avvio a fine novembre, a gennaio dovremmo essere al 50% dell’energia massima e poi potremo arrivare al 70%, che è comunque già cinque volte di più del record esistente, come a dire saremo subito in “terra incognita”. Ci metteremo un paio d’anni per arrivare al massimo dell’energia di collisione e, quando ci saremo, ci saranno certo altri problemi che ci terranno occupati: migliorare ancor più le prestazioni, aumentare la luminosità, cioè la potenza con cui si illuminano le zone oscure che andiamo a esplorare, e altro ancora..
Sono andato al Cern dall’Università di Milano nel 2001, proprio per condurre la progettazione e la costruzione dei magneti superconduttori: sette anni di lavoro duro ma un’avventura esaltante e umanamente appagante. Tuttavia, anche dirigere i lavori di riparazione e soprattutto motivare e tenere unito il team che ha condotto queste riparazioni è stata una vera esperienza. Quando ormai i team erano stati dimessi o ristrutturati, la loro ricostituzione su tempi brevissimi è stata altrettanto difficile del lavoro tecnico. Si tocca con mano che le motivazioni di corto respiro non tengono e l’entusiasmo artificiale della forza della volontà non regge. Solo la convinzione che niente è perduto, veramente, perché tutto ha un senso e uno scopo può trasformare una disavventura in una vera avventura, che senza bisogno di dimenticare una virgola della rabbia, della delusione, della fatica, ci sta facendo vivere l’entusiasmo della rinascita.

mercoledì 18 novembre 2009

Ricerca mostra la base genetica delle infezioni micotiche.

Fonte: Cordis
-----------------------
Due studi di ricerca indipendenti - pubblicati insieme nel New England Journal of Medicine - hanno impiegato il sequenziamento del DNA e le tecniche di mappatura genetica per individuare due proteine che, quando sono assenti, compromettono la capacità dell'organismo di combattere l'infezione da Candida. I risultati della ricerca - in parte finanziata dall'UE - potrebbero aumentare le nostre conoscenze sulla base genetica delle infezioni micotiche e portare a nuovi trattamenti, non soltanto per la Candida, ma anche per altri tipi di micosi. Il progetto MC-PIAID ("Marie-Curie grant on primary immuno-deficiencies and auto-immune diseases") è stato finanziato dall'UE con 1,6 milioni di euro attraverso la linea di bilancio per le risorse umane e la mobilità del Sesto programma quadro (6° PQ). Le infezioni micotiche come il mughetto (Candida albicans) e il piede d'atleta (tinea pedis) sono molto comuni e colpiscono migliaia di persone ogni anno. Molti di noi contraggono le micosi occasionalmente, anche se alcuni soggetti sembrano essere particolarmente suscettibili. Esistono molti trattamenti con effetti molti variabili, ma le infezioni micotiche sono note per la loro persistenza, e alcune persone ne sono colpite ripetutamente. Ora sembra che due team di ricerca internazionali indipendenti abbiano scoperto la ragione. I due team - uno guidato dall'Università Radboud nei Paesi Bassi e l'altro dall'University College London, nel Regno Unito - hanno scoperto che le mutazioni in due proteine in particolare - Dectin-1 e CARD9 - indeboliscono la capacità del sistema immunitario di controllare i funghi nell'organismo. Quando la proteina Dectin-1 riconosce la presenza della Candida nell'organismo, le cellule immunitarie inviano un segnale alla CARD9, che si comporta da molecola adattatrice. CARD9 attiva quindi i meccanismi di risposta immunitaria per proteggere il corpo dai microorganismi. Nel caso in cui la Dectin-1 o la CARD9 sono assenti o mutate, il sistema immunitario non sarà in grado di tenere l'infezione sotto controllo, e questo si tradurrà in un'aumentata incidenza di infezioni da Candida - in particolare le micosi vaginali causate dalla C. albicans. "Queste scoperte sono un primo passo verso la comprensione della suscettibilità genetica alle malattie micotiche comuni e disabilitanti, come ad esempio l'onicomicosi e le candidiasi vulvovaginali ricorrenti", ha detto il dottor Bart Ferwerda dell'Università Radboud, che è stato il primo ad individuare le mutazioni della Dectin-1 in una famiglia che soffriva di infezioni fungine mucocutanee. Il dottor Erik-Oliver Glocker del team di ricerca del University College London - che ha scoperto il legame tra la CARD9 e la Candida - ha detto che i risultati della ricerca potrebbero contribuire fortemente allo sviluppo dei trattamenti. "Questa scoperta permette ulteriori approfondimenti sull'interazione tra i funghi e il sistema immunitario umano, e potrebbe spianare la strada alle future possibilità terapeutiche nei pazienti affetti da infezioni da Candida", ha detto. In precedenza erano stati condotti esperimenti per determinare la risposta dei topi alle infezioni micotiche, producendo risultati analoghi; i risultati dello studio in questione mostrano che la capacità di protezione contro le infezioni micotiche è uguale negli esseri umani. Il professor Mihai Netea - il cui team presso l'Università Radboud ha scoperto il rapporto tra le infezioni micotiche e la Dectin-1 - ha detto: "Anche se il processo della risposta immunitaria dell'ospite alle infezioni era stato già studiato nei topi, è molto interessante vedere che accade la stessa cosa anche nell'uomo. I nuovi risultati mostrano che i meccanismi di protezione contro le infezioni micotiche si sono conservati durante l'evoluzione tra i topi e gli esseri umani, cosa non necessariamente valida per altri microbi". Dei consorzi di ricerca hanno fatto parte il National Center for Biotechnology Information (NCBI) negli Stati Uniti e il Politecnico di Monaco, in Germania.
Per maggiori informazioni, visitare: New England Journal of Medicine:
http://content.nejm.org/ Università Radboud di Nijmegen: http://www.ru.nl/english/ University College London: http://www.ucl.ac.uk/
ARTICOLI CORRELATI: 30197
Categoria: Risultati dei progettiFonte: New England Journal of Medicine (NEJM)Documenti di Riferimento: Ferwerda, B., et al. (2009) Human Dectin-1 deficiency and mucocutaneous fungal infections. New England Journal of Medicine. 361 (18): 1760. DOI 10.1056/NEJMoa0901053.Acronimi dei Programmi: MS-D C, MS-NL C, MS-UK C, FP6-MOBILITY, FP6-STRUCTURING, FRAMEWORK 6C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Scienze biologiche; Medicina, sanità; Ricerca scientifica
RCN: 31478

Verso la creazione di una piattaforma che consentirà di combattere in tempo reale le frodi telematiche.

Fonte: Cordis
------------------------
Alcuni ricercatori finanziati dall'Unione europea stanno lavorando alla creazione di una piattaforma dedicata allo sviluppo di servizi che, una volta terminata, consentirà di combattere in tempo reale le frodi che coinvolgono le carte di credito, la clonazione delle schede SIM dei telefoni cellulari e le chiamate telefoniche effettuate gratuitamente in modo fraudolento. A permettere a questa vera e propria rivoluzione di prendere forma, sarà un avanzamento tecnologico che incrementerà l'attuale velocità dell'elaborazione dei dati. La piattaforma rientra nel progetto STREAM ("Scalable autonomic streaming middleware for real-time processing of massive data flows") che è stato in parte finanziato dall'UE, con una somma pari a 2,6 milioni di euro, in riferimento alla tematica "Tecnologia dell'informazione e della comunicazione" del Settimo programma quadro (7° PQ). Obiettivo del progetto è la creazione di una tecnologia scalabile, in grado di elaborare in tempo reale ingenti flussi di dati. Le banche, le società di pagamento e le altre aziende che gestiscono i pagamenti con carte di credito dispongono di un'ampia gamma di sistemi e misure di sicurezza per prevenire l'utilizzo fraudolento delle carte di credito. Tali sistemi spaziano dal riconoscimento elettronico della firma a misure quali il blocco della carta di credito nel momento in cui ne viene notificato il furto. È frequente, tuttavia, che tra la notifica di furti e l'effettivo annullamento della carta trascorra del tempo. Questo ritardo è dovuto ai tempi tecnici delle applicazioni informatiche, che richiedono capacità di analisi ed elaborazione complesse. Spesso, coloro che utilizzano carte di credito rubate sono a conoscenze di questo lasso di tempo e cercano, pertanto, di usare le carte per effettuare acquisti nelle ore immediatamente successive al furto. La piattaforma sviluppata da STREAM sarà in grado di eliminare questo ritardo mediante l'implementazione di un sistema scalabile che ricorre ampiamente ai node cluster, o ai cosiddetti stand-alone server per l'elaborazione di ingenti throughput di dati di dimensioni nell'ordine di milioni di dati al secondo. Questo sensibile aumento rispetto alle attuali velocità di elaborazione consentirebbe l'elaborazione in tempo reale di flussi di informazione e permetterebbe operazioni autonome e che non richiedono supervisione. Questo cambiamento - dicono gli organizzatori del progetto - permetterà un impiego più ampio dei prodotti e dei servizi per l'elaborazione dei dati in campi nuovi, che hanno la necessità di gestire grandi flussi di informazione in modo economico. Esattamente come per i fornitori di carte di credito, anche le società di telecomunicazione devono bloccare il numero di telefono se l'apparecchio viene rubato. La clonazione delle schede SIM costituisce una questione di grande rilievo per i servizi di sicurezza e le forze di polizia poiché l'utilizzo di una stessa SIM da parte di più ricevitori rende inaffidabili i servizi LBS (location-based services, ovvero servizi che sfruttano la conoscenza della posizione geografica). Al momento, l'utilizzo di schede clonate e di telefoni rubati viene rilevato solo dopo l'avvenuto furto e il blocco è soggetto allo stesso ritardo che interessa le carte di credito. La piattaforma STREAM è associata alle iniziative intraprese nell'ambito del cloud computing, che prevede solitamente la fornitura di risorse scalabili e spesso virtualizzate via internet. STREAM è stato progettato per essere impiegato in un ambiente di cloud computing, caratterizzato da elasticità e scalabilità. Questa tecnologia può aumentare o ridurre in modo automatico il numero di nodi di rete, a seconda delle singole esigenze informatiche del momento. Questo tipo di organizzazione consente di tagliare i costi e di eliminare i punti più deboli. Tra gli altri ambiti di applicazione della piattaforma STREAM ci sono il traffico IP delle aziende, gli output delle sensor network di grandi dimensioni, i messaggi e-mail forniti da Internet provider e i market feed delle borse e dei mercati finanziari. Ricardo Jiménez Peris dell'Istituto di informatica del Politecnico di Madrid è il responsabile dello sviluppo del processore scalabile dei flussi di dati, ovvero di quella che è la peculiarità di STREAM. A questo scopo, la piattaforma mette in parallelo i query operator e mette a disposizione di ogni singolo fornitore un node cluster 100. Questo permette di centuplicare il throughput dei dati processabili. La capacità di elaborazione degli attuali nodi di rete singoli è inferiore di due ordini magnitudo rispetto a quella che sarà la capacità di STREAM. Gli altri partner della ricerca - oltre al Politecnico di Madrid - sono Telefónica, società di telecomunicazione spagnola, e Exodus, consociata della Piraeus Bank in Grecia. La prima società utilizzerà STREAM in un sistema antifrode per la telefonia mobile, mentre l'altro sfrutterà i risultati raggiunti dal progetto nel suo sistema antifrode per le carte di credito.
Per maggiori informazioni, visitare:
http://www.streamproject.eu/
ARTICOLI CORRELATI: 30493
Categoria: Risultati dei progettiFonte: Politecnico di MadridDocumenti di Riferimento: Sulla base di informazioni fornite dal Politecnico di MadridAcronimi dei Programmi: MS-E C, FP7, FP7-COOPERATION, FP7-ICT, FUTURE RESEARCH-->Codici di Classificazione per Materia: Automazione; Coordinamento, cooperazione; Aspetti economici; Applicazioni della tecnologia dell'informazione e della comunica; Tecnologie di rete
RCN: 31477