lunedì 31 agosto 2009

Fausto Intilla: Dalla Teoria dell'Informazione al concetto di Anima.

 
“Il modo in cui lo spirito è unito al corpo
non può essere compreso dall'uomo,
e tuttavia in questa unione consiste l'uomo”.

Sant'Agostino
_________________________________________
Uno dei concetti più fondamentali, nel mondo della fisica, scaturì dalla mente di Albert Einstein agli inizi del secolo scorso; tale concetto, che emerse dalla legge della Relatività Ristretta (esposta in un celebre articolo del 1905), dichiarava semplicemente quella che sarebbe presto divenuta la dicotomia più famosa al mondo, ovvero: l’equivalenza di massa ed energia (espressa con l’indimenticabile formula “E=mc^2” ). Ciò che si arrivò a comprendere quindi, indubbiamente non con poche difficoltà a livello di “pura intuizione”, fu appunto questa sostanziale uguaglianza tra il concetto di massa e quello di energia. La massa, andava quindi considerata solo ed esclusivamente come una forma complessa di energia. Di certo non fu facile per i fisici di un tempo, familiarizzarsi subito con questa nuova e straordinaria visione della realtà; di fatto occorsero parecchi anni, affinché gradualmente nel mondo accademico venisse pienamente accettata questa nuova “corrente di pensiero”. Una svolta decisiva a favore di questo nuovo paradigma, la diedero indubbiamente i due scienziati tedeschi Otto Hahn e Fritz Strassmann, quando nel dicembre del 1938, scoprirono la fissione nucleare. Bombardando l’Uranio con neutroni, scoprirono fra i prodotti di reazione alcuni elementi di numero di massa intermedio, come il Bario radioattivo, la cui presenza inizialmente era inspiegabile. Nel 1939, Lise Meitner e Otto Frisch, annunciarono la soluzione di questo enigma. Queste scoperte diedero quindi ad Einstein la conferma dell’equivalenza di massa ed energia, ben 34 anni dopo che egli l’ebbe prevista!

Sono trascorsi circa settant’anni, a partire da quel lontano 1939, e da allora sino ad oggi si può dire che la nostra visione della realtà, poggi ancora saldamente le sue basi sulla famosa equazione di Einstein (“E=mc^2”) e su ciò che sostanzialmente essa ci porta a considerare, ovvero: massa ed energia sono la stessa e identica cosa, ma con aspetti diversi e quindi, per ragioni di praticità, definite con nomi diversi. In questi ultimi anni, grazie anche alle innumerevoli nuove scoperte nel campo della computazione quantistica, molti fisici hanno però iniziato a porsi anche la seguente domanda: Ma se la massa non è nient’altro che una forma complessa di energia, volendo andare oltre, in ultima analisi, quale sarebbe il “costituente fondamentale” dell’energia? Ebbene una risposta a questa domanda, potrebbe essere la seguente:
L’Energia non è nient’altro che una forma complessa di Informazione; per cui il costituente fondamentale dell’Energia, altro non è che Informazione nel suo stato fondamentale.
Ma cerchiamo di capire i motivi che mi hanno spinto a formulare questa affermazione, e soprattutto di individuare le basi su cui poggia tale ipotesi.
Verso gli inizi degli anni cinquanta, l’ingegnere e matematico americano Claude Elwood Shannon, gettò le basi teoriche di quella che sarebbe stata entro pochi anni riconosciuta come la: Teoria dell’Informazione. Uno degli aspetti più curiosi ed interessanti che emerse da tale teoria, fu la stretta correlazione tra l’entropia termodinamica e quella invece relativa all’Informazione di un sistema dato. In parole povere, ciò che in ultima analisi si arrivò a comprendere, è che per qualsiasi aumento di entropia termodinamica, corrisponde una perdita di Informazione su un dato sistema, e viceversa.
L’unità di misura di una determinata quantità di Informazione, è espressa con il termine bit. Ora, per fare un esempio, se noi portiamo un dato sistema ad una temperatura prossima allo zero assoluto, la sua entropia diminuirà sino a valori pressoché nulli, e di conseguenza il suo “livello” di Informazione tenderà al massimo consentito.
A questo punto, compiendo alcuni semplici ragionamenti analogici, viene da porsi le seguenti domande: Ma se con l’aumentare dell’entropia di un sistema, è riscontrabile contemporaneamente anche una perdita della quantità di energia (calore) di tale sistema, ed oltre a ciò abbiamo parallelamente anche una perdita di Informazione sempre riferita al sistema in questione, quest’ultima, non potrebbe essere associata-legata alla quantità di energia (calore) che si disperde nell’ambiente circostante a causa del secondo principio della termodinamica? E se così fosse, in che modo sarebbe ad essa legata? Qual’è la sottile linea di confine tra un bit di Informazione e un elettronvolt di energia? Ma stiamo parlando di due cose differenti (bit ed elettronvolt), oppure della stessa identica cosa, ma con aspetti differenti (come nel caso dell’equivalenza di massa ed energia)? E se alla fine scoprissimo che bit ed elettronvolt rappresentano semplicemente due tipi di unità di misura, con cui possiamo definire il concetto fondamentale di Energia? Bè, allora sarebbe lecito chiedersi: Ma quante migliaia, milioni oppure miliardi di bit occorrono per costituire un singolo elettronvolt (o Joule) di energia?


Non dimentichiamoci del fatto che nell'Equazione di Schrödinger la funzione d'onda descrive un'ampiezza di probabilità, e nessuno ci impedisce di sostituire/ridefinire tale ampiezza (P) con una determinata quantità di Informazione (I)! (*1)

Si consideri un corpo qualsiasi dotato di una certa massa; se noi aumentiamo la temperatura (T) di tale corpo, avremmo un flusso di energia (E) che dal corpo in questione si sposta nell’ambiente ad esso circostante. Il corpo quindi giustamente perderà una determinata quantità di Informazione (I) e ci apparirà come un sistema dotato di una notevole entropia; l’informazione che il corpo perderà però, si sposterà semplicemente nell’ambiente ad esso circostante, aumentandone l’Informazione. A partire dunque da questa premessa, l'unico fatto importante che emerge, è che noi non potremo mai misurare-osservare quella parte di "Informazione in eccesso", rispetto al sistema di riferimento: oggetto-ambiente ad esso circostante; per il fatto che essa rimarrebbe sempre fuori da qualsiasi corpo o sistema entropico termodinamico di riferimento (nel quale noi saremmo ovviamente costretti a compiere la misurazione).
Non è da escludersi quindi che tale "informazione in eccesso", possa andare a confluire in una o più dimensioni nascoste, previste nella Teoria delle Stringhe. Contrariamente invece, nel caso in cui diminuissimo la temperatura (T) di tale corpo, andremmo a rallentare il flusso di energia (E) che dal corpo si sposta nell’ambiente ad esso circostante.A temperature prossime allo zero assoluto, il flusso di energia sarebbe pressoché nullo; in questo caso l’Informazione(I) non avrebbe alcun modo di passare dal corpo in questione all’ambiente ad esso circostante. Il corpo quindi disporrebbe della quantità massima consentita di Informazione.
 

Riflettiamo un attimino su questa domanda: Nel momento in cui un sistema perde una determinata quantità di Informazione, questo cosa comporterebbe, forse che tale informazione, essendo legata all’energia (calore) durante il processo entropico, debba anch’essa disperdersi nell’ambiente circostante sino a “dissolversi” completamente?
Se così fosse avremmo a che fare con due “campi di informazione dinamica” della stessa intensità, in grado di interagire tra loro, di fondersi l’uno con l’altro, e infine di “dissolversi” nell’ambiente circostante al sistema considerato. Ma così non è, fortunatamente. [per campo d'informazione dinamica, intendo semplicemnte una quantità di informazione in grado di muoversi nello spazio e nelle dimensioni,auto-organizzantesi e costante nel tempo,ossia che non segue assolutamente il secondo principio della termodinamica (principio entropico). E quindi per questo motivo,praticamente eterna].
Un “campo di Informazione dinamica”, costituito da una determinata quantità di bit di Informazione, entro certi limiti di intensità, non potrà mai andare a costituire un singolo elettronvolt o Joule di energia. Ragion per cui, esso stesso (non potendo interagire con il resto dell’energia del sistema, molto più intensa e misurabile con strumenti fisici poiché in grado di interagire con i diversi campi elettromagnetici del sistema in questione), rimane sempre indipendente da qualsiasi processo entropico termodinamico.
La cosa più importante che possiamo dedurre da queste ultime considerazioni, è che un “campo di informazione dinamica” che rientri entro certi limiti di intensità, non è vincolato da alcun tipo di processo entropico termodinamico. Ne segue a volte l’andamento, ma non è soggetto ad alcuna interferenza di campo. Esso è quindi in grado di auto-organizzarsi, ossia di mantenere costante e regolare la sua struttura nel tempo, senza alcuna interferenza da parte dei comuni campi di energia che vanno a costituire l’ambiente del sistema considerato. Inoltre, esso sarà in grado di fondersi con altri campi di informazione dinamica della stessa intensità, e quindi di accrescere la sua estensione nello spazio, ma non necessariamente il suo livello di intensità.
Ed ora andiamo a scoprire cosa ha a che fare tutto ciò che vi ho esposto sinora, con il concetto di Anima.
La mente umana, come ben sappiamo, produce un determinato campo magnetico nell'ordine delle decine di femtoTesla (1 fT = 10^–15 T). Questo campo, lo dobbiamo semplicemente alla nostra attività cerebrale. Già allo stato fetale, ossia pochi mesi prima della nostra nascita, il nostro cervello, grazie alla sua costante attività, produce un campo di informazione dinamica che dal momento in cui veniamo al mondo, continua negli anni a farsi sempre più intenso, sino a raggiungere un determinato limite. Ora è assolutamente necessario che vi sia ben chiara una cosa: il campo di informazione dinamica prodotto dall’attività cerebrale e quello elettromagnetico (molto più intenso, che potremmo definire “di scarto”,poiché non è nient’altro che il risultato del lavoro che compie il nostro cervello in attività, per produrre i nostri “pensieri”, i quali in ultima analisi vanno a costituire il nostro campo di informazione dinamica), sono due cose ben diverse e non interagiscono l’una con l’altra!
Se proprio vogliamo, possiamo identificare il campo di informazione dinamica del nostro cervello, come una sorta di “risonanza” del campo magnetico dovuto all’attività cerebrale (molto più intenso e quindi misurabile con strumenti fisici).
Su scale prossime alla lunghezza di Planck,spazio e tempo perdono qualsiasi significato fisico;per tale ragione anche il concetto stesso di energia risente di tale condizione (non dimentichiamoci che in natura non può esistere alcuno spazio "vuoto di campo",ossia di energia; tanto è vero che persino il vuoto quantistico,sia esso il falso o il vero vuoto,è in ogni caso colmo di particelle virtuali - Feynman docet). Un campo di Informazione dinamica, va quindi a definire-costituire quella parte della realtà del tutto imponderabile e inosservabile con strumenti fisici,poichè al di sotto di quel limite definito dalla lunghezza di Planck (*2).Per questo motivo quindi, qualsiasi tipo di "risonanza" che prendesse forma o scaturisse da determinate onde cerebrali, ponendosi al di sotto della soglia di Planck, sarebbe indipendente da qualsiasi forma di interazione con il mondo subnucleare (formato da quark,gluoni e via dicendo).
Come abbiamo precedentemente visto, un campo di informazione dinamica è in grado di auto-organizzarsi, ossia di mantenere costante e regolare la sua struttura nel tempo, senza alcuna interferenza da parte dei comuni campi di energia che vanno a costituire l’ambiente del sistema considerato (in questo caso: mente umana – ambiente ad essa circostante).
Ecco quindi in quali termini potremmo intendere il concetto di Anima; ovvero, essa è da considerarsi un particolare tipo di campo di informazione dinamica, in grado di dissociarsi dal corpo fisico che lo “ospita”, nel momento in cui non vi sono più i presupposti per poter rimanere legato alla propria sorgente elettromagnetica (attività cerebrale).
Affermare quindi che l’Anima non “muore” mai, è quindi in linea di principio del tutto corretto. Affermare che gli animali (oltre alla specie umana) hanno un’Anima, anche in questo caso è in linea di principio corretto.
Tutte queste ipotesi e considerazioni, sono a mio avviso totalmente in accordo e “affini” alla teoria di Rupert Sheldrake sui campi morfogenetici, a quella di Richard Dawkins sulla Trasmissione dei Memi (memetica), e infine a quella di Carl Gustav Jung sull’Inconscio collettivo.
Nella "scienza ortodossa", tutto il discorso sull'interazione tra Entropia termodinamica e Informazione, risulta valido solo ed esclusivamente su sistemi isolati (chiusi e aperti) in cui è presente un osservatore in grado di interagire con il sistema considerato e quindi di rilevare-calcolare tutto ciò che accade all’interno del sistema stesso (di cui egli fa parte). Questa condizione è quindi l’unica che ci è consentito di conoscere, sulla base della quale siamo in grado di misurare-calcolare ogni passaggio di stato dell’energia, con rispettivi livelli di entropia (termodinamica e dell’Informazione) e quantità di Informazione.Da questo assunto, si arriva quindi alla seguente conclusione: Per qualsiasi osservatore che si trovi all’interno di un sistema termodinamico, è assolutamente impossibile misurare-calcolare un’eventuale quantità di Informazione che si sposti o si trovi al di fuori del proprio sistema di riferimento.Nell’ipotesi a Molti Mondi di Everett, tutte queste mie considerazioni trovano sicuramente terreno fertile. Non ho comunque intenzione in questa sede di spingermi oltre verso una tale direzione,poichè vista la complessità dell'argomento, non credo proprio sia il caso.

Le parole che riporterò qui di seguito, sono del fisico Frank J.Tipler, non le mie:
„(…)tutte le entità presenti nell’Universo attuale,codificano una quantità di informazione di gran lunga inferiore alla quantità permessa dalla teoria quantistica dei campi. Per esempio,se un atomo di idrogeno dovesse codificare tutta l’informazione che gli è consentita dal limite di Bekenstein,potrebbe codificare circa 4 x 10^6 bit di informazione (…)Quindi un atomo di idrogeno potrebbe codificare all’incirca un megabyte di informazione,mentre di norma codifica molto meno di un bit.La massa dell’idrogeno non viene di certo utilizzata in modo efficiente!Se si assume che il raggio sia quello di un protone (R= 10^-13 cm),la quantità di informazione codificabile nel protone è costituita da soli 44 bit!Questo valore è davvero piccolo rispetto alla complessità del protone - tre quark valenza,innumerevoli quark e gluoni virtuali- che è di fatto tanto complesso che non siamo ancora riusciti a calcolarne lo stato di base dai principi fondamentali utilizzando il Modello Standard, anche utilizzando i supercomputer più avanzati!“

Bene, ora io mi chiedo:
In che modo vogliamo cercare di risolvere questo: "Enigma dell'Informazione mancante"? Rimanendo saldamente ancorati ai modelli relativistici standard (di spazio, tempo ed energia), oppure cercando di andare un attimino oltre a questo concetto di realtà, abbracciando magari l'idea di un Universo a più dimensioni (vedasi Teoria delle Stringhe) e non da ultima, anche l' Interpretazione a Molti Mondi di Everett ? Fintantoché continueremo a relegare tali teorie nel mondo della matematica,dubitando fortemente di un loro potenziale coinvolgimento nella realtà fisica a noi nota, difficilmente riusciremo a fare qualche passo avanti nella comprensione di tutto ciò che attualmente accantoniamo nel mondo della fantascienza e del paranormale. La cosa che mi fa più rabbia, è che Schrödinger l'ha già dimostrato più di mezzo secolo fa che in definitiva noi non siamo nient'altro che onde di probabilità ...ma nessuno sembra ancora volerlo capire.

“Ciò che David Bohm ed io abbiamo ipotizzato, è che il potenziale quantistico sia in realtà un potenziale d'informazione, e per questo abbiamo introdotto il concetto di “informazione attiva”. Ero molto preoccupato per l'uso della parola “informazione” perché chiunque avrebbe pensato immediatamente all'informazione di Shannon. L'informazione di Shannon non è informazione, è solo capacità di informazione, separata dal significato. Il punto cruciale è stato quello d'introdurre un significato, ciò che per la particella è l'informazione”. Basil Hiley
Una versione aggiornata di tale teoria (con qualche piccola modifica nella forma con cui è esposta, ma non nel contenuto; ho solo voluto chiarire maggiormente alcuni punti fondamentali), è riportata nel mio libro: "Fisica dell'Informazione, ultima frontiera della scienza" (Aracne Editrice, RM). "Intervista all'autore" (contiene ulteriori dettagli e chiarimenti in relazione alle basi su cui poggia il presente elaborato teorico).
 
Fausto Intilla, 31 agosto 2009
 
--------------------------------------------------
Note:
(*1) Qualche spunto di riflessione, in relazione ad un eventuale/potenziale cambiamento di paradigma, ci è stato offerto da due esperimenti compiuti nel 2000 alle Università di Berkeley e Rochester, con degli interferometri laser. Questi esperimenti dimostrarono che l’Informazione è in grado di controllare l’interferenza quantistica e molto probabilmente anche la stessa funzione d’onda! Gli interessanti “esperimenti mentali” che emersero da tali premesse, si proposero di reinterpretare il collasso della funzione d’onda quantistica, solo attraverso il concetto stesso di Informazione! Ciò che infine veniva messo in risalto, da tali premesse e considerazioni, era la possibile esistenza in natura, di una legge di “conservazione dell’Informazione”. Delle recenti versioni (forti) dei teoremi di No-cloning e No-deleting (nell’ambito dell’Informazione quantistica), suggerirebbero inoltre l’esistenza, in natura, di tale “conservazione informazionale”. A tutt’oggi comunque, una simile legge della fisica, mai nessuno è riuscito a dimostrarla. (Articolo originale in inglese: Conservation of information: Quantum Mechanics and RIS)
------------------
(*2) Per la scienza, possono esistere delle particelle virtuali, ossia quelle che potremmo definire i costituenti fondamentali del vuoto quantistico. E qui siamo già, se vogliamo usare un termine popolare, nel campo dell' "immateriale". Per cui per la scienza,può esistere qualcosa di immateriale, non costituita da materia. Ciò che occorre capire, per andare avanti nel discorso, è che per lunghezze prossime alla scala di Planck, è difficile stabilire cosa è "ponderabile" e cosa invece non lo è. In un articolo ho parlato ad esempio delle masse di Planck e di come queste ultime potrebbero ulteriormente ridursi ad alte energie, nello scontro tra particelle nel Large Hadron Collider del CERN di Ginevra; bene, in questo articolo si parla appunto di come potrebbe prendere forma la realtà, se le dimensioni extra della Teoria delle Stringhe esistessero realmente e avessero delle "qualità proprie".Non è da escludersi quindi che, al di sotto della massa di Planck, possano sussistere dei fenomeni strettamente legati ad altre dimensioni dello spazio-tempo (tanto più che si ritiene,in base a recenti analisi, che le informazioni non vanno perdute al di sotto della massa di Planck!). Dire quindi che le informazioni non vanno perdute, equivale a dire che un "campo di informazione dinamica" al di sotto della massa di Planck, può tranquillamente esistere! Se a questo punto noi associamo il concetto di Anima, a quello di un campo di informazione dinamica, ci accorgiamo che tutto collima e che quindi anche ciò che non potremo mai osservare con comuni strumenti fisici, può teoricamente esistere.

lunedì 24 agosto 2009

L'algoritmo di Google e di altri motori di ricerca, presto migliori grazie a questa scoperta...

Fonte: Galileo
Un metodo matematico per individuare le parole più significative di un testo. Lo ha messo a punto un gruppo di ricercatori dell’Università di Manchester.
Individuare immediatamente le parole chiave di un testo sconosciuto, quelle che ne indicano il contenuto, è il sogno di ogni studioso di testi antichi e sconosciuti. Un sogno da oggi più realizzabile grazie al metodo matematico messo a punto da alcuni ricercatori dell’Università di Manchester che assegna a ogni parola un “valore informativo” e identifica così i termini più significativi di un testo.
Per ottenere questo valore, i ricercatori hanno misurato l’uniformità della distribuzione di ogni parola (hanno calcolato la sua entropia secondo la teoria dell’informazione, disciplina che studia l’elaborazione e la distribuzione dell’informazione), sia in un testo con le parole nel giusto ordine sia nello stesso testo con le parole tutte mescolate. Moltiplicando la differenza tra i due valori di entropia di ogni parola per la frequenza della parola stessa gli scienziati hanno ottenuto l’unità di misura desiderata: il “valore informativo”.
Secondo i ricercatori inglesi è proprio la distribuzione in un testo a decretare il valore di un termine e non il numero assoluto di ripetizioni. Le congiunzioni (e, anche, quindi, ecc.), per esempio, sono usate frequentemente, ma non sono indicative. Infatti, sono uniformemente distribuite in un testo ordinato come in uno disorganizzato e quindi presentano un valore informativo basso. La tendenza a essere raggruppate in capitoli e paragrafi, invece, dà alle parole significative un valore molto alto, rendendole riconoscibili.
La validità della nuova unità di misura è stata confermata da un test condotto su “L’origine della specie” di Charles Darwin: le parole con il valore più alto sono state “specie, varietà, ibridi, forme, isole, selezione e genere”. Il sistema messo a punto dai ricercatori inglesi potrebbe rivelarsi molto utile per la decodificazione di testi in codice o scritti in idiomi sconosciuti. “L’applicazione principale potrebbe però non essere il letteratura, ma in biologia, magari per identificare quei geni che trasportano informazioni utili. Del resto quando si guarda il genoma sembra davvero di essere davanti a una lingua straniera”, ha spiegato Marcelo Montemurro, leader del gruppo di ricerca. (c.v.)
Fonte: New Scientist

Energia solare all'Europa dal Sahara: miracolo o miraggio?

di Tom Pfeiffer

RABAT (Reuters) - Sta prendendo piede il progetto da 400 miliardi di euro per fornire all'Europa energia solare prodotta nel Sahara, anche se i critici ravvisano elevati rischi in una così ampia iniziativa basata su una tecnologia giovane nei paesi nordafricani politicamente instabili.
Desertec -- il progetto sull'energia solare più ambizioso al mondo -- prevede la creazione di campi di specchi nel deserto in grado di riflettere i raggi solari per far evaporare l'acqua inducendo le turbine a produrre elettricità pulita che colleghi Europa, Medio Oriente e Africa del Nord.
I sostenitori di Desertec -- una decina di aziende industriali e finanziarie, soprattutto tedesche -- sostengono che questo potrebbe portare l'Europa all'avanguardia nella lotta contro il cambiamento climatico e aiutare le economie europea e nordafricana a crescere rispettando i limiti delle emissioni di gas serra.
Altri invece vedono molti rischi, tra cui la politica del Maghreb, le tempeste di sabbia sahariane e i problemi per le popolazioni del deserto la cui acqua verrebbe deviata e fatta convergere verso i pannelli solari.
Inoltre sostengono che la tecnologia ad energia solare concentrata (Csp), su cui si basa Desertec, richieda costi e rischi molto più elevati rispetto al mosaico in rapida crescita di installazioni di celle fotovoltaiche su scala inferiore che generano gran parte dell'energia solare di cui dispone attualmente l'Europa.
I fondatori di Desertec sono partiti dal fatto che i deserti ricevono più energia solare in sei ore di quella consumata da tutta l'umanità nell'arco di un anno.
"Il Sahara offre tutti i vantaggi -- vicinanza all'Europa, praticamente nessuna popolazione e luce solare molto intensa", ha detto George Joffe, ricercatore ed esperto del Maghreb all'Università di Cambridge, che non partecipa al progetto.
"Sarebbe da pazzi non cogliere questa opportunità".
Proposto dal Club di Roma -- un gruppo di riflessione sull'ambiente che riunisce esperti internazionali -- Desertec è diventato un progetto industriale il mese scorso, quando la compagnia tedesca di assicurazione lo ha lanciato presso la sua sede centrale nella capitale bavarese.
"Abbiamo una sensibilità speciale per il cambiamento climatico: influenza la nostra attività principale, le assicurazioni sui disastri naturali causati da fenomeni meteorologici, che provocano le più gravi perdite che dobbiamo sopportare", ha detto Peter Hoeppe, capo della sezione Ricerca per il Rischio Geografico di Munich Re.
RIDUZIONE DELLE EMISSIONI
Molti governi europei puntano a ridurre le emissioni di gas serra dell'80% entro il 2050.
Secondo i suoi sostenitori, Desertec sarebbe un gesto positivo da parte dei paesi sviluppati per i paesi del Medio oriente e dell'Africa del Nord, che subiranno maggiormente la siccità e la desertificazione provocate dal riscaldamento globale.
Non è ancora stato delineato un business plan, né è ancora chiaro come il progetto verrà finanziato, ma si spera di trovare azionisti e aziende partner in diversi paesi.
I fondatori di Desertec sostengono che il Sahara potrà fornire un giorno il 15% dell'elettricità necessaria all'Europa, ma prevedono che il progetto andrà avanti a piccoli stadi e che non sarà completato prima del 2050.
Chi invece è a favore dell'energia solare prodotta da celle fotovoltaiche, sostengono che la produzione decentralizzata si rivelerà più popolare perché i suoi costi sono inferiori.
Inoltre ritengono che i governi europei -- che accettano già il rischio di importare energia da paesi nordafricani come l'Algeria -- preferirebbero, potendo, produrre energia rinnovabile all'interno dei propri confini.

Uno studio cinese getta nuova luce sulle nanopolveri

Fonte:
LIVORNO. «I nanomateriali possono generare grandi benefici così come nuovi potenziali rischi. Studi di animali ed esperimenti in vitro mostrano che le nano particelle possono creare danni al polmone e la loro tossicità, ma non hanno ancora dato risposte riguardo alla loro tossicità sull'uomo». Inizia così l'abstract di una ricerca che verrà pubblicata sul prossimo numero dell'European respiratory jounal condotta da medici dell'ospedale cinese di Chaoyang, che hanno esaminato la relazione tra le sintomatologie riscontrate in un gruppo di donne e la loro esposizione alle nanoparticelle.
Il termine nano particelle è correntemente utilizzato per indicare dei microscopici aggregati molecolari o atomici, che presentano proprietà chimico-fisiche interessanti dal punto di vista scientifico e che stanno alla base di una variegata serie di processi che vengono raggruppati sotto il termine di nanotecnologie. Quel settore della ricerca e in alcuni casi della produzione industriale che sta trovando notevoli campi di applicazione tecnologica, dalla farmacologia alla chimica dei materiali di nuova generazione.
Con questo termine si intende spesso anche quella parte di polveri sottili, che comprendono particelle con un diametro dell'ordine di decine o centinaia di nanometri, costituite a loro volta da aggregati di poche molecole o ioni per lo più derivate dai processi di combustione e che a differenza delle nano particelle, la cui forma e composizione chimica è nota, hanno forma, composizione caratteristiche complesse.
Sulle loro implicazioni con la salute, per cui esistono evidenze emerse da studi condotti in vitro e su animali e da alcune indagini condotte sia su lavoratori esposti che sulla popolazione generale. C'è però ancora molto da studiare, soprattutto per quanta riguarda i meccanismi di azioni biologica con cui questi effetti si esplicano e quindi per trovare una specifica relazione tra effetti riscontrati a carico di determinati organi ed esposizione a queste nanoparticelle.
Questioni cui lo studio condotto in Cina potrà dare senz'altro un contributo importante. Il gruppo di donne esaminate, tra i 18 e i 47 anni, sono risultate esposte da 5 a 13 mesi alla presenza di nanoparticelle derivanti dalla loro attività lavorativa.Si tratta infatti delle donne impiegate in una fabbrica di vernici in Cina, ricoverate in ospedale perché presentavano disturbi all'apparato respiratorio e su cui sono stati condotti esami e accertamenti di ogni genere, senza però trovare una causa effettiva dei disturbi presentati.Da una indagine sul luogo di lavoro è poi emersa la presenza di nano particelle composte da poliacrilati, una sostanza usata nella fabbricazione di vernici, su cui è conosciuto il rischio di esposizione per i lavoratori e per cui in Europa si è varata una specifica normativa di protezione, che comprende anche altre sostanze, che risale al 2004.
Le stesse nano particelle che sono state rilevate all'indagine al microscopio elettronico del tessuto polmonare delle pazienti, e da granulomi presenti nella pleura.La conclusione dello studio è che l'esposizione a lungo termine con alcune tipologie di nano particelle senza misure di protezione può provocare seri danni al polmone nell'uomo.

venerdì 21 agosto 2009

L'enigma dell'Energia Oscura

Fonte:

A cura di Maurizio Melis
Ascolta il servizio

Esiste o non esiste? E da dove viene fuori, questa misteriosa energia oscura che, secondo molti scienziati, costituirebbe oltre i due terzi della massa dell'Universo?
La recente scoperta che l'espansione dell'Universo sta accelerando ha gettato lo scompiglio tra i fisici. Nessuno se lo aspettava. D'altronde l'ipotesi secondo cui lo spazio sarebbe pervaso da una forma di energia ignota, capace di gonfiare lo spazio ma per il resto del tutto impalpabile, non appare convincente a tutti. Dare un mome a una cosa non significa sapere cos'è, e nemmeno se esiste. In effetti, in questo caso, "oscura"potrebbe essere utilmente sostituito da "misteriosa".
Nel servizio ripercorriamo la storia di come è nata l'ipotesi dell'energia oscura e ascoltiamo le voci dei ricercatori che si stanno dedicando al suo studio. Molte le ricette per dare un volto all'enigmatica forma di energia, o per dimostrare che si tratta solamente di un fantasma. Un buon esempio di come la Scienza si fa largo, con fatica ma anche con determinazione, tra le pieghe più misteriose della natura.

Gli abitanti della Luna hanno le ali



Nell'estate del 1835 si consumò uno degli scherzi giornalistici più feroci che si ricordino. Richard Adams Locke, nipote del grande filosofo e redattore del New York Sun, si chiedeva come attirare l'attenzione di un pubblico piuttosto distratto nei confronti delle grandi scoperte di astronomia che si erano registrati in quegli anni.
Decise allora di pubblicare una serie di articoli nei quali riportava le ultime scoperte di John Hershell, figlio di William Hershell, lo scopritore di Urano.
L'ignaro astronomo si trovava a cape Town, in Sud Africa, dove aveva fatto costruire un nuovo telescopio per studiare il cielo Australe. Il giornalista esagerò in modo del tutto inverosimile la potenza del nuovo telescopio, descrivendolo come un oggetto quasi miracoloso in grado di svelare dettagli estremamente piccoli. E mai visti prima.

Si vedevano cascate, laghi, canyon e, udite-udite, gli abitanti della Luna: antropomorfi, nudi e... alati, vista la bassa gravità del satellite.
I resoconti delle incredibili scoperte di Hershell andarono avanti regolarmente per settimane, durante le quali il Sun divenne il quotidiano più letto del mondo. A quel tempo le notizie viaggiavano a bordo delle navi, e potevano volerci settimane o mesi prima che una notizia giungesse dall'America al Sud Africa. Così lo stillicidio potè durare un bel po'.
La bufala ebbe risonanza mondiale, ma non tutti ci cascarono. A Napoli, che in fatto di bufale non poteva tollerare di essere seconda a nessuno, fu elaborata una risposta nientemeno che da Pulcinella in persona.
Di questa curiosa vicenda ci ha parlato Patrizia Caraveo, scienziata dell'INAF (Istituto Nazionale di Astrofisica), dalla cui voce potete sentire come è andata ascoltando l'intervista.

giovedì 6 agosto 2009

Cani: chi per primo li addomesticò?

Fonte: Galileo

Uno studio su Pnas smentisce l’ipotesi dell’origine asiatica del cane domestico. Il migliore amico dell’uomo potrebbe essere nato in qualsiasi regione dell’Eurasia.
Colpo di scena nella storia della domesticazione del cane. Secondo uno studio pubblicato su Pnas, le origini del migliore amico dell’uomo potrebbero non essere in Asia orientale, come pensato finora, ma in qualunque regione dell’Eurasia, forse in Medio Oriente. A proporre questa nuova possibilità è un gruppo di ricerca guidato da Adam Boyko, professore alla Cornell University di Ithaca (New York, Usa).
Nel 2002, un articolo pubblicato su Science avanzava l’ipotesi delle origini asiatiche del cane domestico. I ricercatori erano giunti a questa conclusione osservando la grande variabilità genetica - sinonimo di un’evoluzione antica - dei cani dei villaggi dell’Asia orientale. La ricerca, però, si concentrava solo sulle regioni asiatiche e non si preoccupava di verificare se i cani studiati fossero realmente “indigeni”, ovvero discendenti dei primi cani domestici, o piuttosto il risultato di incroci avvenuti in tempi recenti con razze selezionate dall’essere umano. Una differenza importante, dato che solo i cani indigeni conservano quei caratteri genetici che permettono di tracciare la storia della domesticazione.
Nel nuovo studio, i ricercatori hanno analizzato il Dna di 318 cani provenienti dai villaggi di sette differenti aree geografiche dell’Egitto, Namibia e Uganda. Le analisi genetiche hanno dimostrato che la maggior parte degli animali studiati era effettivamente indigena, probabile discendente delle prime popolazioni addomesticate. In più, sorprendentemente, i ricercatori hanno scoperto nei cani africani il medesimo livello di variabilità genetica precedentemente riscontrato nei cani asiatici. Questa, quindi, non sarebbe sufficiente a provare l’origine asiatica del cane domestico.
“Sappiamo che l’Africa non può essere il luogo dove è avvenuta la domesticazione, perché lì non ci sono lupi”, afferma Boyko. Questo non vuol dire che si possano escludere le altre aree dell’Eurasia dove, tra 15mila e i 40mila anni fa, questi animali convivevano già con il genere Homo. (m.s.)
Riferimenti: Pnas doi:10.1073/pnas.0902129106

HIV-1: decodificata la struttura secondaria del genoma

Fonte: Le Scienze
Finora si era riusciti a modellizzare solo piccole regioni del genoma di HIV-1, a causa delle sue enormi dimensioni: si tratta infatti di due filamenti di RNA con circa 10.000 nucleotidi ciascuno.
La struttura di un intero genoma di HIV-1 è stata decodificata per la prima volta dai ricercatori dell’Università della North Carolina a Chapel Hill. I risultati potrebbero avere notevoli implicazioni per la comprensione delle complesse strategie grazie alle quali il virus infetta l’uomo.L’HIV-1, come i virus che causano l’influenza, l’epatite C e la polio, possiede un genoma costituito da due copie di singoli filamenti di RNA in grado di ripiegarsi a formare complesse strutture tridimensionali.Come ha spiegato Kevin Weeks, docente di chimica dell’UNC che ha guidato lo studio e ha firmato l’articolo pubblicato sull’ultimo numero della rivista “Nature”, finora si era riusciti a modellizzare solo piccole regioni del genoma di HIV, a causa delle sue enormi dimensioni: si tratta infatti di due filamenti con circa 10.000 nucleotidi ciascuno.Weeks e colleghi sono riusciti ad analizzare la struttura del genoma di HIV isolto da colture contenenti alcuni miliardi di particelle virali provenienti dal National Cancer Institute, riuscendo infine a scoprire come proprio la struttura dell’RNA influenzi in diversi stadi il ciclo infettivo dell’HIV. Tale conclusione è potenzialmente in grado di aprire nuove strade di ricerca per comprendere il ruolo effettivo del genoma."Un primo approccio potrebbe consistere nel cambiare la sequenza nucleotidica e vedere che cosa succede”, ha concluso Swanstrom. "Se per esempio tale intervento porta a danneggiare il virus, si potrebbe concludere che in quel locus specifico è presente qualcosa di importante”. (fc)

martedì 4 agosto 2009

Sul Bosone di Higgs (Video autoprodotto)



Nelle teorie di Grande Unificazione, il comportamento tra particelle e interazioni gravitazionali, è indubbiamente ancor oggi il più enigmatico e discusso “capitolo” delle storia della fisica delle alte energie ( e questo a causa della grande differenza nella scala delle forze, in cui ovviamente la Gravità “la fa da padrona”,in quanto a "lontananza" dalle altre forze). In genere si presume che in vicinanza della scala di Planck, la Gravità dovrebbe assumere dei valori simili alle altre forze; andando così a ristabilire un determinato ordine in grado di dar forma a una possibile teoria di Grande Unificazione.Le varie incognite, in relazione all’evoluzione e al tempo di vita dei mini buchi neri (o buchi neri di Planck) che con molta probabilità si formeranno durante gli esperimenti con il LHC, sono quindi dovute alla nostra attuale incapacità di conciliare la fisica delle particelle ad alte energie , con la Relatività Generale.Le uniche speranze di poter comprendere qualcosa in più rispetto alle nostre attuali conoscenze, possiamo attualmente riporle (a mio avviso), solo nella Teoria delle Stringhe; l’unica in grado di darci qualche indicazione di come potrebbe effettivamente comportarsi la Gravità su scale prossime a quella di Planck (anch’essa comunque con tutte le sue lacune, che in questa sede non sto a spiegare). Sembrerebbe infatti che le dimensioni extra (previste appunto dalla Teoria delle Stringhe), siano responsabili della “Gravità debole” (quella che tutti conosciamo,perchè appartiene alla nostra realtà fisica). Se quindi tali dimensioni extra sono in grado di possedere delle “qualità proprie”, ciò avrebbe delle ripercussioni sull’evoluzione delle masse di Planck (mini buchi neri)...nel senso che potrebbero tendere a ridursi ulteriormente, in quanto a volume. Il problema sta quindi nel non sapere assolutamente come potrebbe comportarsi un simile mini buco nero, di dimensioni ridotte.Recenti studi hanno dimostrato (a livello teorico) che il modello (termodinamico) di Bekenstein-Hawking-Page dei mini buchi neri (adattato al Modello Standard) si rompe vicino alla massa di Planck, per il fatto che predice singolarità prive di orizzonti e una curvatura infinita di cui non si conoscono neppure le conseguenze. Su scale prossime a quella di Planck, è assai probabile quindi che, sia la Gravità Generale che la Meccanica Quantistica, si “rompano”.In tali studi (basati sempre sul modello termodinamico), si è avanzata anche l’ipotesi che la Gravità possa accrescere (come forza) , solo quando le temperature dei mini buchi neri in fase di evaporazione, tendono ad infinito. Questa recente analisi quindi, in un certo qual senso regolarizza il processo di evaporazione (liberandolo dal problema degli infiniti fisici) e lo fa apparire come l’unica condizione possibile qualora vengano a crearsi dei mini buchi neri all'interno del LHC. Una simile evaporazione inoltre, possiede tradizionali proprietà termodinamiche (dopo un apparente cambiamento di fase) e probabilmente conserva le informazioni. Anche se tali analisi si discostano sostanzialmente dalla Teoria delle Stringhe,c’è di buono almeno che vanno a parare sempre nella medesima direzione (ed escludono totalmente l’accrescimento di Bondi); ossia quella in cui per qualsiasi nuovo stato della materia si dovesse scoprire al di sotto della massa di Planck, esso avrà sempre comunque lo stesso comportamento (quello ordinario delle particelle elementari, che in ultima analisi quindi, seguono il Principio di Indeterminazione di Heisenberg). I mini buchi neri che si creeranno all’interno del LHC, con estrema probabilità apparterranno quindi alle classiche dimensioni (3D + t) della nostra realtà fisica ...ed evaporeranno, con altrettanta estrema probabilità, in circa 10^-42 secondi.

------------------------
Per un approfondimento:
A Scenario for Strong Gravity in Particle Physics
------------------------
------------------------

Ancora due parole sul Bosone di Higgs:
Una delle tante "fregature" in relazione alla possibilità o meno di poter scorgere le particelle scalari di Higgs, nelle collisioni con il LHC, sta nel fatto che queste ultime possano tranquillamente esulare dal
Principio di esclusione di Pauli(*1). E questo è senza dubbio il motivo per cui tali bosoni (che seguono la statistica di Bose-Einstein(*2),avendo spin intero ...ebbene sì,anche se nullo,viene considerato ugualmente intero) possono condensare in una configurazione degenere dello stato fondamentale (in parole povere possono ..."condensarsi nel vuoto").La chiave per risolvere questo ed altri dilemmi legati al Modello Standard, potrebbe stare (come ho spiegato tempo fa in un video su Youtube: "Sul Bosone di Higgs"), nell'applicazione teorica del concetto di Supersimmetria.Se è vero che la scala a cui i partner supersimmetrici della materia ordinaria devono esistere, non può essere molto più alta della scala della rottura di simmetria dell' interazione debole, allora molto probabilmente con il LHC,teoricamente, oltre i 2 TeV(*3) di energia di collisione, dovremmo assistere ad eventi che possono finalmente o convalidare una volta per tutte il modello supersimmetrico,...o annullarlo per sempre.

Note:
*1.Basti semplicemente pensare ai fotoni (anch'essi per natura dei bosoni), in grado di occupare lo stesso stato quantico nel medesimo istante; esulando quindi dal Principio di esclusione di Pauli.
*2.Tutte le particelle con spin intero (ossia 0;1;2;3;...) seguono,in quanto a distribuzione, la statistica di Bose-Einstein; quelle invece con spin semintero (ossia 1/2; 3/2;...),seguono la
statistica di Fermi-Dirac.
*3. Esperimenti sino a 2 TeV di energia di collisione, sono già stati effettuati al
Tevatron; dove nel 1995 è stato scoperto il top quark.

---------------------
---------------------

Masse ed energie ultra-relativistiche chiamate in causa:
Nella fisica delle particelle elementari si usano le equazioni relativistiche dell'energia; solitamente comunque si tende a considerare più che le masse delle varie particelle (quando vengono accelerate a velocità prossime a quelle della luce, vale a dire a c),la loro "quantità" di energia cinetica.
Questo per il semplice motivo che, essendo tali particelle accelerate,"vincolate" dal Fattore di Lorentz, sono soggette ad un aumento di massa (relativistico) che accresce in modo esponenziale per valori di v tendenti sempre di più a c (per raggiungere la velcità della luce occorrerebbe, paradossalmente, un'energia infinita).
Nel caso di un protone accelerato, la sua massa dinamica sarebbe data dall'equazione:
massa dinamica = m / [radice di 1-(v/c)^2] ;dove m è la massa a riposo della particella (in questo caso un protone).
Si consideri che per portare un protone ad una velocità di v=0,99999726 c ,all'interno del LHC, occorre un'energia di circa 400 GeV.
Ora, se risolviamo l'equazione succitata con i rispettivi valori, otteniamo una massa dinamica 427 volte più grande di quella a riposo!
La massa a riposo di un protone, equivale a circa: 1,673 x 10^-27 Kg ;per cui la sua massa dinamica a tale velocità sarà di circa 714,37 x 10^-27 Kg. Con un tale incremento di massa, è ovvio quindi che occorrono degli elettromagneti assai potenti, per mantenere costantemente i protoni in traiettoria. Per esempio,ad un'energia di 400 GeV, l'intensità del campo magnetico B necessario,calcolato in base alle leggi del moto di Newton in una traiettoria circolare di raggio r=4'285m (...guarda caso proprio il raggio del LHC ),sarà di:
B=(mv/qr).427= [(1,673 . 10^-27 kg . 3 . 10^8 m/s)/(1,6 . 10^-19 C . 4'285m)] . 427 = 0,31 Tesla. (*1)

Considerando ora il tutto in termini di energia relativistica,avremo:
E (protone a riposo)=
m.c^2= 1,673 . 10^-27 kg . (3 . 10^8 m/s)^2
= 1,506 . 10^-10 J = 0,941 . 10^9 eV= 941 MeV.

La sua energia cinetica relativistica sarà quindi data da:
(massa dinamica - massa a riposo).c^2=
(427-1)mc^2= 426 . 1,673 . 10^-27 kg . (3 . 10^8 m/s)^2= circa 400 GeV

Per cui, se consideriamo delle collisioni tra due fasci di protoni di 400 GeV , avremo come risultato un'energia di collisione di 800 GeV! ...esattamente il doppio.
--------------
Note:
(*1) Una parentesi: con un'energia per fascio di 7'000 GeV (la massima consentita per il LHC),occorre un campo magnetico B di oltre 8 Tesla!
Il campo magnetico terrestre (geomagnetico),non è uniforme su tutta la superficie della Terra. La sua intensità varia dai 20'000 nT(equatore) ai 70'000 nT (poli). [nT sta per nanotesla,ossia: miliardesimi di Tesla].
Considerando quindi una media terrestre di intensità di campo di circa 45'000 nT,il calcolo di quante volte il campo generato dai magneti del LHC sarà più intenso rispetto a quello terrestre, è presto fatto:
---
Campo magneti LHC a 7'000 GeV = circa 8,31 T
Campo terrestre medio = circa 0,000045 T
Risolvendo:
8,31 T / 0,000045 T = circa 184'666,67 volte ...più intenso di quello terrestre!