lunedì 13 luglio 2015

Perchè l'Universo, al posto del nulla?

----------------------------------
È da millenni che il filosofi (e da qualche secolo anche i fisici) cercano di dare una risposta a questa domanda “impossibile”: Perché l’Universo al posto del nulla? …ovviamente senza alcun risultato apprezzabile. Riflettendo su questa domanda impossibile, il mio pensiero è andato subito alle moderne teorie sul Multiverso; e andando contro uno dei principi fondamentali della fisica, ovvero che non possa esistere alcuno spazio vuoto di campo (persino il vuoto quantistico non è realmente vuoto, ma è ricco di particelle virtuali), ho voluto ipotizzare, nel Multiverso, l’esistenza di spazi vuoti di campo. È ovvio che in un simile spazio, totalmente scevro dalla seppur minima quantità di informazione, nessuna “entità pensante” in esso presente, potrebbe mai porsi la domanda: “Perché qualcosa al posto del nulla?”; proprio perché la sua presenza/esistenza non è ammissibile in un simile contesto della realtà. Ora, continuiamo a dare per valida questa ipotesi iniziale (ovvero che nel Multiverso possano esistere degli spazi vuoti di campo), e immaginiamo un’entità pensante posta proprio al confine tra uno spaziotempo classico-ordinario (l’unico ammesso dalle leggi della fisica) e uno spazio vuoto di campo (in cui neanche il concetto di tempo ha più significato). Immaginiamo che questa entità pensante non si autodistrugga immediatamente e possa invece continuare tranquillamente ad esistere sul questa ipotetica linea di confine tra i due spazi considerati. Egli in tale contesto osserverebbe sia uno spazio ricco di materia che uno spazio assolutamente vuoto; per cui l’unica domanda che potrebbe porsi è la seguente: “Perché l’Universo è formato sia da spazi vuoti di campo che da spazi ricchi di informazione, materia ed energia?”. Ebbene la risposta che potrebbe darsi anche da solo è la seguente: “Perché in una realtà senza confini, infinità, ogni cosa ha sempre la sua controparte”.  In base a tali premesse, alla domanda iniziale (“perché l’Universo al posto del nulla”), io risponderei con un’altra domanda: “Da dove si può trarre la certezza assoluta che vi sia sempre, in una realtà senza confini, dunque infinita, 'qualcosa' invece del nulla?”.

Fausto Intilla - www.oloscience.com

domenica 12 luglio 2015

Teoria delle Stringhe vs.Teorie quantistiche dei campi (QFT): pregi e difetti dei nuovi modelli emergenti.

----------------------------
La Teoria delle Stringhe è in continuo sviluppo ormai da più di 35 anni e per oltre vent'anni ha catturato l'attenzione di molti tra i più brillanti scienziati del mondo. Gran parte dei dati per spiegare i quali è stata inventata la Teoria della Stringhe esiste già, nei valori dei parametri del modello standard della fisica delle particelle e di quello della cosmologia. Tuttavia, sino ad oggi non si è ancora riusciti ad accumulare un insieme convincente di prove sperimentali a suo sostegno. La maggioranza delle congetture fondamentali ancora irrisolte ha più di dieci anni e non dà segno di essere in via di risoluzione. Dopo tutto il lavoro dedicato alla Teoria delle Stringhe, non è ancora concretamente possibile ottenere una conferma o una confutazione definitiva di una sua previsione specifica per mezzo di un esperimento attualmente realizzabile. Inoltre, una sua formulazione completa non esiste; non c'è una proposta approvata che specifichi quali sono i suoi principi di base e quali dovrebbero essere le sue equazioni principali. La Teoria delle Stringhe, si suddivide in un numero sproporzionatamente grande di teorie affini tra loro; per cui è stata avanzata la proposta di unificare tutte queste teorie in una sola "teoria madre": la Teoria M. L'idea di base è che tutte le teorie che comprendiamo, corrisponderanno a soluzioni di questa teoria fondamentale. Le molte relazioni di dualità che si sono ipotizzate o dimostrate tra le varie teorie delle stringhe, forniscono prove a favore della sua esistenza; ma finora nessuno è riuscito a formularne i principi essenziali, o a scriverne le leggi fondamentali. 
Stando a ciò che sappiamo oggi, può darsi che emerga una teoria in grado di soddisfare le aspettative originarie. Può anche darsi però che una vera e propria teoria non esista e che tutto ciò che mai esisterà sia un grande insieme di risultati approssimativi di casi speciali che valgono soltanto perché sono vincolati da simmetrie particolari. La cosa più allarmante comunque, è che non sappiamo neanche se esiste la maggioranza delle teorie quantistiche dei campi (QFT). Tali teorie (QFT) studiate dai fisici delle particelle (compresa la QED, la QCD e il Modello Standard), hanno in comune con la teoria delle stringhe, il fatto di essere definite solo in termini di una procedura di approssimazione (anche se si è dimostrato che producono risultati finiti e coerenti per ogni ordine di approssimazione). Tuttavia, esistono buoni motivi per credere che il Modello Standard non esista come teoria matematica rigorosamente definita; ma ciò non è un problema, se crediamo che il Modello Standard sia solo un passo verso una teoria più profonda. Come le teorie quantistiche dei campi, la teoria delle stringhe sembra una costruzione approssimata che indica l'esistenza di una teoria più fondamentale. 
La teoria delle stringhe, per dimostrare il suo valore, deve funzionare almeno altrettanto bene del Modello Standard; deve prevedere qualcosa di nuovo che si riveli vero e deve spiegare fenomeni che sono stati osservati.
Sui background dove sono definite teorie delle stringhe coerenti, le vibrazioni di una stringa comprendono stati che corrispondono a tutti i tipi conosciuti di materia e di forze. Il gravitone, la particella che trasmette la forza gravitazionale, ha origine dalle vibrazioni dei loop (stringhe chiuse). Anche il fotone, responsabile della forza elettromagnetica, emerge dalle vibrazioni di una stringa. Anche i campi di gauge più complicati, in termini della nostra comprensione dell'interazione nucleare debole e di quella forte, emergono automaticamente; in altri termini, la teoria delle stringhe prevede in generale l'esistenza di campi di gauge simili a questi, pur non prevedendo la particolare mescolanza di forze che vediamo in natura. Quindi (quanto meno al livello dei bosoni, ossia di particelle che trasmettono forze, in uno spazio-tempo di background), la teoria delle stringhe unifica la gravità con le altre forze. Le quattro forze fondamentali emergono tutte come vibrazioni di un solo tipo fondamentale di oggetto: una stringa. Le teorie supersimmetriche delle stringhe, hanno il pregio di unificare tutti i diversi tipi di particelle. La teoria delle stringhe realizza tutto ciò con una semplice legge: le stringhe si propagano nello spazio-tempo in modo da occupare la superficie di area minima. 
Le particelle che trasmettono la forza gravitazionale (i gravitoni) emergono dalle vibrazioni di stringhe, così come il fatto che la forza gravitazionale esercitata da una particella è proporzionale alla sua massa. Ciò porta a un'unificazione coerente della gravità e della teoria quantistica? Cerchiamo di scoprirlo...
La teoria della Relatività Generale è una teoria indipendente dal background; ciò significa che tutta la geometria dello spazio e del tempo è dinamica, nulla è fisso! Anche una teoria quantistica della gravità dovrebbe essere indipendente dal background. Lo spazio e il tempo dovrebbero emergere dalla teoria e non fungere da fondale per le azioni delle stringhe! Oggi la teoria delle stringhe non è formulata come una teoria indipendente dal background e questa è la sua debolezza principale come candidata al ruolo di teoria quantistica della gravità. La teoria delle stringhe è formulata in funzione di stringhe e di altri oggetti che si muovono in geometrie classiche (non dinamiche) di background dello spazio, che non evolvono nel tempo (quindi la scoperta di Einstein che la geometria dello spazio e del tempo è dinamica, non è stata incorporata nella teoria delle stringhe!). È interessante considerare che, con l'eccezione di alcune particolari teorie unidimensionali, le teorie quantistiche dei campi (QFT) dipendenti dal background, non sono teorie rigorose: sono tutte definite solo in termini di procedure di approssimazione. Ma una teoria quantistica dei campi coerente, si presume che debba essere indipendente dal background (idem per quanto riguarda una teoria delle stringhe, anch'essa  coerente). Messa in questi termini, ne conseguirebbe che l'unificazione della teoria quantistica con la Relatività Generale, non è facoltativa, ma obbligatoria!
Oggi le uniche teorie supersimmetriche delle stringhe la cui coerenza sia nota nei dettagli, sono quelle che "vivono" in spazi-tempo che non si evolvono nel tempo. Perciò in questi casi non si può affermare che nella teoria superimmetrica delle stringhe, si possa recuperare come approssimazione tutta la Relatività Generale. Non si possono recuperare solo le soluzioni senza dipendenza dal tempo e continuare ad affermare che la Relatività Generale viene derivata dalla teoria delle stringhe! E non si può sostenere di avere una teoria della gravità, poiché si sono osservati molti fenomeni gravitazionali che comportano  la dipendenza dal tempo!
Per risolvere questo problema, alcuni stringhisti hanno ipotizzato che esistano teorie coerenti delle stringhe su background spazio-temporali che variano nel tempo; ma tali teorie sono molto più difficili da studiare (non possono essere supersimmetriche e non esiste una loro formulazione generale esplicita). Tuttavia, ci si può comunque domandare se la teoria delle stringhe fornisca una teoria coerente che comprenda la gravità e la teoria quantistica nei casi in cui si può formularla esplicitamente. In altre parole, possiamo almeno descrivere le onde e le forze gravitazionali così deboli da potersi considerare come lievi increspature della geometria dello spazio? E possiamo farlo in modo del tutto coerente con la teoria quantistica? Ebbene la risposta è che ciò è possibile, ma solo fino ad una certa approssimazione. Finora, i tentativi di dimostrarlo al di là di quel livello di approssimazione, non sono pienamente riusciti (anche se si sono raccolte molte prove a favore e non sono emersi dei contro-esempi). 

Bibliografia:
- L'Universo senza stringhe, di Lee Smolin, Einaudi, Torino, 2007. 

venerdì 10 luglio 2015

Surf sulla scia di un'onda di luce: Passo verso la miniaturizzazione delle tecnologie ottiche.

Fonte: ANSA Scienza
---------------------------
E' possibile 'surfare' sulla scia di un'onda di luce: ci sono riusciti per la prima volta i ricercatori guidati dal fisico italiano Federico Capasso, dell'università di Harvard. Il risultato, pubblicato sulla rivista Nature Nanotechnology, può aprire le porte alla miniaturizzazione delle tecnologie ottiche, dalla diagnostica per immagini ai futuri computer fotonici,nei quali l'informazione viaggia sulle particelle di luce. Del gruppo di ricerca fa parte Antonio Ambrosio, che lavora anche per il Consiglio Nazionale delle Ricerche (Cnr) di Napoli.

''La capacità di controllare la luce è un mezzo potente'', ha osservato Capasso. 'La nostra comprensione dell'ottica - ha proseguito - ha permesso di ottenere tecnologie come gli ologrammi, i Google glass, i Led, solo per citarne alcune''. La nano-ottica per Capasso è una parte importante del futuro delle nanotecnologie: ''la nostra ricerca migliora la capacità di controllare la luce su scala nanometrica''.

Nelle onde, le scie si formano ogni volta che qualcosa viaggia in un mezzo (come l'acqua o l’aria) più velocemente rispetto alle onde che solca: dall'anatra nel laghetto, al veloce motoscafo nel mare. Le scie si possono formare ovunque ci siano onde.
Per la prima volta, ricercatori di Harvard hanno creato scie simili sulle onde elettromagnetiche che si muovono su una superficie metallica, chiamate plasmoni di superficie, e hanno dimostrato che queste scie possono essere anche controllate. Ci sono riusciti creando delle fenditure nel materiale, una pellicola d'oro, sul quale si muovono i plasmoni di superficie. Le strutture sono dei cerchi che permettono di controllare la scia, come se fossero il timone di una imbarcazione: si può persino invertire la direzione, come una scia che viaggia nella direzione opposta di un barca.

giovedì 9 luglio 2015

Fosforo nero, 'l’erede' del silicio nei computer del futuro: Potrebbe diventare il 'cuore' dei nuovi transistor.

Fonte: ANSA Scienze
---------------------------
Il fosforo nero potrebbe diventare per l'elettronica il silicio del futuro e diventare il 'cuore' dei nuovi transistor. Fa parte della nuova generazione di materiali sottilissimi e a due dimensioni arrivati dopo la scoperta del grafene. Con il materiale delle meraviglie condivide lo spessore di un atomo e la struttura a nido d'ape che gli conferiscono straordinarie proprietà.

Su Nature Communications, uno studio condotto in Canada dalle università McGill e di Montréal mostra che quando gli elettroni si muovono in un foglio di fosforo nero, lo fanno solo in due dimensioni senza disperdere energia e questo è la base per superare una delle grandi sfide dell'elettronica: la progettazione di transistor ad alta efficienza energetica. ''I transistor sono più efficienti quando sono sottili, con gli elettroni che si muovono solo in due dimensioni'', spiega uno degli autori, Thomas Szkopek, dell'università della McGill.

''Niente è più sottile - aggiunge - di un singolo strato di atomi''. Chiamato anche fosforene, il fosforo nero fa parte della famiglia di materiali a due dimensioni simili al grafene, che per le straordinarie proprietà, dalla conduzione elettrica, trasparenza, alla resistenza al calore, sono destinati a rivoluzionare molti settori, a partire dall'elettronica. Secondo Szkopek i progettisti dei futuri transistor useranno diversi materiali dello spessore di un atomo: un semiconduttore ideale, un metallo ideale, ed un materiale non conduttivo. Il fosforo nero, dice, è sicuramente il materiale semiconduttore ideale. ''Siamo ancora lontani dal riuscire a fabbricare un transistor dello spessore di un atomo ma ora - rileva Szkopek - abbiamo fatto un passo in avanti in questa direzione''. 

Entro il 2025, mappa genetica per un miliardo di persone.

Fonte: ANSA Scienze
---------------------------
Altro che Twitter o YouTube: il prossimo 're' indiscusso dei Big Data sarà il Dna. La scienza che ne studia l'espressione, la genomica, è pronta a decollare: si prevede infatti che entro il 2025 quasi un miliardo di persone nel mondo avrà fatto sequenziare il proprio genoma, producendo miliardi di gigabyte che dovranno essere acquisiti, immagazzinati, distribuiti e analizzati. Per affrontare questa enorme sfida servono nuovi strumenti, come spiegano sulla rivista Plos Biology gli esperti dell'Università dell'Illinois e del Cold Spring Harbor Laboratory, vicino a New York.

I ricercatori hanno messo a confronto la genomica con i tre principali protagonisti nel mondo dei Big Data: l'astronomia, Twitter e YouTube. Quest'ultimo, in particolare, è attualmente la più grande macchina macina-dati al mondo, con ben 100 milioni di gigabyte all'anno. Proiettando la crescita di questi colossi al 2025, i ricercatori hanno scoperto che la genomica diventerà il leader incontrastato superando gli altri rivali: già ora i dati frutto del sequenziamento genetico continuano a crescere con un ritmo vertiginoso, tanto da raddoppiare in media ogni 7 mesi.
Per superare questa sfida non basterà 'copiare' quei meccanismi usati (per esempio in astronomia) per filtrare i dati utili fin dal momento dell'acquisizione: le informazioni sul Dna che oggi scartiamo come insignificanti, potrebbero diventare preziose un domani alla luce di nuove scoperte.

''Presto la genomica ci porrà una delle sfide computazionali più difficili che abbiamo mai affrontato'', afferma Gene Robinson, direttore dell'Istituto di biologia genomica Carl R. Woese dell'Università dell'Illinois. ''Se la genomica manterrà la promessa di avere un forte impatto positivo su medicina, agricoltura, produzione di energia e comprensione della vita stessa - aggiunge l'esperto - allora ci saranno incredibili innovazioni nell'elaborazione dei dati. E' giunto il momento di mettersi all'opera''.

sabato 4 luglio 2015

WIMP, mutazioni genetiche e riscaldamento globale: un possibile nesso.

--------------------------------
Già da molti anni gli astronomi hanno saputo della presenza di un "lato oscuro" dell'Universo. La gravità rivela la presenza nell'Universo di materia in forma oscura, in una quantità fra le venti e le cento volte maggiore di quella che può essere rivelata in base alla luce emessa da tutte le stelle e da tutte le galassie. La presenza di così tanta "materia oscura" non è necessariamente sorprendente; la formazione delle stelle e delle galassie può semplicemente essere un'operazione abbastanza complessa, che può fallire più spesso che riuscire. Ma ciò che sorprende è la scoperta che le forme ordinarie di materia di cui siamo composti, costituiscono una sorta di rarità nell'Universo. Per essere coerenti con altre osservazioni astronomiche, questa materia oscura dominante deve avere la forma di un mare cosmico più o meno uniforme di particelle massive debolmente interagenti (WIMP), piuttosto simili ai neutrini, ma un miliardo di volte più pesanti. Tali particelle sono previste da nuove teorie supersimmetriche della materia, che il Superconducting Super Collider (SSC) era stato progettato per controllare (un progetto poi abbandonato per ragioni economiche). Oggi le WIMP sono distribuite nella nostra galassia (la Via Lattea), in quantità di circa una per ogni centimetro cubo di spazio. Ognuna di queste particelle ha una massa paragonabile a quella di piccoli atomi, e si muove con una velocità vicina ai 250 km al secondo. Queste particelle urtano contro la Terra in un flusso significativo, e producono uno spettro in costante crescita di danni genetici, aumentando il numero delle mutazioni cancerogene. Molte di queste mutazioni hanno forme nuove, a causa del particolare tipo di interazione che le WIMP subiscono quando rimbalzano sul nucleo di un atomo biologico in una catena di DNA. È molto probabile che queste particelle interagiscano con gli atomi attraverso il loro spin intrinseco, alterando direttamente l'intrinseca maneggiabilità delle molecole biologiche. Ci si può rendere conto delle conseguenze devastanti di questi mutamenti, apparentemente innocui, ricordandosi che il talidomide derivò dalla presenza di una versione maneggiata male di una molecola innocua in un sedativo.
L'intensità di questi effetti viene ora studiata dai fisici delle particelle nel corso di esperimenti condotti sottoterra, che escludono i disorientanti effetti dei raggi cosmici e della radioattività locale terrestre. Un gran numero di moscerini dell'aceto è stato studiato in celle circondate da batterie di rivelatori di particelle, in grado di monitorare il flusso delle WIMP incidenti, in modo che sia possibile quantificare gli effetti sul tasso di mutazione dei moscerini dell'aceto, nel corso di diverse generazioni del loro breve ciclo vitale. Armati di una conoscenza ragionevolmente completa di questi effetti di base, i fisici-medici si sono concentrati sull'effetto cumulativo delle WIMP che si ammassano all'interno della Terra, dopo essere state catturate dall'attrazione gravitazionale del nostro pianeta. Poiché la densità cresce con la profondità, la probabilità di interagire con altra materia aumenta drasticamente procedendo sottoterra, e le enormi energie trasportate dalle WIMP in rapidissimo movimento vengono continuamente depositate all'interno della Terra. Ne risulta un riscaldamento globale significativo, che si è protratto per tutta la storia del nostro pianeta. Il riscaldamento però non è continuo, a causa dell'orbita di 246 milioni di anni del nostro Sistema Solare, attorno alla nostra Galassia. Ci si è resi conto di tale riscaldamento solo alla fine degli anni Novanta, poiché in alcune epoche si è avuto un deficit locale nel flusso delle WIMP, oppure il Sistema Solare è passato attraverso un polveroso braccio a spirale della Via Lattea. Non solo: la falsa pista del consumo del carburante fossile ha distratto la grande maggioranza degli studiosi del clima, dalla vera fonte del problema. 
Il sommarsi delle interazioni all'interno della Terra ha lasciato la nostra specie, aperta a un attacco sia dall'interno che dall'esterno. Le mutazioni dirette causate dalle WIMP incidenti, possono rivelarsi meno importanti degli effetti più debilitanti, delle particelle ad alta energia che emergono dal centro della Terra. In passato, quando il loro tasso era modesto, sembra abbiano avuto un ruolo chiave nell'origine della vita, attraverso la stimolazione della diversità biochimica e della mutazione all'interno dell'ambiente stabile, umido e temperato messo a disposizione dagli strati superficiali dell'interno della Terra. Oggi, tuttavia, le prove di un globale riscaldamento rivelano che il tasso di mutazione degli strati immediatamente sottostanti alla superficie terrestre, sta raggiungendo livelli che presentano un pericolo senza precedenti per le forme di vita che da tempo immemorabile abitano il nostro pianeta (esseri umani inclusi). 

Bibliografia:
- Dall'io al Cosmo, di John D. Barrow, Raffaello Cortina Editore, Milano, 2000. 

venerdì 3 luglio 2015

I prossimi impegni del Large Hadron Collider (LHC) del CERN: dal campo di Higgs alla Supersimmetria.

----------------------------------
Anche se il bosone di Higgs fosse davvero l'ultimo e conclusivo elemento nell'elenco dei personaggi necessari per descrivere il nostro mondo, più del 90% dell'Universo è costituito da "materia oscura", che non risplende ma prodigalmente offre la forza gravitazionale che tiene insieme le galassie fatte di stelle. Tra le particelle note nessuna può candidarsi nella lista di quelle particelle che andrebbero a costituire la materia oscura; tuttavia, la teoria della supersimmetria comprende tale possibilità (il che la rende ancora più interessante). Ammettendo però che le particelle supersimmetriche esistano, si presenta subito la domanda su come esse acquisiscano la loro massa. Qualcuno quindi potrebbe pensare che esista un'intera famiglia di "higgsoni", che aspettano solo di essere scoperti. Una parentesi: Nell'agosto del 2012, G.Fraser e M.Riordan ipotizzarono che, dopo la scoperta del bosone di Higgs, si dovesse utilizzare il termine "higgson" (con l'iniziale minuscola) per indicare genericamente tutti i membri della famiglia delle particelle associate a questo campo che pervade tutto il mondo naturale. È possibile quindi che la famiglia consista di un solo rappresentante: il bosone di Higgs (scoperto nel luglio del 2012), oppure che comprenda molti altri "gemelli". Questa è una delle domande a cui si potrebbe rispondere con i futuri esperimenti del Large Hadron Collider di Ginevra (LHC). Parentesi chiusa.
Il bosone di Higgs comunque, non è la fonte di tutta la massa, ma soltanto di quella delle particelle davvero essenziali. Sono i nuclei degli atomi presenti nel vostro corpo a dar origine al 99,5% della vostra massa. E questa caratteristica non ha nulla a che vedere con il campo di Higgs, ma è la conseguenza del confinamento dei quark nei nucleoni. Ciò che il campo di Higgs potenzialmente fa, è dare una struttura agli oggetti materiali agendo sulle particelle fondamentali come gli elettroni, che si trovano nelle regioni più esterne degli atomi, e come i quark, che sono i "semi" essenziali del nucleo atomico. Il peso di un essere umano o di qualsiasi altro oggetto del mondo materiale dunque, ha ben poco a che fare con il "meccanismo di Higgs"; a giocare un ruolo fondamentale, sono le dimensioni (volume) degli oggetti considerati. Le dimensioni di un atomo di idrogeno sono determinate dalla costante di struttura fine (che vale, approssimativamente, 1/137) e dalla massa dell'elettrone. Se la massa dell'elettrone fosse nulla, l'atomo di idrogeno avrebbe dimensioni infinite (in parole povere: non potrebbe esistere!). Sull'entità della massa del protone non ha un effetto rilevante, il fatto che i quark abbiano massa oppure no. Tuttavia, per i principi della simmetria chirale, le masse del quark up e del quark down, sono proporzionali al quadrato della massa di un pione. Il pione è mediatore della potente attrazione fra protoni e neutroni, che formano i nuclei atomici. L'entità di questa interazione è inversamente proporzionale alla massa del pione, e dunque anche alla massa dei quark. Se i quark fossero privi di massa e lo fosse anche il pione, il raggio d'azione dell'interazione nucleare forte sarebbe infinito. Dunque l'esistenza di nuclei complessi e compatti, che sono, a loro volta, i "semi" degli atomi degli elementi chimici, è una conseguenza del fatto che i quark hanno massa.
Se, come sembra probabile, oggi sappiamo davvero come le particelle fondamentali acquisiscano la massa, rimane però aperta la questione del perché esse abbiano proprio quella particolare massa. Se l'elettrone avesse una massa appena un po' più grande di quella che ha, gli essenziali fenomeni radioattivi del decadimento beta non si verificherebbero, gli elementi chimici non si formerebbero e dulcis in fundo ...noi non esisteremmo! Se invece la sua massa fosse minore di quella accertata, questi processi si svolgerebbero in un modo diverso, ma ancora una volta in modo sfavorevole allo sviluppo della vita. 
I futuri esperimenti con l'LHC, potrebbero rivelare proprio ciò che determina esattamente l'intensità dell'affinità del bosone di Higgs, per una particella o per un'altra; ma per farlo, tali esperimenti dovrebbero fornirci qualche "dato bizzarro", imprevedibile, da interpretare come un indizio che possa guidarci in ulteriori ricerche. Allo stato attuale, lo schema ordinato presentato dalle masse delle particelle e quello delle varie forze, rimangono un assoluto mistero. Una domanda importante, che i fisici si pongono, è dunque la seguente: Il bosone di Higgs, conferisce la massa soltanto ai mediatori delle interazioni (i "bosoni di gauge", come era previsto nella formulazione dell'ipotesi), oppure è anche responsabile della massa dei fermioni (ovvero dei componenti fondamentali della materia; tra i quali il quark e l'elettrone)? Forse entro la fine di quest'anno lo sapremo. 
Oggi abbiamo i primi indizi del fatto che il vuoto, oltre ad essere permeato dai campi gravitazionale ed elettromagnetico, è anche "pieno" di un altro influsso: quello del campo di Higgs. Mentre i fenomeni descritti in elettrodinamica quantistica (QED) sono insensibili al campo di Higgs, l'interazione nucleare debole ne avverte, profondamente e intensamente, l'influsso. Gerard 't Hooft ha indicato come sia possibile spiegare adeguatamente l'interazione debole, se la caratteristica indicata per secoli con il termine "massa", è in effetti la manifestazione dell'interagire delle particelle fondamentali con il campo di Higgs. Ciò che i fisici sperimentali stanno facendo al CERN di Ginevra, è accertare l'esistenza di un campo che rompe la simmetria tra le interazioni elettromagnetica e debole, e che sembra influire anche sulle proprietà dei fermioni fondamentali. Ma come questo campo si configuri esattamente (se sia soltanto una sorta di "etere" fondamentale e uniforme che pervade tutto, o se sia formato da costituenti ancora più essenziali, analoghi alle coppie di Cooper della superconduttività, oppure se sia enormemente complesso), sino ad oggi non è ancora noto. La scoperta del bosone di Higgs, permette di continuare a porci ragionevolmente questa domanda. Ma è più complicato determinare come gli higgsoni si condensino in tale campo ubiquitario. Un primo passo avanti in questa indagine, potrebbe aversi producendo due higgsoni in una sola collisione e osservando come interagiscono l'uno con l'altro. Per quanto sia possibile in linea di principio ottenere un tale evento, esso rimane tuttavia eccezionalmente raro. Rilevarlo e studiarlo potrebbe richiedere una macchina specificamente predisposta; come un collisore di elettroni e positroni, le cui energie fossero calibrate per produrre coppie di higgsoni: una realizzazione che, nella migliore delle ipotesi, sembra configurarsi come una speranza a lungo termine.

Bibliografia:
- L'enigma dell'infinito, di Frank Close, Einaudi, Torino, 2013. 

giovedì 2 luglio 2015

La costante di struttura fine (alpha): il codice PIN della Natura.

---------------------------------
In elettrodinamica quantistica (QED), ciò che è davvero bello è l'unificazione da essa proposta delle caratteristiche naturali della luce e della materia. Nella QED , se è vero che le onde costituenti la luce operano come particelle, è anche vero che le particelle costituenti la materia, ad esempio l'elettrone, si comportano come onde che si diffondono in una qualche regione dello spazio. Se riuscite a pensare agli elettroni e ai fotoni come minuscole particelle coinvolte in una partita di biliardo che segue le regole della meccanica quantistica, avrete l'essenza della QED.
Mentre le palle da biliardo continuano ad esistere, alcune particelle possono apparire e sparire. La capacità di irradiare o assorbire fotoni non è specifica dei soli atomi, ma è propria anche delle particelle elettricamente cariche. Ad esempio un elettrone, in un certo punto dello spazio, potrebbe emettere un fotone, che porta via energia e quantità di moto (la grandezza fisica definita come il prodotto della massa per la velocità). Quando questo fotone colpisce un'altra particella carica, la mette in moto. Così, secondo la QED, l'interazione elettromagnetica viene trasferita per l'azione dei fotoni, i quali vanno a sbattere contro altre particelle e, quasi a gomitate, le spingono. Una parentesi: Queste particelle transitorie o "virtuali", quali appunto i fotoni, non si manifestano direttamente nei rivelatori, ma la loro presenza è dimostrata da altri fenomeni. Oggi sappiamo che esse non sono soltanto frutto dell'immaginazione perché è possibile progettare esperimenti in cui le particelle virtuali si trasformano in altre che sono osservabili direttamente. Ad esempio, due fotoni virtuali possono scontrarsi e mutare nella coppia elettrone-positrone. Chiusa parentesi.
Quando i fotoni e gli elettroni si scontrano, si fondono e si separano e la QED codifica la probabilità della loro interazione in un numero, indicato con la lettera greca alpha. Secondo la QED , alpha è espresso in funzione della velocità della luce (c), della costante di Planck (h) e della carica elettrica (e). Essa quindi stabilisce in modo estremamente persuasivo la relazione tra le grandi teorie del XX secolo: la relatività speciale (per la presenza di "c") e la teoria dei quanti (per la presenza di "h"). L'allettante caratteristica della formula è data dal fatto che la particolare combinazione di queste quantità, alpha, è un numero puro, adimensionale. Questo numero definisce la scala degli oggetti naturali: le dimensioni degli atomi e di tutte le cose che sono formate da atomi, l'intensità e i colori della luce, l'intensità delle forze elettromagnetiche e il tasso metabolico della vita stessa. Controlla e ordina tutto ciò che vediamo. Sperimentalmente se ne è individuato il valore, che risulta essere: 0,00728. Esso non sembra molto interessante finché non si scopre che il suo inverso (ossia 1/0,00728) ha quasi esattamente il valore di un numero intero: 137. Poco dopo la sua scoperta, il numero ha acquisito un'aurea di mistero esoterico, che ha affascinato e continua ad affascinare i fisici. Sembra che, in 137, per dirla con Frank Close: "la scienza abbia trovato il codice PIN della Natura".
Negli anni Trenta, a Cambridge (nel Regno Unito), l'astronomo Arthur Eddington, sedotto da questa numerologia, divenne il propugnatore di una sorta di culto pitagorico. Egli elaborò un sistema di sedici equazioni, coinvolgenti varie costanti fondamentali, con le quali sperava di costruire una "Teoria dell'Universo". Ha quindi sostenuto che il valore di alpha poteva essere dedotto dal seguente calcolo: (16 x 16 - 16)/2 + 16; che dà come risultato 136. Quando i dati sperimentali indicarono che il valore di alpha era più prossimo a 137, Eddington sostenne che era necessario aggiungere ai parametri usati per descrivere le particelle, un ulteriore "grado di libertà" e disinvoltamente riuscì ad ottenere 137 dalla seguente somma: 136 + 1. Oggi sappiamo che l'inverso di alpha non è esattamente 137 e soprattutto che questo valore non ha alcuna connotazione mistica. Nessuna di queste realtà sperimentali era nota nel 1928, quando Dirac prima elaborò la sua equazione per descrivere l'elettrone e poi ne ampliò il significato includendovi l'interazione tra un elettrone e un campo magnetico. 
Il fisico Wolfgang Pauli collaborò con lo psicologo svizzero Carl Gustav Jung in un infruttuoso tentativo di trovare il profondo significato del suo valore. Lo stesso Richard Feynman lo descrive come "uno dei più grandi tra i dannati misteri della fisica: un numero magico che ci arriva senza una possibilità di comprensione da parte dell'uomo"; aggiungendo che se "la mano di Dio" ha scritto quel numero, noi "non sappiamo come Egli abbia usato la matita". Questo sguardo alla "mano di Dio" ha stuzzicato i fisici e i mistici per ottant'anni. Di recente abbiamo scoperto però dove potremmo trovare una spiegazione, una risposta finale ad uno dei grandi misteri nel campo della fisica: forse nei futuri esperimenti con il Large Hadron Collider (LHC) al CERN di Ginevra (dove l'energia in gioco per le collisioni tra particelle ha già raggiunto, poche settimane fa, i 14 TeV).

Bibliografia:

- L'enigma dell'infinito, di Frank Close, Einaudi, Torino, 2013. 

mercoledì 1 luglio 2015

Le oche di Bletchley Park e la Macchina Enigma: l'importanza della ridondanza, nella Teoria dell'Informazione.

------------------------------
Nel febbraio 1918, l'inventore tedesco Arthur Scherbius brevettò una macchina per cifrare "inviolabile", che si sarebbe guadagnata ben presto una reputazione infame in tutto il mondo: Enigma. Questa macchina criptava i messaggi servendosi di un metodo ingegnoso. Era così complesso che la maggior parte dei matematici e dei crittografi dell'epoca pensavano che non valesse neanche la pena cercare di risolverlo. La macchina di Scherbius assomigliava più o meno ad una macchina da scrivere super-accessoriata. Premendo un tasto, però, non si sarebbe ottenuto un segno su un pezzo di carta, ma si sarebbe accesa una lampadina sulla macchina. Premendo il tasto della lettera "A", per esempio, si sarebbe accesa la lampadina corrispondente alla lettera "F". Premendo nuovamente la "A", però, si sarebbe accesa la "S", la "O" o la "P". Ciò accadeva perché il cuore della macchina di Scherbius era costituito da una serie di rotori meccanici. Ogni volta che si schiacciava una lettera, i rotori si mettevano in movimento, e avanzavano di uno scatto. Al cambio di posizione dei rotori corrispondeva una variazione della cifratura. Ogni volta che si digitava una lettera, quest'ultima veniva codificata in maniera diversa. Era come se la macchina Enigma cambiasse cifratura ogni volta che veniva premuto un tasto.
La maggior parte dei modelli di Enigma usava tre rotori (qualche modello ne aveva quattro), ognuno dei quali ritornava all'orientazione originale dopo 26 scatti. I rotori, ognuno dei quali era sistemato in una delle tre (o quattro, a dipendenza del modello) guide disponibili, potevano essere configurati in molti modi diversi. C'erano anche fili, connettori e altri elementi che potevano essere modificati. In tutto, una macchina Enigma standard a tre rotori poteva essere configurata in più di trecento milioni di milioni di Googol (1 Googol = 10^100) di modi diversi. Se vi arrivasse un messaggio cifrato da Enigma, dovreste indovinare in quale delle 3 x 10^114 configurazioni si trovava la macchina dell'addetto alla codifica, quando quest'ultimo ha cominciato a comporre il messaggio. La forza bruta è fuori discussione; non c'è modo di provare tutte le 3 x 10^114 configurazioni a mano. Se ogni atomo dell'Universo fosse una Macchina Enigma, e ognuno di essi stesse provando un milione di miliardi di combinazioni al secondo dall'inizio dell'Universo fino ad ora, il numero di configurazioni analizzate sarebbe appena l'uno per cento di tutte quelle possibili! Dunque, non c'è da stupirsi se Enigma aveva la fama di essere inviolabile. Fortunatamente però, per la civiltà occidentale, non lo era. 
Uno dei segreti meglio conservati della guerra fu un gruppetto di decifratori in una tenuta vittoriana: Bletchley Park, nel Buckinghamshire, nel Regno Unito. In seguito, Winston Churchill avrebbe definito i suoi membri: "le oche che facevano le uova d'oro, ma che non starnazzavano mai"; e Alan Turing era l'oca più famosa di tutte. Partendo dal lavoro svolto da alcuni matematici polacchi, Turing e i suoi colleghi di Bletchley Park, sfruttarono la ridondanza dei messaggi codificati da Enigma per estrarre l'informazione nascosta. Alcuni difetti presenti nel sistema di cifratura di Enigma inserivano una certa ridondanza nei messaggi codificati, contribuendo ad indebolire il codice. Alcuni di questi difetti erano dovuti alla struttura di Enigma (ad esempio, la Macchina Enigma non lasciava mai inalterata una lettera: una "E" criptata avrebbe potuto essere qualsiasi lettera tranne che una "E"; e questo forniva un'informazione, per quanto minima, sulla natura del messaggio). Altri difetti erano legati al metodo di comunicazione dei tedeschi (i decifratori di Bletchley Park riuscirono a sfruttare la prevedibilità dei bollettini meteo criptati per trovare il codice che li mascherava. Anche questa, come la prevedibilità del linguaggio, era una forma di ridondanza). Tutti insieme, questi difetti permisero  a Turing e ai suoi colleghi di decifrare i messaggi in codice di Enigma, mediante una serie di macchine calcolatrici primitive, costruite appositamente e note con il nome di "bombe" (vennero chiamate così a causa del ticchettio sinistro che producevano durante i calcoli). Alla fine, decrittare un messaggio di Enigma diventò per Turing e per le altre oche di Bletchley Park una questione di poche ore (nulla a che vedere con i miliardi di miliardi di anni che sarebbero stati necessari per analizzare in maniera ottusa il sistema di cifratura di Enigma). Il sistema infatti, lasciava trapelare l'informazione e i decifratori di Bletchley Park riuscirono a leggerla nonostante Enigma l'avesse nascosta.
La comprensione di Enigma dette una svolta decisiva alla guerra nell'Atlantico. Nelle prime fasi della Seconda Guerra Mondiale, la flotta degli U-Boot tedeschi era sul punto di strangolare il sistema di difesa delle isole britanniche. Il primo ministro Winston Churchill scrisse in seguito: "la sola cosa che mi spaventò veramente durante la guerra, fu il pericolo rappresentato dagli U-Boot". Nella seconda metà del 1940, l' "era felice" della Marina nazista, gli U-Boot dell'Atlantico colarono a picco navi e merci per mezzo milione di tonnellate al mese, riuscendo quasi a mettere in ginocchio la Gran Bretagna. Ma i decifratori di Enigma fecero cambiare le cose. Dal momento che le comunicazioni degli U-Boot erano codificate con la versione navale di Enigma, gli uomini di Bletchley Park aiutarono le forze anti-sommergibili britanniche a dare la caccia a quegli U-Boot che avevano causato tanti danni alla loro nazione, contribuendo così alla vittoria finale. 
La crittoanalisi di Enigma fu l'ultimo grande sforzo di decifrazione compiuto prima che gli scienziati imparassero a definire l'informazione, a maneggiarla e ad analizzarla. Senza rendersene realmente conto, gli esperti di Bletchley Park stavano sfruttando la natura palpabile e irriducibile dell'informazione. Servendosi di ridondanze, algoritmi di calcolo e manipolazioni matematiche, erano penetrati nel codice e ne avevano estratto l'informazione che vi si celava. In un certo senso, la decodifica di Enigma fu la stella cometa che annunciava la nascita simultanea dell'informatica e della Teoria dell'Informazione (e le idee di Turing sarebbero state una parte importante di entrambe).

Bibliografia:

- "La scoperta dell'Universo. I misteri del cosmo alla luce della teoria dell'informazione", di Charles Seife, Bollati & Boringhieri, Torino, 2011.


Sottovalutare le leggi del ...caso.

-------------------------------
La seguente storia è stata raccontata da Carl Sagan, nel libro: "Il mondo infestato dai demoni".
Enrico Fermi, giunto negli Stati Uniti, fu presentato ai vertici dell'esercito americano. Qualcuno gli riferì che un certo personaggio era un grande generale ed egli volle sapere quale fosse la definizione di grande generale. Si trattava, risposero, di un generale che aveva vinto molte battaglie consecutive. Fermi non si accontentò del generico "molte" e volle conoscere "quante" battaglie consecutive era necessario vincere per guadagnarsi il titolo di grande generale. L'interlocutore, dichiarò che la vittoria di cinque battaglie consecutive ne rappresentava la condizione. Fermi chiese allora quanti generali americani potevano considerarsi "grandi": seppe così che si trattava di una piccola frazione. Diciamo il due o il tre per cento. Ebbene, osservò allora Fermi, ammettiamo per un attimo che la vittoria in una battaglia dipenda esclusivamente dal caso e non dall'abilità del generale. La probabilità di vincere una battaglia sarebbe, in tal caso, pari a 1/2; quella di vincerne cinque consecutive sarebbe allora uguale a (1/2)^5, vale a dire al tre per cento. Dobbiamo aspettarci, dunque, che un certo numero di ufficiali americani abbia vinto cinque battaglie consecutive per puro caso. Davvero costoro sarebbero "grandi generali"? 
La storia che segue si deve a Morris De Groot e affronta la questione con la limpida chiarezza, tipica dei racconti esemplificativi. Supponete che un sedicente esperto di finanza, desideroso di farsi strada, vi scriva una lettera in cui afferma di poter prevedere l'andamento della borsa. Piuttosto critici, pensate immediatamente che, se avesse realmente questo talento, se ne servirebbe egli stesso senza sentire la necessità di informarne il prossimo. Ammettiamo invece che subiate il fascino del mistero (o che siate semplicemente avidi) e decidiate di dargli retta. Nella lettera, recapitatavi il lunedì mattina, il nostro personaggio prevede che un certo titolo azionario il lunedì successivo aumenterà di valore. Non vi chiede nulla se non di verificare la correttezza della sua previsione. Supponete, ora, che effettivamente quel titolo azionario il lunedì successivo aumenti la quotazione. Immaginate anche che vi arrivi una seconda lettera, dove il nostro amico dichiara che lo stesso titolo il lunedì successivo subirà un calo ed effettivamente questo accada. Facciamo l'ipotesi che questa storia proceda per sette settimane consecutive: immaginate, intendo dire, che il nostro esperto di finanza vi invii gratuitamente per sette volte previsioni sull'andamento di un dato titolo azionario e queste previsioni si rivelino, a posteriori, tutte esatte. Quando vi invierà ancora una lettera, chiedendovi molto denaro per comunicarvi la sua ottava previsione, cosa farete? Vi sconsiglierei vivamente di dargli retta, nonostante le apparenze. 
Valutiamo la probabilità che sette previsioni in sequenza siano corrette per puro caso. Si tratta di un conto molto semplice. Se le previsioni venissero formulate con il lancio di una moneta, la probabilità di indovinare una singola previsione sarebbe uguale a 1/2; in quell'ipotesi infatti si indovinerebbe in media una volta ogni due. La probabilità di indovinare, per caso, per sette volte consecutive l'andamento del titolo azionario è uguale al prodotto delle probabilità delle singole previsioni: vale a dire, un (1/2)^7 = 0,008. Siccome questa probabilità è estremamente piccola e voi avete assistito proprio a una sequenza di sette previsioni corrette, potreste erroneamente concludere che il vostro esperto non si affida affatto al caso ma possiede un potere che gli consente di prevedere il futuro. A differenza dei "grandi generali" di Fermi, forse egli è proprio un "grande indovino". La sensazione, però, è che ci sia sotto qualcosa che non va: e il trucco è estremamente semplice. Il nostro presunto esperto ha ottenuto il risultato, all'apparenza sorprendente, di prevedere il futuro, utilizzando un'idea nota a chiunque abbia un'infarinatura di statistica. Una disciplina da non sottovalutare. La scienza ci insegna inoltre che non sempre, di fronte a uno strano fenomeno, noi disponiamo di tutte le informazioni necessarie per poterlo valutare correttamente.
Ragioniamo: l'esperto ha inviato, in quel famoso lunedì, ben 128 lettere simili a quella ricevuta da voi, eccetto un piccolo e importante particolare. In metà di quelle lettere infatti (64), la previsione relativa al titolo azionario era esattamente opposta a quella indicata nella vostra e nelle 63 rimanenti. A questo punto egli ha aspettato il lunedì successivo. Appena ha appreso come si era comportato il titolo azionario, egli ha abbandonato tutti i potenziali clienti a cui aveva inviato una previsione sbagliata e si è concentrato sui 64 che hanno ricevuto quella corretta. Il nuovo gruppo viene a questo punto suddiviso in due gruppi di 32 individui a cui inviare la seconda previsione; la quale, naturalmente, sarà ancora tale da coprire tutte le possibilità. Per metà il titolo aumenterà il suo valore, per l'altra metà lo diminuirà o resterà invariato. Procedendo in tal modo, per bisezioni successive, e scartando tutti i soggetti ai quali ha inviato previsioni sbagliate, egli otterrà il risultato desiderato con una persona (voi, diciamo). Se questa persona sarà disposta a pagare per conoscere l'andamento di quel titolo per l'ottava volta (e se verrà informata della crescita del valore di quel titolo), presumo che investirà del denaro sullo stesso con uguale probabilità di perdere o guadagnare. L'unico risultato sicuro è un guadagno per l'esperto imbroglione

Bibliografia:

- Sfere di cristallo, riflessioni su caso e predizione, di Maurizio Dapor, Ed. La Stampa, Torino, 1999.