In questi ultimi anni, sono stati fatti degli importanti progressi in merito alla manipolazione di luce e materia, o meglio in merito alla manipolazione relativa alla loro reciproca interazione. A fornire dei ricchi e validi sistemi di analisi in tale campo, sono stati i lasers a risonanza e le loro interazioni con delle dense e fredde nubi atomiche. Tali “campi di luce” (lasers a risonanza), interagiscono fortemente con gli elettroni interni degli atomi, e si accoppiano direttamente con i movimenti esterni degli atomi attraverso delle quantità di moto di “rimbalzo” ,trasmesse nel momento in cui i fotoni vengono assorbiti ed emessi. La propagazione della luce ultra-lenta nei condensati di Bose-Einstein, rappresenta un esempio estremo di manipolazione della “risonanza luminosa” (risonanza della luce), con l’impiego di atomi freddi. Negli esperimenti compiuti ad Harvard dalla Dr.ssa Lene Hau e colleghi (Naomi S.Ginsberg, Sean R.Garner), si è dimostrato che un impulso lento di luce può essere fermato e “immagazzinato” in un condensato di Bose-Einstein (in sigla: BEC), per poi venire nuovamente “ravvivato” da un altro condensato completamente differente, posto a 160 micrometri di distanza.L’informazione viene trasferita attraverso la conversione dell’impulso ottico, in un’ ”onda viaggiante di materia”. I risultati ai quali sono giunti la Hau e colleghi,forniscono quindi una stupenda dimostrazione, sull’interazione che sussiste tra informazione ottica coerente, e i processi dinamici definiti dalle “onde di materia”.
Articolo:
http://pesanervi.diodati.org/pn/?a=330
Fausto Intilla
www.oloscience.com
Notizie e curiosità in ambito scientifico. Un blog di Fausto Intilla (teorico, aforista, inventore e divulgatore scientifico). Official Website: www.oloscience.com
mercoledì 15 agosto 2007
Il Computer Quantistico
Pro e contro dei futuri computer quantistici.
Articolo:
http://pesanervi.diodati.org/pn/?a=332
Fausto Intilla
www.oloscience.com
Sull'intelligenza artificiale ...questa sconosciuta.
--------------------------
"Molti sembrano certissimi che nessun calcolatore potrà mai essere senziente, cosciente, dotato di volontà propria, o in qualche altro modo “consapevole” di se stesso. Ma che cosa ci rende tutti così sicuri di possedere poi questa meravigliosa qualità? E’ vero che se c’è qualcosa di cui siamo sicuri, è proprio questo: “Io sono consapevole, dunque sono consapevole”. Ma cosa significano in realtà queste convinzioni? Se l’autoconsapevolezza significa sapere che cosa accade nella propria mente, nessun realista potrebbe sostenere a lungo che le persone abbiano molta intuizione, nel senso etimologico di “vedere dentro”. In effetti, le prove che noi siamo autoconsapevoli, cioè che possediamo qualche attitudine particolare a scoprire ciò che accade dentro di noi, sono davvero molto deboli".
Marvin Minsky
"L'opportunità di creare esseri intelligenti superiori agli esseri umani viene messa spesso in discussione,in quanto si dice che tali esseri non sarebbero dei servitori ma dei padroni.Noi riteniamo,al contrario,che sarebbe saggio dal punto di vista economico che i membri di specie evolutesi per via naturale costruissero dei robot intellettualmente molto superiori a se stessi. Ricordiamo che ogni ricchezza è in ultima istanza Informazione.Robot dall'intelligenza superiore aumenterebbero la quantità di Informazione a disposizione di una civiltà ben al di là di quanto potrebbero fare i soli sforzi dei creatori. La cooperazione tra robot superintelligenti e membri della specie che li ha creati, porterebbe ad un aumento della ricchezza disponibile per entrambi i gruppi, e la specie creatrice sarebbe più ricca con i robot che senza. Che la cooperazione tra due entità economiche A e B, con A superiore a B sotto tutti i punti di vista, comporti un miglioramento economico per entrambe, è una ben nota conseguenza della teoria del vantaggio relativo in economia.Noi esseri umani non dovremmo avere paura dei nostri discendenti robot più di quanto ne abbiamo di quelli fatti di carne e sangue, che un giorno l'evoluzione renderà diversi dall'Homo sapiens.Decisamente non sarebbe saggio attaccare o tentare di ridurre in schiavitù i robot intelligenti nostri discendenti. Non dimentichiamo che nel racconto originale Frankestein era inizialmente un essere gentile e generoso,diventato malvagio solo per lo spietato trattamento ricevuto dagli uomini". (John D.Barrow & Frank J.Tipler - Il Principio Antropico; pag.587)
...io aggiungo semplicemente questo: Tutto vero, purché le cose vadano sempre per il verso giusto.
Le ricerche più recenti (nonché le rispettive applicazioni) nel campo dell' intelligenza artificiale, atte alla realizzazione di robot umanoidi, implicano anche un miglioramento tecnologico in grado di fornire a queste "macchine" (un domani), una sorta di intelligenza emotiva sulla cui base possa svilupparsi ciò che comunemente chiamiamo: autocoscienza.Il discorso comunque qui si farebbe assai lungo e complicato; occorrerebbe innanzi tutto prendere in considerazione i lavori di Damasio (Emozione e Coscienza),Putnam (Mente,Linguaggio e Realtà) e Dennett (L'Io della Mente),per citare i più importanti, e ricercare in seguito tutte le analogie che correlano tali teorie (lavori), per poi ricercarne delle altre (...ancora più implicite e complesse) in relazione ai concetti teorici e applicativi, legati allo studio dell' I.A.
Paradossalmente comunque,in base ai parametri più "deterministici" della teoria dell' "Oggettività Forte", il fenomeno dell'autoconsapevolezza non esiste (in quanto il nostro Ego viene considerato come una sorta di entità fittizia); tutto è quindi definibile in termini di "complessità auto-organizzantesi".Non è comunque possibile intraprendere nessun tipo di studio o ricerca sull'intelligenza umana o artificiale, sulla base del modello deterministico (La Place - Poincarè,per intenderci) della Realtà.
Riporto qui di seguito un'interessante risposta a tutti coloro che probabilmente si saranno chiesti "a cosa possa servire" un robot umanoide dotato di un'intelligenza emotiva e quindi di una sorta di "sentimento artificiale":
A mio avviso, è possibile definire il concetto di "sentimento" come una sorta di input alla cooperazione, il cui fine ultimo è quello di migliorare la qualità dell'Informazione onde poter raggiungere livelli sempre più alti di evoluzione (R.Dawkins - "Il gene egoista").Nel caso specifico della specie umana quindi, tale fenomeno ("sentimento") porta a dei rapporti di coppia (uomo-donna) stabili i cui frutti (prole) saranno in grado di garantire una certa continuità della specie (grazie all'aumento della variabilità genetica con conseguente "rafforzamento" del pool genetico),e quindi in ultima analisi un miglioramento (in gruppi circoscritti ma comunque sufficienti per compiere determinati "salti" a livello evolutivo - S.J.Gould;"Teoria dell'equilibrio punteggiato") della qualità dell'Informazione (che come abbiamo precedentemente visto,rappresenta la nostra reale "ricchezza").
Amore ed Amicizia quindi, giocano un ruolo importantissimo nel processo evolutivo di una specie. Se un giorno i nostri cari androidi diverranno sufficientemente evoluti da poter addirittura auto-riprodursi, possiamo facilmente intuire che non esiteranno un solo istante ...a mettere in pratica tale opportunità.
Fausto Intilla
Simmetrie olografiche
A volte ciò che non ci è dato di concepire,è il risultato di un’interazione tra mondi consimili,ma sfortunatamente posti in modelli di spazio differenti. Credete voi forse che il tre-barre di Oscar Reutersvärd sia un oggetto impossibile da concepire per un individuo che si ritrovi a vivere in un modello di spazio iperbolico? (Provate a giocherellare con un suo modello in gommapiuma).La mente umana sarebbe in grado di concepire anche l’impossibile, se solo potesse uscire da determinati modelli (o strati) di spazio olografico entro i quali si trova costantemente intrappolata.La quantità immensa di informazione che costituisce la mente di un essere umano (di media età, intelligenza e cultura), è strettamente vincolata,nel modo di muoversi attraverso altre strutture olografiche della realtà ad essa circostante,da determinati schemi biofisici che hanno avuto modo di concretizzarsi e quindi di assumere un aspetto ben definito e più o meno costante nel tempo (mi riferisco ovviamente al fenomeno dell’autopoiesi e alle rispettive analogie con quello dei sistemi dissipativi di Prigogine),durante il susseguirsi di milioni di anni di evoluzione.Tali vincoli,tra la mente umana e le sue potenziali capacità migratorie attraverso altri strati olografici, si fanno comunque via via sempre più deboli e inconsistenti man mano che il grado di elaborazione analogica del pensiero umano assume valori più alti,a scapito della vecchia impronta mnemonica di stampo binario. Il giorno in cui a gran parte dell’umanità sarà concesso di accedere alle meraviglie della psicocinesi e della chiaroveggenza non è indubbiamente assai vicino,ma neppure molto lontano.L’evolversi del sistema mente-corpo-realtà ad esso circostante,è il risultato di una costante interazione tra questi tre elementi (integrati nell’olomovimento di Bohm),paragonabile a quella che definisce i fenomeni non lineari della dinamica classica e a quella che definisce i fenomeni non-locali della meccanica quantistica.Questo continuum evolutivo di tale modello olografico della realtà potrebbe tuttavia,in un futuro assai lontano,entrare in risonanza con altri modelli di stato olografico in cui ogni entità fisica (sia essa animata o inanimata)si presenterebbe,grazie ad una perfetta sintonia di frequenza (vibrazione) tra le parti interagenti del sistema, scevra da ogni vincolo inerente alla sua natura,in quanto a massa,densità,moto e posizione e da ogni vincolo inerente alla natura dell’ambiente ad essa circostante (attrazione gravitazionale,pressione atmosferica, ecc …) . Solo accettando questa premessa,possiamo immaginare un futuro in cui l’uomo sia in grado di spostare gli oggetti a distanza con la sola forza del pensiero o di visualizzare determinati eventi ancor prima che si verifichino.Ogni entità biologica altamente pensante(mi riferisco soprattutto al genere umano poichè,parafrasando Leibniz,non potremmo di certo includere le monadi nell’insieme delle entità biologiche altamente pensanti) di questo pianeta,la si può immaginare come un immenso accumulo di informazione (o bytes di memoria)super-organizzata,dinamica e in continuo evolversi, un’informazione che si rinnova costantemente e talvolta accresce entro determinati limiti;supporre quindi che possa innescarsi in un futuro assai lontano una sorta di interazione o risonanza energetica tra i vari stati olografici che compongono il nostro Universo, dando così luogo a dei fenomeni che trascendono ogni principio di ordine fisico tra le diverse forze elementari della natura (materializzazione degli oggetti con la sola forza del pensiero,psicocinesi,ecc…),non sarebbe a questo punto (a mio avviso)troppo azzardato.Tutti gli eventi fisici che rientrano nella categoria dei cosiddetti fenomeni paranormali,poichè sostanzialmente indefinibili e quindi inconcepibili da un punto di vista che rispecchi i canoni della fisica ortodossa, abbracciando l’ipotesi di un Universo olografico trovano immediatamente una spiegazione logica (difficile da capire e di non facile intuizione;a tal proposito vi consiglio vivamente la lettura del libro: The olographic Universe,di Michael Talbot,1991). È risaputo ormai da tempo immemorabile,che l’energia di un sistema dato si conserva sempre (nulla si crea e nulla si distrugge,tutto si trasforma),e ciò sta alla base del primo principio della termodinamica.Non tutte le forme di energia comunque sono in grado di auto-organizzarsi,ovviamente mi riferisco al calore e ad altre forme di energia dispersiva.La domanda da un milione che vi pongo quindi a questo punto è la seguente:se l’informazione rappresenta in definitiva il costituente fondamentale dell’energia,può essa stessa auto-organizzarsi attraverso strutture caotiche e dispersive di energia? Bè, accettando l’assunto che tutti i fenomeni di natura paranormale siano effettivamente del tutto reali per il soggetto che li percepisce, sembrerebbe proprio di sì.
“Noi non siamo esseri umani che vivono un’esperienza spirituale.
Noi siamo esseri spirituali che vivono un’esperienza umana.“
Pierre Teilhard de Chardin
È l’informazione che crea le configurazioni energetiche ordinate e dinamiche (o strutture dissipative) „entro“(con) le quali sceglie di „vivere“;essa comunque potrebbe „sopravvivere“ benissimo anche attraverso… ma forse sarebbe meglio dire …con le sembianze del caos energetico,senza dover necessariamente creare delle strutture ordinate.Quindi quale potrà mai essere il „motivo“ che spinge l’informazione a creare determinate strutture energetiche? Bè,una risposta a questa domanda impossibile potrebbe essere la seguente: ogni tanto anche l’Universo,ossia Dio,pensa;e tutto ciò che ha forma e struttura quindi,non rappresenta nient’altro che una parte dei suoi ricordi. Incancellabili sino al giorno della sua morte (morte termica dell’Universo)? E se essi continuassero ad esistere in eterno assumendo altre forme e caratteristiche fisiche,una volta raggiunto il Punto Omega?Come sarà il prossimo Universo, anch’esso costituito da luce,stelle,pianeti e Buchi Neri, oppure soltanto da luce?Dio rinascerà sano o menomato?Su queste e tante altre domande appartenenti alla categoria dei processi psichici OTW (Out of This World) si potrebbe speculare all’infinito”.
„(…)tutte le entità presenti nell’Universo attuale,codificano una quantità di informazione di gran lunga inferiore alla quantità permessa dalla teoria quantistica dei campi. Per esempio,se un atomo di idrogeno dovesse codificare tutta l’informazione che gli è consentita dal limite di Bekenstein,potrebbe codificare circa 4 x 10^6 bit di informazione (…)Quindi un atomo di idrogeno potrebbe codificare all’incirca un megabyte di informazione,mentre di norma codifica molto meno di un bit.La massa dell’idrogeno non viene di certo utilizzata in modo efficiente!Se si assume che il raggio sia quello di un protone (R= 10^-13 cm),la quantità di informazione codificabile nel protone è costituita da soli 44 bit!Questo valore è davvero piccolo rispetto alla complessità del protone - tre quark valenza,innumerevoli quark e gluoni virtuali- che è di fatto tanto complesso che non siamo ancora riusciti a calcolarne lo stato di base dai principi fondamentali utilizzando il Modello Standard, anche utilizzando i supercomputer più avanzati!“ (Frank J. Tipler,fisico)
Fausto Intilla
(Inventore-divulgatore scientifico)
www.oloscience.com
“Noi non siamo esseri umani che vivono un’esperienza spirituale.
Noi siamo esseri spirituali che vivono un’esperienza umana.“
Pierre Teilhard de Chardin
È l’informazione che crea le configurazioni energetiche ordinate e dinamiche (o strutture dissipative) „entro“(con) le quali sceglie di „vivere“;essa comunque potrebbe „sopravvivere“ benissimo anche attraverso… ma forse sarebbe meglio dire …con le sembianze del caos energetico,senza dover necessariamente creare delle strutture ordinate.Quindi quale potrà mai essere il „motivo“ che spinge l’informazione a creare determinate strutture energetiche? Bè,una risposta a questa domanda impossibile potrebbe essere la seguente: ogni tanto anche l’Universo,ossia Dio,pensa;e tutto ciò che ha forma e struttura quindi,non rappresenta nient’altro che una parte dei suoi ricordi. Incancellabili sino al giorno della sua morte (morte termica dell’Universo)? E se essi continuassero ad esistere in eterno assumendo altre forme e caratteristiche fisiche,una volta raggiunto il Punto Omega?Come sarà il prossimo Universo, anch’esso costituito da luce,stelle,pianeti e Buchi Neri, oppure soltanto da luce?Dio rinascerà sano o menomato?Su queste e tante altre domande appartenenti alla categoria dei processi psichici OTW (Out of This World) si potrebbe speculare all’infinito”.
„(…)tutte le entità presenti nell’Universo attuale,codificano una quantità di informazione di gran lunga inferiore alla quantità permessa dalla teoria quantistica dei campi. Per esempio,se un atomo di idrogeno dovesse codificare tutta l’informazione che gli è consentita dal limite di Bekenstein,potrebbe codificare circa 4 x 10^6 bit di informazione (…)Quindi un atomo di idrogeno potrebbe codificare all’incirca un megabyte di informazione,mentre di norma codifica molto meno di un bit.La massa dell’idrogeno non viene di certo utilizzata in modo efficiente!Se si assume che il raggio sia quello di un protone (R= 10^-13 cm),la quantità di informazione codificabile nel protone è costituita da soli 44 bit!Questo valore è davvero piccolo rispetto alla complessità del protone - tre quark valenza,innumerevoli quark e gluoni virtuali- che è di fatto tanto complesso che non siamo ancora riusciti a calcolarne lo stato di base dai principi fondamentali utilizzando il Modello Standard, anche utilizzando i supercomputer più avanzati!“ (Frank J. Tipler,fisico)
Fausto Intilla
(Inventore-divulgatore scientifico)
www.oloscience.com
Large Hadron Collider (LHC): Mini Buchi Neri al CERN di Ginevra
TRA HAWKING E PENROSE,CHI HA RAGIONE?:
Basandoci unicamente sulle previsioni di Hawking,in teoria non dovremmo preoccuparci di nulla;in quanto tali mini-buchi neri si “auto-distruggerebbero” (per effetto della “radiazione di Hawking”), “evaporando” in circa 10^-42 secondi.Ciò che invece mi preoccupa,sono le considerazioni di Penrose sull’esistenza proibita dei buchi bianchi, a causa dell’ipostesi della curvatura di Weyl.Secondo Penrose: “(…) tale ipotesi [curvatura di Weyl] introduce nella discussione un’asimmetria rispetto al tempo che non fu presa in considerazione da Hawking.Si dovrebbe sottolineare che,poiché i buchi neri e le loro singolarità spaziotemporali hanno in effetti una parte importante nella discussione di ciò che accade all’interno della scatola di Hawking,è certamente in gioco la fisica ignota che deve governare il comportamento di tali singolarità. Hawking adotta il punto di vista che questa fisica ignota dovrebbe essere una teoria della gravità quantistica simmetrica rispetto al tempo,mentre io sostengo che essa è la GQC (gravità quantistica corretta […secondo Penrose] )”.Credo che il pensiero di Penrose si possa riassumere in questi termini:Siccome tutto il castello fisico-matematico costruito da Hawking attorno al concetto di "buco nero",implica anche l'esistenza dei cosiddetti "buchi bianchi",mettendo in discussione la possibile esistenza di questi ultimi, implicitamente metteremmo in discussione anche quella dei buchi neri; il chè farebbe crollare,su tale argomento, l'intero castello fisico-matematico di Hawking.In teoria quindi potrebbero anche esistere gli ormai famosi buchi neri,ma ciò comunque non implicherebbe che debbano forzatamente obbedire alle leggi di Hawking...e ciò ovviamente,dovrebbe preoccupare chiunque.Riflettendo sulle “obiezioni” di Penrose,credo che a tal proposito,sarebbe interessante uno studio della struttura interna di un Buco Nero non statico in teorie non-lineari della gravitazione. Una simile indagine sarebbe motivatadal fatto che modificazioni profonde della lagrangiana di Einstein-Hilbert intervengono vicino alla scala di Plank per generare contributi non lineari nello scalare di curvatura e nel tensore di Weyl. Occorrerebbe quindi eseguire una classificazione delle soluzioni stabili di tipo Buco Nero,con particolare riferimento alla struttura della singolarità presente nell’orizzonte di Cauchy.
Non ci resta quindi che attendere i risultati degli esperimenti che verrano eseguiti quest'anno al CERN…nella speranza che non accada l’irreparabile.
ALCUNE CONSIDERAZIONI "TECNICHE" SUL BOSONE DI HIGGS:
Si presume che se esso ha una massa compresa tra i 114 e i 185 GeV (scartando il range tra i 160 e i 170 GeV), lo si troverà di certo nel Large Hadron Collider (LHC) del CERN. Di fatto,una luminosità integrata di soli 10^4 picobarn inversi sarà sufficiente per trovare il bosone di Higgs;ciò significa che basterà una luminosità molto più modesta di quella prevista dai costruttori dell'LHC. I progetti inerenti all'LHC del CERN,mirano ad aumentare le energie di collisione fino a raggiungere la fascia dei Tera elettron Volt (10^12 eV),alla ricerca di prove della supersimmetria e dell'ormai "famigerato" bosone di Higgs (tutte componenti del modello standard della fisica delle particelle elementari). Secondo J.D.Barrow comunque,anche le energie che ci si aspetta di raggiungere all'LHC sono ancora al di sotto di un fattore di circa un milione di miliardi per raggiungere le energie necessarie per controllare sperimentalmente lo schema di una quadruplice unificazione, proposto da una "Teoria del Tutto".Sul sito ufficiale del "Progetto ATLAS" ( http://atlas.ch/ ),è possibile vedere un filmato realizzato dall'INFN in cui vengono spiegati (a grandi linee), gli obiettivi principali di tale progetto.Il filmato si trova a questo link: http://www.lnf.infn.it/media/video/atlas.html (la seconda metà del filmato è quella più interessante).
A mio avviso,se il bosone di Higgs non verrà identificato neppure nei prossimi esperimenti all'ATLAS (l'apparato all'interno dell'LHC del CERN),ciò non creerà alcun imbarazzo per i fisici che da diversi decenni ormai stanno cercando di rilevarlo.È vero che alcuni esperimenti compiuti nel corso dell'ultimo decennio, hanno cominciato a limitare notevolmente lo spazio parametrico per questa particella, ma finorà non è mai emerso nessun risultato significativo.A ben vedere,la teoria che descrive tale particella scalare con spin nullo (ovvero il bosone di Higgs),ad un livello assai profondo soffre di gravi problemi formali.Uno di questi (...forse il peggiore),è che le particelle scalari sono notoriamente sensibili alla nuova fisica che potrebbe subentrare a scale di energia molto alte (come quelle che verranno utilizzate nel progetto ATLAS,rimanendo nello specifico).Se le forze: forte,debole ed elettromagnetica sono unificate ad una certa scala-livello di energia,e il bosone di Higgs diventa parte di una struttura maggiore, diventa virtualmente impossibile mantenere "leggera" la particella scalare quando le particelle ad essa affini diventano "pesanti".Nel modello standard non è possibile preservare la gerarchia delle scale in alcun modo naturale.Tutto comunque si verrebbe a risolvere con l'introduzione,a tal punto,del concetto di supersimmetria. Ogni bosone e ogni fermione in una coppia supersimmetrica danno lo stesso contributo alla massa efficace del bosone di Higgs,ma il loro contributo è di segno opposto.In ultima analisi quindi,gli effetti di tutte le particelle virtuali (dei fermioni e dei bosoni),si annullano facendo sì che la massa del bosone di Higgs non risenta dell'influenza della fisica a scale di energia più alte.Rimane comunque a questo punto un problema di fondo:Se le particelle ordinarie vengono divise in massa dalle loro partner supersimmetriche,viene a mancare il meccanismo con cui le une e le altre si annullano nel calcolo degli effetti delle particelle virtuali sulla massa di Higgs.Senza addentrarmi in ulteriori dettagli tecnici,tirando le somme,è possibile giungere all'idea che la scala di energia a cui i partner supersimmetrici della materia ordinaria dovrebbero esistere,non può essere molto più alta della scala della rottura di simmetria dell'interazione debole.Con i futuri esperimenti al CERN,sarà quindi possibile stabilire una volta per sempre, la fondatezza o meno del modello supersimmetrico,ipotizzato già agli inizi degli anni '70.
Fausto Intilla
http://www.oloscience.com/
Basandoci unicamente sulle previsioni di Hawking,in teoria non dovremmo preoccuparci di nulla;in quanto tali mini-buchi neri si “auto-distruggerebbero” (per effetto della “radiazione di Hawking”), “evaporando” in circa 10^-42 secondi.Ciò che invece mi preoccupa,sono le considerazioni di Penrose sull’esistenza proibita dei buchi bianchi, a causa dell’ipostesi della curvatura di Weyl.Secondo Penrose: “(…) tale ipotesi [curvatura di Weyl] introduce nella discussione un’asimmetria rispetto al tempo che non fu presa in considerazione da Hawking.Si dovrebbe sottolineare che,poiché i buchi neri e le loro singolarità spaziotemporali hanno in effetti una parte importante nella discussione di ciò che accade all’interno della scatola di Hawking,è certamente in gioco la fisica ignota che deve governare il comportamento di tali singolarità. Hawking adotta il punto di vista che questa fisica ignota dovrebbe essere una teoria della gravità quantistica simmetrica rispetto al tempo,mentre io sostengo che essa è la GQC (gravità quantistica corretta […secondo Penrose] )”.Credo che il pensiero di Penrose si possa riassumere in questi termini:Siccome tutto il castello fisico-matematico costruito da Hawking attorno al concetto di "buco nero",implica anche l'esistenza dei cosiddetti "buchi bianchi",mettendo in discussione la possibile esistenza di questi ultimi, implicitamente metteremmo in discussione anche quella dei buchi neri; il chè farebbe crollare,su tale argomento, l'intero castello fisico-matematico di Hawking.In teoria quindi potrebbero anche esistere gli ormai famosi buchi neri,ma ciò comunque non implicherebbe che debbano forzatamente obbedire alle leggi di Hawking...e ciò ovviamente,dovrebbe preoccupare chiunque.Riflettendo sulle “obiezioni” di Penrose,credo che a tal proposito,sarebbe interessante uno studio della struttura interna di un Buco Nero non statico in teorie non-lineari della gravitazione. Una simile indagine sarebbe motivatadal fatto che modificazioni profonde della lagrangiana di Einstein-Hilbert intervengono vicino alla scala di Plank per generare contributi non lineari nello scalare di curvatura e nel tensore di Weyl. Occorrerebbe quindi eseguire una classificazione delle soluzioni stabili di tipo Buco Nero,con particolare riferimento alla struttura della singolarità presente nell’orizzonte di Cauchy.
Non ci resta quindi che attendere i risultati degli esperimenti che verrano eseguiti quest'anno al CERN…nella speranza che non accada l’irreparabile.
ALCUNE CONSIDERAZIONI "TECNICHE" SUL BOSONE DI HIGGS:
Si presume che se esso ha una massa compresa tra i 114 e i 185 GeV (scartando il range tra i 160 e i 170 GeV), lo si troverà di certo nel Large Hadron Collider (LHC) del CERN. Di fatto,una luminosità integrata di soli 10^4 picobarn inversi sarà sufficiente per trovare il bosone di Higgs;ciò significa che basterà una luminosità molto più modesta di quella prevista dai costruttori dell'LHC. I progetti inerenti all'LHC del CERN,mirano ad aumentare le energie di collisione fino a raggiungere la fascia dei Tera elettron Volt (10^12 eV),alla ricerca di prove della supersimmetria e dell'ormai "famigerato" bosone di Higgs (tutte componenti del modello standard della fisica delle particelle elementari). Secondo J.D.Barrow comunque,anche le energie che ci si aspetta di raggiungere all'LHC sono ancora al di sotto di un fattore di circa un milione di miliardi per raggiungere le energie necessarie per controllare sperimentalmente lo schema di una quadruplice unificazione, proposto da una "Teoria del Tutto".Sul sito ufficiale del "Progetto ATLAS" ( http://atlas.ch/ ),è possibile vedere un filmato realizzato dall'INFN in cui vengono spiegati (a grandi linee), gli obiettivi principali di tale progetto.Il filmato si trova a questo link: http://www.lnf.infn.it/media/video/atlas.html (la seconda metà del filmato è quella più interessante).
A mio avviso,se il bosone di Higgs non verrà identificato neppure nei prossimi esperimenti all'ATLAS (l'apparato all'interno dell'LHC del CERN),ciò non creerà alcun imbarazzo per i fisici che da diversi decenni ormai stanno cercando di rilevarlo.È vero che alcuni esperimenti compiuti nel corso dell'ultimo decennio, hanno cominciato a limitare notevolmente lo spazio parametrico per questa particella, ma finorà non è mai emerso nessun risultato significativo.A ben vedere,la teoria che descrive tale particella scalare con spin nullo (ovvero il bosone di Higgs),ad un livello assai profondo soffre di gravi problemi formali.Uno di questi (...forse il peggiore),è che le particelle scalari sono notoriamente sensibili alla nuova fisica che potrebbe subentrare a scale di energia molto alte (come quelle che verranno utilizzate nel progetto ATLAS,rimanendo nello specifico).Se le forze: forte,debole ed elettromagnetica sono unificate ad una certa scala-livello di energia,e il bosone di Higgs diventa parte di una struttura maggiore, diventa virtualmente impossibile mantenere "leggera" la particella scalare quando le particelle ad essa affini diventano "pesanti".Nel modello standard non è possibile preservare la gerarchia delle scale in alcun modo naturale.Tutto comunque si verrebbe a risolvere con l'introduzione,a tal punto,del concetto di supersimmetria. Ogni bosone e ogni fermione in una coppia supersimmetrica danno lo stesso contributo alla massa efficace del bosone di Higgs,ma il loro contributo è di segno opposto.In ultima analisi quindi,gli effetti di tutte le particelle virtuali (dei fermioni e dei bosoni),si annullano facendo sì che la massa del bosone di Higgs non risenta dell'influenza della fisica a scale di energia più alte.Rimane comunque a questo punto un problema di fondo:Se le particelle ordinarie vengono divise in massa dalle loro partner supersimmetriche,viene a mancare il meccanismo con cui le une e le altre si annullano nel calcolo degli effetti delle particelle virtuali sulla massa di Higgs.Senza addentrarmi in ulteriori dettagli tecnici,tirando le somme,è possibile giungere all'idea che la scala di energia a cui i partner supersimmetrici della materia ordinaria dovrebbero esistere,non può essere molto più alta della scala della rottura di simmetria dell'interazione debole.Con i futuri esperimenti al CERN,sarà quindi possibile stabilire una volta per sempre, la fondatezza o meno del modello supersimmetrico,ipotizzato già agli inizi degli anni '70.
Fausto Intilla
http://www.oloscience.com/
Iscriviti a:
Post (Atom)