Testo

🕘 |✉️ Contatti |🎓 Disclaimer |▶️ Mazara News YouTube |🎦 Ultimi Video |⚕️ Farmacie di Turno |

In Evidenza::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::

Oggi è un giorno speciale per Mazara, tutti insieme per ricordare GIUSEPPE BIANCO...

Hic sunt leones: La verità probabile

(Lunedì 18 Febbraio 2019)
La grande avventura intellettuale della Scienza permette all’uomo di osservare intervalli di tempo e di spazio che nessuno avrebbe saputo immaginare prima che nascesse la Scienza moderna; nel cuore di un protone vigono leggi fondamentali ancora più affascinanti di quelle cui abbiamo accesso e nessun filosofo, nessun poeta, nessun pensatore al di fuori della Scienza, aveva mai avuto abbastanza fantasia da immaginare questi orizzonti nuovi del pensiero dischiusi dalla Fisica subnucleare.

Queste frontiere fantastiche furono intuite da Enrico Fermi, il quale parlando ai suoi studenti e collaboratori della prestigiosa scuola di Chicago da lui fondata, proferì la significativa frase utilizzata come titolo di questo capitolo: Hic sunt leones. Effettivamente la Fisica subnucleare, esplorando l’Universo ai livelli più elementari, ha arricchito l’umanità con acquisizioni culturali che con altri tipi di approcci sarebbero rimasti per sempre irraggiungibili; basta soltanto considerare, a tal proposito la scoperta di mondi diversi ai differenti livelli di energia che ha condotto all’individuazione del supermondo e delle superparticelle, vera realtà primigenia ed essenziale della quale il nostro mondo quotidiano è soltanto un aspetto particolare dovuto alla rottura di determinate simmetrie.

Lo stesso concetto di particella elementare, ovvero la concezione particellare della materia, risalente ai filosofi atomisti della antica Grecia ha perduto il suo valore alla luce delle ultime ricerche che conducono ad una nuova concezione, secondo la quale quelli che una volta erano considerati granelli isolati di materia, sono da interpretarsi più propriamente come distribuzioni di probabilità, forme transitorie di processi dinamici. Studiando la materia in profondità, la Scienza ha scoperto che le particelle non sono i mattoni fondamentali dell’Universo, nel senso di Democrito o della Fisica prequantistica, ma soltanto probabilità di interconnessioni di eventi, ai quali, peraltro, non va attribuita alcuna direzione definita nel tempo, in quanto nello spazio-tempo multidimensionale, il passato, presente e futuro è dato in blocco, per cui le interconnessioni tra particelle possono essere interpretate in termini di causa ed effetto solo quando i diagrammi spazio-tempo sono letti in una determinata direzione.

Quando invece, più correttamente, vengono considerati come figure quadridimensionali prive di una direzione definita del tempo, non c’è un prima né un dopo e quindi nessuna relazione di causalità. L’entità fisica fondamentale è il campo quantistico, ovvero un mezzo continuo presente ovunque nello spazio, del quale le particelle sono solamente sue condensazioni locali, concentrazioni energetiche fluttuanti, prive di carattere individuale. Le forze sono interazioni di particelle mediate attraverso campi, per cui le interazioni avvengono attraverso lo scambio di particelle.

Nella Teoria dei Campi, tutte le interazioni sono rappresentate come scambio di particelle virtuali e tutte le interazioni tra i costituenti della materia avvengono mediante l’emissione e l’assorbimento di particelle virtuali (ovvero di particelle che non si possono rilevare direttamente, ma delle quali si possono determinare gli effetti). A livello atomico quindi, gli oggetti materiali solidi e concreti della Fisica classica, si dissolvono in distribuzioni di probabilità che non rappresentano probabilità di cose, ma come si è già detto, probabilità di interconnessioni. La realtà che emerge dalla Fisica post-classica, al livello fondamentale è quindi molto diversa da quella più familiare, alla quale siamo abituati; la lezione è chiara ed eloquente ed in parole povere ci insegna che, illuminando il mondo fenomenico con la luce della torcia della Scienza, vengono fuori realtà nuove e più profonde, alle quali dobbiamo la nostra esistenza fisica e quella di tutto l’universo conoscibile.

Se le cose stanno così come insegnatoci dalla Fisica quantistica e relativistica, l'uomo comune o tutti coloro che non si avvalgono della cultura scientifica, hanno una visione completamente distorta della realtà fenomenica ed incluso di se stessi. Continuare a parlare di particelle in senso classico, come i mattoni fondamentali costituenti il mondo o del principio di causalità, o del vuoto, o di tempo assoluto, significa condurre l’intelletto fuori strada, disinformare l’ascoltatore ed in sostanza, continuare ad operare nella mistificazione culturale .Mi domando, a questo punto, quanti docenti di discipline scientifiche rendono edotti i loro alunni di queste conquiste culturali (che poi non sono tanto nuove); ritengo che, prescindendo dalle Università, questi argomenti siano relegati ai margini pur di quei rudimenti di cultura scientifica usufruibili dagli studenti della scuola pubblica.

Le grandi conquiste del pensiero umano, elaborate nella fucina della Scienza, hanno completamente cambiato il vecchio modo di concepire l’Universo che ci circonda e l’universo fisico e mentale che è in noi. Ad esempio, recentemente, alcuni scienziati hanno identificato uno stato fisico chiamato: ”limite del caos”, per cui un sistema, quasi fosse dotato di una specie di libero arbitrio, adotta una vasta gamma di comportamenti complessi in modo del tutto imprevedibile, senza mai precipitare nel caos totale. Alcuni sostengono che l’evoluzione biologica e persino la coscienza della libertà propria degli esseri umani, sia da mettersi in relazione con fenomeni tipo il limite del caos. Per di più, com’è noto, un secolo di Scienza è stata dominata dal paradigma della seconda legge della Termodinamica, che prevede la tendenza dei sistemi fisici a degenerare nel caos.

Se lo studio della complessità riuscirà ad evidenziare l’esistenza di una naturale tendenza verso il progresso che si opponga alla seconda legge (ovviamente senza contraddirla), si ristabilirà la visione della Natura essenzialmente creativa ed ospitale e si ripristinerà l’immagine della Scienza come attività profondamente umanizzante che non può non condurre ad una visione ottimistica dell’esistenza umana, guidata dal lume della conoscenza scientifica.

La tremenda legge conosciuta come seconda legge della Termodinamica, predice una fine ingloriosa dell’Universo per l’aumento costante ed inesorabile dell’entropia, causa della morte termica del Cosmo. Diversi studiosi hanno cercato con le loro ricerche, di trovare una scappatoia, nel rispetto delle leggi fisiche, all’ineluttabilità del fato che condanna a morte l’Universo e con esso la vita e la coscienza, ma le soluzioni scientifiche al problema sono, per il momento, solo parziali e dubbie. Anzi, le osservazioni cosmologiche, in questi primi anni del secolo ventunesimo, porterebbero a pensare che l’Universo continuerà ad espandersi per sempre, anziché, come si riteneva un tempo, raggiungere una dimensione massima e poi cominciare a contrarsi.

Se alcune osservazioni cosmologiche sono esatte, l’espansione dell’Universo sta cominciando ad accelerare, segno che un nuovo e bizzarro tipo di energia, forse derivante dallo spazio stesso, sta salendo alla ribalta. Ricordiamo che, la Fisica contemporanea è in grado di descrivere solo processi avvenuti 10-43. secondi dopo il Big-Bang, un istante noto come: tempo di Planck. Se la densità di materia dell’Universo superasse il valore critico (corrispondente a circa 3 atomi di idrogeno per metro cubo di spazio), l’attrazione gravitazionale sarebbe in grado di fermare il processo di espansione e d’instaurare un processo di contrazione (Universo chiuso oppure oscillante). Viceversa se la densità media della materia fosse inferiore o uguale al valore critico, l’espansione dell’Universo continuerebbe indefinitamente (Universo aperto o piatto).

L’osservazione di un’accelerazione nel processo di espansione propenderebbe per un modello aperto ed in un simile Universo, che qualcuno ha chiamato il peggiore dei mondi possibili, la vita non può continuare per sempre ed anche la sua qualità è destinata a deteriorarsi. Mi sembra estremamente semplice e ragionevole mettere in relazione le due concezioni (Universo chiuso o oscillante ed Universo aperto), con la visione rispettivamente ottimistica e pessimistica dell’esistenza, tanto importante nelle lettere e nelle arti; orbene, per quanto già detto, mi sembra ovvio che questo non è un aspetto legato alla visione della vita di particolari artisti né trattasi di un aspetto trascendente o meramente filosofico della vita dell’uomo; è invece un problema scientifico passibile di soluzione con i metodi della Matematica e delle Scienze Naturali.

Il singolo autore potrà continuare ad essere ottimista o pessimista, ma ciò sarà una questione che interesserà soltanto lui; la vita, nel suo complesso, cioè la vita di tutti gli uomini e di tutti gli esseri dell’Universo avrà una prospettiva completamente diversa a seconda di ciò che le scoperte scientifiche indicheranno. A cosa servirebbe infatti immortalare i propri sentimenti in versi sublimi o scoprire i più reconditi misteri della Natura se poi si dissolverebbe nel nulla pur la traccia più minima di qualsiasi cosa esistente? Come indirizzare la nostra vita nella prospettiva di una morte totale dell’Universo che un giorno potrebbe porre la parola fine a questo tremendo dramma nato dal nulla? La Scienza può in merito rivelarci qualcosa di veramente essenziale, di portata universale, di maggior valore e di più profondo significato di tutta l’etica, l’estetica, la teologia e la poesia che tutti gli uomini di tutti i tempi possano mai concepire: le due frontiere della Fisica, quella che guarda all’esterno verso i confini dell’Universo e l’altra che analizza il microcosmo e studia i quark, convergono sull’inizio e la fine dell’Universo e ci stanno rivelando misteri così profondi ed essenziali da lasciare sbalordita l’umanità. Una prima considerazione, a tal proposito molto pertinente, è quella sull’esistenza della cosiddetta: materia oscura, cioè la scoperta che la maggior parte della materia dell’Universo è completamente diversa da quella di cui noi e tutte le cose che ci circondano, siamo formati. Noi siamo l’eccezione dell’Universo perché la maggior parte della materia esistente non è fatta di quark e leptoni e non forma astri, formiche o continenti.

Questa materia oscura potrebbe essere costituita da neutrini, dato che recentemente è stato dimostrato che possiedono una massa, così come pure da partner supersimmetrici. La materia oscura è prevista dall’estensione della Teoria Standard; i neutrini formano la materia oscura calda (perché molto mobile), mentre i superpartner con massa considerevolmente maggiore, costituiscono la materia oscura fredda. La materia oscura fu predetta da studi di supersimmetria all’inizio degli anni 80 del secolo XX, molto tempo prima che venisse scoperta come un chiaro risultato dell’osservazione astronomica.

La comprensione della materia oscura non barionica è uno tra i problemi scientifici centrali del nostro tempo e richiede necessariamente una combinazione di studi e ricerche da campi diversi, come Fisica delle particelle, Astrofisica e Cosmologia; per l’uomo comune, privo di conoscenze scientifiche, l’affermazione che soltanto il 10% della massa calcolata dell’universo è visibile, mentre il rimanente 90% non si sa dove sia e la sua presenza si deduce dagli effetti gravitazionali, è un’ennessima bizzarria degli scienziati, un’affermazione da non prendere troppo sul serio.

Sono però proprio tali affermazioni non percepibili con il cosiddetto senso comune né con l’esperienza quotidiana, né con il ragionamento astratto a costituire la peculiare centralità della Scienza nella vita intellettuale dell’uomo, unica chiave che ci permette l’accesso a questo ed ad altri mondi; senza la Scienza c’è solamente il ghetto o l’illusione. Questo non vuol dire che la conoscenza scientifica abbia scoperto tutto o possa svelare tutto, significa solamente che esclusivamente con la sua guida l’uomo può capire che non tutte le domande sono sensate e non tutte le domande sensate ammettono risposta.

Al di fuori della Scienza, nella metafisica, non vi sono problemi ma semplicemente ineguatezze del linguaggio e non vi sono soluzioni perché non vi sono problemi, in quanto questi ultimi stanno altrove, in altre aree di conoscenze. Il problema dell’origine dell’Universo, ad esempio,è stato dibattuto inutilmente dalla teologia naturale, la quale, durante millenni di speculazioni più o meno logiche, non ha saputo trarne un ragno dal buco; con i metodi della Scienza, anche se permangono tanti misteri ed incongruenze, si sono raggiunti traguardi essenziali il cui significato trascende i confini della conoscenza scientifica interessando tutti i campi del sapere; il concetto dell’espansione dell’Universo, la sua evoluzione e le sue prospettive future, l’origine e l’evoluzione della vita e della mente, l’informazione che sta alla base di tutto questo, per accennare soltanto ad alcune acquisizioni scientifiche, non sono miti e leggende, ma apoteosici trionfi dell’intelletto umano raggiunti attraverso l’analisi degli oggetti naturali e lo studio della logica matematica che permea quei principi sacrosanti del Cosmo che noi chiamiamo leggi naturali.

Vi sono quindi 3 tipi di spiegazioni a questo plurimillennario problema delle origini: una spiegazione mitologica, che costituisce il pensiero prefilosofico se non addirittura preconscio, una spiegazione filosofica, caratterizzata dal livello di discussione più alto ma ugualmente inconcludente nella sostanza, che per altro, ha gettato le basi per il suo stesso superamento ed una spiegazione scientifica, nella quale il pensiero non si accontenta di risposte informali ed imprecise, ma scopre la necessità di argomenti formalizzati e matematizzati.

Il problema quindi non è più teologico o filosofico ma fisico e scientifico, perciò dobbiamo chiedere alla Scienza e non alla letteratura cosa dobbiamo fare delle nostre vite e tutto quanto riguardi il bello, il brutto, il buono o il cattivo, cioè tutto quanto abbia attinenza con i valori essenziali per la vita umana. Ad esempio, il Teorema di Poincarè, porta con se l’implicazione che se l’entropia di un gas cresce fino ad un certo stadio, alla fine dovrà di nuovo diminuire in modo che il gas possa ritornare al suo stato iniziale; lo stato del gas subisce quindi delle recursioni e la lunghezza dei cicli di Poincarè è di circa 10N. secondi, dove N è il numero delle molecole. Boltzmann suggerì che forse l’intero Universo è soggetto a cicli di Poincarè di enorme durata e che l’attuale stato dell’Universo, relativamente ordinato, è il risultato di una diminuizione eccezionalmente rara di entropia. Quindi, la morte termica del Cosmo, secondo tale concezione, non sarebbe definitiva, ma, disponendo di tempi sufficientemente lunghi, la resurrezione sarebbe sempre possibile. Ad esempio, un mazzo di carte, continuando a mescolare a caso, offrirà via via necessariamente tutti gli stati di ordinamento.

Con le recursioni di Poincarè, il concetto di eterno ritorno entrò a far parte del dibattito scientifico e ciò ovviamente costituì un supporto per quelle religioni e quelle filosofie che vagheggiavano la vita eterna e la resurrezione dopo la morte. Da allora, ogni sforzo fu fatto per cercare di aggirare lo scoglio insormontabile della seconda legge della Termodinamica, che come abbiamo ribadito, condanna all’inferno della morte termica tutto il creato; questa legge introdusse nel mondo fisico la freccia del tempo, emblema di un processo discendente irreversibile. Noi misuriamo tutte le cose in unità; la costante di Newton, G; la costante di Planck, h e la velocità della luce,c, sono 3 quantità che possono essere combinate in vari modi a formare tutte le unità possibili; quindi, G, h e c ,ci danno le scale naturali dell’Universo. Per quanto riguarda il tempo, l’unità che ne risulta è 10-43 sec. (tempo di Planck), mentre per la distanza ne risulta la distanza di Planck, corrispondente a 10-35.cm. ( 10 elevato alla meno 35 cm) Infatti, Gh\c3. = 10-35.. cm, distanza alla quale dovrebbero essere formulate le leggi basilari della Natura.

Questi numeri, che ricaviamo da approcci diversi, sono sempre press’a poco gli stessi, per cui una teoria primaria come una ipotetica teoria del tutto, dovrebbe assumere la sua forma più semplice ad una scala di 10-33. cm. circa( 10 elevato alla meno 33) (scala di Planck). La distanza di Planck è la dimensione naturale dell’Universo; quello che si deve spiegare è perché dovrebbero esistere cose della grandezza umana, di 35 potenze del 10 maggiori.

I segreti più reconditi dell’esistenza vanno ricercati quindi nel cuore del protone e nella Fisica delle particelle elementari, la cui data di nascita come Scienza sperimentale risale al dicembre del 1910, quando Ernest Rutherford dimostrò sperimentalmente che gli atomi erano formati da un nucleo circondato da elettroni. Qualsiasi particella subnucleare può essere specificata da: massa; dalle tre cariche (elettrica, di colore e debole); da 3 etichette numeriche note come numero barionico, numero leptonico e numero di famiglia.

Ma prima di arrivare alla concezione di Rutherford, che come abbiamo visto dischiuse le porte alla Fisica delle particelle, dobbiamo accennare la storia essenziale del concetto di materia e di atomo che ritengo, di grande significato culturale, ovvero dobbiamo trattare dell’evoluzione del modello fisico dell’atomo.

Questo breve excursus storico ci evidenzierà un fatto fondamentale che vale la pena di considerare attentamente: più la ricerca scientifica è apparentemente lontana dalla realtà che ci circonda, più grandi saranno le conseguenze delle sue “ ricadute”, culturali e tecnologiche su tutta la società (molto significativo è l’esempio della scoperta dell’elettrone da parte di Joseph Thomson, che aprì le porte alla costruzione del tubo a raggi catodici, essenziale nella televisione).

La concezione aristotelica della materia, frutto di mere speculazioni filosofiche, ebbe una profonda influenza sul pensiero occidentale e condizionò negativamente, per più di un millennio, lo sviluppo delle conoscenze. Per Aristotele e la sua scuola, la materia era continua e priva di una struttura di base. Democrito, un secolo prima, aveva invece parlato di una struttura discontinua ed indivisibile, costituita da sfere minuscole dette atomi. L’autorità di Aristotele, come tutti sappiamo, ebbe la meglio su quella di Democrito e così la concezione profondamente erronea di Aristotele, divenne la teoria naturalistica dominante, accettata perfino dalla chiesa.

Ai tempi dei due filosofi, le osservazioni portavano alle ipotesi, ma la procedura finiva lì, in quanto essi non credevano agli esperimenti e restavano indifferenti ai loro risultati. L’accettabilità di un’ipotesi dipendeva esclusivamente dall’autorità o dall’autorevolezza del filosofo che l’aveva formulata, che, da buon filosofo, esclusivamente con il ragionamento astratto, faceva le sue asserzioni senza curarsi minimamente di verificarle al lume dei fatti. La Scienza moderna, con il metodo scientifico, c’insegna invece che non deve essere l’autorità personale a dettare legge nella conoscenza della Natura, ma un semplice e solido ragionamento accanto alla corretta sperimentazione. Non bisogna quindi prendere molto sul serio le idee degli antichi filosofi greci sulla natura della materia, in quanto l’impostazione seria del problema fu raggiunta quasi due millenni dopo da alcuni chimici e fisici europei. Dalton infatti, scoprendo sperimentalmente la legge della composizione costante che porta il suo nome, intuì che la spiegazione al fatto che in ogni composto la proporzione che esiste tra le masse dei singoli elementi è sempre costante, è da ricercarsi nella struttura della materia, che doveva essere formata, a livello submicroscopico, da sferule indivisibili, come palle di biliardo invisibili (modello di Dalton).

La scoperta degli elettroni nei tubi a raggi catodici, fatta da Joseph John Thomson e resa pubblica nel 1899, annullò di un solo colpo il concetto plurimillennario dell’indivisibilità dell’atomo; queste particelle, delle quali Thomson determinò la carica specifica, ossia il rapporto. e\m, erano chiaramente costituenti dell’atomo e come aveva dimostrato nel 1895 Perrin, possedevano carica elettrica negativa. Dopo la determinazione della carica specifica, Thomson determinò la massa di questi corpuscoli catodici, che risultò essere pari a: 9x10-31.... Kg. Circa 1840 volte più piccola dell’atomo di idrogeno. Il modello atomico di Dalton veniva superato quindi dal modello di Thomson, da alcuni chiamato il “panettone di Thomson”; infatti, questo illustre studioso, immaginò l’atomo di forma sferica, con un raggio di circa 10-10.m, la cui carica positiva era diffusa più o meno uniformemente entro la sfera.

Gli elettroni, in numero pari al numero atomico dell’elemento chimico caratterizzante l’atomo, erano disseminati nella materia positiva come l’uva in un panettone o come i semi di anguria nel suo frutto. Applicando le leggi della Meccanica classica al modello, Thomson ed i suoi allievi cercarono di ricavare attraverso complicati calcoli, le frequenze sperimentalmente osservate delle righe emesse dagli atomi eccitati; i risultati conseguiti furono in genere assai deludenti e ciò chiaramente costituì una debolezza del modello, premessa del suo superamento.

Si delinea con nitidezza, da quanto riferito, l’autocorrezione implicita nei metodi della Scienza, che fanno di questa attività profondamente umanizzante, l’approssimazione alla verità assoluta (inconoscibile nel mondo fisico) più probabile concessa all’umana conoscenza. Com’è fatto “veramente” l’atomo probabil-mente non lo sapremo mai, ma gradatamente le nostre conoscenze su tale mirabile oggetto si affinano sempre di più, permettendoci un approccio più soddisfacente alla conoscenza della realtà naturale.

La sostituzione di un modello scientifico con un altro più adeguato e più corrispondente ai bisogni ed alle esigenze culturali del momento costituisce il progresso della Scienza; niente di più diverso dalla prassi filosofica, generata dal pensiero autoritario e dall’ipse dixit del pensatore che non vuole confrontare il suo pensiero con quello di madre Natura. Non bisogna infatti dimenticare che, nell’avvicendarsi temporale delle spiegazioni scientifiche dei fenomeni naturali, una teoria superata non necessariamente è inservibile, soltanto spiega meno di quanto riesce a fare la concezione che ne è il suo superamento.

La teoria Copernicana, in Astronomia, può ancora spiegarci sufficientemente determinate osservazioni, ma la teoria newtoniana può spiegarci meglio e di più ed ancora più agevole e completa si è dimostrata la teoria della gravitazione di Einstein. Ritengo che non si è sprecato troppo inchiostro su questo particolare aspetto autocorrettivo della ricerca scientifica e se oggi molta gente non ha le idee chiare sulla dinamica del progresso scientifico e lo confonde con le elucubrazioni filosofiche di altri tempi, la colpa è senz’altro degli addetti ai lavori, che spesso hanno fatto, ottima Scienza ma pessima o nessuna divulgazione delle grandi idee della Scienza.

Tra il 1908 ed il 1911, Rutherford, rifacendosi agli studi di Perrin e Nagaoka che avevano intuito un modello planetario dell’atomo, intraprese alcuni studi sperimentali sulla diffusione (scattering) delle particelle ALFA da parte degli atomi. Tali particelle sono nuclei di elio, che vengono emessi spontaneamente da alcune sostanze radioattive, con una velocità di circa 107.m\sec, sicché possono attraversare sottili strati di materia. Sparando queste particelle contro un sottile foglio d’oro, Rutherford notò che alcune di queste venivano deviate ed altre tornavano indietro; a tal proposito l’insigne scienziato scrisse: ”era come sparare una palla da cannone contro un foglio di carta e vedersela tornare indietro”.

Da questi risultati sperimentali, lo studioso ne dedusse il modello planetario dell’atomo, con una carica positiva contenuta nel nucleo ed elettroni in movimento lungo orbite simili a quelli dei pianeti. Però un’osservazione non poteva essere spiegata dal modello di Rutherford, ovvero la luce che viene emessa da atomi che sono stati eccitati da scariche elettriche o che hanno ricevuto energia (è quello che avviene nelle insegne luminose, che non sono altro che tubi di vetro riempiti di gas neon). Per spiegare ciò, Bohr propose un’ipotesi, conosciuta anche come modello di Bohr, che asserisce l’esistenza nell’atomo, di un certo numero di orbite consentite agli elettroni.

Quando l’atomo riceve energia, può accettare soltanto l’energia esatta per far passare l’elettrone dall’orbita in cui si trova ad un’altra orbita di energia superiore. L’elettrone si sofferma un po’ in questo nuovo livello, dopodiché torna a quello iniziale; durante questo passaggio l’elettrone perde una certa quantità di energia che viene emessa sotto forma di luce. Ogni orbita è un livello energetico, ovvero le orbite sono quantizzate così come l’energia assorbita o emessa dall’atomo. Peccato che il modello di Bohr spiegasse soltanto la struttura dell’atomo di idrogeno, il più elementare degli atomi, per cui successivamente furono fatti dei tentativi per estendere tale ipotesi anche ad altri atomi.
Vennero fatte delle predizioni sui colori di luce che sarebbero stati emessi, ma con sorpresa, i colori previsti non vennero osservati, per cui l’ipotesi di Bohr venne sostituita da un’altra ipotesi, detta modello quanto-meccanico, che concede agli elettroni energie ben definite però in orbite non definite, a causa del principio d’indeterminazione di Heisenberg secondo cui non esiste alcuna possibilità di realizzare un metodo che riveli l’esatta posizione degli elettroni senza sacrificare parte della precisione con cui si può conoscere la loro velocità.

Il più recente modello dell’atomo è però il modello standard, che lo interpreta come costituito da 12 particelle fondamentali di materia: 6 tipi di quark e 6 leptoni. Infatti Kendall, Friedman e Taylor, sparando elettroni contro i protoni contenuti nei nuclei d’idrogeno, notarono che essi venivano spesso deviati bruscamente, come se avessero incontrato ostacoli piccoli ma robusti; questi ostacoli vennero chiamati quark ed in un protone (il barione più leggero e più stabile di tutti gli altri, al quale dobbiamo la mostra esistenza materiale e quella di tutte le cose che ci circondano), vi sono 2 quark up+1 quark down. Ma quando il fisico asserisce che il protone è costituito da quark, l’espressione non deve essere presa in senso letterale; non è possibile infatti rompere un protone e tirarne fuori i quark. Scagliando un protone contro un altro protone nelle macchine acceleratrici di particelle, non vediamo schizzar via i quark, ma solo altri adroni; tutto ciò che la Natura ci offre sono le combinazioni di quark, in cui i quark sono sempre legati l’uno all’altro e costituiscono perciò un livello di descrizione più fondamentale di quello del protone.

Le particelle subatomiche non sono affatto particelle nel senso che comunemente attribuiamo a questo termine, anzi non sono nemmeno “cose” né oggetti, si tratta solo di descrizioni matematiche di fenomeni dinamici in continuo divenire e solo in questo contesto matematico l'enunciato riduzionista: "è fatto di” ha un senso preciso. Da un punto di vista quantistico, un elettrone non è semplicemente un elettrone, in quanto è circondato da mutevoli configurazioni energetiche che permettono l’imprevedibile comparsa di fotoni, protoni, mesoni ed altri elettroni, come uno sciame di api fantasma ronzante intorno all’alveare (si tratta dell’espressione in termini quantistici di ciò che in passato si chiamava campo di forza).

Non è possibile prendere un elettrone separatamente dal suo corteggio di particelle fantasma; le forze sono prodotte dalle particelle che, a loro volta, producono le forze, tutto è fatto di tutto il resto, ecco delineato chiaramente nella Fisica Quantistica lo spiccato carattere olistico della Natura a livello submicroscopico. Le particelle non possono più essere immaginate come oggetti simili a quelli macroscopici, ma, in scala più piccola, la realtà ultima si dissolve nella sua descrizione matematica. Quindi, anche la Fisica si decostruisce, abbandonando la metafisica degli oggetti e riducendo la realtà alla sua descrizione formale: non c’è nulla al di là del testo della Natura, il quale, come già notava Galileo, è un testo di Matematica.

L’Universo è stato considerato da alcuni studiosi come un’equazione differenziale e le particelle sono soluzioni di questa equazione; conseguentemente, la Scienza è lo studio di questa equazione differenziale e la religione una condizione al contorno. La vera religione è la Matematica, il resto è superstizione; infatti l’esperienza matematica si sviluppa attraverso le stesse tappe del’esperienza mistica (concentrazione, meditazione e illuminazione) e ciò può adeguatamente fornire le basi per una religione completamente decostruita.

Il mondo submicroscopico, oggetto di analisi della Fisica quantistica, secondo Heisenberg è reale ed oggettivo, ma fluttua in una molteplicità eraclitea mentre il mondo macroscopico giace in una univocità parmenidea. Alcune interpretazioni della Meccanica Quantistica identificano il collasso della funzione d’onda che corrisponde al passaggio dalla molteplice potenzialità del microcosmo all’univoca attualità del macrocosmo, con un effetto della coscienza, che diviene così un vero e proprio meccanismo di determinazione della realtà. Il collasso della funzione d’onda di un sistema avviene soltanto nel momento in cui un osservatore esterno effettua una misurazione su di esso; ma, se il sistema è l’intero Universo, non ci può essere nessun osservatore esterno e non è dunque possibile che possa esserci un collasso reale, a meno di non fare intervenire un osservatore quantistico responsabile dell’incessante collasso della funzione d’onda universale.

Niels Bohr, considerò la teoria fisica non come una descrizione ontologica del mondo, ma come una descrizione epistemologica della nostra conoscenza di esso (interpretazione di Copenaghen) ed a proposito, scrisse: ”Le verità superficiali sono quelle la cui negazione è contraddittoria e le verità profonde quelle la cui negazione è ancora una verità”. Una delle conseguenze dell’interpretazione di Copenaghen era che si poteva ignorare l’ipotetica realtà esterna al di là degli esperimenti e si doveva considerare come esistente solo ciò che veniva misurato. Einstein invece sosteneva che, in teoria, fosse possibile considerare l’esistenza del mondo esterno indipen-dentemente dalle misurazioni; infatti, per mostrare quanto problematico sia mettere in dubbio il principio di realtà, egli domandò a Bohr se credesse veramente che di notte la luna non ci fosse quando nessuno la osservava.

La domanda era volutamente provocatoria, perché la luna è un oggetto macroscopico, mentre la teoria di Bohr si riferiva ad oggetti submicroscopici. Ma com’è possibile che corpi macroscopici reali siano costituiti da componenti microscopici irreali?. Alcuni pensano che si dovrebbe abbandonare il principio di realtà, o come David Bohm (1980) ha segnalato, la visione metafisica basata sull’essere di una divisa molteplicità, per passare all’alternativa del divenire di una indivisa totalità. Dal fluire della totalità si distaccherebbero le strutture momentanee che noi chiamiamo in certe condizioni oggetti ed in altri, pensieri; la materia e la mente sarebbero solo fugaci astrazioni dal flusso universale, per cui si passa dal frammentario e temporaneo “ordine esplicato”, all’unitario ed atemporale “ordine implicato” che regola il fluire globale.

Mentre l’ordine esplicato si apprende coscientemente, l’ordine implicato si conosce inconsciamente; da ciò se ne deduce che la coscienza ci rende vittime di un’illusione, facendoci concentrare sugli aspetti più superficiali e frammentari della realtà e distraendoci da quelli più profondi e unitari. Questa visione della realtà di Bohm ,non è altro che la formulazione scientifica del misticismo religioso che, scacciato dalla porta, a causa del prorompente sviluppo delle Scienze materialistiche del secolo diciottesimo e diciannovesimo, rientra dalla finestra lasciata socchiusa dalla Fisica post-classica. Infatti, la storia del XX secolo ha testimoniato un paradossale fenomeno di inversione: le discipline umanistiche hanno subito l’onda d’urto del materialismo delle Scienze Fisiche ottocentesche, diventando sempre più meccaniciste e riduzioniste.

La Fisica ha invece subito l’urto dell’onda quantistica, ritrovandosi non deterministica e dualista, come le discipline umanistiche dell’ottocento. Uno degli apporti più essenziali della Teoria Quantistica alla cultura universale è il concetto di complementarità, sintetizzato da Bohr nel seguente motto: ”Contraria sunt complementa”. Bohr considerò la complementarità come l’espressione di un livello più profondo di verità ed arrivò a scorgerla in ogni aspetto della realtà fisica e umana, come la contrapposizione tra osservatore ed osservato, tra soggetto ed oggetto, finalismo e meccanicismo, mente e cervello, Scienza ed arte, eccetera.. Nonostante i dati statistici mostrino chiaramente che la più alta percentuale di atei tra gli scienziati americani si trovi proprio tra i fisici, la Fisica moderna ha ormai da tempo abbandonato il materialismo ed oggi naviga in acque molto più idealiste di quelle di altre Scienze della Natura.

La prima manifestazione dell’interconnessione olistica nella Fisica Classica è l’esperimento del pendolo di Foucault, che nel 1851 dimostrò la rotazione terrestre; infatti, poiché il piano di oscillazione rimane fisso rispetto alle stelle fisse (e non rispetto alla terra, al sole o alla via lattea), il movimento del pendolo è in realtà determinato dall’intero Universo. Inoltre, secondo il principio di Mach, è la distribuzione della materia nell’intero Universo a determinare l’inerzia di un corpo. Nella relatività generale, il principio d’inerzia viene riformulato nella seguente forma: in assenza di forze, un corpo tende a rimanere in quiete oppure a muoversi seguendo linee di minima resistenza (geodetiche). Poiché la natura geometrica di queste linee è determinata dalla curvatura dello spazio-tempo, la quale è a sua volta determinata dalla distribuzione della materia nell’Universo, il principio di Mach è oggi implicitamente inglobato nella relatività generale, dopo essere stato esplicitamente una fonte d’ispirazione per Einstein, in particolare per il primo modello cosmologico del 1917.

La Fisica post-classica ci esorta ad abbandonare la visione ingenua del mondo basata sui 3 principi di separabilità (l’Universo è costituito da sistemi limitati e distanziati nello spazio-tempo), realtà (questi sistemi hanno proprietà intrinseche indipendenti dall’osservatore) e località (questi sistemi possono interagire tra loro solo quando siano sufficientemente vicini). Nel 1982, Alain Aspect (Parigi), dimostrò che almeno uno dei 3 principi(peraltro risalenti ai presocratici), doveva essere lasciato cadere.

All’Università di Parigi, Alain Aspect dimostrò sperimentalmente che il micromondo si regge sul principio d’indeterminazione: eventi senza causa, immagini fantasma e realtà nata dall’osservazione in quanto l’esatta natura della realtà dipende dalla partecipazione di un osservatore (John Wheeler 1979). Per intendere meglio questi concetti, immaginiamo che una particella si divida in 2 particelle, ciascuna delle quali possa allontanarsi dall’altra, indisturbata. Se una si allontana ruotando in senso orario, l’altra ruoterà in senso antiorario.

La “Teoria dei Fantasmi” vuole che ciascun frammento sia rappresentato da più di una possibilità: il frammento A, avrà due fantasmi, uno ruotante in senso orario e l’altro in senso antiorario ed il frammento B, lo stesso. Solo la misurazione (e quindi l’osservazione) determinerà quale dei 2 fantasmi diventerà la particella reale. Se la misurazione di A, porta alla realtà il fantasma orario, allora B non ha scelta e bisogna che prenda corpo il fantasma antiorario. Le 2 particelle fantasma, per quanto separate e distanti siano, devono cooperare l’una con l’altra, per rispettare questo principio. Ma come potrebbe sapere il frammento B, per quale dei 2 frammenti fantasma ha optato A? Come possono comunicare i 2 frammenti che sono ben distanziati tra loro? Ecco il motivo dunque dell’abbandono almeno del principio di località, visto che sarebbe molto azzardato e pericoloso abbandonare quello di realtà. Non potremo mai avere quindi, una completa conoscenza deterministica di un sistema quantistico, a causa dell’impossibilità di misurare precisamente tutte le sue proprietà; per questo motivo, Erwin Schrodinger ne ha proposto una descrizione in termini di funzione d’onda, che stabilisce, per ciascuna proprietà del sistema, la probabilità di ottenere certi valori.

La realtà probabile del mondo dei quanti è allora quella realtà che determina la realtà necessaria del macrocosmo: la radice di tutto risiede nel vuoto quantistico, con il suo perenne ribollire di particelle virtuali che si materializzano per una frazione di tempo inversamente proporzionale alla loro massa. Evidentemente, con la misurazione di una delle proprietà del sistema, la funzione d’onda collassa, per cui si perde l’informazione relativa a tutte le altre proprietà. Questa visione della realtà, molto soddisfacente per la conoscenza del mondo subatomico, non lo è altrettanto dal punto di vista metafisico, perché comporta la violazione dei principi di località e separabilità. Infatti, le varie parti di un sistema che si allontanano nello spazio-tempo, continuano ad essere considerate come un solo sistema, violando il principio di separabilità e la misura su una delle parti modifica anche la funzione d’onda delle altre parti, violando il principio di località.

Obsoleta e falsa è quindi la nozione dell’atomo costituito da protoni, neutroni ed elettroni che s’insegna perfino alle scuole superiori; anche un ragazzino potrebbe facilmente dimostrare l'impossibilità dell’esistenza di un atomo simile, ma ciò nonostante non si sente il bisogno di porsi al corrente con le più recenti acquisizioni del pensiero scientifico. In realtà, emersero almeno 3 ragioni per considerare insoddisfacente la concezione che tutte le cose sono formate dalle 3 classiche particelle di cui sopra.

Intanto, bisogna dire che protoni e neutroni si comportano come piccoli magneti; la teoria quantistica prevede l’intensità della forza magnetica per ogni particella, ma protoni e neutroni si comportano come magneti più intensi del previsto, implicando così la loro natura non elementare. Inoltre, come abbiamo già accennato, usando altre particelle come proiettili, se ne deduce che i 2 nucleoni devono essere particelle composte, non puntiformi. Ancora, una grande quantità e varietà di sperimentazioni, hanno condotto alla scoperta di un gran numero di particelle simili al protone ed al neutrone, le quali furono collettivamente chiamate: adroni. Finalmente, nel 1968, una nuova serie d’esperimenti, scoprì l’esistenza dei quark nei protoni e neutroni, confermando l’ipotesi che, indipendentemente l’uno dall’altro, Murray Gell-Mann e George Zweig avevano sostenuto, cioè che il gran numero di adroni scoperti poteva spiegarsi semplicemente ammettendo che essi fossero composti da quark. L'intelletto dell'uomo, progredendo nella conoscenza razionale del Cosmo, era pervenuto al livello più basilare concepibile. Ma, i quark sono proprio la fine di questo sentiero discendente che ci conduce alla radice delle cose o si scopriranno altri livelli fondamentali? Non lo sappiamo, anche se gli studiosi del ramo sembrano essere scettici su quest'ultima possibilità; allo stato delle attuali conoscenze dobbiamo concludere che esistono 3 famiglie di particelle, tutte con una composizione identica: quark e leptoni: una prima famiglia di quark e leptoni, formata dal quark up e dal quark down, dall'elettrone e dal neutrino elettronico; una seconda famiglia costituita da. Quark strange e charmed, + muone e neutrino muonico; ed una terza famiglia i cui membri sono: quark top e quark bottom + tauone e neutrino tauonico. I 2 quark della prima famiglia servono per la formazione dei protoni e neutroni che costituiscono il nostro mondo; infatti, con 2 quark up+ 1 quark down si crea un protone, mentre con 2 quark down+ 1 quark up si forma un neutrone.

Con le particelle della prima famiglia si fa tutto ciò che si vuole, dalle galassie ai Curculionidi, se disponiamo delle 4 "colle", ovvero le forze fondamentali indispensabili per tenere uniti i mattoni costituitivi dell'Universo. La seconda e terza famiglia, non servono affatto per la costituzione della materia comune e corrente, della quale il nostro mondo quotidiano è composto; esse però ci risultano indispensabili per poter capire da dove veniamo e quindi cosa è successo nei primi istanti dell'Universo.

Senza la seconda e terza famiglia, non ci potrebbe essere scienziato al mondo in grado di pervenire al supermondo e poi all'unificazione di tutte le forze fondamentali, comprendendo il vero significato del tempo, la sua origine e le sue connessioni con lo spazio. Le forze fondamentali del Cosmo, che legano le particelle rendendo possibile l'esistenza di tutte le cose, non sono tutte ugualmente fondamentali; ad esempio, le forze subnucleari, che rendono possibile l'esistenza del nucleo atomico, sono il sottoprodotto delle forze di colore subnucleare, che permettono ai quark d'incollarsi insieme. Per intendere la vera natura delle forze nucleari, bisogna entrare nel cuore di un protone, dove risiede l'essenza intima di tutta la realtà, i veri "leoni" di Enrico Fermi (anche se questa visione eccessivamente riduzionista e semplicista è oggi, come abbiamo già detto, superata). Oltre alle forze di colore subnucleare, nel nucleo agiscono anche le forze deboli, responsabili dei fenomeni della radioattività, che tengono sotto controllo la combustione nucleare delle stelle controllando il flusso di neutroni.

Se queste forze fossero più potenti, permetterebbero a più protoni di trasformarsi in neutroni, per cui aumenterebbe l'afflusso del combustibile nucleare al sole e di conseguenza la vita non potrebbe esistere sulla Terra; nel caso opposto, diminuendo l'apporto di neutroni, la quantità di calore prodotta dal sole, troppo esigua, non sarebbe in grado di far sorgere e mantenere la vita, almeno quella che conosciamo sulla Terra.

Le forze elettromagnetiche, sono le responsabili dei fenomeni chimici, dell'elettricità e del magnetismo. Durante la sua vita, l'uomo si rende conto dell'esistenza di questa forza fondamentale; i fenomeni di combustione o le spettacolari esibizioni dell'elettromagnetismo naturale durante temporali, hanno impres-sionato terribilmente i nostri antenati e ciò ha contribuito alla creazione delle divinità del mondo antico e dei popoli primitivi. Ma l'uomo potrebbe vivere per millenni senza mai supporre l'esistenza delle forze nucleari, impercettibili senza la guida della Scienza e pur fondamentali, essendo artefici di quella fucina cosmica dove sono letteralmente fabbricati gli elementi chimici che hanno dato origine al nostro mondo ed alla vita. Le forze gravitazionali costituiscono l'anima di quell'attrazione universale alla quale dobbiamo l'esistenza dei corpi celesti e terrestri,; forze essenziali per l'origine e la fine dell'Universo, che Einstein genialmente interpretò geometricamente come derivate dalla deformazione dello spazio-tempo quadridimensionale provocata dalla massa.

Sappiamo che la nostra esistenza è resa possibile grazie alle cariche che ci salvano dalla continua trasformazione della massa in energia, in accordo alla celeberrima equazione einsteniana: E=mc2 . Ciò è reso possibile dal fatto che le dimensioni non sono soltanto 4, come aveva detto Einstein, ma ve ne sono altre 6 non "espanse" e precisamente: A) una dimensione collassata responsabile della carica elettrica; B) 2 dimensioni collassate responsabili della carica debole; C) 3 dimensioni collassate a cui dobbiamo le cariche di colore subnucleare. La materia quindi, è fatta di massa bloccata nelle cariche; senza le cariche, come abbiamo detto, la massa si trasformerebbe in energia. Quando si accende un fiammifero (o avviene un qualunque fenomeno che coinvolga la forza elettromagnetica), soltanto una parte infinitesimale della massa del fiammifero si trasforma in energia. Infatti, una volta creati lo spazio ed il tempo, non c'è bisogno di aggiungere "ad hoc" massa ed energia, in quanto queste, come dimostrato da Einstein, sono derivabili dalle stesse proprietà dello spazio-tempo; è sufficiente soltanto che lo spazio-tempo abbia un po’ di curvatura, cioè che non sia completamente piatto.
Einstein dedicò gli ultimi 35anni della sua attività scientifica nel tentativo di far discendere il concetto di "carica" dalle proprietà stesse dello spazio tempo che egli interpretava come quadridimensionale. Oggi sappiamo che lo spazio-tempo non ha4 dimensioni, ma forse 42 (superspazio), delle quali 10 di tipo Bose-Einstein (dimensioni bosoniche) e 32 di tipo Femi-Dirac (dimensioni fermioniche).

Le cariche elettriche, quelle deboli e le subnucleari, sono il retaggio di queste 42 dimensioni. Se vogliamo calcolare come si fa per andare da un punto all'altro nell'iperspazio, dobbiamo sommare i quadrati dei 3 spostamenti lungo i 3 assi geometrici, mentre il quadrato del quarto spostamento lungo l'asse dei tempi, non va sommato, bensì sottratto, come scoperto da Einstein ed Hermann Minkowski.. Dobbiamo a questo segno negativo l'equivalenza tra massa ed energia e quindi l'esistenza del fuoco, che è trasformazione di massa in energia.

Nello spazio quadridimensionale costruito seguendo la regola di Euclide, se provassimo ad accendere un fiammifero, troveremmo che non si accende; il mondo euclideo è un mondo logico, ma non è il nostro mondo. Interessante è notare che la dimensione temporale può mescolarsi alla somma delle altre 3 dimensioni, ma l'asse del tempo rimane ben distinto dagli altri 3. Secondo John. A. Wheeler, lo spazio ed il tempo sono strutture sintetiche, cioè costituite da "bit" o elementi unitari, che egli definisce con il termine: "pregeometria"; lo stesso studioso, uno dei massimi fisici quantistici del secolo XX, in conformità ai suoi illustri predecessori, ritiene che, la lezione più profonda della Meccanica Quantistica sia che la realtà viene definita dalle domande che le poniamo.

L'intendere allora la recondita natura dello spazio-tempo multidimensionale è imprescindibile per la corretta interpretazione della realtà fisica, ma per capire l'origine del tempo è necessario postulare l'esistenza del supermondo (e quindi superspazio e superparticelle); la teoria fondata sulle stringhe, come già abbiamo accennato, non si basa più sul mitico punto euclideo e comincia a somigliare ad un abbozzo della Teoria del Tutto. Essendo piccolissime, le corde non si rivelano se non ad energie ultra alte, circa 1020. volte superiori alle energie nucleari: la cosiddetta energia di Planck.

A seconda del diverso modo di vibrare di queste corde (un parallelismo impressionante che ci ricorda le note musicali),si originano le diverse particelle. Nella teoria delle supercorde c'è posto sia per le particelle di materia che per le particelle messaggere, per cui rappresenta la speranza di unificare forze e materia in un singolo schema descrittivo onnicomprensivo; bisogna però spiegare chiaramente come, il risultato dell'attività delle corde faccia emergere lo stesso spazio-tempo.

Se è vero che il tempo nasce dal fatto che noi siamo parte di una realtà globale, deve essere possibile eseguire misure di alta precisione su come possono variare le costanti fondamentali della Natura. Noi siamo legati gravitazionalmente alla realtà globale e questo permette l'esistenza del tempo; se potessimo schermare questa attrazione gravitazionale, il tempo cesserebbe d'esistere. La "freccia del tempo" nasce quindi dalle proprietà stesse delle forze gravitazionali; inoltre dal momento che l'Universo diventa sempre più caldo man mano che ci si avvicina all'origine, ne consegue che, procedendo a ritroso, la misura del tempo aumenterà sempre più rapidamente e potrebbe addirittura diventare infinita in tempi prossimi all'origine.

Secondo Tipler, durante l'ipotetico Big-Crunch, l'attività mentale dovrebbe accelerare ed il tempo rallentare; infatti, la misura umana del tempo dipende dai nostri processi cerebrali, se il nostro cervello lavorasse a velocità doppia, allora un secondo ci apparirebbe in realtà come 2 secondi. La velocità dei processi fisici dipende dalla temperatura; più caldo è il sistema, più velocemente si verificheranno gli eventi e di conseguenza i pensieri. Perciò, il tempo soggettivo di una mente primordiale dovrebbe tendere all'infinito man mano che ci si avvicini all'origine dell'Universo ed al Big-Crunch. Questo ipotetico individuo cosmico sarebbe capace di pensare un numero infinito di pensieri diversi prima che si arrivi al collasso finale.

Il tempo soggettivo è il tempo necessario per immagazzinare in maniera irreversibile un bit d'informazione ed il numero di disposizioni possibili che si possono codificare con 1 bit d'informazione è 21.; si tratta di una crescita esponenziale, per cui, dato che il tempo soggettivo va da 0 a +infinito, ciò vuol dire che le disposizioni crescono in maniera esponenziale nel tempo soggettivo. Vi sono 3 livelli di comprensione nella Fisica delle particelle: A) comprensione descrittiva; ad esempio, la teoria standard; B) comprensione di dati e meccanismi, ad esempio, comprensione einsteiniana della forza di gravità; C) comprensione del perché, ad esempio, si dovrebbero derivare dalla teoria i valori delle masse dell'elettrone, muone e tauone, il perché essi siano solo 3, si dovrebbe spiegare cosa sia la carica elettrica, eccetera. Infatti, avendo conseguito una comprensione descrittiva ed una conoscenza di come funziona il mondo, adesso gli scienziati vogliono conoscere gli strumenti e le regole.

La teoria delle stringhe, a proposito, potrebbe apparire molto promettente, ma ha indotto alcuni studiosi a sostenere che essa non può essere verificata, per cui condurrebbe fuori l'ambito della Scienza, dritto nei pozzi oscuri e senza speranza della filosofia e del misticismo. Una teoria del tutto (ammettendo che possa esistere) dovrebbe spiegare: A) l'esistenza di quark e leptoni; B) perché viviamo in 3 dimensioni spaziali; C) cosa sono lo spin, carica elettrica e carica di colore e perché alcune particelle li abbiano; D) deve predire le masse di tutti e 12 i quark ed i leptoni e spiegare perché si presentano in 3 famiglie; E) deve prevedere varie proprietà osservabili dell'Universo, come la sua energia totale, il suo momento angolare, eccetera.

Nonostante il modello standard sia la teoria matematica più completa che sia mai stata sviluppata ed abbia un formidabile supporto sperimentale, siamo ben lontani dal conseguire tutte le spiegazioni alle quali abbiamo accennato e dobbiamo accontentarci d'avere probabilmente solo intravisto la strada maestra. Giustamente, John Barrow si domandò come si possa parlare di una teoria del tutto se non riusciamo a capire un cristallo di neve; nulla di ciò che sappiamo sulle particelle può dirci nulla sul mistero della vita, sulla diversità biologica o sulla necessità della mente umana nello schema totale del Cosmo.

Anche conoscendo tutte le leggi della Fisica, probabilmente non riusciremmo ad intendere la mente di un semplice mollusco; in altri termini, tutta la Matematica e la Fisica possibili per l'uomo, probabilmente non saranno sufficienti a capire i più semplici fenomeni biologici e mentali. La vita è un fenomeno fisico altamente improbabile, tuttavia è una realtà; ogni bambino che nasce, diminuisce la disorganizzazione dell'Universo e mette in crisi tutti i più importanti matematici del mondo. Quando la matematica tedesca Emmy Noether dimostrò il teorema conosciuto con il suo nome, fu chiaro agli studiosi che le leggi di conservazione sono tutt'uno con le leggi di simmetria, ovvero le leggi della Fisica non cambiano con la distanza o con il tempo.

La verità profonda della Natura è intrinsecamente legata alla bellezza della simmetria; quindi, quello che c'è di bello nella Scienza, non è diverso da quello che c'è di bello nell'arte: il segreto della Natura è la simmetria, ma come abbiamo già ribadito, gran parte della testura del mondo è dovuta a meccanismi di rottura della simmetria: Fu proprio la ricerca di simmetrie nascoste che ha condotto alla scoperta che i nucleoni contengono i quark; questi ultimi, infatti, furono scoperti in simmetrie prima che qualcuno pensasse a cercarli nelle collisioni di particelle in acceleratori ad alta energia.

La simmetria condusse anche a scoprire l'antimateria, prevista da Dirac combinando matematicamente la relatività ristretta e la meccanica quantistica, poiché quell'eretico connubio di due apparenti antinomie produsse soluzioni simmetriche gemelle, una con il segno + e l'altra con il -. Nel 1956 fu provata l'esistenza dell'antineutrino elettronico da Coiwan e Reines nella Carolina del Sud.

Se non fosse stata scoperta questa antiparticella, la Fisica avrebbe dovuto dire addio a principi basilari, come quelli della conservazione dell'energia, della quantità di moto e del momento angolare. Poi, nel 1957, fu scoperto che l'antineutrino è sempre destrorso mentre il neutrino è invariabilmente sempre sinistrorso; questo fatto ebbe un'importante funzione nella distruzione della legge di conservazione della parità (l'operazione di parità consiste nel prendere l'immagine speculare). In genere, l'immagine speculare di un fenomeno fisico reale è ancora un fenomeno fisico reale, invece nei processi in cui intervengono le interazioni deboli ciò non è più vero e si parla quindi di non conservazione della parità (come esempio più comune ricordiamo il decadimento BETA. Il neutrino elettronico fu reso necessario nella teoria delle particelle elementari dai calcoli di Wolfgang Pauli nel 1930; nel 1934, Enrico Fermi, nel costruire la teoria matematica del decadimento BETA , suppose che l'elettrone e l'antineutrino vengano creati al momento della loro emissione. I neutrini si presentano in 3 sapori (elettronico, muonico e tauonico) e recentemente è stato provato che possono mutare da un sapore all'altro; se ciò è vero, significa che essi devono possedere una massa, che complessivamente potrebbe pesare più di tutte le stelle dell'Universo, contribuendo notevolmente a chiudere l'Universo, speranza di resurrezione e di vita eterna per certe concezioni filosofico-religiose. Secondo alcuni calcoli, la massa del neutrino dovrebbe essere di 0,05eV, veramente prossima allo zero, se paragonata con le masse di altre particelle (l'elettrone=511000eV). Una domanda di rilevanza cosmica che deriva dallo studio congiunto dell'infinitesimamente piccolo (Fisica delle particelle) e dell'enormemente grande (Cosmologia) è la seguente: un programma di computer (un algoritmo) può essere più semplice del sistema che descrive, ovvero, in altre parole, il programma dell'Universo può essere più semplice dell'Universo stesso? Se un programma è più semplice del sistema che descrive, si dice che il sistema è "comprimibile algoritmicamente".

La domanda è quindi se l'Universo sia comprimibile algoritmicamente. La quantità di compressione algoritmica raggiungibile può essere misura della semplicità strutturale presente nell'output, mentre una bassa comprimibilità sarà una misura della complessità. La comprimibilità algoritmica ci fornisce una definizione rigorosa della casualità; una sequenza è casuale quando non è algoritmicamente comprimibile. La complessità di un sistema fisico è la lunghezza dell'algoritmo minimo in grado di descriverlo; il guaio è che non si può sapere se per generare una certa successione esista un programma più breve, perciò non possiamo provare che una successione sia casuale, anche se possiamo provare che non lo è, trovando una compressione.

Il pensare che degli eventi naturali apparentemente casuali, potrebbero non esserlo affatto, risulta affascinante, per cui non possiamo essere certi che ci sia casualità nell'indeterminismo della Meccanica Quantistica. Il teorema di Chaitin ci assicura che non potremo mai dimostrare che l'esito di una serie di misurazioni quantiche sia effettivamente casuale; indubbiamente appare tale, ma questo varrebbe allora anche per i decimali di PIGRECO ; Chaitin è riuscito a dimostrare che la casualità pervade l'intera Matematica e per farlo ha trovato una mostruosa equazione con 17000 variabili, la quale contiene un parametro K, che assume valori1,2,3,…ecc. (equazione diofantea). Ma, chiediamoci: per un determinato valore di K, l'equazione ha un numero di soluzioni finito o infinito? Se indichiamo finito con 0 ed infinito con1, la stringa risultante non è algoritmicamente comprimibile: è casuale. Quindi non esiste una procedura sistematica per decidere "a priori" le risposte a certe domande matematiche perfettamente definite: le risposte sono casuali.

L'immagine corrente della Matematica come una collezione di fatti precisi, collegati da percorsi logici ben definiti, rivela la sua falsità. C'è casualità e quindi incertezza in Matematica come in Fisica, per cui dovremmo trattare la Matematica in modo più simile a quello delle Scienze Naturali, nelle quali i risultati dipendono da un misto di logica e ricerche empiriche. La Teoria Standard, come abbiamo detto, compendia tutte le conoscenze acquisite dalla Fisica negli ultimi 40 anni ed è, per molti versi, una teoria ineccepibile, suffragata da dati sperimentali incontrovertibili e da una potente teoria matematica.

Eppure, la Teoria Standard possiede "in nuce", i germi del suo superamento o quanto meno della sua ampliazione. Il difetto principale di questo modello è che funzionerebbe perfettamente anche con particelle prive di massa o di massa tutta uguale. Per far sì che di queste diverse "soluzioni " resti valida solo quella che corrisponde alla realtà (cioè quella che descrive particelle dotate di massa), il fisico Peter Higgs ha proposto di aggiungere al modello standard l'esistenza di un'altra particella, quella che ora prende il suo nome. Così si chiarirebbe la questione dell'origine della massa ed il modello diventerebbe più coerente dal punto di vista matematico. Il fatto che la quantità di massa acquistata vari da particella a particella dipende dall'intensità dell'interazione delle particelle con il campo di Higgs. Per evidenziare il fantomatico bosone di Higgs, secondo gli studiosi del Cern, usando l'acceleratore LEP, si dovrebbero fare scontrare elettroni e positroni. Si dovrebbe formare così una particella Z° virtuale. Quindi questa particella dovrebbe emettere un bosone di Higgs trasformandosi in Z° reale; poi, il bosone di Higgs dovrebbe decadere in un quark ed in un antiquark, mentre la Z° decadrebbe in un elettrone ed un positrone. Secondo i fisici del Cern, il limite inferiore della massa dell'inafferrabile bosone sarebbe di 109Gev (poco meno della massa di un atomo d'argento). Se la massa di Higgs è invece compresa tra 130-180 Gev, bisognerà attendere la stagione sperimentale del Tevatron, nel 2005, per avere l'energia che serve; in ogni caso, trovare tale bosone, significa dimostrare la validità della teoria che descrive tutto ciò che è fatto di materia e le forze cui è sottoposto.

Il punto di raccordo tra la Teoria Standard e la Cosmologia è il Big-Bang, cioè lo studio dell'origine dell'Universo e della sua possibile fine in un Big-Crunch. L'Universo, apparentemente infinito, potrebbe essere in realtà finito e l'illusione del'infinito potrebbe essere provocata dalla luce che si avvolgerebbe più volte intorno a tutto lo spazio, creando immagini multiple di ciascuna galassia. Sulla questione: Universo finito/Universo infinito, un diffuso malinteso è che la seconda ipotesi sia stata confermata dalla teoria della relatività generale di Einstein, che afferma che lo spazio può curvarsi in 3 modi differenti e l'effettivo tipo di curvatura è determinato dalla distribuzione della materia e dell'energia nello spazio stesso. Ma la teoria della relatività è una teoria valida solo localmente e spiega come la materia e l'energia contenuta in ogni piccolo volume di spazio ne determinano la locale curvatura e geometria; tuttavia né la relatività né le osservazioni cosmologiche standard possono dire qualcosa su come l'insieme di questi volumi determini la topologia complessiva dell'Universo: infatti, le 3 possibili geometrie cosmiche sono compatibili con molte topologie diverse.

Essendo anche noi immersi nello spazio, non siamo in grado di osservarne direttamente il tipo di curvatura, ma possiamo percepirla in forma di attrazione gravitazionale e distorsione geometrica delle immagini; per determinare quale delle 3 geometrie possibili esista nell'Universo, gli astronomi hanno misurato la densità della materia e dell'energia e dai risultati emersi fino ad ora sembra che questa densità sia troppo bassa per costringere lo spazio a curvarsi su se stesso in una geometria sferica, per cui lo spazio potrebbe possedere la familiare geometria piana euclidea oppure una geometria iperbolica a sella (modello dell'Universo apparentemente illimitato). Però l'Universo potrebbe essere sferico, ma talmente grande che la parte osservabile apparrebbe euclidea, proprio come una piccola porzione della superficie terrestre sembra piatta.

Generalmente si assume che l'Universo, così come un piano, sia "semplicemente connesso", ossia che esista una sola traiettoria diretta che un raggio di luce può percorrere dalla sorgente all'osservatore. Un Universo euclideo o iperbolico semplicemente connesso, sarebbe davvero infinito, ma l'Universo potrebbe essere "molteplicemente connesso", come un "toro" (forma a ciambella), nel quale un raggio luminoso potrebbe percorrere molte differenti traiettorie per andare da un punto ad un altro. Un osservatore vedrebbe più immagini della stessa galassia e potrebbe scambiarle per galassie diverse in uno spazio infinito, proprio come, trovandosi in un labirinto di specchi, si può credere di essere in mezzo ad una folla.

Uno spazio molteplicemente connesso non è solo una stranezza matematica, è anche la soluzione adottata in certe ipotesi di unificazione delle forze fondamentali della Natura e non contraddice alcuna osservazione. Fin dalla più remota antichità, tutte le culture del mondo si sono domandate come ha avuto origine l'Universo e se esso sia finito o infinito.

Oggi, grazie ad una combinazione di intuizioni matematiche ed accurate osservazioni, la Scienza ha parzialmente risposto (nel corso del secolo XX) al primo interrogativo; speriamo che il secolo presente possa presto annoverare una risposta soddisfacente anche per il secondo quesito. Comunque, oltre l'annosa diatriba: Universo finito/Universo infinito, un dato di fatto è che la regione dell'Universo con la quale abbiamo rapporti causali, contiene solo un numero finito di particelle. Il limite estremo di questa regione è il nostro "orizzonte", ovvero la superficie più lontana nello spazio alla quale può essere giunta attualmente la luce emessa nella nostra zona dell'Universo all'epoca del Big-Bang; inoltre, solo in questa regione di spazio c'è un flusso d'informazione.

Immaginiamo ora che ogni particella ivi contenuta sia incorporata in un gigantesco computer cosmico; questa macchina, contenendo un numero finito di particelle (1080), non potrebbe nemmeno calcolare PIGRECO con precisione infinita. Secondo Landauer, se l'Universo non può calcolare un numero come PIGRECO, significa che il rapporto tra la circonferenza di un cerchio ed il suo diametro non sarebbe più una quantità definita, ma avrebbe un certo grado d'indeterminazione. Dato che, con il tempo, la luce si allontana e l'orizzonte si espande, in passato le risorse a disposizione della regione in esso compresa sarebbero state minori e questo implica che la Matematica dipenderebbe dal tempo (idea diametralmente opposta alla visione platonica, secondo la quale le verità matematiche sono atemporali). Quindi, durante il tempo di Planck (10-43 secondi dopo il Big-Bang), il potere di calcolo dell'Universo sarebbe stato sostanzialmente nullo ed in quel momento la Matematica doveva essere priva di significato.

In quel momento, perderebbero di significato tutto il programma della Cosmologia quantistica e le teorie dell'origine del Cosmo. Riflettendo le proprietà computazionali della Matematica, l'Universo, almeno sotto questo aspetto, è proprio un gigantesco computer che contiene, come informazione, tutte le varianti possibili del mondo, includendo tutti gli uomini che sono vissuti e vivranno, con tutti i loro possibili ricordi (21010 e 21017); tutte queste variabili possibili dell'Universo visibile richiederebbero secondo Tipler 1010123 bit di capacità di memoria.

Se questa enorme capacità sarà disponibile nei calcolatori del futuro remoto, i nostri discendenti potranno disporre di un "Deus ex machina" e avranno conquistato l'immortalità, se non dei corpi, di sicuro della mente. Se la Natura è essenzialmente un processo computazionale, generando la consapevolezza di sé (la coscienza) con la nostra esistenza, ha compiuto un atto voluto e questo non è un dettaglio banale ma un punto d'arrivo essenziale per la vera grande Cultura universale, un punto controverso e non ancora chiarito, visto che buona parte della Biologia evoluzionista arriva a conclusioni antitetiche.

Le leggi fisiche, oltre a fornire gli schemi semplici che stanno alla base di tutti i fenomeni fisici, devono, in qualche modo permettere l'emergere della profondità e della complessità organizzata. La profondità logica (è il tempo di lavoro necessario affinché un programma minimale generi un output complesso e organizzato) si applica ai sistemi biologici, in quanto non è plausibile che un essere vivente possa avere origine se non attraverso una catena di processi evolutivi molto lunga e complicata.

Murray Gell-Mann notò che possiamo riconoscere i sistemi profondi dal fatto che sono quelli che desideriamo conservare( teorie scientifiche, opere d'arte, oggetti rari, eccetera). La realtà non si esaurisce nei fenomeni relativamente semplici del macrocosmo e della Fisica dei quanti; essa include anche il mondo dei viventi, con tutta la stupefacente diversità biologica che le semplici leggi della Fisica probabilmente non riusciranno mai a spiegare. Dai principi logici elementari, al mondo quantistico, al macrocosmo, alla vita ed alla mente, è un crescendo di complessità di concetti ordinati in una gerarchia in cui il livello superiore non si evince da quello immediatamente sottostante.

La Fisica dei colori non spiega la policromia e la bellezza delle Ornithoptera, come la Fisiologia del proto, deutero e tritocerebro degli esapodi non anticipa la mente di Einstein. Un teorema matematico correttamente dimostrato è un modello elegante di coerenza logica, che si ridurrebbe a ben poco però senza l'enorme complessità e varietà del mondo biologico. Vale la pena di studiare la Matematica, per lo meno per un naturalista, perché esiste l'Entomologia; al di sotto della complessità della Natura c'è la semplicità della Fisica, così come dalla complessità morfofunzionale dei circuiti neuronali scaturisce l'incredibile realtà della mente, strategia evolutiva e/o entelechia dell'Universo.

Innumerevoli restano i punti oscuri che ancora attendono un chiarimento scientifico e probabilmente l'umanità non potrà mai conoscere la Verità assoluta dell'Universo; dato che non si potrà mai dimostrare ad un tempo la coerenza e la completezza di un sistema logico, una Teoria del Tutto sembra condannata all'insuccesso per ragioni di coerenza logica.

Il pensiero scientifico ha dimostrato la sua stupenda efficacia nella ricerca delle possibili soluzioni alle eterne domande esistenziali dell'uomo; la fiducia nella straordinaria efficacia delle Scienze per la conoscenza razionale del mondo, ben riposta e provata da 500 anni di progressi senza pari al confronto di quanti effettuati nel mondo antico, mi sembra risalti ora più che mai da queste righe tratte dal "Dialogo" di Galileo: "Venite pure con le ragioni e le dimostrazioni e non con testi e nude autorità, perché i discorsi nostri hanno a essere intorno al mondo sensibile e non sopra un mondo di carta" ...

PROF DAVIDE CASTELLI.