domenica 11 aprile 2021

La recente misura di g-2 del muone spiegata facile (giuro!) e perché è interessante.

La comunità dei fisici delle particelle è stata attraversata da una sana corrente elettrica lo scorso 8 aprile 2021, in seguito all'annuncio di una misura più precisa di "g-2", il momento magnetico anomalo del muone. La nuova misura conferma e accentua infatti una tendenza osservata già da anni, secondo cui la misura sperimentale differisce dalla previsione teorica in modo sufficiente da suscitare una particolare attenzione. Ai fisici questa cosa piace molto, perché vuol dire che sotto potrebbe esserci qualcosa di non capito nella fisica fondamentale. Qualcosa che non torna. Che uno potrebbe subito dire: ma come, sei contento se non torna? Sei contento se hai sbagliato? Eh, sì, ai fisici piace così. Quindi cerchiamo di capire che cosa è stato misurato, e perché questa misura è importante.

Il muone è un gemello pesante dell'elettrone, particella che fa parte dell'atomo, e ben nota a chiunque fin dalla scuola. Il muone è del tutto identico all'elettrone, a parte la sua massa a riposo, che è circa 200 volte maggiore. Come conseguenza di questo, il muone è anche instabile, ovvero una volta prodotto (ad esempio grazie all'energia ottenibile facendo urtare fra loro le particelle negli acceleratori), mediamente dopo soltanto un milionesimo di secondo decade, ovvero smette di esistere come muone, e si trasforma in un elettrone e due neutrini. 

Non è l'atterraggio degli alieni accolti da uno sparuto gruppo di terresti contattisti, ma il trasporto del magnete dell'esperimento per la misura di g-2 dal Brookhaven National Laboratory al Fermi National Accelerator Laboratory (Fermilab) alla periferia di Chicago (fonte).
 

Avendo una carica elettrica e uno spin, il muone si comporta come una microscopica spira percorsa da corrente, o se preferite come una pallina carica che ruota, e genera un microscopico campo magnetico, con momento magnetico. Una calamitina a due poli microscopica, in pratica.  E' vero che il muone non è una pallina, e che lo spin non è una vera rotazione (i talebani della fisica su Facebook a questo punto si saranno già indignati decidendo di non leggere oltre) ma in pratica è lo stesso. Il valore di questo momento magnetico associato al muone (ma anche l'elettrone ce l'ha identico) è stato calcolato da Dirac nel 1928 nell'ambito della Meccanica Quantistica, e vale g=2, espresso in opportune unità. Il valore 2 è quanto si prevede per particelle puntiformi con carica unitaria e spin pari a 1/2, come nel caso del muone (o dell'elettrone).

Però, se si va a misurare g, non viene esattamente 2. E la causa è il vuoto.

Infatti il vuoto in fisica è qualcosa di molto più complicato del vuoto filosofico, dove idealmente non c'è nulla. Il vuoto in fisica è popolato di particelle che nascono e muoiono di continuo, esistendo per tempi brevissimi. Particelle virtuali, come le chiamano i fisici. Questo fenomeno è dovuto alla Meccanica Quantistica. E quindi il muone, come tutto il resto, muovendosi nel "vuoto", percepisce e interagisce con tutto questo agitarsi di particelle virtuali. Il risultato è che l'interazione con queste particelle virtuali ne altera le sue proprietà, e nella fattispecie il suo momento magnetico, e ce le fa apparire diverse. E quindi g, che in un vuoto "filosofico" dovrebbe valere esattamente 2,  in realtà assume un valore un po' diverso.

La cosa sorprendente è però che la Meccanica Quantistica ci permette di calcolare questi effetti aggiuntivi così strani, legati alle proprietà quantistiche del vuoto. Ci permette di prevedere numericamente quanto questo vuoto popolato di particelle effimere impatti sulle quantità che vogliamo misurare, rispetto all'effetto di un vuoto veramente vuoto, in cui questi effetti non avvengono. 

E la cosa ancora più sorprendente è che queste previsioni teoriche, questi calcoli di elettrodinamica quantistica (così si chiama questa branca della fisica), producono il miglior accordo in assoluto fra teoria e esperimento in fisica, su una vasta gamma di misure di fisica atomica. Nessuna teoria fisica disponibile, in qualunque settore della fisica, può fregiarsi di riprodurre i dati sperimentali con precisioni così elevate come l'elettrodinamica quantistica. Per capirci, stiamo parlando di differenze fra teoria e esperimento che arrivano in certi casi ad essere più piccole di 1 parte su mille miliardi. Come misurare la distanza terra-sole e sbagliarsi di 15 cm. Feynman, Schwinger e Tomonaga meritarono a pieno titolo il premio Nobel per avere dato il via a questo filone della fisica moderna.

E' quindi proprio la sorprendente precisione dei calcoli numerici sulle grandezze osservabili tipo g del muone ad offrire la possibilità di andare a cercare eventuali piccole discrepanze con le misure sperimentali. Discrepanze che potrebbero essere l'evidenza di nuovi fenomeni fisici ancora sconosciuti.

Infatti le particelle che popolano il vuoto quantistico, e che influenzano il valore di g del muone, sono tutte le particelle a noi note, ma anche, dovessero esisterne, quelle a noi sconosciute. Solo che le nostre previsione teoriche si basano ovviamente solo sulle particelle che conosciamo. Non possiamo includere nei calcoli ciò che non conosciamo. E quindi se la previsione teorica non torna con l'esperimento, questo potrebbe significare che nella teoria non abbiamo considerato qualcosa semplicemente perché non sappiamo che questo qualcosa esiste. Un qualcosa che ovviamente nella misura sperimentale mostra invece il suo effetto, perché la Natura se ne frega di cosa sappiamo o non sappiamo.

Quindi il vuoto quantistico potrebbe essere popolato anche di particelle a noi ignote, legate a fenomeni anch'essi sconosciuti, i cui effetti però diventerebbero visibili tramite la meccanica quantistica. 

Notate quindi come questi effetti quantistici siano uno strumento potentissimo, perché ci offrono una finestra su un mondo che adesso non è concretamente presente attorno a noi. Potrebbe essere un mondo di fenomeni che avevano il loro ruolo primario nell'universo primordiale, quasi 14 miliardi di anni fa, quando le energie in gioco erano altissime. Energie e fenomeni che oggi non si riescono a riprodurre nemmeno nei maggiori acceleratori di particelle, ma che lasciano le loro tenui tracce in questi subdoli e effimeri effetti quantistici.

Che dire? Speriamo che sia vero. Speriamo che le future misure confermino questa differenza con quanto previsto dalla teoria. Speriamo che sia così perché vorrebbe dire che dietro l'angolo c'è una intera classe di nuovi fenomeni da scoprire e da capire.

Per ora, la situazione è quella disegnata qua sotto. A sinistra, in verde, c'è la previsione della teoria con la sua barra di incertezza, legata ad aspetti teorici non perfettamente conosciuti, che si traducono in una ambiguità nel risultato del calcolo. A destra ci sono le misure sperimentali. La prima, in blu, è vecchia di diversi anni. Quella nuova, è quella pubblicata qualche giorno fa, e è in ottimo accordo con quella vecchia, entro la barra di errore. Notate che le due barre di errore rosse e blu hanno una tacchetta. Essa indica quanto è grande l'errore statistico rispetto al totale, che comprende anche altri tipi di incertezze, dette sistematiche. L'errore statistico è legato a quanti dati sono stati raccolti: più dati sono stati analizzati, più piccolo è l'errore statistico. L'errore sistematico è invece legato alla procedura utilizzata per la misura, alle incertezze sulla calibrazione degli strumenti, e ai vari aspetti sperimentali.

Nel nostro caso le incertezze totali sono ampiamente dominate dall'errore statistico. Il resto, l'errore sistematico, è molto piccolo. Questo fa sì che, essendo le due misure quasi totalmente indipendenti dal punto di vista del campione statistico, esse possono essere combinate come se fossero un unico insieme di dati. Il risultato della combinazione è quello in viola, chiamato Experimental Average, che ha ovviamente un'incertezza totale decisamente inferiore alle singole misure. Si vede come la differenza fra teoria (in verde) e esperimento (in viola) sia grande, nonostante l'errore. 


Quello che si farà a breve termine è cercare di ridurre ancora di più l'errore delle misure, includendo nuovi dati, che sono già stati raccolti dall'esperimento, (ma altri ne verranno ancora) ma non sono stati ancora analizzati. Alla fine si dovrebbe riuscire grosso modo a dimezzare l'errore della misura rispetto a quello attuale. A questo punto sapremo se questa differenza fra teoria e esperimento potrà considerarsi realmente significativa tanto da poter dire che c'è realmente una differenza. Nel frattempo i teorici proporranno soluzioni al motivo fisico per cui esiste questa differenza. Quali fenomeni possono influenzare il vuoto da produrre questo effetto.

Ma come si fa a fare la misura dal punto di vista pratico? Come si misura concretamente il valore di g, il momento magnetico del muone? E' interessante descriverlo per sommi capi, perché dietro c'è un sacco di fisica interessante.

Il primo problema che si incontra è molto terra terra: i muoni non sono particelle stabili. Dopo essere stati prodotti, grosso modo in un milionesimo di secondo si dimezzano in numero, e si trasformano in elettrone e neutrini. E così via, essi si dimezzano e si dimezzano ancora in numero, ogni milionesimo di secondo che passa. E questo  costituisce un problema  non da poco. Come fare quindi a tenerli in vita sufficientemente a lungo per misurare il loro valore di g? Ci viene incontro la Teoria della Relatività.

Un muone, infatti, secondo il suo tempo, vive in media un milionesimo di secondo. Se fossimo un muone, se facessimo partire un cronometro nell'istante in cui veniamo prodotti in qualche urto in un acceleratore o nei raggi cosmici, e se arrestassimo il cronometro nell'istante in cui terminiamo la nostra esistenza trasformandoci in un elettrone e due neutrini, misureremmo in media (media misurata su tanti muoni) circa un milionesimo di secondo. 

Il tempo di vita media misurato dal muone coinciderebbe con il tempo da noi misurato se il muone fosse fermo rispetto a noi nel laboratorio. Ma se il muone si muovesse rispetto a noi a velocità prossime a quelle della luce, ritenendosi fermo dal suo punto di vista, egli crederà sempre di vivere un milionesimo di secondo, secondo la sua misura del tempo. Ma per noi, che lo vediamo sfrecciare quasi alla velocità della luce, il suo tempo ci apparirà scorrere molto più lentamente, tanto da farlo vivere molto più a lungo rispetto al nostro tempo. Sufficientemente a lungo da permetterci di farci sopra tutte le misure di cui abbiamo bisogno. E' un risultato della Teoria della Relatività ristretta. 

Quindi i nostri muoni su cui vogliamo misurare g dobbiamo cacciarli dentro un acceleratore di particelle, e portarli a velocità prossime a quelle della luce. In questo modo ci appariranno vivere sufficientemente a lungo da permetterci di fare l'esperimento. Detto così sembra fantascienza, ma i fisici delle particelle queste cose le fanno ormai da quasi un secolo, e è un'operazione di routine.

La misura di g del muone si può ricavare dalla precessione della direzione dello spin dei muoni, se questi vengono posti un campo magnetico. Infatti, in presenza di un campo magnetico costante, diretto - mettiamo - verticalmente rispetto alla loro direzione di moto nell'acceleratore, lo spin dei muoni precede attorno alla direzione del campo, ruotandoci attorno esattamente come fa una trottola quando la facciamo ruotare sul pavimento. La precessione è quindi il fatto che la sua inclinazione ruota attorno all'asse verticale. E la frequenza con cui il muone precede, cioè la frequenza con cui lo spin del muone fa un giro completo attorno alla direzione del campo magnetico, dipende dal valore di g. Il modo pratico per misurare questa frequenza è contare al passare del tempo il numero degli elettroni emessi dai muoni in una data direzione, quando questi ultimi decadono mentre si muovono dentro l'acceleratore. Infatti, la direzione di emissione degli elettroni dipende da come è orientato lo spin del muone, grazie a particolari correlazioni tipiche di questi processi. 

Se tutto questo vi sembra fantascientifico e improbabile, guardate come si vede il fenomeno dal punto di vista pratico. Nella figura qua sopra è riportato il numero di conteggi degli elettroni emessi dai decadimenti dei muoni in funzione del tempo che passa. La modulazione è il risultato della precessione dello spin dei muoni nel campo magnetico. Ogni gobbetta rappresenta il tempo che lo spin del muone impiega a fare un giro completo di precessione attorno alla direzione del campo magnetico. Notate che la scala nell'asse verticale è logaritmica, e in scala logaritmica il numero dei conteggi cala nel tempo globalmente come una retta (al netto della modulazione). Questo vuol dire che il numero di conteggi in realtà cala esponenzialmente nel tempo. Esso è dovuto al fatto che i muoni, man mano che passa il tempo, decadono, e quindi diminuiscono in numero. La legge che descrive il decadimento dei muoni in funzione del tempo, e di qualunque decadimento in genere, è infatti una esponenziale negativa, che in scala semi-logaritmica appare come una retta. 
 
In pratica nel grafico si vedono i muoni che, nell'acceleratore, diminuiscono in numero nel tempo mentre precedono attorno alla direzione del campo magnetico generato dal magnete. Notate la scala dei tempi in ascissa: ogni banda equivale a 100 microsecondi, e ci sono  7 bande. Ovvero ci sono muoni che restano in vita senza decadere fino a quasi un millesimo di secondo, nonostante i muoni da fermi vivano mediamente soltanto un milionesimo di secondo. Ovvero nell'acceleratore i muoni vivono fino a mille volte più a lungo che da fermi. C'è ancora qualcuno che crede che la Teoria della Relatività sia solo una teoria?






venerdì 26 marzo 2021

Le cose che non si sanno (e che vorremmo sapere)

Una carrellata dei miei misteri preferiti in fisica


Questo è un elenco, certamente non esaustivo, dei problemi fondamentali in fisica. Delle cose che non si sanno, e che crediamo importanti, perché hanno a che fare con la nostra comprensione del mondo.  Alcuni sono problemi importanti, altri meno, altri forse ci appaiono come problemi importanti perché tutto sommato sappiamo poco di come funziona il mondo. Certi problemi sono forse più seri per me che per altri. Molti di questi problemi hanno a che fare con la fisica delle particelle, sia perché essa ha la pretesa di poter descrivere le leggi fondamentali della natura, sia perché la conosco meglio che altri settori della fisica. Ogni scarrafone è bello a mamma sua, insomma. E' una lista che va letta con la consapevolezza che un giorno, in alcuni casi forse anche presto, avremo le risposte, che però inevitabilmente faranno scaturire altre domande, che adesso non riusciamo a immaginare. Per quelli che credono e dicono che la scienza abbia la pretesa di scoprire tutto, ricordo che 400 anni fa, quando quel pisano si mise a far cadere gli oggetti giù per un piano inclinato, e a guardare la luna e Giove con un cannocchiale che adesso non lo venderebbero neanche al Lidl, l'unica cosa che sembrava ancora da scoprire era cosa fossero quelle lucine che si vedevano nel cielo di notte. Adesso sappiamo cosa sono quelle lucine, ma il processo che ci ha portato a questa risposta ha scaturito una moltitudine di nuove domande, che prima non potevamo neanche immaginare perché non avevamo le conoscenze per immaginarle. E' il bello della ricerca, honey!

La materia oscura. Molte osservazioni inequivocabili di tipo astrofisico indicano che il moto delle stelle attorno alle galassie, la dinamica degli ammassi di galassie e altri fenomeni astrofisici non sono spiegabili tramite gli effetti gravitazionali della sola massa visibile in termini di stelle o di gas. L'ipotesi della materia oscura implica quindi l'esistenza di qualcosa che agisca gravitazionalmente sulla materia ordinaria, ma che abbia un effetto pressoché nullo tramite le altre interazioni fondamentali, risultando di fatto invisibile. Infatti l'emissione o l'assorbimento di luce implicherebbe una interazione di tipo elettromagnetico da parte di questa ipotetica materia. Fino ad alcuni anni orsono, le ipotizzate particelle Supersimmetriche neutre più leggere erano considerate ottime candidate per la materia oscura. Peccato che finora, dal punto di vista sperimentale, della Supersimmetria non ci sia traccia. Magari si scoprirà in futuro, o magari semplicemente la Supersimmetria non esiste. Esistono anche altri candidati per la materia oscura, nell'ambito delle particelle elementari, come ad esempio gli Assioni, ma finora le ricerche dirette sono risultate vane. C'è anche chi ipotizza che la materia oscura non esista, e che il moto anomalo di stelle e galassie sia dovuto a una correzione della Relatività Generale a grandi distanze. Bisogna però aggiungere che la materia oscura è un ingrediente fondamentale per spiegare come la materia dell'universo primordiale si sia aggregata per formare le galassie e in generale le strutture complesse presenti oggi nell'universo, cosa che la gravità modificata non riesce a fare. Insomma, un vero mistero.




L'energia oscura. Se la materia oscura è un mistero, l'energia oscura lo è ancora di più. Recenti osservazioni sull'espansione dell'universo mostrano che in passato l'universo si espandeva più lentamente. Ovvero l'universo accelera nella sua espansione. Non sappiamo cosa origini questo fenomeno. Anzi, basandosi sulle leggi fisiche note, l'effetto della forza di gravità dovrebbe rallentare l'espansione dell'universo. L'energia oscura sembra quindi qualcosa che è associato allo spazio prodotto dall'espansione stessa dell'universo, una forza repulsiva la cui origine è in ciò che chiamiamo "vuoto". Al momento non esiste nessun meccanismo conosciuto in grado di spiegare questa cosa.

Il valore della costante cosmologica. Il più grande errore di calcolo della storia! Sappiamo che il vuoto in fisica è molto più complesso del vuoto dei filosofi, e che i processi quantistici contribuiscono all'energia del vuoto, tramite tutte le possibili particelle virtuali che possono popolare il vuoto stesso. E quindi non solo coppie di elettrone-positrone, ma anche tutte le possibili particelle più pesanti su su fino a particelle con la massa di Planck. Applicando la fisica che conosciamo, quella stessa fisica che nella teoria dei campi ha dato risultati straordinariamente precisi, è quindi possibile calcolare quella che dovrebbe essere l'energia del vuoto. Peccato che il calcolo teorico differisca di 120 ordini di grandezza dal valore misurato. Chiaramente c'è qualcosa che ci sfugge, ma non sappiamo cosa. Però, per giustificare un errore d 120 ordini di grandezza, questo qualcosa deve essere piuttosto importante!

Le costanti fondamentali. Perché hanno i valori che hanno? Non intendo i valori numerici, che dipendono ovviamente dalla scelta delle unità di misura. Intendo che cosa determina la velocità della luce? E la carica elettrica unitaria, e la costante di gravitazione universale? Esistono dei meccanismi, nelle leggi della natura, che fanno sì che le costanti fondamentali debbano avere proprio quei valori?

Collegato alla domanda precedente: esiste il Multiverso? Il nostro universo è chiaramente un universo in cui le leggi fisiche e le costanti fondamentali sono tali da permettere la vita. Messa così è una tautologia, dato che altrimenti non saremmo tutti qui a porci il problema, che esiste solo perché esistiamo. Se l'universo fosse inospitale per la vita, non ci sarebbe nemmeno nessuno a chiedersi come mai. Ma la domanda è: è un caso, o esiste un meccanismo fisico, insito nelle leggi della Natura, che fa sì che l'universo debba essere necessariamente tale? Certi modelli sulle prime fasi di vita dell'universo prevedono che possa essere avvenuta ciò che in gergo si chiama "inflazione". In pratica l'universo avrebbe subito una fase breve di enorme espansione, con il risultato di rendere ciò che chiamiamo "Universo" soltanto una delle innumerevoli porzioni del vero Universo, tutte scorrelate fra loro da rapporti di causa e effetto, e tutte con condizioni diverse fra loro in termini di costanti della natura. La maggioranza di questi universi avrebbero quindi condizioni del tutto inadatte alla vita, e solo in alcuni, invece, i valori delle costanti della Natura la renderebbero possibile. In questi ultimi, e solo in questi, quindi, esisterebbero eventuali esseri pensanti a porsi il problema. Esistono già osservazioni sperimentali che sono in accordo con le caratteristiche previste dal modello inflazionario dell'universo, e questo è uno dei grandi problemi che potranno ricevere input importanti dai futuri esperimenti sullo studio dell'universo primordiale.

Dove è finita l'antimateria? Le leggi della Natura non fanno praticamente alcuna differenza fra materia e antimateria. A parte alcune piccole differenze che coinvolgono processi legati alle interazioni deboli, particelle e antiparticelle seguono esattamente le stesse leggi fisiche. Quindi la domanda è: perché, se la Natura non distingue fra i due tipi di materia, in giro ce n'è solo un tipo fra i due? Dove è finito l'altro tipo, quello che noi chiamiamo antimateria? Quale meccanismo a noi sconosciuto ha fatto sì che la Natura se ne sia sbarazzata? Al momento non abbiamo la risposta.

Il collasso della funzione d'onda. Cosa fa sì che, effettuando una misura su un sistema quantistico (ad esempio un elettrone), la natura "scelga" fra tutti i possibili stati in modo casuale? Che cosa causa questa transizione? C'è qualcosa che ci sfugge, oppure il mondo è realmente quantistico, e la pretesa di descriverlo secondo la nostra logica umana è destinata a fallire?

Cosa c'è dentro un buco nero? Visti da fuori, i buchi neri sono sorgenti di campi gravitazionali così intensi da impedire perfino alla luce di uscirne. Li osserviamo, e li sappiamo descrivere molto bene, e le osservazioni corrispondono con ciò che ci prevede la Teoria della Relatività Generale. Ma cosa c'è dentro un buco nero, in quella che chiamiamo "singolarità?". Nella singolarità le nostre leggi fisiche non possono essere applicate, e falliscono miseramente. Quindi cos'è in realtà un buco nero? La gravità quantistica potrebbe spiegarlo?

Esiste vita altrove nell'Universo? Questa secondo me sarebbe una scoperta veramente epocale. Non mi riferisco agli omini verdi con la capoccia gigantesca e il collo sottile degli ufologi. Mi riferisco a una qualunque forma di vita, anche molto basica. Sarebbe una scoperta fantastica, sia per l'immenso campo di studi che aprirebbe, ma anche e soprattutto perché ci dimostrerebbe che l'unicità e la specialità di noi umani da tanti declamata e millantata, di unico e di speciale non ha nulla.










giovedì 18 marzo 2021

Il tempo non esiste!!!!!

E' la frase perentoria che sui gruppi Facebook di fisica certi ti rivolgono non appena menzioni la parola tempo. Un intervento a gamba tesa mentre ingenuamente usi la parola tempo per cercare di descrivere un normale problema di fisica. Che ti viene da dire "si va bene, mo' me lo segno!", come Troisi quando gli dicevano "Ricordati che devi morire!".

Ma da dove nasce questa moda dei cultori della fisica 2.0, per cui se poco poco menzioni il termine tempo, è garantito che arrivi subito qualcuno a ricordarti che il tempo non esiste? La moda ha origine da Carlo Rovelli (che Dio lo fulmini, prima o poi pagherà per aver dato il via a questo delirio) fisico e scrittore che con il suo libro L'ordine del tempo (ed. Adelphi) ha venduto più delle cinquanta sfumature di rosso, nero, fucsia e beige tutte assieme.

E quindi adesso vogliamo capire le motivazioni vere che stanno dietro questa affermazione sul tempo, affermazione che ovviamente ha un'origine seria e scientifica, ma che certamente non si può sintetizzare nella frase secca il tempo non esiste, come si direbbe per Babbo Natale o la fatina dei dentini.

Che cosa intende quindi Carlo Rovelli (e tanti altri fisici con lui) con la frase il tempo non esiste? Intende che il tempo, secondo alcune teorie, è una quantità emergente, e non realmente esistente in sé. Facciamo un esempio che tutti conosciamo: la temperatura. 

La temperatura la misuriamo, ne parliamo, ne confrontiamo i valori  da città a città e da ora a ora. Tuttavia, la temperatura in realtà non è una grandezza fisica fondamentale, ma è una proprietà emergente di qualcosa di più fondamentale, che è la struttura e la dinamica dei componenti della materia. La temperatura di una pentola d'acqua non è altro che l'effetto macroscopico dell'energia cinetica delle molecole d'acqua, e della loro interazione. La temperatura di una stanza misurata da un termometro è il risultato delle interazioni delle molecole dell'ambiente circostante con le molecole del termometro. Se fossimo una molecola di un gas, sballottata in mezzo a tante altre molecole, non sapremmo dire il valore della nostra temperatura. Non capiremmo nemmeno la domanda. La temperatura è quindi un parametro che utilizziamo, e che ci è comodo utilizzare per descrivere i fenomeni con cui conviviamo, la cui vera natura sta però in qualcosa di più fondamentale. In questo senso la temperatura in sé non esiste, ma è un fenomeno emergente.

E il tempo invece? In che senso il tempo è una quantità emergente di qualcos'altro? Da dove nasce l'esigenza di considerare il tempo l'effetto emergente di qualcos'altro? E soprattutto, che cos'è questo qualcos'altro? La questione è spiegata dalla gravità quantistica.

Per capire dove sta il problema che ci porterà a queste conclusioni, partiamo dalla Gravitazione. Prima di Einstein lo spazio era un contenitore inerte all'interno del quale si muovevano e agivano le masse, i pianeti, il sole, le stelle. Il tempo, poi, era un'entità scandita da qualche orologio universale, un Istituto Galileo Ferraris che dava l'ora a tutti quanti nell'Universo. Spazio e tempo erano un palcoscenico vuoto e passivo, in cui semplicemente erano collocate le cose del mondo.

Poi però arriva la Teoria della Relatività Ristretta, che interconnette spazio e tempo. La causa di questa connessione è duplice: l'invarianza della velocità della luce, che è la stessa ovunque e comunque la si misuri, e il fatto che le leggi della fisica non dipendono da dove ci si trova, se in moto attorno al sole, in poltrona sul divano, in viaggio verso Plutone. La Relatività Ristretta, supportata da una miriade di esperimenti di tutti i tipi, ci obbliga a parlare di spazio-tempo come quantità connesse fra loro.

Dieci anni dopo arriva la Relatività Generale, in cui lo spazio e il tempo non solo sono connessi fra loro, ma smettono anche di essere un teatro vuoto da riempire con i fatti e gli abitanti del mondo. Essi diventano infatti parte attiva di ciò che avviene nel mondo, dando origine alla forza di gravità. Nella Relatività Generale ciò che chiamiamo forza di gravità in realtà è una modifica, una distorsione dello spazio-tempo. Quella che credevamo essere una forza che agiva nello spazio e nel tempo, è in realtà il risultato di una proprietà intrinseca dello spazio-tempo: la sua geometria. Una mela che cade in realtà, secondo la teoria della Relatività Generale, si muove liberamente, non soggetta a forze, in uno spazio-tempo modificato dalla presenza della terra e della mela stessa. Mentre cade, la mela, dal suo punto di vista, sta ferma (e infatti, come gli astronauti in orbita, non percepisce nessuna forza su di sé).

Poi però abbiamo le altre forze, o interazioni, come le chiamano i fisici: l'elettromagnetismo, le forze nucleari deboli e forti. Queste interazioni sono descritte oggi dalla meccanica quantistica, in ciò che si chiama teoria quantistica dei campi. Nella teoria quantistica dei campi lo spazio e il tempo sono di nuovo quelli di Newton. Non sono parte attiva di ciò che avviene, come per la gravitazione, ma sono spettatori muti dei fenomeni quantistici.  Sono un semplice contenitore. 

La teoria quantistica dei campi, come la Relatività Generale, è suffragata da una tonnellata di esperimenti di tutti i tipi.

Quindi siamo nella situazione paradossale in cui abbiamo due teorie di estremo successo nel loro rispettivo campo, la Relatività Generale e la Meccanica Quantistica, che però usano lo spazio-tempo in modo radicalmente e concettualmente diverso. La prima vede nelle proprietà dello spazio-tempo la causa dei fenomeni, mentre la seconda lo usa come un semplice contenitore totalmente passivo.

Chiaramente c'è qualcosa che non va. Chiaramente queste due visioni non possono convivere, se si tenta di mettere assieme teoria dei campi e gravitazione.

All'atto pratico, non è in realtà un grosso problema, perché nel mondo dei fenomeni quantistici che riusciamo a studiare la gravità ha un effetto praticamente nullo. Le interazioni elettromagnetiche, nucleari e deboli sono immensamente più forti di quelle gravitazionali, tanto da rendere quest'ultima assolutamente trascurabile. Una calamita da 1 euro a forma di puffo sul frigorifero vince su tutta la forza di gravità dell'intera Terra nel trattenere un foglio di carta dal cadere. Nelle interazioni fra atomi, molecole, nuclei e particelle studiate nei nostri laboratori, possiamo tranquillamente ignorare la gravità senza sbagliare di una virgola.

Però possiamo allo stesso tempo ipotizzare situazioni in cui la gravità diventi rilevante, importante tanto quanto  le altre interazioni. Se ad esempio potessimo far scontrare due protoni non all'energia di 1000 GeV, come avviene all'LHC del Cern o nei raggi cosmici più energetici, ma all'energia di 10¹⁹ GeV, nel punto in cui i due protoni si scontrerebbero concentreremmo così tanta energia da produrre un buco nero. Un buco nero quantistico, grande (si fa per dire) 10−35 m, ma pur sempre un buco nero. In queste condizioni è chiaro che non potremmo ignorare la Relatività Generale, pur trattandosi di un fenomeno quantistico. E una mistura del genere non sappiamo proprio descriverla con la fisica che conosciamo.  

In queste situazioni estreme, infatti, i due mondi, quello gravitazionale in cui lo spazio-tempo è parte attiva dei fenomeni, e quello quantistico, in cui lo spazio-tempo è un semplice contenitore inerte e vuoto, si incontrano senza poter convivere. Entrambi contemporaneamente non li sappiamo trattare, con la fisica che conosciamo.

Da questo nasce l'esigenza della gravità quantistica, che è il ponte fra questi due mondi che al momento ci manca.

Costruire una teoria di gravità quantistica significa in pratica partorire una teoria più profonda e più completa dello spazio e del tempo, e di come essi interagiscono con la materia. In questa teoria più fondamentale, su cui lavorano molti fisici teorici (tra cui Carlo Rovelli) lo spazio-tempo non è il punto di partenza, ma il punto di arrivo. E notate bene che questo non è un problema filosofico, come ingenuamente si potrebbe credere, ma un problema strettamente fisico. I problemi di compatibilità delle teorie fisiche che si incontrano alla scala di Planck sono problemi fisici, concreti, sebbene ininfluenti nel mondo quotidiano. Nei primi istanti di vita dell'universo, tanti per dire, erano la normalità.

Esiste molta ricerca teorica in questo campo. In alcuni settori di questa ricerca i quanti fondamentali sono i costituenti elementari dello spazio-tempo stesso, gli atomi che lo costituiscono. E quindi, in queste teorie, non esiste uno spazio-tempo in cui essi agiscono (agiscono su spazi matematici più astratti) ma lo spazio-tempo viene da essi generato come effetto per così dire secondario della loro esistenza. Sono pertanto la dinamica e le interazioni di queste entità fondamentali a generare una specie di fenomeno collettivo che chiamiamo spazio-tempo. In questo senso lo spazio e il tempo sono quindi quantità emergenti, così come lo è la temperatura.

Possiamo mettere alla prova le nostre congetture sulla gravità quantistica? Esistono quantità misurabili sperimentalmente per validare o smentire le ipotesi della gravità quantistica? L'ambiente ideale, e per il momento unico in cui mettere alla prova queste teorie, è l'universo primordiale. L'universo di quasi 14 miliardi di anni fa. Impossibile accedervi, si potrebbe pensare! Ma l'universo che osserviamo ha una particolarità: guardare distante significa guardare indietro nel tempo. Purtroppo non abbiamo accesso all'universo dei primi istanti di vita tramite ciò che chiamiamo genericamente luce. Non direttamente, per lo meno. Le condizioni dell'universo che erano presenti al momento del disaccoppiamento fra radiazione elettromagnetica e materia, avvenuto circa 13 miliardi e mezzo di anni fa, e che ha dato origine alla radiazione cosmica di fondo, rappresentano uno schermo opaco e sostanzialmente invalicabile nei confronti di tutto ciò che è avvenuto prima, che è ciò che invece ci interessa.

Tuttavia le condizioni estreme dell'universo primordiale possono avere comunque lasciato tenui tracce nei dettagli della radiazione cosmica di fondo. Qualcosa, di quelle condizioni così estreme, può essere rimasto impresso in quella luce primordiale. E questo qualcosa lo si sta cercando. Se ne vedono già le tracce, tenui increspature in un universo altrimenti tutto uguale e monotono, e esperimenti futuri cercheranno di indagarle meglio. 

Ma esistono altri ambienti in cui la gravità quantistica che regolava l'universo primordiale può avere lasciato tracce importanti, primo fra tutti le onde gravitazionali emesse in ciò che chiamiamo big bang, qualunque cosa possa significare questo termine. La nuova astronomia a onde gravitazionali, nata da pochi anni con la fantastica scoperta delle onde gravitazionali emesse dalla fusione di buchi neri, ci sta riservando continue sorprese, sebbene queste non salgano sempre all'onore delle cronache giornalistiche. E le future generazioni di esperimenti  sulla ricerca di onde gravitazionali nel cosmo potrebbero mostrarci i dettagli dell'universo appena nato proprio tramite queste messaggere del cosmo.

Torniamo sulla Terra per le conclusioni: il tempo non esiste (e neanche lo spazio) in un mondo regolato dalla gravità quantistica. Tuttavia la frase "il tempo non esiste" è del tutto priva di senso se applicata ai problemi fisici reali che trattiamo abitualmente.  Priva di senso come sarebbe privo di senso affermare  che la temperatura non esiste a uno che si lamenta di avere freddo e vuole alzare il termosifone. O al medico che ti chiede se hai avuto la febbre. A meno che il vostro interlocutore non abbia le dimensioni di  10−33 cm. In quel caso potrebbe aver un senso.

Per  maggiori approfondimenti: https://www.nature.com/articles/d41586-018-05095-z

 


domenica 7 marzo 2021

Cosa c'entrano i morti per Covid-19 con il Bosone di Higgs?

Cosa potranno mai avere in comune il conteggio del numero di morti causati dal Covid-19 con la scoperta del Bosone di Higgs? Risposta: il metodo. Il metodo per valutare quanti morti di Coronavirus si sono verificati in questo ultimo anno, o nei vari mesi, è infatti concettualmente lo stesso metodo che ci permette di valutare in quanti urti fra particelle (i fisici li chiamano "eventi") è  stato prodotto un bosone di Higgs, nei dati raccolti dagli esperimenti di LHC del Cern di Ginevra.

Entrambi i casi sono accumunati dal fatto che, caso per caso, sia che si tratti di Covid che di particelle elementari, ci possono essere ambiguità di vario tipo sul fatto che quello che stiamo osservando sia il nostro "segnale" o un possibile fondo. Per capirci meglio: avete presente la (ridicola, per lo meno per me) diatriba su morto "per Covid" o "con Covid"? Quella discussione per cui, secondo alcuni, un diabetico che con l'insulina sarebbe comunque campato altri 40 anni, ma che aveva avuto la sfiga di beccarsi il virus e morire per le sue complicanze, non poteva essere annoverato fra i casi di morti "per Covid", ma era solo morto "con Covid". Questa possibile incertezza certamente influisce sul numero totale di decessi imputabili al Covid, se il conteggio lo effettuiamo andando ad assegnare la causa di morte singolarmente, caso per caso.
 
Sempre a seguito di queste incertezze sul conteggio dei decessi e sulla loro catalogazione, a basarsi sui dati del rapporto fra numero di morti e numero di casi di infezione da Covid, dovremmo concludere che l'India, la Georgia o  la Bielorussia, solo per citare alcuni esempi, abbiano sistemi sanitari invidiabili se confrontati a quelli inglesi o francesi.

Queste incertezze nel conteggiare e catalogare le vittime, che sono legate a criteri, situazioni e metodi diversi nei vari stati, si è tradotto infatti in tassi di mortalità ambigui e apparentemente anche molto diversi da nazione a nazione, con l'inevitabile strascico di polemiche e di decise prese di posizione da parte di gente che invece avrebbe fatto meglio a tacere. E quindi come possiamo dare una stima il meno possibile ambigua su quanti morti ha causato il Coronavirus in questo anno? Una stima il meno possibile influenzata da questi effetti legati alla catalogazione dei casi e dei decessi? Possiamo fare come si fa con il Bosone di Higgs.

Per contare quante volte viene prodotto un Bosone di Higgs nei dati di un esperimento di LHC del Cern, non si vanno a vedere i singoli dati spulciandoli uno a uno dicendo "questo si, questo si, questo no, questo si..." e così via.  Non lo si fa perché sul singolo evento possono sussistere ambiguità che lo rendono non sempre facilmente identificabile in modo inequivocabile come evento di fondo o di segnale. Sappiamo distinguere certi eventi di fondo, ma su certi invece proprio non possiamo dire niente di definitivo. 

E allora cosa si fa? Semplice, si conta l'eccesso di dati osservati rispetto al fondo previsto. Guardate questo grafico.
 
I dati sono i bolli neri, riportati in funzione della massa dell'evento. Non stiamo a specificare cosa sia questa massa, perché in questo frangente la cosa è irrilevante. Il bosone di Higgs viene prodotto a una massa attorno a 125 GeV.  Però in quella zona di massa non c'è solo il Bosone di Higgs, ma anche il fondo, ovvero eventi che sono indistinguibili o difficilmente distinguibili dagli eventi che contengono un Bosone di Higgs, ma che non hanno niente a che fare con la produzione della particella cercata. Per questi eventi non c'è nessun modo per guardarli in faccia e dire "tu sei fondo" oppure "tu sei un Higgs".
 
Quello che si fa, quindi, è stimare quanto fondo ci si aspetta (ad esempio estrapolando dalle zone limitrofe in massa, oppure usando una simulazione in cui non è incluso il Bosone di Higgs, o utilizzando altri metodi più o meno sofisticati) e sottrarre dal totale dei dati osservati (i punti con i bolli neri sono i dati) il numero di eventi di fondo aspettati. Il fondo medio aspettato è quello rosso. Si vede che i dati (i punti neri) coincidono con il fondo medio atteso (entro le fluttuazioni statistiche) esclusa una zona attorno a 125 GeV, in cui i dati sono in chiaro eccesso rispetto al fondo. L'area blu indica questo eccesso, e rappresenta quanti eventi contenenti il Bosone di Higgs sono stati realmente osservati.

Ovviamente questi numeri avranno incertezze sperimentali di vario tipo, legate alla numerosità del campione statistico, alla parametrizzazione del fondo o ad altri effetti, e queste incertezze si tradurranno in una incertezza sul numero di Bosoni di Higgs prodotti. Tuttavia questo è il modo più accurato per determinare quanti eventi imputabili alla produzione di un Bosone di Higgs sono stati osservati dall'esperimento.

E il Covid cosa c'entra in tutto questo? Per il Covid il discorso è del tutto analogo. Quello che facciamo è contare il numero totale di decessi osservati durante l'ultimo anno, e sottrargli il numero di decessi che si sarebbero osservati senza Covid, ovvero il fondo. Questo fondo può essere determinato usando i dati della mortalità negli anni passati, quindi senza l'epidemia di mezzo, magari mediando su più anni, per minimizzare le fluttuazioni statistiche e sistematiche presenti da anno a anno.

Alla base di questo ragionamento c'è l'assunzione che nel 2020 la mortalità sarebbe stata quella degli anni precedenti, pur nell'ambito delle normali fluttuazioni da anno a anno, se non ci fosse stato il Covid. E quindi la mortalità dovuta al Covid sarà l'eccesso di mortalità rispetto a quello che ci si sarebbe aspettato in base ai dati degli anni precedenti.

Certamente ci saranno delle incertezze non solo dovute alla statistica, ma anche sistematiche. Ad esempio ci potrebbero essere state annate con influenze (quelle standard) più o meno aggressive, e questo influirà aggiungendo incertezze sul calcolo dei morti aspettati senza il Covid. Analogamente, alcune estati particolarmente calde degli anni scorsi hanno implicato una maggiore mortalità fra gli anziani rispetto alla media. Come per il Bosone di Higgs, insomma, ci sono delle incertezze "sperimentali" che vanno tenute nel giusto conto, ma questo resta comunque il modo più accurato e "unbiased" per valutare l'eccesso di mortalità.

In questo modo, che uno sia morto per Covid o con Covid, che all'ospedale lo abbiano registrato come decesso per polmonite, per arresto cardiaco o per Covid diventa del tutto irrilevante, perché quello che si conteggia è il numero di decessi in eccedenza rispetto a quanto ci si sarebbe aspettato senza il Covid, senza preoccuparsi delle cause.

Analogamente sono automaticamente conteggiati anche altri effetti che potrebbero avere influito sulla mortalità, indirettamente legati al Covid. Ad esempio il lockdown certamente ha ridotto il numero di incidenti stradali, oppure il numero di incidenti sul lavoro, o il numero di morti per influenza standard, grazie all'uso diffuso delle mascherine. Ma può anche avere influito (anzi, certamente lo ha fatto) sulla mortalità per altre patologie, che sono state trascurate o mal curate a causa dell'impatto dell'emergenza Covid sul sistema sanitario.

E quindi vediamolo, questo conteggio!
 
In questo sito è mostrato l'eccesso di mortalità rispetto al fondo aspettato, in percentuale. L'eccesso può essere in più o in meno, ovviamente. Potete includere o togliere i vari Paesi, e confrontarli fra loro. I dati sono quelli ufficiali forniti dagli istituti demografici dei vari Paesi. Per l'Italia è l'Istat, che aggiorna i risultati ogni 3 mesi, per cui gli ultimi dati potrebbero non essere ancora inclusi.


Potete valutare l'altezza del picco dei decessi, ma anche l'integrale della curva, ovvero la sua area totale, che rappresenta il numero totale di decessi.  Ad esempio potete confrontare la mortalità in eccesso nella molto discussa Svezia rispetto agli altri paesi scandinavi, simili per densità e distribuzione della popolazione sul territorio, ma differenti per il modo di affrontare l'epidemia, e trarne alcune conclusioni qualitative.


Una analisi statistica simile, basata sui dati italiani, ma molto più approfondita e dettagliata, è stata condotta da un gruppo dell'Istituto Nazionale di Fisica Nucleare (INFN). Nell'analisi, basata sui dati dell'Istat e aggiornata al Settembre 2020, sono mostrati anche i picchi di mortalità invernali e estivi degli ultimi anni, dovuti all'influenza stagionale e alle varie ondate di caldo, confrontati per varie categorie e appartenenze geografiche. Il link all'articolo (sono di parte, ma è molto interessante e completo!) è questo: https://arxiv.org/pdf/2102.01629.pdf





lunedì 22 febbraio 2021

L'incostante di struttura fine, e altre costanti poco costanti.

Quello che segue vuole mostrare quanto la natura possa essere complessa e lontana dal senso comune quando andiamo a considerare fenomeni che avvengono su scala estremamente piccola. Il pretesto è un problema all'apparenza molto semplice: misurare la carica elettrica di un elettrone.

Ovviamente dal punto di vista strettamente sperimentale la cosa può essere decisamente complicata, ma la premessa è che non ci preoccuperemo degli aspetti tecnico-pratici, che certamente hanno un ruolo importante se si vuole effettuare questa misura, ma analizzeremo la questione dal punto di vista strettamente concettuale. 


Idealmente, per misurare la carica dell'elettrone, potremmo prendere due elettroni, metterli a una certa distanza nello spazio, e misurare la forza che li spinge ad allontanarsi fra loro. Questo è un semplice problema di elettrostatica, al quale applicheremo la legge di Coulomb: nota la distanza, e misurata la forza che agisce fra le due cariche, ricaveremo il valore della carica elettrica delle due particelle.

Uno potrebbe obiettare che è difficile tenere fermi due elettroni e misurarne la forza, anche senza scomodare il principio di indeterminazione, per cui, più concretamente, potremmo porre un certo numero di elettroni su un elettrodo di un condensatore,  e misurare la tensione risultante. Il valore che ricaveremmo è quello che si trova sui libri per la carica dell'elettrone: q = 1.60217662 × 10-19C (C=Coulombs, l'unità di misura della carica elettrica). Questo numero, se elevato al quadrato e diviso per ħ (la costante di Planck diviso 2 pigreco) e la velocità della luce c, è una quantità adimensionale (è un numero puro, senza unità di misura) che vale circa 1/137. Si chiama costante di struttura fine, e è una delle costanti fondamentali della Natura.

La costante di Struttura Fine: e è la carica dell'elettrone, h tagliato è la costante di Planck divisa per 2 pigreco, c è la velocità della luce. Il suo valore è circa 1 su 137.

Quella che abbiamo appena descritto è una misura di tipo statico: gli elettroni stanno fermi, o al massimo si agitano un po' sugli elettrodi del condensatore.

Però potremmo agire in un altro modo. Potremo prendere un elettrone, e spararlo contro un altro elettrone, oppure sparare due elettroni uno contro l'altro, che alla fine è poi la stessa cosa. Gli elettroni, avvicinandosi, si respingeranno a vicenda, modificando la loro traiettoria, e verranno deflessi. Il modo in cui verranno deflessi, che è calcolabile, dipende dalla loro carica elettrica e dal parametro di impatto, cioè in sostanza da quanto al massimo si possono avvicinare reciprocamente, avendo cercato di prendere bene la mira. 

Questo modo di misurare la carica dell'elettrone, diverso dal precedente dal punto di vista del metodo, è di tipo dinamico: risaliamo cioè al valore della carica dell'elettrone in base a come i due elettroni si muovono mentre si respingono fra loro, misurando come le loro traiettorie vengono deflesse se li lanciamo uno contro l'altro. 

Però i risultati dovrebbero essere identici. E infatti lo sono: l'urto ci mostra un comportamento che è il risultato della legge di Coulomb per due elettroni in movimento. I due elettroni si respingono mentre si avvicinano, interagendo fra loro secondo una legge che varia con l'inverso del quadrato della loro distanza. Le loro traiettorie sono il risultato di questo tipo di interazione, e dallo studio delle loro traiettorie possiamo ricavare il valore delle loro cariche elettriche. E il risultato, per il valore della carica dell'elettrone, è sempre lo stesso.

Adesso però cerchiamo di sparare i due elettroni uno contro l'altro cercando di prendere bene la mira, e dando loro un grande impulso, in modo che si avvicinino il più possibile, cercando di vincere la loro repulsione elettrica. E cerchiamo di farlo aumentando ogni volta sempre di più il loro impulso.

Se facciamo questo, succedono cose strane. Il modo in cui i due elettroni si comportano se prendiamo molto bene la mira, e conferiamo loro un grande impulso, è tale che la carica elettrica dell'elettrone, che ricaviamo dalle traiettorie degli elettroni durante l'urto, sembra aumentare al crescere dell'impulso che si scambiano i due elettroni. Il valore della costante di struttura fine che misuriamo, in pratica, cresce con il crescere dell'energia dell'urto con cui cerchiamo di misurarlo.

La domanda a questo punto è: come è possibile che una quantità che è il prodotto di costanti fondamentali della natura, non sia affatto costante? Cosa succede alla carica dell'elettrone? Come può essa variare a seconda dell'impulso scambiato dai due elettroni durante l'urto?

Ce lo spiega l'elettrodinamica quantistica e la teoria dei campi quantistici. Calmi, niente panico!

Per capire cosa succede, vediamo che cosa implichi aumentare l'impulso dei due elettroni che vanno a interagire reciprocamente. Aumentare l'impulso vuol dire diminuire di conseguenza la lunghezza d'onda di De Broglie dell'elettrone: maggiore è l'impulso di una particella, minore è la sua lunghezza d'onda associata. Questo permette in pratica agli elettroni di "scrutarsi" reciprocamente con maggiore risoluzione. 

D'altra parte è così che funziona un microscopio elettronico: se vogliamo vedere qualcosa di molto piccolo, invece di usare un fascio di luce, la cui lunghezza d'onda è troppo grande per "vedere", ad esempio, la struttura di un cristallo, si usa un microscopio elettronico, nel quale al posto della luce, per illuminare l'oggetto che voglio studiare, uso un fascio di elettroni opportunamente accelerato.

Quando questo fascio di elettroni interagisce con l'oggetto da studiare, la sua lunghezza d'onda, determinata dosando l'impulso del fascio di elettroni in modo da essere sufficiente piccola, è capace di "vedere" i dettagli dell'oggetto che ci interessano. In pratica l'interazione dell'elettrone avviene con i dettagli dell'oggetto posti sul "vetrino", e questi dettagli sono tanto più piccoli tanto maggiore è l'impulso degli elettroni. Questo ci permette di vedere, tramite un microscopio elettronico, dettagli altrimenti invisibili con un normale microscopio ottico, che cioè sfrutta la luce per illuminare ciò che vogliamo vedere, e che quindi non potrà mai mostrarci dettagli più piccoli della lunghezza d'onda della luce visibile, non importa quanto siano buone le lenti.

Quindi, quando lanciamo un elettrone contro l'altro, ad esempio in un acceleratore di particelle, i due elettroni, grazie alla loro piccola lunghezza d'onda di De Broglie, che è tanto più piccola tanto maggiore è il loro impulso, si "scrutano" da molto vicino, e sono capaci di vedere cose che, ad elettroni che si avvicinano con un basso impulso reciproco, risulterebbero invisibili.

E sebbene - per quanto ne sappiamo - gli elettroni non abbiano una struttura interna (nel senso che gli esperimento fatti finora non hanno mai evidenziato che gli elettroni siano composti di sottostrutture) quando si scrutano così in dettaglio si accorgono che lo spazio attorno ad essi, a risoluzioni spaziali così estreme, è tutt'altro che vuoto, ma appare come polarizzato dalla loro presenza, ovvero dalle loro cariche elettriche, come se fosse un dielettrico. Questa polarizzazione si manifesta circondando i due elettroni di una moltitudine di coppie elettrone-positrone (il positrone è l'antiparticella dell'elettrone). Aumentando l'impulso degli elettroni, riusciamo però a penetrare dentro questa nube, che dall'esterno funge da parziale schermo alla "vera" carica dell'elettrone. 

E il risultato è che la carica di un elettrone ci appare variare con l'impulso dell'elettrone sonda con cui lo studiamo. Se ad esempio misuriamo la carica dell'elettrone con elettroni dall'energia di 100 GeV o più, come accade nei moderni acceleratori, tipo il LEP del Cern, che ha raccolto dati nell'ultimo decennio del secolo scorso, la costante di struttura fine passa da 1/137 dei libri, a circa 1/128. 

Ci tengo a sottolineare che il fenomeno della polarizzazione del vuoto, sebbene possa sembrare fantascientifico, è così ben descritto dall'elettrodinamica quantistica che le previsioni teoriche delle quantità osservabili combaciano con le misure sperimentali con precisioni altissime, tanto da rappresentare le misure più precise in assoluto in fisica. Nessun altra misura in fisica, di nessun tipo, può vantare un confronto teoria-esperimento così perfetto.


L'evoluzione dell'inverso della costante di struttura fine in funzione del quadri-impulso trasferito nell'urto. La linea continua è la previsione teorica secondo l'elettrodinamica quantistica (QED).

Un effetto simile accade anche con la costante di accoppiamento delle interazioni nucleari forti. In questo caso, però, l'effetto è opposto. L'interazione fra due quark è infatti "forte" a distanze "grandi" (in questo caso "grandi" sono le distanze tipiche dei protoni dentro un nucleo), cosa che impedisce di riuscire a strappare un quark dall'interno di un protone, perché allontanandolo dagli altri quark la forza che li tiene assieme diventa enorme. Però, se aumentiamo l'energia a cui facciamo scontrare due protoni, la forza nucleare forte diventa man mano più debole, e i quark si comportano come se fossero quasi liberi, ovvero la costante di accoppiamento della forza nucleare forte diminuisce. Questa condizione estrema della materia, che ha caratterizzato una breve fase nell'evoluzione dell'universo primordiale, è stata riprodotta agli acceleratori di particelle come LHC del Cern, in particolare in urti ad altissima energia fra singoli nuclei di piombo, e si chiama "quark-gluon plasma". In queste condizioni in cui una grande energia è concentrata in una zona delle dimensioni di due nuclei atomici di Piombo, per un breve istante i quark e i loro collanti, che si chiamano gluoni, vagano liberi, capaci di percorrere distanze molto maggiori (anche se pur sempre infinitesime) rispetto a ciò che è loro normalmente concesso. 

L'evoluzione della costante di accoppiamento della forza nucleare forte è visualizzata nel grafico qua sotto, dove sono riportate le misure effettuate a energie via via crescenti.


La costante delle interazioni forti, al contrario della costante di struttura fine, decresce con l'energia degli urti.

Il comportamento delle interazioni nucleari forti che rende impossibile separare due quark da renderli liberi nel vuoto, si vede bene in urti osservati agli acceleratori di particelle, come quello in figura qua sotto. Nell'urto fra un elettrone e un positrone viene "creata" una coppia quark-antiquark, che si separa con grande impulso non appena prodotta. Quando il quark e l'antiquark raggiungono distanze tipiche di un decimo di miliardesimo di centimetro, (1 fm, la dimensione tipica di un protone), la forza nucleare forte, debole a distanze inferiori, diventa così intensa da impedire loro di allontanarsi ulteriormente. E' un po' come un elastico che si tende, per fare una analogia: quando i capi dell'elastico sono vicini possiamo muoverli come vogliamo, ma se cerchiamo di allontanarli troppo, l'elastico accumula energia e ci impedisce di andare oltre. A quel punto l'energia accumulata fra i due quark è così grande da "spezzare l'elastico" e materializzarsi in tante coppie di quark-antiquark formate da tutta questa energia concentrata lungo la direzione del moto dei quark iniziali. Questi quark si appiccicano immediatamente fra di loro, formando decine di particelle, che si manifestano macroscopicamente come due "jet", due spruzzate di particelle emesse in direzione opposta, orientate secondo la direzione dei due quark originari. Di eventi di questo tipo ne sono stati osservati in grande quantità, e sono la normalità negli odierni esperimenti di particelle.

Un evento a due jet di particelle, risultato della produzione di una coppia quark-antiquark con alto impulso.





 

 



mercoledì 27 gennaio 2021

Il buco nero nel centro della Via Lattea con la matematica del liceo.

Premi Nobel per la Fisica del 2020, assegnati a Roger Penrose, Reinhard Genzel e Andrea Ghez (una donna, finalmente!) hanno come tema comune i buchi neri. In particolare, gli ultimi due nomi hanno effettuato lo studio di Sagittarius A, un oggetto astrofisico situato al centro della nostra Via Lattea, a 27000 anni luce dalla terra, già noto per essere una intensa sorgente radio. Il lavoro indipendente dei gruppi di ricerca coordinati da Genzel e Ghez ha portato alla scoperta che Sagittarius A è in realtà un buco nero supermassiccio. Molte galassie hanno la caratteristica di avere un buco nero di grande massa al loro centro (fonte), pari a milioni o addirittura miliardi di masse solari. 

La zona di stelle al centro della nostra Via Lattea. Sagittarius A si trova nel riquadro.

Il raggio di un buco nero (quello che tecnicamente si chiama "Raggio di Schwarzschild") caratterizza la superficie della sfera di non ritorno in un ipotetico viaggio verso un buco nero, la superficie sulla quale la velocità di fuga per uscire dal buco nero assume il valore della velocità della luce. Nulla, neanche un raggio di luce, se emesso all'interno di questa superficie, potrebbe fuoriuscirne, e essere visibile al mondo esterno. Non è una superficie fisica, non è la superficie del buco nero, non è la superficie che delimita la materia del buco nero dal mondo esterno. E' una superficie ideale, matematica. Il valore del raggio di questa ipotetica sfera cresce proporzionalmente alla massa del buco nero, e vale:

dove M è la massa del buco nero, G è la costante di gravitazione, e c è la velocità della luce. 

Se potessimo idealmente comprimere la terra tanto da formarne un buco nero, il suo raggio di Schwarzschild sarebbe grosso modo pari a un centimetro. Per il sole esso varrebbe invece circa 3 Km. Al centro della galassia M87, nella costellazione della Vergine, a una cinquantina di milioni di anni luce da noi, c'è un buco nero (recentemente "fotografato") la cui massa stimata è di 6.6 miliardi di masse solari, che corrispondono a un raggio di Schwarzschild di una ventina di miliardi di chilometri, circa 3 volte la distanza di Plutone dal Sole. 

Sagittarius A, il buco nero supermassiccio nostrano (che però non è il buco nero più vicino alla terra!), è un po' più magro, dato che ha una massa stimata di circa 4 milioni di masse solari, che corrispondono a un Raggio di Schwarzschild di circa 12 milioni di chilometri. Circa  17 volte le dimensioni del nostro sole, e corrispondenti a 40 secondi luce. La distanza terra-sole, per confronto, è pari a circa 500 secondi luce, grossomodo 8 minuti.

Il lavoro che ha portato Reinhard Genzel e Andrea Ghez a vincere il premio Nobel riguarda la misura dei parametri di Sagittarius A, e ha del meraviglioso. Infatti, a parte gli inevitabili aspetti tecnici, ci sono alcune caratteristiche delle misure effettuate che sono fruibili e godibili da chiunque, senza essere necessariamente esperti della materia, e che generano pura meraviglia. Questi due gruppi di ricerca hanno infatti ricavato le caratteristiche del buco nero di Sagittarius A osservando il moto delle stelle attorno al centro della nostra galassia, una zona di alta densità stellare, e mappando quindi nel tempo la posizione delle singole stelle. E quello che hanno osservato è qualcosa di inaspettato e meraviglioso per chiunque.

Infatti, normalmente, per tutti noi le stelle sono "stelle fisse". Sono sempre lì, non a caso le chiamavano così fin dall'antichità. Sono talmente distanti che la loro posizione reciproca non cambia ai nostri occhi se non usiamo strumenti sofisticati e protraiamo le osservazioni per tempi relativamente lunghi. Insomma: osservare le piccole mutazioni delle posizioni relative delle stelle, se non si è addetti ai lavori e motivati dalla propria ricerca, non è certamente qualcosa di entusiasmante. Invece l'osservazione delle stelle vicine al centro della galassia ha mostrato un vero putiferio (fonte). Una pogata generale di stelle, come succede tra il pubblico sotto il palco di un concerto metal. In questo intreccio di orbite si nota che tutte hanno un punto in comune, un fuoco dell'ellisse. In quel punto c'è la causa di tutti i loro convulsi movimenti. Il filmato spettacolare di quello che succede al centro della nostra Via Lattea è questo

Ci sono decine di stelle che orbitano attorno a un punto, con orbite più o meno ellittiche, che seguono sostanzialmente le leggi di Keplero. Certo, un buco nero è un oggetto che per definizione è legato alla Teoria della Relatività Generale, ma nonostante questo il moto di quelle stelle è comunque ben descritto dalle vecchie leggi di Newton, e la Relatività Generale influisce solo con correzioni, tipo effetti di precessione (come si osserva, in piccolo, anche per il pianeta Mercurio). In pratica, quindi, le leggi di Newton permettono già di darci un quadro molto buono di cosa c'è al centro della galassia, e che determina quel moto così folle delle stelle che gli stanno attorno.

In particolare c'è una stella che si chiama S2. Il periodo di osservazione del centro galattico da parte dei due gruppi di ricerca ha permesso di mappare con ottima precisione il moto di questa stella. Nel filmato essa compie un'ellisse completa con un periodo di 16 anni, un semiasse maggiore pari a 970 volte la distanza terra-sole, e un punto di maggiore avvicinamento a Sagittarius A di circa 17 ore luce, più o meno 4 volte la distanza fra il sole e Nettuno. Nel punto di massimo avvicinamento, la stella si muove a una velocità stimata pari a più di 7500 km/s, ovvero quasi il 3% della velocità della luce. E' bellissimo vederla muoversi, lentamente quando è nel punto più distante, e poi accelerare di colpo e svirgolare al passaggio al periastro. Sembra un video gioco. Nel punto più vicino a Sagittarius A, la teoria di Einstein prevede un redshift gravitazionale abbastanza sostanzioso, in aggiunta al redshift dovuto alla velocità. Tale redshift è stato misurato, in ottimo accordo con la teoria. Informazioni più dettagliate sulle caratteristiche di questa baraonda galattica, e le informazioni che se ne possono trarre sulle leggi fisiche, si possono trovare ad esempio qui e qui.

Ma la cosa bella è che, in base a questi parametri, possiamo calcolare la massa dell'oggetto responsabile del moto della stella.

Non sarà un calcolo preciso, certo, perché useremo la Legge d Newton. Non terremo conto delle varie correzioni legate alla Teoria della Relatività Generale, e nemmeno di tanti altri effetti. Ma dal divano di casa, con la sola fisica del terzo liceo, possiamo fare una stima di quanta massa deve esserci in quel punto senza luce attorno al quale si muove la stella S2, e assieme a lei tutte le altre di questo filmato. E il risultato di questo conto un tanto al chilo, sarà sorprendentemente accurato.

In particolare useremo la terza legge di Keplero, che peraltro deriva pari pari dalla legge di Newton. Se il moto della stella fosse circolare, dalla legge di Newton della gravitazione universale potremmo scrivere che

dove R è il raggio dell'orbita, v è la velocità tangenziale della stella che orbita, T è il periodo di rivoluzione, M è la massa che cerchiamo, e G è la solita costante di gravitazione universale. Il calcolo usa il fatto che la velocità in un moto circolare uniforme è la lunghezza della circonferenza diviso il tempo T impiegato a percorrerla. Sono cose da terza liceo, appunto.

Nel nostro caso il percorso di C2 non è una circonferenza, ma un'ellisse. In questo caso, però, si può dimostrare che il raggio R deve essere sostituito dal semiasse maggiore. Chiamiamolo "a". A questo punto, sostituendo R con a, con un semplice passaggio di algebra, abbiamo che la massa dell'oggetto misterioso che stiamo cercando vale:

In realtà M, a essere precisi, sarebbe la massa dell'oggetto attorno a cui ruota il corpo in questione (S2) sommato alla massa dell'astro centrale, ma la massa della stella S2 è dell'ordine di una decina di masse solari, e vedremo che il suo ruolo è del tutto ininfluente. Comunque questo ci dice per inciso che la terza legge di Keplero, a voler essere precisi, è approssimata, perché in essa ci sarebbe anche una leggerissima dipendenza dalla massa del pianeta (che nel nostro caso è la stella S2). Siccome però nel caso del nostro Sistema Solare le masse dei pianeti, anche i più grandi, sono piccole rispetto alla massa del sole, la Terza Legge di Keplero funziona molto bene sia per la Terra che per Giove.

Perfetto. Allora adesso mettiamoci dentro i numeri: G = 6,67×10−11 N m²/kg², T = 16.05 anni = 0,51 miliardi di secondi, a = 970 au (au = astronomy units; 1 unità astronomica è pari alla distanza terra-sole) = 1.45 ×1011 m).  A questo punto usiamo la calcolatrice, sbagliamo quelle 6 o 7 volte nel fare i conti (signora, suo figlio la matematica la capisce, ma è di un distratto!), e alla fine otteniamo M = 6.3×1036 Kg. Per capire se è tanto o poco, esprimiamo questo valore in termini di multipli di masse solari: la massa del sole vale 2×1030 Kg, quindi la massa dell'oggetto misterioso attorno a cui ruota la stella S2 vale un po' più di 3 milioni di masse solari. Il calcolo corretto, ottenuto usando anche le informazioni di tutte le altre stelle, e in cui sono incluse tutte le opportune correzioni, avrebbe dato una massa di (4.154±0.014)×106 masse solari. Non male, per un conto della serva (on the back of an envelope, dicono gli anglosassoni) in cui abbiamo usato la vecchia legge di Newton, ignorando la Relatività e tutte le possibili complicazioni, che pure ci sono!

Quindi la nostra stella S2, e tutte le altre stelle della "zona", ruotano attorno a un oggetto che ha una massa di qualche milione di masse solari, concentrata in una dimensione inferiore alle dimensioni del nostro sistema solare. Questo oggetto, con quella massa, non può essere una normale stella invisibile. Quell'oggetto, con quella massa, è un buco nero. Un buco nero gigante, per l'aggiunta. Infatti, con quella massa, un buco nero ha un Raggio di Schwarzschild di 12 milioni di km. Su quella ipotetica superficie, l'accelerazione di gravità sarebbe grosso modo pari a 370mila volte quella sulla superficie terrestre.

Ma se, putacaso, fossimo in caduta libera mentre attraversiamo allegramente quella superficie, non dovremmo preoccuparci dell'enorme valore di g, perché, essendo in caduta libera, non percepiremmo nulla, e galleggeremmo come gli astronauti nella stazione spaziale. Al limite potremmo percepire piccoli effetti di stiramento, ma direi neanche tanto, perché le dimensioni di un essere umano, rispetto a 12 milioni di chilometri, sono molto piccole, e quindi la differenza di g fra testa e piedi non sarebbe significativa. "Finora tutto bene!!!", potremmo quindi comunicare ai terrestri in ascolto. Ma quel segnale, ahimè, non arriverà mai a destinazione.


PS: Massimo Germano, che ringrazio, mi fa notare che l'accelerazione di gravità al raggio di Schwarzschild, includendo anche le correzioni della relatività generale, andrebbe in realtà all'infinito, in quanto l'espressione corretta è:








 

 



mercoledì 23 dicembre 2020

La smania di dimostrare che Einstein si era sbagliato

Nei gruppi scientifici che sui social trattano di argomenti di fisica, ogni tanto compare il classico post che vorrebbe dimostrare che Einstein si era sbagliato. O per lo meno il post di chi non si rassegna al fatto che non si possa superare la velocità della luce, partendo dal presupposto che nella vita di tutti i giorni qualunque velocità è superabile. Oppure, più in generale, chi elabora teorie alternative alla relatività Einsteniana finendo per proporre inevitabilmente argomentazioni che, oltre a essere sbagliate, sono molto più complesse e astruse della Teoria della Relatività stessa.  

Insomma, sarà il fatto che Einstein incarni nell'immaginario la figura del genio assoluto e inarrivabile, ma per lo scienziato fai-da-te della rete, a distanza di più di un secolo dalla sua formulazione, la Teoria della Relatività resta ancora una spina nel fianco, qualcosa di difficile da accettare. Neanche il gatto di Schrödinger è così indigesto come Einstein e la sua Teoria della Relatività, e in particolare la Relatività Ristretta, detta anche Relatività Speciale. 

Io credo che questo rigetto per la Teoria della Relatività abbia origine dal non avere capito il motivo per cui si è arrivati alla Teoria della Relatività. Credo che dietro ci sia la convinzione che Einstein l'abbia formulata così dal niente, e imposta alla comunità dei fisici a scatola chiusa, come se una mattina si fosse svegliato male intestardendosi nel voler dimostrare che le distanze si accorciano, gli orologi si sfasano, i gemelli invecchiano diversamente, e la materia può trasformarsi in energia. E alla fine ha convinto tutti che era così, e i fisici di tutto il mondo se la sono bevuta, e da oltre un secolo continuano a crederci acriticamente. Ma per fortuna ci sono loro, gli scienziati di Facebook, che svincolati dallo strapotere dei cattedratici e della scienza di regime, l'hanno scoperto!

Anche perché poi, chiamandosi "Teoria" della Relatività, lo scienziato dei social è convinto che sia solo una teoria, e quindi come tale potrebbe essere sbagliata, se solo si facessero esperimenti seri e accurati senza essere obnubilati da tutta questa idolatria per Einstein. 

Quello che segue non pretende di far cambiare idea a questa nicchia di umanità che è convinta che Einstein con la sua "teoria" abbia sbagliato. Come per i no terra sferica, no scie chimiche, no 5G (10 anni fa erano no 4G, ma anche loro si tengono al passo coi tempi), no vax e no mask, anche i no Einstein non li convincerai mai. E' la loro ragione di vita, quella di accanirsi contro qualcosa (Einstein in questo caso), è ciò che li rende vivi e unici, e non possono rinunciare a questa identità.

Quello che segue vuole però mostrare a chi legge, e che magari non essendo esperto potrebbe pensare che ci siano aspetti controversi sulla Teoria della Relatività, quanto in realtà sia semplice la Teoria della Relatività. Quanto sia ovvia la Teoria della Relatività. Oltre al fatto che non solo essa è accettata da tutta la comunità scientifica ormai da un secolo, ma che è parte integrante della fisica di base. Non della fisica avanzata, ma della fisica elementare! Quello che segue vuole mostrare che la Relatività Ristretta era la soluzione inevitabile, data la situazione della fisica a fine 800. Non solo, ma vuole mostrare anche quanto sia fuori dal mondo l'idea che la Relatività Ristretta sia piovuta dal cielo, imposta da Einstein, come certi credono, e quanto invece essa fosse la ovvia conseguenza di qualcosa che era già scritto, e che semplicemente nessuno aveva ancora compreso nel suo vero significato.

La Relatività Ristretta è infatti l'insieme delle inevitabili conseguenze del fatto, incontestabile, che il Principio di Relatività vale per tutti i fenomeni naturali. Punto, potremmo finirla qui. Ma sarebbe una cattiveria, per cui andiamo avanti.

Il Principio di Relatività è incontestabile perché afferma quanto di più ovvio ci possa essere: le leggi della fisica sono le stesse in qualunque sistema di riferimento inerziale. Vediamo di seguito il significato di questa affermazione, e perché essa rappresenti qualcosa di ovvio che tutti noi constatiamo continuamente, in ogni istante.

Una complessa macchina come il corpo umano, tanto per fare l'esempio di qualcosa che ci portiamo sempre dietro, è un mix di meccanica, elettromagnetismo, e fisica nucleare (ebbene sì, dentro di noi ci sono isotopi radioattivi che decadono a nostra insaputa quando gli gira di farlo) che si basa su leggi fisiche che sono sempre le stesse, sia che siamo seduti sul divano che su un aereo in volo, in automobile o in volo verso Plutone a 100mila km/h (il giorno in cui ci andremo). Se non siamo sottoposti a accelerazioni, infatti, le leggi della fisica sono talmente sempre le stesse che non abbiamo nemmeno modo di dire se ci stiamo muovendo o possiamo considerarci fermi. Qualunque tipo di esperimento possiamo immaginare, con qualunque congegno o legge fisica, non sarà mai in grado di dirci chi, fra due osservatori in moto relativo uno rispetto all'altro, si stia realmente muovendo, e chi invece stia realmente fermo, tanto che queste due affermazioni, se intese in senso assoluto, sono prive di significato. E questo è il risultato del fatto che le leggi fisiche, TUTTE le leggi fisiche, sono identiche per entrambi gli osservatori, e quindi sono le stesse per QUALUNQUE osservatore solidale con un sistema di riferimento inerziale.

Questa cosa l'aveva già notata Galileo in un suo celebre passo:

Rinserratevi con qualche amico nella maggiore stanza che sia sotto coverta di alcun gran navilio, e quivi fate d'aver mosche, farfalle e simili animaletti volanti: siavi anco un gran vaso d'acqua, e dentrovi de' pescetti; sospendasi anco in alto qualche secchiello, che a goccia a goccia vada versando dell'acqua in un altro vaso di angusta bocca che sia posto a basso; e stando ferma la nave, osservate diligentemente come quelli animaletti volanti con pari velocità vanno verso tutte le parti della stanza. [..][19] Osservate che avrete diligentemente tutte queste cose, benché niun dubbio ci sia mentre il vascello sta fermo non debbano succedere così: fate muovere la nave con quanta si voglia velocità; ché (pur di moto uniforme e non fluttuante in qua e in là) voi non riconoscerete una minima mutazione in tutti li nominati effetti; né da alcuno di quelli potrete comprendere se la nave cammina, o pure sta ferma 
(Galileo Galilei, Dialogo sopra i massimi sistemi del mondo)

Galileo aveva anche ricavato le leggi che mettono in relazione le coordinate spaziali fra due sistemi di riferimento inerziali in moto relativo uno rispetto all'altro. Si chiamano, guarda caso, Trasformazioni di Galileo. Queste trasformazioni matematiche, molto semplici, per certi versi intuitive, hanno l'effetto di mantenere invariata l'espressione matematica delle leggi fisiche in qualunque sistema di riferimento inerziale esse si considerino. In pratica formalizzano matematicamente ciò che constatiamo continuamente in una moltitudine di esperienze: il Principio di Relatività. 

Mentre le coordinate spaziali di un punto sono ovviamente diverse in due sistemi di riferimento in moto relativo, il tempo, in queste trasformazioni, è sempre lo stesso in entrambi i sistemi di riferimento, qualunque sia la loro velocità relativa. Newton diceva addirittura che era come se ci fosse un orologio da qualche parte nell'universo, che scandisse il tempo ufficiale. Un mega Istituto Galileo Ferraris universale. Una assunzione che - vedremo - si rivelerà sbagliata.


 

Una conseguenza ovvia delle trasformazioni di Galileo è la legge di somma o sottrazione delle velocità. Se sono in autostrada e vado a 130 km/h rispetto all'asfalto, e sto superando una macchina che (pur viaggiando nella corsia centrale) procede a 100 km/h, quella macchina, dal mio punto di vista, cioè nel mio sistema di riferimento, la vedrò viaggiare verso di me a -30 km/h. Se poi, mentre la supero, mi affianco a essa andando anche io a 100 km/h rispetto alla strada (per fare dispetto al Suv che mi sfanala istericamente da dietro), la vedrò addirittura ferma. Niente di strano, anzi, tutto assolutamente ovvio.

Il problema sorge quando, nel corso del diciannovesimo secolo, si scoprirono i fenomeni elettromagnetici, e con essi la propagazione della luce, che ne è una diretta conseguenza. I fenomeni elettromagnetici vengono infatti riassunti in quattro equazioni, che prendono il nome di Equazioni di Maxwell. Le equazioni di Maxwell inglobano tutti i fenomeni elettromagnetici, dall'elettrostatica all'induzione magnetica, fino alle onde elettromagnetiche.

E dove sta il problema? Il problema è che queste equazioni, che vorrebbero essere equazioni fondamentali della fisica, anzi, che SONO equazioni fondamentali della fisica, contengono al loro interno un termine che ha le dimensioni di una velocità, e che risulta essere la velocità di propagazione delle onde elettromagnetiche. La velocità della luce, insomma.

E perché questo è un grosso problema? 

E' un grosso problema perché una velocità è quanto di più relativo al sistema di riferimento ci possa essere! Una velocità, lo sappiamo dalle trasformazioni di Galileo e dall'esperienza di tutti i giorni (ricordate l'esempio dell'autostrada?), dipende fortemente dal sistema di riferimento da cui si misura. Una velocità è la cosa che più di tutti varia da un sistema di riferimento a un altro. E quindi come possiamo pretendere che le equazioni di Maxwell, che al loro interno contengono una velocità, non cambino passando da un sistema di riferimento a un altro? Che razza di universalità potrebbero avere delle equazioni che cambiano di espressione passando dal divano all'automobile, dall'autobus all'aeroplano, per non dire da dicembre a giugno, quando la terra si muove in direzioni opposte rispetto al sole? Come potrebbero quindi le equazioni di Maxwell rispettare il Principio di Relatività, che implicherebbe che esse restino invariate in qualunque sistema di riferimento inerziale, se al loro interno c'è una velocità?

I fisici dell'epoca dissero: "oh, ragazzi, pazienza! Si vede che le quazioni di Maxwell valgono in un particolare sistema di riferimento soltanto, in cui la velocità della luce avrà un valore particolare, e cambiando sistema di riferimento e scegliendone un altro in moto relativo rispetto ad esso, la velocità della luce sarà un po' maggiore o un po' minore". Come d'altra parte succede per tutte le velocità. 

Si fecero quindi esperimenti per cercare di misurare variazioni della velocità della luce fra sistemi di riferimento diversi (i famosi esperimenti di Michelson e Morley), ma l'effetto cercato non si trovava. In pratica la luce sembrava fregarsene alla grande della legge della somma delle velocità, quella che funziona così bene per gli automobilisti in autostrada e per tutte le altre velocità conosciute: il risultato sperimentale è che se corro dietro a un raggio di luce, anche se sono su una Ferrari, la luce la vedo viaggiare sempre alla stessa velocità.

Questo fatto sperimentale, per inciso, garantiva automaticamente che il Principio di Relatività valesse anche per le leggi dell'elettromagnetismo. Le equazioni di Maxwell, ovvero le leggi che riassumono tutti i fenomeni elettromagnetici, rimangono SPERIMENTALMENTE invariate in qualunque sistema di riferimento inerziale. 

La cosa ci rassicura non poco, considerata la miriade di reazioni chimiche, ovvero di natura elettromagnetica, che avvengono continuamente nel nostro corpo e che ci tengono in vita.

Ma dal punto di vista matematico? Quali trasformazioni matematiche dobbiamo quindi usare per mettere in relazione le coordinate di due sistemi di riferimento inerziali qualunque in moto relativo fra loro, in modo da far restare inalterate le equazioni dell'elettromagnetismo in entrambi i sistemi di riferimento? Non certo le  trasformazioni di Galileo, che certamente farebbero cambiare la velocità della luce, e che proprio per questo sarebbero in contrasto con l'osservazione sperimentale che la velocità della luce non si lascia sommare alla velocità del sistema di riferimento, qualunque essa sia.

Le trasformazioni matematiche giuste, quelle che lasciano inalterate le equazioni dell'elettromagnetismo passando da un sistema di riferimento inerziale a un altro, si possono ricavare in modo tutto sommato abbastanza semplice, e prendono il nome di Trasformazioni di Lorentz.

Le trasformazioni di Lorentz appaiono di primo acchito molto diverse da quelle di Galileo, e contengono radici quadrate e termini del tipo v/c, dove v è la velocità del sistema di riferimento rispetto all'altro, come nel caso delle trasformazioni di Galileo, mentre c è la velocità della luce che - abbiamo visto - resta sempre la stessa qualunque sia il sistema di riferimento da cui si osserva il fenomeno.

Però se consideriamo il caso in cui v è molto minore di c (e questo nella vita di tutti i giorni succede praticamente sempre, sulla nostra auto, sul jet supersonico, o sulla sonda che viaggia a decine di migliaia di chilometri all'ora verso i confini del sistema solare, o semplicemente stando seduti sul divano mentre ci muoviamo a oltre 700000 km/h attorno alla nostra Via Lattea) il termine v/c diventa trascurabile, e - magia! - le Trasformazioni di Lorentz diventano in pratica le trasformazioni di Galileo!

Ovvero, nell'approssimazione di basse velocità rispetto alla velocità della luce, Galileo va alla grande! E' solo quando consideriamo fenomeni in cui la velocità in gioco è prossima alla velocità della luce che ci aspettiamo differenze importanti. Che ci accorgiamo delle differenze! E l'elettromagnetismo è il campo in cui questo avviene per definizione. Nel caso delle Trasformazioni di Lorentz, la legge di somma delle velocità che ne deriva è molto diversa dalla legge Galileiana che ben conosciamo, quando le velocità in gioco sono prossime alla velocità della luce. In quel caso scopriamo che "quasi c" + "quasi c" fa ancora "quasi c". Ovvero anche se corriamo velocissimi dietro a un raggio di luce, lo vedremo sempre allontanarsi da noi alla solita velocità della luce. Per piccole velocità rispetto a c, invece, il nostro Galileo funziona benissimo anche nella somma delle velocità, e possiamo tranquillamente superare un'automobile in autostrada.

Prima della scoperta dei fenomeni elettromagnetici, tutti i fenomeni meccanici che erano stati studiati implicavano comunque velocità così basse rispetto alla velocità della luce da rendere le Trasformazioni di Galileo un'approssimazione perfettamente valida. Quindi non sorprende che la Relatività Ristretta non fosse saltata fuori prima della scoperta dei fenomeni elettromagnetici, perché la relatività ristretta è un tutt'uno coi fenomeni elettromagnetici! L'esistenza stessa del campo magnetico, tanto per dirne una, è un effetto della Teoria della Relatività! Come spiegano, gli scienziati fai da te della rete, il motivo per cui se osservo una carica ferma ho solo un campo elettrico, mentre se appena appena mi muovo, anche molto lentamente rispetto ad essa, mi "appare dal nulla" un campo magnetico che mi fa spostare l'ago di una bussola? Ebbene: l'esistenza del campo magnetico è una conseguenza della Teoria della Relatività. Una banalissima bussola è un apparato sperimentale che verifica la Teoria della Relatività!

E a questo punto si capisce anche che tutte le "stranezze" della Teoria della Relatività, le distanze e i tempi che variano da un sistema di riferimento all'altro, non piovono dall'alto come un ipse dixit, ma sono la diretta conseguenza logica del fatto che la velocità della luce appaia la stessa in qualunque sistema di riferimento. Infatti se vogliamo far restare costante una velocità, che è uno spazio diviso un tempo, è chiaro che dobbiamo "aggiustare" spazio e tempo separatamente in modo opportuno. E il modo opportuno salta fuori automaticamente dalle Trasformazioni di Lorentz, che sono le trasformazioni matematiche che garantiscono la validità del Principio di Relatività in qualunque sistema di riferimento inerziale per qualunque legge fisica.

Ma a questo punto "il lettore attento" (come dicevano certi odiosissimi libri, che ti facevano sentire un deficiente, tu che leggendo non avevi notato nulla) si chiederà: ma se le trasformazioni corrette per mettere in relazione due sistemi di riferimento inerziali sono le trasformazioni di Lorentz, e non quelle di Galileo, come è possibile garantire l'invarianza delle leggi della meccanica (per capirci, F=ma, p=mv, la formula dell'energia cinetica e tutte quelle robe lì), che restano invece invarianti nel passaggio tra sistemi di riferimento se vengono applicate le Trasformazioni di Galileo? Trasformazioni di Galileo che però abbiamo visto essere sbagliate, e solo una ottima approssimazione per basse velocità. Abbiamo aggiustato l'elettromagnetismo ma adesso ci ritroviamo il problema con le leggi della meccanica!

Ma attenzione: abbiamo visto che la meccanica classica è stata sviluppata per fenomeni in cui le velocità in gioco sono piccole rispetto alla velocità della luce. Quindi, assumendo vere (e sperimentalmente lo sono!) le trasformazioni di Lorentz, rovesciamo il problema e chiediamoci: come dovrebbero essere le leggi della meccanica per non cambiare di forma nel passare da un sistema di riferimento a un altro, se applicassimo non le trasformazioni di Galileo, ma quelle di Lorentz?

Se facciamo questo esercizio, scopriamo che le leggi della meccanica veramente invarianti, quelle che rispetterebbero il Principio di Relatività garantito dalle Trasformazioni di Lorentz, sono un po' più complicate di quelle che si studiano al liceo. Al loro interno compaiono i soliti termini v/c, e saltano fuori anche cose del tipo E = mc2... La famosa equivalenza massa-energia, altro incubo notturno degli scienziati della rete, è anche essa in ultima analisi una conseguenza della richiesta che il Principio di Relatività sia valido per tutte le leggi fisiche, in qualunque sistema di riferimento inerziale.

E ovviamente anche in questo caso notiamo che se v è molto minore di c, anche le nuove leggi della meccanica diventano perfettamente approssimate dalle care vecchie leggi che studiamo a scuola. Non è quindi facendo scontrare bocce di biliardo che ci accorgiamo della Teoria della Relatività, perché le bocce di biliardo vanno troppo piano per mostrarne gli effetti. Però se invece che con un biliardo stiamo giocando con un acceleratore di particelle, che accelera le "bocce" fino a a farle raggiungere velocità prossime a quella della luce, questi effetti diventano ben visibili.

Quindi non sorprende affatto che per secoli non ci siamo accorti che la Teoria della Relatività era già con noi: semplicemente le nostre attività sono sempre troppo "lente" rispetto alla velocità della luce. Soltanto con la scoperta e la comprensione dei fenomeni elettromagnetici, che implicano automaticamente il dover descrivere la propagazione delle onde elettromagnetiche, ci siamo accorti che la fisica cosidetta "classica" non funzionava bene. Ma adesso che ce ne siamo accorti, sarebbe il caso di farsene una ragione e lasciare il pace il povero Einstein, che dite? Anche perché - e adesso dovrebbe risultare chiaro il motivo - un motorino elettrico, una radio, uno smartphone, una bussola, un acceleratore di particelle, un GPS, una PET o una lavatrice sono tutti "esperimenti" che quotidianamente applicano e verificano la Teoria della Relatività.


Nota: spesso nei libri si trovano menzionati i due postulati alla base della Relatività Ristretta: la validità del Principio di Relatività e la costanza della velocità della luce in qualunque sistema di riferimento. A me questa cosa, detta così, non piace, perché il postulato evoca qualcosa che piove dall'alto, e che accettiamo a scatola chiusa. In realtà, entrambi i "postulati" (li virgoletto apposta) della Relatività Ristretta sono ampiamente suffragati da esperimenti. In ogni caso, mentre il Principio di Relatività ha un'importanza cruciale dal punto di vista concettuale, la costanza della velocità della luce è per certi versi una conseguenza del principio di relatività. Il punto è che, per spiegare il fallimento dell'esperimento di Michelson e Morley nel rivelare la non costanza di c, si erano ipotizzate spiegazioni più o meno fantasiose e difficilmente dimostrabili, e probabilmente all'epoca aveva senso assumere c costante come postulato, perché l'alternativa sarebbe stata quella di sposare una di queste improbabili spiegazioni alternative. Ma col senno di poi, questa assunzione ci appare fortemente subordinata alla validità del Principio di Relatività per qualunque legge fisica.