martedì 1 dicembre 2020

Riflettere sulla relatività generale grazie a una App per cellulare

Tra le innumerevoli App per cellulare che si scaricano gratuitamente, ci sono anche quelle scientifiche. Io ne ho una che si chiama Phyphox, ma ce ne sono molte altre, tutte più o meno equivalenti. Tra le tante funzioni disponibili in queste App, ce n'è una che riguarda un aspetto della fisica che è allo stesso tempo semplicissimo ma tra i più complessi: la misura di g, l'accelerazione di gravità.

Semplicissimo perché tutti noi sperimentiamo quotidianamente, in ogni istante, gli effetti dell'accelerazione di gravità. Complesso perché la misura dell'accelerazione di gravità è la porta per una delle teorie più geniali mai pensate dall'uomo, la Teoria della Relatività Generale. Teoria nel solito senso inteso dalla scienza, come, ad esempio, la Teoria dell'Evoluzione, ovvero un impianto teorico supportato da una miriade di riscontri sperimentali.

L'accelerazione di gravità è l'accelerazione con cui cade un bicchiere o qualunque altro oggetto se ci sfugge di mano. Muovendosi verso il pavimento, esso accelera, ovvero aumenta la sua velocità man mano che cade, di 9,8 m/s ogni secondo che passa. Questo valore dipende dalla massa e dalle dimensioni della terra, e varia un po' fra polo e equatore, ma questi sono dettagli. Se fossimo sulla Luna, o su Marte, sarebbe diverso numericamente, ma concettualmente, al corpo che cade, accadrebbe sempre la stessa cosa.

L'accelerazione, in fisica, è il risultato di una forza. Lo si impara a scuola alle prime lezioni: forza uguale massa per accelerazione, il secondo principio della dinamica. E infatti, se ci sfugge di mano una teiera, essa non sfugge a questa regola, accelerando inesorabilmente verso la distruzione mentre precipita al suolo.

Questo però accade non solo se la forza è dovuta alla gravità, ma anche per tutti gli altri tipi di forze. Se la nostra teiera fosse elettricamente carica, e a un metro da essa ci fosse un elettrodo di carica opposta, la teiera sentirebbe una forza dovuta alla presenza di un campo elettrico, e accelererebbe verso l'elettrodo seguendo una legge oraria (spazio percorso in funzione del tempo) matematicamente identica alla legge oraria della caduta dei gravi. Numericamente l'accelerazione a cui sarebbe sottoposta sarebbe probabilmente diversa (ma potremmo costruire il tutto per renderla uguale), ma non ci sarebbe nessuna differenza concettuale nella descrizione del suo moto. E lo stesso accadrebbe anche se spingessimo la nostra teiera lungo una rotaia (priva di attrito) con forza costante. In questo caso la vedremmo accelerare esattamente come negli altri casi. E' la seconda legge della dinamica: ad una forza corrisponde una accelerazione.

Perfetto. Adesso chiediamoci cosa sentirebbe la nostra teiera mentre è sottoposta a queste accelerazioni. Immaginiamo quindi di essere un moscerino su quella teiera mentre quest'ultima sta accelerando, sottoposta a una forza generica.

Se fossimo a cavallo della teiera, essendo sottoposti a un'accelerazione, percepiremmo una accelerazione in direzione contraria. Un effetto inerziale, come si chiama in gergo. Siccome non capita a nessuno di noi di vivere su una teiera, ma siamo abituati a salire su automobili o aerei, sappiamo bene che quando l'aereo sta accelerando sulla pista (e quindi sta aumentando la sua velocità, a causa della forza impressa dai motori) noi percepiamo una accelerazione analoga in direzione contraria, che ci schiaccia verso lo schienale del sedile.

Oppure, se siamo su un autobus che frena di colpo (e quindi decelera), percepiamo in quel frangente un'accelerazione in avanti, e se non ci tenessimo stretti al corrimano rischieremmo di cadere.

Analogamente, se fossimo un atomo di un oggetto elettricamente carico che viene accelerato da un campo elettrico, percepiremmo l'accelerazione a cui siamo sottoposti. E così via, questo accade qualunque sia la causa della forza.

Esclusa una. Se fossimo un atomo di una teiera che cade accelerando verso il pavimento sotto l'effetto del campo gravitazionale, non percepiremmo nessuna accelerazione.

Per verificare questo, basta prendere l'App che abbiamo scaricato sul nostro cellulare, e selezionare l'opzione che grafica il modulo di g, l'accelerazione di gravità, in funzione del tempo. Se facciamo partire l'App, e teniamo il cellulare appoggiato sul tavolo, o sul pavimento, misuriamo g costante nel tempo, pari a circa 9,8 m/s2. D'altra parte anche noi percepiamo costantemente l'effetto della forza di gravità sul nostro corpo in termini di qualcosa che ci tira verso il basso. Siamo abituati a questa situazione, per cui non ci facciamo troppo caso, ma la percepiamo. Se provassimo a metterci a testa in giù, ci accorgeremmo infatti che c'è qualcosa di strano, dato che il nostro corpo è abituato ad avere i piedi in basso e la testa in alto, e non il contrario.

Adesso prendiamo il nostro cellulare, e facciamolo cadere, avendo ovviamente cura di metterci sotto qualcosa che ne attutisca la caduta. Un attimo prima di lasciarlo cadere, il valore di g è attorno a 10 m/s2 (i famosi 9,8, un po' tremolanti a causa della mano che tiene il cellulare, che impartisce leggere "accelerazioni" al cellulare). Poi, nell'istante in cui il cellulare viene lasciato andare, g va immediatamente a zero, e ci resta per tutto il tempo (mezzo secondo circa) in cui il cellulare cade. 

Accelerazione di gravità sperimentata dal cellulare in caduta libera.

Poi, nell'istante in cui il cellulare tocca i cuscini al termine della caduta, esso viene frenato bruscamente, e infatti si vede un picco nel valore dell'accelerazione, di almeno 4 g.  Dopo di che il cellulare rimbalza un po' sui cuscini, con conseguenti picchi e diminuzioni dell'accelerazione percepita, per poi riassestarsi ai soliti 9,8 dei libri di scuola.

Queste sono le accelerazioni e decelerazioni che un ipotetico minuscolo abitante del cellulare percepirebbe durante la sua caduta. E quindi, nel momento della caduta, in quel mezzo secondo in cui il cellulare col suo abitante cadono liberi nel vuoto, si vede chiaramente che il nostro ardito sperimentatore avrebbe percepito g=0. Peso zero, proprio come un astronauta nello spazio, essendo il cellulare in caduta libera, come lo è anche un astronauta.

E la cosa interessante è che lo stesso g=0 il cellulare (e tutti i suoi abitanti) lo sperimenta anche se viene lanciato verso l'alto, invece che lasciato cadere, come si vede nel grafico qua sotto.

 

Andamento dell'accelerazione di gravità percepita dal cellulare quando viene lanciato verso l'alto, con successiva caduta libera verso il basso.


A parte la solita mano tremolante iniziale, ancora di più stavolta perché stava preparando il lancio verso l'alto, attorno al secondo 22 circa si vede un'impennata dell'accelerazione verso l'alto. E' il momento in cui il cellulare viene spinto in alto. I suoi abitanti in questo frangente percepiscono una accelerazione che li spinge verso il basso, esattamente come i tre astronauti nel Saturno 5 al decollo. 

Poi il cellulare viene lasciato libero al suo destino, ma verso l'alto stavolta. Ma g per lui è zero anche mentre sta procedendo in salita, libero da qualunque spinta. Libero, ma sotto l'effetto del campo gravitazionale che lo rallenta. In un certo senso, quindi, sta sempre cadendo sotto l'effetto del campo gravitazionale, anche se sta salendo (sta rallentando mentre sale). L'accelerazione che percepisce resta comunque sempre zero, sia mentre sale, che quando si ferma e anche quando inverte il moto (da qualche parte prima del secondo 23) e poi inizia a cadere. Questo non accade mai se rallentate un oggetto e gli fate invertire il moto tramite un motore, o con qualunque altro tipo di forza. Normalmente, in questo caso, un abitante di quell'oggetto percepirà due accelerazioni in direzione opposta, una dovuta alla frenata, e l'altra alla successiva ripartenza. Per il cellulare che cade, invece, non succede niente di tutto questo: in tutte queste fasi, il suo peso percepito resta sempre zero. Come se su di lui non agisse nessuna forza.

Poi, dopo essere caduto, il nostro minuscolo sperimentatore a cavallo del cellulare sbatte sul cuscino, e ecco che percepisce una grossa accelerazione (la frenata brusca!). E' per questo che c'è l'obbligo delle cinture, no? Poi però rimbalza di nuovo libero in aria per un brevissimo istante, e g in quel frangente va di nuovo a zero, e poi, finalmente, si riassesta in quiete, con g che vale di nuovo i soliti 9,8 m/s2 .

Non è uno spettacolo? Un intero capitolo di fisica in un grafico fatto con un esperimentino casalingo. E che capitolo! Perché attenzione: dietro questo esperimentino da poco, c'è il fior fiore della fisica! Dietro quel grafichetto c'è una domandona di quelle da un milione di euro, che è stata il punto di partenza per una delle conquista scientifiche più grandi di tutti i tempi!

La domanda è: ma perché un corpo, se sottoposto a una forza mentre è libero di muoversi, percepisce sempre comunque un'accelerazione (vedi il caso dell'aereo che accelera o del bus che frena, di una molla o di una carica elettrica) eccetto che nel caso in cui la forza sia la forza di gravità? Che cosa ha di speciale la forza di gravità, per cui questo fenomeno comunissimo e per certi versi banalissimo, con essa non si verifica?

Questa domanda se l'è posta Einstein, all'inizio del secolo scorso, e ci ha ragionato sopra un bel po'. E alla fine ne è venuta fuori la Teoria della Relatività Generale, una delle opere umane più incredibili, al pari delle Piramidi, di Yesterday o degli affreschi della Cappella Sistina. 

L'ipotesi di Einstein, che si concretizzo nella formulazione della Teoria della Relatività Generale, è che i corpi che si muovono liberi in un campo gravitazionale in realtà non sono soggetti a nessuna forza. Potremmo dire, in un certo senso, che sono fermi.

Con tutto questo voglio sottolineare l'importanza che riveste nella scienza il porsi le domande giuste. La scuola ci abitua a fornire risposte, e in base a quelle veniamo spesso valutati, ma le domande giuste, quelle a cui non si sa rispondere, possono rappresentare la differenza, il punto di partenza per un grande e innovativo salto culturale. E a volte basta una semplice App per cellulare per farsi affascinare, e per capire quanto la scienza di frontiera, quella che nei libri ci appare inarrivabile e incomprensibile, possa essere vicina e a portata di mano.

Appendice: nelle prove di caduta che facevo con il cellulare, non capivo come mai l'accelerazione di gravità all'inizio della caduta andasse a zero, ma poi risalisse leggermente durante la caduta, come si vede nella figura qua sotto. 


Caduta con il cellulare di piatto, ovvero ad offrire la massima resistenza all'aria. L'accelerazione sperimentata dal cellulare va a zero, ma poi risale leggermente con l'aumentare della velocità, a causa della resistenza dell'aria.

Poi mi è venuto in mente che c'è l'attrito dell'aria, che è massimo se lascio cadere il cellulare di piatto (era quello che effettivamente facevo). La resistenza dell'aria produce una forza che si oppone alla caduta del corpo, che in prima approssimazione è proporzionale alla velocità del corpo stesso. Da cui il leggero calo dell'accelerazione durante la caduta. Ho quindi messo alla prova questa ipotesi lasciando cadere il cellulare di taglio, in modo da minimizzare l'attrito dell'aria, e questo qua sotto è il risultato. Popper sarebbe stato contento.


Caduta di taglio, a minimizzare la resistenza dell'aria. L'accelerazione sentita dal cellulare resta a zero per tutto il tempo di caduta.












lunedì 16 novembre 2020

Prevedere le masse di particelle ignote

Per chi crede che la fisica delle particelle non sia scienza

A volte, su gruppi social di interesse scientifico, capita di leggere interventi sprezzanti di non esperti del campo, ma che si definiscono "studiosi della materia", che affermano che la nostra comprensione dei fenomeni legati alla fisica delle particelle sia sostanzialmente illusoria, e che in realtà ci siamo costruiti un modello ad hoc in cui abbiamo finito per credere acriticamente. 

Per rispondere a queste affermazioni, e per sottolineare quanto esse siano distanti dal vero, questa è la storia di come i dati raccolti alcuni anni fa in una serie di esperimenti abbiano portato a due previsioni teoriche portentose, poi puntualmente verificate dagli esperimenti. Previsioni teoriche che mescolano assieme misure sperimentali di grande precisione e calcoli teorici basati sulla teoria dei campi, e quindi sulla meccanica quantistica. Il tutto a ricordarci che il modello che usiamo per descrivere la fenomenologia delle particelle elementari, il cosiddetto Modello Standard, sebbene concettualmente incompleto (e i fisici delle particelle sono i primi a dirlo) è tutt'altro che una illusione, tutt'altro che uno strumento creato ad hoc in cui gli stessi fisici hanno poi finito per credere, ma è, nel suo ambito, la quintessenza del metodo scientifico, perché permette di effettuare previsioni numeriche verificabili dagli esperimenti.

La storia che voglio raccontare inizia nel 1989, con l'entrata in funzione di un acceleratore del Cern chiamato LEP, Large Electron-positron Collider, un anello di 27 Km installato nel tunnel che adesso ospita l'acceleratore LHC, in cui venivano accelerati e fatti collidere frontalmente elettroni e positroni, questi ultimi le antiparticelle degli elettroni. 

Il LEP ha funzionato fino al 2000, raccogliendo una grande quantità di dati, la prima parte dei quali, dal 1989 fino a tutto il 1995, riguardava lo studio dettagliato di una particella neutra chiamata Z, ritenuta responsabile di una categoria di fenomeni imputabili alle interazioni deboli.

Senza entrare nei dettagli, al LEP i quattro esperimenti che raccoglievano dati hanno osservato milioni di decadimenti di Z ciascuno, con lo scopo di studiarne nei dettagli le proprietà, e confrontare le osservazioni sperimentali con le relative previsioni teoriche basate sul Modello Standard. E qui viene il bello della storia.

Il modello Standard lo si può immaginare come una macchina con tante manopole, diciamo una ventina. Ognuna di queste manopole si riferisce a un parametro del Modello che non è direttamente calcolato dal modello stesso, ma deve essere misurato indipendentemente, e poi inserito come input dall'esterno. Le manopole, in pratica, servono a dare in input al Modello Standard il valore di quei parametri che non vengono previsti dal modello stesso: la massa delle particelle fondamentali, ad esempio, o le costanti di accoppiamento, tipo la carica elettrica, la costante delle interazioni forti etc. La nostra macchina è in pratica un simulatore della fenomenologia del mondo delle particelle subatomiche che è in grado di calcolare (e quindi prevedere) il valore di quantità misurabili dagli esperimenti, utilizzando il formalismo matematico della teoria. Tutto questo a patto di sintonizzare correttamente le manopole che rappresentano il valore di questi parametri esterni.

Per riprodurre con questa macchina le caratteristiche osservate della particella Z, alcune manopole sono quasi del tutto ininfluenti, nel senso che le puoi posizionare un po' come capita (si fa per dire), e l'effetto finale è di poco conto. Altre manopole, invece, conosciamo già molto bene come posizionarle, perché abbiamo già misurato quelle quantità con sufficiente precisione in altri esperimenti. Altre manopole ancora, invece, all'epoca del LEP non sapevamo proprio come posizionarle, perché si riferiscono a quantità il cui valore non era ancora noto. Non solo, ma quelle manopole in certi casi necessitano di un aggiustamento molto fine, e basta spostarle di poco che la macchina ti fornisce previsioni sballate, e ti riproduce una particella Z con caratteristiche che non hanno niente a che vedere con ciò che effettivamente si misura. E queste sono le manopole più interessanti.

Le manopole più interessanti, in pratica, sono quelle che hanno effetti importanti variando anche solo di poco la loro posizione. Tra queste, nel 1995, la più rilevante era la manopola che assegnava il valore della massa del quark top, all'epoca ancora ignoto. Ci sono poi anche altre manopole di una certa importanza, tipo quella che decide il valore della costante di accoppiamento delle interazioni forti, o elettromagnetiche. E poi c'è la manopola che assegna il valore della massa del Bosone di Higgs, all'epoca pure sconosciuto. Altre manopole, in questo contesto, come dicevo sono abbastanza irrilevanti, anche perché il loro valore è noto con sufficiente precisione per lo scopo che ci interessa.

Dal punto di vista fisico la dipendenza delle quantità osservate da tutti questi parametri (cioè dalla posizione delle manopole) passa attraverso fenomeni prettamente quantistici che si chiamano "correzioni radiative". Le correzioni radiative sono processi che impattano sul calcolo del valore delle quantità osservabili, tipo le modalità di decadimento della particella Z, alterando di un po' il risultato della previsione teorica che si otterrebbe ignorandole.

La cosa veramente importante e interessante è che nonostante al LEP non ci fosse energia sufficiente per produrre (e quindi osservare direttamente negli esperimenti) particelle come il quark top o il Bosone di Higgs, che sono le due particelle più pesanti nella fauna delle particelle note, la presenza degli effetti quantistici che stanno dietro le correzioni radiative rendevano le previsioni teoriche degli osservabili (cioè l'output della nostra macchina) fortemente sensibili al valore della massa di queste particelle. In pratica queste particelle, estremamente pesanti e non producibili alle energie del LEP, manifestavano comunque la loro presenza sulle quantità misurabili tramite gli effetti quantistici.

In pratica, quindi, il problema diventava quello di aggiustare al meglio le manopole della massa del quark top e della massa del bosone di Higgs per riprodurre al meglio tutto l'insieme delle quantità osservate. A questo punto il valore della massa del top e dell'Higgs utili allo scopo diventavano automaticamente le previsioni teoriche del valore di questi due parametri ignoti nell'ambito del framework matematico del Modello Standard. Il tutto grazie alla presenza delle correzioni quantistiche.

Tuttavia l'impatto del valore della massa del quark top sulla previsione delle quantità ossrvabili al LEP  è molto maggiore del corrispondente impatto della massa dell'Higgs. Il motivo è che il contributo della massa del quark top nelle correzioni radiative appare in termini che sono proporzionali al quadrato della massa del top, mentre l'analogo contributo della massa dell'Higgs è proporzionale al logaritmo della massa dell'Higgs. E si sa che il logaritmo varia molto più lentamente del quadrato. 

Questo vuol dire, in soldoni, che una piccola incertezza sulla massa del quark top ha un effetto significativo sulle previsioni delle quantità osservabili effettuate dalla macchina Modello Standard, mentre una incertezza del valore della massa del bosone di Higgs relativamente grande (addirittura anche un centinaio di GeV) ha comunque un impatto modesto, perché smussato dalla dipendenza logaritmica. Siccome nel 1995 nessuna delle due quantità appena menzionate era mai stata ancora misurata (il quark top era cercato attivamente al Tevatron, vicino Chicago, dagli esperimenti CDF e D0, mentre il Bosone di Higgs, sebbene cercato da anni, verrà osservato direttamente soltanto nel 2012 a LHC), si decise di posizionare la manopola della massa del bosone di Higgs a un valore "più o meno ragionevole", pari a 300 GeV (dal 2012 sappiamo che il valore corretto è 125 GeV), confidenti che la scelta non avrebbe inficiato più di tanto le previsioni della nostra macchina. In pratica, nei calcoli, metterci una massa dell'Higgs di 300 GeV o di 200 o di 400 non implicava un effetto così evidente rispetto a sbagliare anche di poco il valore impostato della massa del quark top.

A quel punto l'unico parametro realmente impattante, l'unica manopola la cui regolazione fine avrebbe avuto un effetto rilevante nelle previsioni degli osservabili, restava la massa del quark top. E quindi si è cercato quel valore della massa del quark top che ottimizzasse al meglio e simultaneamente tutte le previsioni teoriche di tutte le quantità osservabili, in modo da minimizzare le loro differenze rispetto alle corrispondenti quantità misurate dagli esperimenti LEP. Si è fatto quello che in gergo tecnico si chiama un "fit", una minimizzazione. Il risultato di questo fit era la posizione della manopola "valore della massa del quark top" che ottimizzava l'accordo fra previsioni della macchina (le previsioni teoriche) e risultati sperimentali.


 

Questo discorso si capisce bene dalla figura qua sopra, che mostra 11 grafici, in ognuno dei quali è riportato come varia la previsione teorica del corrispondente osservabile misurato, a seconda della massa del quark top usata come input nel Modello Standard, massa del top che all'epoca era sconosciuta. Nella stessa figura si vede anche la corrispondente misura sperimentale (con relativo errore in giallo) di ciascun parametro.

Prendiamo ad esempio la prima figura in alto a sinistra. Essa riporta, con la barra gialla, il valore misurato di Gamma_Z, la larghezza della particella Z, ovvero uno dei parametri misurati sperimentalmente al LEP, con relativa incertezza sperimentale. La linea nera centrale è il valore misurato, l'ampiezza della barra gialla rappresenta l'incertezza sperimentale, a sinistra e a destra del valore misurato. Gamma_Z è misurato in modo abbastanza preciso, ma altri parametri, come si vede dagli altri grafici, hanno misure meno precise, e quindi la banda gialla in quei casi è più larga. Nel nostro caso Gamma_Z è circa 2.5 GeV, con una piccola incertezza.

A questo punto vediamo cosa ci prevede la teoria (la nostra macchina con le manopole) per Gamma_Z. La previsione dipende fortemente da come posizioniamo la tacca della manopola relativa al valore della massa del quark top. La banda grigia riproduce infatti la previsione teorica di Gamma_Z al variare del valore di M_top, riportato nella scala in ordinata. Il fatto che la banda sia larga, e non una semplice linea, è dovuto al fatto che ci sono piccole incertezze aggiuntive legate alla posizione di tutte le altre manopole, che in questo caso contano poco, ma un po' contano, e in pratica sbrodolano la banda grigia, che idealmente dovrebbe essere una semplice linea. La zona in cui la banda grigia (cioè la previsione di Gamma_Z da parte dell Modello Standard) incontra la banda gialla (cioè la misura sperimentale) ci fornisce l'intervallo di valori più probabili per la massa del quark top. Il valore della massa del quark top che riproduce al meglio il valore di Gamma_Z misurato è tra 150 e 200 GeV, come si vede dalla figura.

Ovviamente per altre quantità questo giochino fornisce risultati un po' diversi per la nostra massa del top. Per forza, ci sono gli errori sperimentali! In più alcune misure sono più precise di altre, e alcuni parametri sono più o meno sensibili di altri al valore della massa del quark top. 

Ad esempio nella terza figura in alto da sinistra, il valore ottimale sembra essere attornoe a 150 GeV, e così via. Il modo di tenere conto di tutti questi aspetti è appunto quello di fare una minimizzazione, cioè utilizzare simultaneamente tutte queste figure, ovvero le misure sperimentali di tutte queste quantità, con le relative incertezze sperimentali, per determinare il valore della massa del quark top che riproduca al meglio, con il miglior compromesso, tutto l'insieme delle misure. Un fit, in gergo. Questo processo tiene conto delle incertezze sperimentali, e ci offre la migliore previsione teorica della massa del top, il cui valore era sconosciuto all'epoca del LEP.

Il quark top fu osservato direttamente soltanto nel 1994, all'acceleratore Tevatron vicino Chicago, negli Stati Uniti. La sua massa, oggi misurata con ottima precisione, è di circa 173 GeV. Nella figura qua sotto i punti neri indicano le misure dirette, mentre la banda azzura rappresenta la previsione indiretta, a partire dalle correzioni radiative basate sui dati del LEP (non solo del LEP, in verità, ma le misure del LEP furono assolutamente determinanti). Si vede come la teoria avesse già previsto in che intervallo di massa andare a cercare il quark top.

 

referer
Evoluzione nel tempo della previsione teorica del valore della massa del quark top in base alle misure del LEP (banda azzurra) confrontata con le misure dirette effettuate all'acceleratore Tevatron (i punti neri), dove il quark top è stato osservato direttamente per la prima volta nel 1996. Si vede come, già prima della sua scoperta, la previsione di M_top del Modello Standard basata sulle misure del LEP forniva un valore perfettamente consistente con ciò che verrà poi misurato. La riga quasi in diagonale in basso a sinistra nel grafico mostra invece il limite inferiore al valore possibile della massa del top, determinato dai risultati negativi delle ricerche dirette fino a quel momento effettuate. In pratica quella linea significava che la massa del quark top, sebbene sconosciuta, doveva essere comunque sopra quella linea, perché altrimenti gli esperimenti dell'epoca lo avrebbero osservato direttamente.

A quel punto, scoperto il quark top, e misurata la sua massa in modo ragionevolmente preciso, restava la grande incognita: la massa del Bosone di Higgs. E quindi si è ripetuto lo stesso giochetto, ma stavolta la manopola della massa del top poteva essere posizionata per bene usando il suo valore sperimentale nuovo fiammante. E questo permetteva di lasciare finalmente libera la manopola della massa dell'Higgs, e di ruotarla in modo da scegliere il valore che garantisse l'ottimizzazione migliore con i dati sperimentali. 
 
E il risultato della minimizzazione fra previsioni teoriche e misure sperimentali è quello mostrato qua sotto: il minimo di questa specie di parabola (che è la variazione del Chi quadro del fit rispetto al minimo, in funzione dell'ipotesi sull valore della massa dell'Higgs) mostra il valore più probabile della massa del Bosone di Higgs, in base a tutto l'insieme di misure effettuate, sia al LEP che ad altri acceleratori, prima della scoperta diretta del Bosone di Higgs.


La zona gialla era esclusa dalle ricerche dirette. Notate che la scala in ascissa non è lineare. La massa del Bosone di Higgs è - sappiamo oggi - 125.18 ± 0.16 GeV, perfettamente compatibile con le previsioni di questo grafico.

Morale (e la faccio corta): la fisica delle particelle come la studiamo oggi è tutt'altro che un castello illusorio che ci siamo costruiti, e nel quale avremmo finito per credere, come a volte capita di leggere da chi di fisica delle particelle evidentemente mastica poco. Anzi, è un insieme di conoscenze in cui teoria e esperimento hanno una sinergia perfetta. Questa sinergia perfetta ha fatto sì che le massa di due delle particelle più importanti nella fauna che interessa i particellai siano state previste con notevole precisione ben prima che queste particelle fossero realmente scoperte e osservate sperimentalmente. Certamente ci sono poi cose che il Modello Standard non può spiegare, e su questo si rivolgono gli esperimenti del momento. Ma questo è proprio il bello della scienza. Altrimenti sai che noia!

Bibliografia:

Gfitter: Results for the Global Electroweak Standard Model Fit

Precision experiments at LEP

The LEP Elewctroweak Working Group

Physics at LEP1 and LEP2

 

 

 

 

 

 


lunedì 19 ottobre 2020

Uno strumento del demonio: la scala logaritmica!

Uno strumento molto potente, se solo sapessimo come funziona

Guardate questo grafico: mostra il numero delle terapie intensive dall'inizio dell'epidemia fino a metà di agosto 2020.


 

Perfetto, verrebbe da dire: l'epidemia è finita. Basta aspettare qualche altra settimana che guariscano gli ultimi malati, e tutto tornerà come un tempo! 

E infatti tanti lo dicevano, guardando questo grafico, nonostante il leggero aumento di casi dovuto a pullman di discotecari che tornavano dalla Croazia o dalla Grecia. D'altra parte, siamo onesti: come preoccuparsi di fronte a questo grafico? Nessun accenno di incremento di terapie intensive era minimamente visibile!

Questo grafico è realizzato usando, come scala delle ordinate (quella verticale), la scala "lineare". Lineare vuol dire che se ho il doppio di casi rispetto al giorno prima, il punto lo metto il doppio più in alto rispetto al punto del giorno prima. Se ho 10 volte più casi, devo metterlo 10 volte più in alto rispetto al precedente, e così via. Questo implica - cosa che vedremo rivelarsi cruciale - la necessità di avere una scala sufficientemente espansa da mostrarci contemporaneamente sia quando abbiamo dieci casi che quando ne abbiamo diecimila.

Il problema si risolve facilmente usando una scala misteriosa: la scala logaritmica! Misteriosa in un paese dove risolvere una proporzione è per tanti un problema insormontabile. E lo stesso grafico di prima, utilizzando questa scala misteriosa, a metà agosto appariva così.




Vedete quella risalita delle terapie intensive nella seconda metà di agosto? Notate che era totalmente invisibile nel grafico di prima, quello in scala lineare, a meno di non ingrandirlo a dismisura? (il biologo Enrico Bucci lo fece, e fu tacciato di ingannare con un uso improprio della scala! - fonte) E infatti la maggioranza della gente, guardando il grafico in scala lineare diceva "evviva, epidemia finita, il virus è clinicamente inesistente!". 

Per inciso, le terapie intensive non dipendono dal numero di tamponi fatti, dallo screening, dal tracing, da Immuni scaricato o no, dall'efficienza delle ASL, e da niente altro se non dal fatto che si sta molto male. E se si sta male, quello è un dato oggettivo, di fronte al quale il numero molto maggiore di tamponi effettuati rispetto a marzo è del tutto irrilevante.

Solo alcuni uccelli del malaugurio invece dicevano: "Occhio, c'è una leggera ripresa dell'epidemia! Non la vedete nella scala lineare, ma usando la scala logaritmica si vede bene".

Ma come funziona la scala logaritmica? La scala logaritmica è lineare non nel valore che vogliamo riportare, come succede appunto nella scala lineare, ma nel logaritmo di quel numero. Il logaritmo di un numero (in questo caso il logaritmo in base 10), dove il numero, sempre in questo caso, è quello delle terapie intensive, è l'esponente che bisogna dare a 10 per ottenere quel numero.

Quindi se ho 10 casi, l'esponente che devo dare a 10 per ottenere 10 è 1, e quindi il logaritmo in base 10 di 10 è 1. Se ho 100 casi, l'esponente che devo dare a 10 per ottenere 100 è 2, e quindi il logaritmo in base 10 di 100 è 2, e così via. Quindi nella scala logaritmica, se nelle ordinate ho il punto relativo a - mettiamo - 10 terapie intensive, il punto relativo a 100 terapie intensive non starà 10 volte più in alto rispetto a 1, ma solo 2 volte più in alto, quello a 1000 sarà 3 volte più in alto, e così via. In pratica ai punti fra 1 e 10 è riservato nella scala lo stesso spazio che fra 10 e 100, o fra 100 e 1000 etc. La scala logaritmica, si potrebbe dire, tutela le minoranze!

Questo modo di graficare i dati ha un enorme vantaggio in quelle situazioni in cui nello stesso grafico devo mettere numeri piccoli e numeri grandi contemporaneamente, perché permette di valutare l'evoluzione dei dati contemporaneamente sia quando i valori sono bassi, che quando sono alti. Nel nostro caso, sia quando le terapie intensive sono a 10, sia quando sono a 1000.

Infatti, mettiamo che abbia un grafico in scala lineare che ad aprile arrivava a un massimo di 4000 terapie intensive. Se ad agosto ne ho mediamente 40, queste saranno schiacciate giù in basso, compresse dal fatto che la scala deve essere tale da contenere il numero più alto possibile, che è 4000. A quel punto, che il mio dato sia 40 o 60, a meno di non avere la vista da supereroe, non fa differenza. E questo è esattamente il caso delle terapie intensive a metà agosto: il picco di aprile, bello alto, oscurava completamente qualunque variazione dei dati in agosto. Ed ecco che il virus, nella mente di alcuni, diventava clinicamente inesistente.

E quindi se a un certo punto passo in pochi giorni da 40 a 80 terapie intensive, con la scala lineare non me ne accorgo neanche, per colpa di quel 4000 lassù che mi comprime rendendo invisibili tutte le piccole differenze fra i punti. E se passare da 40 a 80 significa, come in questo caso, raddoppiare il numero delle terapie intensive in pochi giorni, accorgersene per tempo può essere un indicatore di un qualche tipo di problema. Avete presente "Huston, we have a problem"? (che poi pare che abbia detto "Huston, we've had a problem", abbiamo avuto un problema, ma è lo stesso). 

Invece, usando la scala logaritmica, riesco a dare pari rilevanza a variazione percentuali del 100%, sia che si passi da 40 a 80, sia che si passi da 1000 a 2000.

Di recente, in una discussione sui social, sono stato accusato di "strumentalizzare e manipolare" i dati (il virgolettato sono le parole esatte), di "imbrogliare facendo apparire un picco più grande di quello che è", di usare "tecniche artificiose per mostrare una tendenza che è diversa", il tutto, insomma, perché avevo usato questo strumento del demonio: la scala logaritmica! Capite cosa vuol dire avere sempre viaggiato fra il 5 e il 6 in matematica a scuola? Vuol dire che poi diventi un medico, un politico, un esponente della cultura, un opinionista su Facebook, e accusi la gente di manipolare i dati perché usa la scala logaritmica!

La scala logaritmica offre anche un'altra opportunità, quella di valutare facilmente, sullo stesso grafico, l'incremento percentuale di quantità i cui valori assoluti sono molto diversi fra loro. In pratica se una data quantità, in un certo tempo passa da 10 a 20, e un'altra quantità passa, nello stesso tempo, da 100 a 200, o da 1 milione a 2 milioni, nella scala logaritmica queste tre quantità avranno pendenze uguali

Nell'ambito di questo aspetto, un'altra caratteristica della scala logaritmica è quello di far apparire una crescita esponenziale come una retta. Interessante questa proprietà, perché una retta sappiamo identificarla bene anche a occhio, anche se a scuola avevamo tra il 5 e il 6, mentre una esponenziale non è così facile da distinguere da una parabola o da una cubica, o da una qualunque altra potenza maggiore di 1. Però c'è un bel po' di differenza pratica fra un aumento esponenziale e una legge di potenza. Perché se l'aumento è esponenziale, e il giorno x hai - mettiamo - 2 casi, e ogni giorno raddoppi il numero dei casi (2 alla x, quindi), dopo un mese ti ritrovi con oltre un miliardo di casi. Se invece quel 2 iniziale crescesse col quadrato del tempo (x alla seconda), dopo un mese i casi sarebbero ancora meno di 1000. Una bella differenza! Eppure se guardi un piccolo tratto della funzione x alla seconda, non è così facile riconoscerla da un'esponenziale, se non fai bene i conti. Ma con la scala logaritmica è invece un attimo.

Facciamo quindi un esempio che spieghi bene il vantaggio dell'usare la scala logaritmica quando si vuole confrontare il tasso di crescita di quantità che numericamente sono molto diverse fra loro.


Questo grafico mostra in scala lineare l'andamento di varie quantità legate all'epidemia in corso. In particolare ci interessano le terapie intensive in viola, piccole piccole e schiacciate in basso, che uno direbbe che non contano nulla, e sono quasi a zero; il totale ospedalizzati in celeste, che è quasi zero, a parte quello sbuffetto di crescita degli ultimi giorni; e gli attualmente positivi in giallo, che loro invece si vede bene che hanno una crescita bella gagliarda! Guardando questo grafico verrebbe quindi da dire che chi sta realmente crescendo sono solo i positivi in giallo, e invece i realmente malati, sia ospedalizzati (in celeste) che in terapia intensiva (in viola), oltre a essere molti di meno non crescono poi nemmeno così tanto rispetto ai positivi, che però, essendo questi ultimi largamente asintomatici, alla fine chi se ne frega! Da questo grafico verrebbe da dire che assistiamo sostanzialmente soltanto a un aumento di positivi largamente asintomatici, e quindi il problema Covid in Italia praticamente non esiste più.

Adesso però guardiamo lo stesso grafico con lo strumento del demonio. Sono gli stessi dati, gli stessi numeri, ma graficati con la scala logaritmica, che ci permette, dicevamo prima, di apprezzare le differenze fra conteggi che avvengono a scale diverse (totale positivi, che sono tanti, totale ospedalizzati, che sono così così, e terapie intensive, che sono pochi), ma soprattutto ci permette di confrontare il modo in cui variano nel tempo queste diverse quantità.

In scala logaritmica, lo stesso grafico di prima appare così.



Magia! Con lo strumento della scala logaritmica, questo artificio fuorviante e manipolatore, scopriamo che terapie intensive, ospedalizzati e perfino gli attualmente positivi seguono tutti lo stesso trend!!! Ma proprio uguale, anche nel crescere, poi calare un pochino la crescita, poi riprenderla, e così via. E lo seguivano anche nei mesi precedenti! E pensare che nella scala lineare sembravano così diversi!

A questo punto, dal grafico in scala logaritmica è perfino molto facile estrapolare cosa succederà al numero delle terapie intensive, se dovesse continuare la crescita attuale, che nell'ultima settimana ci appare crescere come una retta, che però in scala logaritmica rappresenta una crescita esponenziale. Basta metterci un righello, e prolungare il segmento degli ultimi 7 o 8 giorni. Lo possono fare tutti, politici, medici rianimatori e commentatori di Facebook, anche se avevano fra il 5 e il 6 in matematica al liceo. E se lo si fa viene fuori che - se i dati dovessero continuare a evolversi nel tempo come stanno facendo da almeno una settimana - in una ventina di giorni si raggiungerebbe il livello di terapie intensive che avevamo nel momento peggiore ad aprile. 

Che strumento manipolatore, fuorviante e perverso, questa scala logaritmica!




lunedì 28 settembre 2020

Aristotele è vivo, e lotta insieme a noi

Una domanda su un gruppo scientifico di Facebook ci mostra che l'approccio Galileiano stenta ancora a prendere piede

La domanda, posta in un gruppo Facebook di interesse scientifico, è molto semplice: "Se la terra avesse un buco che oltrepassasse il centro, e che raggiungesse la superficie dalla parte opposta; come si comporterebbe una massa lasciata cadere dentro questo buco ?"

Questo problema è classico nei corsi iniziali di fisica. Ricordo che il professore di fisica 1 lo discusse a lezione. E' un problema relativamente semplice, e chiaramente ideale. E' del tutto ovvio che nella realtà non si potrebbe costruire un canale che attraversi il centro della terra e che sbuchi dalla parte opposta, e che, nel caso fosse possibile, le complicazioni di cui tenere conto sarebbero di tutti i tipi. Il problema, comunque, può essere affrontato modellizzando la terra in modo via via più elaborato, tenendo conto di alcune complicazioni rispetto alla formulazione base, ma avendo ben presente che comunque qualunque schematizzazione in nessun modo potrebbe neanche lontanamente avvicinarsi a un caso reale. Il motivo, non c'è bisogno di dirlo, è ovvio. Tuttavia, per come è formulato, il problema è molto semplice. 



Ma quello che è veramente interessante non è la sua soluzione, o le eventuali soluzioni aggiungendo alcune piccole complicazioni. Quello che è interessante sono le risposte fornite da tanti. E sottolineo, questi "tanti" sono membri di un gruppo che discute e si interroga di scienza. E' interessante perché ci ricorda che Aristotele è vivo, e lotta insieme a noi. Credevamo che 400 anni di scienza Galileiana avessero spazzato via l'approccio tipico Aristotelico, e invece no. Per alcuni, anche fra quelli che intervengono in un gruppo scientifico nel 2020, Aristotele è ancora - forse inconsciamente - la linea guida nel confrontarsi con un problema fisico. E questo, secondo me, è l'aspetto veramente peculiare, e che merita di essere sviscerato, perché ci serve a sottolineare quale fu il salto di qualità che permise a Galileo di fare Scienza, con la maiuscola. Salto di qualità che ancora, evidentemente, non appartiene al sentore comune.

In ordine casuale ecco infatti alcuni problemi sollevati da alcuni commentatori, relativamente al quesito proposto:

  • La forza di gravità varia con l'inverso del quadrato della distanza, ma dentro il tubo ci sono disuniformità che vanno tenute in considerazione
  • La densità della terra è variabile quindi la massa non varia esattamente col cubo del raggio
  • Qualunque cosa gettata nel buco andrebbe a sbattere contro le pareti a causa della forza di Coriolis.
  • A un certo punto (probabilmente prima di arrivare al centro ma dipende dal materiale della sfera) verrebbe "distrutta" dalla pressione
  • Bisogna considerare il peso dell'aria
  • A meno che non cada esattamente al centro del buco, la parete alla quale è più vicino lo attirerebbe a sé e col tempo cadrebbe sul bordo
  • Senza attrito radente, a 9,81m/sec2, l'oggetto avrà energia sufficiente per risalire e ridiscendere e così via, fino a tanto che, l'attrito dell'aria, ne rallenterà la corsa fermandolo al centro terra
  • È un esperimento mentale e tale rimarrà. Chi mai riuscirebbe nell'impresa? 
  • Con l'attrito come la mettiamo?
  • Se lo tenessimo (l'attrito, n.d.r.) in considerazione, l'oggetto farebbe fatica a superare il centro della terra.
  • Un buco che passa attraverso la terra si riempia d'aria. Sempre che non si stia parlando di una situazione ideale, ma nella domanda originale la condizione non è specificata...
  • In realtà oscillerebbe poco... Credo che raggiunta la velocità limite, comincerebbe a rallentare per la diminuzione dell'accelerazione per fermarsi in prossimità del centro
  • L'esercizio tentato è capire come si comporta in presenza di aria
  • Se introduci un parametro "reale" allora bisogna metterceli tutti. La massa della Terra non è omogenea, la forma non è sferica, ... tutto ciò impone componenti vettoriali nella forza che la rendono non applicata nella direzione del moto.

Facciamo un bel respiro: il problema è ovviamente ideale, e non credo ci sia bisogno di spiegare perché non potrebbe essere altrimenti. E quindi chiediamoci: qual è il motivo per cui si propone questo problema, palesemente immaginario, in un corso di fisica? Cosa si vuol insegnare? Quale aspetto della fisica si vuole sottolineare?

Il motivo è applicare la legge dell'inverso del quadrato della distanza, che fa sì che in un punto qualunque all'interno della terra, assunta di forma sferica, la forza che agisce su una massa di test (dentro un ipotetico buco, anche esso ideale, che serve solo a farla muovere liberamente) dipende soltanto dalla massa contenuta nella sfera di raggio pari alla distanza fra il centro della terra e quel punto. Quindi la forza è massima sulla superficie, e nulla nel centro. Facendo i conti, (si applica il Teorema di Gauss) viene fuori che, nell'ipotesi di densità uniforme, la forza varia linearmente con la distanza dal centro della terra. E' una forza armonica, in pratica, la stessa esercitata da una molla. E quindi il corpo, nel suo ipotetico moto, si muoverà di moto armonico, accelerando verso il centro, dove raggiungerà la velocità massima, per poi rallentare fino alla superficie in direzione opposta, e così via.

Certo, possiamo aggiungerci una densità della terra dipendente dal raggio, oppure posiamo metterci l'aria dentro al tubo, e magari la pressione, e quindi tenere conto della variazione di densità, e possiamo pure metterci l'attrito contro le pareti, o gli effetti della rotazione terrestre, a seconda del nostro livello di perversione. Ma cosa impareremmo di più? Quale concetto fondamentale impareremmo, più fondamentale degli effetti della legge dell'inverso del quadrato della distanza, che regola sia il moto dei pianeti che delle stelle nelle galassie?  Niente, se non che il mondo, nella realtà, è molto più complicato e variegato che nei problemi di fisica 1.

Questo modo di affrontare i problemi introducendo subito tutte le possibili complicazioni, invece di schematizzarli e isolare innanzitutto il nocciolo, il cuore del problema, ovvero l'aspetto senza il quale tutto il resto non conterebbe, era la caratteristica della cultura Aristotelica, del modo di approcciarsi ai fenomeni naturali prima di Galilei. Per 2000 anni l'uomo si è arrabattato per cercare di formulare una legge comune che descrivesse la caduta dei corpi, e non ci è riuscito, perché ragionava esattamente in questo modo: di fronte a piume, martelli, sfere di legno di ulivo o di tek, lastre di pietra invece che cilindri o cubi, osservava in ciascuno di questi casi tutte le loro perverse peculiarità, e cercava di inglobare questa miriade di comportamenti diversi in un unico principio sulla caduta dei gravi.

Il risultato, l'unico possibile in quest'ottica, era che ogni singolo oggetto aveva il suo specifico modo di cadere, la sua peculiare, personalissima "tendenza" verso il suolo. Per forza, che cosa potevamo aspettarci di diverso? Nella realtà, a guardarlo nei minimi dettagli, ogni corpo sulla terra cade in modo impercettibilmente diverso da tutti gli altri.

La grandezza d Galileo Galilei fu quella di comprendere e isolare il nocciolo della questione, togliendo tutti gli orpelli, le situazioni contingenti, che introducevano differenze dovute al contesto. La grandezza di Galileo fu quella di separare il modo in cui i corpi cadono dai fattori di contorno, che niente hanno a che vedere con il motivo per cui un corpo cade. E il contesto, nel caso di Galilei, era la presenza dell'aria, quell'aspetto del problema che fa si che una chiave del 20 cada in modo un po' diverso da una chiave del 12, o un arancio da una ciliegia, un piatto da una tazza.

Ci sono voluti 2000 anni per arrivare a questa astrazione mentale. Da allora, è stato tutto in discesa, e è diventato possibile fare scienza. E' solo grazie a questa capacità di individuare il nocciolo del problema dal contorno che ci ha permesso, e ci permette tuttora, di comprendere come funziona la natura. Prima di questo, la descrizione dei fenomeni naturali era un immensa, noiosissima quanto inutile classificazione di comportamenti diversi.  Perché la natura, a guardarla bene, è di una varietà estrema, e senza la sintesi intrinseca nel metodo scientifico, non ci avremmo capito mai nulla.

 

Nota: per inciso, fu proprio Galileo Galilei, nel suo "Dialogo sopra i due massimi sistemi del mondo", a dare per primo la risposta corretta al problema.

Nota 2. Un commento a parte merita la frase "raggiunta la velocità limite, comincerebbe a rallentare per la diminuzione dell'accelerazione". Qui c'è proprio tutta la fisica Aristotelica. L'idea cioè che un corpo si muove solo se qualcosa lo spinge o lo attira, e se non c'è niente a spingerlo o attirarlo, allora tende a fermarsi. Invece sappiamo dalle leggi della dinamica che un corpo non soggetto a forze o resta fermo se era già fermo, oppure continua a muoversi con velocità costante.

 

 

 





mercoledì 16 settembre 2020

Affollato come il vuoto

Il vuoto in fisica non è quello che la parola lascerebbe intendere


Il vuoto, lo dice la parola, è un luogo dove non c'è niente. Per un filosofo forse la definizione potrebbe finire lì. Non so come un filosofo possa definire il vuoto, e se esista un dibattito filosofico sulla definizione del vuoto, dato che non ho mai avuto grande affinità con la filosofia. Il professore di terza liceo aveva seminato delle buone basi, ma quello di quarta e poi quello di quinta le hanno distrutte con il tritolo. Di quello di quinta, in particolare, mi è rimasto solo il ricordo del lunghissimo ciuffo con cui costruiva il riporto, ciuffo che partiva dalla base del collo e serpeggiava su per la nuca facendo vari giri sulla testa, e che ogni tanto cedeva sotto il suo stesso peso, srotolandosi impietosamente per un buon mezzo metro. Il mio rapporto con la filosofia al liceo era caratterizzato unicamente dall'attesa di questo evento catartico.

Comunque, tornando al nostro vuoto, per un fisico non c'è niente di più complesso e affollato del vuoto. Vediamo perché.

Innanzitutto chiediamoci cosa dovremmo fare per produrre il vuoto. Immaginiamo di avere una scatola, e di volerci fare al suo interno "il vuoto".

La scegliamo ben sigillata, e tiriamo via l'aria. Supponiamo di avere le pompe a vuoto più sofisticate in commercio. Non riusciremmo mai a togliere tutta l'aria, qualche molecola qua e là resterebbe comunque, ma si potrebbe dire che alla fine è solo un problema tecnico. In pratica non riusciamo a fare il vuoto, ma la teoria c'è tutta: ciucciamo fuori tutto quello che c'è, e se dalle pareti della scatola le molecole hanno la gentilezza di non staccarsi e andare a vagare al suo interno (cosa che in generale succede, ma noi abbiamo scelto il materiale più adatto allo scopo), ecco che, almeno sulla carta, abbiamo ottenuto il vuoto. 



Dentro l'acceleratore LHC del Cern, ad esempio, c'è una pressione che arriva fino a 10-9 Pa, corrispondente a un vuoto pari a quello presente nello spazio vuoto del sistema solare (fonte). Ci vogliono 2 settimane per pompare via l'aria e raggiungere quella condizione. Potremmo dire che, avendo un sistema tecnologicamente migliore, anche se costosissimo, potremmo avvicinarci al vuoto.

Però. 

Però la nostra scatola ha una sua temperatura. E la fisica ci insegna che un oggetto a una data temperatura diversa dallo zero assoluto emette onde elettromagnetiche. Non importa quale sia il materiale o la forma del contenitore, la nostra scatola, anche se dentro gli abbiamo tolto ogni singola molecola d'aria, sarà piena di fotoni, solo per il fatto di essere a una temperatura diversa dallo zero assoluto. Fotoni la cui energia dipende dalla temperatura della scatola. Quindi dovremmo anche raffreddare la nostra scatola il più possibile verso lo zero assoluto, per ridurre al minimo il contributo dei fotoni naturalmente emessi da qualunque oggetto posto a una data temperatura.

Ma poi esistono le particelle subatomiche. Esiste la teoria dei campi. Esiste la fisica moderna.

Nella teoria dei campi ogni particella è interpretata come un'eccitazione di un campo. E ogni eccitazione di un campo è una particella. Nella meccanica quantistica particelle e campi sono un tutt'uno. Vabè, si potrebbe pensare che, non mettendo particelle nella scatola, avremmo risolto il problema. Nel vuoto classico non c'è nessuna particella, e quindi il mio campo è bello piatto, senza increspature di alcun tipo. Energia zero, tipo una corda tesa e immobile, che è l'esempio che normalmente viene fatto.

Però esiste la meccanica quantistica, e nella meccanica quantistica il principio di indeterminazione di Heisenberg. Il principio di indeterminazione dice che è impossibile che ogni punto della corda che idealmente raffigura il campo presente all'interno della scatola, campo dovuto alla presenza (assenza in questo caso) di particelle, sia sempre costantemente fermo in una data posizione. In altri termini, la corda deve oscillare per soddisfare il principio di indeterminazione di Heisenberg. Poco ma deve farlo, per non far arrabbiare Heisenberg. E se la corda si muove, se la corda oscilla un pochino, e quella corda mi rappresenta l'energia del vuoto, ovvero il minimo di energia compatibile con il principio di indeterminazione di Heisenberg, allora vuol dire che il vuoto contiene energia.

Capite quindi che, se consideriamo i fenomeni quantistici, il nostro vuoto, che sulla carta ci sembrava la cosa più semplice del mondo (cosa c'è più semplice di "niente"?) diventa un oggetto bello incasinato.

Ma guardiamo il nostro vuoto, e guardiamolo con gli occhi della meccanica quantistica.  Ogni singolo punto dello spazio non ha mai un'energia esattamente definita, ma fluttua attorno a un minimo, contemporaneamente in tanti stati diversi (vi ricordate il Gatto di Schrodinger, che è contemporaneamente vivo e morto?). Il vuoto si trova quindi in una sovrapposizione di stati, e quindi può essere visto come un tripudio di particelle, che nascono e muoiono continuamente. Particelle di tutti i tipi, anche estremamente pesanti, la cui effimera esistenza è regolata dalla meccanica quantistica. La nostra scatola, in cui abbiamo tolto l'aria, e che abbiamo raffreddato il più possibile verso lo zero assoluto, è quindi piena dell'energia di questa moltitudine di particelle che saltano fuori e scompaiono incessantemente. Un'energia che è la minima possibile, ma non è zero.
 
Ma possiamo misurare questa energia? Possiamo verificare con qualche tipo di esperimento che tutto questo è vero? Si, possiamo.

Esistono vari effetti che sono stati misurati. Fra questi il Lamb Shift, una leggera variazione di energia nello spettro fra due livelli dell'atomo di idrogeno, misurata con grande precisione. Questa piccola variazione di energia, è dovuta all'interazione dell' elettrone dell'atomo di idrogeno con le fluttuazioni quantistiche del vuoto. In pratica, nell'interazione elettromagnetica con il nucleo, l'elettrone risente degli effetti quantistici del vuoto, che si polarizza, come un dielettrico in un condensatore. Questo produce delle alterazioni del campo elettrico fra elettrone e nucleo, che si manifestano in piccole modifiche dei livelli di energie degli spettri atomici. Modifiche calcolabili, e che vengono puntualmente misurate.

E se qualcuno dovesse pensare che queste misure siamo imprecise e arraffazzonate, visto l'argomento, rispondo che esse sono di gran lunga fra le misure più precise mai realizzate in fisica: la misura sperimentale di 8172.874(60) MHz per il Lamb shift 1S nell'idrogeno si confronta infatti con la previsione teorica di 8172.802(40) MHz. Le cifre fra parentesi danno l'incertezza sulle ultime 2 cifre, sia della misura che della previsione teorica. L'errore è 1.2 parti su 100000, come misurare l'altezza dell'Everest sbagliando di un palmo.
 
Ma quanto vale questa energia del vuoto? E' tanta o è poca? 

Possiamo averne una stima dalla misura della costante cosmologica. La costante cosmologica è quel parametro che si pensa descriva l'accelerazione dell'espansione del'universo. Infatti osserviamo che, espandendosi, l'universo accelera la sua espansione. Si pensa che questo effetto sia legato all'energia del vuoto. Infatti, se la densità di energia del vuoto ha un valore fissato e costante, determinato dalle considerazioni di meccanica quantistica descritte finora, allora aumentando lo spazio (a causa dell'espansione dell'universo) deve aumentare l'energia associata al vuoto. Questa energia ha un effetto repulsivo (pressione negativa) sulla materia. La costante cosmologica è associata a questa grandezza. 
 
Dalla misura della costante cosmologica si stima che il vuoto abbia una densità di energia pari a 10−9 joules per metro cubo. 10−9 joules equivale più o meno all'energia cinetica di una zanzara in volo di ricognizione, diluita in un metro cubo di spazio. Poco, decisamente poco, in termini macroscopici, ma considerato tutto lo spazio vuoto che c'è nell'universo, alla fine viene fuori che questa energia è ciò che domina nell'universo. Quella che viene chiamata energia oscura, e che determina la dinamica dell'universo a grande scala e su tempi lunghi. In pratica, se l'universo oggi è così come lo osserviamo, è grazie alle proprietà del vuoto. Quanti filosofi, pur nei loro pensieri più inconfessabili, sarebbero arrivati a immaginare una cosa del genere?
 
 




 

venerdì 28 agosto 2020

Cosa hanno in comune maree, piogge, treni ad alta velocità, e un acceleratore di particelle

Fattori inaspettati nella calibrazione dell'energia dei fasci di un acceleratore.


Il LEP, Large Electron-Positron Collider, è stato un acceleratore del Cern, funzionante dal 1989 al 2000. Esso accelerava in direzioni opposte, lungo una traiettoria circolare lunga 27 chilometri, elettroni e positroni (questi ultimi sono le antiparticelle degli elettroni) e le faceva collidere in 4 punti lungo il percorso.

Quattro apparati sperimentali, ALEPH, DELPHI, L3 e OPAL, circondavano i 4 punti dove avvenivano le collisioni, e registravano gli eventi fisici. I risultati scientifici del progetto LEP hanno prodotto nuove misure di altissima precisione sui parametri del Modello Standard delle particelle elementari, oltre alla previsione della massa del quark top prima della sua scoperta diretta. Io ho avuto la fortuna di partecipare all'intero progetto lavorando in uno dei quattro esperimenti, dalla costruzione, durante la tesi di laurea, fino alla fine.




Per il tipo di misure che dovevano essere condotte al LEP, era di fondamentale importanza conoscere al meglio il valore dell'energia a cui collidevano i fasci di elettroni e positroni, con una precisione di 1 MeV, corrispondente allo 0.001% dell'energia dei fasci.  Per raggiungere questo scopo erano utilizzate varie tecniche sofisticate, al fine di minimizzare le incertezze sperimentali. Tuttavia i fisici sono ben consci dell'esistenza degli errori sistematici, ovvero quei fattori a volte non sotto controllo, o a volte completamente sconosciuti, che possono alterare il risultato di una misura in modo non noto o controllabile.

Alcuni di questi fattori, assolutamente imprevisti, si rivelarono molto importanti, e qui voglio raccontare la loro curiosa storia, e come furono individuati.

La misura dell'energia dei fasci di particelle si basa sulla precisa conoscenza della lunghezza del percorso delle particelle nell'acceleratore, quella che a grandi linee potremmo chiamare la circonferenza dell'acceleratore. Questa grandezza era nota con grande precisione, essendo stata misurata dal personale tecnico con accuratezza. 

Eppure c'era qualcosa che non tornava. L'energia misurata dei fasci di particelle sembrava variare nel tempo, di una quantità ben superiore a 1 MeV, con dei pattern strani, e dipendenti dal tempo. Questi pattern così periodici fecero pensare alle maree.

Variazioni percentuali cicliche dell'energia dei fasci al LEP, misurate su in giorni diversi

Variazione dell'energia dei fasci del LEP in funzione dell'ora del giorno.

Le maree, oltre a spostare gli oceani, hanno anche l'effetto di distorcere la crosta terrestre, e nel nostro caso di modificare, seppure di pochissimo, la forma dell'acceleratore, e quindi l'orbita delle particelle rispetto alla traiettoria stabilita. Questo fa sì che le particelle circolanti si trovino a seguire una traiettoria che differisce, sebbene di pochissimo, da quella prevista. Tutto ciò implica che l'energia che essi acquisiranno passando attraverso le cavità acceleratrici e i magneti deflettori, non sarà esattamente quella prevista dal progetto, ma cambierà nel tempo al cambiare dell'intensità della forza mareale. Questo effetto, alla luce delle misure, risulta essere 6 volte più grande del massimo errore tollerabile, ma può essere fortunatamente corretto conoscendo la posizione della luna ora per ora. Vedi questo articolo per maggiori dettagli, e se volete leggere un interessante e divertente resoconto di come questo effetto abbia impatto sull'acceleratore LHC del Cern, (è sempre lo stesso tunnel) lo trovate qui.

Altre piccole ma comunque rilevanti variazioni della traiettoria delle particelle nel LEP, che alla fine si traducono sempre in una incertezza nell'energia dei fasci di particelle circolanti, si scoprirono essere causate dalle variazioni del livello del Lago d Ginevra, e del livello della acque del sottosuolo, a causa delle piogge. L'aumento di peso del lago e dell'acqua nelle faglie, infatti, altera impercettibilmente la configurazione della crosta terrestre a livello locale, inclinandola dalla parte del lago, e causando piccole ma significative distorsioni alla forma dell'acceleratore, fino a 2 millimetri sulla lunghezza della traiettoria percorsa dalle particelle in un giro, con conseguente effetto sull'energia delle particelle lungo la loro traiettoria. Per verificare questa ipotesi, il Cern riuscì ad ottenere che le autorità svizzere effettuassero un test che consisteva nel diminuire il livello del lago agendo sulle chiuse. Mentre questo avveniva, le misure indicarono una corrispondente variazione dell'energia dei fasci di particelle: più verifica diretta di questa!

 

Variazione della lunghezza della circonferenza del LEP, stimata dalle variazioni sull'energia dei fasci, causate dalle differenze di livello delle acque nel Lago di Ginevra.


E infine l'effetto più curioso e imprevedibile: l'effetto TGV, Train à Grande Vitesse, il treno francese ad alta velocità che va da Ginevra a Parigi, e che passa per un breve tratto nelle vicinanze del Cern. Verso il 1994 i fisici del Cern, effettuando i periodici run di calibrazione dell'energia dei fasci, cominciarono ad osservare strane variazioni nell'energia dei fasci del Lep, variazioni che seguivano uno schema strano ma costante ogni giorno. Il fenomeno iniziava poco prima dell'alba, diventava massimo durante il giorno, e smetteva la sera, in modo molto simile tutti i giorni. Nonostante le varie ipotesi, l'origine del fenomeno restava un mistero, finché un ingegnere della compagnia di elettricità svizzera ipotizzò che potesse trattarsi di una interferenza fra la linea ad alta velocità per Parigi e il tubo dell'acceleratore, dato che entrambi, per un  certo tratto, viaggiano quasi paralleli a circa 1 Km di distanza reciproca.

L'idea è che la corrente che fa andare il TGV viaggi attraverso i cavi, e ritorni al generatore attraverso i binari. Ma i binari sono collegati a terra, dove la corrente fluisce. Questa corrente, però, pur trovandosi a terra, come tutte le correnti cerca il miglior conduttore disponibile nelle vicinanze per poter fluire come tutte le correnti vorrebbero, con il minimo possibile di resistenza. E se lo trova, ci si infila di corsa. E guarda caso lì vicino c'era proprio il tubo di alluminio dell'acceleratore LEP.

Il confronto fra le variazioni di energia dei fasci misurata al LEP in funzione del tempo e la variazione di corrente del TGV ha mostrato un accordo praticamente perfetto, tanto da poter dire in tempo reale se il treno per Parigi era in orario. Con Trenitalia scoprire l'inghippo sarebbe stato molto più complesso, visto che ogni giorno i treni hanno un ritardo diverso. Per ulteriori dettagli, leggere ad esempio questo articolo.



L'effetto TGV sull'energia dei fasci del LEP.


La cosa curiosa è come mai ci si accorse di questo effetto soltanto dopo diversi anni di funzionamento del LEP. Il motivo è che, precedentemente, tutte le misure di calibrazione di energia dei fasci venivano fatte di notte, quando il TGV non circola. Escluso una volta, in realtà, in cui le misure vennero fatte di giorno. Ma il caso volle che quel giorno le ferrovie francesi fossero in sciopero.

Prossimamente altre curiosità sul LEP. Stay Tuned!





martedì 4 agosto 2020

Bocelli e il metodo scientifico de noantri

Il 27 luglio 2020 si è tenuto nella biblioteca del Senato della Repubblica un convegno, organizzato da Vittorio Sgarbi e dal senatore della Lega Armando Siri, sul tema Covid-19, o meglio sulla negazione del Covid-19. Non mi interessa entrare nel merito di ciò che è stato detto dagli organizzatori e dagli ospiti, con una eccezione. Fra i vari dotti interventi, infatti, uno ha oscurato tutti per profondità di pensiero: quello del cantante Andrea Bocelli, visionabile integralmente qui.

L'intervento di Bocelli è emblematico non per la sua veemenza (è stato molto pacato), e nemmeno per le scemenze pronunciate, che pure ci sono, ma perché sintetizza perfettamente l'ignoranza scientifica dell'Italia del 2020. Ecco, quando si parla di mancanza di cultura scientifica in Italia oggi, questa manciata di minuti di questo breve discorso la rappresenta così perfettamente che esso andrebbe fatto ascoltare nelle scuole ancor prima di iniziare a studiare qualunque cosa di scienze. Andrebbe fatto ascoltare il primo giorno di scuola, e andrebbe analizzato, facendo riflettere gli studenti su quelle tre o quattro frasi pronunciate, ancor prima di iniziare la tavola periodica, o il moto rettilineo uniforme, o qualunque argomento di quelli di base. Andrebbe analizzato, destrutturato, aperto come un calzino, perché là dentro c'è il concentrato di tutto quello che la gente non ha capito su come funziona la scienza.







Vediamo le frasi clou del discorso, quelle che ci interessano qui. Dice Bocelli:

1) "Ho analizzato la realtà e ho visto che alcune cose non erano così come ci venivano raccontate".

2) "In casa (...) quando ho cominciato a esprimere qualche dubbio sulla gravità di questa cosiddetta pandemia, i primi ad attaccarmi sono stati i figli, che mi hanno detto "Babbo, te pensa alla Tosca e alla Butterfly, e lascia stare i virus che non lo sai cosa sono!"

3) "No, non so cosa sono (i virus, n.d.r.) ma conosco un sacco di gente e (...) non conoscevo nessuno che fosse finito (...) in terapia intensiva. Nessuno! Allora, tutta questa gravità...!?"

Poi, vabbé... già che c'era ha aggiunto che si è sentito "umiliato e offeso" perché, povera stella, non aveva commesso nessun crimine, e nonostante quello lo obbligavano a stare a casa, nel suo monolocale vista mare a Forte dei Marmi, poverino, e ha quindi confessato di aver trasgredito volontariamente, uscendo ogni tanto, perché a quell'età, dice lui, hai bisogno di sole per produrre la vitamina D.

Stendiamo poi un velo pietoso anche sulle scuse pronunciate il giorno successivo, in cui si impara che lui è stato frainteso, e che voleva semplicemente auspicare che in futuro i bambini possano giocare assieme felici e sereni. Della serie: ho pestato una merda immensa, e qui se non faccio qualcosa non mi chiamano più a cantare.

Ma rileggiamo i punti cruciali del memorabile discorso, e commentiamoli.

Punto 1: ma che ne sai tu, che fai il cantante, che le cose non erano come venivano raccontate? Sei andato in giro per l'Italia a parlare con i medici, con gli infermieri? Hai fatto statistiche sui morti, sui malati? Forse che Bocelli lavora all'Istat come volontario? In che modo, dalla tua villa a Forte dei Marmi, e forte delle tue conoscenze sulle tecniche di canto, hai "analizzato la realtà" dell'epidemia?.

Punto 2: Ma santi subito, i figli di Bocelli! Nonostante il padre, hanno perfettamente capito il punto: "ma cosa ne sai tu, che di mestiere fai il cantante?". Che competenze hai per poter dire come sta funzionando questa epidemia? 

E poi il punto 3, la meraviglia delle meraviglie, la sublimazione dell'imbecillità: "non so cosa sono (i virus, n.d.r.) ma conosco un sacco di gente e (...) non conoscevo nessuno che fosse finito (...) in terapia intensiva. Nessuno"

Non fa una piega, no? Se io non conosco nessuno che si è ammalato, allora nessuno si è ammalato!

Bocelli, sai che ti dico? Io conosco gente che è finita in terapia intensiva, e che è morta per il Covid-19. Però non conosco nemmeno un cieco! Guarda, ho un sacco di amici, ma proprio tanti, sai? Ma tra loro nemmeno un cieco! Manco uno! Ma non sarà tutta un'invenzione questa storia dei ciechi, come ce la raccontano? Non sarà tutta una bufala messa in giro dalla lobby di quelli che stampano le scritte in Braille da mettere negli ascensori?

La cultura scientifica di Bocelli è questa: io non ne conosco nessuno, e quindi non ci sono. Ma la cosa grave è che questa è anche la cultura scientifica di tanti italiani (e non solo italiani, a dire il vero!): a me non è successo, io non conosco nessun caso, quindi non succede! Quindi non è vero! Quindi mi stanno raccontando il falso!

E' la stessa ignoranza scientifica che, rovesciando la situazione, fa dire a tanti (ci scommetterei agli stessi!): "a me è successo, con me funziona, quindi è così! Quindi funziona!". E' così che ragionano tutte le pseudoscienze. Non si preoccupano di fare uno studio oggettivo, "unbiased", non influenzato da esperienze e giudizi personali: cosa c'è di meglio dell'esperienza personale? 

E quindi l'omeopatia funziona perché con me funziona! Il miele nel latte caldo previene l'influenza perché l'ho preso tutte le sere e quest'anno non mi sono ammalato! Sono stato da una vecchietta a farmi segnare la verruca, dopo un mese mi è passata, e quindi certe vecchiette fanno passare le verruche col potere delle mani. Pensa che a me una verruca è passata da sola, scomparsa in 3 giorni dopo 10 anni che ce l'avevo, e non è stata né la vecchietta né il dermatologo! E pensa che il dermatologo mi aveva detto: "se vuoi la togliamo, ma queste cose in genere passano da sole così come sono venute!"

Quello di Bocelli è il metodo scientifico de noantri. Lo stesso che per secoli ha fatto credere alla gente che farsi i salassi funzionasse per guarire, perché alcuni guarivano (ignorando che però altri morivano come ad esempio l'ex presidente degli Stati Uniti George Washington, ucciso dai salassi per curare una laringite). Lo stesso metodo scientifico casareccio che fa credere che il Metodo di Bella funzioni, e che ha reso celebre Vannoni, quello del caso Stamina, trasformato da esperto di pubblicità a scienziato da una manciata di servizi tv. Lo stesso metodo che fa credere che col bicarbonato o con altri improbabili intrugli si curi il cancro. So di un tizio che dice che con lui ha funzionato, e quindi quale garanzia migliore dell'esperienza personale?

Ma se usiamo l'esperienza personale come criterio scientifico, allora si dovrebbe quantomeno pretendere anche di avere la lista di tutti i casi in con cui non ha funzionato! Se ci fidiamo tanto della nostra esperienza, dovremmo esigerlo, quando compriamo i fiori di Bach in farmacia. Dovremmo chiedere al farmacista che ne magnifica le doti e che ci dice "con una mia cliente che aveva il figlio che non dormiva, ha funzionato" (ne sono stato testimone in farmacia), dovremmo anche chiedere in quanti casi invece, nonostante i fiori di Bach, i figli hanno continuato a piangere tutte le notti. Non è esperienza personale anche quella? 

Come dovremmo chiedere di tutti quelli che, pur curandosi da Di Bella o col bicarbonato, non hanno avuto alcun beneficio, e di cancro magari sono morti. Soltanto in base a quanto numericamente sono importanti questi risultati contrapposti è possibile dire se "funziona". Non sarà certo la nostra limitatissima esperienza di incompetenti del campo (di nuovo, i figli di Bocelli santi subito!), dal divano della Villa a Forte dei Marmi o dal soggiorno di una qualunque altra casa, a dirci l'impatto dell'epidemia Covid, o il reale effetto di un farmaco o di una terapia. E quindi, un mio personale consiglio a chi redige i programmi scolastici: fateli un po' meno densi, lasciate perdere gli esercizi di relatività ristretta o sull'effetto fotoelettrico, e fate ascoltare agli studenti il discorso di Bocelli! 

Del metodo scientifico alla Bocelli, prima che il Nostro uscisse alla ribalta, avevo parlato in tempi non sospetti in questo articolo.