mercoledì 23 dicembre 2020

La smania di dimostrare che Einstein si era sbagliato

Nei gruppi scientifici che sui social trattano di argomenti di fisica, ogni tanto compare il classico post che vorrebbe dimostrare che Einstein si era sbagliato. O per lo meno il post di chi non si rassegna al fatto che non si possa superare la velocità della luce, partendo dal presupposto che nella vita di tutti i giorni qualunque velocità è superabile. Oppure, più in generale, chi elabora teorie alternative alla relatività Einsteniana finendo per proporre inevitabilmente argomentazioni che, oltre a essere sbagliate, sono molto più complesse e astruse della Teoria della Relatività stessa.  

Insomma, sarà il fatto che Einstein incarni nell'immaginario la figura del genio assoluto e inarrivabile, ma per lo scienziato fai-da-te della rete, a distanza di più di un secolo dalla sua formulazione, la Teoria della Relatività resta ancora una spina nel fianco, qualcosa di difficile da accettare. Neanche il gatto di Schrödinger è così indigesto come Einstein e la sua Teoria della Relatività, e in particolare la Relatività Ristretta, detta anche Relatività Speciale. 

Io credo che questo rigetto per la Teoria della Relatività abbia origine dal non avere capito il motivo per cui si è arrivati alla Teoria della Relatività. Credo che dietro ci sia la convinzione che Einstein l'abbia formulata così dal niente, e imposta alla comunità dei fisici a scatola chiusa, come se una mattina si fosse svegliato male intestardendosi nel voler dimostrare che le distanze si accorciano, gli orologi si sfasano, i gemelli invecchiano diversamente, e la materia può trasformarsi in energia. E alla fine ha convinto tutti che era così, e i fisici di tutto il mondo se la sono bevuta, e da oltre un secolo continuano a crederci acriticamente. Ma per fortuna ci sono loro, gli scienziati di Facebook, che svincolati dallo strapotere dei cattedratici e della scienza di regime, l'hanno scoperto!

Anche perché poi, chiamandosi "Teoria" della Relatività, lo scienziato dei social è convinto che sia solo una teoria, e quindi come tale potrebbe essere sbagliata, se solo si facessero esperimenti seri e accurati senza essere obnubilati da tutta questa idolatria per Einstein. 

Quello che segue non pretende di far cambiare idea a questa nicchia di umanità che è convinta che Einstein con la sua "teoria" abbia sbagliato. Come per i no terra sferica, no scie chimiche, no 5G (10 anni fa erano no 4G, ma anche loro si tengono al passo coi tempi), no vax e no mask, anche i no Einstein non li convincerai mai. E' la loro ragione di vita, quella di accanirsi contro qualcosa (Einstein in questo caso), è ciò che li rende vivi e unici, e non possono rinunciare a questa identità.

Quello che segue vuole però mostrare a chi legge, e che magari non essendo esperto potrebbe pensare che ci siano aspetti controversi sulla Teoria della Relatività, quanto in realtà sia semplice la Teoria della Relatività. Quanto sia ovvia la Teoria della Relatività. Oltre al fatto che non solo essa è accettata da tutta la comunità scientifica ormai da un secolo, ma che è parte integrante della fisica di base. Non della fisica avanzata, ma della fisica elementare! Quello che segue vuole mostrare che la Relatività Ristretta era la soluzione inevitabile, data la situazione della fisica a fine 800. Non solo, ma vuole mostrare anche quanto sia fuori dal mondo l'idea che la Relatività Ristretta sia piovuta dal cielo, imposta da Einstein, come certi credono, e quanto invece essa fosse la ovvia conseguenza di qualcosa che era già scritto, e che semplicemente nessuno aveva ancora compreso nel suo vero significato.

La Relatività Ristretta è infatti l'insieme delle inevitabili conseguenze del fatto, incontestabile, che il Principio di Relatività vale per tutti i fenomeni naturali. Punto, potremmo finirla qui. Ma sarebbe una cattiveria, per cui andiamo avanti.

Il Principio di Relatività è incontestabile perché afferma quanto di più ovvio ci possa essere: le leggi della fisica sono le stesse in qualunque sistema di riferimento inerziale. Vediamo di seguito il significato di questa affermazione, e perché essa rappresenti qualcosa di ovvio che tutti noi constatiamo continuamente, in ogni istante.

Una complessa macchina come il corpo umano, tanto per fare l'esempio di qualcosa che ci portiamo sempre dietro, è un mix di meccanica, elettromagnetismo, e fisica nucleare (ebbene sì, dentro di noi ci sono isotopi radioattivi che decadono a nostra insaputa quando gli gira di farlo) che si basa su leggi fisiche che sono sempre le stesse, sia che siamo seduti sul divano che su un aereo in volo, in automobile o in volo verso Plutone a 100mila km/h (il giorno in cui ci andremo). Se non siamo sottoposti a accelerazioni, infatti, le leggi della fisica sono talmente sempre le stesse che non abbiamo nemmeno modo di dire se ci stiamo muovendo o possiamo considerarci fermi. Qualunque tipo di esperimento possiamo immaginare, con qualunque congegno o legge fisica, non sarà mai in grado di dirci chi, fra due osservatori in moto relativo uno rispetto all'altro, si stia realmente muovendo, e chi invece stia realmente fermo, tanto che queste due affermazioni, se intese in senso assoluto, sono prive di significato. E questo è il risultato del fatto che le leggi fisiche, TUTTE le leggi fisiche, sono identiche per entrambi gli osservatori, e quindi sono le stesse per QUALUNQUE osservatore solidale con un sistema di riferimento inerziale.

Questa cosa l'aveva già notata Galileo in un suo celebre passo:

Rinserratevi con qualche amico nella maggiore stanza che sia sotto coverta di alcun gran navilio, e quivi fate d'aver mosche, farfalle e simili animaletti volanti: siavi anco un gran vaso d'acqua, e dentrovi de' pescetti; sospendasi anco in alto qualche secchiello, che a goccia a goccia vada versando dell'acqua in un altro vaso di angusta bocca che sia posto a basso; e stando ferma la nave, osservate diligentemente come quelli animaletti volanti con pari velocità vanno verso tutte le parti della stanza. [..][19] Osservate che avrete diligentemente tutte queste cose, benché niun dubbio ci sia mentre il vascello sta fermo non debbano succedere così: fate muovere la nave con quanta si voglia velocità; ché (pur di moto uniforme e non fluttuante in qua e in là) voi non riconoscerete una minima mutazione in tutti li nominati effetti; né da alcuno di quelli potrete comprendere se la nave cammina, o pure sta ferma 
(Galileo Galilei, Dialogo sopra i massimi sistemi del mondo)

Galileo aveva anche ricavato le leggi che mettono in relazione le coordinate spaziali fra due sistemi di riferimento inerziali in moto relativo uno rispetto all'altro. Si chiamano, guarda caso, Trasformazioni di Galileo. Queste trasformazioni matematiche, molto semplici, per certi versi intuitive, hanno l'effetto di mantenere invariata l'espressione matematica delle leggi fisiche in qualunque sistema di riferimento inerziale esse si considerino. In pratica formalizzano matematicamente ciò che constatiamo continuamente in una moltitudine di esperienze: il Principio di Relatività. 

Mentre le coordinate spaziali di un punto sono ovviamente diverse in due sistemi di riferimento in moto relativo, il tempo, in queste trasformazioni, è sempre lo stesso in entrambi i sistemi di riferimento, qualunque sia la loro velocità relativa. Newton diceva addirittura che era come se ci fosse un orologio da qualche parte nell'universo, che scandisse il tempo ufficiale. Un mega Istituto Galileo Ferraris universale. Una assunzione che - vedremo - si rivelerà sbagliata.


 

Una conseguenza ovvia delle trasformazioni di Galileo è la legge di somma o sottrazione delle velocità. Se sono in autostrada e vado a 130 km/h rispetto all'asfalto, e sto superando una macchina che (pur viaggiando nella corsia centrale) procede a 100 km/h, quella macchina, dal mio punto di vista, cioè nel mio sistema di riferimento, la vedrò viaggiare verso di me a -30 km/h. Se poi, mentre la supero, mi affianco a essa andando anche io a 100 km/h rispetto alla strada (per fare dispetto al Suv che mi sfanala istericamente da dietro), la vedrò addirittura ferma. Niente di strano, anzi, tutto assolutamente ovvio.

Il problema sorge quando, nel corso del diciannovesimo secolo, si scoprirono i fenomeni elettromagnetici, e con essi la propagazione della luce, che ne è una diretta conseguenza. I fenomeni elettromagnetici vengono infatti riassunti in quattro equazioni, che prendono il nome di Equazioni di Maxwell. Le equazioni di Maxwell inglobano tutti i fenomeni elettromagnetici, dall'elettrostatica all'induzione magnetica, fino alle onde elettromagnetiche.

E dove sta il problema? Il problema è che queste equazioni, che vorrebbero essere equazioni fondamentali della fisica, anzi, che SONO equazioni fondamentali della fisica, contengono al loro interno un termine che ha le dimensioni di una velocità, e che risulta essere la velocità di propagazione delle onde elettromagnetiche. La velocità della luce, insomma.

E perché questo è un grosso problema? 

E' un grosso problema perché una velocità è quanto di più relativo al sistema di riferimento ci possa essere! Una velocità, lo sappiamo dalle trasformazioni di Galileo e dall'esperienza di tutti i giorni (ricordate l'esempio dell'autostrada?), dipende fortemente dal sistema di riferimento da cui si misura. Una velocità è la cosa che più di tutti varia da un sistema di riferimento a un altro. E quindi come possiamo pretendere che le equazioni di Maxwell, che al loro interno contengono una velocità, non cambino passando da un sistema di riferimento a un altro? Che razza di universalità potrebbero avere delle equazioni che cambiano di espressione passando dal divano all'automobile, dall'autobus all'aeroplano, per non dire da dicembre a giugno, quando la terra si muove in direzioni opposte rispetto al sole? Come potrebbero quindi le equazioni di Maxwell rispettare il Principio di Relatività, che implicherebbe che esse restino invariate in qualunque sistema di riferimento inerziale, se al loro interno c'è una velocità?

I fisici dell'epoca dissero: "oh, ragazzi, pazienza! Si vede che le quazioni di Maxwell valgono in un particolare sistema di riferimento soltanto, in cui la velocità della luce avrà un valore particolare, e cambiando sistema di riferimento e scegliendone un altro in moto relativo rispetto ad esso, la velocità della luce sarà un po' maggiore o un po' minore". Come d'altra parte succede per tutte le velocità. 

Si fecero quindi esperimenti per cercare di misurare variazioni della velocità della luce fra sistemi di riferimento diversi (i famosi esperimenti di Michelson e Morley), ma l'effetto cercato non si trovava. In pratica la luce sembrava fregarsene alla grande della legge della somma delle velocità, quella che funziona così bene per gli automobilisti in autostrada e per tutte le altre velocità conosciute: il risultato sperimentale è che se corro dietro a un raggio di luce, anche se sono su una Ferrari, la luce la vedo viaggiare sempre alla stessa velocità.

Questo fatto sperimentale, per inciso, garantiva automaticamente che il Principio di Relatività valesse anche per le leggi dell'elettromagnetismo. Le equazioni di Maxwell, ovvero le leggi che riassumono tutti i fenomeni elettromagnetici, rimangono SPERIMENTALMENTE invariate in qualunque sistema di riferimento inerziale. 

La cosa ci rassicura non poco, considerata la miriade di reazioni chimiche, ovvero di natura elettromagnetica, che avvengono continuamente nel nostro corpo e che ci tengono in vita.

Ma dal punto di vista matematico? Quali trasformazioni matematiche dobbiamo quindi usare per mettere in relazione le coordinate di due sistemi di riferimento inerziali qualunque in moto relativo fra loro, in modo da far restare inalterate le equazioni dell'elettromagnetismo in entrambi i sistemi di riferimento? Non certo le  trasformazioni di Galileo, che certamente farebbero cambiare la velocità della luce, e che proprio per questo sarebbero in contrasto con l'osservazione sperimentale che la velocità della luce non si lascia sommare alla velocità del sistema di riferimento, qualunque essa sia.

Le trasformazioni matematiche giuste, quelle che lasciano inalterate le equazioni dell'elettromagnetismo passando da un sistema di riferimento inerziale a un altro, si possono ricavare in modo tutto sommato abbastanza semplice, e prendono il nome di Trasformazioni di Lorentz.

Le trasformazioni di Lorentz appaiono di primo acchito molto diverse da quelle di Galileo, e contengono radici quadrate e termini del tipo v/c, dove v è la velocità del sistema di riferimento rispetto all'altro, come nel caso delle trasformazioni di Galileo, mentre c è la velocità della luce che - abbiamo visto - resta sempre la stessa qualunque sia il sistema di riferimento da cui si osserva il fenomeno.

Però se consideriamo il caso in cui v è molto minore di c (e questo nella vita di tutti i giorni succede praticamente sempre, sulla nostra auto, sul jet supersonico, o sulla sonda che viaggia a decine di migliaia di chilometri all'ora verso i confini del sistema solare, o semplicemente stando seduti sul divano mentre ci muoviamo a oltre 700000 km/h attorno alla nostra Via Lattea) il termine v/c diventa trascurabile, e - magia! - le Trasformazioni di Lorentz diventano in pratica le trasformazioni di Galileo!

Ovvero, nell'approssimazione di basse velocità rispetto alla velocità della luce, Galileo va alla grande! E' solo quando consideriamo fenomeni in cui la velocità in gioco è prossima alla velocità della luce che ci aspettiamo differenze importanti. Che ci accorgiamo delle differenze! E l'elettromagnetismo è il campo in cui questo avviene per definizione. Nel caso delle Trasformazioni di Lorentz, la legge di somma delle velocità che ne deriva è molto diversa dalla legge Galileiana che ben conosciamo, quando le velocità in gioco sono prossime alla velocità della luce. In quel caso scopriamo che "quasi c" + "quasi c" fa ancora "quasi c". Ovvero anche se corriamo velocissimi dietro a un raggio di luce, lo vedremo sempre allontanarsi da noi alla solita velocità della luce. Per piccole velocità rispetto a c, invece, il nostro Galileo funziona benissimo anche nella somma delle velocità, e possiamo tranquillamente superare un'automobile in autostrada.

Prima della scoperta dei fenomeni elettromagnetici, tutti i fenomeni meccanici che erano stati studiati implicavano comunque velocità così basse rispetto alla velocità della luce da rendere le Trasformazioni di Galileo un'approssimazione perfettamente valida. Quindi non sorprende che la Relatività Ristretta non fosse saltata fuori prima della scoperta dei fenomeni elettromagnetici, perché la relatività ristretta è un tutt'uno coi fenomeni elettromagnetici! L'esistenza stessa del campo magnetico, tanto per dirne una, è un effetto della Teoria della Relatività! Come spiegano, gli scienziati fai da te della rete, il motivo per cui se osservo una carica ferma ho solo un campo elettrico, mentre se appena appena mi muovo, anche molto lentamente rispetto ad essa, mi "appare dal nulla" un campo magnetico che mi fa spostare l'ago di una bussola? Ebbene: l'esistenza del campo magnetico è una conseguenza della Teoria della Relatività. Una banalissima bussola è un apparato sperimentale che verifica la Teoria della Relatività!

E a questo punto si capisce anche che tutte le "stranezze" della Teoria della Relatività, le distanze e i tempi che variano da un sistema di riferimento all'altro, non piovono dall'alto come un ipse dixit, ma sono la diretta conseguenza logica del fatto che la velocità della luce appaia la stessa in qualunque sistema di riferimento. Infatti se vogliamo far restare costante una velocità, che è uno spazio diviso un tempo, è chiaro che dobbiamo "aggiustare" spazio e tempo separatamente in modo opportuno. E il modo opportuno salta fuori automaticamente dalle Trasformazioni di Lorentz, che sono le trasformazioni matematiche che garantiscono la validità del Principio di Relatività in qualunque sistema di riferimento inerziale per qualunque legge fisica.

Ma a questo punto "il lettore attento" (come dicevano certi odiosissimi libri, che ti facevano sentire un deficiente, tu che leggendo non avevi notato nulla) si chiederà: ma se le trasformazioni corrette per mettere in relazione due sistemi di riferimento inerziali sono le trasformazioni di Lorentz, e non quelle di Galileo, come è possibile garantire l'invarianza delle leggi della meccanica (per capirci, F=ma, p=mv, la formula dell'energia cinetica e tutte quelle robe lì), che restano invece invarianti nel passaggio tra sistemi di riferimento se vengono applicate le Trasformazioni di Galileo? Trasformazioni di Galileo che però abbiamo visto essere sbagliate, e solo una ottima approssimazione per basse velocità. Abbiamo aggiustato l'elettromagnetismo ma adesso ci ritroviamo il problema con le leggi della meccanica!

Ma attenzione: abbiamo visto che la meccanica classica è stata sviluppata per fenomeni in cui le velocità in gioco sono piccole rispetto alla velocità della luce. Quindi, assumendo vere (e sperimentalmente lo sono!) le trasformazioni di Lorentz, rovesciamo il problema e chiediamoci: come dovrebbero essere le leggi della meccanica per non cambiare di forma nel passare da un sistema di riferimento a un altro, se applicassimo non le trasformazioni di Galileo, ma quelle di Lorentz?

Se facciamo questo esercizio, scopriamo che le leggi della meccanica veramente invarianti, quelle che rispetterebbero il Principio di Relatività garantito dalle Trasformazioni di Lorentz, sono un po' più complicate di quelle che si studiano al liceo. Al loro interno compaiono i soliti termini v/c, e saltano fuori anche cose del tipo E = mc2... La famosa equivalenza massa-energia, altro incubo notturno degli scienziati della rete, è anche essa in ultima analisi una conseguenza della richiesta che il Principio di Relatività sia valido per tutte le leggi fisiche, in qualunque sistema di riferimento inerziale.

E ovviamente anche in questo caso notiamo che se v è molto minore di c, anche le nuove leggi della meccanica diventano perfettamente approssimate dalle care vecchie leggi che studiamo a scuola. Non è quindi facendo scontrare bocce di biliardo che ci accorgiamo della Teoria della Relatività, perché le bocce di biliardo vanno troppo piano per mostrarne gli effetti. Però se invece che con un biliardo stiamo giocando con un acceleratore di particelle, che accelera le "bocce" fino a a farle raggiungere velocità prossime a quella della luce, questi effetti diventano ben visibili.

Quindi non sorprende affatto che per secoli non ci siamo accorti che la Teoria della Relatività era già con noi: semplicemente le nostre attività sono sempre troppo "lente" rispetto alla velocità della luce. Soltanto con la scoperta e la comprensione dei fenomeni elettromagnetici, che implicano automaticamente il dover descrivere la propagazione delle onde elettromagnetiche, ci siamo accorti che la fisica cosidetta "classica" non funzionava bene. Ma adesso che ce ne siamo accorti, sarebbe il caso di farsene una ragione e lasciare il pace il povero Einstein, che dite? Anche perché - e adesso dovrebbe risultare chiaro il motivo - un motorino elettrico, una radio, uno smartphone, una bussola, un acceleratore di particelle, un GPS, una PET o una lavatrice sono tutti "esperimenti" che quotidianamente applicano e verificano la Teoria della Relatività.


Nota: spesso nei libri si trovano menzionati i due postulati alla base della Relatività Ristretta: la validità del Principio di Relatività e la costanza della velocità della luce in qualunque sistema di riferimento. A me questa cosa, detta così, non piace, perché il postulato evoca qualcosa che piove dall'alto, e che accettiamo a scatola chiusa. In realtà, entrambi i "postulati" (li virgoletto apposta) della Relatività Ristretta sono ampiamente suffragati da esperimenti. In ogni caso, mentre il Principio di Relatività ha un'importanza cruciale dal punto di vista concettuale, la costanza della velocità della luce è per certi versi una conseguenza del principio di relatività. Il punto è che, per spiegare il fallimento dell'esperimento di Michelson e Morley nel rivelare la non costanza di c, si erano ipotizzate spiegazioni più o meno fantasiose e difficilmente dimostrabili, e probabilmente all'epoca aveva senso assumere c costante come postulato, perché l'alternativa sarebbe stata quella di sposare una di queste improbabili spiegazioni alternative. Ma col senno di poi, questa assunzione ci appare fortemente subordinata alla validità del Principio di Relatività per qualunque legge fisica.





martedì 1 dicembre 2020

Riflettere sulla relatività generale grazie a una App per cellulare

Tra le innumerevoli App per cellulare che si scaricano gratuitamente, ci sono anche quelle scientifiche. Io ne ho una che si chiama Phyphox, ma ce ne sono molte altre, tutte più o meno equivalenti. Tra le tante funzioni disponibili in queste App, ce n'è una che riguarda un aspetto della fisica che è allo stesso tempo semplicissimo ma tra i più complessi: la misura di g, l'accelerazione di gravità.

Semplicissimo perché tutti noi sperimentiamo quotidianamente, in ogni istante, gli effetti dell'accelerazione di gravità. Complesso perché la misura dell'accelerazione di gravità è la porta per una delle teorie più geniali mai pensate dall'uomo, la Teoria della Relatività Generale. Teoria nel solito senso inteso dalla scienza, come, ad esempio, la Teoria dell'Evoluzione, ovvero un impianto teorico supportato da una miriade di riscontri sperimentali.

L'accelerazione di gravità è l'accelerazione con cui cade un bicchiere o qualunque altro oggetto se ci sfugge di mano. Muovendosi verso il pavimento, esso accelera, ovvero aumenta la sua velocità man mano che cade, di 9,8 m/s ogni secondo che passa. Questo valore dipende dalla massa e dalle dimensioni della terra, e varia un po' fra polo e equatore, ma questi sono dettagli. Se fossimo sulla Luna, o su Marte, sarebbe diverso numericamente, ma concettualmente, al corpo che cade, accadrebbe sempre la stessa cosa.

L'accelerazione, in fisica, è il risultato di una forza. Lo si impara a scuola alle prime lezioni: forza uguale massa per accelerazione, il secondo principio della dinamica. E infatti, se ci sfugge di mano una teiera, essa non sfugge a questa regola, accelerando inesorabilmente verso la distruzione mentre precipita al suolo.

Questo però accade non solo se la forza è dovuta alla gravità, ma anche per tutti gli altri tipi di forze. Se la nostra teiera fosse elettricamente carica, e a un metro da essa ci fosse un elettrodo di carica opposta, la teiera sentirebbe una forza dovuta alla presenza di un campo elettrico, e accelererebbe verso l'elettrodo seguendo una legge oraria (spazio percorso in funzione del tempo) matematicamente identica alla legge oraria della caduta dei gravi. Numericamente l'accelerazione a cui sarebbe sottoposta sarebbe probabilmente diversa (ma potremmo costruire il tutto per renderla uguale), ma non ci sarebbe nessuna differenza concettuale nella descrizione del suo moto. E lo stesso accadrebbe anche se spingessimo la nostra teiera lungo una rotaia (priva di attrito) con forza costante. In questo caso la vedremmo accelerare esattamente come negli altri casi. E' la seconda legge della dinamica: ad una forza corrisponde una accelerazione.

Perfetto. Adesso chiediamoci cosa sentirebbe la nostra teiera mentre è sottoposta a queste accelerazioni. Immaginiamo quindi di essere un moscerino su quella teiera mentre quest'ultima sta accelerando, sottoposta a una forza generica.

Se fossimo a cavallo della teiera, essendo sottoposti a un'accelerazione, percepiremmo una accelerazione in direzione contraria. Un effetto inerziale, come si chiama in gergo. Siccome non capita a nessuno di noi di vivere su una teiera, ma siamo abituati a salire su automobili o aerei, sappiamo bene che quando l'aereo sta accelerando sulla pista (e quindi sta aumentando la sua velocità, a causa della forza impressa dai motori) noi percepiamo una accelerazione analoga in direzione contraria, che ci schiaccia verso lo schienale del sedile.

Oppure, se siamo su un autobus che frena di colpo (e quindi decelera), percepiamo in quel frangente un'accelerazione in avanti, e se non ci tenessimo stretti al corrimano rischieremmo di cadere.

Analogamente, se fossimo un atomo di un oggetto elettricamente carico che viene accelerato da un campo elettrico, percepiremmo l'accelerazione a cui siamo sottoposti. E così via, questo accade qualunque sia la causa della forza.

Esclusa una. Se fossimo un atomo di una teiera che cade accelerando verso il pavimento sotto l'effetto del campo gravitazionale, non percepiremmo nessuna accelerazione.

Per verificare questo, basta prendere l'App che abbiamo scaricato sul nostro cellulare, e selezionare l'opzione che grafica il modulo di g, l'accelerazione di gravità, in funzione del tempo. Se facciamo partire l'App, e teniamo il cellulare appoggiato sul tavolo, o sul pavimento, misuriamo g costante nel tempo, pari a circa 9,8 m/s2. D'altra parte anche noi percepiamo costantemente l'effetto della forza di gravità sul nostro corpo in termini di qualcosa che ci tira verso il basso. Siamo abituati a questa situazione, per cui non ci facciamo troppo caso, ma la percepiamo. Se provassimo a metterci a testa in giù, ci accorgeremmo infatti che c'è qualcosa di strano, dato che il nostro corpo è abituato ad avere i piedi in basso e la testa in alto, e non il contrario.

Adesso prendiamo il nostro cellulare, e facciamolo cadere, avendo ovviamente cura di metterci sotto qualcosa che ne attutisca la caduta. Un attimo prima di lasciarlo cadere, il valore di g è attorno a 10 m/s2 (i famosi 9,8, un po' tremolanti a causa della mano che tiene il cellulare, che impartisce leggere "accelerazioni" al cellulare). Poi, nell'istante in cui il cellulare viene lasciato andare, g va immediatamente a zero, e ci resta per tutto il tempo (mezzo secondo circa) in cui il cellulare cade. 

Accelerazione di gravità sperimentata dal cellulare in caduta libera.

Poi, nell'istante in cui il cellulare tocca i cuscini al termine della caduta, esso viene frenato bruscamente, e infatti si vede un picco nel valore dell'accelerazione, di almeno 4 g.  Dopo di che il cellulare rimbalza un po' sui cuscini, con conseguenti picchi e diminuzioni dell'accelerazione percepita, per poi riassestarsi ai soliti 9,8 dei libri di scuola.

Queste sono le accelerazioni e decelerazioni che un ipotetico minuscolo abitante del cellulare percepirebbe durante la sua caduta. E quindi, nel momento della caduta, in quel mezzo secondo in cui il cellulare col suo abitante cadono liberi nel vuoto, si vede chiaramente che il nostro ardito sperimentatore avrebbe percepito g=0. Peso zero, proprio come un astronauta nello spazio, essendo il cellulare in caduta libera, come lo è anche un astronauta.

E la cosa interessante è che lo stesso g=0 il cellulare (e tutti i suoi abitanti) lo sperimenta anche se viene lanciato verso l'alto, invece che lasciato cadere, come si vede nel grafico qua sotto.

 

Andamento dell'accelerazione di gravità percepita dal cellulare quando viene lanciato verso l'alto, con successiva caduta libera verso il basso.


A parte la solita mano tremolante iniziale, ancora di più stavolta perché stava preparando il lancio verso l'alto, attorno al secondo 22 circa si vede un'impennata dell'accelerazione verso l'alto. E' il momento in cui il cellulare viene spinto in alto. I suoi abitanti in questo frangente percepiscono una accelerazione che li spinge verso il basso, esattamente come i tre astronauti nel Saturno 5 al decollo. 

Poi il cellulare viene lasciato libero al suo destino, ma verso l'alto stavolta. Ma g per lui è zero anche mentre sta procedendo in salita, libero da qualunque spinta. Libero, ma sotto l'effetto del campo gravitazionale che lo rallenta. In un certo senso, quindi, sta sempre cadendo sotto l'effetto del campo gravitazionale, anche se sta salendo (sta rallentando mentre sale). L'accelerazione che percepisce resta comunque sempre zero, sia mentre sale, che quando si ferma e anche quando inverte il moto (da qualche parte prima del secondo 23) e poi inizia a cadere. Questo non accade mai se rallentate un oggetto e gli fate invertire il moto tramite un motore, o con qualunque altro tipo di forza. Normalmente, in questo caso, un abitante di quell'oggetto percepirà due accelerazioni in direzione opposta, una dovuta alla frenata, e l'altra alla successiva ripartenza. Per il cellulare che cade, invece, non succede niente di tutto questo: in tutte queste fasi, il suo peso percepito resta sempre zero. Come se su di lui non agisse nessuna forza.

Poi, dopo essere caduto, il nostro minuscolo sperimentatore a cavallo del cellulare sbatte sul cuscino, e ecco che percepisce una grossa accelerazione (la frenata brusca!). E' per questo che c'è l'obbligo delle cinture, no? Poi però rimbalza di nuovo libero in aria per un brevissimo istante, e g in quel frangente va di nuovo a zero, e poi, finalmente, si riassesta in quiete, con g che vale di nuovo i soliti 9,8 m/s2 .

Non è uno spettacolo? Un intero capitolo di fisica in un grafico fatto con un esperimentino casalingo. E che capitolo! Perché attenzione: dietro questo esperimentino da poco, c'è il fior fiore della fisica! Dietro quel grafichetto c'è una domandona di quelle da un milione di euro, che è stata il punto di partenza per una delle conquista scientifiche più grandi di tutti i tempi!

La domanda è: ma perché un corpo, se sottoposto a una forza mentre è libero di muoversi, percepisce sempre comunque un'accelerazione (vedi il caso dell'aereo che accelera o del bus che frena, di una molla o di una carica elettrica) eccetto che nel caso in cui la forza sia la forza di gravità? Che cosa ha di speciale la forza di gravità, per cui questo fenomeno comunissimo e per certi versi banalissimo, con essa non si verifica?

Questa domanda se l'è posta Einstein, all'inizio del secolo scorso, e ci ha ragionato sopra un bel po'. E alla fine ne è venuta fuori la Teoria della Relatività Generale, una delle opere umane più incredibili, al pari delle Piramidi, di Yesterday o degli affreschi della Cappella Sistina. 

L'ipotesi di Einstein, che si concretizzo nella formulazione della Teoria della Relatività Generale, è che i corpi che si muovono liberi in un campo gravitazionale in realtà non sono soggetti a nessuna forza. Potremmo dire, in un certo senso, che sono fermi.

Con tutto questo voglio sottolineare l'importanza che riveste nella scienza il porsi le domande giuste. La scuola ci abitua a fornire risposte, e in base a quelle veniamo spesso valutati, ma le domande giuste, quelle a cui non si sa rispondere, possono rappresentare la differenza, il punto di partenza per un grande e innovativo salto culturale. E a volte basta una semplice App per cellulare per farsi affascinare, e per capire quanto la scienza di frontiera, quella che nei libri ci appare inarrivabile e incomprensibile, possa essere vicina e a portata di mano.

Appendice: nelle prove di caduta che facevo con il cellulare, non capivo come mai l'accelerazione di gravità all'inizio della caduta andasse a zero, ma poi risalisse leggermente durante la caduta, come si vede nella figura qua sotto. 


Caduta con il cellulare di piatto, ovvero ad offrire la massima resistenza all'aria. L'accelerazione sperimentata dal cellulare va a zero, ma poi risale leggermente con l'aumentare della velocità, a causa della resistenza dell'aria.

Poi mi è venuto in mente che c'è l'attrito dell'aria, che è massimo se lascio cadere il cellulare di piatto (era quello che effettivamente facevo). La resistenza dell'aria produce una forza che si oppone alla caduta del corpo, che in prima approssimazione è proporzionale alla velocità del corpo stesso. Da cui il leggero calo dell'accelerazione durante la caduta. Ho quindi messo alla prova questa ipotesi lasciando cadere il cellulare di taglio, in modo da minimizzare l'attrito dell'aria, e questo qua sotto è il risultato. Popper sarebbe stato contento.


Caduta di taglio, a minimizzare la resistenza dell'aria. L'accelerazione sentita dal cellulare resta a zero per tutto il tempo di caduta.












lunedì 16 novembre 2020

Prevedere le masse di particelle ignote

Per chi crede che la fisica delle particelle non sia scienza

A volte, su gruppi social di interesse scientifico, capita di leggere interventi sprezzanti di non esperti del campo, ma che si definiscono "studiosi della materia", che affermano che la nostra comprensione dei fenomeni legati alla fisica delle particelle sia sostanzialmente illusoria, e che in realtà ci siamo costruiti un modello ad hoc in cui abbiamo finito per credere acriticamente. 

Per rispondere a queste affermazioni, e per sottolineare quanto esse siano distanti dal vero, questa è la storia di come i dati raccolti alcuni anni fa in una serie di esperimenti abbiano portato a due previsioni teoriche portentose, poi puntualmente verificate dagli esperimenti. Previsioni teoriche che mescolano assieme misure sperimentali di grande precisione e calcoli teorici basati sulla teoria dei campi, e quindi sulla meccanica quantistica. Il tutto a ricordarci che il modello che usiamo per descrivere la fenomenologia delle particelle elementari, il cosiddetto Modello Standard, sebbene concettualmente incompleto (e i fisici delle particelle sono i primi a dirlo) è tutt'altro che una illusione, tutt'altro che uno strumento creato ad hoc in cui gli stessi fisici hanno poi finito per credere, ma è, nel suo ambito, la quintessenza del metodo scientifico, perché permette di effettuare previsioni numeriche verificabili dagli esperimenti.

La storia che voglio raccontare inizia nel 1989, con l'entrata in funzione di un acceleratore del Cern chiamato LEP, Large Electron-positron Collider, un anello di 27 Km installato nel tunnel che adesso ospita l'acceleratore LHC, in cui venivano accelerati e fatti collidere frontalmente elettroni e positroni, questi ultimi le antiparticelle degli elettroni. 

Il LEP ha funzionato fino al 2000, raccogliendo una grande quantità di dati, la prima parte dei quali, dal 1989 fino a tutto il 1995, riguardava lo studio dettagliato di una particella neutra chiamata Z, ritenuta responsabile di una categoria di fenomeni imputabili alle interazioni deboli.

Senza entrare nei dettagli, al LEP i quattro esperimenti che raccoglievano dati hanno osservato milioni di decadimenti di Z ciascuno, con lo scopo di studiarne nei dettagli le proprietà, e confrontare le osservazioni sperimentali con le relative previsioni teoriche basate sul Modello Standard. E qui viene il bello della storia.

Il modello Standard lo si può immaginare come una macchina con tante manopole, diciamo una ventina. Ognuna di queste manopole si riferisce a un parametro del Modello che non è direttamente calcolato dal modello stesso, ma deve essere misurato indipendentemente, e poi inserito come input dall'esterno. Le manopole, in pratica, servono a dare in input al Modello Standard il valore di quei parametri che non vengono previsti dal modello stesso: la massa delle particelle fondamentali, ad esempio, o le costanti di accoppiamento, tipo la carica elettrica, la costante delle interazioni forti etc. La nostra macchina è in pratica un simulatore della fenomenologia del mondo delle particelle subatomiche che è in grado di calcolare (e quindi prevedere) il valore di quantità misurabili dagli esperimenti, utilizzando il formalismo matematico della teoria. Tutto questo a patto di sintonizzare correttamente le manopole che rappresentano il valore di questi parametri esterni.

Per riprodurre con questa macchina le caratteristiche osservate della particella Z, alcune manopole sono quasi del tutto ininfluenti, nel senso che le puoi posizionare un po' come capita (si fa per dire), e l'effetto finale è di poco conto. Altre manopole, invece, conosciamo già molto bene come posizionarle, perché abbiamo già misurato quelle quantità con sufficiente precisione in altri esperimenti. Altre manopole ancora, invece, all'epoca del LEP non sapevamo proprio come posizionarle, perché si riferiscono a quantità il cui valore non era ancora noto. Non solo, ma quelle manopole in certi casi necessitano di un aggiustamento molto fine, e basta spostarle di poco che la macchina ti fornisce previsioni sballate, e ti riproduce una particella Z con caratteristiche che non hanno niente a che vedere con ciò che effettivamente si misura. E queste sono le manopole più interessanti.

Le manopole più interessanti, in pratica, sono quelle che hanno effetti importanti variando anche solo di poco la loro posizione. Tra queste, nel 1995, la più rilevante era la manopola che assegnava il valore della massa del quark top, all'epoca ancora ignoto. Ci sono poi anche altre manopole di una certa importanza, tipo quella che decide il valore della costante di accoppiamento delle interazioni forti, o elettromagnetiche. E poi c'è la manopola che assegna il valore della massa del Bosone di Higgs, all'epoca pure sconosciuto. Altre manopole, in questo contesto, come dicevo sono abbastanza irrilevanti, anche perché il loro valore è noto con sufficiente precisione per lo scopo che ci interessa.

Dal punto di vista fisico la dipendenza delle quantità osservate da tutti questi parametri (cioè dalla posizione delle manopole) passa attraverso fenomeni prettamente quantistici che si chiamano "correzioni radiative". Le correzioni radiative sono processi che impattano sul calcolo del valore delle quantità osservabili, tipo le modalità di decadimento della particella Z, alterando di un po' il risultato della previsione teorica che si otterrebbe ignorandole.

La cosa veramente importante e interessante è che nonostante al LEP non ci fosse energia sufficiente per produrre (e quindi osservare direttamente negli esperimenti) particelle come il quark top o il Bosone di Higgs, che sono le due particelle più pesanti nella fauna delle particelle note, la presenza degli effetti quantistici che stanno dietro le correzioni radiative rendevano le previsioni teoriche degli osservabili (cioè l'output della nostra macchina) fortemente sensibili al valore della massa di queste particelle. In pratica queste particelle, estremamente pesanti e non producibili alle energie del LEP, manifestavano comunque la loro presenza sulle quantità misurabili tramite gli effetti quantistici.

In pratica, quindi, il problema diventava quello di aggiustare al meglio le manopole della massa del quark top e della massa del bosone di Higgs per riprodurre al meglio tutto l'insieme delle quantità osservate. A questo punto il valore della massa del top e dell'Higgs utili allo scopo diventavano automaticamente le previsioni teoriche del valore di questi due parametri ignoti nell'ambito del framework matematico del Modello Standard. Il tutto grazie alla presenza delle correzioni quantistiche.

Tuttavia l'impatto del valore della massa del quark top sulla previsione delle quantità ossrvabili al LEP  è molto maggiore del corrispondente impatto della massa dell'Higgs. Il motivo è che il contributo della massa del quark top nelle correzioni radiative appare in termini che sono proporzionali al quadrato della massa del top, mentre l'analogo contributo della massa dell'Higgs è proporzionale al logaritmo della massa dell'Higgs. E si sa che il logaritmo varia molto più lentamente del quadrato. 

Questo vuol dire, in soldoni, che una piccola incertezza sulla massa del quark top ha un effetto significativo sulle previsioni delle quantità osservabili effettuate dalla macchina Modello Standard, mentre una incertezza del valore della massa del bosone di Higgs relativamente grande (addirittura anche un centinaio di GeV) ha comunque un impatto modesto, perché smussato dalla dipendenza logaritmica. Siccome nel 1995 nessuna delle due quantità appena menzionate era mai stata ancora misurata (il quark top era cercato attivamente al Tevatron, vicino Chicago, dagli esperimenti CDF e D0, mentre il Bosone di Higgs, sebbene cercato da anni, verrà osservato direttamente soltanto nel 2012 a LHC), si decise di posizionare la manopola della massa del bosone di Higgs a un valore "più o meno ragionevole", pari a 300 GeV (dal 2012 sappiamo che il valore corretto è 125 GeV), confidenti che la scelta non avrebbe inficiato più di tanto le previsioni della nostra macchina. In pratica, nei calcoli, metterci una massa dell'Higgs di 300 GeV o di 200 o di 400 non implicava un effetto così evidente rispetto a sbagliare anche di poco il valore impostato della massa del quark top.

A quel punto l'unico parametro realmente impattante, l'unica manopola la cui regolazione fine avrebbe avuto un effetto rilevante nelle previsioni degli osservabili, restava la massa del quark top. E quindi si è cercato quel valore della massa del quark top che ottimizzasse al meglio e simultaneamente tutte le previsioni teoriche di tutte le quantità osservabili, in modo da minimizzare le loro differenze rispetto alle corrispondenti quantità misurate dagli esperimenti LEP. Si è fatto quello che in gergo tecnico si chiama un "fit", una minimizzazione. Il risultato di questo fit era la posizione della manopola "valore della massa del quark top" che ottimizzava l'accordo fra previsioni della macchina (le previsioni teoriche) e risultati sperimentali.


 

Questo discorso si capisce bene dalla figura qua sopra, che mostra 11 grafici, in ognuno dei quali è riportato come varia la previsione teorica del corrispondente osservabile misurato, a seconda della massa del quark top usata come input nel Modello Standard, massa del top che all'epoca era sconosciuta. Nella stessa figura si vede anche la corrispondente misura sperimentale (con relativo errore in giallo) di ciascun parametro.

Prendiamo ad esempio la prima figura in alto a sinistra. Essa riporta, con la barra gialla, il valore misurato di Gamma_Z, la larghezza della particella Z, ovvero uno dei parametri misurati sperimentalmente al LEP, con relativa incertezza sperimentale. La linea nera centrale è il valore misurato, l'ampiezza della barra gialla rappresenta l'incertezza sperimentale, a sinistra e a destra del valore misurato. Gamma_Z è misurato in modo abbastanza preciso, ma altri parametri, come si vede dagli altri grafici, hanno misure meno precise, e quindi la banda gialla in quei casi è più larga. Nel nostro caso Gamma_Z è circa 2.5 GeV, con una piccola incertezza.

A questo punto vediamo cosa ci prevede la teoria (la nostra macchina con le manopole) per Gamma_Z. La previsione dipende fortemente da come posizioniamo la tacca della manopola relativa al valore della massa del quark top. La banda grigia riproduce infatti la previsione teorica di Gamma_Z al variare del valore di M_top, riportato nella scala in ordinata. Il fatto che la banda sia larga, e non una semplice linea, è dovuto al fatto che ci sono piccole incertezze aggiuntive legate alla posizione di tutte le altre manopole, che in questo caso contano poco, ma un po' contano, e in pratica sbrodolano la banda grigia, che idealmente dovrebbe essere una semplice linea. La zona in cui la banda grigia (cioè la previsione di Gamma_Z da parte dell Modello Standard) incontra la banda gialla (cioè la misura sperimentale) ci fornisce l'intervallo di valori più probabili per la massa del quark top. Il valore della massa del quark top che riproduce al meglio il valore di Gamma_Z misurato è tra 150 e 200 GeV, come si vede dalla figura.

Ovviamente per altre quantità questo giochino fornisce risultati un po' diversi per la nostra massa del top. Per forza, ci sono gli errori sperimentali! In più alcune misure sono più precise di altre, e alcuni parametri sono più o meno sensibili di altri al valore della massa del quark top. 

Ad esempio nella terza figura in alto da sinistra, il valore ottimale sembra essere attornoe a 150 GeV, e così via. Il modo di tenere conto di tutti questi aspetti è appunto quello di fare una minimizzazione, cioè utilizzare simultaneamente tutte queste figure, ovvero le misure sperimentali di tutte queste quantità, con le relative incertezze sperimentali, per determinare il valore della massa del quark top che riproduca al meglio, con il miglior compromesso, tutto l'insieme delle misure. Un fit, in gergo. Questo processo tiene conto delle incertezze sperimentali, e ci offre la migliore previsione teorica della massa del top, il cui valore era sconosciuto all'epoca del LEP.

Il quark top fu osservato direttamente soltanto nel 1994, all'acceleratore Tevatron vicino Chicago, negli Stati Uniti. La sua massa, oggi misurata con ottima precisione, è di circa 173 GeV. Nella figura qua sotto i punti neri indicano le misure dirette, mentre la banda azzura rappresenta la previsione indiretta, a partire dalle correzioni radiative basate sui dati del LEP (non solo del LEP, in verità, ma le misure del LEP furono assolutamente determinanti). Si vede come la teoria avesse già previsto in che intervallo di massa andare a cercare il quark top.

 

referer
Evoluzione nel tempo della previsione teorica del valore della massa del quark top in base alle misure del LEP (banda azzurra) confrontata con le misure dirette effettuate all'acceleratore Tevatron (i punti neri), dove il quark top è stato osservato direttamente per la prima volta nel 1996. Si vede come, già prima della sua scoperta, la previsione di M_top del Modello Standard basata sulle misure del LEP forniva un valore perfettamente consistente con ciò che verrà poi misurato. La riga quasi in diagonale in basso a sinistra nel grafico mostra invece il limite inferiore al valore possibile della massa del top, determinato dai risultati negativi delle ricerche dirette fino a quel momento effettuate. In pratica quella linea significava che la massa del quark top, sebbene sconosciuta, doveva essere comunque sopra quella linea, perché altrimenti gli esperimenti dell'epoca lo avrebbero osservato direttamente.

A quel punto, scoperto il quark top, e misurata la sua massa in modo ragionevolmente preciso, restava la grande incognita: la massa del Bosone di Higgs. E quindi si è ripetuto lo stesso giochetto, ma stavolta la manopola della massa del top poteva essere posizionata per bene usando il suo valore sperimentale nuovo fiammante. E questo permetteva di lasciare finalmente libera la manopola della massa dell'Higgs, e di ruotarla in modo da scegliere il valore che garantisse l'ottimizzazione migliore con i dati sperimentali. 
 
E il risultato della minimizzazione fra previsioni teoriche e misure sperimentali è quello mostrato qua sotto: il minimo di questa specie di parabola (che è la variazione del Chi quadro del fit rispetto al minimo, in funzione dell'ipotesi sull valore della massa dell'Higgs) mostra il valore più probabile della massa del Bosone di Higgs, in base a tutto l'insieme di misure effettuate, sia al LEP che ad altri acceleratori, prima della scoperta diretta del Bosone di Higgs.


La zona gialla era esclusa dalle ricerche dirette. Notate che la scala in ascissa non è lineare. La massa del Bosone di Higgs è - sappiamo oggi - 125.18 ± 0.16 GeV, perfettamente compatibile con le previsioni di questo grafico.

Morale (e la faccio corta): la fisica delle particelle come la studiamo oggi è tutt'altro che un castello illusorio che ci siamo costruiti, e nel quale avremmo finito per credere, come a volte capita di leggere da chi di fisica delle particelle evidentemente mastica poco. Anzi, è un insieme di conoscenze in cui teoria e esperimento hanno una sinergia perfetta. Questa sinergia perfetta ha fatto sì che le massa di due delle particelle più importanti nella fauna che interessa i particellai siano state previste con notevole precisione ben prima che queste particelle fossero realmente scoperte e osservate sperimentalmente. Certamente ci sono poi cose che il Modello Standard non può spiegare, e su questo si rivolgono gli esperimenti del momento. Ma questo è proprio il bello della scienza. Altrimenti sai che noia!

Bibliografia:

Gfitter: Results for the Global Electroweak Standard Model Fit

Precision experiments at LEP

The LEP Elewctroweak Working Group

Physics at LEP1 and LEP2

 

 

 

 

 

 


lunedì 19 ottobre 2020

Uno strumento del demonio: la scala logaritmica!

Uno strumento molto potente, se solo sapessimo come funziona

Guardate questo grafico: mostra il numero delle terapie intensive dall'inizio dell'epidemia fino a metà di agosto 2020.


 

Perfetto, verrebbe da dire: l'epidemia è finita. Basta aspettare qualche altra settimana che guariscano gli ultimi malati, e tutto tornerà come un tempo! 

E infatti tanti lo dicevano, guardando questo grafico, nonostante il leggero aumento di casi dovuto a pullman di discotecari che tornavano dalla Croazia o dalla Grecia. D'altra parte, siamo onesti: come preoccuparsi di fronte a questo grafico? Nessun accenno di incremento di terapie intensive era minimamente visibile!

Questo grafico è realizzato usando, come scala delle ordinate (quella verticale), la scala "lineare". Lineare vuol dire che se ho il doppio di casi rispetto al giorno prima, il punto lo metto il doppio più in alto rispetto al punto del giorno prima. Se ho 10 volte più casi, devo metterlo 10 volte più in alto rispetto al precedente, e così via. Questo implica - cosa che vedremo rivelarsi cruciale - la necessità di avere una scala sufficientemente espansa da mostrarci contemporaneamente sia quando abbiamo dieci casi che quando ne abbiamo diecimila.

Il problema si risolve facilmente usando una scala misteriosa: la scala logaritmica! Misteriosa in un paese dove risolvere una proporzione è per tanti un problema insormontabile. E lo stesso grafico di prima, utilizzando questa scala misteriosa, a metà agosto appariva così.




Vedete quella risalita delle terapie intensive nella seconda metà di agosto? Notate che era totalmente invisibile nel grafico di prima, quello in scala lineare, a meno di non ingrandirlo a dismisura? (il biologo Enrico Bucci lo fece, e fu tacciato di ingannare con un uso improprio della scala! - fonte) E infatti la maggioranza della gente, guardando il grafico in scala lineare diceva "evviva, epidemia finita, il virus è clinicamente inesistente!". 

Per inciso, le terapie intensive non dipendono dal numero di tamponi fatti, dallo screening, dal tracing, da Immuni scaricato o no, dall'efficienza delle ASL, e da niente altro se non dal fatto che si sta molto male. E se si sta male, quello è un dato oggettivo, di fronte al quale il numero molto maggiore di tamponi effettuati rispetto a marzo è del tutto irrilevante.

Solo alcuni uccelli del malaugurio invece dicevano: "Occhio, c'è una leggera ripresa dell'epidemia! Non la vedete nella scala lineare, ma usando la scala logaritmica si vede bene".

Ma come funziona la scala logaritmica? La scala logaritmica è lineare non nel valore che vogliamo riportare, come succede appunto nella scala lineare, ma nel logaritmo di quel numero. Il logaritmo di un numero (in questo caso il logaritmo in base 10), dove il numero, sempre in questo caso, è quello delle terapie intensive, è l'esponente che bisogna dare a 10 per ottenere quel numero.

Quindi se ho 10 casi, l'esponente che devo dare a 10 per ottenere 10 è 1, e quindi il logaritmo in base 10 di 10 è 1. Se ho 100 casi, l'esponente che devo dare a 10 per ottenere 100 è 2, e quindi il logaritmo in base 10 di 100 è 2, e così via. Quindi nella scala logaritmica, se nelle ordinate ho il punto relativo a - mettiamo - 10 terapie intensive, il punto relativo a 100 terapie intensive non starà 10 volte più in alto rispetto a 1, ma solo 2 volte più in alto, quello a 1000 sarà 3 volte più in alto, e così via. In pratica ai punti fra 1 e 10 è riservato nella scala lo stesso spazio che fra 10 e 100, o fra 100 e 1000 etc. La scala logaritmica, si potrebbe dire, tutela le minoranze!

Questo modo di graficare i dati ha un enorme vantaggio in quelle situazioni in cui nello stesso grafico devo mettere numeri piccoli e numeri grandi contemporaneamente, perché permette di valutare l'evoluzione dei dati contemporaneamente sia quando i valori sono bassi, che quando sono alti. Nel nostro caso, sia quando le terapie intensive sono a 10, sia quando sono a 1000.

Infatti, mettiamo che abbia un grafico in scala lineare che ad aprile arrivava a un massimo di 4000 terapie intensive. Se ad agosto ne ho mediamente 40, queste saranno schiacciate giù in basso, compresse dal fatto che la scala deve essere tale da contenere il numero più alto possibile, che è 4000. A quel punto, che il mio dato sia 40 o 60, a meno di non avere la vista da supereroe, non fa differenza. E questo è esattamente il caso delle terapie intensive a metà agosto: il picco di aprile, bello alto, oscurava completamente qualunque variazione dei dati in agosto. Ed ecco che il virus, nella mente di alcuni, diventava clinicamente inesistente.

E quindi se a un certo punto passo in pochi giorni da 40 a 80 terapie intensive, con la scala lineare non me ne accorgo neanche, per colpa di quel 4000 lassù che mi comprime rendendo invisibili tutte le piccole differenze fra i punti. E se passare da 40 a 80 significa, come in questo caso, raddoppiare il numero delle terapie intensive in pochi giorni, accorgersene per tempo può essere un indicatore di un qualche tipo di problema. Avete presente "Huston, we have a problem"? (che poi pare che abbia detto "Huston, we've had a problem", abbiamo avuto un problema, ma è lo stesso). 

Invece, usando la scala logaritmica, riesco a dare pari rilevanza a variazione percentuali del 100%, sia che si passi da 40 a 80, sia che si passi da 1000 a 2000.

Di recente, in una discussione sui social, sono stato accusato di "strumentalizzare e manipolare" i dati (il virgolettato sono le parole esatte), di "imbrogliare facendo apparire un picco più grande di quello che è", di usare "tecniche artificiose per mostrare una tendenza che è diversa", il tutto, insomma, perché avevo usato questo strumento del demonio: la scala logaritmica! Capite cosa vuol dire avere sempre viaggiato fra il 5 e il 6 in matematica a scuola? Vuol dire che poi diventi un medico, un politico, un esponente della cultura, un opinionista su Facebook, e accusi la gente di manipolare i dati perché usa la scala logaritmica!

La scala logaritmica offre anche un'altra opportunità, quella di valutare facilmente, sullo stesso grafico, l'incremento percentuale di quantità i cui valori assoluti sono molto diversi fra loro. In pratica se una data quantità, in un certo tempo passa da 10 a 20, e un'altra quantità passa, nello stesso tempo, da 100 a 200, o da 1 milione a 2 milioni, nella scala logaritmica queste tre quantità avranno pendenze uguali

Nell'ambito di questo aspetto, un'altra caratteristica della scala logaritmica è quello di far apparire una crescita esponenziale come una retta. Interessante questa proprietà, perché una retta sappiamo identificarla bene anche a occhio, anche se a scuola avevamo tra il 5 e il 6, mentre una esponenziale non è così facile da distinguere da una parabola o da una cubica, o da una qualunque altra potenza maggiore di 1. Però c'è un bel po' di differenza pratica fra un aumento esponenziale e una legge di potenza. Perché se l'aumento è esponenziale, e il giorno x hai - mettiamo - 2 casi, e ogni giorno raddoppi il numero dei casi (2 alla x, quindi), dopo un mese ti ritrovi con oltre un miliardo di casi. Se invece quel 2 iniziale crescesse col quadrato del tempo (x alla seconda), dopo un mese i casi sarebbero ancora meno di 1000. Una bella differenza! Eppure se guardi un piccolo tratto della funzione x alla seconda, non è così facile riconoscerla da un'esponenziale, se non fai bene i conti. Ma con la scala logaritmica è invece un attimo.

Facciamo quindi un esempio che spieghi bene il vantaggio dell'usare la scala logaritmica quando si vuole confrontare il tasso di crescita di quantità che numericamente sono molto diverse fra loro.


Questo grafico mostra in scala lineare l'andamento di varie quantità legate all'epidemia in corso. In particolare ci interessano le terapie intensive in viola, piccole piccole e schiacciate in basso, che uno direbbe che non contano nulla, e sono quasi a zero; il totale ospedalizzati in celeste, che è quasi zero, a parte quello sbuffetto di crescita degli ultimi giorni; e gli attualmente positivi in giallo, che loro invece si vede bene che hanno una crescita bella gagliarda! Guardando questo grafico verrebbe quindi da dire che chi sta realmente crescendo sono solo i positivi in giallo, e invece i realmente malati, sia ospedalizzati (in celeste) che in terapia intensiva (in viola), oltre a essere molti di meno non crescono poi nemmeno così tanto rispetto ai positivi, che però, essendo questi ultimi largamente asintomatici, alla fine chi se ne frega! Da questo grafico verrebbe da dire che assistiamo sostanzialmente soltanto a un aumento di positivi largamente asintomatici, e quindi il problema Covid in Italia praticamente non esiste più.

Adesso però guardiamo lo stesso grafico con lo strumento del demonio. Sono gli stessi dati, gli stessi numeri, ma graficati con la scala logaritmica, che ci permette, dicevamo prima, di apprezzare le differenze fra conteggi che avvengono a scale diverse (totale positivi, che sono tanti, totale ospedalizzati, che sono così così, e terapie intensive, che sono pochi), ma soprattutto ci permette di confrontare il modo in cui variano nel tempo queste diverse quantità.

In scala logaritmica, lo stesso grafico di prima appare così.



Magia! Con lo strumento della scala logaritmica, questo artificio fuorviante e manipolatore, scopriamo che terapie intensive, ospedalizzati e perfino gli attualmente positivi seguono tutti lo stesso trend!!! Ma proprio uguale, anche nel crescere, poi calare un pochino la crescita, poi riprenderla, e così via. E lo seguivano anche nei mesi precedenti! E pensare che nella scala lineare sembravano così diversi!

A questo punto, dal grafico in scala logaritmica è perfino molto facile estrapolare cosa succederà al numero delle terapie intensive, se dovesse continuare la crescita attuale, che nell'ultima settimana ci appare crescere come una retta, che però in scala logaritmica rappresenta una crescita esponenziale. Basta metterci un righello, e prolungare il segmento degli ultimi 7 o 8 giorni. Lo possono fare tutti, politici, medici rianimatori e commentatori di Facebook, anche se avevano fra il 5 e il 6 in matematica al liceo. E se lo si fa viene fuori che - se i dati dovessero continuare a evolversi nel tempo come stanno facendo da almeno una settimana - in una ventina di giorni si raggiungerebbe il livello di terapie intensive che avevamo nel momento peggiore ad aprile. 

Che strumento manipolatore, fuorviante e perverso, questa scala logaritmica!




lunedì 28 settembre 2020

Aristotele è vivo, e lotta insieme a noi

Una domanda su un gruppo scientifico di Facebook ci mostra che l'approccio Galileiano stenta ancora a prendere piede

La domanda, posta in un gruppo Facebook di interesse scientifico, è molto semplice: "Se la terra avesse un buco che oltrepassasse il centro, e che raggiungesse la superficie dalla parte opposta; come si comporterebbe una massa lasciata cadere dentro questo buco ?"

Questo problema è classico nei corsi iniziali di fisica. Ricordo che il professore di fisica 1 lo discusse a lezione. E' un problema relativamente semplice, e chiaramente ideale. E' del tutto ovvio che nella realtà non si potrebbe costruire un canale che attraversi il centro della terra e che sbuchi dalla parte opposta, e che, nel caso fosse possibile, le complicazioni di cui tenere conto sarebbero di tutti i tipi. Il problema, comunque, può essere affrontato modellizzando la terra in modo via via più elaborato, tenendo conto di alcune complicazioni rispetto alla formulazione base, ma avendo ben presente che comunque qualunque schematizzazione in nessun modo potrebbe neanche lontanamente avvicinarsi a un caso reale. Il motivo, non c'è bisogno di dirlo, è ovvio. Tuttavia, per come è formulato, il problema è molto semplice. 



Ma quello che è veramente interessante non è la sua soluzione, o le eventuali soluzioni aggiungendo alcune piccole complicazioni. Quello che è interessante sono le risposte fornite da tanti. E sottolineo, questi "tanti" sono membri di un gruppo che discute e si interroga di scienza. E' interessante perché ci ricorda che Aristotele è vivo, e lotta insieme a noi. Credevamo che 400 anni di scienza Galileiana avessero spazzato via l'approccio tipico Aristotelico, e invece no. Per alcuni, anche fra quelli che intervengono in un gruppo scientifico nel 2020, Aristotele è ancora - forse inconsciamente - la linea guida nel confrontarsi con un problema fisico. E questo, secondo me, è l'aspetto veramente peculiare, e che merita di essere sviscerato, perché ci serve a sottolineare quale fu il salto di qualità che permise a Galileo di fare Scienza, con la maiuscola. Salto di qualità che ancora, evidentemente, non appartiene al sentore comune.

In ordine casuale ecco infatti alcuni problemi sollevati da alcuni commentatori, relativamente al quesito proposto:

  • La forza di gravità varia con l'inverso del quadrato della distanza, ma dentro il tubo ci sono disuniformità che vanno tenute in considerazione
  • La densità della terra è variabile quindi la massa non varia esattamente col cubo del raggio
  • Qualunque cosa gettata nel buco andrebbe a sbattere contro le pareti a causa della forza di Coriolis.
  • A un certo punto (probabilmente prima di arrivare al centro ma dipende dal materiale della sfera) verrebbe "distrutta" dalla pressione
  • Bisogna considerare il peso dell'aria
  • A meno che non cada esattamente al centro del buco, la parete alla quale è più vicino lo attirerebbe a sé e col tempo cadrebbe sul bordo
  • Senza attrito radente, a 9,81m/sec2, l'oggetto avrà energia sufficiente per risalire e ridiscendere e così via, fino a tanto che, l'attrito dell'aria, ne rallenterà la corsa fermandolo al centro terra
  • È un esperimento mentale e tale rimarrà. Chi mai riuscirebbe nell'impresa? 
  • Con l'attrito come la mettiamo?
  • Se lo tenessimo (l'attrito, n.d.r.) in considerazione, l'oggetto farebbe fatica a superare il centro della terra.
  • Un buco che passa attraverso la terra si riempia d'aria. Sempre che non si stia parlando di una situazione ideale, ma nella domanda originale la condizione non è specificata...
  • In realtà oscillerebbe poco... Credo che raggiunta la velocità limite, comincerebbe a rallentare per la diminuzione dell'accelerazione per fermarsi in prossimità del centro
  • L'esercizio tentato è capire come si comporta in presenza di aria
  • Se introduci un parametro "reale" allora bisogna metterceli tutti. La massa della Terra non è omogenea, la forma non è sferica, ... tutto ciò impone componenti vettoriali nella forza che la rendono non applicata nella direzione del moto.

Facciamo un bel respiro: il problema è ovviamente ideale, e non credo ci sia bisogno di spiegare perché non potrebbe essere altrimenti. E quindi chiediamoci: qual è il motivo per cui si propone questo problema, palesemente immaginario, in un corso di fisica? Cosa si vuol insegnare? Quale aspetto della fisica si vuole sottolineare?

Il motivo è applicare la legge dell'inverso del quadrato della distanza, che fa sì che in un punto qualunque all'interno della terra, assunta di forma sferica, la forza che agisce su una massa di test (dentro un ipotetico buco, anche esso ideale, che serve solo a farla muovere liberamente) dipende soltanto dalla massa contenuta nella sfera di raggio pari alla distanza fra il centro della terra e quel punto. Quindi la forza è massima sulla superficie, e nulla nel centro. Facendo i conti, (si applica il Teorema di Gauss) viene fuori che, nell'ipotesi di densità uniforme, la forza varia linearmente con la distanza dal centro della terra. E' una forza armonica, in pratica, la stessa esercitata da una molla. E quindi il corpo, nel suo ipotetico moto, si muoverà di moto armonico, accelerando verso il centro, dove raggiungerà la velocità massima, per poi rallentare fino alla superficie in direzione opposta, e così via.

Certo, possiamo aggiungerci una densità della terra dipendente dal raggio, oppure posiamo metterci l'aria dentro al tubo, e magari la pressione, e quindi tenere conto della variazione di densità, e possiamo pure metterci l'attrito contro le pareti, o gli effetti della rotazione terrestre, a seconda del nostro livello di perversione. Ma cosa impareremmo di più? Quale concetto fondamentale impareremmo, più fondamentale degli effetti della legge dell'inverso del quadrato della distanza, che regola sia il moto dei pianeti che delle stelle nelle galassie?  Niente, se non che il mondo, nella realtà, è molto più complicato e variegato che nei problemi di fisica 1.

Questo modo di affrontare i problemi introducendo subito tutte le possibili complicazioni, invece di schematizzarli e isolare innanzitutto il nocciolo, il cuore del problema, ovvero l'aspetto senza il quale tutto il resto non conterebbe, era la caratteristica della cultura Aristotelica, del modo di approcciarsi ai fenomeni naturali prima di Galilei. Per 2000 anni l'uomo si è arrabattato per cercare di formulare una legge comune che descrivesse la caduta dei corpi, e non ci è riuscito, perché ragionava esattamente in questo modo: di fronte a piume, martelli, sfere di legno di ulivo o di tek, lastre di pietra invece che cilindri o cubi, osservava in ciascuno di questi casi tutte le loro perverse peculiarità, e cercava di inglobare questa miriade di comportamenti diversi in un unico principio sulla caduta dei gravi.

Il risultato, l'unico possibile in quest'ottica, era che ogni singolo oggetto aveva il suo specifico modo di cadere, la sua peculiare, personalissima "tendenza" verso il suolo. Per forza, che cosa potevamo aspettarci di diverso? Nella realtà, a guardarlo nei minimi dettagli, ogni corpo sulla terra cade in modo impercettibilmente diverso da tutti gli altri.

La grandezza d Galileo Galilei fu quella di comprendere e isolare il nocciolo della questione, togliendo tutti gli orpelli, le situazioni contingenti, che introducevano differenze dovute al contesto. La grandezza di Galileo fu quella di separare il modo in cui i corpi cadono dai fattori di contorno, che niente hanno a che vedere con il motivo per cui un corpo cade. E il contesto, nel caso di Galilei, era la presenza dell'aria, quell'aspetto del problema che fa si che una chiave del 20 cada in modo un po' diverso da una chiave del 12, o un arancio da una ciliegia, un piatto da una tazza.

Ci sono voluti 2000 anni per arrivare a questa astrazione mentale. Da allora, è stato tutto in discesa, e è diventato possibile fare scienza. E' solo grazie a questa capacità di individuare il nocciolo del problema dal contorno che ci ha permesso, e ci permette tuttora, di comprendere come funziona la natura. Prima di questo, la descrizione dei fenomeni naturali era un immensa, noiosissima quanto inutile classificazione di comportamenti diversi.  Perché la natura, a guardarla bene, è di una varietà estrema, e senza la sintesi intrinseca nel metodo scientifico, non ci avremmo capito mai nulla.

 

Nota: per inciso, fu proprio Galileo Galilei, nel suo "Dialogo sopra i due massimi sistemi del mondo", a dare per primo la risposta corretta al problema.

Nota 2. Un commento a parte merita la frase "raggiunta la velocità limite, comincerebbe a rallentare per la diminuzione dell'accelerazione". Qui c'è proprio tutta la fisica Aristotelica. L'idea cioè che un corpo si muove solo se qualcosa lo spinge o lo attira, e se non c'è niente a spingerlo o attirarlo, allora tende a fermarsi. Invece sappiamo dalle leggi della dinamica che un corpo non soggetto a forze o resta fermo se era già fermo, oppure continua a muoversi con velocità costante.

 

 

 





mercoledì 16 settembre 2020

Affollato come il vuoto

Il vuoto in fisica non è quello che la parola lascerebbe intendere


Il vuoto, lo dice la parola, è un luogo dove non c'è niente. Per un filosofo forse la definizione potrebbe finire lì. Non so come un filosofo possa definire il vuoto, e se esista un dibattito filosofico sulla definizione del vuoto, dato che non ho mai avuto grande affinità con la filosofia. Il professore di terza liceo aveva seminato delle buone basi, ma quello di quarta e poi quello di quinta le hanno distrutte con il tritolo. Di quello di quinta, in particolare, mi è rimasto solo il ricordo del lunghissimo ciuffo con cui costruiva il riporto, ciuffo che partiva dalla base del collo e serpeggiava su per la nuca facendo vari giri sulla testa, e che ogni tanto cedeva sotto il suo stesso peso, srotolandosi impietosamente per un buon mezzo metro. Il mio rapporto con la filosofia al liceo era caratterizzato unicamente dall'attesa di questo evento catartico.

Comunque, tornando al nostro vuoto, per un fisico non c'è niente di più complesso e affollato del vuoto. Vediamo perché.

Innanzitutto chiediamoci cosa dovremmo fare per produrre il vuoto. Immaginiamo di avere una scatola, e di volerci fare al suo interno "il vuoto".

La scegliamo ben sigillata, e tiriamo via l'aria. Supponiamo di avere le pompe a vuoto più sofisticate in commercio. Non riusciremmo mai a togliere tutta l'aria, qualche molecola qua e là resterebbe comunque, ma si potrebbe dire che alla fine è solo un problema tecnico. In pratica non riusciamo a fare il vuoto, ma la teoria c'è tutta: ciucciamo fuori tutto quello che c'è, e se dalle pareti della scatola le molecole hanno la gentilezza di non staccarsi e andare a vagare al suo interno (cosa che in generale succede, ma noi abbiamo scelto il materiale più adatto allo scopo), ecco che, almeno sulla carta, abbiamo ottenuto il vuoto. 



Dentro l'acceleratore LHC del Cern, ad esempio, c'è una pressione che arriva fino a 10-9 Pa, corrispondente a un vuoto pari a quello presente nello spazio vuoto del sistema solare (fonte). Ci vogliono 2 settimane per pompare via l'aria e raggiungere quella condizione. Potremmo dire che, avendo un sistema tecnologicamente migliore, anche se costosissimo, potremmo avvicinarci al vuoto.

Però. 

Però la nostra scatola ha una sua temperatura. E la fisica ci insegna che un oggetto a una data temperatura diversa dallo zero assoluto emette onde elettromagnetiche. Non importa quale sia il materiale o la forma del contenitore, la nostra scatola, anche se dentro gli abbiamo tolto ogni singola molecola d'aria, sarà piena di fotoni, solo per il fatto di essere a una temperatura diversa dallo zero assoluto. Fotoni la cui energia dipende dalla temperatura della scatola. Quindi dovremmo anche raffreddare la nostra scatola il più possibile verso lo zero assoluto, per ridurre al minimo il contributo dei fotoni naturalmente emessi da qualunque oggetto posto a una data temperatura.

Ma poi esistono le particelle subatomiche. Esiste la teoria dei campi. Esiste la fisica moderna.

Nella teoria dei campi ogni particella è interpretata come un'eccitazione di un campo. E ogni eccitazione di un campo è una particella. Nella meccanica quantistica particelle e campi sono un tutt'uno. Vabè, si potrebbe pensare che, non mettendo particelle nella scatola, avremmo risolto il problema. Nel vuoto classico non c'è nessuna particella, e quindi il mio campo è bello piatto, senza increspature di alcun tipo. Energia zero, tipo una corda tesa e immobile, che è l'esempio che normalmente viene fatto.

Però esiste la meccanica quantistica, e nella meccanica quantistica il principio di indeterminazione di Heisenberg. Il principio di indeterminazione dice che è impossibile che ogni punto della corda che idealmente raffigura il campo presente all'interno della scatola, campo dovuto alla presenza (assenza in questo caso) di particelle, sia sempre costantemente fermo in una data posizione. In altri termini, la corda deve oscillare per soddisfare il principio di indeterminazione di Heisenberg. Poco ma deve farlo, per non far arrabbiare Heisenberg. E se la corda si muove, se la corda oscilla un pochino, e quella corda mi rappresenta l'energia del vuoto, ovvero il minimo di energia compatibile con il principio di indeterminazione di Heisenberg, allora vuol dire che il vuoto contiene energia.

Capite quindi che, se consideriamo i fenomeni quantistici, il nostro vuoto, che sulla carta ci sembrava la cosa più semplice del mondo (cosa c'è più semplice di "niente"?) diventa un oggetto bello incasinato.

Ma guardiamo il nostro vuoto, e guardiamolo con gli occhi della meccanica quantistica.  Ogni singolo punto dello spazio non ha mai un'energia esattamente definita, ma fluttua attorno a un minimo, contemporaneamente in tanti stati diversi (vi ricordate il Gatto di Schrodinger, che è contemporaneamente vivo e morto?). Il vuoto si trova quindi in una sovrapposizione di stati, e quindi può essere visto come un tripudio di particelle, che nascono e muoiono continuamente. Particelle di tutti i tipi, anche estremamente pesanti, la cui effimera esistenza è regolata dalla meccanica quantistica. La nostra scatola, in cui abbiamo tolto l'aria, e che abbiamo raffreddato il più possibile verso lo zero assoluto, è quindi piena dell'energia di questa moltitudine di particelle che saltano fuori e scompaiono incessantemente. Un'energia che è la minima possibile, ma non è zero.
 
Ma possiamo misurare questa energia? Possiamo verificare con qualche tipo di esperimento che tutto questo è vero? Si, possiamo.

Esistono vari effetti che sono stati misurati. Fra questi il Lamb Shift, una leggera variazione di energia nello spettro fra due livelli dell'atomo di idrogeno, misurata con grande precisione. Questa piccola variazione di energia, è dovuta all'interazione dell' elettrone dell'atomo di idrogeno con le fluttuazioni quantistiche del vuoto. In pratica, nell'interazione elettromagnetica con il nucleo, l'elettrone risente degli effetti quantistici del vuoto, che si polarizza, come un dielettrico in un condensatore. Questo produce delle alterazioni del campo elettrico fra elettrone e nucleo, che si manifestano in piccole modifiche dei livelli di energie degli spettri atomici. Modifiche calcolabili, e che vengono puntualmente misurate.

E se qualcuno dovesse pensare che queste misure siamo imprecise e arraffazzonate, visto l'argomento, rispondo che esse sono di gran lunga fra le misure più precise mai realizzate in fisica: la misura sperimentale di 8172.874(60) MHz per il Lamb shift 1S nell'idrogeno si confronta infatti con la previsione teorica di 8172.802(40) MHz. Le cifre fra parentesi danno l'incertezza sulle ultime 2 cifre, sia della misura che della previsione teorica. L'errore è 1.2 parti su 100000, come misurare l'altezza dell'Everest sbagliando di un palmo.
 
Ma quanto vale questa energia del vuoto? E' tanta o è poca? 

Possiamo averne una stima dalla misura della costante cosmologica. La costante cosmologica è quel parametro che si pensa descriva l'accelerazione dell'espansione del'universo. Infatti osserviamo che, espandendosi, l'universo accelera la sua espansione. Si pensa che questo effetto sia legato all'energia del vuoto. Infatti, se la densità di energia del vuoto ha un valore fissato e costante, determinato dalle considerazioni di meccanica quantistica descritte finora, allora aumentando lo spazio (a causa dell'espansione dell'universo) deve aumentare l'energia associata al vuoto. Questa energia ha un effetto repulsivo (pressione negativa) sulla materia. La costante cosmologica è associata a questa grandezza. 
 
Dalla misura della costante cosmologica si stima che il vuoto abbia una densità di energia pari a 10−9 joules per metro cubo. 10−9 joules equivale più o meno all'energia cinetica di una zanzara in volo di ricognizione, diluita in un metro cubo di spazio. Poco, decisamente poco, in termini macroscopici, ma considerato tutto lo spazio vuoto che c'è nell'universo, alla fine viene fuori che questa energia è ciò che domina nell'universo. Quella che viene chiamata energia oscura, e che determina la dinamica dell'universo a grande scala e su tempi lunghi. In pratica, se l'universo oggi è così come lo osserviamo, è grazie alle proprietà del vuoto. Quanti filosofi, pur nei loro pensieri più inconfessabili, sarebbero arrivati a immaginare una cosa del genere?