lunedì 22 febbraio 2021

L'incostante di struttura fine, e altre costanti poco costanti.

Quello che segue vuole mostrare quanto la natura possa essere complessa e lontana dal senso comune quando andiamo a considerare fenomeni che avvengono su scala estremamente piccola. Il pretesto è un problema all'apparenza molto semplice: misurare la carica elettrica di un elettrone.

Ovviamente dal punto di vista strettamente sperimentale la cosa può essere decisamente complicata, ma la premessa è che non ci preoccuperemo degli aspetti tecnico-pratici, che certamente hanno un ruolo importante se si vuole effettuare questa misura, ma analizzeremo la questione dal punto di vista strettamente concettuale. 


Idealmente, per misurare la carica dell'elettrone, potremmo prendere due elettroni, metterli a una certa distanza nello spazio, e misurare la forza che li spinge ad allontanarsi fra loro. Questo è un semplice problema di elettrostatica, al quale applicheremo la legge di Coulomb: nota la distanza, e misurata la forza che agisce fra le due cariche, ricaveremo il valore della carica elettrica delle due particelle.

Uno potrebbe obiettare che è difficile tenere fermi due elettroni e misurarne la forza, anche senza scomodare il principio di indeterminazione, per cui, più concretamente, potremmo porre un certo numero di elettroni su un elettrodo di un condensatore,  e misurare la tensione risultante. Il valore che ricaveremmo è quello che si trova sui libri per la carica dell'elettrone: q = 1.60217662 × 10-19C (C=Coulombs, l'unità di misura della carica elettrica). Questo numero, se elevato al quadrato e diviso per ħ (la costante di Planck diviso 2 pigreco) e la velocità della luce c, è una quantità adimensionale (è un numero puro, senza unità di misura) che vale circa 1/137. Si chiama costante di struttura fine, e è una delle costanti fondamentali della Natura.

La costante di Struttura Fine: e è la carica dell'elettrone, h tagliato è la costante di Planck divisa per 2 pigreco, c è la velocità della luce. Il suo valore è circa 1 su 137.

Quella che abbiamo appena descritto è una misura di tipo statico: gli elettroni stanno fermi, o al massimo si agitano un po' sugli elettrodi del condensatore.

Però potremmo agire in un altro modo. Potremo prendere un elettrone, e spararlo contro un altro elettrone, oppure sparare due elettroni uno contro l'altro, che alla fine è poi la stessa cosa. Gli elettroni, avvicinandosi, si respingeranno a vicenda, modificando la loro traiettoria, e verranno deflessi. Il modo in cui verranno deflessi, che è calcolabile, dipende dalla loro carica elettrica e dal parametro di impatto, cioè in sostanza da quanto al massimo si possono avvicinare reciprocamente, avendo cercato di prendere bene la mira. 

Questo modo di misurare la carica dell'elettrone, diverso dal precedente dal punto di vista del metodo, è di tipo dinamico: risaliamo cioè al valore della carica dell'elettrone in base a come i due elettroni si muovono mentre si respingono fra loro, misurando come le loro traiettorie vengono deflesse se li lanciamo uno contro l'altro. 

Però i risultati dovrebbero essere identici. E infatti lo sono: l'urto ci mostra un comportamento che è il risultato della legge di Coulomb per due elettroni in movimento. I due elettroni si respingono mentre si avvicinano, interagendo fra loro secondo una legge che varia con l'inverso del quadrato della loro distanza. Le loro traiettorie sono il risultato di questo tipo di interazione, e dallo studio delle loro traiettorie possiamo ricavare il valore delle loro cariche elettriche. E il risultato, per il valore della carica dell'elettrone, è sempre lo stesso.

Adesso però cerchiamo di sparare i due elettroni uno contro l'altro cercando di prendere bene la mira, e dando loro un grande impulso, in modo che si avvicinino il più possibile, cercando di vincere la loro repulsione elettrica. E cerchiamo di farlo aumentando ogni volta sempre di più il loro impulso.

Se facciamo questo, succedono cose strane. Il modo in cui i due elettroni si comportano se prendiamo molto bene la mira, e conferiamo loro un grande impulso, è tale che la carica elettrica dell'elettrone, che ricaviamo dalle traiettorie degli elettroni durante l'urto, sembra aumentare al crescere dell'impulso che si scambiano i due elettroni. Il valore della costante di struttura fine che misuriamo, in pratica, cresce con il crescere dell'energia dell'urto con cui cerchiamo di misurarlo.

La domanda a questo punto è: come è possibile che una quantità che è il prodotto di costanti fondamentali della natura, non sia affatto costante? Cosa succede alla carica dell'elettrone? Come può essa variare a seconda dell'impulso scambiato dai due elettroni durante l'urto?

Ce lo spiega l'elettrodinamica quantistica e la teoria dei campi quantistici. Calmi, niente panico!

Per capire cosa succede, vediamo che cosa implichi aumentare l'impulso dei due elettroni che vanno a interagire reciprocamente. Aumentare l'impulso vuol dire diminuire di conseguenza la lunghezza d'onda di De Broglie dell'elettrone: maggiore è l'impulso di una particella, minore è la sua lunghezza d'onda associata. Questo permette in pratica agli elettroni di "scrutarsi" reciprocamente con maggiore risoluzione. 

D'altra parte è così che funziona un microscopio elettronico: se vogliamo vedere qualcosa di molto piccolo, invece di usare un fascio di luce, la cui lunghezza d'onda è troppo grande per "vedere", ad esempio, la struttura di un cristallo, si usa un microscopio elettronico, nel quale al posto della luce, per illuminare l'oggetto che voglio studiare, uso un fascio di elettroni opportunamente accelerato.

Quando questo fascio di elettroni interagisce con l'oggetto da studiare, la sua lunghezza d'onda, determinata dosando l'impulso del fascio di elettroni in modo da essere sufficiente piccola, è capace di "vedere" i dettagli dell'oggetto che ci interessano. In pratica l'interazione dell'elettrone avviene con i dettagli dell'oggetto posti sul "vetrino", e questi dettagli sono tanto più piccoli tanto maggiore è l'impulso degli elettroni. Questo ci permette di vedere, tramite un microscopio elettronico, dettagli altrimenti invisibili con un normale microscopio ottico, che cioè sfrutta la luce per illuminare ciò che vogliamo vedere, e che quindi non potrà mai mostrarci dettagli più piccoli della lunghezza d'onda della luce visibile, non importa quanto siano buone le lenti.

Quindi, quando lanciamo un elettrone contro l'altro, ad esempio in un acceleratore di particelle, i due elettroni, grazie alla loro piccola lunghezza d'onda di De Broglie, che è tanto più piccola tanto maggiore è il loro impulso, si "scrutano" da molto vicino, e sono capaci di vedere cose che, ad elettroni che si avvicinano con un basso impulso reciproco, risulterebbero invisibili.

E sebbene - per quanto ne sappiamo - gli elettroni non abbiano una struttura interna (nel senso che gli esperimento fatti finora non hanno mai evidenziato che gli elettroni siano composti di sottostrutture) quando si scrutano così in dettaglio si accorgono che lo spazio attorno ad essi, a risoluzioni spaziali così estreme, è tutt'altro che vuoto, ma appare come polarizzato dalla loro presenza, ovvero dalle loro cariche elettriche, come se fosse un dielettrico. Questa polarizzazione si manifesta circondando i due elettroni di una moltitudine di coppie elettrone-positrone (il positrone è l'antiparticella dell'elettrone). Aumentando l'impulso degli elettroni, riusciamo però a penetrare dentro questa nube, che dall'esterno funge da parziale schermo alla "vera" carica dell'elettrone. 

E il risultato è che la carica di un elettrone ci appare variare con l'impulso dell'elettrone sonda con cui lo studiamo. Se ad esempio misuriamo la carica dell'elettrone con elettroni dall'energia di 100 GeV o più, come accade nei moderni acceleratori, tipo il LEP del Cern, che ha raccolto dati nell'ultimo decennio del secolo scorso, la costante di struttura fine passa da 1/137 dei libri, a circa 1/128. 

Ci tengo a sottolineare che il fenomeno della polarizzazione del vuoto, sebbene possa sembrare fantascientifico, è così ben descritto dall'elettrodinamica quantistica che le previsioni teoriche delle quantità osservabili combaciano con le misure sperimentali con precisioni altissime, tanto da rappresentare le misure più precise in assoluto in fisica. Nessun altra misura in fisica, di nessun tipo, può vantare un confronto teoria-esperimento così perfetto.


L'evoluzione dell'inverso della costante di struttura fine in funzione del quadri-impulso trasferito nell'urto. La linea continua è la previsione teorica secondo l'elettrodinamica quantistica (QED).

Un effetto simile accade anche con la costante di accoppiamento delle interazioni nucleari forti. In questo caso, però, l'effetto è opposto. L'interazione fra due quark è infatti "forte" a distanze "grandi" (in questo caso "grandi" sono le distanze tipiche dei protoni dentro un nucleo), cosa che impedisce di riuscire a strappare un quark dall'interno di un protone, perché allontanandolo dagli altri quark la forza che li tiene assieme diventa enorme. Però, se aumentiamo l'energia a cui facciamo scontrare due protoni, la forza nucleare forte diventa man mano più debole, e i quark si comportano come se fossero quasi liberi, ovvero la costante di accoppiamento della forza nucleare forte diminuisce. Questa condizione estrema della materia, che ha caratterizzato una breve fase nell'evoluzione dell'universo primordiale, è stata riprodotta agli acceleratori di particelle come LHC del Cern, in particolare in urti ad altissima energia fra singoli nuclei di piombo, e si chiama "quark-gluon plasma". In queste condizioni in cui una grande energia è concentrata in una zona delle dimensioni di due nuclei atomici di Piombo, per un breve istante i quark e i loro collanti, che si chiamano gluoni, vagano liberi, capaci di percorrere distanze molto maggiori (anche se pur sempre infinitesime) rispetto a ciò che è loro normalmente concesso. 

L'evoluzione della costante di accoppiamento della forza nucleare forte è visualizzata nel grafico qua sotto, dove sono riportate le misure effettuate a energie via via crescenti.


La costante delle interazioni forti, al contrario della costante di struttura fine, decresce con l'energia degli urti.

Il comportamento delle interazioni nucleari forti che rende impossibile separare due quark da renderli liberi nel vuoto, si vede bene in urti osservati agli acceleratori di particelle, come quello in figura qua sotto. Nell'urto fra un elettrone e un positrone viene "creata" una coppia quark-antiquark, che si separa con grande impulso non appena prodotta. Quando il quark e l'antiquark raggiungono distanze tipiche di un decimo di miliardesimo di centimetro, (1 fm, la dimensione tipica di un protone), la forza nucleare forte, debole a distanze inferiori, diventa così intensa da impedire loro di allontanarsi ulteriormente. E' un po' come un elastico che si tende, per fare una analogia: quando i capi dell'elastico sono vicini possiamo muoverli come vogliamo, ma se cerchiamo di allontanarli troppo, l'elastico accumula energia e ci impedisce di andare oltre. A quel punto l'energia accumulata fra i due quark è così grande da "spezzare l'elastico" e materializzarsi in tante coppie di quark-antiquark formate da tutta questa energia concentrata lungo la direzione del moto dei quark iniziali. Questi quark si appiccicano immediatamente fra di loro, formando decine di particelle, che si manifestano macroscopicamente come due "jet", due spruzzate di particelle emesse in direzione opposta, orientate secondo la direzione dei due quark originari. Di eventi di questo tipo ne sono stati osservati in grande quantità, e sono la normalità negli odierni esperimenti di particelle.

Un evento a due jet di particelle, risultato della produzione di una coppia quark-antiquark con alto impulso.





 

 



mercoledì 27 gennaio 2021

Il buco nero nel centro della Via Lattea con la matematica del liceo.

Premi Nobel per la Fisica del 2020, assegnati a Roger Penrose, Reinhard Genzel e Andrea Ghez (una donna, finalmente!) hanno come tema comune i buchi neri. In particolare, gli ultimi due nomi hanno effettuato lo studio di Sagittarius A, un oggetto astrofisico situato al centro della nostra Via Lattea, a 27000 anni luce dalla terra, già noto per essere una intensa sorgente radio. Il lavoro indipendente dei gruppi di ricerca coordinati da Genzel e Ghez ha portato alla scoperta che Sagittarius A è in realtà un buco nero supermassiccio. Molte galassie hanno la caratteristica di avere un buco nero di grande massa al loro centro (fonte), pari a milioni o addirittura miliardi di masse solari. 

La zona di stelle al centro della nostra Via Lattea. Sagittarius A si trova nel riquadro.

Il raggio di un buco nero (quello che tecnicamente si chiama "Raggio di Schwarzschild") caratterizza la superficie della sfera di non ritorno in un ipotetico viaggio verso un buco nero, la superficie sulla quale la velocità di fuga per uscire dal buco nero assume il valore della velocità della luce. Nulla, neanche un raggio di luce, se emesso all'interno di questa superficie, potrebbe fuoriuscirne, e essere visibile al mondo esterno. Non è una superficie fisica, non è la superficie del buco nero, non è la superficie che delimita la materia del buco nero dal mondo esterno. E' una superficie ideale, matematica. Il valore del raggio di questa ipotetica sfera cresce proporzionalmente alla massa del buco nero, e vale:

dove M è la massa del buco nero, G è la costante di gravitazione, e c è la velocità della luce. 

Se potessimo idealmente comprimere la terra tanto da formarne un buco nero, il suo raggio di Schwarzschild sarebbe grosso modo pari a un centimetro. Per il sole esso varrebbe invece circa 3 Km. Al centro della galassia M87, nella costellazione della Vergine, a una cinquantina di milioni di anni luce da noi, c'è un buco nero (recentemente "fotografato") la cui massa stimata è di 6.6 miliardi di masse solari, che corrispondono a un raggio di Schwarzschild di una ventina di miliardi di chilometri, circa 3 volte la distanza di Plutone dal Sole. 

Sagittarius A, il buco nero supermassiccio nostrano (che però non è il buco nero più vicino alla terra!), è un po' più magro, dato che ha una massa stimata di circa 4 milioni di masse solari, che corrispondono a un Raggio di Schwarzschild di circa 12 milioni di chilometri. Circa  17 volte le dimensioni del nostro sole, e corrispondenti a 40 secondi luce. La distanza terra-sole, per confronto, è pari a circa 500 secondi luce, grossomodo 8 minuti.

Il lavoro che ha portato Reinhard Genzel e Andrea Ghez a vincere il premio Nobel riguarda la misura dei parametri di Sagittarius A, e ha del meraviglioso. Infatti, a parte gli inevitabili aspetti tecnici, ci sono alcune caratteristiche delle misure effettuate che sono fruibili e godibili da chiunque, senza essere necessariamente esperti della materia, e che generano pura meraviglia. Questi due gruppi di ricerca hanno infatti ricavato le caratteristiche del buco nero di Sagittarius A osservando il moto delle stelle attorno al centro della nostra galassia, una zona di alta densità stellare, e mappando quindi nel tempo la posizione delle singole stelle. E quello che hanno osservato è qualcosa di inaspettato e meraviglioso per chiunque.

Infatti, normalmente, per tutti noi le stelle sono "stelle fisse". Sono sempre lì, non a caso le chiamavano così fin dall'antichità. Sono talmente distanti che la loro posizione reciproca non cambia ai nostri occhi se non usiamo strumenti sofisticati e protraiamo le osservazioni per tempi relativamente lunghi. Insomma: osservare le piccole mutazioni delle posizioni relative delle stelle, se non si è addetti ai lavori e motivati dalla propria ricerca, non è certamente qualcosa di entusiasmante. Invece l'osservazione delle stelle vicine al centro della galassia ha mostrato un vero putiferio (fonte). Una pogata generale di stelle, come succede tra il pubblico sotto il palco di un concerto metal. In questo intreccio di orbite si nota che tutte hanno un punto in comune, un fuoco dell'ellisse. In quel punto c'è la causa di tutti i loro convulsi movimenti. Il filmato spettacolare di quello che succede al centro della nostra Via Lattea è questo

Ci sono decine di stelle che orbitano attorno a un punto, con orbite più o meno ellittiche, che seguono sostanzialmente le leggi di Keplero. Certo, un buco nero è un oggetto che per definizione è legato alla Teoria della Relatività Generale, ma nonostante questo il moto di quelle stelle è comunque ben descritto dalle vecchie leggi di Newton, e la Relatività Generale influisce solo con correzioni, tipo effetti di precessione (come si osserva, in piccolo, anche per il pianeta Mercurio). In pratica, quindi, le leggi di Newton permettono già di darci un quadro molto buono di cosa c'è al centro della galassia, e che determina quel moto così folle delle stelle che gli stanno attorno.

In particolare c'è una stella che si chiama S2. Il periodo di osservazione del centro galattico da parte dei due gruppi di ricerca ha permesso di mappare con ottima precisione il moto di questa stella. Nel filmato essa compie un'ellisse completa con un periodo di 16 anni, un semiasse maggiore pari a 970 volte la distanza terra-sole, e un punto di maggiore avvicinamento a Sagittarius A di circa 17 ore luce, più o meno 4 volte la distanza fra il sole e Nettuno. Nel punto di massimo avvicinamento, la stella si muove a una velocità stimata pari a più di 7500 km/s, ovvero quasi il 3% della velocità della luce. E' bellissimo vederla muoversi, lentamente quando è nel punto più distante, e poi accelerare di colpo e svirgolare al passaggio al periastro. Sembra un video gioco. Nel punto più vicino a Sagittarius A, la teoria di Einstein prevede un redshift gravitazionale abbastanza sostanzioso, in aggiunta al redshift dovuto alla velocità. Tale redshift è stato misurato, in ottimo accordo con la teoria. Informazioni più dettagliate sulle caratteristiche di questa baraonda galattica, e le informazioni che se ne possono trarre sulle leggi fisiche, si possono trovare ad esempio qui e qui.

Ma la cosa bella è che, in base a questi parametri, possiamo calcolare la massa dell'oggetto responsabile del moto della stella.

Non sarà un calcolo preciso, certo, perché useremo la Legge d Newton. Non terremo conto delle varie correzioni legate alla Teoria della Relatività Generale, e nemmeno di tanti altri effetti. Ma dal divano di casa, con la sola fisica del terzo liceo, possiamo fare una stima di quanta massa deve esserci in quel punto senza luce attorno al quale si muove la stella S2, e assieme a lei tutte le altre di questo filmato. E il risultato di questo conto un tanto al chilo, sarà sorprendentemente accurato.

In particolare useremo la terza legge di Keplero, che peraltro deriva pari pari dalla legge di Newton. Se il moto della stella fosse circolare, dalla legge di Newton della gravitazione universale potremmo scrivere che

dove R è il raggio dell'orbita, v è la velocità tangenziale della stella che orbita, T è il periodo di rivoluzione, M è la massa che cerchiamo, e G è la solita costante di gravitazione universale. Il calcolo usa il fatto che la velocità in un moto circolare uniforme è la lunghezza della circonferenza diviso il tempo T impiegato a percorrerla. Sono cose da terza liceo, appunto.

Nel nostro caso il percorso di C2 non è una circonferenza, ma un'ellisse. In questo caso, però, si può dimostrare che il raggio R deve essere sostituito dal semiasse maggiore. Chiamiamolo "a". A questo punto, sostituendo R con a, con un semplice passaggio di algebra, abbiamo che la massa dell'oggetto misterioso che stiamo cercando vale:

In realtà M, a essere precisi, sarebbe la massa dell'oggetto attorno a cui ruota il corpo in questione (S2) sommato alla massa dell'astro centrale, ma la massa della stella S2 è dell'ordine di una decina di masse solari, e vedremo che il suo ruolo è del tutto ininfluente. Comunque questo ci dice per inciso che la terza legge di Keplero, a voler essere precisi, è approssimata, perché in essa ci sarebbe anche una leggerissima dipendenza dalla massa del pianeta (che nel nostro caso è la stella S2). Siccome però nel caso del nostro Sistema Solare le masse dei pianeti, anche i più grandi, sono piccole rispetto alla massa del sole, la Terza Legge di Keplero funziona molto bene sia per la Terra che per Giove.

Perfetto. Allora adesso mettiamoci dentro i numeri: G = 6,67×10−11 N m²/kg², T = 16.05 anni = 0,51 miliardi di secondi, a = 970 au (au = astronomy units; 1 unità astronomica è pari alla distanza terra-sole) = 1.45 ×1011 m).  A questo punto usiamo la calcolatrice, sbagliamo quelle 6 o 7 volte nel fare i conti (signora, suo figlio la matematica la capisce, ma è di un distratto!), e alla fine otteniamo M = 6.3×1036 Kg. Per capire se è tanto o poco, esprimiamo questo valore in termini di multipli di masse solari: la massa del sole vale 2×1030 Kg, quindi la massa dell'oggetto misterioso attorno a cui ruota la stella S2 vale un po' più di 3 milioni di masse solari. Il calcolo corretto, ottenuto usando anche le informazioni di tutte le altre stelle, e in cui sono incluse tutte le opportune correzioni, avrebbe dato una massa di (4.154±0.014)×106 masse solari. Non male, per un conto della serva (on the back of an envelope, dicono gli anglosassoni) in cui abbiamo usato la vecchia legge di Newton, ignorando la Relatività e tutte le possibili complicazioni, che pure ci sono!

Quindi la nostra stella S2, e tutte le altre stelle della "zona", ruotano attorno a un oggetto che ha una massa di qualche milione di masse solari, concentrata in una dimensione inferiore alle dimensioni del nostro sistema solare. Questo oggetto, con quella massa, non può essere una normale stella invisibile. Quell'oggetto, con quella massa, è un buco nero. Un buco nero gigante, per l'aggiunta. Infatti, con quella massa, un buco nero ha un Raggio di Schwarzschild di 12 milioni di km. Su quella ipotetica superficie, l'accelerazione di gravità sarebbe grosso modo pari a 370mila volte quella sulla superficie terrestre.

Ma se, putacaso, fossimo in caduta libera mentre attraversiamo allegramente quella superficie, non dovremmo preoccuparci dell'enorme valore di g, perché, essendo in caduta libera, non percepiremmo nulla, e galleggeremmo come gli astronauti nella stazione spaziale. Al limite potremmo percepire piccoli effetti di stiramento, ma direi neanche tanto, perché le dimensioni di un essere umano, rispetto a 12 milioni di chilometri, sono molto piccole, e quindi la differenza di g fra testa e piedi non sarebbe significativa. "Finora tutto bene!!!", potremmo quindi comunicare ai terrestri in ascolto. Ma quel segnale, ahimè, non arriverà mai a destinazione.


PS: Massimo Germano, che ringrazio, mi fa notare che l'accelerazione di gravità al raggio di Schwarzschild, includendo anche le correzioni della relatività generale, andrebbe in realtà all'infinito, in quanto l'espressione corretta è:








 

 



mercoledì 23 dicembre 2020

La smania di dimostrare che Einstein si era sbagliato

Nei gruppi scientifici che sui social trattano di argomenti di fisica, ogni tanto compare il classico post che vorrebbe dimostrare che Einstein si era sbagliato. O per lo meno il post di chi non si rassegna al fatto che non si possa superare la velocità della luce, partendo dal presupposto che nella vita di tutti i giorni qualunque velocità è superabile. Oppure, più in generale, chi elabora teorie alternative alla relatività Einsteniana finendo per proporre inevitabilmente argomentazioni che, oltre a essere sbagliate, sono molto più complesse e astruse della Teoria della Relatività stessa.  

Insomma, sarà il fatto che Einstein incarni nell'immaginario la figura del genio assoluto e inarrivabile, ma per lo scienziato fai-da-te della rete, a distanza di più di un secolo dalla sua formulazione, la Teoria della Relatività resta ancora una spina nel fianco, qualcosa di difficile da accettare. Neanche il gatto di Schrödinger è così indigesto come Einstein e la sua Teoria della Relatività, e in particolare la Relatività Ristretta, detta anche Relatività Speciale. 

Io credo che questo rigetto per la Teoria della Relatività abbia origine dal non avere capito il motivo per cui si è arrivati alla Teoria della Relatività. Credo che dietro ci sia la convinzione che Einstein l'abbia formulata così dal niente, e imposta alla comunità dei fisici a scatola chiusa, come se una mattina si fosse svegliato male intestardendosi nel voler dimostrare che le distanze si accorciano, gli orologi si sfasano, i gemelli invecchiano diversamente, e la materia può trasformarsi in energia. E alla fine ha convinto tutti che era così, e i fisici di tutto il mondo se la sono bevuta, e da oltre un secolo continuano a crederci acriticamente. Ma per fortuna ci sono loro, gli scienziati di Facebook, che svincolati dallo strapotere dei cattedratici e della scienza di regime, l'hanno scoperto!

Anche perché poi, chiamandosi "Teoria" della Relatività, lo scienziato dei social è convinto che sia solo una teoria, e quindi come tale potrebbe essere sbagliata, se solo si facessero esperimenti seri e accurati senza essere obnubilati da tutta questa idolatria per Einstein. 

Quello che segue non pretende di far cambiare idea a questa nicchia di umanità che è convinta che Einstein con la sua "teoria" abbia sbagliato. Come per i no terra sferica, no scie chimiche, no 5G (10 anni fa erano no 4G, ma anche loro si tengono al passo coi tempi), no vax e no mask, anche i no Einstein non li convincerai mai. E' la loro ragione di vita, quella di accanirsi contro qualcosa (Einstein in questo caso), è ciò che li rende vivi e unici, e non possono rinunciare a questa identità.

Quello che segue vuole però mostrare a chi legge, e che magari non essendo esperto potrebbe pensare che ci siano aspetti controversi sulla Teoria della Relatività, quanto in realtà sia semplice la Teoria della Relatività. Quanto sia ovvia la Teoria della Relatività. Oltre al fatto che non solo essa è accettata da tutta la comunità scientifica ormai da un secolo, ma che è parte integrante della fisica di base. Non della fisica avanzata, ma della fisica elementare! Quello che segue vuole mostrare che la Relatività Ristretta era la soluzione inevitabile, data la situazione della fisica a fine 800. Non solo, ma vuole mostrare anche quanto sia fuori dal mondo l'idea che la Relatività Ristretta sia piovuta dal cielo, imposta da Einstein, come certi credono, e quanto invece essa fosse la ovvia conseguenza di qualcosa che era già scritto, e che semplicemente nessuno aveva ancora compreso nel suo vero significato.

La Relatività Ristretta è infatti l'insieme delle inevitabili conseguenze del fatto, incontestabile, che il Principio di Relatività vale per tutti i fenomeni naturali. Punto, potremmo finirla qui. Ma sarebbe una cattiveria, per cui andiamo avanti.

Il Principio di Relatività è incontestabile perché afferma quanto di più ovvio ci possa essere: le leggi della fisica sono le stesse in qualunque sistema di riferimento inerziale. Vediamo di seguito il significato di questa affermazione, e perché essa rappresenti qualcosa di ovvio che tutti noi constatiamo continuamente, in ogni istante.

Una complessa macchina come il corpo umano, tanto per fare l'esempio di qualcosa che ci portiamo sempre dietro, è un mix di meccanica, elettromagnetismo, e fisica nucleare (ebbene sì, dentro di noi ci sono isotopi radioattivi che decadono a nostra insaputa quando gli gira di farlo) che si basa su leggi fisiche che sono sempre le stesse, sia che siamo seduti sul divano che su un aereo in volo, in automobile o in volo verso Plutone a 100mila km/h (il giorno in cui ci andremo). Se non siamo sottoposti a accelerazioni, infatti, le leggi della fisica sono talmente sempre le stesse che non abbiamo nemmeno modo di dire se ci stiamo muovendo o possiamo considerarci fermi. Qualunque tipo di esperimento possiamo immaginare, con qualunque congegno o legge fisica, non sarà mai in grado di dirci chi, fra due osservatori in moto relativo uno rispetto all'altro, si stia realmente muovendo, e chi invece stia realmente fermo, tanto che queste due affermazioni, se intese in senso assoluto, sono prive di significato. E questo è il risultato del fatto che le leggi fisiche, TUTTE le leggi fisiche, sono identiche per entrambi gli osservatori, e quindi sono le stesse per QUALUNQUE osservatore solidale con un sistema di riferimento inerziale.

Questa cosa l'aveva già notata Galileo in un suo celebre passo:

Rinserratevi con qualche amico nella maggiore stanza che sia sotto coverta di alcun gran navilio, e quivi fate d'aver mosche, farfalle e simili animaletti volanti: siavi anco un gran vaso d'acqua, e dentrovi de' pescetti; sospendasi anco in alto qualche secchiello, che a goccia a goccia vada versando dell'acqua in un altro vaso di angusta bocca che sia posto a basso; e stando ferma la nave, osservate diligentemente come quelli animaletti volanti con pari velocità vanno verso tutte le parti della stanza. [..][19] Osservate che avrete diligentemente tutte queste cose, benché niun dubbio ci sia mentre il vascello sta fermo non debbano succedere così: fate muovere la nave con quanta si voglia velocità; ché (pur di moto uniforme e non fluttuante in qua e in là) voi non riconoscerete una minima mutazione in tutti li nominati effetti; né da alcuno di quelli potrete comprendere se la nave cammina, o pure sta ferma 
(Galileo Galilei, Dialogo sopra i massimi sistemi del mondo)

Galileo aveva anche ricavato le leggi che mettono in relazione le coordinate spaziali fra due sistemi di riferimento inerziali in moto relativo uno rispetto all'altro. Si chiamano, guarda caso, Trasformazioni di Galileo. Queste trasformazioni matematiche, molto semplici, per certi versi intuitive, hanno l'effetto di mantenere invariata l'espressione matematica delle leggi fisiche in qualunque sistema di riferimento inerziale esse si considerino. In pratica formalizzano matematicamente ciò che constatiamo continuamente in una moltitudine di esperienze: il Principio di Relatività. 

Mentre le coordinate spaziali di un punto sono ovviamente diverse in due sistemi di riferimento in moto relativo, il tempo, in queste trasformazioni, è sempre lo stesso in entrambi i sistemi di riferimento, qualunque sia la loro velocità relativa. Newton diceva addirittura che era come se ci fosse un orologio da qualche parte nell'universo, che scandisse il tempo ufficiale. Un mega Istituto Galileo Ferraris universale. Una assunzione che - vedremo - si rivelerà sbagliata.


 

Una conseguenza ovvia delle trasformazioni di Galileo è la legge di somma o sottrazione delle velocità. Se sono in autostrada e vado a 130 km/h rispetto all'asfalto, e sto superando una macchina che (pur viaggiando nella corsia centrale) procede a 100 km/h, quella macchina, dal mio punto di vista, cioè nel mio sistema di riferimento, la vedrò viaggiare verso di me a -30 km/h. Se poi, mentre la supero, mi affianco a essa andando anche io a 100 km/h rispetto alla strada (per fare dispetto al Suv che mi sfanala istericamente da dietro), la vedrò addirittura ferma. Niente di strano, anzi, tutto assolutamente ovvio.

Il problema sorge quando, nel corso del diciannovesimo secolo, si scoprirono i fenomeni elettromagnetici, e con essi la propagazione della luce, che ne è una diretta conseguenza. I fenomeni elettromagnetici vengono infatti riassunti in quattro equazioni, che prendono il nome di Equazioni di Maxwell. Le equazioni di Maxwell inglobano tutti i fenomeni elettromagnetici, dall'elettrostatica all'induzione magnetica, fino alle onde elettromagnetiche.

E dove sta il problema? Il problema è che queste equazioni, che vorrebbero essere equazioni fondamentali della fisica, anzi, che SONO equazioni fondamentali della fisica, contengono al loro interno un termine che ha le dimensioni di una velocità, e che risulta essere la velocità di propagazione delle onde elettromagnetiche. La velocità della luce, insomma.

E perché questo è un grosso problema? 

E' un grosso problema perché una velocità è quanto di più relativo al sistema di riferimento ci possa essere! Una velocità, lo sappiamo dalle trasformazioni di Galileo e dall'esperienza di tutti i giorni (ricordate l'esempio dell'autostrada?), dipende fortemente dal sistema di riferimento da cui si misura. Una velocità è la cosa che più di tutti varia da un sistema di riferimento a un altro. E quindi come possiamo pretendere che le equazioni di Maxwell, che al loro interno contengono una velocità, non cambino passando da un sistema di riferimento a un altro? Che razza di universalità potrebbero avere delle equazioni che cambiano di espressione passando dal divano all'automobile, dall'autobus all'aeroplano, per non dire da dicembre a giugno, quando la terra si muove in direzioni opposte rispetto al sole? Come potrebbero quindi le equazioni di Maxwell rispettare il Principio di Relatività, che implicherebbe che esse restino invariate in qualunque sistema di riferimento inerziale, se al loro interno c'è una velocità?

I fisici dell'epoca dissero: "oh, ragazzi, pazienza! Si vede che le quazioni di Maxwell valgono in un particolare sistema di riferimento soltanto, in cui la velocità della luce avrà un valore particolare, e cambiando sistema di riferimento e scegliendone un altro in moto relativo rispetto ad esso, la velocità della luce sarà un po' maggiore o un po' minore". Come d'altra parte succede per tutte le velocità. 

Si fecero quindi esperimenti per cercare di misurare variazioni della velocità della luce fra sistemi di riferimento diversi (i famosi esperimenti di Michelson e Morley), ma l'effetto cercato non si trovava. In pratica la luce sembrava fregarsene alla grande della legge della somma delle velocità, quella che funziona così bene per gli automobilisti in autostrada e per tutte le altre velocità conosciute: il risultato sperimentale è che se corro dietro a un raggio di luce, anche se sono su una Ferrari, la luce la vedo viaggiare sempre alla stessa velocità.

Questo fatto sperimentale, per inciso, garantiva automaticamente che il Principio di Relatività valesse anche per le leggi dell'elettromagnetismo. Le equazioni di Maxwell, ovvero le leggi che riassumono tutti i fenomeni elettromagnetici, rimangono SPERIMENTALMENTE invariate in qualunque sistema di riferimento inerziale. 

La cosa ci rassicura non poco, considerata la miriade di reazioni chimiche, ovvero di natura elettromagnetica, che avvengono continuamente nel nostro corpo e che ci tengono in vita.

Ma dal punto di vista matematico? Quali trasformazioni matematiche dobbiamo quindi usare per mettere in relazione le coordinate di due sistemi di riferimento inerziali qualunque in moto relativo fra loro, in modo da far restare inalterate le equazioni dell'elettromagnetismo in entrambi i sistemi di riferimento? Non certo le  trasformazioni di Galileo, che certamente farebbero cambiare la velocità della luce, e che proprio per questo sarebbero in contrasto con l'osservazione sperimentale che la velocità della luce non si lascia sommare alla velocità del sistema di riferimento, qualunque essa sia.

Le trasformazioni matematiche giuste, quelle che lasciano inalterate le equazioni dell'elettromagnetismo passando da un sistema di riferimento inerziale a un altro, si possono ricavare in modo tutto sommato abbastanza semplice, e prendono il nome di Trasformazioni di Lorentz.

Le trasformazioni di Lorentz appaiono di primo acchito molto diverse da quelle di Galileo, e contengono radici quadrate e termini del tipo v/c, dove v è la velocità del sistema di riferimento rispetto all'altro, come nel caso delle trasformazioni di Galileo, mentre c è la velocità della luce che - abbiamo visto - resta sempre la stessa qualunque sia il sistema di riferimento da cui si osserva il fenomeno.

Però se consideriamo il caso in cui v è molto minore di c (e questo nella vita di tutti i giorni succede praticamente sempre, sulla nostra auto, sul jet supersonico, o sulla sonda che viaggia a decine di migliaia di chilometri all'ora verso i confini del sistema solare, o semplicemente stando seduti sul divano mentre ci muoviamo a oltre 700000 km/h attorno alla nostra Via Lattea) il termine v/c diventa trascurabile, e - magia! - le Trasformazioni di Lorentz diventano in pratica le trasformazioni di Galileo!

Ovvero, nell'approssimazione di basse velocità rispetto alla velocità della luce, Galileo va alla grande! E' solo quando consideriamo fenomeni in cui la velocità in gioco è prossima alla velocità della luce che ci aspettiamo differenze importanti. Che ci accorgiamo delle differenze! E l'elettromagnetismo è il campo in cui questo avviene per definizione. Nel caso delle Trasformazioni di Lorentz, la legge di somma delle velocità che ne deriva è molto diversa dalla legge Galileiana che ben conosciamo, quando le velocità in gioco sono prossime alla velocità della luce. In quel caso scopriamo che "quasi c" + "quasi c" fa ancora "quasi c". Ovvero anche se corriamo velocissimi dietro a un raggio di luce, lo vedremo sempre allontanarsi da noi alla solita velocità della luce. Per piccole velocità rispetto a c, invece, il nostro Galileo funziona benissimo anche nella somma delle velocità, e possiamo tranquillamente superare un'automobile in autostrada.

Prima della scoperta dei fenomeni elettromagnetici, tutti i fenomeni meccanici che erano stati studiati implicavano comunque velocità così basse rispetto alla velocità della luce da rendere le Trasformazioni di Galileo un'approssimazione perfettamente valida. Quindi non sorprende che la Relatività Ristretta non fosse saltata fuori prima della scoperta dei fenomeni elettromagnetici, perché la relatività ristretta è un tutt'uno coi fenomeni elettromagnetici! L'esistenza stessa del campo magnetico, tanto per dirne una, è un effetto della Teoria della Relatività! Come spiegano, gli scienziati fai da te della rete, il motivo per cui se osservo una carica ferma ho solo un campo elettrico, mentre se appena appena mi muovo, anche molto lentamente rispetto ad essa, mi "appare dal nulla" un campo magnetico che mi fa spostare l'ago di una bussola? Ebbene: l'esistenza del campo magnetico è una conseguenza della Teoria della Relatività. Una banalissima bussola è un apparato sperimentale che verifica la Teoria della Relatività!

E a questo punto si capisce anche che tutte le "stranezze" della Teoria della Relatività, le distanze e i tempi che variano da un sistema di riferimento all'altro, non piovono dall'alto come un ipse dixit, ma sono la diretta conseguenza logica del fatto che la velocità della luce appaia la stessa in qualunque sistema di riferimento. Infatti se vogliamo far restare costante una velocità, che è uno spazio diviso un tempo, è chiaro che dobbiamo "aggiustare" spazio e tempo separatamente in modo opportuno. E il modo opportuno salta fuori automaticamente dalle Trasformazioni di Lorentz, che sono le trasformazioni matematiche che garantiscono la validità del Principio di Relatività in qualunque sistema di riferimento inerziale per qualunque legge fisica.

Ma a questo punto "il lettore attento" (come dicevano certi odiosissimi libri, che ti facevano sentire un deficiente, tu che leggendo non avevi notato nulla) si chiederà: ma se le trasformazioni corrette per mettere in relazione due sistemi di riferimento inerziali sono le trasformazioni di Lorentz, e non quelle di Galileo, come è possibile garantire l'invarianza delle leggi della meccanica (per capirci, F=ma, p=mv, la formula dell'energia cinetica e tutte quelle robe lì), che restano invece invarianti nel passaggio tra sistemi di riferimento se vengono applicate le Trasformazioni di Galileo? Trasformazioni di Galileo che però abbiamo visto essere sbagliate, e solo una ottima approssimazione per basse velocità. Abbiamo aggiustato l'elettromagnetismo ma adesso ci ritroviamo il problema con le leggi della meccanica!

Ma attenzione: abbiamo visto che la meccanica classica è stata sviluppata per fenomeni in cui le velocità in gioco sono piccole rispetto alla velocità della luce. Quindi, assumendo vere (e sperimentalmente lo sono!) le trasformazioni di Lorentz, rovesciamo il problema e chiediamoci: come dovrebbero essere le leggi della meccanica per non cambiare di forma nel passare da un sistema di riferimento a un altro, se applicassimo non le trasformazioni di Galileo, ma quelle di Lorentz?

Se facciamo questo esercizio, scopriamo che le leggi della meccanica veramente invarianti, quelle che rispetterebbero il Principio di Relatività garantito dalle Trasformazioni di Lorentz, sono un po' più complicate di quelle che si studiano al liceo. Al loro interno compaiono i soliti termini v/c, e saltano fuori anche cose del tipo E = mc2... La famosa equivalenza massa-energia, altro incubo notturno degli scienziati della rete, è anche essa in ultima analisi una conseguenza della richiesta che il Principio di Relatività sia valido per tutte le leggi fisiche, in qualunque sistema di riferimento inerziale.

E ovviamente anche in questo caso notiamo che se v è molto minore di c, anche le nuove leggi della meccanica diventano perfettamente approssimate dalle care vecchie leggi che studiamo a scuola. Non è quindi facendo scontrare bocce di biliardo che ci accorgiamo della Teoria della Relatività, perché le bocce di biliardo vanno troppo piano per mostrarne gli effetti. Però se invece che con un biliardo stiamo giocando con un acceleratore di particelle, che accelera le "bocce" fino a a farle raggiungere velocità prossime a quella della luce, questi effetti diventano ben visibili.

Quindi non sorprende affatto che per secoli non ci siamo accorti che la Teoria della Relatività era già con noi: semplicemente le nostre attività sono sempre troppo "lente" rispetto alla velocità della luce. Soltanto con la scoperta e la comprensione dei fenomeni elettromagnetici, che implicano automaticamente il dover descrivere la propagazione delle onde elettromagnetiche, ci siamo accorti che la fisica cosidetta "classica" non funzionava bene. Ma adesso che ce ne siamo accorti, sarebbe il caso di farsene una ragione e lasciare il pace il povero Einstein, che dite? Anche perché - e adesso dovrebbe risultare chiaro il motivo - un motorino elettrico, una radio, uno smartphone, una bussola, un acceleratore di particelle, un GPS, una PET o una lavatrice sono tutti "esperimenti" che quotidianamente applicano e verificano la Teoria della Relatività.


Nota: spesso nei libri si trovano menzionati i due postulati alla base della Relatività Ristretta: la validità del Principio di Relatività e la costanza della velocità della luce in qualunque sistema di riferimento. A me questa cosa, detta così, non piace, perché il postulato evoca qualcosa che piove dall'alto, e che accettiamo a scatola chiusa. In realtà, entrambi i "postulati" (li virgoletto apposta) della Relatività Ristretta sono ampiamente suffragati da esperimenti. In ogni caso, mentre il Principio di Relatività ha un'importanza cruciale dal punto di vista concettuale, la costanza della velocità della luce è per certi versi una conseguenza del principio di relatività. Il punto è che, per spiegare il fallimento dell'esperimento di Michelson e Morley nel rivelare la non costanza di c, si erano ipotizzate spiegazioni più o meno fantasiose e difficilmente dimostrabili, e probabilmente all'epoca aveva senso assumere c costante come postulato, perché l'alternativa sarebbe stata quella di sposare una di queste improbabili spiegazioni alternative. Ma col senno di poi, questa assunzione ci appare fortemente subordinata alla validità del Principio di Relatività per qualunque legge fisica.





martedì 1 dicembre 2020

Riflettere sulla relatività generale grazie a una App per cellulare

Tra le innumerevoli App per cellulare che si scaricano gratuitamente, ci sono anche quelle scientifiche. Io ne ho una che si chiama Phyphox, ma ce ne sono molte altre, tutte più o meno equivalenti. Tra le tante funzioni disponibili in queste App, ce n'è una che riguarda un aspetto della fisica che è allo stesso tempo semplicissimo ma tra i più complessi: la misura di g, l'accelerazione di gravità.

Semplicissimo perché tutti noi sperimentiamo quotidianamente, in ogni istante, gli effetti dell'accelerazione di gravità. Complesso perché la misura dell'accelerazione di gravità è la porta per una delle teorie più geniali mai pensate dall'uomo, la Teoria della Relatività Generale. Teoria nel solito senso inteso dalla scienza, come, ad esempio, la Teoria dell'Evoluzione, ovvero un impianto teorico supportato da una miriade di riscontri sperimentali.

L'accelerazione di gravità è l'accelerazione con cui cade un bicchiere o qualunque altro oggetto se ci sfugge di mano. Muovendosi verso il pavimento, esso accelera, ovvero aumenta la sua velocità man mano che cade, di 9,8 m/s ogni secondo che passa. Questo valore dipende dalla massa e dalle dimensioni della terra, e varia un po' fra polo e equatore, ma questi sono dettagli. Se fossimo sulla Luna, o su Marte, sarebbe diverso numericamente, ma concettualmente, al corpo che cade, accadrebbe sempre la stessa cosa.

L'accelerazione, in fisica, è il risultato di una forza. Lo si impara a scuola alle prime lezioni: forza uguale massa per accelerazione, il secondo principio della dinamica. E infatti, se ci sfugge di mano una teiera, essa non sfugge a questa regola, accelerando inesorabilmente verso la distruzione mentre precipita al suolo.

Questo però accade non solo se la forza è dovuta alla gravità, ma anche per tutti gli altri tipi di forze. Se la nostra teiera fosse elettricamente carica, e a un metro da essa ci fosse un elettrodo di carica opposta, la teiera sentirebbe una forza dovuta alla presenza di un campo elettrico, e accelererebbe verso l'elettrodo seguendo una legge oraria (spazio percorso in funzione del tempo) matematicamente identica alla legge oraria della caduta dei gravi. Numericamente l'accelerazione a cui sarebbe sottoposta sarebbe probabilmente diversa (ma potremmo costruire il tutto per renderla uguale), ma non ci sarebbe nessuna differenza concettuale nella descrizione del suo moto. E lo stesso accadrebbe anche se spingessimo la nostra teiera lungo una rotaia (priva di attrito) con forza costante. In questo caso la vedremmo accelerare esattamente come negli altri casi. E' la seconda legge della dinamica: ad una forza corrisponde una accelerazione.

Perfetto. Adesso chiediamoci cosa sentirebbe la nostra teiera mentre è sottoposta a queste accelerazioni. Immaginiamo quindi di essere un moscerino su quella teiera mentre quest'ultima sta accelerando, sottoposta a una forza generica.

Se fossimo a cavallo della teiera, essendo sottoposti a un'accelerazione, percepiremmo una accelerazione in direzione contraria. Un effetto inerziale, come si chiama in gergo. Siccome non capita a nessuno di noi di vivere su una teiera, ma siamo abituati a salire su automobili o aerei, sappiamo bene che quando l'aereo sta accelerando sulla pista (e quindi sta aumentando la sua velocità, a causa della forza impressa dai motori) noi percepiamo una accelerazione analoga in direzione contraria, che ci schiaccia verso lo schienale del sedile.

Oppure, se siamo su un autobus che frena di colpo (e quindi decelera), percepiamo in quel frangente un'accelerazione in avanti, e se non ci tenessimo stretti al corrimano rischieremmo di cadere.

Analogamente, se fossimo un atomo di un oggetto elettricamente carico che viene accelerato da un campo elettrico, percepiremmo l'accelerazione a cui siamo sottoposti. E così via, questo accade qualunque sia la causa della forza.

Esclusa una. Se fossimo un atomo di una teiera che cade accelerando verso il pavimento sotto l'effetto del campo gravitazionale, non percepiremmo nessuna accelerazione.

Per verificare questo, basta prendere l'App che abbiamo scaricato sul nostro cellulare, e selezionare l'opzione che grafica il modulo di g, l'accelerazione di gravità, in funzione del tempo. Se facciamo partire l'App, e teniamo il cellulare appoggiato sul tavolo, o sul pavimento, misuriamo g costante nel tempo, pari a circa 9,8 m/s2. D'altra parte anche noi percepiamo costantemente l'effetto della forza di gravità sul nostro corpo in termini di qualcosa che ci tira verso il basso. Siamo abituati a questa situazione, per cui non ci facciamo troppo caso, ma la percepiamo. Se provassimo a metterci a testa in giù, ci accorgeremmo infatti che c'è qualcosa di strano, dato che il nostro corpo è abituato ad avere i piedi in basso e la testa in alto, e non il contrario.

Adesso prendiamo il nostro cellulare, e facciamolo cadere, avendo ovviamente cura di metterci sotto qualcosa che ne attutisca la caduta. Un attimo prima di lasciarlo cadere, il valore di g è attorno a 10 m/s2 (i famosi 9,8, un po' tremolanti a causa della mano che tiene il cellulare, che impartisce leggere "accelerazioni" al cellulare). Poi, nell'istante in cui il cellulare viene lasciato andare, g va immediatamente a zero, e ci resta per tutto il tempo (mezzo secondo circa) in cui il cellulare cade. 

Accelerazione di gravità sperimentata dal cellulare in caduta libera.

Poi, nell'istante in cui il cellulare tocca i cuscini al termine della caduta, esso viene frenato bruscamente, e infatti si vede un picco nel valore dell'accelerazione, di almeno 4 g.  Dopo di che il cellulare rimbalza un po' sui cuscini, con conseguenti picchi e diminuzioni dell'accelerazione percepita, per poi riassestarsi ai soliti 9,8 dei libri di scuola.

Queste sono le accelerazioni e decelerazioni che un ipotetico minuscolo abitante del cellulare percepirebbe durante la sua caduta. E quindi, nel momento della caduta, in quel mezzo secondo in cui il cellulare col suo abitante cadono liberi nel vuoto, si vede chiaramente che il nostro ardito sperimentatore avrebbe percepito g=0. Peso zero, proprio come un astronauta nello spazio, essendo il cellulare in caduta libera, come lo è anche un astronauta.

E la cosa interessante è che lo stesso g=0 il cellulare (e tutti i suoi abitanti) lo sperimenta anche se viene lanciato verso l'alto, invece che lasciato cadere, come si vede nel grafico qua sotto.

 

Andamento dell'accelerazione di gravità percepita dal cellulare quando viene lanciato verso l'alto, con successiva caduta libera verso il basso.


A parte la solita mano tremolante iniziale, ancora di più stavolta perché stava preparando il lancio verso l'alto, attorno al secondo 22 circa si vede un'impennata dell'accelerazione verso l'alto. E' il momento in cui il cellulare viene spinto in alto. I suoi abitanti in questo frangente percepiscono una accelerazione che li spinge verso il basso, esattamente come i tre astronauti nel Saturno 5 al decollo. 

Poi il cellulare viene lasciato libero al suo destino, ma verso l'alto stavolta. Ma g per lui è zero anche mentre sta procedendo in salita, libero da qualunque spinta. Libero, ma sotto l'effetto del campo gravitazionale che lo rallenta. In un certo senso, quindi, sta sempre cadendo sotto l'effetto del campo gravitazionale, anche se sta salendo (sta rallentando mentre sale). L'accelerazione che percepisce resta comunque sempre zero, sia mentre sale, che quando si ferma e anche quando inverte il moto (da qualche parte prima del secondo 23) e poi inizia a cadere. Questo non accade mai se rallentate un oggetto e gli fate invertire il moto tramite un motore, o con qualunque altro tipo di forza. Normalmente, in questo caso, un abitante di quell'oggetto percepirà due accelerazioni in direzione opposta, una dovuta alla frenata, e l'altra alla successiva ripartenza. Per il cellulare che cade, invece, non succede niente di tutto questo: in tutte queste fasi, il suo peso percepito resta sempre zero. Come se su di lui non agisse nessuna forza.

Poi, dopo essere caduto, il nostro minuscolo sperimentatore a cavallo del cellulare sbatte sul cuscino, e ecco che percepisce una grossa accelerazione (la frenata brusca!). E' per questo che c'è l'obbligo delle cinture, no? Poi però rimbalza di nuovo libero in aria per un brevissimo istante, e g in quel frangente va di nuovo a zero, e poi, finalmente, si riassesta in quiete, con g che vale di nuovo i soliti 9,8 m/s2 .

Non è uno spettacolo? Un intero capitolo di fisica in un grafico fatto con un esperimentino casalingo. E che capitolo! Perché attenzione: dietro questo esperimentino da poco, c'è il fior fiore della fisica! Dietro quel grafichetto c'è una domandona di quelle da un milione di euro, che è stata il punto di partenza per una delle conquista scientifiche più grandi di tutti i tempi!

La domanda è: ma perché un corpo, se sottoposto a una forza mentre è libero di muoversi, percepisce sempre comunque un'accelerazione (vedi il caso dell'aereo che accelera o del bus che frena, di una molla o di una carica elettrica) eccetto che nel caso in cui la forza sia la forza di gravità? Che cosa ha di speciale la forza di gravità, per cui questo fenomeno comunissimo e per certi versi banalissimo, con essa non si verifica?

Questa domanda se l'è posta Einstein, all'inizio del secolo scorso, e ci ha ragionato sopra un bel po'. E alla fine ne è venuta fuori la Teoria della Relatività Generale, una delle opere umane più incredibili, al pari delle Piramidi, di Yesterday o degli affreschi della Cappella Sistina. 

L'ipotesi di Einstein, che si concretizzo nella formulazione della Teoria della Relatività Generale, è che i corpi che si muovono liberi in un campo gravitazionale in realtà non sono soggetti a nessuna forza. Potremmo dire, in un certo senso, che sono fermi.

Con tutto questo voglio sottolineare l'importanza che riveste nella scienza il porsi le domande giuste. La scuola ci abitua a fornire risposte, e in base a quelle veniamo spesso valutati, ma le domande giuste, quelle a cui non si sa rispondere, possono rappresentare la differenza, il punto di partenza per un grande e innovativo salto culturale. E a volte basta una semplice App per cellulare per farsi affascinare, e per capire quanto la scienza di frontiera, quella che nei libri ci appare inarrivabile e incomprensibile, possa essere vicina e a portata di mano.

Appendice: nelle prove di caduta che facevo con il cellulare, non capivo come mai l'accelerazione di gravità all'inizio della caduta andasse a zero, ma poi risalisse leggermente durante la caduta, come si vede nella figura qua sotto. 


Caduta con il cellulare di piatto, ovvero ad offrire la massima resistenza all'aria. L'accelerazione sperimentata dal cellulare va a zero, ma poi risale leggermente con l'aumentare della velocità, a causa della resistenza dell'aria.

Poi mi è venuto in mente che c'è l'attrito dell'aria, che è massimo se lascio cadere il cellulare di piatto (era quello che effettivamente facevo). La resistenza dell'aria produce una forza che si oppone alla caduta del corpo, che in prima approssimazione è proporzionale alla velocità del corpo stesso. Da cui il leggero calo dell'accelerazione durante la caduta. Ho quindi messo alla prova questa ipotesi lasciando cadere il cellulare di taglio, in modo da minimizzare l'attrito dell'aria, e questo qua sotto è il risultato. Popper sarebbe stato contento.


Caduta di taglio, a minimizzare la resistenza dell'aria. L'accelerazione sentita dal cellulare resta a zero per tutto il tempo di caduta.












lunedì 16 novembre 2020

Prevedere le masse di particelle ignote

Per chi crede che la fisica delle particelle non sia scienza

A volte, su gruppi social di interesse scientifico, capita di leggere interventi sprezzanti di non esperti del campo, ma che si definiscono "studiosi della materia", che affermano che la nostra comprensione dei fenomeni legati alla fisica delle particelle sia sostanzialmente illusoria, e che in realtà ci siamo costruiti un modello ad hoc in cui abbiamo finito per credere acriticamente. 

Per rispondere a queste affermazioni, e per sottolineare quanto esse siano distanti dal vero, questa è la storia di come i dati raccolti alcuni anni fa in una serie di esperimenti abbiano portato a due previsioni teoriche portentose, poi puntualmente verificate dagli esperimenti. Previsioni teoriche che mescolano assieme misure sperimentali di grande precisione e calcoli teorici basati sulla teoria dei campi, e quindi sulla meccanica quantistica. Il tutto a ricordarci che il modello che usiamo per descrivere la fenomenologia delle particelle elementari, il cosiddetto Modello Standard, sebbene concettualmente incompleto (e i fisici delle particelle sono i primi a dirlo) è tutt'altro che una illusione, tutt'altro che uno strumento creato ad hoc in cui gli stessi fisici hanno poi finito per credere, ma è, nel suo ambito, la quintessenza del metodo scientifico, perché permette di effettuare previsioni numeriche verificabili dagli esperimenti.

La storia che voglio raccontare inizia nel 1989, con l'entrata in funzione di un acceleratore del Cern chiamato LEP, Large Electron-positron Collider, un anello di 27 Km installato nel tunnel che adesso ospita l'acceleratore LHC, in cui venivano accelerati e fatti collidere frontalmente elettroni e positroni, questi ultimi le antiparticelle degli elettroni. 

Il LEP ha funzionato fino al 2000, raccogliendo una grande quantità di dati, la prima parte dei quali, dal 1989 fino a tutto il 1995, riguardava lo studio dettagliato di una particella neutra chiamata Z, ritenuta responsabile di una categoria di fenomeni imputabili alle interazioni deboli.

Senza entrare nei dettagli, al LEP i quattro esperimenti che raccoglievano dati hanno osservato milioni di decadimenti di Z ciascuno, con lo scopo di studiarne nei dettagli le proprietà, e confrontare le osservazioni sperimentali con le relative previsioni teoriche basate sul Modello Standard. E qui viene il bello della storia.

Il modello Standard lo si può immaginare come una macchina con tante manopole, diciamo una ventina. Ognuna di queste manopole si riferisce a un parametro del Modello che non è direttamente calcolato dal modello stesso, ma deve essere misurato indipendentemente, e poi inserito come input dall'esterno. Le manopole, in pratica, servono a dare in input al Modello Standard il valore di quei parametri che non vengono previsti dal modello stesso: la massa delle particelle fondamentali, ad esempio, o le costanti di accoppiamento, tipo la carica elettrica, la costante delle interazioni forti etc. La nostra macchina è in pratica un simulatore della fenomenologia del mondo delle particelle subatomiche che è in grado di calcolare (e quindi prevedere) il valore di quantità misurabili dagli esperimenti, utilizzando il formalismo matematico della teoria. Tutto questo a patto di sintonizzare correttamente le manopole che rappresentano il valore di questi parametri esterni.

Per riprodurre con questa macchina le caratteristiche osservate della particella Z, alcune manopole sono quasi del tutto ininfluenti, nel senso che le puoi posizionare un po' come capita (si fa per dire), e l'effetto finale è di poco conto. Altre manopole, invece, conosciamo già molto bene come posizionarle, perché abbiamo già misurato quelle quantità con sufficiente precisione in altri esperimenti. Altre manopole ancora, invece, all'epoca del LEP non sapevamo proprio come posizionarle, perché si riferiscono a quantità il cui valore non era ancora noto. Non solo, ma quelle manopole in certi casi necessitano di un aggiustamento molto fine, e basta spostarle di poco che la macchina ti fornisce previsioni sballate, e ti riproduce una particella Z con caratteristiche che non hanno niente a che vedere con ciò che effettivamente si misura. E queste sono le manopole più interessanti.

Le manopole più interessanti, in pratica, sono quelle che hanno effetti importanti variando anche solo di poco la loro posizione. Tra queste, nel 1995, la più rilevante era la manopola che assegnava il valore della massa del quark top, all'epoca ancora ignoto. Ci sono poi anche altre manopole di una certa importanza, tipo quella che decide il valore della costante di accoppiamento delle interazioni forti, o elettromagnetiche. E poi c'è la manopola che assegna il valore della massa del Bosone di Higgs, all'epoca pure sconosciuto. Altre manopole, in questo contesto, come dicevo sono abbastanza irrilevanti, anche perché il loro valore è noto con sufficiente precisione per lo scopo che ci interessa.

Dal punto di vista fisico la dipendenza delle quantità osservate da tutti questi parametri (cioè dalla posizione delle manopole) passa attraverso fenomeni prettamente quantistici che si chiamano "correzioni radiative". Le correzioni radiative sono processi che impattano sul calcolo del valore delle quantità osservabili, tipo le modalità di decadimento della particella Z, alterando di un po' il risultato della previsione teorica che si otterrebbe ignorandole.

La cosa veramente importante e interessante è che nonostante al LEP non ci fosse energia sufficiente per produrre (e quindi osservare direttamente negli esperimenti) particelle come il quark top o il Bosone di Higgs, che sono le due particelle più pesanti nella fauna delle particelle note, la presenza degli effetti quantistici che stanno dietro le correzioni radiative rendevano le previsioni teoriche degli osservabili (cioè l'output della nostra macchina) fortemente sensibili al valore della massa di queste particelle. In pratica queste particelle, estremamente pesanti e non producibili alle energie del LEP, manifestavano comunque la loro presenza sulle quantità misurabili tramite gli effetti quantistici.

In pratica, quindi, il problema diventava quello di aggiustare al meglio le manopole della massa del quark top e della massa del bosone di Higgs per riprodurre al meglio tutto l'insieme delle quantità osservate. A questo punto il valore della massa del top e dell'Higgs utili allo scopo diventavano automaticamente le previsioni teoriche del valore di questi due parametri ignoti nell'ambito del framework matematico del Modello Standard. Il tutto grazie alla presenza delle correzioni quantistiche.

Tuttavia l'impatto del valore della massa del quark top sulla previsione delle quantità ossrvabili al LEP  è molto maggiore del corrispondente impatto della massa dell'Higgs. Il motivo è che il contributo della massa del quark top nelle correzioni radiative appare in termini che sono proporzionali al quadrato della massa del top, mentre l'analogo contributo della massa dell'Higgs è proporzionale al logaritmo della massa dell'Higgs. E si sa che il logaritmo varia molto più lentamente del quadrato. 

Questo vuol dire, in soldoni, che una piccola incertezza sulla massa del quark top ha un effetto significativo sulle previsioni delle quantità osservabili effettuate dalla macchina Modello Standard, mentre una incertezza del valore della massa del bosone di Higgs relativamente grande (addirittura anche un centinaio di GeV) ha comunque un impatto modesto, perché smussato dalla dipendenza logaritmica. Siccome nel 1995 nessuna delle due quantità appena menzionate era mai stata ancora misurata (il quark top era cercato attivamente al Tevatron, vicino Chicago, dagli esperimenti CDF e D0, mentre il Bosone di Higgs, sebbene cercato da anni, verrà osservato direttamente soltanto nel 2012 a LHC), si decise di posizionare la manopola della massa del bosone di Higgs a un valore "più o meno ragionevole", pari a 300 GeV (dal 2012 sappiamo che il valore corretto è 125 GeV), confidenti che la scelta non avrebbe inficiato più di tanto le previsioni della nostra macchina. In pratica, nei calcoli, metterci una massa dell'Higgs di 300 GeV o di 200 o di 400 non implicava un effetto così evidente rispetto a sbagliare anche di poco il valore impostato della massa del quark top.

A quel punto l'unico parametro realmente impattante, l'unica manopola la cui regolazione fine avrebbe avuto un effetto rilevante nelle previsioni degli osservabili, restava la massa del quark top. E quindi si è cercato quel valore della massa del quark top che ottimizzasse al meglio e simultaneamente tutte le previsioni teoriche di tutte le quantità osservabili, in modo da minimizzare le loro differenze rispetto alle corrispondenti quantità misurate dagli esperimenti LEP. Si è fatto quello che in gergo tecnico si chiama un "fit", una minimizzazione. Il risultato di questo fit era la posizione della manopola "valore della massa del quark top" che ottimizzava l'accordo fra previsioni della macchina (le previsioni teoriche) e risultati sperimentali.


 

Questo discorso si capisce bene dalla figura qua sopra, che mostra 11 grafici, in ognuno dei quali è riportato come varia la previsione teorica del corrispondente osservabile misurato, a seconda della massa del quark top usata come input nel Modello Standard, massa del top che all'epoca era sconosciuta. Nella stessa figura si vede anche la corrispondente misura sperimentale (con relativo errore in giallo) di ciascun parametro.

Prendiamo ad esempio la prima figura in alto a sinistra. Essa riporta, con la barra gialla, il valore misurato di Gamma_Z, la larghezza della particella Z, ovvero uno dei parametri misurati sperimentalmente al LEP, con relativa incertezza sperimentale. La linea nera centrale è il valore misurato, l'ampiezza della barra gialla rappresenta l'incertezza sperimentale, a sinistra e a destra del valore misurato. Gamma_Z è misurato in modo abbastanza preciso, ma altri parametri, come si vede dagli altri grafici, hanno misure meno precise, e quindi la banda gialla in quei casi è più larga. Nel nostro caso Gamma_Z è circa 2.5 GeV, con una piccola incertezza.

A questo punto vediamo cosa ci prevede la teoria (la nostra macchina con le manopole) per Gamma_Z. La previsione dipende fortemente da come posizioniamo la tacca della manopola relativa al valore della massa del quark top. La banda grigia riproduce infatti la previsione teorica di Gamma_Z al variare del valore di M_top, riportato nella scala in ordinata. Il fatto che la banda sia larga, e non una semplice linea, è dovuto al fatto che ci sono piccole incertezze aggiuntive legate alla posizione di tutte le altre manopole, che in questo caso contano poco, ma un po' contano, e in pratica sbrodolano la banda grigia, che idealmente dovrebbe essere una semplice linea. La zona in cui la banda grigia (cioè la previsione di Gamma_Z da parte dell Modello Standard) incontra la banda gialla (cioè la misura sperimentale) ci fornisce l'intervallo di valori più probabili per la massa del quark top. Il valore della massa del quark top che riproduce al meglio il valore di Gamma_Z misurato è tra 150 e 200 GeV, come si vede dalla figura.

Ovviamente per altre quantità questo giochino fornisce risultati un po' diversi per la nostra massa del top. Per forza, ci sono gli errori sperimentali! In più alcune misure sono più precise di altre, e alcuni parametri sono più o meno sensibili di altri al valore della massa del quark top. 

Ad esempio nella terza figura in alto da sinistra, il valore ottimale sembra essere attornoe a 150 GeV, e così via. Il modo di tenere conto di tutti questi aspetti è appunto quello di fare una minimizzazione, cioè utilizzare simultaneamente tutte queste figure, ovvero le misure sperimentali di tutte queste quantità, con le relative incertezze sperimentali, per determinare il valore della massa del quark top che riproduca al meglio, con il miglior compromesso, tutto l'insieme delle misure. Un fit, in gergo. Questo processo tiene conto delle incertezze sperimentali, e ci offre la migliore previsione teorica della massa del top, il cui valore era sconosciuto all'epoca del LEP.

Il quark top fu osservato direttamente soltanto nel 1994, all'acceleratore Tevatron vicino Chicago, negli Stati Uniti. La sua massa, oggi misurata con ottima precisione, è di circa 173 GeV. Nella figura qua sotto i punti neri indicano le misure dirette, mentre la banda azzura rappresenta la previsione indiretta, a partire dalle correzioni radiative basate sui dati del LEP (non solo del LEP, in verità, ma le misure del LEP furono assolutamente determinanti). Si vede come la teoria avesse già previsto in che intervallo di massa andare a cercare il quark top.

 

referer
Evoluzione nel tempo della previsione teorica del valore della massa del quark top in base alle misure del LEP (banda azzurra) confrontata con le misure dirette effettuate all'acceleratore Tevatron (i punti neri), dove il quark top è stato osservato direttamente per la prima volta nel 1996. Si vede come, già prima della sua scoperta, la previsione di M_top del Modello Standard basata sulle misure del LEP forniva un valore perfettamente consistente con ciò che verrà poi misurato. La riga quasi in diagonale in basso a sinistra nel grafico mostra invece il limite inferiore al valore possibile della massa del top, determinato dai risultati negativi delle ricerche dirette fino a quel momento effettuate. In pratica quella linea significava che la massa del quark top, sebbene sconosciuta, doveva essere comunque sopra quella linea, perché altrimenti gli esperimenti dell'epoca lo avrebbero osservato direttamente.

A quel punto, scoperto il quark top, e misurata la sua massa in modo ragionevolmente preciso, restava la grande incognita: la massa del Bosone di Higgs. E quindi si è ripetuto lo stesso giochetto, ma stavolta la manopola della massa del top poteva essere posizionata per bene usando il suo valore sperimentale nuovo fiammante. E questo permetteva di lasciare finalmente libera la manopola della massa dell'Higgs, e di ruotarla in modo da scegliere il valore che garantisse l'ottimizzazione migliore con i dati sperimentali. 
 
E il risultato della minimizzazione fra previsioni teoriche e misure sperimentali è quello mostrato qua sotto: il minimo di questa specie di parabola (che è la variazione del Chi quadro del fit rispetto al minimo, in funzione dell'ipotesi sull valore della massa dell'Higgs) mostra il valore più probabile della massa del Bosone di Higgs, in base a tutto l'insieme di misure effettuate, sia al LEP che ad altri acceleratori, prima della scoperta diretta del Bosone di Higgs.


La zona gialla era esclusa dalle ricerche dirette. Notate che la scala in ascissa non è lineare. La massa del Bosone di Higgs è - sappiamo oggi - 125.18 ± 0.16 GeV, perfettamente compatibile con le previsioni di questo grafico.

Morale (e la faccio corta): la fisica delle particelle come la studiamo oggi è tutt'altro che un castello illusorio che ci siamo costruiti, e nel quale avremmo finito per credere, come a volte capita di leggere da chi di fisica delle particelle evidentemente mastica poco. Anzi, è un insieme di conoscenze in cui teoria e esperimento hanno una sinergia perfetta. Questa sinergia perfetta ha fatto sì che le massa di due delle particelle più importanti nella fauna che interessa i particellai siano state previste con notevole precisione ben prima che queste particelle fossero realmente scoperte e osservate sperimentalmente. Certamente ci sono poi cose che il Modello Standard non può spiegare, e su questo si rivolgono gli esperimenti del momento. Ma questo è proprio il bello della scienza. Altrimenti sai che noia!

Bibliografia:

Gfitter: Results for the Global Electroweak Standard Model Fit

Precision experiments at LEP

The LEP Elewctroweak Working Group

Physics at LEP1 and LEP2

 

 

 

 

 

 


lunedì 19 ottobre 2020

Uno strumento del demonio: la scala logaritmica!

Uno strumento molto potente, se solo sapessimo come funziona

Guardate questo grafico: mostra il numero delle terapie intensive dall'inizio dell'epidemia fino a metà di agosto 2020.


 

Perfetto, verrebbe da dire: l'epidemia è finita. Basta aspettare qualche altra settimana che guariscano gli ultimi malati, e tutto tornerà come un tempo! 

E infatti tanti lo dicevano, guardando questo grafico, nonostante il leggero aumento di casi dovuto a pullman di discotecari che tornavano dalla Croazia o dalla Grecia. D'altra parte, siamo onesti: come preoccuparsi di fronte a questo grafico? Nessun accenno di incremento di terapie intensive era minimamente visibile!

Questo grafico è realizzato usando, come scala delle ordinate (quella verticale), la scala "lineare". Lineare vuol dire che se ho il doppio di casi rispetto al giorno prima, il punto lo metto il doppio più in alto rispetto al punto del giorno prima. Se ho 10 volte più casi, devo metterlo 10 volte più in alto rispetto al precedente, e così via. Questo implica - cosa che vedremo rivelarsi cruciale - la necessità di avere una scala sufficientemente espansa da mostrarci contemporaneamente sia quando abbiamo dieci casi che quando ne abbiamo diecimila.

Il problema si risolve facilmente usando una scala misteriosa: la scala logaritmica! Misteriosa in un paese dove risolvere una proporzione è per tanti un problema insormontabile. E lo stesso grafico di prima, utilizzando questa scala misteriosa, a metà agosto appariva così.




Vedete quella risalita delle terapie intensive nella seconda metà di agosto? Notate che era totalmente invisibile nel grafico di prima, quello in scala lineare, a meno di non ingrandirlo a dismisura? (il biologo Enrico Bucci lo fece, e fu tacciato di ingannare con un uso improprio della scala! - fonte) E infatti la maggioranza della gente, guardando il grafico in scala lineare diceva "evviva, epidemia finita, il virus è clinicamente inesistente!". 

Per inciso, le terapie intensive non dipendono dal numero di tamponi fatti, dallo screening, dal tracing, da Immuni scaricato o no, dall'efficienza delle ASL, e da niente altro se non dal fatto che si sta molto male. E se si sta male, quello è un dato oggettivo, di fronte al quale il numero molto maggiore di tamponi effettuati rispetto a marzo è del tutto irrilevante.

Solo alcuni uccelli del malaugurio invece dicevano: "Occhio, c'è una leggera ripresa dell'epidemia! Non la vedete nella scala lineare, ma usando la scala logaritmica si vede bene".

Ma come funziona la scala logaritmica? La scala logaritmica è lineare non nel valore che vogliamo riportare, come succede appunto nella scala lineare, ma nel logaritmo di quel numero. Il logaritmo di un numero (in questo caso il logaritmo in base 10), dove il numero, sempre in questo caso, è quello delle terapie intensive, è l'esponente che bisogna dare a 10 per ottenere quel numero.

Quindi se ho 10 casi, l'esponente che devo dare a 10 per ottenere 10 è 1, e quindi il logaritmo in base 10 di 10 è 1. Se ho 100 casi, l'esponente che devo dare a 10 per ottenere 100 è 2, e quindi il logaritmo in base 10 di 100 è 2, e così via. Quindi nella scala logaritmica, se nelle ordinate ho il punto relativo a - mettiamo - 10 terapie intensive, il punto relativo a 100 terapie intensive non starà 10 volte più in alto rispetto a 1, ma solo 2 volte più in alto, quello a 1000 sarà 3 volte più in alto, e così via. In pratica ai punti fra 1 e 10 è riservato nella scala lo stesso spazio che fra 10 e 100, o fra 100 e 1000 etc. La scala logaritmica, si potrebbe dire, tutela le minoranze!

Questo modo di graficare i dati ha un enorme vantaggio in quelle situazioni in cui nello stesso grafico devo mettere numeri piccoli e numeri grandi contemporaneamente, perché permette di valutare l'evoluzione dei dati contemporaneamente sia quando i valori sono bassi, che quando sono alti. Nel nostro caso, sia quando le terapie intensive sono a 10, sia quando sono a 1000.

Infatti, mettiamo che abbia un grafico in scala lineare che ad aprile arrivava a un massimo di 4000 terapie intensive. Se ad agosto ne ho mediamente 40, queste saranno schiacciate giù in basso, compresse dal fatto che la scala deve essere tale da contenere il numero più alto possibile, che è 4000. A quel punto, che il mio dato sia 40 o 60, a meno di non avere la vista da supereroe, non fa differenza. E questo è esattamente il caso delle terapie intensive a metà agosto: il picco di aprile, bello alto, oscurava completamente qualunque variazione dei dati in agosto. Ed ecco che il virus, nella mente di alcuni, diventava clinicamente inesistente.

E quindi se a un certo punto passo in pochi giorni da 40 a 80 terapie intensive, con la scala lineare non me ne accorgo neanche, per colpa di quel 4000 lassù che mi comprime rendendo invisibili tutte le piccole differenze fra i punti. E se passare da 40 a 80 significa, come in questo caso, raddoppiare il numero delle terapie intensive in pochi giorni, accorgersene per tempo può essere un indicatore di un qualche tipo di problema. Avete presente "Huston, we have a problem"? (che poi pare che abbia detto "Huston, we've had a problem", abbiamo avuto un problema, ma è lo stesso). 

Invece, usando la scala logaritmica, riesco a dare pari rilevanza a variazione percentuali del 100%, sia che si passi da 40 a 80, sia che si passi da 1000 a 2000.

Di recente, in una discussione sui social, sono stato accusato di "strumentalizzare e manipolare" i dati (il virgolettato sono le parole esatte), di "imbrogliare facendo apparire un picco più grande di quello che è", di usare "tecniche artificiose per mostrare una tendenza che è diversa", il tutto, insomma, perché avevo usato questo strumento del demonio: la scala logaritmica! Capite cosa vuol dire avere sempre viaggiato fra il 5 e il 6 in matematica a scuola? Vuol dire che poi diventi un medico, un politico, un esponente della cultura, un opinionista su Facebook, e accusi la gente di manipolare i dati perché usa la scala logaritmica!

La scala logaritmica offre anche un'altra opportunità, quella di valutare facilmente, sullo stesso grafico, l'incremento percentuale di quantità i cui valori assoluti sono molto diversi fra loro. In pratica se una data quantità, in un certo tempo passa da 10 a 20, e un'altra quantità passa, nello stesso tempo, da 100 a 200, o da 1 milione a 2 milioni, nella scala logaritmica queste tre quantità avranno pendenze uguali

Nell'ambito di questo aspetto, un'altra caratteristica della scala logaritmica è quello di far apparire una crescita esponenziale come una retta. Interessante questa proprietà, perché una retta sappiamo identificarla bene anche a occhio, anche se a scuola avevamo tra il 5 e il 6, mentre una esponenziale non è così facile da distinguere da una parabola o da una cubica, o da una qualunque altra potenza maggiore di 1. Però c'è un bel po' di differenza pratica fra un aumento esponenziale e una legge di potenza. Perché se l'aumento è esponenziale, e il giorno x hai - mettiamo - 2 casi, e ogni giorno raddoppi il numero dei casi (2 alla x, quindi), dopo un mese ti ritrovi con oltre un miliardo di casi. Se invece quel 2 iniziale crescesse col quadrato del tempo (x alla seconda), dopo un mese i casi sarebbero ancora meno di 1000. Una bella differenza! Eppure se guardi un piccolo tratto della funzione x alla seconda, non è così facile riconoscerla da un'esponenziale, se non fai bene i conti. Ma con la scala logaritmica è invece un attimo.

Facciamo quindi un esempio che spieghi bene il vantaggio dell'usare la scala logaritmica quando si vuole confrontare il tasso di crescita di quantità che numericamente sono molto diverse fra loro.


Questo grafico mostra in scala lineare l'andamento di varie quantità legate all'epidemia in corso. In particolare ci interessano le terapie intensive in viola, piccole piccole e schiacciate in basso, che uno direbbe che non contano nulla, e sono quasi a zero; il totale ospedalizzati in celeste, che è quasi zero, a parte quello sbuffetto di crescita degli ultimi giorni; e gli attualmente positivi in giallo, che loro invece si vede bene che hanno una crescita bella gagliarda! Guardando questo grafico verrebbe quindi da dire che chi sta realmente crescendo sono solo i positivi in giallo, e invece i realmente malati, sia ospedalizzati (in celeste) che in terapia intensiva (in viola), oltre a essere molti di meno non crescono poi nemmeno così tanto rispetto ai positivi, che però, essendo questi ultimi largamente asintomatici, alla fine chi se ne frega! Da questo grafico verrebbe da dire che assistiamo sostanzialmente soltanto a un aumento di positivi largamente asintomatici, e quindi il problema Covid in Italia praticamente non esiste più.

Adesso però guardiamo lo stesso grafico con lo strumento del demonio. Sono gli stessi dati, gli stessi numeri, ma graficati con la scala logaritmica, che ci permette, dicevamo prima, di apprezzare le differenze fra conteggi che avvengono a scale diverse (totale positivi, che sono tanti, totale ospedalizzati, che sono così così, e terapie intensive, che sono pochi), ma soprattutto ci permette di confrontare il modo in cui variano nel tempo queste diverse quantità.

In scala logaritmica, lo stesso grafico di prima appare così.



Magia! Con lo strumento della scala logaritmica, questo artificio fuorviante e manipolatore, scopriamo che terapie intensive, ospedalizzati e perfino gli attualmente positivi seguono tutti lo stesso trend!!! Ma proprio uguale, anche nel crescere, poi calare un pochino la crescita, poi riprenderla, e così via. E lo seguivano anche nei mesi precedenti! E pensare che nella scala lineare sembravano così diversi!

A questo punto, dal grafico in scala logaritmica è perfino molto facile estrapolare cosa succederà al numero delle terapie intensive, se dovesse continuare la crescita attuale, che nell'ultima settimana ci appare crescere come una retta, che però in scala logaritmica rappresenta una crescita esponenziale. Basta metterci un righello, e prolungare il segmento degli ultimi 7 o 8 giorni. Lo possono fare tutti, politici, medici rianimatori e commentatori di Facebook, anche se avevano fra il 5 e il 6 in matematica al liceo. E se lo si fa viene fuori che - se i dati dovessero continuare a evolversi nel tempo come stanno facendo da almeno una settimana - in una ventina di giorni si raggiungerebbe il livello di terapie intensive che avevamo nel momento peggiore ad aprile. 

Che strumento manipolatore, fuorviante e perverso, questa scala logaritmica!