venerdì 28 febbraio 2020

Coronavirus: e vuoi che Nostradamus non lo avesse predetto?

Con il nuovo virus che impazza, e la rete che si è riscoperta virologa e infettivologa da un giorno all'altro, non potevamo farci mancare Nostradamus, il noto monaco che nelle sue quartine aveva previsto tutto, dall'11 Settembre al rigore dato alla Juve contro l'Atalanta nel gennaio del 2016, al trentaduesimo del secondo tempo sullo zero a zero.



Con la consapevolezza che nelle quartine di Nostradamus uno può leggerci di tutto, e con il rammarico dei tossici di tutto il mondo, che non si danno pace del fatto che a distanza di 5 secoli ancora non si è capito di cosa si facesse il vecchio monaco, vi propongo un gioco: quale fra queste quartine è originale, e si riferirebbe al Coronavirus, e quali invece le ho inventate io?

"E incoronato di morte il serpente giallo mieterà di vite le città, e le genti in nascondigli costretti aspettando la fine, li sciocchi scritti leggeranno"

“La grande peste nella città marittima non cesserà prima che morte sarà vendicata del giusto sangue per preso condannato innocente, della grande dama per simulato oltraggio”.

Di gran parlare faran le genti diventate dottori, del malefico drago invisibile e lombardi e veneti saran scacciati da negri e turchi, come la peste indicati.

Mute maschere bianche vagheranno in urbe, anelanti il magico liquido di trasparente muco, e i mercati soccomberanno al mostro turkmeno, e di pasta solo le penne lisce resteranno.

martedì 4 febbraio 2020

La curiosa storia di SN1987A

La prima (e finora unica) Supernova "vicina" nell'era scientifica


Questa immagine mostra come appariva il cielo fino al 22 febbraio 1987 nella Nebulosa della Tarantola, in direzione della Grande Nube di Magellano, una delle galassie satelliti della Via Lattea, visibile dall'emisfero sud.



Questa immagine mostra come appariva la stessa porzione di cielo il giorno dopo.



Chiaramente qualcosa era successo nel frattempo.

Questo qualcosa è l'esplosione di una stella, una Supernova, battezzata dagli astronomi con la sigla SN1987a. La stella che ha originato la Supernova era una gigante blu, distante circa 170000 anni luce dalla terra, e l'importanza di questo evento sta nel fatto che esso è tuttora l'esplosione di Supernova più vicina alla terra mai osservata in era moderna. Per trovarne un'altra ancora più vicina bisogna andare indietro fino al 1604, all'epoca di Keplero, quando una Supernova esplose nella nostra Via Lattea a circa 20000 anni luce dalla terra. La differenza è che quella volta non esisteva ancora neanche il telescopio, mentre nel 1987 c'era ciò che chiamiamo Scienza. Per la prima volta una Supernova "vicina" (ebbene sì, 170000 anni luce sono una distanza vicina su scala cosmica) poteva essere studiata con gli strumenti della scienza moderna. 

La Supernova osservata da Keplero, tuttavia, fu un fenomeno chiaramente visibile a occhio nudo per molti mesi, mentre SN1987a, dal punto di vista della semplice osservazione senza strumenti, fu decisamente sotto tono, soltanto modestamente visibile, considerando anche il fatto che essa si trova in una zona del cielo ricchissima di stelle e polveri. Tuttavia SN1987a ha una storia molto interessante, e alcuni suoi aspetti sono tutt'ora controversi e probabilmente poco noti al pubblico dei "cultori della materia", a cui si rivolge questo racconto. Io all'epoca ero laureato da poco, e stavo al Cern, e mi ricordo bene, a seguito di questo evento, alcuni seminari in cui la sala dell'auditorio era strapiena di fisici eccitati dal nuovo giocattolo messo a disposizione da Madre Natura.

Una Supernova è una stella che finisce la propria esistenza in modo catastrofico, con un'esplosione di energia spropositata, che proietta nello spazio le parti esterne della stella, e emette energia tanto da renderla luminosissima, spesso più luminosa dell'intero insieme di stelle che compone la galassia che la ospita. Questa esplosione, ci dicono gli astrofisici, oltre ad essere associata all'emissione di onde elettromagnetiche in molte regioni diverse dello spettro, implica anche emissione di neutrini e, in casi particolari, di onde gravitazionali.

SN1987a fu una Supernova di tipo II-a (fonte), ovvero una stella molto massiva la cui esplosione origina dal collasso del nucleo interno. La stella progenitrice, tale Sanduleak-69 202a, era una stella supergigante blu di massa stimata pari a circa 20 volte la massa del sole. In genere le Supernove di questo tipo hanno come progenitrici stelle supergiganti rosse (tipo Betelgeuse, una candidata futura Supernova che fa molto parlare di sé recentemente), ma questa, inaspettatamente, faceva eccezione. Il primo contributo di SN1987a alla scienza fu quello di riconsiderare che tipo di stelle possono trasformarsi in Supernove. Non solo le supergiganti rosse, quindi, ma anche quelle blu, che hanno una temperatura superficiale significativamente maggiore.

Prima di SN1987a, in tutte le Supernove osservate (nelle galassie distanti, considerato il loro numero, è un fenomeno relativamente frequente) era stata captata soltanto l'emissione di onde elettromagnetiche. Tipicamente queste stelle diventano luminosissime da zero a mille in pochi giorni, per poi spegnersi lentamente in un tempo che può durare anche molti mesi.

Ma veniamo alla cronistoria di quel 23 febbraio 1987, perché è una cronistoria interessante, non priva di sorprese, e per certi verso poco chiara.

La Supernova viene osservata otticamente, ovvero nella luce visibile, il 24 febbraio, in modo indipendente sia da osservatori in Cile che in Nuova Zelanda (fonte). Nel nostro emisfero non era visibile, restando sempre sotto l'orizzonte (quella volta non esistevano i terrapiattisti e nessuno propose spiegazioni speciali per questa cosa). Successivamente, analizzando alcune lastre fotografiche, ci si accorse che la stella stava già aumentando rapidamente in luminosità dal giorno precedente, il 23 febbraio.

Si suppone che l'esplosione di una Supernova, oltre a fare diventare la stella estremamente luminosa, sia associata all'emissione di neutrini, particelle subatomiche prive di carica elettrica, e di massa estremamente piccola (finora mai realmente misurata, in quanto troppo piccola per la sensibilità degli esperimenti), e che viaggiano quindi sostanzialmente alla velocità della luce. I neutrini emessi da una Supernova vengono prodotti durante il collasso del nucleo della stella (fonte), e si suppone che soltanto l'1% dell'energia emessa dalla stella vada in onde elettromagnetiche. Il restante 99% va in neutrini!

La produzione e l'emissione dei neutrini avviene durante il collasso del nucleo, e essendo i neutrini scarsamente interagenti con la materia, essi fuoriescono facilmente all'esterno della stella, e vengono emessi nello spazio in tutte le direzioni. Al contrario, la luce visibile viene emessa soltanto quando l'onda d'urto - che si origina all'interno del nucleo estremamente denso - si trasmette agli stati superficiali esterni della stella, che vengono in questo modo "accesi" diventando luminosissimi. 

Pertanto ci si aspetta che i neutrini vengano emessi prima della luce, e quindi siano anche visti prima di essa dagli eventuali scienziati di un pianeta distante. Essendo la velocità dei neutrini praticamente pari alla velocità della luce, ci si aspetta che l'intervallo temporale tra l'emissione dei neutrini e l'emissione della luce corrisponda all'intervallo temporale tra l'osservazione dei neutrini e l'osservazione della luce della Supernova, anche a grandi distanze. Questo è quindi in grado di fornire informazioni importanti sulla sequenza temporale di ciò che avviene all'interno di una Supernova quando la stella collassa.

Il 27 febbraio 1987 c'erano sulla terra diversi esperimenti funzionanti, pronti a captare neutrini di origine astrofisica, dal sole o dalle stelle (fonte). Prima di quel giorno, tuttavia, tutte le esplosioni di Supernove osservate nelle altre galassie erano troppo distanti per riuscire a vederne i neutrini emessi.


Il Fax inviato dall'Università della Pennsylvania all'esperimento Kamiokande, che informava dell'osservazione della Supernova con i telescopi, e lo invitava a cercare la Supernova anche fra i neutrini dei loro dati.

Alle 7 e 35 ora di Greenwich, l'esperimento Kamiokande, in Giappone, vide un "burst" di 12 neutrini all'interno dell'apparato sperimentale. Allo stesso momento l'esperimento IMB, situato in una miniera di sale 600 metri sotto terra negli Stati Uniti, osservò un fiotto di 8 neutrini. Tutto questo mentre alle 7 e 36 l'esperimento Baksan, nelle montagne del Caucaso dell'ex Unione Sovietica, osservava il segnale di altri 5 neutrini. L'intera sequenza di eventi durava in tutto una manciata di secondi. Quei neutrini, emessi all'interno di una stella 170 mila anni prima, mentre stava avvenendo una catastrofe inimmaginabile per ciò che noi chiamiamo normalmente "catastrofe" nei telegiornali, si erano manifestati simultaneamente in tre luoghi diversi della nostra terra, portandoci la testimonianza di quell'evento incredibile. Non so se riuscite a emozionarvi per questa cosa, ma a me appare meraviglioso. Se potessero parlare, quei neutrini, potrebbero a pieno diritto dire "ho visto cose che voi umani...!". Hanno attraversato il nucleo densissimo di una stella gigante, pesante 20 volte il sole, mentre questo crollava su se stesso in un tripudio di reazioni nucleari, e sono fuoriusciti dalla stella poco prima che questa si accendesse come un'immensa bomba atomica. Una cosa che riusciamo a immaginare solo con formule matematiche, ci si manifesta "real time" dopo 170000 anni con un fiotto di neutrini della durata di pochi secondi, a distanze siderali da dove tutto quanto è accaduto.

Il "burst" di neutrini provenienti dalla Supernova SN1987a, presente nei dati dell'esperimento Kamiokande

I neutrini hanno una bassissima capacità di interagire con la materia. Si chiama sezione d'urto, in gergo tecnico. Questo fa sì che per loro la materia sia praticamente trasparente. In particolare i neutrini emessi da una Supernova hanno, singolarmente, energie relativamente basse, simili come ordine di grandezza a quelle dei neutrini emessi dal sole, e la probabilità di interazione è tanto più bassa tanto minore è la loro energia. Quindi soltanto una piccola frazione dei neutrini che sono arrivati sulla terra ha rilasciato tracce del loro passaggio nella materia. Per circa una decina di secondi, il 23 Febbraio 1987, ciascun essere umano fu attraversato da qualcosa come 10000 miliardi di neutrini prodotti nell’esplosione della Supernova SN1987A, nonostante essa fosse a 170000 anni luce da noi. La quasi totalità di questi neutrini, proprio in virtù della loro scarsissima capacità di interagire, ci attraversò come se fossimo stati trasparenti, senza lasciare alcuna traccia. Ma non tutti. Su così tanti, qualcuno, scelto per caso dalle leggi della statistica, decise di fermarsi al nostro interno, reagendo con un nucleo del nostro corpo. Si può stimare che questo accadde a circa un milione di persone, nel cui corpo uno di questi neutrini diede origine a una minuscola reazione nucleare. Un bacio che la Supernova volle mandare loro in segreto, senza che essi se ne accorgessero minimamente. Una particella nata in una stella distante 170000 anni luce da noi, che decide di morire nel nostro corpo. Questa cosa per me è fantastica.

Ma la storia non finisce qui. Sotto il Monte Bianco, in un locale adiacente al tunnel che collega Italia e Francia, c'era in funzione all'epoca un esperimento che pure studiava neutrini provenienti dallo spazio. Sottoterra, sotto chilometri di roccia, per schermarsi dal fondo dei raggi cosmici, come si fa anche ai Laboratori del Gran Sasso, perché altrimenti in superficie il "rumore di fondo" dei raggi cosmici sarebbe troppo grande da impedire misure così sofisticate.

L'esperimento sotto il Monte Bianco si chiamava LSD (simpaticoni questi fisici!). LSD stava per Liquid Scintillation Detector. L'esperimento LSD osservò "real time" un burst di 5 neutrini in 7 secondi di tempo, alle ore 2 e 52 ora di Greenwich, ovvero circa 4 ore prima degli altri 3 esperimenti (fonte). Alle ore 7 e 36 anche LSD osservò 2 neutrini, in simultanea con gli altri 3 esperimenti.

Problema: quei 5 neutrini osservati dall'esperimento sotto il Monte Bianco 4 ore prima, hanno a che fare con SN1987A? E perché gli altri 3 esperimenti non videro nulla in quel breve intervallo di tempo, sebbene il loro volume e la loro sensibilità fosse decisamente maggiore di quella dell'esperimento del Monte Bianco?

Qui ci sono svariate ipotesi. La più semplice è che quei 5 neutrini in anticipo di 4 ore, sebbene compattati in 7 secondi di tempo, non abbiano niente a che vedere con la Supernova in questione, e fossero soltanto una occasionale fluttuazione del fondo.

Tratto da: https://diazilla.com/doc/131243/sn-1987a-revisited.


Tuttavia la peculiarità di quei 5 neutrini è che essi hanno un'energia inferiore a quella dei neutrini indubbiamente associabili alla Supernova, che furono visti dagli altri esperimenti 5 ore dopo. Un'energia tale da essere troppo bassa per la soglia in energia dei 3 esperimenti maggiori. Quindi è stato ipotizzato che anche quei 5 neutrini fossero collegati al collasso della nostra Supernova.

Tuttavia sappiamo che il collasso del nucleo della Supernova dovrebbe durare molto poco, e quindi come si spiegano 4 ore di differenza? 

Alcuni (fonte) hanno ipotizzato che il collasso della stella progenitrice sia avvenuto attraverso due fasi, in ognuna delle quali sarebbero stati emessi neutrini, ma di diverse energie. Nella prima fase i neutrini sarebbero stati di energia inferiore, e soltanto LSD fu in grado di osservarli, sebbene la sua sensibilità fosse modesta. Nella seconda fase, caratterizzata dall'emissione di neutrini di energia maggiore, questi furono osservati "in full glory" dai tre esperimenti principali (e solo in minima parte da LSD). A tutt'oggi, da quello che so, la situazione è controversa.

Ma la storia di SN1987A è ricca di altre curiosità e di aspetti poco chiari. 

All'epoca non esistevano ancora i rivelatori di onde gravitazionali a interferometro (LIGO-VIRGO) che ne hanno permesso la scoperta nel 2015, e che oggi rappresentano uno strumento meraviglioso per aiutarci a comprendere l'universo. All'epoca i rivelatori di onde gravitazionali disponibili sul mercato erano dei cilindri (fonte) della lunghezza di qualche metro ai cui estremi erano posti dei rivelatori ultrasofisticati, capaci di captare eventuali infinitesime variazioni di dimensioni del cilindro, se investito da un'onda gravitazionale. Questo tipo di rivelatori, in Italia, furono costruiti dal gruppo romano in cui lavorava anche Edoardo Amaldi.

La prima versione di questo tipo di rivelatore funzionava a temperatura ambiente. Il problema in questo caso è l'enorme rumore di fondo termico. L'effetto di un'onda gravitazionale, infatti, sarebbe quello di causare variazioni di dimensione del cilindro infinitesime rispetto al rumore di fondo causato dalla semplice agitazione termica. Il rumore termico, quindi, era un fattore determinante nel ridurre la capacità di captare segnali deboli, come ci si aspetta dalle sorgenti di onde gravitazionali, soprattutto se distanti. Esistevano 2 rivelatori di questo tipo, uno all'università del Maryland, e uno a Roma.

Esisteva però anche una versione migliore di questo tipo di strumento, in cui il cilindro era criogenicamente raffreddato a bassissima temperatura, in modo da ridurre al minimo il rumore termico. Queste "antenne" erano molto più sensibili delle loro sorelle a temperatura ambiente, e potenzialmente in grado di rivelare un eventuale passaggio di onde gravitazionali originate "non troppo distanti" (nella nostra galassia ad esempio, o in una galassia satellite come la Nube di Magellano, dove esplose SN1987A). Esistevano tre rivelatori di questo tipo, costruiti dai gruppi di Roma, Stanford e Louisiana. Il punto di forza di questi strumenti era quello di lavorare "in coincidenza", in modo da diminuire il rumore di fondo. Un'eventuale onda gravitazionale, infatti, si sarebbe manifestata contemporaneamente in tutte e tre le antenne, al contrario del rumore di fondo, che è casuale. Per inciso questo si fa anche con i nuovi strumenti a interferometro presenti negli USA e in Italia, vicino Pisa. Questa tecnica fu provata per un breve periodo ne 1986, e risultò molto promettente, tanto che gli esperimenti decisero di migliorare le loro antenne per procedere a una fase successiva di presa dati coordinata assieme. Lo spegnimento delle antenne fu deciso nel 1986, proprio quando i neutrini, la luce, e le eventuali onde gravitazionali emesse dall'esplosione di SN1987a, dopo aver viaggiato per quasi 170000 anni, erano già in vista del Sistema Solare...

Quando i segnali proveniente dall'esplosione di SN1987a investirono la Terra, soltanto le 2 antenne a temperatura ambiente di Roma e Maryland erano attive. La loro sensibilità era ovviamente molto modesta, e non sufficiente a "vedere" un'onda gravitazionale. Se le altre antenne criogeniche non fossero state spente per manutenzione e miglioramenti, forse avremmo scoperto le onde gravitazionali con 30 anni di anticipo.

Tuttavia, nonostante la bassa sensibilità delle antenne funzionanti, la cosa interessante è che il gruppo di Roma, guidato da Guido Pizzella, pubblicò uno studio in cui si evidenziavano comunque alcune correlazioni apparentemente significative tra il segnale osservato dalle antenne di Roma e Maryland, e i neutrini di SN1987a (fonte). Bisogna dire che l'analisi dei dati ha suscitato un certo scetticismo, anche perché un eventuale segnale di onde gravitazionali visibile alle antenne a temperatura ambiente avrebbe implicato processi in qualche modo sconosciuti (come peraltro ammesso dagli stessi autori dello studio), oltre a un collasso di SN1987a fortemente asimmetrico, requisito fondamentale per l'emissione di onde gravitazionali in un collasso stellare. Quest'ultimo aspetto sembra però confermato dalle recentissime osservazioni di ciò che resta di SN1987a. Infatti dall'immagine del residuo dell'esplosione, una "collana di perle" che cambia di luminosità nel tempo, e un doppio anello di origine non compresa (fonte), sembra emergere che il collasso di SN1987a sia stato fortemente asimmetrico (fonte). Nel 2019 sembra che siano state evidenziate le tracce di una stella di neutroni al centro di ciò che resta della nostra Supernova (fonte).

Il residuo di SN1987A come appare oggi.

Insomma, la prima volta che abbiamo avuto occasione di osservare una Supernova vicina con gli strumenti della scienza, abbiamo imparato moltissimo, come c'era da immaginarsi. Ma come sempre accade in questi casi, ci ritroviamo anche con tante domande senza risposta. Domande che prima non potevamo neanche chiederci. E' la scienza, bellezza!











lunedì 13 gennaio 2020

L'unico caso naturale di reazione a fissione che conosciamo

Questa è una storia curiosa, e forse poco nota, ma anche meravigliosamente affascinante. E' la storia dell'unico caso a nostra conoscenza in cui sulla terra, in modo naturale, si sia verificata una reazione nucleare a fissione, e di come questo sia stato possibile. Tutti gli altri casi di reazioni di fissione a noi noti sono indotti dall'uomo, nelle centrali nucleari o nelle bombe atomiche.

La reazione nucleare di fissione avviene quando un nucleo si rompe in frammenti nucleari più leggeri, che a loro volta possono indurre altri processi analoghi nei nuclei circostanti. In ognuno di questi singoli processi viene rilasciata energia, sotto forma di energia cinetica delle particelle prodotte.

Ad esempio, se prendiamo una certa quantità di Uranio, arricchito di Uranio 235 (l'isotopo dell'Uranio con 92 protoni e 143 neutroni, per un totale di 235 nucleoni) e lo bombardiamo con neutroni di opportuna energia, i neutroni possono rompere il nucleo di Uranio in nuclei più leggeri, liberando altri neutroni, che a loro volta possono indurre lo stesso processo negli altri nuclei di Uranio circostanti, e così via, in un processo che si autosostiene. Il risultato è quindi una liberazione di energia che si manifesta come calore. E' la fissione nucleare.

Per ottenere la fissione nucleare nei reattori, si parla di arricchimento dell'Uranio, ingrediente necessario per rendere autosostenibile la reazione nucleare. Infatti l'isotopo più comune dell'Uranio, l'Uranio 238, non può essere utilizzato per produrre energia tramite fissione, al contrario dell'Uranio 235. Nell'Uranio presente naturalmente sulla Terra, la frazione di Uranio 235 sul totale è circa lo 0.7%. Troppo poco per permettere una reazione nucleare di fissione.

Nel caso delle centrali nucleari, quindi, la percentuale di Uranio 235 sull'Uranio 238 viene aumentata fino a circa il 3%. E' il cosiddetto "arricchimento dell'Uranio". Nel caso di ordigni nucleari l'arricchimento necessario è invece almeno dell'85%. Ecco, per inciso, perché una centrale nucleare non può esplodere come una bomba atomica, contrariamente a quello che si potrebbe credere: l'Uranio contenuto nel reattore non è sufficientemente arricchito.

Tutti i casi a noi noti in cui avviene la fissione nucleare sono indotti dall'uomo, tramite opportuno arricchimento dell'Uranio (vedi Nota * a piè pagina).

Il fiume Oklo, in Gabon dove si trova il sito con la miniera di Uranio.


Tuttavia nel 1972 è stato scoperto un caso di fissione nucleare naturale. E' il caso di una miniera di Uranio sul fiume Oklo, nel Gabon, dove quasi 2 miliardi di anni fa si è instaurata una reazione di fissione nucleare in modo del tutto naturale. Questo è stato possibile grazie all'abbondanza dell'isotopo 235 dell'Uranio presente nella miniera, che all'epoca ammontava a circa il 3%. Il tutto coadiuvato dalla presenza di acqua. L'acqua, infatti, ha agito contemporaneamente come moderatore dei neutroni, cioè ne ha "aggiustato" la loro energia in modo da renderli adatti a rompere altri nuclei di Uranio 235, e come fluido di raffreddamento. Si ritiene che questo reattore naturale sia rimasto in funzione per quasi un milione di anni, con una potenza di circa 100 kW termici, sufficienti per tenere accese più o meno qualche migliaio di lampadine. Un po' poco rispetto alle centrali nucleari a fissione di oggi, ma pur sempre una centrale nucleare a tutti gli effetti, molto prima della comparsa del movimento NIMBY (Not In My BackYard).

La scoperta avvenne nel 1972 grazie al fatto che la Francia, che utilizzava il giacimento di Uranio per alimentare le sue centrali, effettuò un controllo di routine sul contenuto di Uranio 235 presente nella miniera, che evidenziò un valore inferiore al suo livello naturale di una frazione molto piccola, meno dell'1%. Questo insospettì molto, perché la percentuale naturale dell'Uranio 235 è estremamente costante ovunque sulla terra, e  siccome l'Uranio 235 è usato per costruire ordigni nucleari, la cosa non passò inosservata.

Tuttavia qualcuno si ricordò di una pubblicazione scientifica del 1956, che già ipotizzava la possibilità di reazioni a fissione sviluppabili in modo naturale sotto particolari condizioni, nei giacimenti di Uranio. In tutto 17 zone in cui nel passato si sviluppò il processo di fissione furono scoperte nel giacimento di Oklo e in zone limitrofe.

Affinché si possa sviluppare la fissione in modo naturale, l'Uranio presente naturalmente deve essere abbondante e con spessore sufficientemente elevato, oltre a essere distribuito nella roccia con una geometria adatta ad aumentare la probabilità che la reazione si automantenga. Inoltre l'Uranio 235 deve essere significativamente elevato rispetto all'isotopo 238, come nei reattori nucleari, dove esso ammonta appunto a qualche percento. Inoltre deve esserci in giro un "moderatore", qualcosa che rallenti i neutroni prodotti dalla fissione dei nuclei di Uranio, in modo da portarli all'energia giusta per indurre altri processi di fissione negli altri nuclei circostanti. L'acqua, ad esempio. In aggiunta non ci devono essere in mezzo all'Uranio elementi in grado di assorbire i neutroni, tipo il Boro. Il giacimento sul fiume Oklo, in Gabon, 2 miliardi di anni fa aveva tutte queste condizioni.

Oggi la frazione di Uranio 235 presente sulla terra nei minerali di Uranio è troppo bassa per causare fissione in modo naturale. Questo perché il naturale decadimento radioattivo dell'isotopo 235 ne ha ridotto la percentuale. Miliardi di anni fa, invece, la frazione di Uranio 235 sulla terra era quella giusta. All'epoca della formazione della terra, la frazione di Uranio 235 era circa il 30%, diminuita poi nel tempo a causa del naturale decadimento radioattivo, che è più veloce nel caso dell' Uranio 235 rispetto al più abbondante Uranio 238. All'epoca della formazione della reazione nella miniera di Oklo circa 2 miliardi di anni fa, la frazione di Uranio 235 era un po' più del 3%, simile a quella usata nei reattori nucleari.

La domanda interessante, però, a questo punto è: perché la reazione a fissione naturale si è sviluppata nella miniera solo 2 miliardi di anni fa, quando la percentuale di Uranio 235 era vicina al limite sotto la quale la fissione non può più avvenire, e non ha avuto luogo invece molto prima, quando la percentuale di Uranio 235 era molto maggiore, e quindi le condizioni di gran lunga più favorevoli?

Il motivo è che l'Uranio, per garantire il processo di fissione, oltre a essere arricchito di isotopo 235, deve essere anche concentrato. E prima di 2 miliardi di anni fa non riusciva a esserlo abbastanza. Il motivo è l'Ossigeno.

Infatti l'Uranio si concentra in quanto trasportato dall'acqua in opportuni depositi naturali. Per fare questo, esso deve essere solubile. E l'Uranio diventa facilmente solubile nella sua forma ossidata. E per ossidare, lo dice la parola stessa, c'è bisogno di Ossigeno. E all'inizio della storia della Terra la presenza di Ossigeno nell'atmosfera era molto scarsa. Soltanto 2,4 miliardi di anni fa ci fu un "evento", chiamato "Great Oxydation Event" (fonte), che aumentò il contenuto di Ossigeno nell'atmosfera, facendolo passare da 1 a 15%.

Questo ossigeno in più fu prodotto dai batteri! La maggiore presenza di Ossigeno permise all'Uranio di ossidarsi e diventare trasportabile dall'acqua, e quindi di concentrasi a sufficienza nei giacimenti, ingrediente necessario, anche se non sufficiente, per permettere il processo di fissione naturale.

Forse esistono altri casi simili a quello della miniera sul fiume Oklo, in giro per il mondo, dove la miniera è stata distrutta dai cambiamenti geologici della Terra, o che semplicemente non sono stati ancora scoperti.

Comunque quello che volevo dire è: ma non è fantastico tutto questo? Come la fisica nucleare si colleghi alla storia della terra, alla sua evoluzione geologica e biologica che l'hanno trasformata da luogo inospitale via via fino alla terra che conosciamo? Esiste un romanzo più avvincente e interdisciplinare?

Per dettagli e approfondimenti:

https://www.iaea.org/newscenter/news/meet-oklo-the-earths-two-billion-year-old-only-known-natural-nuclear-reactor

https://blogs.scientificamerican.com/guest-blog/natures-nuclear-reactors-the-2-billion-year-old-natural-fission-reactors-in-gabon-western-africa/

Nota (*). L'Uranio non è in realtà l'unico elemento utile per realizzare la fissione nucleare. C'è anche la fissione al Plutonio, che tuttavia non avviene spontaneamente in natura, anche a causa dell'estrema rarità del Plutonio naturale.





martedì 7 gennaio 2020

"Ma l'aereo decolla?" 2: la vendetta.

Un po' di tempo fa ho postato questo articolo, su un argomento che, per motivi a me misteriosi, genera thread infiniti in rete, con toni che spesso diventano infuocati. Dico che per me i motivi sono misteriosi, perché il problema, per come è formulato, è sostanzialmente una tautologia, del tipo "può decollare un aereo che non può muoversi?"

Tuttavia sembra che la cosa non sia così ovvia per molti, per cui avevo scritto il post sopra citato, dove cercavo di spiegare perché l'aereo non decolla.

Il testo del problema lo riporto qua sotto per chiarezza:
Un aeroplano ipotetico è sulla pista e si prepara al decollo ma sulla pista c'è un rullo collegato ad un nastro programmato per girare in senso opposto alla direzione dell'aereo ed esattamente alla stessa velocità delle ruote dell'aereo.
L'aereo riesce a decollare?


L'aereo non decolla sotto la seguente ipotesi, che ritengo ovvia e scontata, data la formulazione molto minimale del problema: il problema è puramente concettuale.

E' del tutto ovvio, infatti, che nel mondo reale nessun tapis roulant potrebbe contenere la spinta dei motori di un jet, per mille motivi diversi, primo fra tutti la tecnologia futuribile di un simile tapis roulant, che raggiungerebbe in breve velocità elevatissime e si romperebbe. E poi per gli attriti, che smetterebbero di essere ideali con ruote che girano a velocità così elevate, per le turbolenze dell'aria fra tapis roulant e aereo, e chissà per quali altri motivi contingenti.

Però, siccome il problema non menziona minimamente nessuno di questi aspetti, allora, come ogni studente di fisica sa bene, se il testo non dice vuol dire che non deve essere tenuto in conto. Altrimenti, se dovessimo sempre considerare tutti i fattori che entrano in gioco considerando i casi reali, la quasi totalità dei problemi di fisica che si danno a scuola o all'università diventerebbe irrisolvibile senza modelli numerici al computer.

Tralasciando quindi chi chiama in causa i cuscinetti delle ruote (che peraltro, rompendosi, renderebbero impossibile il decollo in ogni caso!), gli ingranaggi del tapis roulant (è ovvio che si romperebbero anche quelli!) e le correnti d'aria dovute al moto del tapis roulant e delle ruote (che peraltro avrebbero il ruolo di tenere l'aereo ancora più attaccato al suolo, dato che la velocità dell'aria sarebbe probabilmente maggiore sotto l'ala, cioè dalla parte del tapis roulant, invece che sopra, provocando quindi maggiore aderenza al suolo), vediamo qual è il principale argomento di chi sostiene che l'aereo decollerebbe comunque.

L'argomento è che le ruote dell'aereo sono in folle, libere di rotolare come gli pare sul tapis roulant, pur mantenendo un rotolamento senza strisciamento, e quindi in nessun modo il tappeto può contrastare il moto dell'aereo, essendo quest'ultimo sottoposto alla spinta dei reattori (una forza esterna). Questo, essi dicono, renderebbe l'accelerazione dell'aereo, e quindi il decollo, inevitabile.

Notate bene: non dicono "alla lunga l'aereo decollerebbe, perché il tappeto a un certo punto non ce la farebbe più (cosa che sarebbe vera nel mondo reale!), ma che il tappeto non può contrastare il moto in avanti dell'aereo proprio dal punto di vista concettuale. 

In sostanza, per i sostenitori del decollo, il fatto che il tappeto per costruzione esplicita del problema si muova istante per istante con una velocità uguale e opposta a quella delle ruote, non avrebbe alcun effetto sul moto dell'aereo, non appena questo accenda i motori.


Perfetto. Visto che le spiegazioni concettuali sembrano non sortire effetto, allora realizziamo l'esperimento.


Non avendo a disposizione un aereo, l'esperimento lo realizziamo prendendo una ruota, che rotola senza strisciare su un piano inclinato per effetto della gravità. Sotto la ruota è posto un tappeto, che simula il tapis roulant del problema.

La ruota è in folle, come nel caso dell'aereo, e è soggetta a una forza esterna, che non è quella della spinta dei jet, ma è la forza di gravità, che agisce comunque con modulo, direzione e verso costanti lungo il piano inclinato. Esattamente come nel caso dell'aereo. 

Permettetemi di sottolineare, a costo di apparire un po' acido, che se pensate che la spinta dei motori sia concettualmente diversa dalla "spinta" generata dalla forza di gravità, allora avete un po' di problemi con la fisica di base. Il risultato, infatti, in entrambi i casi è una forza esterna costante applicata all'aereo, che lo fa accelerare. 

Allo stesso modo, è del tutto irrilevante il fatto che la spinta di un jet sia molto più grande della spinta data dalla forza di gravità. Se chi ritiene che l'aereo decolli lo fa affermando che il tappeto non può influire in alcun modo sull'accelerazione delle ruote, allora che la velocità in gioco sia alta o bassa non può avere alcuna importanza. Se il tappeto non può influire sul moto della ruota, non può farlo quale che sia l'accelerazione a cui essa è sottoposta.

E d'altra parte i sostenitori del decollo dell'aereo "senza se e senza ma" affermano categorici che in nessun modo il tappeto è in grado di contrastare l'avanzare dell'aereo. Quindi, per loro stessa implicita ammissione, la velocità con cui gira la ruota, o con cui girerebbero le ruote dell'aereo, è del tutto ininfluente, che sia grande o piccola. Per lo stesso motivo è ininfluente anche il discorso della eventuale rottura dei cuscinetti, da tanti pure tirato in ballo. Se è vero che il tappeto non può arrestare il moto dell'aereo, come essi affermano, i cuscinetti non c'entrano un tubo!

Come pure non c'entra nulla col problema il fatto che non sia disponibile una tecnologia in grado di far muovere il tapis roulant in questo modo: non è un problema di ingegneria, ma è un problema di fisica di base, che più base non si può. Se fosse stato un problema di ingegneria il testo sarebbe stato lungo due pagine e non 3 righe.

Dicevamo che sotto la ruota c'è un tappeto, che avremo cura di muovere in modo opportuno quando lasceremo andare la ruota. Mostreremo quindi (negli esperimenti di fisica parlano sempre al plurale, anche se è solo uno a farlo, come in questo caso) che la ruota resterà ferma rispetto a un riferimento esterno, solidale con il laboratorio, ovvero ferma rispetto all'aria, cosa che, nel caso dell'aereo, gli impedirebbe di acquistare portanza e quindi decollare. E mostreremo anche che la velocità con cui viene tirato il tappeto in modo da rendere ferma la ruota rispetto a un sistema di riferimento esterno, è esattamente quella richiesta dall'ipotesi del problema.

Allora, pronti? Via! Guardiamo il filmato.

Intanto osserviamo come rotola la ruota, se lasciata libera. La lunghezza del piano è di 90 cm. Misuriamo quanto tempo impiega la ruota stessa a percorrere tutta la discesa. Ci servirà più avanti. A seconda delle inclinazioni del piano utilizzate, ottenute con opportuni spessori sotto le zampe del tavolo, i tempi impiegati per percorrere i 90 cm sono 8 secondi e 5 secondi. Ogni misura, da bravo fisico, ha un'incertezza di circa mezzo secondo, nel senso che ripetendo più volte la misura, e misurando il tempo con il cronometro, il risultato è lo stesso entro 5 decimi di secondo circa.

Adesso passiamo alla fase cruciale: lasciamo andare la ruota, e nel frattempo spostiamo il tappeto sotto di essa. Siccome non abbiamo un sistema in grado di regolare la velocità del tappeto in modo da renderla istante per istante uguale a quella delle ruote, facciamo il contrario: cerchiamo di trascinare il tappeto in modo da tenere la ruota ferma rispetto a un riferimento esterno (cosa che secondo i "decollatori" sarebbe impossibile per principio!), e misuriamo il tempo impiegato: secondo le ipotesi del problema, questo dovrà essere la metà del tempo impiegato dalla ruota a percorrere il tappeto quando quest'ultimo sta fermo. Questa è infatti la condizione tale per cui la velocità del tappeto è uguale alla velocità delle ruote che rotolano senza strisciare: muovendosi in direzioni opposte, la ruota impiegherà metà del tempo a percorrere l'intero tappeto, rispetto al caso in cui il tappeto sta fermo.

Facciamo l'esperimento e scopriamo una cosa che per me è assolutamente ovvia: la ruota resta ferma rispetto al punto di partenza! Non è vero che il moto del tappeto non sia in grado di ostacolare in alcun modo lo spostamento della ruota, come invece i sostenitori di "l'aereo decolla" affermano!

Ma controlliamo la velocità con cui abbiamo dovuto tirare il tappeto, per realizzare questa condizione, e vediamo se coincide con l'ipotesi del problema, e scopriamo che il tempo impiegato è esattamente la metà del tempo che la ruota impiegava a percorrere l'intero tappeto quando questo restava immobile! Le condizioni del problema sono quindi verificate.

Ma è ovvio che sia così! Il problema infatti dice che il tappeto deve muoversi a velocità uguale e opposta a quella delle ruote, e se le ruote non devono strisciare, questo è l'unico modo in cui si può muovere il tappeto! Applicando le condizioni del problema, la ruota resta ferma!!!

Vogliamo aumentare la pendenza? Proviamo! Come vedete più avanti nel filmato, con pendenza maggiore, non cambia nulla: la ruota resta ferma rispetto all'aria, e il tempo impiegato, anche in questo caso, è esattamente la metà di quello che la ruota impiega senza trascinare il tappeto. Non esiste quindi nessun impedimento concettuale che impedisca alla ruota di stare ferma, come tanti hanno invece affermato.

Vogliamo cambiare forma dell'oggetto? Proviamo con un cilindretto. Il momento di inerzia sarà diverso, quindi il tempo di rotolamento pure, ma il risultato non cambia: trascinando il tappeto con la velocità opportuna, il cilindro resta fermo rispetto a un sistema di riferimento esterno. 

Conclusioni? Tramite un opportuno trascinamento del tappeto, il carrello resta fermo rispetto a un sistema di riferimento solidale con il laboratorio. Ovvero, l'aereo non decolla. La tesi secondo cui il tappeto non è in grado di esercitare alcuna forza sulla ruota, e quindi non può in alcun modo trattenerne il moto - lo ripeto fino alla nausea -  è semplicemente sbagliata!

Nei commenti all'articolo originale qualcuno ha suggerito che dovrei realizzare l'esperimento con un carrellino, anziché con una ruota. Non capisco la differenza, ma va bene lo stesso. Nel video è mostrato anche l'esperimento con un carrellino spinto da un'elica. Quindi del tutto simile al problema con l'aereo. Qui ho dovuto usare come tappeto un semplice foglio di carta, perché le ruote del carrellino erano troppo sottili, essendo pensate per muoversi su una rotaia, e la loro pressione sul tappeto impediva al carrello di muoversi. Con la carta, rischiando perfino di perdere attrito (e quindi facilitare il moto "inarrestabile" del carrello) il trascinamento del "tappeto" tiene comunque il carrello fermo. Risultato identico, quindi. Anche col carrello spinto dall'elica, non cambia nulla.

Alcuni hanno obiettato che dipende dal momento di inerzia delle ruote. Sbagliato! Il problema non lo dice. Altrimenti anche il problema avrebbe dovuto specificarlo, e poi potremmo dire che dipende anche dal tipo di materiale del tapis roulant, dalla densità dell'aria, dal peso dell'aereo, da quanto spingono i motori, se l'aereo è carico o è vuoto, e tutta una serie di cose che ovviamente nel mondo reale contano, ma nel problema no, semplicemente perché non sono menzionate. Quindi il momento di inerzia delle rute può essere qualunque, ovviamente non nullo (che senso avrebbe?).

Conclusione: l'aereo, nelle ipotesi minimali del problema, non decolla. Come era del tutto ovvio, essendo il problema, dal mio punto di vista, una banale tautologia. Tuttavia, nonostante questo piccolo esperimento lo dimostri, sono certo che molti non si convinceranno. Non so che farci, ma tranquilli, anche quando Galileo mostrava i satelliti di Giove al telescopio, o i crateri della Luna, o le macchie sul Sole, in tanti non ci credevano. Potreste obiettare che io non sono paragonabile a Galileo, e questo ve lo concedo. Non ho nemmeno la barba!



giovedì 12 dicembre 2019

Vannoni e Stamina: una truffa evidente che l'Italia non ha saputo riconoscere

E' notizia di questi giorni la morte di Davide Vannoni, il promulgatore del metodo Stamina. I titoli dei giornali si barcamenano fra "lo scienziato inventore del metodo Stamina", il "contestato" metodo Stamina, la "controversa terapia", "il padre contestato", etc. Nessuno, per lo meno fra i titoli che ho letto, ha avuto il coraggio di usare i termini corretti: ciarlatano per Vannoni, e truffa per il Metodo Stamina. Ed è per questo che Vannoni è stato condannato, e non certo perchè il metodo Stamina fosse semplicemente "contestato". Il fatto che sia morto non cambia né mitiga il giudizio. Su questo aspetto non c'è nulla da aggiungere, e non è di questo che voglio parlare. L'intera vicenda, per chi non se la ricordasse, è riassunta ad esempio qui, o qui.

La cosa che invece mi preme sottolineare è che in Italia testate giornalistiche, politici, rappresentanti della cultura e una parte tutt'altro che minoritaria dei cittadini abbiano dato credito a Vannoni, lo abbiano addirittura sostenuto e difeso, proponendolo come il paladino dei diritti dei malati, e accusando allo stesso tempo la scienza e gli scienziati di essere ottusi cattedratici. Questo è lo specchio del disastro culturale italiano, e della mostruosa ignoranza scientifica che ci caratterizza.

Cesare Vannoni in tribunale.

Sì, perché anche senza sapere nulla di Sclerosi Laterale Amiotrofica (la malattia che Vannoni asseriva di poter curare), né di cellule staminali (la tecnica che Vannoni asseriva di usare per curare i malati) era evidentissimo a chiunque avesse un minimo di rudimenti su come funziona la scienza che il metodo Stamina fosse una banale truffa. Ne aveva tutti i connotati, tutte le caratteristiche tipiche. Io non so nulla di SLA né di cellule staminali, ma non ho mai avuto il minimo dubbio che si trattasse di un imbroglio.

Perché vedete, la cultura scientifica non è sapere di scienza. Non è sapere di cellule o di galassie, non è saper risolvere esercizi con le molle, i campi magnetici e le derivate. La cultura scientifica è conoscere come procede la scienza. Il suo metodo, il suo linguaggio, e anche i suoi limiti, che cosa la scienza può dire e cosa non le compete. La cultura scientifica è conoscere come si arriva a una scoperta scientifica, i passi necessari, i controlli che devono essere fatti, gli errori di metodo dai quali bisogna cautelarsi. E nel caso Stamina, con un minimo di cultura scientifica, quella che si dovrebbe imparare dalla scuola, sia che si faccia il liceo tecnologico, una scuola umanistica o professionale, era evidentissimo che ci si trovava di fronte all'antitesi della scienza.

E la cosa grave è che la nazione Italia non sia stata in grado di capirlo al volo.

Infatti Vannoni aveva tutti i connotati tipici del ciarlatano. Vediamoli.

Non era un esperto del settore. Vannoni era laureato in Scienza della comunicazione, aveva scritto testi sulla persuasione nella pubblicità, e insegnava in una università telematica. Non era un biologo, non era un medico. La prima domanda che uno dovrebbe chiedersi è: è possibile che uno che nella vita si occupa di tecniche di persuasione nella pubblicità sia l'unico al mondo ad aver scoperto come si cura una malattia ritenuta incurabile, e sulla quale le equipe di scienziati in tutto il mondo non sono ancora giunti a sviluppare nessuna terapia efficace? Dove sta la mancanza di cultura scientifica qui? Sta nel fatto che in Italia in tanti, compresi politici, giornalisti e "uomini di cultura", hanno un'idea della scienza che è quella dei filmetti di serie B, o dei fumetti dell'Intrepido. Hanno l'idea dello scienziato che lavora nello sgabuzzino di casa, in segreto, da solo, e all'improvviso scopre "la formula!".  Hanno l'idea che la scienza sia una cosa da artigiani genialoidi, e ignorano totalmente cosa invece è necessario per arrivare a una scoperta di grande portata. Credono che arrivare alla cura del cancro, della SLA, dell'Alzheimer, ci si arrivi così, magari per caso. Uno fa un po' di intrugli, mescola, e ecco che - meraviglia - anche un laureato in scienza della comunicazione, del tutto avulso all'ambiente scientifico, possa arrivare a scoprire la cura di una malattia incurabile, alla faccia delle centinaia di esperti del campo che invece ancora sono lì a chiedersi quali siano i meccanismi che scatenano la malattia. Questa è l'idea che in Italia tanti hanno della scienza.

Evitava il confronto con la comunità scientifica. A Vannoni era stato chiesto di presentare un protocollo per testare il suo metodo, ma Vannoni ha a lungo rifiutato. Ha glissato continuamente, evitando perfino di dire che cosa somministrava ai suoi pazienti. Vannoni non ha mai pubblicato nulla a riguardo del suo metodo, su nessuna rivista specialistica del settore con peer review (e neanche senza peer review a dire il vero). Non ha mai partecipato a congressi del settore, né presentato i suoi risultati a congressi specialistici, e non si è mai confrontato con i gruppi di ricerca che nel mondo studiano la possibile cura alla SLA. Questo è tipico: dai presunti (e osannati) preveditori di terremoti, ai curatori di cancro con intrugli vari, ai venditori di cure miracolose, agli scopritori di energie illimitate e pulite, il must che li accomuna è evitare qualunque confronto scientifico con gli scienziati che professionalmente si occupano di quel campo di ricerca. Si parla con giornalisti, con i fan su Facebook, con il pubblico alle conferenze (magari a pagamento), ma con gli scienziati no. Al massimo si va a qualche congresso farsa, di quello nei quali, pagando, ti accettano anche la ricetta della carbonara come presentazione scientifica, per poi dire che hai presentato i tuoi risultati al megacongresso di specialisti. Non è uno scherzo, leggete questo articolo illuminante.

Era visto come il paladino della scienza libera, non schiavo del potere. Anche questo è tipico. Quando sei l'unico al mondo a dire di avere effettuato una scoperta epocale, e la comunità scientifica ne dubita, è garantito che il grande pubblico si schieri con te. Soprattutto se affermi di saper curare una malattia ritenuta incurabile. E non sto parlando dei malati, o dei familiari dei malati, che sono anche essi vittime del ciarlatano, e per i quali l'aggrapparsi a qualunque cosa che offra una speranza è più che comprensibile. Sto parlando della gggente. Quelli che stanno in salotto, leggono il titolo dell'articolo, e hanno subito capito tutto, e corrono su Facebook a dire la loro su come la scienza ufficiale (ma ne esiste un'altra?) sia ottusa e chiusa di mente. Usando tecnologie messe a loro a disposizione da quella scienza che criticano, e senza le quali non saprebbero vivere.

Si faceva pagare profumatamente, ma la cosa passava in secondo piano. Vannoni veniva visto come un benefattore, il paladino dei diritti del malati, ma la realtà era diversa. I trattamenti costavano cari, anche decine di migliaia di euro, venivano realizzati in condizioni precarie, in strutture tutt'altro che consone o adeguate, in condizioni igieniche a volte precarie, e non veniva rilasciata ricevuta... Quelle prassi che normalmente vengono giustamente richieste alla medicina ufficiale, per la medicina non ufficiale passano - chissà perché - in secondo piano.

Ecco, tutto questo rendeva lampante che dietro il caso Stamina non ci fosse nulla, se non una truffa. Era chiarissimo, anche senza essere esperti del campo. Bastava conoscere come funziona la scienza. La cosa vergognosa è quindi che in Italia non si sia stati capaci di riconoscere tutto ciò al primo sguardo.  Ma non solo, lo scandalo è che si sia dato credito a una cosa del genere, facendo allo stesso tempo passare gli scienziati come i soliti ottusi cattedratici. E' lo specchio, uno dei tanti, dell'Italia odierna.








lunedì 2 dicembre 2019

La teoria della relatività ristretta ridotta all'osso

La Teoria della Relatività è spesso considerata dal grande pubblico qualcosa di impossibile da capire per una persona normale. D'altra parte Einstein è il simbolo del genio per antonomasia, e quindi anche la sua "teoria" è da molti considerata inarrivabile ai non geni. E' probabilmente anche per questo che tutti quei discorsi sul tempo che aumenta, le distanze che si restringono, il gemello che resta giovane, la velocità della luce che non si può superare, scatenano la fantasia degli scienziati fa da te, che si cimentano in goffi tentativi di smentirle la Teoria della Relatività. Credo che questo derivi dal non aver capito che tutte questi fenomeni strani e controintuitivi non sono la Teoria della Relatività, ma le conseguenze della Teoria della Relatività, che di per sé è qualcosa di estremamente semplice e ovvio. 

Pe non parlar poi di E = mc2, e il fatto che "tutto ciò che è massa è anche energia" (lo metto virgolettato perché non è vero), e quindi a questo punto anche noi saremmo energia, cosa che scatena i pensieri più selvaggi e inconfessati del popolo della rete.
 
In realtà, consapevole di suscitare il disappunto di molti, in particolare di quelli che credono che la teoria della relatività ristretta sia una teoria estrema e arditissima, e quindi potenzialmente sbagliata (ma loro lo hanno scoperto!) la Teoria della Relatività Ristretta, a livello concettuale, è di una semplicità estrema, e segue un filo logico molto stringato e estremamente comprensibile. E di questo voglio parlarvi, a costo di smantellare l'aura di misticismo che tanti vedono attorno ad essa.


Sto parlando, lo sottolineo, della Teoria della Relatività Ristretta. La Teoria della Relatività Generale è un'altra cosa, e in quel caso il genio di Einstein ha veramente dato il massimo. Infatti, mentre la Teoria della Relatività Ristretta era comunque nell'aria già alla fine dell'800, e Einstein ha avuto il merito di tirare le fila di una serie di osservazioni già ben note, ma di cui nessuno aveva ancora compreso il vero impatto dal punto di vista fisico, per avere la Relatività Generale, che è sostanzialmente una nuova descrizione della gravitazione, senza Einstein probabilmente avremmo dovuto aspettare ancora un bel po'.

Se mi dovessero chiedere di definire la Teoria della Relatività Ristretta, quindi, non risponderei che è la teoria che prevede che il tempo bla bla... e le lunghezze bla bla... e l'equivalenza fra massa e energia ... bla bla ... e i gemelli bla bla. Niente di tutto questo: la teoria della relatività ristretta è l'estensione del principio di relatività a tutti i fenomeni fisici, sia meccanici che elettromagnetici. Tutto il resto, tutte le stranezze che turbano il sonno degli scienziati fai-da-te, sono le ovvie conseguenze di questo aspetto. Sottolineo ovvie.

Il principio di relatività è il fatto - sperimentalmente noto a tutti anche senza sapere nulla di fisica - che le leggi della natura sono le stesse in tutti i sistemi di riferimento che si muovono fra loro di moto rettilineo e uniforme. I cosiddetti sistemi di riferimento inerziali. In pratica tutti i sistemi di riferimento non sottoposti ad accelerazioni. Vedremo fra poco perché questo principio è inconsciamente noto a tutti, anche a chi odia la fisica.

Quindi, essendo le leggi fisiche le stesse in tutti questi particolari sistemi di riferimento, non esiste alcun tipo di esperimento in grado di mostrare se un sistema di riferimento inerziale sia in moto assoluto. Mangiare un gelato, ascoltare la radio, fare le capriole, guardare un film, respirare, scrivere, dormire, attirare pezzetti di ferro con la calamita, tutto avviene sempre allo stesso modo in qualunque sistema di riferimento inerziale, e non possiamo usare nessun processo fisico noto per dire se siamo fermi o in moto, tanto che la domanda stessa perde di significato. I sistemi di riferimento inerziali sono tutti perfettamente equivalenti, e la fisica non è in grado di distinguerli.

Questo aspetto è, come dicevo, qualcosa che tutti conosciamo bene. Quando siamo in aereo e ci muoviamo a 800 Km/h, una mosca intrappolata in cabina vola come volerebbe a casa nostra, l'acqua ha lo stesso sapore che se la beviamo al bar dell'aeroporto, e l'arrosto che ci danno sull'aereo farebbe ugualmente schifo anche mangiato al terminal nella zona imbarchi. Tutto si comporta allo stesso modo, sia sull'aereo in volo che a casa sul divano, e se non fosse per lo sballottamento dell'aereo (cioè le accelerazioni, ovvero le situazioni in cui l'aereo non si muove esattamente di moto rettilineo e uniforme, ma cambia di velocità) non potremmo dire se ci stiamo muovendo o stiamo fermi.

Avete poi presente quando siete fermi in stazione sul treno, e con la coda dell'occhio vedete il treno di fianco muoversi, e per un istante, finché non percepite qualche scossone (di nuovo, un'accelerazione!) non sapete dire se è il vostro treno a muoversi, o quello accanto? Ecco, in quel momento state sperimentando il Principio di Relatività. In quel momento non avete alcun modo per dire se siete voi a muovervi, o il treno accanto a voi. Niente vi viene in aiuto, perché effettivamente non cambierebbe niente, in nessuno dei due casi. E' solo in presenza di accelerazioni, che potete dare una risposta. Ovvero quando il vostro sistema di riferimento smette di essere un sistema di riferimento inerziale. Oppure, più banalmente, guardando la pensilina, che però soltanto per questioni di convenzione considerate essere ferma.

Questa cosa l'aveva già capita Galileo ai suoi tempi, e l'aveva chiamata il Principio di Relatività: le leggi della fisica sono le stesse in qualunque sistema di riferimento inerziale. E quindi anche le formule delle leggi fisiche devono essere le stesse in qualunque sistema di riferimento inerziale.

Questa invarianza, dal punto di vista matematico, è garantita dalle trasformazioni matematiche che mettono in relazione le coordinate spaziali e temporali di due sistemi di riferimento inerziali in moto relativo fra loro, e che prendono il nome di Trasformazioni di Galileo. Ad esempio la seconda legge di Newton, la famosa F=ma, non cambia di espressione se usiamo le trasformazioni di Galileo per esprimerla in un altro sistema di rifermento inerziale.

Una conseguenza ovvia e banale delle trasformazioni di Galileo è che se tizio si trova su un sistema di riferimento che si muove con velocità v rispetto al vostro (ad esempio è su un tapis roulant di quelli che ci sono negli aeroporti), e in aggiunta cammina sul tapis roulant con velocità u perché ha fretta, a quel punto voi, da fuori, lo vedete muoversi con velocità v + u. In altri termini le velocità fra due sistemi di riferimento inerziali si sommano o sottraggono a seconda del moto relativo dei due sistemi di riferimento. Ad esempio quando sorpasso una macchina che va a 120 in autostrada, mentre la sorpasso e ci passo accanto andando a 130 (sul blog rispetto sempre i limiti di legge), la vedrò di fatto retrocedere con una velocità di -10 Km/h. Molto ovvio e banale, insomma.

Però ai tempi di Galileo le leggi fisiche note erano solo quelle della meccanica: molle, piani inclinati, catapulte, etc. L'elettromagnetismo non era stato ancora scoperto, anche se il corpo umano è da solo una continua applicazione delle leggi dell'elettromagnetismo. Ma questa cosa non la sapevano ancora.

Alla fine dell'800 James Clerk Maxwell riassume le leggi dell'elettromagnetismo in 4 espressioni matematiche, che prendono il nome di Equazioni di Maxwell. Tutti i fenomeni elettromagnetici sono in quelle 4 formule, compresa la luce.

Perfetto, allora possiamo supporre che anche i fenomeni elettromagnetici rispettino il principio di relatività. In fin dei conti dicevamo che noi umani, con tutti i processi fisici e chimici che avvengono nel nostro corpo, siamo un laboratorio di elettromagnetismo che funziona full time, e se le leggi dell'elettromagnetismo fossero diverse in casa, su un treno, o su un pianeta che si muove di 30 Km/s attorno al sole, ce ne saremmo accorti! Quindi che il principio di relatività valga anche per le leggi dell'elettromagnetismo è un po' più di una semplice supposizione...

Però c'è un problema. Nelle equazioni di Maxwell - quelle leggi che hanno la pretesa di riassumere tutti i fenomeni elettromagnetici, e quindi valere ovunque, in qualunque sistema inerziale - compare un termine che ha le dimensioni di una velocità. E' la velocità delle onde elettromagnetiche nel vuoto: la velocità della luce.

E qui non ci vuole un genio per capire che c'è qualcosa che non va. Perché se pretendiamo che delle leggi che contengono al loro interno una velocità restino inalterate e valgano sempre in qualunque sistema di riferimento inerziale, perdiamo in partenza, perché una velocità non può restare la stessa in sistemi di riferimento inerziali diversi, in moto relativo fra loro. Ricordate il tapis roulant?

Quindi le equazioni di Maxwell non possono restare uguali passando da un sistema di riferimento inerziale a un altro, con quella velocità tra le scatole!

Ma attenzione: questo avviene se si assume che le trasformazioni che mettono in relazione le coordinate spaziali e temporali fra due sistemi di riferimento inerziali siano le trasformazioni di Galileo. Quelle trasformazioni di coordinate che rendono le leggi della meccanica identiche passando da un sistema inerziale a un altro, e che come sottoprodotto danno il fatto che le velocità si sommano o sottraggono, se confrontate fra sistemi di riferimento diversi.

Allora chiediamoci: quali trasformazioni di coordinate renderebbero invarianti le equazioni di Maxwell nella forma, nella loro espressione matematica, passando da un sistema di riferimento inerziale a un altro?

E' un esercizio di matematica (lo imparai a Fisica 1), e il risultato è un nuovo set di trasformazioni di coordinate, che prendono il nome di trasformazioni di Lorentz.


Le trasformazioni di Lorentz hanno un'espressione un po' strana. Contengono dei termini che perdono di significato matematico quando la velocità di un sistema di riferimento rispetto all'altro diventa uguale alla velocità della luce. Segno che quando ci si avvicina alla velocità della luce possono succedere cose a cui normalmente non siamo abituati.

Però, se la velocità in gioco è piccola rispetto alla velocità della luce, esse ci ridanno le famose trasformazioni di Galileo. Sono diverse quando le velocità in gioco sono prossime alla velocità della luce, ma sono praticamente indistinguibili dalle vecchie trasformazioni di Galileo quando le velocità sono piccole rispetto alla velocità della luce c, che è costante in qualunque sistema di riferimento. Se così non fosse, le equazioni di Maxwell, che contengono al loro interno la velocità della luce, varrebbero solo in uno specifico sistema di riferimento, e potremmo usare esperimenti di elettromagnetismo per determinare il sistema di riferimento prescelto in cui le leggi dell'elettromagnetismo sono quelle scritte sui libri. Michelson e Morley, e molti altri dopo di loro, ci hanno provato, ma i loro esperimenti hanno sempre miseramente fallito nell'intento.

Le Trasformazioni di Lorentz sono quindi le trasformazioni di coordinate che cercavamo: quelle che preservano l'invarianza delle leggi dell'elettromagnetismo in qualunque sistema di rifermento inerziale, qualunque sia il valore delle velocità in gioco.

E ovviamente anche la legge di somma delle velocità che si ottiene dalle trasformazioni di Lorentz è diversa da quella di Galileo. Se le velocità sono prossime alla velocità della luce, scopriamo che se corriamo dietro a un raggio di luce, questo ci apparirà correre comunque alla velocità della luce, per quanto noi lo inseguiamo velocemente. La velocità della luce non si lasca sommare o sottrarre con nessuna altra velocità. Le equazioni di Maxwell restano sempre uguali.

Però, se la velocità in gioco sono piccole rispetto alla velocità della luce, ecco che la nuova formula approssima perfettamente la legge di somma delle velocità che tutti conosciamo, come ce l'aveva insegnata Galileo.

Tutto risolto, quindi?

Manca ancora qualcosa, in realtà. Se applichiamo le trasformazioni di Lorentz alle leggi della meccanica (F=ma, p=mv, quella roba lì, per capirci), queste cambiano di espressione matematica, cambiano di forma passando da un sistema inerziale a un altro. E quindi violerebbero il principio di relatività, ovvero avremmo un modo per dire, utilizzando le leggi della meccanica, se ci stiamo muovendo o siamo fermi, e saremmo daccapo. D'altra parte lo sapevamo già che sono le trasformazioni di Galileo a rendere invarianti le formule delle leggi della meccanica.

E allora?

E allora è semplice (si fa per dire). Basta solo avere il coraggio per dire che allora le leggi della meccanica, quelle che conoscevano Newton e Galileo, non sono quelle corrette! E quindi troviamo come dovrebbero essere le leggi della meccanica, in modo da restare uguali passando da un sistema inerziale a un altro non secondo le vecchie trasformazioni di Galileo, ma secondo le nuove trasformazioni di Lorentz. Quelle che vengono fuori, ancora una volta, sono molto diverse se le velocità in gioco sono prossime a quelle della luce, ma diventano uguali a quelle già note, quando la velocità in gioco è piccola rispetto alla velocità della luce. Non ce ne eravamo mai accorti, perché tutte le cose che facciamo in meccanica sono sempre a basse velocità rispetto alla velocità della luce. E' solo con la scoperta dell'elettromagnetismo che il problema è saltato fuori, perché l'elettromagnetismo è un tutt'uno con la luce!

Questa è la Teoria della Relatività Ristretta.

Tutto il resto, la storia dei gemelli, E = mc2, le lunghezze che si contraggono, gli orologi che vanno lenti, etc, sono conseguenze di tutto questo e vengono fuori pari pari dal fatto che le trasformazioni corrette che mettono in relazione due sistemi di riferimento inerziali sono le trasformazioni di Lorentz, e non le "vecchie" trasformazioni di Galileo, che però vanno benissimo quando le velocità in gioco sono piccole rispetto alla velocità della luce (ed è per questo che non ci eravamo mai accorti che non erano quelle giuste!).

Alcuni credono che la Teoria della Relatività sia una complicazione aggiunta da Einstein alle leggi della fisica. Credono, costoro, che senza questa complicazione, che essi reputano sbagliata, tutto sarebbe molto più semplice. Se invece avessero capito che cos'è realmente la teoria della Relatività, si accorgerebbero che essa è invece una meravgliosa sintesi, una semplificazione delle leggi della natura. Altrimenti avremmo dovuto scrivere tanti libri di fisica, ognuno valido per ogni specifico sistema di riferimento inerziale. Una complicazione non da poco, e poi ti voglio vedere a prendere 6 all'interrogazione!
 





martedì 26 novembre 2019

Perché l'occhio umano vede la luce visibile?

E perché solo quella?


Perché i nostri occhi vedono la luce del sole, e solo quella? Sembra una domanda stupida, vero? Beh, non lo è affatto. 

Infatti la luce cosiddetta "visibile" è solo una piccolissima porzione dell'intero campionario di "luce", genericamente chiamata spettro elettromagnetico, che esiste in natura. Fra onde radio, che possono avere lunghezza d'onda di chilometri, fino ai raggi gamma di altissima energia, con lunghezze d'onda inferiori alle dimensioni di un nucleo atomico, intercorrono qualcosa come 20 ordini di grandezza, e le lunghezze d'onda della luce visibile sono un nonnulla, che va più o meno da 400 a 700 miliardesimi di metro (400 è la luce blu-violetta, 700 è la luce rossa).

Tutte queste onde sono concettualmente la stessa cosa. Tutte quante, nel vuoto, viaggiano alla velocità della luce. L'unica cosa che le contraddistingue è la loro lunghezza d'onda, o la frequenza, due quantità inversamente proporzionali, dato che Lunghezza d'onda = velocità della luce/frequenza.  Minore lunghezza d'onda corrisponde anche a una maggiore energia.

Quindi, se concettualmente queste onde sono sempre la stessa cosa, perché vediamo proprio la luce visibile e non, ad esempio, le microonde o i raggi X? Non sarebbe stato bello, e magari anche utile, vedere tutto lo spettro elettromagnetico?

Il motivo è nel modo in cui funziona l'evoluzione della specie, con buona pace dei "disegnatori intelligenti". Infatti, se l'uomo fosse "perfetto", come essi sostengono, perché non può vedere anche le altre parti dello spettro elettromagnetico? Perché queste cose riescono a farle solo i supereroi dei fumetti?




Guardate questa figura. Le parti marroncine indicano le lunghezze d'onda che vengono assorbite dall'atmosfera. Raggi Gamma, X e parte degli UV, quelli a più piccole lunghezze d'onda, sono completamente assorbiti dall'atmosfera, e quindi non arrivano sulla superficie terrestre. Per fortuna, perché altrimenti non esisterebbe la vita, per lo meno nella forma che conosciamo. Questo tipo di onde elettromagnetiche, infatti, è altamente ionizzante, e quindi molto pericoloso per la salute. Perfino virus e batteri, che si adattano a tutto, gradirebbero poco un pianeta in cui queste frequenze dovessero arrivare fino alla superficie. Non è un caso che negli ospedali utilizzino proprio i raggi UV di maggiore energia per sterilizzare gli strumenti chirurgici.

Quindi il nostro occhio non vede queste lunghezze d'onda perché sarebbe inutile vederle. A che serve vedere qualcosa che sulla superficie terrestre non arriva, e che, sempre sulla superficie terrestre, non viene prodotta naturalmente? E quindi, siccome l'evoluzione schifa tutte le cose inutili, il nostro occhio non ha l'optional di vedere questa parte dello spettro elettromagnetico, perché avere un apparato sensibile  ai raggi X e tenerlo perennemente inutilizzato (salvo che per quei pochi secondi dal dentista) sarebbe qualcosa che ci esporrebbe soltanto maggiormente a malattie. Come se l'elefante avesse le ali, senza però poter volare. Quelle ali sarebbero a rischio infezioni, ferite, ascessi, fratture, oltre a essere un fastidio non da poco fra gli alberi della savana, senza servire a nulla di utile.

E quindi uno dei motivi per cui vediamo la luce visibile è che essa è fra le poche zone dello spettro elettromagnetico che non è filtrato dall'atmosfera. E siccome per vedere gli oggetti, questi devono essere illuminati da qualcosa, ovvero l'onda elettromagnetica che gli arriva addosso deve interagire con l'oggetto in modo da portare al nostro occhio i dettagli di quell'oggetto (il colore, la forma), è del tutto ovvio che l'occhio umano si sia evoluto proprio per vedere la luce che chiamiamo visibile.

C'è un altro motivo che ha facilitato la nostra visione della luce visibile: la luce visibile è quella che maggiormente penetra sotto la superficie del mare. E siccome in passato eravamo tutti pesci, (di questo ne abbiamo altre tracce nell'anatomia del nostro corpo) ecco che il nostro occhio attuale ha ereditato dai nostri antichi progenitori la capacità di vedere quelle lunghezze d'onda e non altre. 

Però uno potrebbe dire: bene, ho capito che non avrebbe senso vedere quella parte dello spettro elettromagnetico che non arriva sulla superficie terrestre, perché assorbita dall'atmosfera. Ho capito che questo sarebbe inutile. Però perché non vedere gli infrarossi? C'è poi una bella finestra di quasi tre ordini di grandezza in frequenze (o lunghezze d'onda) di onde radio, che l'atmosfera lascia passare indisturbata! Non solo: gli oggetti caldi emettono essi stessi infrarossi. Tutti gli esseri viventi a sangue caldo emettono infrarossi, per non parlare di una panchina di ferro sotto il sole, o la bistecchiera sul fornello. Perché il nostro occhio non vede quelle frequenze?







Ci sono alcuni animali che in effetti vedono gli infrarossi. Ad esempio i serpenti. Un essere vivente a sangue caldo emette infrarossi più che l'ambiente circostante, e quindi, se si vive ad altezza suolo, in mezzo all'erba, e ci si ciba di topi, vedere un oggetto vivo tramite il calore che emette può essere molto vantaggioso, perché quel calore risulta ben evidente anche fra le foglie (che sono più fredde), mentre la sua immagine nel visibile sarebbe molto più confusa. Quindi vedere gl infrarossi per gli animali che strisciano risulta vantaggioso. Ma allora, non potrebbe essere vantaggioso anche per noi umani? Certo, la cosa richiederebbe una struttura dell'occhio più complessa, ma magari avere un sensore dedicato a vedere l'infrarosso poteva aiutare, no?

Qui io ho un'ipotesi, che però è solo una mia idea. Noi siamo esseri a sangue caldo. E quindi tutto attorno all'occhio, e l'occhio stesso, o l'ipotetico sensore per infrarossi, emetterebbe infrarossi! Quindi il nostro ipotetico occhio capace di vedere gli infrarossi sarebbe sommerso da un enorme rumore di fondo (infrarossi all around!), e la sua portentosa capacità diventerebbe inutile. Un po' come ascoltare i dettagli del suono dell'arpa in un mondo che trasmette continuamente a tutto volume death metal.



Va bene, la vista a infrarossi si scontrerebbe con alcuni problemi tecnici di rumore di fondo, ma perché allora non vedere le onde radio? Almeno quelle! In fin dei conti hanno strada libera nell'arrivare sulla superficie terrestre, lo si vede dalla figura!

Beh, perché non serve! Sebbene ce ne arrivino in grande quantità, alle specie viventi come noi vedere onde elettromagnetiche di lunghezza d'onda di svariati centimetri fino ai metri e più, non servirebbe a molto. Non sarebbe un superpotere utile, un bonus che migliorerebbe le nostre capacità di sopravvivenza (sempre la solita evoluzione della specie che ritorna!)

Non servirebbe perché onde elettromagnetiche di quella lunghezza d'onda avrebbero una risoluzione spaziale pessima. Ad esempio un ragno velenoso sarebbe invisibile, se "illuminato" da un'onda elettromagnetica di quel tipo, dato che, un'onda elettromagnetica può risolvere soltanto oggetti che hanno dimensioni maggiori della sua lunghezza d'onda. Molto maggiori se vogliamo vederne i dettagli, in modo da capire di cosa si tratti. Le onde radio, d'altra parte, passano i muri delle case, aggirano grandi ostacoli, proprio per questo motivo: hanno lunghezza d'onda sufficientemente grande da non accorgersi che stanno attraversando un muro, una casa, una foresta. Non "vedono" questi ostacoli!

E quindi vedere le onde con lunghezza d'onda di 10 metri non ci farebbe nemmeno trovare il portone di casa, non ci farebbe distinguere il cibo, non ci farebbe distinguere un coniglio da un leone. Un superpotere del tutto inutile, insomma. E l'evoluzione i gadget inutili li ignora. Avere i geni per vedere le onde lunghe, infatti, non costituirebbe alcun vantaggio evolutivo, ma appesantirebbe soltanto la struttura del corpo umano, dato che uno come minimo dovrebbe avere occhi specializzati giganteschi, tipo parabola satellitare. Certo, sarebbe stata una manna dal cielo per i produttori di collirio!