giovedì 12 dicembre 2019

Vannoni e Stamina: una truffa evidente che l'Italia non ha saputo riconoscere

E' notizia di questi giorni la morte di Davide Vannoni, il promulgatore del metodo Stamina. I titoli dei giornali si barcamenano fra "lo scienziato inventore del metodo Stamina", il "contestato" metodo Stamina, la "controversa terapia", "il padre contestato", etc. Nessuno, per lo meno fra i titoli che ho letto, ha avuto il coraggio di usare i termini corretti: ciarlatano per Vannoni, e truffa per il Metodo Stamina. Ed è per questo che Vannoni è stato condannato, e non certo perchè il metodo Stamina fosse semplicemente "contestato". Il fatto che sia morto non cambia né mitiga il giudizio. Su questo aspetto non c'è nulla da aggiungere, e non è di questo che voglio parlare. L'intera vicenda, per chi non se la ricordasse, è riassunta ad esempio qui, o qui.

La cosa che invece mi preme sottolineare è che in Italia testate giornalistiche, politici, rappresentanti della cultura e una parte tutt'altro che minoritaria dei cittadini abbiano dato credito a Vannoni, lo abbiano addirittura sostenuto e difeso, proponendolo come il paladino dei diritti dei malati, e accusando allo stesso tempo la scienza e gli scienziati di essere ottusi cattedratici. Questo è lo specchio del disastro culturale italiano, e della mostruosa ignoranza scientifica che ci caratterizza.

Cesare Vannoni in tribunale.

Sì, perché anche senza sapere nulla di Sclerosi Laterale Amiotrofica (la malattia che Vannoni asseriva di poter curare), né di cellule staminali (la tecnica che Vannoni asseriva di usare per curare i malati) era evidentissimo a chiunque avesse un minimo di rudimenti su come funziona la scienza che il metodo Stamina fosse una banale truffa. Ne aveva tutti i connotati, tutte le caratteristiche tipiche. Io non so nulla di SLA né di cellule staminali, ma non ho mai avuto il minimo dubbio che si trattasse di un imbroglio.

Perché vedete, la cultura scientifica non è sapere di scienza. Non è sapere di cellule o di galassie, non è saper risolvere esercizi con le molle, i campi magnetici e le derivate. La cultura scientifica è conoscere come procede la scienza. Il suo metodo, il suo linguaggio, e anche i suoi limiti, che cosa la scienza può dire e cosa non le compete. La cultura scientifica è conoscere come si arriva a una scoperta scientifica, i passi necessari, i controlli che devono essere fatti, gli errori di metodo dai quali bisogna cautelarsi. E nel caso Stamina, con un minimo di cultura scientifica, quella che si dovrebbe imparare dalla scuola, sia che si faccia il liceo tecnologico, una scuola umanistica o professionale, era evidentissimo che ci si trovava di fronte all'antitesi della scienza.

E la cosa grave è che la nazione Italia non sia stata in grado di capirlo al volo.

Infatti Vannoni aveva tutti i connotati tipici del ciarlatano. Vediamoli.

Non era un esperto del settore. Vannoni era laureato in Scienza della comunicazione, aveva scritto testi sulla persuasione nella pubblicità, e insegnava in una università telematica. Non era un biologo, non era un medico. La prima domanda che uno dovrebbe chiedersi è: è possibile che uno che nella vita si occupa di tecniche di persuasione nella pubblicità sia l'unico al mondo ad aver scoperto come si cura una malattia ritenuta incurabile, e sulla quale le equipe di scienziati in tutto il mondo non sono ancora giunti a sviluppare nessuna terapia efficace? Dove sta la mancanza di cultura scientifica qui? Sta nel fatto che in Italia in tanti, compresi politici, giornalisti e "uomini di cultura", hanno un'idea della scienza che è quella dei filmetti di serie B, o dei fumetti dell'Intrepido. Hanno l'idea dello scienziato che lavora nello sgabuzzino di casa, in segreto, da solo, e all'improvviso scopre "la formula!".  Hanno l'idea che la scienza sia una cosa da artigiani genialoidi, e ignorano totalmente cosa invece è necessario per arrivare a una scoperta di grande portata. Credono che arrivare alla cura del cancro, della SLA, dell'Alzheimer, ci si arrivi così, magari per caso. Uno fa un po' di intrugli, mescola, e ecco che - meraviglia - anche un laureato in scienza della comunicazione, del tutto avulso all'ambiente scientifico, possa arrivare a scoprire la cura di una malattia incurabile, alla faccia delle centinaia di esperti del campo che invece ancora sono lì a chiedersi quali siano i meccanismi che scatenano la malattia. Questa è l'idea che in Italia tanti hanno della scienza.

Evitava il confronto con la comunità scientifica. A Vannoni era stato chiesto di presentare un protocollo per testare il suo metodo, ma Vannoni ha a lungo rifiutato. Ha glissato continuamente, evitando perfino di dire che cosa somministrava ai suoi pazienti. Vannoni non ha mai pubblicato nulla a riguardo del suo metodo, su nessuna rivista specialistica del settore con peer review (e neanche senza peer review a dire il vero). Non ha mai partecipato a congressi del settore, né presentato i suoi risultati a congressi specialistici, e non si è mai confrontato con i gruppi di ricerca che nel mondo studiano la possibile cura alla SLA. Questo è tipico: dai presunti (e osannati) preveditori di terremoti, ai curatori di cancro con intrugli vari, ai venditori di cure miracolose, agli scopritori di energie illimitate e pulite, il must che li accomuna è evitare qualunque confronto scientifico con gli scienziati che professionalmente si occupano di quel campo di ricerca. Si parla con giornalisti, con i fan su Facebook, con il pubblico alle conferenze (magari a pagamento), ma con gli scienziati no. Al massimo si va a qualche congresso farsa, di quello nei quali, pagando, ti accettano anche la ricetta della carbonara come presentazione scientifica, per poi dire che hai presentato i tuoi risultati al megacongresso di specialisti. Non è uno scherzo, leggete questo articolo illuminante.

Era visto come il paladino della scienza libera, non schiavo del potere. Anche questo è tipico. Quando sei l'unico al mondo a dire di avere effettuato una scoperta epocale, e la comunità scientifica ne dubita, è garantito che il grande pubblico si schieri con te. Soprattutto se affermi di saper curare una malattia ritenuta incurabile. E non sto parlando dei malati, o dei familiari dei malati, che sono anche essi vittime del ciarlatano, e per i quali l'aggrapparsi a qualunque cosa che offra una speranza è più che comprensibile. Sto parlando della gggente. Quelli che stanno in salotto, leggono il titolo dell'articolo, e hanno subito capito tutto, e corrono su Facebook a dire la loro su come la scienza ufficiale (ma ne esiste un'altra?) sia ottusa e chiusa di mente. Usando tecnologie messe a loro a disposizione da quella scienza che criticano, e senza le quali non saprebbero vivere.

Si faceva pagare profumatamente, ma la cosa passava in secondo piano. Vannoni veniva visto come un benefattore, il paladino dei diritti del malati, ma la realtà era diversa. I trattamenti costavano cari, anche decine di migliaia di euro, venivano realizzati in condizioni precarie, in strutture tutt'altro che consone o adeguate, in condizioni igieniche a volte precarie, e non veniva rilasciata ricevuta... Quelle prassi che normalmente vengono giustamente richieste alla medicina ufficiale, per la medicina non ufficiale passano - chissà perché - in secondo piano.

Ecco, tutto questo rendeva lampante che dietro il caso Stamina non ci fosse nulla, se non una truffa. Era chiarissimo, anche senza essere esperti del campo. Bastava conoscere come funziona la scienza. La cosa vergognosa è quindi che in Italia non si sia stati capaci di riconoscere tutto ciò al primo sguardo.  Ma non solo, lo scandalo è che si sia dato credito a una cosa del genere, facendo allo stesso tempo passare gli scienziati come i soliti ottusi cattedratici. E' lo specchio, uno dei tanti, dell'Italia odierna.








lunedì 2 dicembre 2019

La teoria della relatività ristretta ridotta all'osso

La Teoria della Relatività è spesso considerata dal grande pubblico qualcosa di impossibile da capire per una persona normale. D'altra parte Einstein è il simbolo del genio per antonomasia, e quindi anche la sua "teoria" è da molti considerata inarrivabile ai non geni. E' probabilmente anche per questo che tutti quei discorsi sul tempo che aumenta, le distanze che si restringono, il gemello che resta giovane, la velocità della luce che non si può superare, scatenano la fantasia degli scienziati fa da te, che si cimentano in goffi tentativi di smentirle la Teoria della Relatività. Credo che questo derivi dal non aver capito che tutte questi fenomeni strani e controintuitivi non sono la Teoria della Relatività, ma le conseguenze della Teoria della Relatività, che di per sé è qualcosa di estremamente semplice e ovvio. 

Pe non parlar poi di E = mc2, e il fatto che "tutto ciò che è massa è anche energia" (lo metto virgolettato perché non è vero), e quindi a questo punto anche noi saremmo energia, cosa che scatena i pensieri più selvaggi e inconfessati del popolo della rete.
 
In realtà, consapevole di suscitare il disappunto di molti, in particolare di quelli che credono che la teoria della relatività ristretta sia una teoria estrema e arditissima, e quindi potenzialmente sbagliata (ma loro lo hanno scoperto!) la Teoria della Relatività Ristretta, a livello concettuale, è di una semplicità estrema, e segue un filo logico molto stringato e estremamente comprensibile. E di questo voglio parlarvi, a costo di smantellare l'aura di misticismo che tanti vedono attorno ad essa.


Sto parlando, lo sottolineo, della Teoria della Relatività Ristretta. La Teoria della Relatività Generale è un'altra cosa, e in quel caso il genio di Einstein ha veramente dato il massimo. Infatti, mentre la Teoria della Relatività Ristretta era comunque nell'aria già alla fine dell'800, e Einstein ha avuto il merito di tirare le fila di una serie di osservazioni già ben note, ma di cui nessuno aveva ancora compreso il vero impatto dal punto di vista fisico, per avere la Relatività Generale, che è sostanzialmente una nuova descrizione della gravitazione, senza Einstein probabilmente avremmo dovuto aspettare ancora un bel po'.

Se mi dovessero chiedere di definire la Teoria della Relatività Ristretta, quindi, non risponderei che è la teoria che prevede che il tempo bla bla... e le lunghezze bla bla... e l'equivalenza fra massa e energia ... bla bla ... e i gemelli bla bla. Niente di tutto questo: la teoria della relatività ristretta è l'estensione del principio di relatività a tutti i fenomeni fisici, sia meccanici che elettromagnetici. Tutto il resto, tutte le stranezze che turbano il sonno degli scienziati fai-da-te, sono le ovvie conseguenze di questo aspetto. Sottolineo ovvie.

Il principio di relatività è il fatto - sperimentalmente noto a tutti anche senza sapere nulla di fisica - che le leggi della natura sono le stesse in tutti i sistemi di riferimento che si muovono fra loro di moto rettilineo e uniforme. I cosiddetti sistemi di riferimento inerziali. In pratica tutti i sistemi di riferimento non sottoposti ad accelerazioni. Vedremo fra poco perché questo principio è inconsciamente noto a tutti, anche a chi odia la fisica.

Quindi, essendo le leggi fisiche le stesse in tutti questi particolari sistemi di riferimento, non esiste alcun tipo di esperimento in grado di mostrare se un sistema di riferimento inerziale sia in moto assoluto. Mangiare un gelato, ascoltare la radio, fare le capriole, guardare un film, respirare, scrivere, dormire, attirare pezzetti di ferro con la calamita, tutto avviene sempre allo stesso modo in qualunque sistema di riferimento inerziale, e non possiamo usare nessun processo fisico noto per dire se siamo fermi o in moto, tanto che la domanda stessa perde di significato. I sistemi di riferimento inerziali sono tutti perfettamente equivalenti, e la fisica non è in grado di distinguerli.

Questo aspetto è, come dicevo, qualcosa che tutti conosciamo bene. Quando siamo in aereo e ci muoviamo a 800 Km/h, una mosca intrappolata in cabina vola come volerebbe a casa nostra, l'acqua ha lo stesso sapore che se la beviamo al bar dell'aeroporto, e l'arrosto che ci danno sull'aereo farebbe ugualmente schifo anche mangiato al terminal nella zona imbarchi. Tutto si comporta allo stesso modo, sia sull'aereo in volo che a casa sul divano, e se non fosse per lo sballottamento dell'aereo (cioè le accelerazioni, ovvero le situazioni in cui l'aereo non si muove esattamente di moto rettilineo e uniforme, ma cambia di velocità) non potremmo dire se ci stiamo muovendo o stiamo fermi.

Avete poi presente quando siete fermi in stazione sul treno, e con la coda dell'occhio vedete il treno di fianco muoversi, e per un istante, finché non percepite qualche scossone (di nuovo, un'accelerazione!) non sapete dire se è il vostro treno a muoversi, o quello accanto? Ecco, in quel momento state sperimentando il Principio di Relatività. In quel momento non avete alcun modo per dire se siete voi a muovervi, o il treno accanto a voi. Niente vi viene in aiuto, perché effettivamente non cambierebbe niente, in nessuno dei due casi. E' solo in presenza di accelerazioni, che potete dare una risposta. Ovvero quando il vostro sistema di riferimento smette di essere un sistema di riferimento inerziale. Oppure, più banalmente, guardando la pensilina, che però soltanto per questioni di convenzione considerate essere ferma.

Questa cosa l'aveva già capita Galileo ai suoi tempi, e l'aveva chiamata il Principio di Relatività: le leggi della fisica sono le stesse in qualunque sistema di riferimento inerziale. E quindi anche le formule delle leggi fisiche devono essere le stesse in qualunque sistema di riferimento inerziale.

Questa invarianza, dal punto di vista matematico, è garantita dalle trasformazioni matematiche che mettono in relazione le coordinate spaziali e temporali di due sistemi di riferimento inerziali in moto relativo fra loro, e che prendono il nome di Trasformazioni di Galileo. Ad esempio la seconda legge di Newton, la famosa F=ma, non cambia di espressione se usiamo le trasformazioni di Galileo per esprimerla in un altro sistema di rifermento inerziale.

Una conseguenza ovvia e banale delle trasformazioni di Galileo è che se tizio si trova su un sistema di riferimento che si muove con velocità v rispetto al vostro (ad esempio è su un tapis roulant di quelli che ci sono negli aeroporti), e in aggiunta cammina sul tapis roulant con velocità u perché ha fretta, a quel punto voi, da fuori, lo vedete muoversi con velocità v + u. In altri termini le velocità fra due sistemi di riferimento inerziali si sommano o sottraggono a seconda del moto relativo dei due sistemi di riferimento. Ad esempio quando sorpasso una macchina che va a 120 in autostrada, mentre la sorpasso e ci passo accanto andando a 130 (sul blog rispetto sempre i limiti di legge), la vedrò di fatto retrocedere con una velocità di -10 Km/h. Molto ovvio e banale, insomma.

Però ai tempi di Galileo le leggi fisiche note erano solo quelle della meccanica: molle, piani inclinati, catapulte, etc. L'elettromagnetismo non era stato ancora scoperto, anche se il corpo umano è da solo una continua applicazione delle leggi dell'elettromagnetismo. Ma questa cosa non la sapevano ancora.

Alla fine dell'800 James Clerk Maxwell riassume le leggi dell'elettromagnetismo in 4 espressioni matematiche, che prendono il nome di Equazioni di Maxwell. Tutti i fenomeni elettromagnetici sono in quelle 4 formule, compresa la luce.

Perfetto, allora possiamo supporre che anche i fenomeni elettromagnetici rispettino il principio di relatività. In fin dei conti dicevamo che noi umani, con tutti i processi fisici e chimici che avvengono nel nostro corpo, siamo un laboratorio di elettromagnetismo che funziona full time, e se le leggi dell'elettromagnetismo fossero diverse in casa, su un treno, o su un pianeta che si muove di 30 Km/s attorno al sole, ce ne saremmo accorti! Quindi che il principio di relatività valga anche per le leggi dell'elettromagnetismo è un po' più di una semplice supposizione...

Però c'è un problema. Nelle equazioni di Maxwell - quelle leggi che hanno la pretesa di riassumere tutti i fenomeni elettromagnetici, e quindi valere ovunque, in qualunque sistema inerziale - compare un termine che ha le dimensioni di una velocità. E' la velocità delle onde elettromagnetiche nel vuoto: la velocità della luce.

E qui non ci vuole un genio per capire che c'è qualcosa che non va. Perché se pretendiamo che delle leggi che contengono al loro interno una velocità restino inalterate e valgano sempre in qualunque sistema di riferimento inerziale, perdiamo in partenza, perché una velocità non può restare la stessa in sistemi di riferimento inerziali diversi, in moto relativo fra loro. Ricordate il tapis roulant?

Quindi le equazioni di Maxwell non possono restare uguali passando da un sistema di riferimento inerziale a un altro, con quella velocità tra le scatole!

Ma attenzione: questo avviene se si assume che le trasformazioni che mettono in relazione le coordinate spaziali e temporali fra due sistemi di riferimento inerziali siano le trasformazioni di Galileo. Quelle trasformazioni di coordinate che rendono le leggi della meccanica identiche passando da un sistema inerziale a un altro, e che come sottoprodotto danno il fatto che le velocità si sommano o sottraggono, se confrontate fra sistemi di riferimento diversi.

Allora chiediamoci: quali trasformazioni di coordinate renderebbero invarianti le equazioni di Maxwell nella forma, nella loro espressione matematica, passando da un sistema di riferimento inerziale a un altro?

E' un esercizio di matematica (lo imparai a Fisica 1), e il risultato è un nuovo set di trasformazioni di coordinate, che prendono il nome di trasformazioni di Lorentz.


Le trasformazioni di Lorentz hanno un'espressione un po' strana. Contengono dei termini che perdono di significato matematico quando la velocità di un sistema di riferimento rispetto all'altro diventa uguale alla velocità della luce. Segno che quando ci si avvicina alla velocità della luce possono succedere cose a cui normalmente non siamo abituati.

Però, se la velocità in gioco è piccola rispetto alla velocità della luce, esse ci ridanno le famose trasformazioni di Galileo. Sono diverse quando le velocità in gioco sono prossime alla velocità della luce, ma sono praticamente indistinguibili dalle vecchie trasformazioni di Galileo quando le velocità sono piccole rispetto alla velocità della luce c, che è costante in qualunque sistema di riferimento. Se così non fosse, le equazioni di Maxwell, che contengono al loro interno la velocità della luce, varrebbero solo in uno specifico sistema di riferimento, e potremmo usare esperimenti di elettromagnetismo per determinare il sistema di riferimento prescelto in cui le leggi dell'elettromagnetismo sono quelle scritte sui libri. Michelson e Morley, e molti altri dopo di loro, ci hanno provato, ma i loro esperimenti hanno sempre miseramente fallito nell'intento.

Le Trasformazioni di Lorentz sono quindi le trasformazioni di coordinate che cercavamo: quelle che preservano l'invarianza delle leggi dell'elettromagnetismo in qualunque sistema di rifermento inerziale, qualunque sia il valore delle velocità in gioco.

E ovviamente anche la legge di somma delle velocità che si ottiene dalle trasformazioni di Lorentz è diversa da quella di Galileo. Se le velocità sono prossime alla velocità della luce, scopriamo che se corriamo dietro a un raggio di luce, questo ci apparirà correre comunque alla velocità della luce, per quanto noi lo inseguiamo velocemente. La velocità della luce non si lasca sommare o sottrarre con nessuna altra velocità. Le equazioni di Maxwell restano sempre uguali.

Però, se la velocità in gioco sono piccole rispetto alla velocità della luce, ecco che la nuova formula approssima perfettamente la legge di somma delle velocità che tutti conosciamo, come ce l'aveva insegnata Galileo.

Tutto risolto, quindi?

Manca ancora qualcosa, in realtà. Se applichiamo le trasformazioni di Lorentz alle leggi della meccanica (F=ma, p=mv, quella roba lì, per capirci), queste cambiano di espressione matematica, cambiano di forma passando da un sistema inerziale a un altro. E quindi violerebbero il principio di relatività, ovvero avremmo un modo per dire, utilizzando le leggi della meccanica, se ci stiamo muovendo o siamo fermi, e saremmo daccapo. D'altra parte lo sapevamo già che sono le trasformazioni di Galileo a rendere invarianti le formule delle leggi della meccanica.

E allora?

E allora è semplice (si fa per dire). Basta solo avere il coraggio per dire che allora le leggi della meccanica, quelle che conoscevano Newton e Galileo, non sono quelle corrette! E quindi troviamo come dovrebbero essere le leggi della meccanica, in modo da restare uguali passando da un sistema inerziale a un altro non secondo le vecchie trasformazioni di Galileo, ma secondo le nuove trasformazioni di Lorentz. Quelle che vengono fuori, ancora una volta, sono molto diverse se le velocità in gioco sono prossime a quelle della luce, ma diventano uguali a quelle già note, quando la velocità in gioco è piccola rispetto alla velocità della luce. Non ce ne eravamo mai accorti, perché tutte le cose che facciamo in meccanica sono sempre a basse velocità rispetto alla velocità della luce. E' solo con la scoperta dell'elettromagnetismo che il problema è saltato fuori, perché l'elettromagnetismo è un tutt'uno con la luce!

Questa è la Teoria della Relatività Ristretta.

Tutto il resto, la storia dei gemelli, E = mc2, le lunghezze che si contraggono, gli orologi che vanno lenti, etc, sono conseguenze di tutto questo e vengono fuori pari pari dal fatto che le trasformazioni corrette che mettono in relazione due sistemi di riferimento inerziali sono le trasformazioni di Lorentz, e non le "vecchie" trasformazioni di Galileo, che però vanno benissimo quando le velocità in gioco sono piccole rispetto alla velocità della luce (ed è per questo che non ci eravamo mai accorti che non erano quelle giuste!).

Alcuni credono che la Teoria della Relatività sia una complicazione aggiunta da Einstein alle leggi della fisica. Credono, costoro, che senza questa complicazione, che essi reputano sbagliata, tutto sarebbe molto più semplice. Se invece avessero capito che cos'è realmente la teoria della Relatività, si accorgerebbero che essa è invece una meravgliosa sintesi, una semplificazione delle leggi della natura. Altrimenti avremmo dovuto scrivere tanti libri di fisica, ognuno valido per ogni specifico sistema di riferimento inerziale. Una complicazione non da poco, e poi ti voglio vedere a prendere 6 all'interrogazione!
 





martedì 26 novembre 2019

Perché l'occhio umano vede la luce visibile?

E perché solo quella?


Perché i nostri occhi vedono la luce del sole, e solo quella? Sembra una domanda stupida, vero? Beh, non lo è affatto. 

Infatti la luce cosiddetta "visibile" è solo una piccolissima porzione dell'intero campionario di "luce", genericamente chiamata spettro elettromagnetico, che esiste in natura. Fra onde radio, che possono avere lunghezza d'onda di chilometri, fino ai raggi gamma di altissima energia, con lunghezze d'onda inferiori alle dimensioni di un nucleo atomico, intercorrono qualcosa come 20 ordini di grandezza, e le lunghezze d'onda della luce visibile sono un nonnulla, che va più o meno da 400 a 700 miliardesimi di metro (400 è la luce blu-violetta, 700 è la luce rossa).

Tutte queste onde sono concettualmente la stessa cosa. Tutte quante, nel vuoto, viaggiano alla velocità della luce. L'unica cosa che le contraddistingue è la loro lunghezza d'onda, o la frequenza, due quantità inversamente proporzionali, dato che Lunghezza d'onda = velocità della luce/frequenza.  Minore lunghezza d'onda corrisponde anche a una maggiore energia.

Quindi, se concettualmente queste onde sono sempre la stessa cosa, perché vediamo proprio la luce visibile e non, ad esempio, le microonde o i raggi X? Non sarebbe stato bello, e magari anche utile, vedere tutto lo spettro elettromagnetico?

Il motivo è nel modo in cui funziona l'evoluzione della specie, con buona pace dei "disegnatori intelligenti". Infatti, se l'uomo fosse "perfetto", come essi sostengono, perché non può vedere anche le altre parti dello spettro elettromagnetico? Perché queste cose riescono a farle solo i supereroi dei fumetti?




Guardate questa figura. Le parti marroncine indicano le lunghezze d'onda che vengono assorbite dall'atmosfera. Raggi Gamma, X e parte degli UV, quelli a più piccole lunghezze d'onda, sono completamente assorbiti dall'atmosfera, e quindi non arrivano sulla superficie terrestre. Per fortuna, perché altrimenti non esisterebbe la vita, per lo meno nella forma che conosciamo. Questo tipo di onde elettromagnetiche, infatti, è altamente ionizzante, e quindi molto pericoloso per la salute. Perfino virus e batteri, che si adattano a tutto, gradirebbero poco un pianeta in cui queste frequenze dovessero arrivare fino alla superficie. Non è un caso che negli ospedali utilizzino proprio i raggi UV di maggiore energia per sterilizzare gli strumenti chirurgici.

Quindi il nostro occhio non vede queste lunghezze d'onda perché sarebbe inutile vederle. A che serve vedere qualcosa che sulla superficie terrestre non arriva, e che, sempre sulla superficie terrestre, non viene prodotta naturalmente? E quindi, siccome l'evoluzione schifa tutte le cose inutili, il nostro occhio non ha l'optional di vedere questa parte dello spettro elettromagnetico, perché avere un apparato sensibile  ai raggi X e tenerlo perennemente inutilizzato (salvo che per quei pochi secondi dal dentista) sarebbe qualcosa che ci esporrebbe soltanto maggiormente a malattie. Come se l'elefante avesse le ali, senza però poter volare. Quelle ali sarebbero a rischio infezioni, ferite, ascessi, fratture, oltre a essere un fastidio non da poco fra gli alberi della savana, senza servire a nulla di utile.

E quindi uno dei motivi per cui vediamo la luce visibile è che essa è fra le poche zone dello spettro elettromagnetico che non è filtrato dall'atmosfera. E siccome per vedere gli oggetti, questi devono essere illuminati da qualcosa, ovvero l'onda elettromagnetica che gli arriva addosso deve interagire con l'oggetto in modo da portare al nostro occhio i dettagli di quell'oggetto (il colore, la forma), è del tutto ovvio che l'occhio umano si sia evoluto proprio per vedere la luce che chiamiamo visibile.

C'è un altro motivo che ha facilitato la nostra visione della luce visibile: la luce visibile è quella che maggiormente penetra sotto la superficie del mare. E siccome in passato eravamo tutti pesci, (di questo ne abbiamo altre tracce nell'anatomia del nostro corpo) ecco che il nostro occhio attuale ha ereditato dai nostri antichi progenitori la capacità di vedere quelle lunghezze d'onda e non altre. 

Però uno potrebbe dire: bene, ho capito che non avrebbe senso vedere quella parte dello spettro elettromagnetico che non arriva sulla superficie terrestre, perché assorbita dall'atmosfera. Ho capito che questo sarebbe inutile. Però perché non vedere gli infrarossi? C'è poi una bella finestra di quasi tre ordini di grandezza in frequenze (o lunghezze d'onda) di onde radio, che l'atmosfera lascia passare indisturbata! Non solo: gli oggetti caldi emettono essi stessi infrarossi. Tutti gli esseri viventi a sangue caldo emettono infrarossi, per non parlare di una panchina di ferro sotto il sole, o la bistecchiera sul fornello. Perché il nostro occhio non vede quelle frequenze?







Ci sono alcuni animali che in effetti vedono gli infrarossi. Ad esempio i serpenti. Un essere vivente a sangue caldo emette infrarossi più che l'ambiente circostante, e quindi, se si vive ad altezza suolo, in mezzo all'erba, e ci si ciba di topi, vedere un oggetto vivo tramite il calore che emette può essere molto vantaggioso, perché quel calore risulta ben evidente anche fra le foglie (che sono più fredde), mentre la sua immagine nel visibile sarebbe molto più confusa. Quindi vedere gl infrarossi per gli animali che strisciano risulta vantaggioso. Ma allora, non potrebbe essere vantaggioso anche per noi umani? Certo, la cosa richiederebbe una struttura dell'occhio più complessa, ma magari avere un sensore dedicato a vedere l'infrarosso poteva aiutare, no?

Qui io ho un'ipotesi, che però è solo una mia idea. Noi siamo esseri a sangue caldo. E quindi tutto attorno all'occhio, e l'occhio stesso, o l'ipotetico sensore per infrarossi, emetterebbe infrarossi! Quindi il nostro ipotetico occhio capace di vedere gli infrarossi sarebbe sommerso da un enorme rumore di fondo (infrarossi all around!), e la sua portentosa capacità diventerebbe inutile. Un po' come ascoltare i dettagli del suono dell'arpa in un mondo che trasmette continuamente a tutto volume death metal.



Va bene, la vista a infrarossi si scontrerebbe con alcuni problemi tecnici di rumore di fondo, ma perché allora non vedere le onde radio? Almeno quelle! In fin dei conti hanno strada libera nell'arrivare sulla superficie terrestre, lo si vede dalla figura!

Beh, perché non serve! Sebbene ce ne arrivino in grande quantità, alle specie viventi come noi vedere onde elettromagnetiche di lunghezza d'onda di svariati centimetri fino ai metri e più, non servirebbe a molto. Non sarebbe un superpotere utile, un bonus che migliorerebbe le nostre capacità di sopravvivenza (sempre la solita evoluzione della specie che ritorna!)

Non servirebbe perché onde elettromagnetiche di quella lunghezza d'onda avrebbero una risoluzione spaziale pessima. Ad esempio un ragno velenoso sarebbe invisibile, se "illuminato" da un'onda elettromagnetica di quel tipo, dato che, un'onda elettromagnetica può risolvere soltanto oggetti che hanno dimensioni maggiori della sua lunghezza d'onda. Molto maggiori se vogliamo vederne i dettagli, in modo da capire di cosa si tratti. Le onde radio, d'altra parte, passano i muri delle case, aggirano grandi ostacoli, proprio per questo motivo: hanno lunghezza d'onda sufficientemente grande da non accorgersi che stanno attraversando un muro, una casa, una foresta. Non "vedono" questi ostacoli!

E quindi vedere le onde con lunghezza d'onda di 10 metri non ci farebbe nemmeno trovare il portone di casa, non ci farebbe distinguere il cibo, non ci farebbe distinguere un coniglio da un leone. Un superpotere del tutto inutile, insomma. E l'evoluzione i gadget inutili li ignora. Avere i geni per vedere le onde lunghe, infatti, non costituirebbe alcun vantaggio evolutivo, ma appesantirebbe soltanto la struttura del corpo umano, dato che uno come minimo dovrebbe avere occhi specializzati giganteschi, tipo parabola satellitare. Certo, sarebbe stata una manna dal cielo per i produttori di collirio!



giovedì 14 novembre 2019

Il quantistico che fa piangere i fisici

L'entanglement quantistico spiegato ai cazzari (e speriamo che ponno capì!)

Medicina quantica, guarigione quantica, terapia quantica, architettura quantica, vino quantico, profilattico quantico. Giuro, esiste anche quello, e considerato che in meccanica quantistica esiste l'effetto tunnel, non credo sia stata una grande trovata. Da qualche anno il termine quantico, o il suo sinonimo quantistico, è diventato come la rucola, e lo trovi in tutto ciò che vorrebbe sembrare l'ultima scoperta scientifica, essendo invece una montagna di sciocchezze.



Ma a parte questo folclore, capita anche di leggere cose del genere (vedi link all'articolo completo) ad opera di un primario in psicologia di una Ausl di una importante città italiana:

"La teoria dell’Entanglement riconosce un ruolo di particolare rilevanza alla Mente e alle sue capacità di influenzare la realtà circostante attraverso l’energia/informazione degli atteggiamenti mentali, delle intenzioni e dei sistemi di credenze (...). Allo scopo di diffondere questa concezione innovativa (...) operiamo professionalmente per diffondere l’Entanglement nei processi di cura e nel mantenimento della salute."

A questo punto, di fronte a una frase del genere, a un fisico gli viene un coccolone. Nella frase in cui si dice che l'entanglement riconosce un ruolo di rilevanza alla Mente (maiuscolo!) e alla sua (della Mente) capacità di influenzare la realtà attraverso etc etc, è racchiusa tutta la totale incomprensione, da parte di chi fa queste affermazioni, di cosa sia l'entanglement, e cosa sia la meccanica quantistica. Un fisico capisce al volo che chi ha proferito questa frase non ha capito veramente nulla di queste cose.


E quindi vediamo di spiegare che cos'è l'entanglement quantistico passo passo, e spiegare anche perché l'entanglement e la meccanica quantistica non solo non c'entrano nulla con queste affermazioni, ma anzi, semmai dovessero entrarci, direbbero esattamente l'opposto! Cercherò di farlo nel modo più semplice possibile.

Quello che scriverò è più o meno il riassunto di un mio intervento al recente Cicap Fest a Padova, intitolato "Il quantistico che fa piangere i fisici".

La storia inizia alla fine del 1800, quando la fisica è rappresentata in modo emblematico da Isac Newton. La fisica Newtoniana è una fisica deterministica. Deterministica significa che, dato un sistema (una macchina fatta di ingranaggi e molle, un sistema planetario, una lavatrice...), e supponendo di conoscere con precisione le condizioni del sistema a un certo istante iniziale (la posizione, la velocità, la composizione di tutte le parti del sistema) è possibile, almeno in linea di principio, conoscere come evolverà il sistema a qualunque istante successivo, e quindi sapere come esso ci apparirà a seguito di una misura della sua "condizione".

Potrà essere complicatissimo, o perfino impossibile dal punto di vista pratico (pensiamo a un gas o un fluido, o anche il cestello coi panni della lavatrice, dove non possiamo conoscere la posizione e la velocità di tutto le particelle, e per questo possiamo descrivere il suo comportamento soltanto dal punto di vista statistico), ma concettualmente (è questo il punto) non c'è nulla che lo vieti.

E a sancire il successo di questa fisica ci pensa Urbain Le Verrier, un astronomo che a metà dell'800 ipotizza che certe anomalie dell'orbita del pianeta Urano siano dovute alla presenza di un ulteriore pianeta ancora sconosciuto, la cui presenza ne altererebbe il moto. E Le Verrier calcola, applicando proprio le leggi fisiche dell'epoca, quale dovrebbe essere la posizione nel cielo di questo nuovo ipotetico pianeta. E lo dice agli astronomi: "Astronomi, puntate i vostri telescopi lì, e vedrete che ci troverete un pianeta ancora ignoto".

Gli astronomi lo fanno e scoprono, proprio dove aveva detto Le Verrier, a meno di un grado di distanza nel cielo, quello che in seguito verrà chiamato il pianeta Nettuno.

Un successo incredibile: l'esistenza di un nuovo pianeta scoperta a tavolino, applicando le leggi fisiche note.

Sull'onda di questo successo, e nella convinzione che ormai la conoscenza dei fenomeni fisici sarebbe stata tutta una discesa, si entra nel ventesimo secolo, e si scoprono gli atomi. E dentro gli atomi i loro costituenti, gli elettroni, i nuclei, e così via. Quello che in gergo verrà chiamato il mondo dei quanti.

E qui... "Huston we have a problem"

Abbiamo un problema perché quelle leggi deterministiche, che pure avevano riscosso successi così clamorosi da farci prevedere la posizione di un nuovo pianeta sconosciuto nel cielo, falliscono miseramente se applicate al mondo dell'estremamente piccolo.

Falliscono talmente tanto che i fisici, nei primi 30 anni del ventesimo secolo, inventano una nuova meccanica per descrivere il mondo dei quanti: la meccanica quantistica.

La meccanica quantistica funziona benissimo. Descrive tutti quei fenomeni dove la fisica di Newton alzava bandiera bianca, ci da una spiegazione chiara degli spettri atomici, e combinata alla teoria della relatività ci indicherà perfino l'esistenza dell'antimateria.

Però ha un problema. Ha il problema che, contrariamente alla fisica di Newton, non è possibile dal punto di vista concettuale prevedere quale sarà l'esito di una misura su un sistema quantistico.

Infatti, mentre secondo la fisica classica una misura svela una condizione preesistente del sistema, una sua proprietà che esisteva già prima di effettuare la misura, nella fisica quantistica è l'atto della misura a determinare la condizione del sistema. Condizione che non è quindi determinata prima della misura stessa. Ma non nel senso che non è determinata perché non la conosciamo, ma proprio perché il sistema non ha una condizione determinata prima di effettuarne la misura (vedi nota 1 a piè pagina)

Quello che sa fare questa nuova fisica non è quindi quello di prevedere con certezza l'esito di una misura su un sistema quantico. La meccanica quantistica può soltanto calcolare la probabilità che, a seguito di una misura, il nostro sistema ci appaia in un certo modo, oppure un altro, o un altro ancora. L'atto della misura, secondo la meccanica quantistica, obbliga il sistema a "scegliere" fra una delle condizioni possibili, a caso in base alle probabilità assegnate (che - quelle sì - la meccanica quantistica può calcolare). Come avvenga questa "scelta", ovvero ciò che tecnicamente si chiama il "collasso della funzion d'onda", o anche la "riduzione del pacchetto", la meccanica quantistica non lo dice.

E' come se, immaginando il sistema solare come un sistema quantistico (cosa che ovviamente non è), non fosse possibile prevedere dove ci apparirà il pianeta Nettuno andandolo a cercare col telescopio, ma fossimo soltanto in grado di calcolare quale sarà la probabilità di trovarlo in un certo punto o in un altro dell'orbita. E è solo nel momento in cui puntiamo il telescopio nel cielo che il pianeta Nettuno assume una posizione definita.

Questo aspetto della nuova meccanica viene accettato per quello che è dalla maggior parte dei fisici (la cosiddetta "scuola di Copenaghen"), senza stare troppo a cavillare. Il motivo è che la meccanica quantistica funziona meravigliosamente bene, e permette e permetterà in futuro la scoperta di nuovi fenomeni, e la realizzazione di applicazioni pratiche, un paio fra tutte il laser e il transistor, il cui funzionamento è spiegabile solo tramite la meccanica quantistica.

Quindi i fisici dicono sostanzialmente "va bé, non capiamo questo aspetto della natura, ci sembra strano, assurdo o contro intuitivo, ma chi se ne frega: la meccanica quantistica funziona troppo bene per essere sbagliata, e se la natura ha deciso di funzionare così a livello microscopico, noi ne prendiamo atto". Shut up and calculate, insomma.

Questa situazione però non piace ad alcuni, tra cui Albert Einstein, che pur essendo stato uno dei padri fondatori della meccanica quantistica con la sua spiegazione dell'effetto fotoelettrico e della quantizzazione della radiazione elettromagnetica, e pur conoscendo bene l'efficacia della meccanica quantistica nel descrivere il comportamento del mondo microscopico, non se ne capacita che "Dio giochi ai dadi".

In questa frase, una delle più travisate e non capite della storia dell'umanità, in particolare da parte dei pensatori della domenica che si cimentano in tuttologia, Einstein vuole sottolineare come ritenga impossibile che un sistema, ancorché quantistico, non abbia realmente una condizione determinata prima di effettuarne la misura. Egli crede piuttosto che la natura ci appaia comportarsi così semplicemente perché la nostra conoscenza della meccanica quantistica è incompleta, ci manca un pezzo. Se conoscessimo realmente tutto del funzionamento del mondo quantistico, scopriremmo che l'esito di una misura, anche nel caso di un sistema quantistico, è perfettamente determinato fin dall'inizio, come per la fisica classica, e come per il caso del pianeta Nettuno.

Per fare una analogia (è solo una analogia, per capire cosa intende Einstein, non la prendete troppo alla lettera), è come quando lanciamo una moneta: l'esito del lancio ci appare indeterminato finché la moneta non si posa sul tavolo, e possiamo calcolarne soltanto la probabilità. Tuttavia, se conoscessimo con precisione il modo in cui lanciamo la moneta, la direzione, la velocità, le asperità del tavolo, le micro correnti d'aria, e tutti i dettagli del problema, potremmo addirittura calcolare, e quindi prevedere su che faccia si poserà la moneta.

Quindi è solo la nostra ignoranza di questo insieme di informazioni che ci fa credere che l'esito del lancio sia intrinsecamente indeterminato prima che la moneta si posi. In realtà, invece, è tutto scritto fin dall'inizio, e la moneta sa già su che faccia dovrà posarsi, fin dal momento in cui lascia la nostra mano.

E per sottolineare maggiormente quanto, secondo lui, fosse inaccettabile dal punto di vista concettuale la descrizione dei fenomeni quantistici, propone questo esperimento, all'epoca solo mentale ma realizzato in seguito, che prende il nome di argomento, o paradosso, di Einstein, Podolsky e Rosen (abbreviato EPR).

Il paradosso EPR, che rappresenta uno dei punti più importanti nella storia della comprensione dei fenomeni quantistici, e a mio parere anche uno dei contributi maggiori di Einstein alla fisica, è il seguente (vedi nota 2 a piè pagina).

Prendiamo una particella quantistica come un elettrone. Tra le varie proprietà che esso ha, c'è quella di avere uno spin. A noi in questo frangente non interessa affatto sapere cosa sia lo spin, ma ci basta sapere che, ogni volta che misuriamo lo spin di un elettrone, otteniamo o il valore "SU", o il valore "GIU'". L'elettrone, insomma, è come se avesse una freccetta che porta sempre con sé, che si presenta sempre soltanto rivolta verso l'alto o verso il basso.

La meccanica quantistica stessa prevede però che il valore dello spin non sia intrinsecamente determinato prima di effettuarne la misura, e è l'atto stesso della misura dello spin che -  in modo a noi sconosciuto, e che la meccanica quantistica non descrive -  "obbliga" l'elettrone ad assumere, in modo del tutto casuale, lo spin "SU", oppure "GIU'", con il 50% delle probabilità.

Fin qui, niente di nuovo rispetto a quanto sappiamo già.

A questo punto, dicono EPR, consideriamo una particella che abbia spin 0, e supponiamo che questa particella ad un certo punto decada in due elettroni. La particella iniziale improvvisamente - puff - scompare, e al suo posto compaiono due elettroni che si allontanano reciprocamente, uno che va da una parte, e uno dall'altra. Sembra una cosa strana, ma sono fenomeni molto comuni e molto studiati nel mondo della fisica quantistica.

Ora, siccome la particella iniziale aveva spin 0, e lo spin è una di quelle quantità che si conserva sempre nei processi fisici (come ad esempio la quantità di moto), anche la somma degli spin dei due elettroni in cui essa è decaduta dovrà essere pari a zero. E siccome gli spin degli elettroni possono essere soltanto "SU" o "GIU'", inevitabilmente i loro spin dovranno essere opposti per dare un risultato di spin nullo: se un elettrone ha spin "SU", l'altro dovrà avere lo spin "GIU'", o viceversa.

Stati di quest tipo si chiamano "entangled", che significa "intrecciato, aggrovigliato". Il motivo è che le proprietà dei due elettroni nello stato finale non sono indipendenti le une dalle altre, ma risentono del fatto che i due elettroni provengono da una particella comune, e quindi ne devono conservare certe proprietà, in questo caso lo spin. Il fenomeno di cui stiamo per parlare si chiama  "entanglement quantistico",

Sebbene lo spin dei due elettroni debba essere correlato, provenendo entrambi dalla stessa particella madre (sono entangled), la stessa meccanica quantistica ci dice che, prima della misura, il valore dello spin dei singoli elettroni è intrinsecamente non determinato, e sarà l'atto stesso della misura a "decidere" (attraverso un meccanismo che la meccanica quantistica non descrive) qual elettrone sarà "SU" e quale invece sarà "GIU'".

Allora supponiamo di fare la misura dello spin su uno dei due elettroni, mettiamo quello di destra. Un attimo prima della misura l'elettrone, secondo la meccanica quantistica, non aveva uno spin determinato, ma nel momento in cui andiamo a farne la misura l'elettrone - etvoilà! - sceglie, perfettamente a caso, uno dei due valori dello spin, o "SU", o "GIU'". Supponiamo scelga "SU". Aveva il 50% di probabilità, e ha scelto "SU" (il discorso vale analogo anche se avesse scelto "GIU'", ovviamente).

Bene: a questo punto però abbiamo la certezza che, a seguito del risultato "SU" sul nostro elettrone su cui abbiamo effettuato la misura, anche l'altro elettrone, su cui non abbiamo effettuato alcun tipo di misura, e anzi, che non ci siamo filati di striscio, assumerà istantaneamente lo stato di spin "GIU'". La misura dello spin su uno dei due elettroni ha avuto un effetto immediato e istantaneo anche sull'altro elettrone, sul quale non abbiamo agito in alcun modo.

Ma attenzione, questo avviene ovunque siano questi due elettroni, che quindi potrebbero essere ai capi estremi della galassia, o distanti miliardi di anni luce: l'atto della misura su uno dei due elettroni entangled, ha un effetto immediato e istantaneo anche sulla condizione dell'altro elettrone, ovunque esso sia nell'universo.

E questo - dice Einstein - è impossibile!

E' impossibile perché violerebbe uno dei principi sacrosanti non solo della fisica, ma più in generale del nostro modo di concepire e descrivere il mondo, anche senza sapere niente di fisica. Violerebbe la "località".

Località vuol dire che se compio un azione qui e adesso, affinché questa azione produca un effetto laggiù, qualcosa deve propagarsi fra qui e laggiù, e nel tempo che intercorre fra i due eventi. Qualcosa deve interconnettere localmente, punto per punto nello spazio e nel tempo, ciò che è avvenuto qui con ciò che si ripercuote laggiù. Non è possibile che quello che faccio qui e adesso svanisca e riappaia laggiù in un tempo successivo, senza che nulla sia avvenuto nel frattempo nello spazio che c'è fra qui e laggiù, e nel tempo che intercorre fra i due eventi.

Tutti i fenomeni che conosciamo, di qualunque tipo, rispettano questo principio, che si chiama appunto "principio di località". Questo fenomeno invece - dice EPR - lo violerebbe. E questo è impossibile.

E siccome, continua EPR, non ci credo neanche morto che possa essere violata la località, che è un cardine portante del nostro modo di descrivere tutto ciò che avviene, allora vuol dire - di nuovo - che la nostra conoscenza della meccanica quantistica è incompleta. Vuol dire che non conosciamo tutto, ci mancano dei pezzi, ci devono essere delle "variabili nascoste" che non conosciamo. Se conoscessimo questa parte che ci manca, continua EPR, come per il lancio della moneta scopriremmo che i due elettroni hanno già deciso in partenza come dovranno risultare a seguito della misura, e è solo la nostra ignoranza di come realmente funzionano i fenomeni quantistici che ci fa credere il contrario, e ci porta a concludere che venga violata la località. Se sapessimo tutto della meccanica quantistica, se conoscessimo queste variabili nascoste, scopriremmo che la località non viene affatto violata.

L'argomento EPR, quando fu proposto nel 1935, per certi versi cadde nel vuoto. I fisici in parte lo ignorarono, in parte non lo capirono, in parte lo snobbarono, sempre secondo il motto di "shut up and calculate". Se uno si va a leggere la risposta che Bohr, il guru della meccanica quantistica dell'epoca, diede a Einstein sull'argomento EPR (fonte), la reazione immediata che sorge spontanea è: "ma questo non aveva capito proprio!". La profondità e la sottigliezza del paradosso EPR deve aspettare quasi 30 anni per essere presa sul serio. Einstein nel frattempo muore.

Nel 1964 arriva John Steward Bell, un irlandese dell'Irlanda del Nord, che lavora nel gruppo teorico al Cern. John Bell prende un anno di congedo e nel frattempo mette a punto un "metodo" per mettere alla prova l'argomento EPR. Un metodo grazie al quale diventa possibile verificare sperimentalmente se i fenomeni quantistici sono realmente non locali, oppure, detto in poche parole, se gli elettroni sono d'accordo fin dall'inizio sull'esito delle misure, e quindi esistono variabili nascoste che rendono la meccanica quantistica così come la conosciamo una teoria incompleta, ed è solo per colpa di questa incompletezza che la località ci appare violata, mentre nella realtà essa viene preservata.

John Bell, formulando la "disuguaglianza" che prende il suo nome, ha l'immenso merito di trasformare quello che sembrava un problema puramente metafisico, come proposto da EPR, in un problema strettamente scientifico, proponendo un metodo per misurare, e quindi eventualmente falsificare le due ipotesi.

Nel 1964 non c'è ancora la tecnologia adatta per fare questo tipo di esperimento, e bisognerà aspettare una decina di anni. Oggi questi esperimenti sono stati effettuati una miriade di volte, in modi diversi e con tecniche sempre più raffinate. E il risultato è inequivocabile: i fenomeni quantistici violano la località. Gli esperimenti che utilizzano la disuguaglianza di Bell mostrano che nessun tipo di teoria a variabili nascoste che preservi la località è compatibile con i risultati sperimentali, risultati che al contrario sono perfettamente in accordo con le previsioni della meccanica quantistica in quanto teoria non locale.

John Bell muore improvvisamente il 1 ottobre del 1990, senza sapere che il comitato dei Nobel, che avrebbe reso noti i nomi dei vincitori di lì a pochi giorni, aveva già deciso di assegnargli il premio per la Fisica.

A questo punto abbiamo tutti gli ingredienti per capire dove nasce questo delirio sulla meccanica quantistica applicata nei campi più svariati, dal vino alla meditazione, dall'architettura alla medicina. E soprattutto abbiamo anche tutti gli ingredienti per capire dove questa gente sbaglia nel chiamare in causa la meccanica quantistica. Che siano in buona fede o in mala fede, la cosa cambia poco, perché in tutti i casi essi credono che la meccanica quantistica possa sdoganare scientificamente le loro frasi in libertà.

Vediamo dove sbagliano.

Innanzitutto l'utilizzo dell'entanglement per giustificare questa specie di olismo cosmico che caratterizza tante affermazioni, come ad esempio la dichiarazione del primario in psicologia riportata all'inizio, e addirittura l'intento di usarlo per curare le persone. Costoro basano le loro convinzioni partendo da fatto che l'entanglement mantiene una relazione fra due particelle, pur enormemente separate fra loro, tanto che una azione (una misura) compiuta su una delle due particelle si ripercuote immediatamente anche sulla condizione dell'altra, qualunque sia la distanza che le separa.

In una estrapolazione del tutto arbitraria, essi sostengono che l'entanglement indichi che tutto è in perennemente collegamento a tutto, e ogni azione che io compio si ripercuote ovunque nell'universo e allo stesso tempo tutto ciò che avviene nell'universo si ripercuote istantaneamente su di me e su tutti gli altri esseri dell'universo. Un volemosebene cosmico, insomma. Eh sì, perché l'olismo per i cazzari è sempre buono. L'olismo trasmette il bene, ma mai le cose orrende che pure continuamente avvengono nel mondo. Le molecole d'acqua si trasmettono olisticamente il ricordo di essere entrate in contatto con una molecola di principio attivo "buono", ma non si trasmettono mai il ricordo dei colibatteri.

L'errore in tutto questo sta innanzitutto nel non aver capito che il fenomeno dell'entanglement vale per coppie, o comunque per insiemi di particelle quantistiche opportunamente preparate. Non è che se prendo due elettroni a caso, questi sono entangled. Anzi, è vero il contrario! Ma oltre a questo, il  fenomeno avviene comunque solo su particelle o sistemi quantistici, e non su esseri umani di 90 chili! Ma su questo ci ritorneremo.

Non solo, ma questa gente ignora (non è colpa loro, non si può sapere tutto, ma bisognerebbe avere anche il buon senso e l'umiltà di chiedere a qualche esperto, se di mestiere fai lo psicologo e vuoi parlare di meccanica quantistica) che se si effettua una misura su una particella che è entangled con un'altra, le due particelle a quel punto smettono di essere entangled! La misura distrugge l'entanglement! A quel punto io posso prendere una delle due particelle, sbatterla contro il muro, schiacciarla sotto il tacco, modificarne il suo spin o il suo impulso, e l'altra particella non ne risentirebbe affatto! E' soltanto PRIMA della misura che sono entangled. La misura stessa fa cessare il loro essere entangled. 

Quindi non è affatto vero che tutto è in comunicazione perenne con tutto. In particolare la storia che si recita sull'equazione di Dirac (che comunque non c'entra nulla con l'entanglement, come descritto qui), secondo cui due esseri che sono stati uniti da qualcosa in passato (innamorati - ovviamente - la possibilità che uno facesse stalking all'altro non è nemmeno contemplata dagli olistici!) lo restano per sempre, è una sonora puttanata. La scemenza dell'equazione dell'amore! Non solo per la cosa in sé, ma anche perché la si vuole giustificare con l'entanglement quantistico, che dice invece proprio il contrario: lo stato di entanglement cessa di valere nel momento in cui compio qualunque azione su uno dei due elementi.

Ma andiamo avanti nell'elenco degli errori.

Una cosa che dicono spesso i cazzari (lo so, è brutto chiamarli così, ma per un fisico è difficile trovare un sinonimo adeguato, di fronte a certe scemenze) è che, siccome la misura su un sistema quantistico determina la condizione del sistema quantistico (ed è vero), e che, essendoci dietro la misura un misuratore, e quindi una mente pensante a interpretare i risultati, allora è la mente umana a determinare la realtà delle cose (vedi le dichiarazioni dello psicologo). Scemenza colossale. 

Infatti la misura in meccanica quantistica non implica affatto la presenza di un misuratore pensante. La misura è semplicemente l'interazione del sistema quantistico in questione con qualcos'altro, di dimensioni macroscopiche, ma non necessariamente. Anche l'interazione con un fotone può rappresentare una misura, addirittura senza che ci sia un'effettiva rivelazione dell'interazione stessa. Quindi la mente umana non c'entra proprio nulla, e è solo una sciocchezza messa in giro da chi vorrebbe dare all'uomo un ruolo di primo piano nell'universo, cosa che a certi piacerebbe moltissimo.

E' falsa anche perché l'universo è andato avanti da solo per quasi 14 miliardi di anni senza che nessuna "Mente" misurasse alcunché. Non è che l'universo ha aspettato l'homo sapiens, o peggio ancora i fisici quantistici, per darsi una configurazione decente. Noi sappiamo che già 13 miliardi di anni fa esistevano gli atomi, che si erano assemblati già da un pezzo, e sappiamo che quegli stessi atomi si erano uniti assieme a formare stelle e galassie, senza che nessun new ager fosse ancora in giro a scrivere libri sulla mente quantica e sul suo potere di decidere l'andamento delle cose.

Inoltre, e questo è l'aspetto cruciale, tutti questi fenomeni che rendono strano, affascinante e contro intuitivo il mondo dei quanti, cioè il mondo dell'estremamente piccolo, smettono di esistere nel mondo macroscopico! Il tavolo su cui sono appoggiato, se lo lascio qui e vado via, non è che se non lo guardo lui può andarsene ovunque nell'universo. Se nessuno lo sposta e torno fra 10 anni, trovo che ha lasciato il segno di polvere sul pavimento, che significa che lui non si è mai mosso!

Sebbene tutto sia fatto di atomi, che singolarmente obbediscono alle leggi della meccanica quantistica, tuttavia non devo rivolgermi alla meccanica quantistica per descrivere il comportamento di tavoli, sedie, montagne e esseri umani. Se così non fosse, se il mondo macroscopico obbedisse alle leggi della meccanica quantistica come i singoli atomi, se fosse vero che per esso vale il principio di sovrapposizione, e che soltanto a seguito di una misura un oggetto può assumere una posizione, una velocità o altre proprietà ben definite, col cavolo che Le Verrier avrebbe scoperto il pianeta Nettuno!

E quindi le regole del mondo quantistico semplicemente non si applicano al mondo macroscopico, cosa che peraltro è sotto gli occhi di tutti. Perché questo accada, e dove sia il "confine" fra quantistico e non quantistico, questo è tutto un altro paio di maniche, e è un problema su cui la scienza dibatte moltissimo. Ma che per un tavolino, un albero un moscerino o un essere umano non valga il principio di sovrapposizione o l'etanglement è semplicemente un dato di fatto.

E infine, è vero, come certi dicono, che l'entanglement quantistico permetterebbe di trasmettere segnali a velocità superiori a quelle della luce, violando quindi la teoria della Relatività? Sembrerebbe di sì, da quello che abbiamo detto. E non solo la velocità usata per la trasmissione sarebbe maggiore di quella della luce, ma sarebbe addirittura una trasmissione istantanea!

Invece no. L'entanglement non solo non permette di trasmettere informazioni a velocità superluminali, ma proprio non permette di trasmettere alcun tipo di informazioni, punto! Per capirlo, supponiamo che la misura dello spin SU o GIU' degli elettroni dell'esperimento sull'entanglement equivalga a ottenere un bit su o giù, 1 o zero. Noi facciamo la misura dello spin su un elettrone, e otteniamo zero o 1. Di conseguenza, se qualcuno decidesse di misurare lo spin dell'altro elettrone, otterrebbe 1 quando noi otteniamo zero, e zero quando noi otteniamo 1. Ma il punto è che noi non possiamo decidere quale sarà l'esito della nostra misura. Possiamo solo constatarlo dopo che abbiamo effettuato la misura! Questo dice la meccanica quantistica. Quindi, se misurassimo lo spin degli elettroni che ci arrivano, prodotti in modo entangled, otterremmo una serie del tutto casuale di 0 e 1, ovvero nessun tipo di informazione.

Allo stesso tempo, colui che decidesse di effettuare le misure sugli elettroni entangled ai nostri, che vanno dalla parte opposta, otterrebbe anche lui una serie del tutto casuale di 1 e zero. Non solo, ma non avrebbe nemmeno la possibilità di sapere che noi abbiamo effettuato misure sui nostri elettroni! A lui semplicemente arrivano elettroni, misura il loro spin, e ottiene risultati che corrispondono a una sequenza casuale di zero e 1. Lui non può dire altro in proposito. Non può sapere che quella serie di bit che ha trovato è il risultato del fatto che noi abbiamo effettuato, prima di lui, la misura sugli elettroni che andavano in direzione opposta, perché quella serie di bit da lui trovata è del tutto casuale, come sarebbe anche se noi non avessimo effettuato alcuna misura. Quindi, quello che sembra una trasmissione di informazioni istantanea, un modo di comunicare superluminale, di fatto non è in grado di trasmettere alcuna informazione. E' solo lo stato entangled che si manifesta per quello che è.

Concludo suggerendo un libro interessante che mi sento di consigliare, utile e molto comprensibile sulla meccanica quantistica e sull'uso improprio che se ne fa: "Il mondo quantistico. Errate interpretazioni, teorie improbabili e bufale quantiche", di Enrico Gazzola.


PS: alcuni new agers con l'infatuazione per i quanti citeranno a questo punto il libro "Il Tao della fisica" di Fritjof Capra, a supporto delle loro convinzioni. Capra era un fisico esperto di meccanica quantistica che, assieme ad altri suoi colleghi, negli anni 70, forse complice qualche sostanza di troppo, ha creduto di vedere nella meccanica quantistica analogie con la meditazione tibetana e le filosofie orientali, e altre discipline simili. Il mondo è bello perché e vario. Ecco quello che scrive capra nelle prime pagine del suo libro:
«Cinque anni fa ebbi una magnifica esperienza che mi avviò sulla strada che doveva condurmi a scrivere questo libro. In un pomeriggio di fine estate, seduto in riva all'oceano, osservavo il moto delle onde e sentivo il ritmo del mio respiro, quando all'improvviso ebbi la consapevolezza che tutto intorno a me prendeva parte a una gigantesca danza cosmica. […] Sedendo su quella spiaggia, le mie esperienze precedenti presero vita; «vidi» scendere dallo spazio esterno cascate di energia, nelle quali si creavano e si distruggevano particelle con ritmi pulsanti; «vidi» gli atomi degli elementi e quelli del mio corpo partecipare a quella danza cosmica di energia; percepii il suo ritmo e ne «sentii» la musica: e in quel momento seppi che questa era la danza di Siva, il Dio dei Danzatori adorato dagli Indù.»
(Il Tao della fisica, Adelphi, 1993, pp. 11-12)
A parte che queste sensazioni, senza invocare il Dio dei Danzatori, si possono provare anche dopo essersi scofanati una teglia di parmigiana di melanzane con sottofondo di Gran Premio automobilistico, queste analogie con le religioni orientali non hanno mai portato a niente di scientifico. Quasi tutti questi fisici hanno lasciato la fisica a livello professionale, e la loro deriva ascetica ha preso vie divergenti con la fisica stessa. Per quello che mi riguarda, il Tao della Fisica è un ottimo libro se uno ha un tavolino che non spiana. Ricordo di averlo abbandonato a metà, perché mentre lo leggevo mi chiedevo continuamente: "ma cosa cazxz sto leggendo!?!?" La frase citata sopra è solo un esempio dei tanti. Per fortuna nella scienza la validità di una teoria scientifica non si misura dal numero di copie che l'autore ha venduto.

Nota 1: non uso il termine stato, ma "condizione", perché nel gergo della meccanica quantistica lo "stato" di un sistema è in realtà perfettamente determinato, tramite la funzione d'onda. Lo stato del sistema, cioè la funzione d'onda, evolve nel tempo in modo perfettamente deterministico secondo quanto previsto dall'equazione di Schrödinger, descrivendo come variano nel tempo le probabilità di trovare il sistema stesso a seguito della misura. L'atto della misura, però, causa il cosiddetto "collasso della funzione d'onda", e cioè il fatto che, fra tutte le possibili configurazioni finali, una sola ne viene scelta, in base alle probabilità che esse hanno di avverarsi. Questo processo di "scelta", avviene in modo casuale, e la meccanica quantistica non ci descrive come avvenga realmente.

Nota 2: il paradosso EPR nella formulazione originale è diverso, ma concettualmente identico a quello descritto qui. In questo caso ho anche cercato di semplificare la descrizione dell'esperimento ideale, eliminando tutti quegli aspetti che non hanno direttamente a che fare con la questione. Questo potrebbe togliere un po' di rigore, ma certamente aiuta per la comprensione.

venerdì 25 ottobre 2019

Ma l'aereo decolla?

Come ingigantire a dismisura un problema di una banalità disarmante


C'è un post che ogni tanto appare in rete sui gruppi Facebook a tema scientifico, e che immancabilmente scatena flames interminabili, con diatribe che a volte sfociano perfino in insinuazioni sulla moralità delle madri dei commentatori. Il problema è questo:

Un aeroplano ipotetico è sulla pista e si prepara al decollo ma sulla pista c'è un rullo collegato ad un nastro programmato per girare in senso opposto alla direzione dell'aereo ed esattamente alla stessa velocità delle ruote dell'aereo.
L'aereo riesce a decollare?



Ciò che segue vuole chiarire la questione, che è di una banalità disarmante, anche se so già che molti partiranno a testa bassa, e poi mi attaccheranno se quanto da me scritto non coinciderà con le loro conclusioni. Quindi, prima di reagire come il Cane di Pavlov dicendo che sto sbagliando, sgomberate il cervello dai pregiudizi e dalle risposte che avete già in mente, e leggete.

Chiariamo innanzitutto alcuni aspetti fondamentali, senza i quali non ha nemmeno senso andare avanti.

Il problema è puramente teorico. E' del tutto ovvio che nella realtà l'aereo decollerebbe. Moltissimi dimenticano questo aspetto essenziale. A questo proposito trovo veramente ridicolo/patetico l'entusiasmo e il dammicinque di quelli di Mythbusters (video) che hanno addirittura realizzato l'esperimento, e il cui aereo è ovviamente decollato. Il perché sono ridicolo/patetici è scritto in fondo.

Non è un problema di ingegneria né di aeronautica. Quindi quelli che mettono di mezzo la forma delle ali, le dimensioni delle ruote, il coefficiente di attrito, l'aerodinamicità, il materiale del nastro, la densità dell'aria, etc, sono completamente fuori strada.

Perché sono fuori strada? Perché non hanno letto il testo del problema! Il testo del problema dice pochissimo, e non cita nessuno di questi aspetti tecnici. E quando a scuola vi davano un problema che diceva "un corpo scivola lungo un piano inclinato etc etc", e non vi diceva altro, non è che andavate dal prof a chiedere "scusi, ma di che materiale è il corpo? E l'aria quanto è densa? E l'umidità? E le asperità del piano?" Il problema non vi diceva niente su quegli aspetti, e quindo voi, giustamente, li ignoravate. Qui è uguale.

Quindi rileggiamolo, questo testo, evidenziando le parole chiave.

Un aeroplano ipotetico è sulla pista e si prepara al decollo ma sulla pista c'è un rullo collegato ad un nastro programmato per girare in senso opposto alla direzione dell'aereo ed esattamente alla stessa velocità delle ruote dell'aereo.
L'aereo riesce a decollare?

Adesso analizziamolo, tenendo presente che quelle parole sottolineate significano qualcosa.

Il fatto che l'aeroplano sia "ipotetico" ci ricorda che il problema è ideale. E quindi non dobbiamo stare a chiederci se l'aereo sia a reazione, a elica, bimotore, biplano, con i motori sulle ali, sulla coda, se sia un nuovo modello etc. Se non specifica altro, qualunque ulteriore dettaglio o caratteristica dell'aereo sono da considerarsi irrilevanti. E' un aeroplano, punto.

Sotto di lui c'è un nastro, che è "programmato per girare in senso opposto alla direzione dell'aereo, e esattamente alla stessa velocità delle ruote dell'aereo. Il testo è chiarissimo: le ruote girano in avanti tanto da far spostare l'aereo di un metro? Perfetto, il nastro è programmato in modo da annullare - istante per istante - quello spostamento, qualunque esso sia. Veloce o piano che girino le ruote, che accelerino o decelerino, il nastro è programmato per fare questo e compensare, istante per istante, lo spostamento del baricentro delle ruote. In altri termini il baricentro delle ruote resta sempre fermo rispetto al terreno, e quindi l'aereo stesso resta fermo rispetto al terreno. Come riesca a fare questo, quale misteriosa tecnologia utilizzi, non ce ne frega niente, perché il problema non ne parla E' "programmato", quindi fa così. Punto! Quindi, come sanno tutti quelli che hanno risolto almeno un esercizio di fisica nella vita, se il testo non ne parla vuol dire che non dobbiamo porci il problema di come questo possa accadere. Accade e basta.

Quindi quelli che dicono che a un certo punto il nastro non riesce più a tener dietro alla rotazione delle ruote, non hanno capito niente, perché il testo dice esattamente il contrario: il nastro è programmato per fare questo. Come ci riesca non ci riguarda, e non riguarda nemmeno il problema. Semplicemente lo fa!

Il problema non dice altro.

E allora, sgomberiamo la testa dai nostri pregiudizi, dimentichiamo di essere ingegneri aerospaziali o piloti di aereo, e ragioniamo, in base a questi pochissimi dati, e solo in base a questi dati.

Abbiamo due possibilità: o c'è attrito fra nastro e ruote, o non c'è attrito.

Se non c'è attrito fra ruote e nastro, il problema non si pone nemmeno: l'aereo decolla e se ne fotte del nastro che si muove all'indietro. Potrei metterci pure i cavalli di Frisia, se non c'è attrito l'aereo si muove in avanti, accelera, e se ne va. Assumiamo quindi che non sia questo il caso. Se invece l'ideatore del problema intendesse che, nonostante tutta questa messinscena del nastro "programmato", si potesse perdere di aderenza... a che scopo inventarsi un problema così ideale per poi assumere il caso reale?

Anche se ad un certo punto, con le ruote che girano sempre più veloci, l'attrito volvente dovesse venire meno, l'aereo perderebbe aderenza col nastro e decollerebbe. E' il caso reale, questo! Quello che ha fatto esultare quelli di Mythbusters. Ma questo è del tutto ovvio, e anche in questo caso non c'era bisogno di imbastire tutta questa messa in scena. E' chiaro che se a un certo punto le ruote dovessero perdere aderenza col nastro, i motori continuerebbero comunque a dare la spinta, e l'aereo accelererebbe, slittando e saltellando sul nastro che, pur muovendosi in senso opposto, non ha più il contatto continuo sulle ruote. E' come decollare su un lago ghiacciato, a quel punto. Le ruote slittano, ma i motori spingono lo stesso, e l'aereo decolla. 

Ma il testo dice che, qualunque sia la velocità delle ruote, il nastro si muove di conseguenza in direzione opposta. Quindi mi pare ovvio che si assuma che ci sia sempre attrito volvente. Altrimenti di cosa staremmo parlando? E' ovvio che, se a un certo punto venisse a mancare attrito col nastro, l'aereo certamente decollerebbe!

Come questo possa avvenire, come sia possibile che si abbia attrito volvente quando le ruote fanno mezzo giro al secondo ma anche quando fanno 10 giri al secondo, o un milione di giri al secondo, è un aspetto che non ci deve interessare, perché il problema dice esplicitamente che il nastro è programmato per fare questo.

A questo punto chiediamoci: cosa deve fare l'aereo per decollare? 

Per decollare, l'aereo deve raggiungere una velocità sufficiente per avere portanza. In altri termini deve accelerare tanto da muoversi abbastanza velocemente rispetto all'aria, che è ferma rispetto al suolo. Quindi il problema si riduce a questa semplice domanda: l'aereo può muoversi rispetto al suolo?

Infatti se l'aereo può muoversi, allora certamente potrà anche accelerare e raggiungere prima o poi la velocità sufficiente per avere portanza e decollare (la lunghezza della pista - ebbene si, ho letto anche commenti di questo tipo - non c'entra una mazza, perché, lo ripeto allo sfinimento, non è un problema reale, mi pare ovvia la cosa!)

Se invece l'aereo non può muoversi, non c'è verso, l'aereo non decollerà mai, per quanto i motori vadano a manetta, e per quanto possano girare velocemente le ruote, e per quanto si muova veloce di conseguenza il nastro. Alcuni affermano che si raggiungerebbe il regime relativistico, perché il nastro prima o poi raggiungerebbe la velocità della luce, e la lunghezza del nastro si contrarrebbe a zero, o magari pure le ruote, e la massa del nastro diventerebbe infinita, etc etc. Su questa manifestazione di nerditudine acuta stenderei onestamente un pietoso silenzio.

Ora, il testo dice chiaramente che, qualunque sia la velocità delle ruote, il nastro si muoverà di velocità uguale e opposta. Quindi spiegatemi: come può l'aereo muoversi, se per costruzione stessa del problema non può farlo?  e' il testo stesso a dirlo chiaramente: qualunque sia la velocità delle ruote, il nastro compenserà sempre, istante per istante, questa velocità. Più banale che più banale non si può!

L'obiezione tipica è: "ma l'aereo riceve la spinta dai reattori, e non dalle ruote!"

Ma cosa c'entra!?!?

Certo, l'aereo riceve la spinta dai reattori, che funzionano tramite il terzo principio della dinamica: buttano "materiale" indietro con grande velocità, e quindi, per conservare la quantità di moto, l'aereo si muove in  avanti (i reattori non funzionano spingendo l'aria, come certi scrivono: se così fosse volare a 11000 metri sarebbe svantaggioso, perché lì l'aria scarseggia).

Tuttavia, la spinta dei motori, prima che l'aereo decolli e per tutto il tempo in cui l'aereo dovrebbe rullare sulla pista, si scarica comunque sulle ruote, facendole girare, proprio perché c'è attrito con il suolo. E se sotto le ruote c'è un nastro che, mantenendo costantemente l'aderenza, è programmato per spostare l'aereo indietro di un tratto che - istante per istante - è pari a ciò che le ruote percorrerebbero in avanti, c'è poco da fare, l'aereo resta fermo! Possiamo mandare i reattori a manetta, quelli spingerebbero l'aereo in avanti, ma siccome le ruote sono in aderenza con il nastro, che sposta l'aereo indietro, hai voglia a far andare i motori, l'aereo resta fermo! Che la spinta venga dai reattori o dal Padreterno, non cambierebbe nulla! Immaginate di avere, invece che le ruote, una cremagliera. I motori spingono in avanti, la cremagliera tira indietro. E' la stessa cosa: l'aereo resta fermo. Ripeto: è un problema assolutamente ideale, ma il testo non lascia scampo, non può essere altro che così!

Non siete convinti? Faccio un ultimo tentativo. Immaginatevi su una barca a vela, su un fiume. Il vento vi spinge alle spalle, ma la corrente del fiume va in direzione opposta e vi spinge con una velocità che è programmata per essere esattamente uguale e opposta, istante per istante, a quella che vi darebbe il vento. Aumenta il vento? Non c'è problema, la corrente aumenta di pari passo. E' programmata per farlo! Domanda: andate avanti o state fermi? Vi pare il caso di scatenare flames da migliaia di commenti, spesso insultandosi a vicenda, per una banalità simile?

Insomma, il problema, a guardarlo bene, senza pregiudizi, è di una ovvietà disarmante, se si prende per assunto quello che dice il testo, e niente altro, a parte che ci sia sempre attrito fra ruote e nastro, perché altrimenti la presenza stessa del nastro sarebbe del tutto ininfluente. Ripeto: secondo me nemmeno chi lo ha proposto in origine ha compreso che stava proponendo un problema ovvio e quindi stupido. Sarebbe stato stupido comunque: sia se fosse da considerarsi nel caso reale, perché l'aereo certamente decollerebbe, e è stupido nel modo in cui è stato proposto, perché l'aereo non può fare nulla di diverso dal restare fermo, semplicemente perché lo dice il testo stesso del problema!

La cosa interessante è invece la sociologia dei commenti. Ma quello è un universo a sé.

PS: perché l'entusiasmo dei Mythbusters è ridicolo/patetico? Lo è perché il loro test è un test del caso reale, in cui non esiste alcun controllo né sulla velocità del nastro, che non è affatto, istante per istante, uguale e opposta a quella dell'aereo, né sulla costante e obbligatoria aderenza fra ruote e nastro (l'aereo ha ovviamente un'infinità di sobbalzi e slittamenti). Nel caso reale è del tutto ovvio che l'aereo accelererebbe e quindi decollerebbe, neanche a perderci tempo a discutere!

PS2: esiste una risposta che da molti viene etichettata come "definitiva": questa. Questa risposta, ancora una volta, trasforma il problema in un problema reale. Ma colui che fornisce la risposta lo dice, è infatti afferma che sta dando una risposta interpretando il testo in modo diverso rispetto alla sua formulazione. Interpretandolo nella sua formulazione, infatti, la stessa persona, nella prima parte del video, visibile qui, afferma che l'aereo non decollerebbe, restando fermo rispetto all'aria. E non potrebbe essere altrimenti, dato il problema.

PS3: potrete scrivere tutti i commenti che volete. Darmi ragione, torto, insultarmi, darmi dell'ignorante, del presuntuoso o del cretino. Succede sempre quando si tira fuori questo problema. Fate pure, risponderò a nessuno, né replicherò in alcun modo. Un problema del genere non lo merita. Enjoy!

PS4: Sto preparado un video con l'esperimento realizzato. Una ruota su un piano inclinato, e un tappeto sotto di essa. Invece che la spinta del reattore, c'è la forza di gravità, che è anch'essa una forza esterna costante. Le ruota è in folle, anche in questo caso esattamente come nel problema del'aereo. Tutto esattamente come il problema. La ruota può rotolare ma non strisciare, condizione ovviamente necessaria affinché il problema stesso abbia un senso.

Secondo quello che molti di voi hanno affermato, tirando indietro il tappeto, questo non sarebbe in grado di arrestare in alcun moto la caduta della ruota, e invece si osserva che, facendo scivolare il tappeto indietro, mentre la ruota gira costantemente, essa resta ferma rispetto a un riferimento esterno.

Non solo, ma mettendo opportuni riferimenti sul tappeto e sulla ruota, si vede che il tratto di tappeto tirato indietro corrisponde esattamente a quanto la ruota ha girato in direzione opposta, rispettando quindi le ipotesi del problema.

Quando il video sarà pronto lo pubblicherò. Tanto so che non sarà sufficiente neanche quello a convincervi!




martedì 6 agosto 2019

È l'uomo il fine dell'universo?

Il principio antropico al netto delle scemenze 


Il principio antropico è un argomento che scatena dibattiti e derive ascientifiche quasi peggio della Teoria dell'Evoluzione di Darwin. E come per la Teoria dell'Evoluzione, meno lo si conosce, e più si prende posizione sparando cose a caso. Eh sì, perché il Principio Antropico, come l'evoluzione Darwiniana, si presta a sconclusionate interpretazioni in chiave religiosa e antropocentrica, e si sa che, in questa materia, gli "uomini di cultura" a volte riescono a dare il meglio.

Questa vuole quindi essere una guida sintetica e - spero - efficace, al problema del principio antropico dal punto di vista strettamente scientifico, spogliato di tutti gli inutili orpelli che si leggono in giro, tipo le definizioni di Principio Antropico debole, forte, medio, così-così, di Tizio, di Quell'altro, e tanti altri inutili distinguo. Un esempio fra tutti di come il principio antropico porti a incredibili perversioni è il "principio antropico ultimo", proposto da Barrow e Tipler (fonte, fonte), due fisici travolti con l'avanzare dell'età da derive mistico-religiose, che afferma sostanzialmente che deve necessariamente svilupparsi una vita intelligente nell'universo. Come se gli atomi provassero una speciale gratificazione a essere parte del corpo di un filosofo piuttosto che trovarsi dentro un sasso su Plutone. Non solo, Barrow e Tipler affermano anche che, una volta apparsa, la vita non si estinguerà mai, perché altrimenti produrre vita intelligente non avrebbe senso se questa si estinguesse. Quantomeno - viene da dire - nell'affermare questo non hanno tenuto conto del livello e del numero di idiozie che può fare questa vita intelligente sul proprio pianeta.

Quindi lasciamo da parte questa pletora di definizioni, che spesso lasciano il tempo che trovano, e cerchiamo di capire da cosa nasce il problema, aspetto che ci permetterà di dare una definizione operativa del Principio Antropico, e di comprendere il succo del discorso senza fronzoli o inutili derive mistico-filosofiche, che di scientifico non hanno nulla.

Il tutto nasce da una constatazione banale e ovvia: le caratteristiche delle leggi della natura e i valori delle sue costanti fondamentali (velocità della luce, costante di Planck, massa e carica delle particelle, etc) sono tali da permettere la vita come la conosciamo.

Risultati immagini per man is the center of universe
Grazie tante, siamo qui! Se non fosse così, non saremmo qui. Se siamo qui a porci queste domande, per forza di cose le leggi della natura devono essere tali da permettere la vita. In poche parole, espresso in questi termini, il problema esiste solo se c'è qualcuno che può porselo. Se le costanti della natura fossero state tali da impedire la formazione delle stelle o degli elementi, nessuno si sarebbe mai chiesto come mai. Fin qui, insomma, non c'è niente di strano.

Bisogna fare subito una precisazione importante. Sebbene alcuni parlino esplicitamente di "vita" quando si riferiscono al principio antropico, in realtà è sufficiente parlare di formazione di strutture complesse, ovvero gli elementi chimici. Poi non necessariamente questi possono dar origine a esseri viventi. Quindi, quando parlerò di "vita", intendo in realtà: galassie, stelle, pianeti. Alcuni ritengono che, una volta garantita la complessità, la vita sia inevitabile, ma di questo al momento non ne abbiamo alcuna prova. Forse è vero, ma non conoscendo per ora alcuna forma di vita diversa da quella presente sulla terra, neanche sotto forma di microorganismi, al momento non mi sbilancerei troppo.

Comunque, tornando al principio antropico, la cosa si fa più intrigante se si va a vedere di quanto potrebbero variare i valori delle costanti fondamentali, pur continuando a dar luogo a condizioni che permettano ancora la vita, intesa anche solo come formazione di materia complessa. Se si fa questo esercizio si scopre che la nostra esistenza è strettamente dipendente dai valori che assumono le costanti fondamentali della natura, tipo la carica elettrica, la massa dell'elettrone, la costante di struttura fine, la costante alfa delle interazioni forti, etc, ovvero quei parametri il cui valore, da quello che finora ne sappiamo, non deriva da processi fisici noti, ma di cui semplicemente prendiamo atto. Basterebbe che i loro valori fossero diversi anche solo di poco, e non sarebbe più permessa la formazione degli atomi, oppure dei nuclei, e quindi addio molecole, addio forme complesse di materia, e addio stelle, pianeti, montagne, alberi, nuvole, galline, leopardi, e esseri umani. 

In pratica è come se la macchina della natura avesse tante manopole, tanti potenziometri da posizionare lungo precise scale graduate, e per come sono effettivamente posizionate, esse permettono il realizzarsi dell'universo che conosciamo, in cui è possibile la formazione di strutture complesse, e quindi anche la vita. Basterebbe però spostare di poco la manopola della carica dell'elettrone, o quella della costante delle interazioni forti, e  tutto andrebbe a scatafascio, e non esisterebbero le galassie, le stelle, e a maggior ragione gli esseri pensanti. E non esisterebbe nemmeno questo blog! E stando alle nostre conoscenze scientifiche attuali, il posizionamento di queste manopole non scaturisce come conseguenza di altri processi fisici, ma semplicemente è quello che è. E di fronte a questa constatazione, certi sedicenti "uomini di cultura" si scatenano e partono per la tangente, tirando in ballo l'intervento del Padreterno. Alcuni arrivano infatti a postulare un "Principio biofilico", ovvero che l'universo sia fine-tuned, ottimizzato per produrre la vita. Cioè che esista una qualche linea guida, nelle leggi della natura, che obbliga i parametri fondamentali della natura ad avere i valori ottimali per la vita.

A questo punto è necessario uno stop. Sebbene quanto appena detto venga ripetuto un'infinità di volte, questa affermazione si basa ipotizzando variazioni dei singoli parametri attorno ai valori che sappiamo effettivamente avere. Della serie: se cambio di poco il parametro X, allora gli atomi non esisterebbero; se cambio il valore di Y, non esisterebbero i nuclei pesanti, etc. Ma in realtà questo discorso non considera affatto il caso in cui avvengano variazioni simultanee di tutti i parametri! E i parametri su cui poter giocare sono almeno una ventina, ad essere buoni. In altri termini potremmo sovvertire i valori di tutti o molti dei parametri fondamentali, cambiandone drasticamente il valore, e ritrovarci comunque con un universo in cui la complessità è ancora possibile.

Ad esempio esistono lavori teorici che considerano un universo senza le interazioni deboli, e cioè drasticamente differente da quello che conosciamo, in cui la formazione di strutture complesse sarebbe comunque possibile. Un altro lavoro teorico ipotizza che forme primitive di vita avrebbero potuto avere origine già nelle prime fasi di vita di un universo con parametri drasticamente diversi da quelli che conosciamo. Questo errore tipico che molti commettono quando parlano del principio antropico è descritto in modo divulgativo e chiaro in questo articolo del blog Backreaction, curato dalla fisica teorica Sabine Hossenfelder.

Alcuni, estremizzando il principio antropico, ritengono che il nostro universo sia addirittura "ottimizzato" (fine-tuned) per ottenere la vita, ovvero che esistano meccanismi intrinseci nelle leggi della natura per ottenere l'universo migliore possibile per garantire le condizioni per la vita. Se questo fosse vero, sarebbe strano avere condizioni "abbastanza buone" per garantire la formazione di strutture complesse. Tanto varrebbe avere le condizioni ideali. Una visione teista della questione, certamente giungerebbe a questa conclusione (e infatti lo fa). Ma adesso vediamo se questo è vero.

Un ingrediente determinante per massimizzare la formazione si strutture complesse quali le galassie, che sono il punto di partenza per arrivare alla vita come la conosciamo, è quello di garantire che il numero di protoni e neutroni, detti "barioni" in gergo tecnico, ovvero gli ingredienti base per formare nuclei atomici, sia massimizzato dalla natura. Massimizzare il numero di barioni significa dare alla complessità il massimo delle opportunità per formarsi.

In questo articolo si cerca di capire se è possibile falsificare l'ipotesi che il numero di barioni dell'universo sia massimizzato dalle leggi della natura. Siccome sappiamo che l'espansione dell'universo è accelerata dal fatto che la costante cosmologica è diversa da zero e positiva (quello che chiamiamo "energia oscura"), questo già di per sé indicherebbe condizioni non ottimali per il "miglior utilizzo" dei barioni al fine di costruire la vita (sempre intesa come semplice complessità). Infatti un universo che si espande troppo velocemente offre meno possibilità alla materia di aggregarsi. L'autore del lavoro sottolinea che ci sono molte incertezze sulle conclusioni, ma la cosa interessante, che lo stesso autore enfatizza, è che l'affermazione "l'universo è ottimizzato per la vita" è in linea di principio falsificabile. Al momento i dati indicherebbero che - insomma - se si voleva ottimizzare si poteva fare di meglio.

Comunque, indipendentemente da questi risultati incerti, è lecito porsi la domanda: esiste un meccanismo (a noi al momento sconosciuto) che OBBLIGA le costanti fondamentali della natura ad avere il valore che hanno? Indipendentemente dal fatto che sia il migliore possibile per garantire la formazione di strutture complesse, o sia soltanto sufficientemente buono per lo scopo? Un meccanismo che impone alla carica dell'elettrone, alla costante di Planck, alla massa del protone e a quella del neutrone - tanto per fare qualche esempio - ad avere quei determinati valori e non altri? Esiste un processo "dinamico" nelle leggi della natura, da cui scaturiscono i valori delle costanti della natura, o i loro valori sono casuali?

In pratica ci chiediamo se l'universo è così per caso (e se fosse diverso probabilmente non ci sarebbe nessuno a chiederselo), oppure è così perché è insito nelle leggi della natura che le costanti fondamentali debbano avere quei valori e non altri.

A questa domanda al momento non sappiamo rispondere. Non sappiamo, al momento, se esiste un meccanismo fisico da cui scaturiscono i valori della costante di gravitazione universale, della carica dell'elettrone, etc.

Certo, se però esistesse un meccanismo che obbligasse le costanti fondamentali ad assumere i valori che hanno e non altri, valori che permettono la formazione della vita, sarebbe interessante. A quel punto non sarebbero più le costanti della natura ad essere sotto i riflettori, ma le stesse leggi della natura. Ammesso che ci sia una differenza fra le due cose.

Ma c'è chi ha pensato a una scappatoia: il multiverso.  Il multiverso è genericamente la teoria che afferma che l'universo in cui viviamo sia uno dei teoricamente infiniti universi esistenti, ognuno dei quali con caratteristiche diverse. In alcuni di questi universi le caratteristiche saranno tali da permettere le condizioni adatte allo svilupparsi di strutture complesse, e quindi la vita. In questi universi particolari, ci saranno quindi anche esseri pensanti a chiedersi come questo è stato possibile. In tutti gli altri, che presumibilmente sono la stragrande maggioranza, non ci sarà nemmeno nessuno a lambiccarsi il cervello. Alcune teorie, tra cui le superstringhe, prevedono la possibilità del multiverso. Occorre comunque dire che questa ipotesi è tutt'altro che condivisa nella comunità scientifica, in quanto, per lo meno al momento, non falsificabile. In pratica non è possibile, per lo meno per ora, ipotizzare esperimenti capaci di smentire questa ipotesi.

Esiste però una teoria interessante, relativa a un modello che descrive le primissime fasi dell'universo primordiale, che si chiama Modello Inflazionario dell'universo (un po' di referenze: divulgativa,  divulgativa,  semi divulgativa, e l'altra più tecnica). Questo modello, introdotto negli anni 80 per giustificare alcune caratteristiche del modello del Big Bang standard altrimenti inspiegabili, prevede che, nei primissimi istanti di vita, l'universo abbia attraversato una breve fase di grande espansione (inflation, in inglese) che ha enormemente dilatato le sue dimensioni, producendo un numero virtualmente infinito di universi completamente scorrelati fra loro da rapporti di causa-effetto.

E' come se uno immaginasse l'universo primordiale come la superficie di un palloncino. Ogni punto del palloncino ha condizioni diverse, costanti di accoppiamento diverse, condizioni diverse da tutti gli altri punti, come è lecito aspettarsi da un universo appena nato. Insomma una bolgia totale. Ad un certo punto si instaura un meccanismo che improvvisamente dilata in modo esagerato ogni punto della superficie. E quindi, quelli che in origine erano singoli punti, diventano in un attimo porzioni di superficie enormi. Nell'universo primordiale, quindi, ogni singola minuscola porzione di spazio dell'universo appena nato sarebbe stata dilatata da questa fase di inflazione. Il nostro universo, quello in cui viviamo e facciamo misure, è una di quelle porzioni, che però in origine era un semplice microscopico volumetto di universo.

Ognuno di questi volumetti aveva le sue specifiche condizioni, nessuno di essi era ancora entrato in comunicazione con gli altri, dato che nemmeno segnali con la velocità della luce avevano ancora avuto il tempo di interconnetterli. L'inflazione ha esteso quei singoli volumi microscopici dilatandoli, trasformandoli ognuno in un universo separato da tutti gli altri. E adesso quegli infiniti puntini sono infiniti universi, tutti scorrelati e non comunicanti fra loro. Uno di quei puntini è oggi il nostro universo. Degli altri, non possiamo sapere nulla. Il nostro universo, quindi, sarebbe soltanto uno degli infiniti universi presenti, tutti diversi fra loro, ognuno con le proprie condizioni e caratteristiche, nella maggioranza dei casi inadatte allo sviluppo della vita.

Questa idea dell'Universo Inflazionario potrebbe apparire strampalata, una specie di favoletta alla Adamo ed Eva, sebbene il processo sia assolutamente possibile dal punto di vista matematico. Infatti, al momento, non si conosce l'origine dell'eventuale inflazione, ovvero, tecnicamente, la natura della eventuale particella responsabile di questo processo (l'inflatone, come si chiama in gergo). Però, a parte questo, i modelli inflazionari prevedono effetti sulla distribuzione della densità della materia, che nell'universo attuale si manifesterebbero in alcune caratteristiche specifiche della radiazione cosmica di fondo, quel fondo cosmico nella lunghezza d'onda delle microonde, osservabile oggi, e che rappresenta letteralmente la fotografia dell'universo primordiale, come era più di tredici miliardi di anni fa (fonte).

Quindi - e questo è il punto importante - il Modello Inflazionario è in linea di principio falsificabile. Cioè si possono effettuare misure sulla radiazione cosmica di fondo che possono smentire i modelli stessi, se i dati osservati non sono in accordo con le previsioni teoriche. Dico in linea di principio, perché esistono vari modelli per come in pratica si sarebbe svolta questa espansione violenta dell'universo, che danno luogo a caratteristiche diverse nell'universo odierno. Però il grosso dei modelli è consistente nel predire caratteristiche comuni.

La cosa interessante è che le piccole fluttuazioni di densità/temperatura misurate  nella radiazione cosmica di fondo sono consistenti con quanto previsto da questi modelli. Ovvero indicano che nell'universo di quasi 14 miliardi di anni fa sono presenti tenui differenze di densità che hanno le caratteristiche previste dall'inflazione. In questo senso sono in preparazione esperimenti che misureranno con maggiore precisione la caratteristiche della radiazione cosmica di fondo, e che potranno dire qualcosa di più su questo importante aspetto.

Al momento quindi, l'ipotesi del multiverso resta ancora una semplice ipotesi, nonostante queste interessanti corrispondenze tra le previsioni del modello e le caratteristiche della radiazione cosmica di fondo. Ma se l'ipotesi fosse vera, a questo punto sarebbe lecito pensare che in questo tripudio di universi, la maggior parte dei quali probabilmente desolatamente vuoti, ce ne saranno alcuni, forse pochissimi, non lo sappiamo, in cui le condizioni saranno tali da permettere la formazione di atomi, molecole, e magari anche esseri senzienti, che a volte si fanno anche chiamare "uomini di cultura", e che sparano cazzate ad ampio spettro. In questi universi, e solo in questi, esisterà il dibattito sul Principio Antropico. Nel resto degli universi le costanti fondamentali saranno tali da non produrre né atomi né sistemi complessi, né tanto meno qualcuno a chiedersi il perché.