domenica 20 dicembre 2015

Il linguaggio delle pseudoscienze

Come poter dire di tutto senza assumersi responsabilità.


In un testo letterario, in un romanzo, o in una poesia, l’uso dei sinonimi contribuisce alla bellezza dell’opera e a rendere più  scorrevole lo scritto. Al contrario, in una pubblicazione scientifica, o più  in generale in un testo a carattere scientifico, le parole non sempre hanno un significato intercambiabile o equivalente, e la possibilità di usare sinonimi è in genere molto limitata.

Ad esempio in un romanzo possiamo usare la parola “energia”, e sostituirla, qualora sia necessario, con “potenza”, “veemenza”, “forza”, "impeto”, "violenza”, "impulso”, senza correre il rischio di rendere incomprensibile il significato del testo. Nel linguaggio scientifico invece questi termini hanno significati diversi, e alcuni di essi addirittura non hanno alcun significato. Energia, forza, potenza e impulso esprimono concetti differenti fra loro, mentre violenza, veemenza e impeto non hanno alcun significato definito, e difficilmente verranno utilizzati in un lavoro scientifico di qualunque tipo. Se leggete un articolo che pretende di avere una valenza scientifica e mescola arbitrariamente questi termini, scambiando energia con potenza o magari violenza, o spinta, potete avere la certezza che chi scrive vi sta abbindolando, cercando di farvi credere di avere competenze scientifiche che invece non possiede affatto.

Questa apparente pignoleria sul linguaggio è in realtà essenziale per far sì che tutti possano capire senza fraintendimenti. La chiave per accedere alle affermazioni di tipo scientifico deve essere nota a tutti, affinché  i contenuti espressi possano essere esenti da ambiguità, in modo da essere controllabili e eventualmente confutati da chiunque. L’uso corretto e appropriato del linguaggio rappresenta pertanto un ingrediente fondamentale della trasparenza e della condivisione universale della conoscenza scientifica.

Le pseudoscienze, al contrario della scienza, usano il linguaggio in modo libero e spesso arbitrario, attingendo a piene mani anche a termini che non hanno riscontro nel linguaggio della scienza, senza tuttavia definire mai chiaramente il loro preciso significato. Questo non solo ha lo scopo di stupire il pubblico con espressioni più o meno altisonanti di oscuro significato, ma soprattutto, ed è questo il punto cruciale, impedisce qualunque contraddittorio di tipo scientifico.

Immaginate uno che vi dica di misurare, in un certo processo, una certa quantità di "energia". Voi rifate l'esperimento e non trovate quello che egli asserisce. Allora lui potrebbe dirvi "beh ma io con energia intendo a volte anche la potenza..." La potenza e l'energia sono due cose diverse! Tanto per capirci, una tartaruga in tutta la sua vita spende molta energia, ma in quanto a potenza (energia nell'unità di tempo) è un po' scarsina! E' come affidarsi a un falegname che uno scaffale lo chiama a volte credenza, a volte comodino, a volte mensola, a volte armadio, e così per ogni tipo di mobile. Se gli ordinate un divano e vi ritrovate con uno sgabello come fate a dimostrargli che si è sbagliato?

E quindi di fronte a uno che chiama in causa le “trasmutazioni di energia sottile” o il “colore come forza vitale”, che gli dite? La scienza non sa come reagire di fronte a frasi del genere, non può controbattere, perché  queste espressioni non hanno alcun significato scientifico. Cos'è un'energia sottile? Nella scienza è un concetto che non esiste, e gli pseudoscienziati si guardano bene di definirlo!

L’utilizzo libero del linguaggio rende quindi impossibile entrare nel merito delle affermazioni fatte dalle pseudoscienze, e ne impedisce qualunque discussione sul piano scientifico, e quindi qualunque controllo. La pseudoscienza, in questo modo, si svincola automaticamente da qualunque dialettica che abbia una base scientifica, e diventa libera di affermare praticamente ciò che vuole senza tema di essere smentita, per lo meno dal punto di vista concettuale.

Esiste però una cosa a cui nemmeno lo pseudoscienziato può scappare: il controllo sui risultati. Se un qualche metodo basato sulla cromoterapia, ad esempio, afferma che l’uso dei colori è in grado di curare le dermatiti, o che i fiori di Bach possono curare l’ulcera, o che energie vibrazionali sottili (se qualcosa "vibra", il fuffaro azzera qualunque tipo di spirito critico) trasmesse grazie all'entranglment quantistico curano le emorroidi, si può essere incapaci di confutare le motivazioni addotte a supporto del funzionamento del metodo perché espresse in modo volutamente oscuro e incompatibile con il linguaggio della scienza, ma si può  (e si deve) controllare il risultato finale, la veridicità  dell’effetto propagandato, utilizzando le opportune procedure di controllo.

La guarigione da una dermatite o da un’ulcera è infatti qualcosa di oggettivo e concreto, che può e deve essere valutato con gli stessi criteri metodologici validi per la scienza ufficiale. Questo è l’unico metodo in grado di fornire una risposta affidabile alla domanda se il rimedio funziona, sia che il rimedio sia un farmaco, che una qualunque altra ricetta. Anche se non ne comprendiamo il meccanismo di funzionamento. La corretta valutazione del risultato è infatti del tutto indipendente dal fatto che si conosca o meno come è avvenuto il risultato, e non ci sono ambiguità di linguaggio che tengano: o il rimedio fa effettivamente guarire più di un qualunque placebo, oppure no.

Volete infine un esempio di linguaggio pseudoscientifico strampalato, che pretende di celare una base scientifica che invece non ha affatto? Eccolo. Riguarda l'uso della meccanica quantistica e dell'entanglement quantisico (un fenomeno noto e sperimentato in laboratorio solo a livello submicroscopico e per singole particelle) per curarsi. Oggi va di gran moda la parola "quantico", usata come passepartout per qualunque idiozia (come raccontato qui). Prima leggetelo, e poi vi dico da dove viene. Le sorprese non finiscono mai.
"(L'entanglement  è) una dimensione energetico-informazionale che è la natura di ogni manifestazione materiale; (è) una forma di intelligenza sottile che la sottende (Campo Energetico Universale, Campo Akashico, Coscienza Cosmica, Mente....). 
In tal senso l’Entanglement è la struttura teorico scientifica della nuova visione della realtà e dell’uomo, che trova riscontri nelle recenti teorie biologiche sui campi morfici di Rupert Sheldrake, nei concetti di risonanza, di informazione, di frequenze e di riconversione dell’informazione a livello cellulare. 
La teoria dell’Entanglement riconosce un ruolo di particolare rilevanza alla Mente e alle sue capacità di influenzare la realtà circostante attraverso l’energia/informazione degli atteggiamenti mentali, delle intenzioni e dei sistemi di credenze. 
Nella PNEI (Psiconeuroendocrinoimmunologia, n.d.r) Quantistica l’uomo viene considerato come un’unità processuale, dove la mente biografica (la mente di cui siamo coscienti che si esprime nella nostra vita quotidiana), e il corpo sono un tutt’uno e quindi l’espressione, sul piano esplicato (percepibile) della realtà, della Mente; intendendo con tale termine quell’Intelligenza che sottende ogni forma, entità e processo della realtà che esiste intorno a noi.  
L’uomo è pervaso da questa energia/informazione della Mente ed è caratterizzato dall’interconnessione e dall’interdipendenza in una condizione di inseparabilità con il Tutto. E' entangled con le dimensioni energetiche"

Ci sono tutti gli esempi di termini scientifici usate a capocchia. La "dimensione energetico-informazionale", e "l'intelligenza sottile che la sottende", le "dimensioni energetiche" e il Campo Akashico. E ovviamente le "recenti teorie biologiche sui campi morfici di Rupert Sheldrake", ovvero le teorie da nessuno dimostrate di un biologo ritenuto pseudoscienziato dai colleghi (fonte). Uno che per inciso ritiene anche che la velocità della luce e la costante gravitazionale siano variatate nel tempo, ma non in base a uno studio o una motivazione teorica. Così, lo ritiene perché si sente che è così. Pensereste quindi ingenuamente che abbia tratto questo estratto da uno dei tanti siti new age che pullulano in rete? Sbagliato: questo è un passo di un'intervista al direttore dell'UOC (Unità Operativa Complessa) di Psicologia Clinica Ospedaliera di una AUSL di un'importante città italiana. Se mettete qualche parola chiave in Google trovate tutto. Bello eh?




martedì 15 dicembre 2015

Date un po' di nuova fisica a quei fisici!

Non se ne può più di queste fluttuazioni statistiche!


Il 15 dicembre 2015 al CERN di Ginevra gli esperimenti ATLAS e CMS hanno presentato in anteprima i risultati, ancora preliminari, dal periodo di presa dati del 2015 appena concluso a LHC. Una raccolta dati caratterizzata da un energia dell'acceleratore di 13 TeV, mai raggiunta prima in qualunque acceleratore di particelle.

Energie elevate in fisica delle particelle significa esplorare dimensioni spaziali sempre più piccole, e avere la possibilità di scoprire fenomeni nuovi. L'auditorio del CERN era gremito come per le grandi occasioni, sia per l'importanza dell'evento, ma in particolare per un motivo: si era sparsa la voce (i fisici vogliono mantenere il segreto fino alla fine ma poi non resistono) che entrambi gli esperimenti avessero un misterioso "picco" nei dati a una massa di circa 750 GeV. 


Cos'è un "picco", e perché entusiasma tanto i fisici? Quello a cui si riferivano le voci, rivelatesi poi vere, è un eccesso di dati rispetto al fondo nel numero di coppie di fotoni aventi una "massa invariante" (una quantità definita nella teoria della relatività) pari a circa 750 GeV, che corrisponde grosso modo a 800 volte la massa di un protone. Un picco di questo tipo è la classica indicazione della presenza, all'interno dei dati, della produzione di un qualche tipo di particella, di massa pari alla posizione del picco (in questo caso 750 GeV). In questo caso l'eventuale particella si manifesterebbe sotto forma di due fotoni. 

In pratica questa eventuale particella verrebbe prodotta all'interno degli urti fra i protoni di LHC per un tempo troppo breve per essere evidenziata come tale, e si trasformerebbe immediatamente in due fotoni. La misura della massa invariante dei due fotoni, una quantità che dipende dai loro impulsi e dalle loro direzioni, fornisce una stima della massa dell'ipotetica particella, dalla vita troppo effimera per essere osservata direttamente. Se questo avviene un numero sufficientemente elevato di volte, tutto ciò appare come un picco, una "bozza" sopra il fondo, posizionata attorno al valore della massa a riposo della particella. La storia della fisica delle particelle è piena di scoperte di picchi di questo tipo, che in gergo si chiamano "risonanze".

Perché quindi tanta eccitazione? Perché nessuna teoria al momento prevede l'esistenza di una particella di massa pari a 750 GeV. O meglio, nessuna teoria nota. Quindi osservare un picco di questo tipo significherebbe osservare un fenomeno radicalmente nuovo, non contemplato nelle nostre conoscenze di fisica fondamentale.  Potrebbe essere la finestra su una nuova classe di fenomeni, e potrebbe obbligarci ad aprire un nuovo capitolo della fisica. Sarebbe insomma una scoperta molto importante.


Il problema è che questi "picchi" osservati da ATLAS e CMS, e presentati pubblicamente alla comunità scientifica per la prima volta a questo seminario, non sono proprio così evidenti. Non sono dei "signori picchi"; che uno li vede e dice "cavolo! che taglia ho per il frac da portare a Stoccolma?" Sono dei picchi "vorrei ma non posso". Potrebbero tranquillamente essere fluttuazioni statistiche del fondo, a simularci una risonanza, a farcela immaginare, e farci credere di aver scoperto qualcosa di importante. Potrebbero tranquillamente essere dovuti a normali fenomeni conosciuti che, a causa di una comunissima fluttuazione casuale, si ammucchiano per caso attorno a una massa a caso (750 GeV è un numero come un altro) e ci fanno credere che lì ci sia una risonanza, una nuova particella. "Fluttuazioni statistiche bastarde!", intitolerebbe Libero!

I fisici hanno però un modo per valutare quanto sono credibili questi picchi. Non è che li guardano e dicono "Bello, per me è un sì", oppure "Mmmmf, se fosse un po' più bombato, ma così stretto non mi fido". Ci sono metodi statistici che sono indipendenti dall'umore, dal sentimento e dai pregiudizi di chi li guarda. Devono essere così, altrimenti si rischierebbe di prendere enormi cantonate, cosa che a volte succede lo stesso, perché ci si innamora del proprio picco, anche quando è chiaro che ci sta prendendo in giro.

Esiste in particolare un criterio, che si chiama Look Elsewhere Effect (l'effetto "guarda altrove"), di cui ho già parlato qui, che sostanzialmente tiene conto del fatto che se cerchiamo un eccesso rispetto al fondo (il nostro picco) da qualche parte in un istogramma, questo eccesso potrebbe apparire ovunque a causa di una fluttuazione statistica. Il fatto che lo abbiamo osservato proprio lì è qualcosa che avviene a posteriori. Poteva essere più a sinistra, o tutto dall'altra parte, e sarebbe stato uguale. E questo ne attenua la sua significatività, cioè rende più probabile che sia una semplice fluttuazione del fondo (fluttuazione bastarda!). 

Tenendo conto del Look Elsewhere Effect i picchi di ATLAS e CMS perdono di importanza rispetto a quello che appaiono ad un'analisi statistica che valuti semplicemente la probabilità di una fluttuazione del fondo in quel punto, ma restano comunque. Perdono di significatività ma non la perdono del tutto.

Non la perdono del tutto anche perché sono entrambi allo stesso valore di massa, ovvero circa 750 GeV, in due esperimenti diversi. Sebbene nessuna persona sana di mente penserebbe di avere scoperto qualcosa di fondamentale guardano singolarmente i grafici dei due esperimenti, tuttavia il fatto che siano entrambi allo stesso valore di massa li rende molto più interessanti. Però potrebbe anche questo essere il risultato di una (bastarda) fluttuazione statistica. E i fisici in crisi da astinenza da nuova fisica possono cascarci.

Perché il punto è proprio questo: i fisici delle particelle hanno bisogno di nuova fisica. Così come di certi si dice che hanno un disperato bisogno di una donna (o di un uomo, non vorrei sembrare sessista), i fisici delle particelle hanno un disperato bisogno di nuova fisica (e anche di una donna, a volte, ma questo non c'entra).

Infatti la fisica delle particelle è arrivata ad una situazione strana. Da un lato c'è una teoria, chiamata Modello Standard, che descrive e prevede con grande precisione tutta la fenomenologia delle particelle osservabile negli esperimenti, con un accordo fra teoria e esperimento in alcuni casi veramente eccezionale. 

Dall'altro esistono innumerevoli indizi (oltre che convinzioni teoriche) che il Modello Standard non possa essere che un'approssimazione del comportamento della natura. Un'approssimazione molto buona fino alle energie testate finora negli esperimenti, ma non utilizzabile in assoluto, così come la teoria di Newton è un'ottima approssimazione qui sulla terra, ma se andiamo su stelle dal campo gravitazionale molto intenso essa smette di funzionare bene, e bisogna usare la relatività di Einstein. Ci sono indizi molto forti, e in certi casi chiare evidenze, che devono esistere fenomeni radicalmente nuovi e non ancora scoperti. Fenomeni non contemplati nelle teorie attuali.

Sappiamo ad esempio che esiste la materia oscura nell'universo, ma non sappiamo di cosa sia fatta. Sappiamo solo che non è fatta delle particelle che conosciamo. Sappiamo poi che i neutrini hanno massa, e questo nasconde fenomeni non descritti nel Modello Standard. Sappiamo che l'antimateria è sostanzialmente scomparsa nell'universo fin da subito, ma non sappiamo perché, e quale meccanismo ne sia stato responsabile, dato che osserviamo che le leggi della natura praticamente non distinguono fra materia e antimateria. Sappiamo che la teoria di cui disponiamo, assieme alla meccanica quantistica, prevederebbe un'energia del vuoto spaventosa, qualcosa come 120 ordini di grandezza più grande di quanto si osservi effettivamente. E 120 ordini di grandezza di differenza non possono essere un errore sperimentale o una svista in un calcolo (alla faccia!). Vuol dire che c'è qualcosa che manca, qualcosa di profondamente sbagliato nella teoria, quella stessa teoria che però ci descrive alla perfezione tutti i fenomeni che osserviamo nei nostri esperimenti.  Deve esserci qualcosa di cui non abbiamo tenuto conto, ma non sappiamo cosa. O meglio, pensavamo di saperlo, e lo avevamo chiamato "Supersimmetria", ma la Supersimmetria non si trova, e più passa il tempo, più essa si avvicina pericolosamente al cestino delle teorie non confermate dagli esperimenti. Sappiamo poi che potrebbe esistere un'energia che riempie lo spazio e respinge la materia, accelerando l'espansione dell'universo. Già solo il nome che le è stato dato, "Energia Oscura", la dice lunga sul fatto che non abbiamo idea di che cosa sia. 

E quindi i fisici credono fortemente che debba esistere della nuova fisica, ancora sconosciuta, oltre al Modello Standard.

Ma non la trovano. 

E poi esiste un altro motivo che, a mio parere, renderebbe la scoperta di nuova fisica qualcosa di importantissimo.

Gli esperimenti di fisica delle particelle oggi sono molto complessi, e richiedono sforzi umani e economici congiunti e prolungati nel tempo. Non è più come negli anni 60 e 70, in cui fra teoria che ipotizzava e esperimento (realizzato da poche persone) che confermava (o smentiva) l'ipotesi passava al massimo qualche anno. E' ormai lontano il periodo in cui ogni qualche anno si apriva un nuovo ventaglio di fenomeni da esplorare.

Oggi questo non accade più, perché i progetti scientifici in questo campo sono molto complessi. Per costruire LHC si sono impiegati più di 10 anni (molto di più in realtà, se si considera da quando si è iniziato a parlare di LHC), e il progetto va avanti già da 5 anni, E un nuovo progetto, che sia un acceleratore o un esperimento complesso, richiederebbe comunque molti anni di preparazione. 

Si rischia quindi di interrompere quello che è il motore della scienza: l'interscambio fra teoria e esperimento. Ovvero i teorici che ipotizzano, gli sperimentali che verificano, o eventualmente smentiscono, e scoprono cose nuove che permettono ai teorici di ipotizzare nuove teorie, e così via. Mentre infatti per i teorici in linea di principio non c'è limite alla fantasia, per gli sperimentali esistono vincoli concreti che impediscono di realizzare in tempi "ragionevoli" i test necessari a validare o smentire la teoria. E alla fine se ai teorici non arriva nessun nuovo input, la loro fantasia da sola serve a poco. E questo rischia di essere, a mio pare, una catastrofe.

Perché se LHC non dovesse scoprire nessun segnale di nuova fisica, che, sottolineo, sappiamo deve esistere, si rischia di far passare anni, forse decenni prima di averne di nuovo l'opportunità. Bisognerà inventare tecniche nuove, esperimenti nuovi in settori alternativi, per cercare prove di nuovi fenomeni, perché la strada finora ritenuta maestra, cioè l'osservazione diretta negli acceleratori, rischia di non essere più possibile, o per lo meno molto difficile.

Quindi speriamo che con la ripresa di LHC la prossima primavera quell'abbozzo di picco che ATLAS e CMS vedono allo stesso valore di massa si concretizzi in una scoperta, Non importa di cosa. Che sia un gravitone, una particella supersimmetrica, o qualcosa di assolutamente nuovo e sconosciuto (io spererei per questa opzione, già che ci siamo), purché si scopra qualcosa che dia nuova fisica a questi ragazzi, me compreso, perché altrimenti li vedo male.


domenica 6 dicembre 2015

Scienza a tutto campo by Zichichi


Da un po' di anni a questa parte gli interventi di Zichichi sulla stampa seguono un cliché ben prevedibile. Qualunque sia il soggetto di cui si parla, nell'articolo vengono fatti accenni a tutta una serie di argomenti scorrelati, che in generale non servono a nulla nell'economia del ragionamento, ma servono a rimpolpare lo scritto, e soprattutto servono a contraddistinguere Zichichi.

Riguardo invece ai temi scientifici trattati, lo scienziato nazionale ci ha ormai abituati a incursioni a tutto campo in argomenti sui quali ha poca o nessuna competenza, come ad esempio l'evoluzionismo Darwiniano, che, a suoi dire, non è scienza Galileiana e, sempre a suo dire, non ha conferme sperimentali. La stessa cosa accade con il problema del clima. Restano poi memorabili le sue dissertazioni sull'anno 2000 che non può dirsi anno 2000, e i passi di uno dei suoi libri dove ci fa notare quanto sia sbagliato dire "nel 700" quando si dovrebbe dire "nel 1700", per poi raccontarci dei suoi esperimenti condotti verso la fine degli anni 70 senza specificare oltre, e lasciandoci quindi il dubbio se fossero prima o dopo la distruzione di Pompei.

I suoi scritti ormai sono talmente simili da lasciar supporre che abbia un template preconfigurato, tipo la modulistica dell'anagrafe, dove, cambiando poche parole qua e là, l'articolo diventa utilizzabile per qualunque argomento.

Non si sottrae a questa prassi ormai ben consolidata l'ultima intervista pubblicata pochi giorni fa da Il Giornale, che ormai ospita periodicamente le opinioni dell'illustre scienziato. L'argomento è uno dei cavalli di battaglia di Zichichi: il clima e i cambiamenti climatici. Lo scienziato infatti non crede al fatto che il clima stia cambiando, e men che meno crede che l'uomo ne sia la causa, e lo dice ad alta voce adducendo fior fore di argomentazioni.

Ma veniamo all'articolo, che può essere letto integralmente qui. 

Per prima cosa la parte scientifica. Qui facciamo presto, non vi preoccupate, perché  di scientifico nelle dichiarazioni di Zichichi non c'è nulla. Ad esempio quando afferma che, siccome non si può prevedere che tempo farà fra 15 giorni, figuriamoci se si può prevedere il clima sulla terra fra 10 anni! Modifica di fine 2019: in 4 anni finora non hanno sbagliato di una virgola. 

Zichichi commette un piccolo errore di base: confonde il meteo con il clima. Il meteo è un fenomeno locale, confinato nello spazio e nel tempo (che tempo farà a Milano fra 3 giorni alle 21 di sera?) mentre le previsioni climatiche rappresentano scenari su condizioni medie del pianeta. Il clima riassume l'insieme di proprietà statistiche, e non pretende in alcun modo di descrivere la fotografia della terra in un dato istante.  Una cosa completamente diversa dal meteo, quindi, che dimostra che Zichichi non ha capito nemmeno di cosa sta parlando. Seguendo il suo ragionamento sarebbe come dire che, siccome non possiamo prevedere quante macchie solari ci saranno fra 4 mesi sul sole, né che posizione relativa avranno, allora figuriamoci se potremmo dire qualcosa di sensato su come sarà il sole fra 1 anno!

Se Zichichi mettesse per un attimo da parte il suo ego smisurato, che gli ottenebra la mente e gli impedisce di rendersi conto di quando sta sparando cose prive di senso, eviterebbe di fare queste figure patetiche. Figure patetiche sul clima, e su altri argomenti in cui a volte perde un'ottima occasione per tacere.

giovedì 3 dicembre 2015

L'ISTAT: l'istituto che non conosce errori

La rimozione dell'incertezza nelle stime economiche 


La premessa necessaria è questa: un qualunque risultato scientifico che ambisce a essere degno di questo nome, oltre al suo valore numerico deve avere associato un altro numero che rappresenta l'incertezza sul valore della misura. Se uno prova a pubblicare una misura scientifica senza quotare l'errore associato gli ridono dietro, e gli spediscono la pubblicazione al mittente.


Quell'errore associato alla misura è importante, fondamentale anzi, perché ci dice di quanto può variare il "vero" valore della quantità misurata, rispetto al numero che noi abbiamo stimato. Ci dice quanto precisa è quella misura, e quanto possiamo fidarci per usarla per costruire altre teorie, o valutarne l'impatto su altri fenomeni.



E se, metti caso,  ci sono fattori incogniti nello stimare questa incertezza (cosa che spesso accade con i cosidetti "effetti sistematici") la regola vuole che si stia larghi nel quotare l'errore, per evitare che altri possano credere che quella misura sia più precisa di quello che in effetti potrebbe essere.

Facciamo adesso un esempio: supponiamo, per assurdo, che l'ISTAT, l'Istituto Nazionale di Statistica, pubblichi i risultati delle stime trimestrali del PIL dello Stato Italiano senza quotarne l'incertezza. Calmi, non saltatemi addosso! E' un'ipotesi assolutamente impensabile, lo so, ma voglio usare qualcosa di volutamente assurdo proprio per far capire l'importanza dell'errore quando si quotano risultati importanti. 

Supponiamo quindi che l'ISTAT ci dica che in questo trimestre c'è stata una frenata nell'incremento del PIL. Si aspettavano una crescita dello 0.3% e invece è stata solo dello 0.2%. E supponiamo paradossalmente, (facciamo uno sforzo di fantasia per immaginarlo, anche se capisco che è difficile)  che non ci dica né quale era l'incertezza su quell'aspettativa dello 0.3%, e nemmeno l'errore da associare a quanto effettivamente misurato, cioè 0.2%.

Lo so, ridete, perché una cosa del genere è impensabile! Figuriamoci se l'Istituto Nazionale di Statistica si mette a rendere noti numeri così importanti, i numeri del PIL italiano tanto attesi da tutti in questi anni difficili, i numeri sui quali si nutrono tante aspettative, dandoli così, secchi, asciutti, senza dirci di quanto potrebbero differire! Figuriamoci se l'ISTAT non ci direbbe che quello 0.2% misurato ha un'incertezza che è magari di almeno 0.4%, e che la previsione dello 0.3% aveva un incertezza che, in quanto previsione, era ancora più grande, perché si basava sia sull'incertezza di essere una previsione che sull'incertezza del valore precedente dal quale la previsione era stata estrapolata. Impensabile, lo so, e ne sono perfettamente consapevole, però facciamo finta per un attimo che possa accadere una cosa così assurda.

E facciamo poi addirittura finta che, a fronte di un numero dato così, senza nessun errore associato, i politici ci si mettano sopra a discutere e magari a litigare, e che decidano, in base a quel semplice numero, senza chiedersi quanto sia incerto, cosa fare e cosa non fare, quali spese tagliare e quali azioni intraprendere.

E attraverso l'immaginazione supponiamo perfino, (in via del tutto ipotetica!), che i giornalisti e gli opinionisti, (in un mondo che fortunatamente non ha niente a che fare con la realtà), in base a un numero impensabilmente quotato come se fosse una granitica certezza, si mettano a discutere, litigare, e dispensare consigli senza prima domandarsi (e poi eventualmente domandare all'ISTAT) quanto è certo quel numero. Supponiamo per assurdo che scrivano titoli del tipo "doccia fredda sull'economia: il PIL in ribasso! 0.2% invece dello 0.3% previsto!". Ipotizziamo addirittura che un quotidiano, riportando il dotto parere degli analisti, scriva cose come queste riportate in questo link ovviamente non reale ma frutto della più sfrenata fantasia.

Sarebbe veramente pazzesco se l'ISTAT desse in pasto all'opinione pubblica dei numeri così importanti senza comunicare allo stesso tempo in modo chiaro e comprensibile che quei numeri non possono essere presi così pari pari, ma che potrebbero essere un po' diversi, perché nel fare le stime ci sono di volta in volta innumerevoli effetti, statistici e sistematici che possono inficiarne il risultato in modo non completamente controllabile a priori.

Sarebbe impensabile se il dibattito si costruisse su dati lanciati in pasto ai politici e all'opinione pubblica senza un minimo di precauzione, inducendoci a credere che quei numeri siano matematiche certezze. Sarebbe impossibile soltanto immaginare che si possa persino sviluppare un dibattito, per non parlare di uno scontro, su informazioni di cui non si conosce la precisione, men che meno tra gli esperti del settore!

Sarebbe poi pura fantascienza che chi ha il potere e il dovere di decidere cosa fare dello Stato Italiano in base a quei numeri non pretenda di saperne l'incertezza, ma li prenda così come sono, come se 0.2% e 0.3% possano essere realmente due numeri diversi.

Per non parlare poi delle agenzie di rating, quelle che decidono se declassare o meno un paese in base ad attentissime e meticolosissime valutazioni della sua economia, facendolo passare da classe A+ a B come se fosse una lavastoviglie. Sarebbe incredibile se si mettessero a usare un valore del PIL, buttato lì in quel modo senza la sua incertezza, per decidere le sorti dell'Italia, e dire magari "Italia, per me è un no", senza prima valutare con attenzione quanto potrebbe differire quel numero dal valore pubblicato. Impensabile ad esempio che Moody's, la prestigiosa agenzia di valutazione economica, se ne esca con affermazioni del tipo "dopo la doccia fredda dell'ISTAT, occorre rivedere le previsioni per l'Italia sul target del 2016", come scritto in questo articolo chiaramente inventato da qualche burlone.

E i brooker? Quelli che speculano e vincono o perdono miliardi di dollari scommettendo sulle sorti dell'economia delle nazioni? No, figuriamoci, questo sarebbe troppo! Immaginare solo lontanamente che gli scommettitori in borsa possano giocare milioni di dollari su uno 0.2% invece che 0.3 senza aver prima controllato qual è l'incertezza associata a quei numeri, che magari potrebbero tranquillamente essere 0.8 e 0.5%, e quindi invertire completamente il trend! No, questo è proprio impossibile! Immaginare che scommettano sulla pelle dei cittadini qualunque basandosi su due numeri buttati lì così, e che senza il loro errore non significherebbero assolutamente niente, figuriamoci! No, adesso non esageriamo! Neanche in un romanzo di fantapolitica di infimo livello potrebbe accadere una cosa simile! 

E la BCE? La Banca Centrale Europea? Vabbè dai, state seri un attimo e fatemi continuare! Fatemi fare anche questo esempio paradossale. Immaginate, così per gioco, che la BCE si metta a giudicare l'economia di una nazione, in questo caso l'Italia, su uno 0.2 invece che 0.3% senza controllare prima l'incertezza associata a quei due numeri! E immaginate (gran cosa la fantasia!) che Draghi ci dica "eh, ragazzi, così non va mica bene! Avevate detto che sarebbe stato lo 0.3% e invece è solo 0.2! Qui a Francoforte ci siamo rimasti tutti molto male!" Ridicolo! Assurdo! Vorrebbe dire che saremmo veramente in mano a una manica di incapaci totali! Gente che non ha proprio idea di quello che dice di saper fare! Che non sa di cosa sta parlando.

E passi per l'ISTAT, che magari si sa che in Italia a volte facciamo le cose un po' un tanto al chilo, ma sarebbe pura follia soltanto supporre (mi sento male solo a scriverlo, ma tanto lo sapete che mi sto inventando delle cose per gioco!) che tutte le comunicazioni di tutti gli enti di statistica del mondo sui dati dell'economia di qualunque paese vengano sempre sistematicamente resi pubblici senza quotare il loro errore, e che,  nonostante questa ipotesi fantascientifica, in base a quei numeri che da soli non significherebbero niente i potenti del mondo prendessero le loro decisioni senza che nessuno alzi il ditino per dire "scusate, ma questo 1% è proprio 1% o potrebbe anche essere mezzo per cento?" Sarebbe pura follia se le sorti del mondo si basassero sulle decisioni di gente che prende sul serio una differenza fra 0.2 e 0.3% senza chiedersi quanto sia significativa quella differenza. Ma per fortuna quello che sto dicendo è puro frutto della fantasia

Ad esempio (mi viene da ridere mentre scrivo, tanto è assurdo quello che sto per dire) ipotizziamo che la Merkel, Hollande, Renzi, Obama, Draghi e tutto il gotha della politica e dell'economia mondiale non abbiano mai controllato l'andamento del PIL italiano in questi ultimi anni, cosa che da sola fornisce un indicatore delle fluttuazioni intrinseche che si possono avere di trimestre in trimestre. Anche se, (ipoteticamente, figuriamoci!) l'ISTAT non fornisse le incertezze dei singoli dati, semplicemente guardando come le stime del PIL fluttuano su e giù già si intuisce quale può essere la loro variazione fisiologica da punto a punto. Sarebbe impossibile che non abbiano notato che negli ultimi 20 anni, a parte il 2009, anno di crisi mondiale (causato da quegli attentissimi speculatori che dicevamo prima), il nostro PIL abbia sempre fluttuato su e giù in modo quasi fisiologico ma che dico dello 0.2%, ma addirittura dello 1% o più!  E quindi è impossibile che non sappiano che disquisire su una differenza fra 0.2 e 0.3% significa disquisire del nulla! Ma, come dicevo, stiamo parlando di una situazione che per fortuna nel mondo reale non avviene.