12. La tempesta perfetta

Esiste una crisi del modello occidentale per la ricerca di base?

Il modello occidentale per la ricerca di base è il risultato di un lungo processo evolutivo cominciato nel 1600 con l’introduzione del metodo scientifico da parte di Galileo, e con la costruzione delle Università in Europa, dove insegnamento e ricerca si fondono nello stesso luogo fisico e sono portate avanti dagli stessi scienziati. Concetto ripreso e portato oltre oceano alla fine del diciannovesimo secolo da Abraham Flexner, che rifondò seguendo questo schema le medical schools americane. Flexner andò oltre, codificando la struttura e la finalità di un istituto di ricerca di base, e mettendo in pratica queste idee fondando l’Institute of Advanced Studies di Princeton. Sulla scia di Flexner, Vannevar Bush a cavallo della seconda guerra mondiale getta le fondamenta di quella che è la moderna struttura di ricerca di base statunitense, tra le altre cose contribuendo a creare la National Science Foundation, con la missione di promuovere il progresso della scienza utilizzando capitali pubblici. Il modello occidentale per la ricerca di base ha ottenuto strabilianti successi, e certamente il mondo non sarebbe oggi quello che è senza l’affermazione di questo modello (Capitolo 1).

Che ovviamente nel tempo si è modificato, adattandosi ai momenti storici. Una delle domande che ci siamo posti nel prologo è come si è modificato il modello, e se l’odierna variante è davvero la più adatta ed efficiente a promuovere un progresso paragonabile a quello esponenziale a cui siamo stati abituati fin ora. In altre parole, stiamo osservando la fine del progresso esponenziale, e quindi indizi di una crisi del modello occidentale per la ricerca di base?

Nei capitoli precedenti abbiamo incontrato più di un indizio di questo tipo. Abbiamo constatato che il sistema della ricerca oggi in Italia e nel mondo occidentale soffre probabilmente del problema di una creatività limitata. Più fenomeni, spesso correlati tra loro in maniera complicata, concorrono a generare quella che si può definire una tempesta perfetta. 

Primo. A partire dagli anni ‘90 si assiste ad una decrescita dell’intensità di spesa pubblica in ricerca e sviluppo in tutto il mondo occidentale (Capitolo 2). In UK la decrescita comincia addirittura un decennio prima. Allo stesso tempo, il numero di ricercatori è continuato a crescere, come anche la frazione di fondi destinati a grandi progetti. Di conseguenza, in media, i fondi a disposizione di ogni ricercatore sono diminuiti sostanzialmente in tutta Europa dagli anni 80-90 ad oggi (sono rimasti quasi costanti negli Stati Uniti, Capitolo 3). La quantità di fondi destinati a grandi progetti è però cresciuta ovunque, e quindi i fondi a disposizione della ricerca indipendente per ricercatore sono diminuiti e molto in tutto il mondo occidentale. Questo ha sviluppato un effetto di selezione naturale tra i ricercatori. 

Secondo. Il trend descritto al punto precedente ha prodotto uno sbilanciamento rilevante verso un modello di scienza competitiva (Capitolo 10). Una delle conseguenze è che per trovare un posto di lavoro, per fare carriera, per ottenere fondi di ricerca è necessario pubblicare il più possibile, e per fare questo naturalmente si tendono ad affrontare problemi facili e meno rischiosi. E soprattutto si tende a lavorare in settori alla moda, che possano garantire molte pubblicazioni e citazioni, e che garantiscano di essere almeno riconosciuti dalle commissioni d’esame o da quelle di selezione dei fondi. Questo ha limitato e limita fortemente la ricerca indipendente, la spinta a seguire sentieri tortuosi e meno battuti.

Terzo. Il sistema di reclutamento nel mondo occidentale è sbilanciato verso posizioni a termine, pagate o da grandi progetti o da grants ottenuti da ricercatori più senior (Capitolo 3). Solo uno ogni 7-30 studenti di dottorato di ricerca avrà accesso ad una Università o a un ente di ricerca pubblico, e con uno stipendio non competitivo con il privato. Il risultato è che i migliori studenti non sceglieranno le Università o gli enti pubblici di ricerca per la loro carriera. Quelli che rimarranno nel sistema non riusciranno a trovare un impiego fisso prima dei quaranta anni. Giovani scienziati oggi lavorano su contratti a tempo determinato per lo più su idee che non sono le loro, ma dei loro datori di lavoro. Hanno poche opportunità per sviluppare linee di ricerca indipendenti. Gli anni che sono ritenuti i più fruttiferi dal punto di vista della creatività sono invece destinati a trovare una occupazione fissa e a lavorare per il beneficio dei loro datori di lavoro, che potranno poi fregiarsi di tassi di pubblicazione alti, fare ulteriore carriera, trovare ulteriori fondi per assumere nuovi post-doc.

Quarto. Il sistema della Big Science naturalmente implica centralizzazione delle risorse, specializzazione e limitata indipendenza (Capitolo 5). Migliaia di ricercatori, giovani e vecchi, lavorano su concetti e idee sviluppati da una minuscola frazione di ricercatori senior. La cosa peggiore è però che l’attività della maggior parte dei ricercatori è concentrata in ambiti limitati, molto specializzati, e questo difficilmente permette a giovani ricercatori di sviluppare tutti gli skill necessari per poter prima ideare e poi costruire un esperimento in maniera indipendente. Senza questa essenziale gavetta, è veramente poco probabile che un ricercatore riesca poi in futuro a trasformarsi nel dirigente in grado di ideare e condurre il prossimo grande progetto.

Le conseguenze di questi fatti sono state discusse a lungo nella letteratura specializzata, ad esempio si può consultare il saggio Is American Science in Decline?[1], dove accanto a note certamente positive vengono anche messi in luce diversi sintomi negativi simili a quelli menzionati sopra. Già una dozzina di anni fa la National Academy of Science degli Stati Uniti pubblicava un report molto preoccupato su questi problemi[2]

Ho già ricordato come alcuni fisici teorici ritengono che negli ultimi 30 o 40 anni i progressi nella fisica teorica siano stati per lo più incrementali, neanche lontanamente paragonabili a quelli dei 40 anni o 80 anni precedenti. Questa affermazione è sostenuta anche dall’analisi dei premi Nobel in fisica negli ultimi 60 anni. Tra il 1961 e il 1990 il 50% dei premi Nobel in fisica è andato a ricerche di fisica teorica e di fisica delle particelle, il 3% a ricerche di astrofisica e il 46 % a ricerche di struttura della materia. Nei 30 anni seguenti, dal 1991 al 2020 la frazione di Nobel in fisica teorica e particelle si è dimezzata, totalizzano il 25 % di tutti i premi Nobel in fisica. La frazione di Nobel a ricerche di astrofisica è aumentata tantissimo, raggiungendo il 19% (non si puo’ non notare che 3 degli ultimi 4 anni hanno premiato ricerche di astrofisica (Genzel, Ghez e Penrose per ricerche sui buchi neri nel 2020, Mayor e Queloz per la scoperta dei pianeti extrasolari e Peebles per ricerche in cosmologia, Weiss, Barish e Thorne per l’osservazione delle onde gravitazionali). Il 56% dei Nobel in fisica infine e’ andato a ricerche di struttura della materia negli ultimi 30 anni. 

Certo si può sicuramente sostenere che, al contrario della fisica teorica, campi come la genetica molecolare o l’information technology stanno vivendo una fase di sviluppo eccezionale, e che quindi non sia la Scienza nel suo complesso a vivere una crisi, ma forse solo un campo ristretto. Credo però che non sia molto saggio sottovalutare i sintomi esposti nei capitoli precedenti e riassunti qui sopra. Sintomi che, come in tutte le malattie, richiedono prima una diagnosi e poi un’azione. 


[1] Is American Science in Decline? 2012, Xie & Killewald, Harvard University press

[2] Rapporto della National Academy of Science statunitense:  Rising Above the Gathering Storm, 2007

11. Un esempio, il migliore, di scienza competition-driven: il sistema ERC

L’European Research Council (ERC) è stato fondato nel 2007 con lo scopo di finanziare ricerca di punta in Europa, in particolare ricerca ad alto rischio ma potenzialmente ad altissimo ritorno (high-risk/high-gain). Ricercatori di tutte le discipline possono applicare al programma per intraprendere ricerche alla frontiera della conoscenza, con il solo vincolo di dover lavorare in uno dei paesi dell’Unione Europea o in paesi associati. I ricercatori possono competere per quattro livelli, Starting, Consolidator e Advanced grant, in funzione della loro anzianità, e Synergy dove sono finanziate ricerche interdisciplinari presentate da due o tre Principal Investigator (PI). I progetti sono selezionati da commissioni di pari (peer review panels) sulla base dell’eccellenza del progetto e del PI che lo ha presentato. I progetti di ciascun livello sono divisi in 25 peer review panels, che fanno parte di tre macro-aree: Scienze della Vita, Scienze Fisiche e Ingegneria, Scienze sociali e umane. Dulcis in fundo, il livello di risorse messo a disposizione è altissimo, 13.1 miliardi di Euro per il periodo 2014-2020, che saliranno a circa 16 miliardi di Euro nel periodo 2021-2027.

Sulla base dei tre indicatori citati sopra l’ERC è probabilmente il modello di competition-driven science migliore al mondo. Se vogliamo avere un’idea dell’impatto della scienza competition-driven, è quindi naturale chiedersi se gli alti scopi che sono alla base della costituzione dell’ERC siano stati poi effettivamente raggiunti, o comunque quale sia l’impatto sui paesi Europei di un investimento così cospicuo su ricerca di base. 

Il sistema ERC stesso nel corso degli anni si è posto il problema di verificare quali siano i risultati del programma, sia da un punto di vista quantitativo che qualitativo, usando lo stesso approccio. Nel 2015 ERC pubblica il report, Comparative scientometric assessment of the results of ERC funded project[1], nel quale cerca di rispondere, in maniera quantitativa, a tre questioni fondamentali:

  1. Il sistema ERC basato sulla peer review è davvero in grado di selezionare i migliori candidati tra quelli che hanno sottomesso una proposta?
  2. I fondi investiti dall’ERC sui candidati vincenti hanno aiutato a migliorare la produzione scientifica e l’impatto dei ricercatori vincenti?
  3. Il sistema ERC funziona meglio o peggio di altri sistemi di finanziamento di ricercatori europei o statunitensi?

La prima domanda viene affrontata confrontando la produzione scientifica dei vincitori di un ERC con quella di chi ha presentato domanda ma non è stato selezionato. I ricercatori non selezionati sono divisi in due gruppi, quelli che hanno avuto accesso al secondo livello di selezione, e quelli che sono stati respinti direttamente al primo livello. Analizzando i risultati degli anni dal 2007 al 2011 inclusi il risultato è che in media i vincitori di un ERC hanno una migliore produttività sia di chi è stato ammesso al secondo livello di selezione ma non finanziato, sia di chi è stato escluso direttamente al primo livello. Questo però non è vero per tutte e 25 le aree di ricerca in cui è diviso il programma ERC. Per sette aree di ricerca i ricercatori con la migliore produttività sono quelli esclusi al secondo livello e per una area addirittura quelli esclusi al primo livello (scienze sociali e umani, quinta area). Non posso non notare che l’area di ricerca che mi riguarda (Astronomia e Astrofisica, PE9) è tra quelle per le quali i ricercatori con la migliore produttività non sono i vincitori ma quelli esclusi al secondo livello di selezione.  

La seconda domanda viene affrontata valutando la produzione scientifica dei vincitori di un ERC prima e dopo la vincita. Mentre il numero di lavori pubblicati dopo la vincita di un ERC grant è sempre maggiore di quelli pubblicati prima, l’impatto dei lavori pubblicati dopo la vincita non è significativamente maggiore dell’impatto dei lavori pubblicati prima. La conclusione che onestamente gli autori dello studio raggiungono e scrivono nelle conclusioni è che “… i dati bibliometrici non forniscono evidenza di un impatto significativo del finanziamento ERC sulla produzione scientifica dei vincitori sia da un punto di vista quantitativo che qualitativo”.

La terza domanda viene affrontata confrontando la produzione scientifica dei vincitori di un ERC con quella dei vincitori di grant da parte di altre agenzie ed enti di finanziamento europei e statunitensi. Il risultato è che la produttività dei vincitori di ERC nella macro-area Scienze Fisiche e Ingegneria è migliore di quella dei vincitori di grant della National Science Foundation (NSF) statunitense, mentre per la macro-area Scienze della vita la produttività dei vincitori di ERC è simile a quella dei vincitori di grant del National Institute of Health (NIH) statunitense, e minore di quelli dell’Howard Hughes Medical Institute.

Nel 2018 l’ERC ha pubblicato il rapporto Qualitative evaluation of completed projects funded by the ERC[2]dove si analizzano i risultati di 155 progetti ERC completati, e si vuole valutare se questi progetti hanno raggiunto lo scopo di produrre scienza di alto livello. Ai valutatori è stato chiesto di raggruppare i progetti in quattro categorie: 1) scientific breakthrough; 2) avanzamento molto significativo; 3) contributo incrementale; 4) nessun contributo apprezzabile. Il risultato globale è stato che il 25% dei progetti è stato valutato nel grado migliore, il 48 % nel secondo grado, e il 26% nel terzo grado (il rimanente 1% non ha prodotto risultati apprezzabili).  

E’ necessario sottolineare e commentare i risultati oggettivi del primo report. Per farlo, è utile contestualizzare il discorso e arricchirlo di qualche altro dato, sempre fornito da ERC stesso. Durante il ciclo Horizon 2020 (2014-2020) sono stati assegnati 7567 grants (mancano al totale solo gli advanced grants 2020, la ragione sarà chiara nel seguito). Di questi, 835 sono andati in Francia, 1208 in Germania, 1367 nel Regno Unito e 426 in Italia. Tradotto in Euro, significa che circa 1,4 miliardi di Euro sono andati in Francia, circa 2 miliardi sono andati in Germania, circa 2,3 miliardi di Euro sono andati in UK e solo 730 milioni di Euro sono venuti in Italia. Il differenziale con la Francia o la Germania, tra 700 milioni di Euro e un miliardo di Euro corrisponde piu’ o meno a tutti i fondi investiti in Italia da MIUR prima e dal MUR poi nei progetti PRIN. O circa 100-130 milioni di Euro l’anno, ovvero tra il 6% e il 10% del Fondo di Funzionamento Ordinario di tutti gli enti di ricerca in Italia. Per non rischiare di parlare di cose che conosco poco mi limiterò a discutere solamente dati relativi alla macro-area di Scienze Fisiche e Ingegneria (PE) o alla sottosezione di Astronomia e Astrofisica (PE9). Dal 2007 al 20197 inclusi sono stati assegnati in PE un totale di 4418 grants, 2079 starting, 1003 consolidator, 1336 Advanced. Per PE9 i numeri sono 340 grants in totale, 139, starting, 92 Consolidator, 109 advanced. La tabella che segue riporta la divisione dei grant per nazione.

 ItaliaFranciaGermaniaUKOlandaSpagnaTot
Proposte PE nel paese46384338493164951844322638818
Vincitori PE nel paese2616436037963342524418
% vincitori PE/ proposte5.614.812.212.27.67.811.4%
% vincitori  PE nel paese 5.914.613.618.07.55.7 
Proposte PE9 nel paese2963753847821612002957
Vincitori PE9 nel paese215844873412340
% vincitori PE9 / proposte7.115.411.411.121.16.011.5%
% vincitori PE9 nel paese6.217.112.925.610.03.5 

La prima costatazione che si può fare è molto ovvia. Il sistema ERC è davvero un sistema competitivo! In media solo 1 proposta su 9 riesce ad arrivare al finanziamento.

L’Italia è riuscita ad accaparrarsi solo il 5.9 % dei grant distribuiti in PE (6.2% in PE9), una frazione esattamente la metà della media, e circa 2-3 volte minore di quella di Francia, Germania e UK. Il numero totale di proposte sottomesse è stato però simile a quello di Francia e Germania, e solo poco minore a quello delle proposte UK. Il che è di per se una cosa rimarchevole, dato il minor numero totale di ricercatori in Italia rispetto a queste nazioni, vedi Capitolo 3.

E veniamo agli Advanced Grant  2020. In questa tornata nella categoria PE, Physics & Engineering sono stati assegnati 93 grant (da circa 2Meuro l’uno, quindi un totale di circa 180 milioni di euro. Di questi 93 Grant 18 sono andati in Germania, 14 in Francia e 17 nel Regno Unito). E in Italia? L’Italia non c’e’. ZERO grant italiani. Cioe’ mentre nei paesi citati sono confluite cifre dell’ordine di 20-30 milioni di euro per paese solo nel 2020 e solo per questo programma, in Italia non è arrivato neanche un centesimo. Possibile?

In fisica in generale, e anche in astrofisica e fisica dello spazio, l’impatto e la rilevanza della comunità italiana, misurato come articoli e citazioni su riviste con referee, è simile a quello dei ricercatori Francesi, e poco minore di quello dei ricercatori Tedeschi e del Regno Unito, certamente non di fattori 2-3. E’ necessario quindi spiegare in un altro modo la apparente minore capacità italiana di accedere ai finanziamenti ERC rispetto ai colleghi Francesi, Tedeschi e del Regno Unito. Ci sono almeno tre aspetti che vanno considerati a questo riguardo. 

Il primo è che i numeri in tabella si riferiscono ai vincitori che eleggono come loro sede di ricerca una data nazione. E Il numero di vincitori italiani che elegge come sede di lavoro un istituto o università straniero è maggiore del numero di vincitori stranieri che elegge come sede un istituto o una università italiana. Ad esempio, nella lista Advanced Grant 2020 ci sono 6 italiani, che però hanno scelto una università o un istituto fuori dall’Italia per svolgere le loro ricerche. Questo fattore incide per circa il 20-50%, e quindi non spiega completamente differenze del 200-300%.

Il secondo elemento da considerare è la composizione delle commissioni di valutazione. Per fare un esempio, tra il 2008 e il 2019 ci sono state 12 commissioni di valutazione per il settore PE9 Avanced Grant per un numero complessivo di 145 “sedie”. Il numero complessivo di ricercatrici e ricercatori coinvolti è stato 57, e tra questi solo 3 sono italiani, che lavorano in Italia. Ma il dato più importante probabilmente è un altro. Il ricambio medio tra una commissione e la seguente è stato del 28%, cioè di circa 3 persone su una commissione di 11-12 membri.  In conclusione, tra poche e pochissime persone analizzano e giudicano le proposte, e queste persone sono state per lo più le stesse negli ultimi 12 anni (almeno per quello che riguarda gli advanced grant PE9). Un sistema che ricorda molto l’oligarchia. E in questo sistema evidentemente gli italiani non brillano particolarmente per capacità di vincere grant. 

Quale che sia la ragione per cui i ricercatori italiani riescono a portare nei nostri istituti finanziamenti 2-3 volte minori dei colleghi di questi paesi quando sottomettiamo un numero analogo di proposte e quando l’impatto scientifico dei nostri lavori e sostanzialmente simile a quello dei nostri colleghi europei, mi sembra evidente che sia assolutamente necessario lavorare per ridurre ed eliminare questa penalità, che è utile ripetere si aggira tra le molte centinaia di milioni di euro e il miliardo di euro in 7 anni e che si aggiunge beffardamente al fatto che in UK, Francia e Germania il finanziamento nazionale per la ricerca è maggiore di quello italiano. Il problema è probabilmente di sistema, sia della nostra limitata capacità di far attivamente parte dell’oligarchia di cui sopra, sia della mancanza di supporto attivo ed efficace ai ricercatori che scrivono proposte (un supporto che specie nel Regno Unito è fortissimo, ed è forte anche in Francia e Germania). Investire di più e meglio per aumentare quantità e qualità del supporto alle proposte italiane sarebbe una strategia win-win sia per il Ministero dell’Università e della Ricerca, sia da parte delle Università e degli enti di ricerca, perché’ moltiplicando le entrate esterne potrebbero meglio e più efficientemente investire i limitati fondi interni (come avviene nel Regno Unito, vedi capitolo 2). 

Che l’Italia paghi una grossa penalità (100-130 milioni di euro l’anno) nel contesto dei finanziamenti ERC è un fatto facilmente  accertabile, basta guardare i numeri. Perché’ il MUR, le Università e gli enti di ricerca non intervengano con politiche efficaci per invertire la tendenza è molto più difficile da capire, non si possono usare semplicemente i numeri. Voglio lo stesso azzardare un paio di possibilità. Per quello che riguarda il MIUR prima e il MUR oggi è un fatto che i ministri che si sono succeduti negli ultimi 15 anni per vari motivi sono riusciti a rimanere nella posizione solo per poco tempo, uno o due anni. Mettere in pratica una politica nazionale efficace di supporto ai ricercatori richiede probabilmente molto più tempo. Purtroppo l’Università e la ricerca in Italia sono cenerentole del gran ballo della politica, e i problemi esposti in questo capitolo sono solo una parte di quelli che affliggono ogni neo ministro o ministra all’insediamento. Circa gli enti di ricerca non voglio parlare di quelli che non conosco direttamente e quindi posso esprimere un parere solo sull’INAF nel quale lavoro. Il supporto nella preparazione delle proposte è solo amministrativo, molto lontano come quantità e qualità da quello che succede negli istituti e nelle Università europee. Investire per creare un supporto adeguato è ovviamente possibile ma non è mai stato fatto con convinzione. Ma c’è di peggio. Quello che normalmente succede nel mio istituto e le future vincitrici e vincitori che lo indicano come  istituto di riferimento in fase di proposta, poi una volta portato a casa il grant sistematicamente migrano verso una Università. Il motivo è banale, ed è la molto migliore possibilità di carriera nelle Università. E’ sicuramente vero che questo è un problema comune anche agli altri enti di ricerca italiani, ma pure vero che nel mio istituto non si è fatto sistematicamente nulla negli anni per attrarre i vincitori di ERC, non è semplice ma possibile, la realtà è che questa non è mai stata una priorità.

In tutti i casi, a prescindere dalla capacità o incapacità italica, volontà o disinteresse nostrano ad attrarre finanziamenti ERC, un maggiore ricambio delle commissioni valutatrici non può che essere utile, e quindi auspicabile, anche per garantire che temi di ricerca nuovi non vengano penalizzati da panel conservatori, e quindi che il sistema ERC davvero riesca a finanziare per lo più progetti high-risk/high-gain.


[1] https://erc.europa.eu/sites/default/files/document/file/ERC_Bibliometrics_report.pdf

[2] https://erc.europa.eu/content/qualitative-evaluation-completed-projects-funded-european-research-council-2018

Post completo

Prossima pubblicazione: 12. La tempesta perfetta: esiste una crisi del modello occidentale per la ricerca di base?

10. Una nuova forza propulsiva per la ricerca

Gli esempi discussi nei due capitoli precedenti fanno parte della scienza guidata da immaginazione, curiosità, e ambizione di conoscenza. Entrambe sono partiti dall’ambizione di risolvere un problema scientifico cruciale, e hanno immaginato e perseguito un percorso, magari anche lungo e complicato, per raggiungere lo scopo. Accanto alle tradizionali forze propulsive per la ricerca da qualche decennio una nuova forza sta emergendo con prepotentemente: la competizione.

I ricercatori oggi competono per i dati, competono per i fondi, competono per ottenere una posizione nelle Università o negli Istituti di Ricerca e nelle aziende private, competono per migliorare questa posizione. La loro stessa semplice attività è determinata dalla vittoria o meno nella competizione.

I motivi dell’affermarsi della competizione nella ricerca sono molti, non ultimo il fatto che mentre il numero di ricercatori cresce molto, le risorse a loro disposizione crescono meno (almeno in Europa, come abbiamo discusso nel capitolo quarto). Per di più la maggior parte delle risorse sono assorbite dai Grandi Progetti, e quindi quando si calcola il costo medio di un ricercatore, questo non rappresenta il volume di finanziamenti di cui ogni ricercatore dispone. Questo volume è molto minore, una volta eliminata dalla media il costo enorme dei Grandi Progetti. In ogni ecosistema di questo tipo dove aumenta il numero degli individui e diminuiscono le risorse per individuo, si genera una lotta Darwiniana per la sopravvivenza, solo la specie più adatta viene selezionata e sopravvive. Ma il ricercatore più adatto a questo sistema, è anche quello che produce i risultati più importanti? In altre parole, siamo sicuri che il modello competition-driven sia davvero quello migliore per fare scienza utile?

Il ricercatore che sopravvive meglio nel sistema competition-driven è quello che in media pubblica un numero maggiore di articoli, e che riesce ad attrarre il numero maggiore di citazioni. Questo succede quando un ricercatore lavora su problemi facili, oppure in un grande progetto o in un settore alla moda, nel cosi detto mainstream, che attira l’attenzione di una platea il più grande possibile.

La necessità di competere per fondi e per carriera, produce quindi la necessità di pubblicare freneticamente, privilegiando i problemi semplici e alla moda, che sono più facilmente quelli incrementali nel diagramma di Kalbach presentato nell’ottavo capitolo. Questo significa che vengono sistematicamente tralasciati o comunque poco investigati i problemi più complessi e quindi rischiosi, dal punto di vista della sopravvivenza nell’ecosistema ricerca. I problemi che richiedono troppi anni di lavoro, e quelli lontani dalla moda. Non riesco qui ad evitare di citare Gianni Rodari:

È difficile fare le cose difficili

parlare al sordo,

mostrare la rosa al cieco.

Bambini, imparate a fare le cose difficili:

dare la mano al cieco,

cantare al sordo,

liberare gli schiavi che si credono liberi.

Ecco, gli scienziati dovrebbero fare come i bambini, imparare sempre a fare le cose difficili! E invece il modello di ricerca competition-driven li invoglia a fare le cose meno rischiose e più semplici. Il risultato netto è che la ricerca sta diventando sempre meno un risky bussiness. Un detto popolare recita: sbagliando si impara, concetto talmente semplice e naturale che viene ripreso persino dal Maestro Yoda quando recita: The greatest teacher failure is[1]. E invece i ricercatori si possono permettere di sbagliare pochissimo o niente, e quindi di imparare corrispondentemente poco. Un Grande Progetto è fondamentale che non fallisca, è costato enormemente, sia in termini di fondi che di risorse umane. Un fallimento metterebbe a rischio l’intero settore di ricerca collegato a quel progetto. Dall’altro lato, neanche una semplice ricerca, per quanto incrementale, di un semplice ricercatore è bene che non fallisca nel sistema competition-driven nel quale viviamo, perché’ genererebbe meno pubblicazioni meno citazioni e quindi meno possibilità di affermazione e meno fondi.

Competizione per fondi significa orientare il finanziamento verso progetti specifici, tipicamente di breve durata (tre, cinque anni). Questo implica poi finanziare posizioni precarie, della stessa durata, spesso pagate male, e sempre molto volatili, un concetto tanto semplice e chiaro che viene espresso in autorevoli pubblicazioni[2] e saggi[3].

Il premio Nobel Saul Perlmutter ha di recente affermato: “Non avrei potuto effettuare le mie ricerche che hanno portato al premio Nobel nell’attuale sistema di finanziamento della ricerca”. L’altro premio Nobel Kip Thorne aggiunge: “Oggi non sarebbe facile convincere il governo a finanziare un progetto come LIGO, la politica non vuole più rischiare grandi avventure scientifiche”.

Che la moda abbia un peso straordinariamente forte lo si vede molto bene in contesti dinamici come quello degli Stati Uniti. Negli anni 80’ e 90’ la stragrande maggioranza delle posizioni in fisica teorica nelle Università statunitensi è andato a teorici delle Stringhe; all’inizio degli anni 2000’ una grande frazione di posizioni osservative in astrofisica era legato ai Gamma Ray Burst. Dieci anni dopo la maggior parte delle posizioni in astrofisica era relativa a studi di pianeti extrasolari. Oggi la moda è cambiata ancora, e la frazione maggiore di posizioni negli Stati Uniti è associata all’astrofisica multi-messaggera di cui ho raccontato nel capitolo precedente. Seguire progetti alla moda garantisce pubblicazioni, citazioni, ma soprattutto garantisce il riconoscimento di chi quei progetti li ha inventati, gli scienziati più senior. E questo riconoscimento si può tradurre in un posto di lavoro e in finanziamenti, perché le commissioni di concorso e le commissioni di valutazione dei progetti sono sempre formate appunto dagli scienziati più senior (e spesso con scarso ricambio). Questo porta naturalmente a un meccanismo di auto-replica dell’esistente, che tende ad esclude il diverso, la persona creativa che voglia seguire semplicemente le proprie intuizioni, rischiare, e magari anche fallire. Se Einstein nel 1900 dovette andare a lavorare all’ufficio brevetti elvetico per seguire le sue intuizioni e la sua ispirazione, oggi non è detto che troverebbe lavoro nemmeno li (o che comunque riuscisse a pubblicare e a farsi leggere dal mainstream). Il premio Nobel per la medicina del 2016 Yoshinori Ōsumi sosteneva: “Non mi piace molto la competizione, e penso che l’essenza della scienza – ciò che la rende davvero così molto divertente — è proprio fare ciò che gli altri non stanno facendo, piuttosto che fare ciò attorno al quale tutti gli altri si stanno affollando e affannando. Un concetto simile a quello espresso dall’altro premi Nobel (per la fisica questa volta) Richard Feynmann, che sosteneva: la scienza è lo scetticismo organizzato nei confronti dell’opinione degli esperti. E questa mi sembra davvero la migliore definizione possibile di scienza.


[1] The last Jedi, 2017

[2] OECD Science & Innovation Outlook 2016

[3] Is American Science in Decline? (2012)

Post completo

Prossima pubblicazione: 11. Un esempio, il migliore, di scienza competition driven: il sistema ERC

9. Le forze propulsive per la ricerca

Nella storia le maggiori forze propulsive per la ricerca sono state l’immaginazione, la curiosità e l’ambizione di scoperta. Einstein sosteneva come l’immaginazione fosse addirittura più importante della conoscenza stessa. Feynman definiva la creatività scientifica come “immaginazione in una camicia di forza”. Ma la definizione forse piu’ bella del potere creativo dell’immaginazione viene da un non scienziato: Paul Mc Cartney. In una delle sue canzoni più belle e famose scrive: “but the fool on the hill sees the Sun going down, and the eyes in his head see the world spinning round”. E’ l’immaginazione, gli occhi nella testa dello sciocco (ma non tanto..) sulla collina, che riescono a tradurre una osservazione pure bellissima ma banale, il sole che tramonta, in un fatto sorprendente, il sole tramonta perché la Terra gira su se stessa. 

L’immaginazione si fonde con la curiosità nella famosa affermazione del Duca di Wellington: ho speso tutta la mia vita a cercare di indovinare cosa ci fosse dall’altra parte della collina. Di più: tutta l’arte della guerra è indovinare cosa ci sia dall’altra parte della collina. Wellington è stato un generale tanto famoso quanto bravo e fortunato, non certo uno scienziato. La sua era l’arte della guerra, non quella di sfogliare il libro della natura e dell’Universo. Nondimeno, la stessa affermazione di Wellington la si può usare anche a proposito della scienza: tutta l’arte della scienza è capire cosa c’è dall’altra parte della collina.

E infine l’ambizione, o meglio l’ambizione di conoscenza, la forza che ci porta a voler capire come funziona la Natura. James Cook è probabilmente quello che ha descritto meglio il concetto. Durante l’esplorazione dell’Antartide scriveva nei suoi diari: “L’ambizione mi porta non solo più lontano di quanto sia stato raggiunto da altri uomini prima di me, ma tanto lontano quanto io penso sia possibile per un uomo andare”.  Non vi suona familiare? Non e’ un caso che la frase di Cook sia stata ripresa poi negli anni 60’ come incipit di una famosa serie di fantascienza, Star Trek.

Tutte le ricerche e le scoperte presentate nei capitoli precedenti sono state stimolate dall’immaginazione, dalla curiosità e dall’ambizione. Non è un caso che l’ESA, l’agenzia spaziale Europea, che ha immaginato prima e realizzato poi Rosetta, per celebrare la missione abbia realizzato un film che si intitola per l’appunto “Ambition”[1]. L’immaginazione la curiosità producono l’ideazione di un esperimento, o meglio un programma, guidati solamente dall’ambizione di risolvere un problema scientifico. Programmi così ideati possono ambire a diventare “moonshot”. Mi piace spiegare meglio questo punto cruciale raccontando due esempi illuminanti. Il primo è il percorso che ha ideato e poi seguito Riccardo Giacconi, e che lo ha portato alla scoperta del fondo cosmico in raggi X prima, e alla sua spiegazione poi. Scoperta che gli ha valso il premio Nobel per la Fisica nel 2006. Il secondo esempio è più recente, ed è culminato il 10 aprile 2019 nella divulgazione della prima istantanea dell’orizzonte degli eventi di un buco nero (super-massiccio in questo caso, qualcosa di simile al Gargantua di Interstellar). Le interessate e gli interessati possono trovare questi due racconti qui (versione completa del post)


[1] https://www.youtube.com/watch?v=H08tGjXNHO4


Prossima pubblicazione: 30 agosto 2020. 10. Una nuova forza propulsiva per la ricerca

Intermezzo: Back to the Future

Dicembre 2019. Dopo molto tentennare mi decido a pubblicare queste pagine su un sito web e a pubblicizzare il sito sui tanto deprecati social. Compro un abbonamento per un dominio e supporto word press, e costruisco il sito www.lascienzainutile.it. L’idea è pubblicare tutto il libro a puntate, un capitolo a settimana. Assieme a una versione corta, stile blog, e se mi riesce anche una versione video.

22 febbraio 2020. Pubblico il Capito 7, che profeticamente si intitola Quale scienza è d’avvero utile? Il giorno prima i media sono pieni del primo caso autoctono di Covid-19. Il maratoneta di Codogno. E qui entriamo nella macchina del tempo, neanche fossimo novelli Dr. Emmett Brown.

In uno, due, cinque, dieci giorni tutti (e quando dico tutti, intendo veramente TUTTI, un qualche miliardo di esseri umani, essere più essere meno), siamo trasportati in un universo parallelo. Ieri il mondo era il solito noioso, disordinato, ingiusto, rivoltante, fantastico, assurdo, comprensibile e incomprensibile mondo. Oggi il mondo è un’altra cosa. Che essendo altra, aliena, non posso quindi neanche azzardarmi a descriverla. Sarebbe come se un essere tridimensionale (tipo uno qualsiasi di noi, comuni mortali) cercasse di descrivere un oggetto quadridimensionale, o pentadimensionale. Anche il più semplice oggetto quadridimensionale sarebbe ultra-complicato da descrivere per noi comuni mortali in tre dimensioni. Così è il mondo oggi, dopo un velocissimo, si potrebbe dire istantaneo, viaggio con la più potente DeLorean che immaginazione abbia potuto concepire. Tutto quello che davamo per scontato, scolpito nella roccia, le tasse, la partita di basket di mio figlio alla quale assistere assieme ai genitori di altri scalmanati ragazzi, lo spogliatoio del nuoto sempre di mio figlio, le intemperanze del vicino guardone, il vucumpra’ che la domenica dopo pranzo si presenta immancabilmente a suonare alla porta, quando l’unico desiderio del comune mortale è quello di sprofondare su un letto o su un divano, per tentare di digerire lo sformato e la salciccia arrostita sul carbone, tutto svanisce in una nebiolina azzurrognola. Tutto svanito. La nuova realtà, il nuovo mondo non so appunto descriverlo, so solo che è diverso. Per semplicità e per evitare di usare le noiose perifrasi che ho appena usato, tipo nuova realtà, universo parallelo, mondo nuovo, lo chiamerò “Arturo”. Avrei potuto chiamarlo Priscilla, Genoveffa, Pincostrato, Ancomarzio, Cappellaiomatto. Però ho la sensazione che a differenza del viaggio di Alice il nostro sia un viaggio di sola andata. E poi Arturo mi suona meglio.

Pubblico l’8 marzo il Capitolo 8, che ancora più profeticamente è incentrato sul concetto di crescita esponenziale. Cerco di spiegare cosa significa una crescita esponenziale, cosa implica. Avevo scritto queste cose diversi mesi fa, e mai e poi mai avrei potuto pensare che questo concetto, la crescita esponenziale, sarebbe stato alla base del mondo di Arturo in cui siamo stati trasportati dalla DeLorean made in China. Ormai “esponenziale” è la parola più usata da qualche miliardo di umani. Se dovessi incontrare (metaforicamente parlando ovviamente, date le misure di contenimento sociale attive nel mondo di Arturo) il mio amico Dario, pescivendolo del paese, o il contadino Michele, da cui compro pasciuti conigli e polli ruspanti, sono sicuro che queste semplici persone potrebbero compitamente spiegarmi con esatta esattezza e dotta dottezza tutte le implicazioni della crescita esponenziale.

Decido di non scrivere e di non pubblicare più niente, almeno fino a quando la crisi non sia passata, e la DeLorean non ci abbia fatto tornare al 21 febbraio del mondo di prima. Anche perché la maggior parte delle cose che ho scritto, incluso le pagine che precedono e che seguono questo Intermezzo, le ho scritte viaggiando. In treno soprattutto, ma anche in aereo. E le ho immaginate, pensate le pagine, i concetti, mentre correvo. E non potendo più andarmene a correre per la campagna né tantomeno viaggiare nel mondo di Arturo, anche la vena creativa automaticamente si inaridisce. 

Mi ci vogliono addirittura due settimane per capire la stupidità del pensiero precedente. Il viaggio nel futuro nel mondo di Arturo non prevede un ritorno. È stato un salto più che un viaggio, è stata una transizione di fase. Un’altra transizione di fase è certamente possibile, addirittura inevitabile (come è stata inevitabile quella provocata dalla DeLorean made in China), ma la nuova transizione di fase ci sposterebbe in un altro mondo, diciamo nel mondo di Amelia. E la probabilità che il mondo di Amelia sia anche solo simile al vecchio noioso, disordinato, ingiusto, rivoltante, fantastico, assurdo, comprensibile e incomprensibile mondo di ieri è sostanzialmente zero. Chi ha letto o visto la Guida Galattica per Autostoppisti [1] sa di che parlo. Una volta che avete premuto il pulzantone rosso che attiva il motore a improbabilità infinita, dio solo sa in che cosa sarete trasformati o in che mondo trasportati. Quindi se non c’è ritorno le cose sono due, o appendo penna e pensieri al chiodo e faccio solo lo spettatore (la conferenza stampa di Borrelli alle 18 confligge con i telefilm del Tenente Colombo su TopCrime, quindi registro queste puntate e le passo a conferenza stampa finita. Eccetto quando dopo Borrelli parla Conte. Il tutto per arrivare a sentire Zero Calcare su Propaganda Live e concludere con loro serata e settimana). Oppure trovo un’altra maniera altri magic-moment per pensare e per scrivere. Mica facile. Dopo aver preso cinque kili in una settimana (l’altro mio pallino è quello della cucina, e questa per fortuna non è scomparsa nel mondo di Arturo), decido di rispolverare la vecchia Cyclette ellittica. Bisogna dire che l’idea me la ha data mio figlio ottenne. Il quale per guardare in pace i suoi video su youtube senza essere continuamente ripreso, ha poggiato l’ipad sull’ellittica e dice: vado a fare esercizio! Come negargli esercizio quando non può essere più portato a nuoto/basket/calcetto? Quindi ho provato a vedere se anche il surrogato mi fornisce un magic-moment per pensare. Alla terza seduta qualche barlume di idea si è affacciata nella mia mente. È stata una piacevole sorpresa, dopo un mese passato in stato catatonico nel mondo di Arturo.

Pensiero n. 1: Il viaggio nel mondo di Arturo è di sola andata, perché è una transizione di fase (e questo lo ho già detto, non voglio ripetermi).

Pensiero n. 2: La nuova normalità non sarà tanto normale se confrontata col mondo di ieri.

Pensiero n. 3: Durante la precedente transizione di fase una ottantina di anni fa, la differenza la fecero le intuizioni di alcuni scienziati, di alcuni imprenditori e di alcuni politici, come ho raccontato brevemente nei capitoli precedenti. Ad esempio la creazione dell’OSRD da parte di Franklin Delano Roosevelt, su suggerimento di Vannevar Bush, la creazione della National Science Foundation da parte di Harry Truman, sempre su suggerimento di Vannevar Bush, la creazione dell’ARPA, poi DARPA, e via dicendo, tutte strutture volte a massimizzare la creazione di innovazioni fondamentali. Le parole scritte da Bush nel 1945 sono quanto mai attuali: “I progressi nella guerra contro le malattie dipendono dal flusso di nuove conoscenze scientifiche”. È ovvio che la differenza nell’odierna transizione di fase la può fare la scoperta di una cura per il Covid-19 e/o un vaccino. Come si arriva a queste scoperte nel minor tempo possibile? Probabilmente queste sono vere e proprie missioni incredibili[2]. Terminavo giusto il capitolo 8 chiedendoci se l’organizzazione delle nostre Università e istituti di ricerca è tale da massimizzare le missioni incredibili. Facendo un po’ di spoileraggio alle conclusioni che avrei presentato nelle prossime settimane, il mio personale parere è che nella maggior parte dei casi l’organizzazione delle nostre Università e Istituti di ricerca non è quella ottimale per massimizzare la produzione di missioni incredibili.  E non sarà facile cambiare il DNA di quelle Università e Istituti di ricerca, che oggi non sembrano tanto favorire una risposta creativa/immediata/completa a un problema complicato. Quale è la situazione della Big Pharma non lo posso dire con precisione, non lavorando nel settore. Mi sembrano però ragionevoli i concetti presentati da Safi Bahcall, che invece lavora nel settore sanitario negli Stati Uniti, secondo il quale le organizzazioni più agili, piccole e motivate sono quelle meglio attrezzate per produrre missioni incredibili. È possibile seguire l’esempio di 80 anni fa? Creando ex-novo una organizzazione fatta apposta per risolvere in poco tempo e con grande efficienza problemi complicati? In quel caso il processo fu top-down. La decisione di un Presidente illuminato (FDR) che ha seguito il consiglio di scienziati illuminati, motivati e senza paura di mettere sul tavolo soluzioni forti, impopolari (i generali di ogni grado, genere e tipo non furono sulle prime entusiasti di vedere stra-finanziata ricerca per nuovi sistemi d’arma o di comunicazione o di intelligence da parte di pivelli civili). Il paragone con il mondo di Arturo (o con il mondo di ieri) mette paura. FDR verso The Donald. Accanto al quale si vede spesso il Dr. Anthony Fauci, direttore del National Institute of Allergy and Infectious Diseases, che rispondendo ai giornalisti che gli chiedevano dei marchiani errori di Trump durante le conferenze stampa afferma: “non posso saltare davanti al microfono e sbatterlo via, cerco invece di correggerlo per la prossima conferenza stampa[3]. Il che può ancora andare bene nel mondo di ieri, ma nel mondo di Arturo dove tutto si muove con una velocità ipersonica, potrebbe non esserci una prossima conferenza stampa.

Pensiero n. 4: Può essere efficiente un processo dal basso, o almeno da un qualche lato, per produrre le missioni incredibili che ci servono subito? Le soluzioni potrebbero assomigliare a quelle discusse nel Capitolo 6: Spazio (4.0), l’ultima frontiera. Ovvero: imprenditori illuminati, start-up innovative e i cinesi.

Pensiero n. 5: Questa in realtà non è una nuova idea. Sono diversi anni che ci giro attorno e che ne parlo anche durante le mie conferenze. Il mondo di Arturo però rende il concetto talmente chiaro che non c’è bisogno di sprecare troppo pensare o troppe parole: i virus non conoscono le frontiere. Non conoscono quelle fra Stati, ma tanto meno quelle tra le regioni o città. La risposta a una “pan”demia per definizione non può essere locale, deve essere globale. Le politiche (sanitarie, economiche, sociali) da mettere in campo contro una “pan”demia per essere efficaci devono essere condivise globalmente, non hanno senso se portate avanti da qualcuno si mentre qualcun altro non le segue. Ci sono due livelli fondamentali nella ideazione e nella applicazione delle politiche (sanitarie, economiche, sociali): il livello governativo, che deve ideare, programmare e valutare le conseguenze di queste politiche (con il supporto fondamentale della scienza), e il livello delle comunità, le famiglie, gli ospedali, i paesi, le città, che queste politiche devono poi metterle in pratica. In mezzo, soprattutto in Germania, ma anche in Italia, c’è un livello burocratico la cui funzione nel mondo di Arturo non è che sia chiarissima. La risposta al Covid-19 può essere differente in Calabria piuttosto che in Lombardia? Il distanziamento sociale a Caltanissetta è diverso da quello di Bergamo? I ventilatori polmonari e le famigerate mascherine che servono a Venezia sono differenti da quelle che servono a Bari? O di Grenoble, o di Bruxelles, o di Budapest? Quale è il senso di una politica sanitaria lucana e di una friulana? Nel mondo di Arturo aumenta l’importanza del livello governativo, e soprattutto delle comunità. Diminuisce l’importanza del livello burocratico intermedio, quello delle Regioni. Il mondo di Arturo è allo stesso tempo più globale e più locale. Il che è bizzarro ma interessante. “Io” posso fare la differenza, se me ne sto a casa, non mi infetto e non infetto nessuno. Il mio sindaco, o il Direttore del mio ospedale può fare la differenza, non solo per quello che riguarda il mio paese o il mio ospedale, ma anche per quello che riguarda l’aspetto globale. Se ci si pensa un attimo la stessa cosa si applica ad altri pericoli e quindi altre sfide globali, come quella del degradamento del nostro ambiente e della transizione ecologica. Una connessione messa in evidenza anche dal direttore dell’ESA Jan Worner[4].

Pensiero n. 6: Se il mondo di Arturo è più globale del mondo di prima ne segue che acquistano più importanza anche le istituzioni più grandi. L’Unione Europea, per quello che concerne noi Italiani, o le Nazioni Unite. Nel mondo di Arturo una politica economica per l’emergenza, e poi durante la ricostruzione, non sembra possa essere efficace se attuata solamente in Italia, piuttosto che in Spagna o in Danimarca. Una politica economica diventa efficace se è condivisa dal mercato unico, cioè da tutta l’Unione Europea. Ma quale Unione Europea? L’Unione Europea del mondo di ieri aveva un bilancio di circa 1% del PIL Europeo. Le politiche economiche per l’emergenza e la ricostruzione dovranno mobilitare somme forse 10 volte maggiori. E immaginare politiche economiche efficaci e poi attuarle non sembra facile per un organismo burocratico come la UE del mondo di ieri (tre istituzioni, l’Europarlamento, il Consiglio Europeo e la Commissione Europea, spesso in conflitto/contraddizione uno con l’altra, più la Banca Centrale Europea che è una istituzione indipendente, e quindi non sotto il controllo politico di una delle tre istituzioni che formano l’UE). Una UE che sia in grado di ideare e poi applicare una politica economica globale è certamente una cosa da inventare nel mondo di Arturo. Una istituzione probabilmente vicina a quella immaginata da Gael Giraud[5]. Quella “Con”federazione, forse pure nei sogni dei padri fondatori dell’Europa, che sia capace di gestire in maniera efficiente i beni comuni Europei, il lavoro, l’ambiente e la moneta. E che come auspica Gael Giraud possa poi guidare laTransizione Ecologica.

Pensiero n. 7: Una delle particolarità più disturbanti del mondo di ieri era il costante aumento nel tempo delle disparità sociali, almeno nella parte occidentale di questo mondo. Nel Capitolo 2 avevo mostrato come neanche l’innovazione sembrava essere capace a favorire la riduzione delle ineguaglianze verticali, a mio parere uno dei motivi per i quali nel mondo di ieri la scienza non aveva decisamente una buona pubblicità. Nel mondo di Arturo c’è il rischio che le ineguaglianze, sia quelle verticali che quelle orizzontali aumentino ulteriormente, e che esplodano in una crescita anche questa esponenziale. Ma esiste anche l’opportunità per la scienza di favorire la riduzione di queste disparità. La scoperta di una cura e/o un vaccino per il Covid-19 tenterebbe chiaramente a ridurre le ineguaglianze sia verticali che orizzontali, a patto che poi queste cure siano disponibili per tutti. Basti pensare che il pericolo di vita per le persone anziane è almeno un ordine di grandezza maggiore che per i giovani e che le persone che sono maggiormente colpite accanto agli anziani, sono gli invisibili. I precari e tutta la enorme massa di persone che vive di lavoro nero. Diversi Paesi stanno mettendo in campo misure dedicate agli invisibili. Misure come ad esempio in Italia il reddito di emergenza. L’auspicio è quello che oltre a curare l’attuale emergenza, questo reddito sia utile anche per far emergere almeno una parte degli invisibili, facendoli partecipare pienamente ed apertamente allo sviluppo della società. Questo sarebbe uno straordinario successo, che sì contribuirebbe in maniera sostanziale a diminuire le ineguaglianze.

Pensiero n. 8: Al contrario di quello che succedeva nel mondo di ieri, nel mondo di Arturo la scienza è popolare. Il problema ora per noi scienziati è quello di non dilapidare questa attestazione di fiducia. Una responsabilità aggiuntiva.


[1] Douglas Adams, Guida Galattica per gli Autostoppisti. Mondadori

[2] Safi Bahcall, Idee folli, 2019 ROI Edizioni

[3] https://www.sciencemag.org/news/2020/03/i-m-going-keep-pushing-anthony-fauci-tries-make-white-house-listen-facts-pandemic

[4] https://spacenews.com/commentary-space-and-coronavirusany-connection/

[5] Gael Giraud, Transizione Ecologica, 2015, EMI


8. Ricerche che producono avanzamenti sostanziali verso ricerche incrementali

Tutte le ricerche menzionate sono certamente utili, nel senso che hanno prodotto un avanzamento enorme nelle nostre conoscenze, aperto nuovi campi di investigazione, e, potenzialmente, alcune di loro possono provocare anche cambiamenti radicali nella società. Il problema che ci poniamo è quanta e quale scienza utile oggi si produce. Quale è il rapporto tra il numero di ricerche che producono risultati solamente incrementali, e ricerche che producono breakthrough o addirittura punti di svolta. Trovare risposte quantitative e robuste a domande di questo tipo è ovviamente molto complicato. Un argomento almeno parziale può essere fornito di nuovo dall’analisi dei cosiddetti trend storici. trend interessanti da studiare sono quelli relativi ai prodotti della ricerca e al così detto Transfer of Knowledge, cioè la capacità di trasferire i risultati della ricerca nella società. Indicatore del primo è ad esempio il numero di articoli prodotti. Un buon indicatore del secondo è il numero di brevetti accettati. Il rapporto tra le due quantità è quindi un estimatore della efficienza del trasferimento tra ricerca di base, ricerca applicata e utilizzo sociale della ricerca. La figura che segue mostra il rapporto tra articoli scientifici e brevetti in Europa, Stati Uniti e Asia. Si nota come in Europa e Stati Uniti per ogni brevetto sono necessari tra 3 e 7 articoli scientifici mentre in ASIA a quasi ogni articolo scientifico corrisponde un brevetto. I dati per la Cina sono disponibili negli archivi pubblici solo dagli anni 90, motivo per il quale la figura presenta i dati degli ultimi 30 anni. Per gli Stati Uniti i dati sono disponibili fin dall’inizio del secolo passato e utilizzando queste serie storiche si deduce che negli anni 50 il rapporto tra articoli scientifici e brevetti era tra 1 e 2, simile a quello che è oggi in Asia. L’Asia sta vivendo oggi uno sviluppo simile a quello che si è avuto negli Stati Uniti in particolare e nel mondo occidentale in generale dopo la seconda guerra mondiale negli Stati Uniti, uno sviluppo esponenziale, e anche molto ma molto veloce. Quanto durerà?

Il rapporto tra il numero di articoli scientifici pubblicati e il numero di brevetti in Europa, Stati Uniti e Asia.

Ma a prescindere dal valore assoluto dell’efficienza del trasferimento culturale, il fatto che questa sia oggi più o meno costante sia nel mondo occidentale che in Asia, significa che anche tutta la tecnologia che viene prodotta e utilizzata nella società sta vivendo una crescita esponenziale, dato che la produzione scientifica è cresciuta a livello esponenziale almeno fino a qualche anno fa, come spiegato in un capitolo precedente. Ad esempio, la quantità di dati che circola in internet cresce in maniera esponenziale, come pure il numero di persone o cose connesse nella rete. Siccome il numero di persone al mondo è dopo tutto finito (anche se in crescita esponenziale!), la nuova frontiera è connettere tra loro tutti i dispositivi di cui gli oggetti, le cose nel mondo fisico ormai sono dotati (qualcuno direbbe infestati). Si parla di trilioni di dispositivi contro solo miliardi di individui: la così detta Internet of Things (IoT). Il primo smartphone è apparso sul mercato solo una quindicina di anni fa. Un telefono cellulare Nokia o Motorola del primo decennio degli anni 2000 oggi è un oggetto di modernariato. I miei figli la prima volta che hanno visto un vecchio telefono fisso, di quelli con il rotore, non riuscivano a capire come fosse mai possibile comporre un numero su strumenti di quel tipo, senza una tastiera, una pulsantiera né meccanica ne tantomeno tattile. Tutta la tecnologia che ci pervade decisamente cresce in maniera esponenziale. Come mai? Il motivo probabilmente è legato alla generazione di continua innovazione, determinato dalla crescita esponenziale della ricerca di base. Dovesse bloccarsi la crescita della ricerca di base si bloccherebbe l’innovazione, e con questa lo sviluppo tecnologico. Il concetto è espresso in maniera acuta, nei libri di fantascienza di Cixin Liu[1]. Questo autore cinese immagina una civiltà progredita che vuole impadronirsi della Terra, distruggendo quindi il genere Umano per sostituirlo su questo pianeta fortunato. Per riuscire nello scopo escogita un sistema per bloccare lo sviluppo della ricerca di base terrestre. Invia sulla Terra delle particelle elementari, i Sofoni, in grado di confondere i risultati degli esperimenti di fisica delle particelle. Senza questi risultati non si riescono a validare o invalidare le teorie di base, come ad esempio la gravità quantistica, non si riescono a sviluppare nuove teorie, si blocca l’avanzamento della ricerca di base. Lo sviluppo tecnologico prosegue ancora, ma dopo solo qualche decennio satura, e non riesce più a progredire, non essendo alimentato da nuove scoperte fondamentali. La civiltà umana è destinata a ristagnare e a soccombere. Oggi lo sviluppo tecnologico sta ancora procedendo in maniera esponenziale in moltissimi settori. Fino a quando procederà? Il tasso di nuove scoperte di base fondamenti è tale da garantire uno sviluppo tecnologico ancora esponenziale per gli anni a venire? O abbiamo già incontrato in qualche settore il nostro Sofone?

Rispondere a queste domande non è facile. Anche un’analisi basata sui diagrammi di Kalbach non è risolutiva. Il motivo è che trend storici e diagrammi di Kalbach sono analisi a “posteriori”. Sono efficaci a inquadrare una ricerca una tecnologia, uno sviluppo un trend, ma solo dopo che si è verificato. Molte delle tecnologie e delle scoperte scientifiche che oggi valutiamo come “game changer” o disruptive, non erano nate come tali. Sono diventate game changer o disruptive solo dopo qualche tempo, molti anni in qualche caso. Una delle ragioni di questo comportamento è che molte scoperte importanti sono “serendipite”. Un ricercatore o un gruppo era impegnato in una ricerca finalizzata a un dato argomento e nel portarla avanti ha trovato qualcosa di inaspettato, di nuovo, o ha trovato un altro campo di applicazione più importante per la sua ricerca. L’esempio che facciamo sempre è la scoperta del fondo cosmico di microonde (cosmic microwave background, CMB) da parte di Penzias e Wilson dei Bell Laboratories nel 1964. Il residuo del big bang, che ha confermato lo scenario di un Universo in espansione, individuato testando un’antenna per comunicazioni alle microonde. Ricerche cominciate nell’ambito “incrementale” possono portare a scoperte “game changer” o disruptive. È vero anche il contrario. Ricerche ambiziose, cominciate per produrre un game change possono fallire, o fallire in parte. La “dinamica” nella evoluzione delle idee, è più importante del preconcetto (nel senso di idea iniziale). Quindi, se è relativamente semplice oggi capire se una data scoperta o tecnologia è incrementale o disruptive, è al contrario complicato capirlo quando si concepisce una nuova idea o si comincia una nuova ricerca.

E invece è esattamente questo che vorremo fare, avere una guida che aiuti a capire se una nuova idea o una nuova tecnologia o una nuova ricerca alla fine possa ambire a diventare disruptive o game changer. Safi Bahcall preferisce parlare di “missioni incredibili” e di “franchising”, produzioni in serie, invece che di ricerche disruptive o incrementali[2]. Le missioni incredibili di Bahcall sono idee strambe, idee folli, idee che nella maggior parte dei casi non vengono prese in considerazione. Sono “scommesse contro le convenzioni”. E sono idee che almeno nove volte su dieci falliscono. Ma la volta che invece funzionano cambiano il mondo. L’idea di Bahcall è che una struttura, una azienda o una organizzazione di ricerca, dovrebbero essere strutturate in maniera da massimizzare il numero di missioni incredibili vincenti prodotte. L’OSRD di Bush, i Bell Laboratories di Vail, DARPA, sono tutte strutture che hanno ottimizzato la produzione di missioni incredibili. Queste sono tutte organizzazioni che seguono quelle che Bahcall chiama le regole di Bush-Vail: 1) separare i creativi, i visionari, dagli esecutori, dai produttori (la Vulcanian Academy of science di Star Trek, o gli scienziati senza doveri concentrati su pensieri profondi di Flexner); 2) equilibrio dinamico tra i creativi e gli esecutori e i produttori. Gli uni devono conoscere e apprezzare le idee e le motivazioni degli altri, deve esistere un feedback costruttivo tra creativi e produttori; 3) diffondere una logica di sistema, continuare a chiedersi perché una organizzazione ha fatto una determinata scelta; 4) aumentare la massa critica. Se il rapporto tra successi e insuccessi è di 1/10, allora è necessario che si riesca a portare avanti molte missioni incredibili, per avere alla fine un numero di successi totale da garantire sopravvivenza e espansione ad una organizzazione. Se è quindi complicato capire se una specifica data ricerca può portare a una scoperta game changer, è possibile però costruire organizzazioni che massimizzano la probabilità di ottenere scoperte game changer. È credo poco contestabile che una buona frazione di scoperte importanti derivino dalle missioni incredibili di Bahcall cioè idee che vengono considerate sulle prime folli, che vengono respinte e i cui fautori sono spesso emarginati. Bahcall è interessato alle aziende, ma una domanda che mi sembra naturale porci è se l’organizzazione delle nostre università e istituti di ricerca è tale da massimizzare o minimizzare le missioni incredibili. E, più in generale, se l’attuale sbilanciamento verso big science, sia il migliore per massimizzare il numero di missioni incredibili.


Leggi tutto


[1] La trilogia di Trisolaris: Il problema dei tre corpi, La materia dell’Universo, La quarta dimensione. Cixin Liu, Mondadori

[2] Safi Bahcall, Idee Folli, 2019 ROI

7. Quale scienza è davvero utile?

In una scena cruciale del film Interstellar Murph risolve alla lavagna le equazioni che unificano relatività generale e meccanica quantistica, un po’ il Santo Graal della scienza contemporanea. Le lavagne che si possono osservare in diverse scene del film sono state scritte in dal premio Nobel per la fisica del 2017 Kip Thorne. Le equazioni e le formule rappresentate fanno riferimento alla teoria delle Stringhe, e descrivono una teoria della gravità in un numero di dimensioni maggiori di quelle a cui siamo abituati, tre dimensioni spaziali e una temporale. Thorne al pari di molti colleghi è ottimista: è inutile disperare, prima o poi ci arriveremo a risolvere le equazioni della teoria delle Stringhe e sciogliere l’enigma della gravità quantistica. E forse tra uno o due secoli scopriremo delle applicazioni utili e straordinarie della teoria delle Stringhe. Non possiamo dire oggi a cosa possano servire queste teorie astruse, come nel 1850 non poteva dire Faraday al ministro britannico a cosa mai potesse essere utile l’elettricità. Oppure no?

Lo sviluppo della teoria delle Stringhe ha occupato migliaia di fisici, certamente la maggioranza dei fisici teorici, negli ultimi quaranta anni. Uno sforzo immane, che, almeno come numero di addetti forse è confrontabile solo con il supporto dei fisici teorici al progetto Manhattan per lo sviluppo della bomba atomica o a quello che fu necessario per andare sulla Luna. Ma nonostante questo sforzo, non è chiaro oggi nemmeno se questa sia una teoria, se definiamo una teoria scientifica qualcosa che produce un insieme di equazioni che possono essere usate per produrre previsioni, o comunque delle istruzioni per spiegare quello che la teoria vuole descrivere.

Nel 2006 Lee Smolin scriveva: “la nostra comprensione delle leggi della natura ha continuato a crescere rapidamente per oltre due secoli, ma oggi, nonostante tutti i nostri sforzi di queste leggi non sappiamo con certezza più di quanto ne sapessimo negli anni 70’. Smolin indicava cinque grandi problemi nella fisica teorica che non erano ancora stati risolti: i. la gravità quantistica; ii. i fondamenti della meccanica quantistica; iii una teoria che unifichi le particelle e le forze; iv. Come sono scelti dalla natura i tanti parametri liberi del modello standard, da dove arrivano le masse delle particelle elementari; v. spiegare la materia oscura e l’energia oscura che costituiscono la gran parte (>95%) della materia/energia dell’Universo, oppure, se non esistono, spiegare come e perché la gravità si modifica su grandi scale, suggerendo la presenza di materia ed energia oscure. Tredici anni dopo la nostra comprensione di questi problemi non ha fatto grandi passi avanti. Il che porta a più di quattro i decenni senza progressi fondamentali nella fisica teorica. Che ci sia un problema sembra evidente. Le radici di questo problema potrebbero essere tante.

È arrivato il momento di affrontare una delle domande centrali che questo blog vuole discutere: quale e quanta ricerca è davvero utile? E come possiamo fare a capire, almeno in prima approssimazione quale scienza è utile e quale no? Per affrontare questo tema è comodo utilizzare uno schema mutuato da quello inventato da Jim Kalbach per rappresentare in maniera bidimensionale l’innovazione. Nell’originale, l’asse orizzontale rappresenta l’impatto sul mercato di una determinata tecnologia, e serve a misurare il grado di innovazione di nuovi prodotti. Nella mia applicazione, ho semplicemente sostituito impatto sul mercato con impatto scientifico, capacità di aprire nuovi campi. Il diagramma di Kalbach è diviso in quattro zone:

Progresso Incrementale: cambiamenti modesti nella tecnologia che mantengono un bussines (o un prodotto scientifico) competitivo.

Breaktrough: grandi avanzamenti tecnologici che però non hanno ancora prodotto un impatto analogamente forte sul mercato (o in un campo scientifico).

Game changer: un avanzamento tecnologico talmente grande da produrre un impatto radicale, tanto da trasformare il mercato (o aprire nuovi campi scientifici) e addirittura la società.

Disruptive: l’utilizzo di tecnologie che offrono prestazioni mediocri, ma che sono lo stesso in grado di trasformare il mercato (o aprire nuovi campi scientifici). Se applichiamo questo diagramma alla scienza possiamo catalogare allo stesso modo le tecnologie e le scoperte scientifiche nelle quattro zone, come nella figura che segue.

Il diagramma di Kalbach applicato alla tecnologia in Astronomia e Astrofisica

L’utilizzo del cannocchiale da parte di Galileo sicuramente è stato un punto di svolta, che non ha solo cambiato la nostra visione dell’Universo, ma anche il modo di pensare e di fare scienza, e di conseguenza anche la società.  Mutatis mutandis un ruolo analogo l’ha svolto l’Hubble Space Telescope (HST), o più recentemente gli interferometri gravitazionali Ligo e Virgo, che hanno creato un nuovo campo di investigazione, che semplicemente prima non c’era: l’astrofisica multi-messaggera. Un esempio di tecnologie breakthrough è la così detta ottica adattiva (AO), sistemi che riescono a correggere automaticamente le aberrazioni indotte dall’atmosfera terrestre nella formazione di immagini di sorgenti celesti per produrre immagini addirittura più acute di quelle prodotte da HST. Questi strumenti oggi non sono ancora di uso semplice, e quindi comune, e non hanno ancora trasformato il mercato scientifico, forse lo faranno nel prossimo decennio. Infine un esempio di tecnologie Disruptive è l’utilizzo del telescopio da 2.5m posto ad Apache Point Observatory, con cui si conduce la Sloan Digital Sky Survey. Il diametro di questo telescopio è esattamente quello dell’HST, ma il suo costo è un fattore >10.000 volte minore. Nondimeno, la produttività in termini di articoli di SDSS è maggiore di quella di tutti i telescopi esistenti, incluso HST. Una potenziale tecnologia Disruptive è quella dei Cubesat dedicati a misure scientifiche. Cubesat sono nano-satelliti del peso di qualche kg, in grado di ospitare quindi strumenti solo molto semplici. Il costo di un cubesat è però enormemente minore di quello delle sonde spaziali che oggi gli scienziati utilizzano per studiare l’Universo, e il loro tempo di sviluppo è di solo qualche anno, contro i decenni delle normali missioni spaziali Facendo un ulteriore passo, possiamo pensare di collocare nel diagramma di Kalbach anche le scoperte scientifiche, come nella figura che segue.

Il diagramma di Kalbach applicato alle scoperte scientifiche: La rivelazione diretta di onde gravitazionali da parte degli interferometri Ligo/Virgo e la scoperta degli oceani globali sotto nelle lune ghiacciate di Saturno e Giove,  in alto a destra. La visita di Rosetta alla cometa Churymov-Gerasimenko e la scoperta di molecole prebiotiche nella coda nella cometa e sulla sua superficie, in alto a sinistra. La scoperta dell’espansione accelerata dell’Universo in basso a destra.

Certamente la rivelazione diretta di onde gravitazionali e’ stato un Game Changer. Rappresenta la prima applicazione potente dell’astrofisica multimessaggera. Alle 12:41 del 17 agosto 2017 gli interferometri LIGO e Virgo hanno rivelato un potente segnale gravitazionale che è durato una decina di secondi e al quale è seguita, dopo circa 1,7 secondi, la rivelazione di un Gamma Ray Burst corto da parte dei satelliti Fermi e INTEGRAL. Quella che prima era una inferenza, una aspettazione di un modello, si era trasformata in una osservazione, abbiamo visto un GRB corto associato alla coalescenza di due stelle di neutroni, abbiamo davvero osservato lo stesso evento sia utilizzando la luce, la radiazione X e gamma, che le onde gravitazionali. La regione di cielo da cui i segnali si originavano è stata vincolata con una accuratezza molto migliore di quella dei primi eventi gravitazionali, sia grazie alla presenza di un terzo interferometro gravitazionale in funzione, Virgo, vicino Pisa, sia incrociando il box di errore di LIGO/Virgo con quelli di Fermi e INTEGRAL. Poi, l’ampiezza del segnale gravitazionale è proporzionale sia alle masse degli oggetti in gioco che alla distanza dell’evento. Il caso di 17 agosto 2017 è stato particolarmente fortunato, perché’ la distanza è risultata particolarmente piccola, solo una quarantina di Mpc. Fino a questa distanza nei 30 gradi quadri del box di errore combinato sono presenti solo una cinquantina di galassie. È stato quindi relativamente facile osservarle tutte per vedere se per caso in qualcuna si fosse attivata una sorgente transiente in luce ottica. E in effetti una nuova sorgente ottica è stata trovata subito nei dintorni della galassia NGC4993.  Questa sorgente è stata osservata da una flotta imponente di telescopi sia a terra che nello spazio, in tutto più di 70 telescopi, sensibili alla luce dalle radio onde alla luce ottica, ai raggi X. La nuova sorgente ottica come prevedevano i modelli era una così detta kilonova, alimentata dal decadimento radioattivo dei nuclei pesanti sintetizzati nella regione subito esterna alla coalescenza delle stelle di neutroni. Queste stelle sono composte come il nome suggerisce da materia ad altissima densità composta per lo più da neutroni e nuclei di metalli pesanti come il ferro. La maggior parte della materia che costituiva le due stelle di neutroni coalesce a formare un buco nero, ma una frazione rimane all’esterno dell’orizzonte degli eventi, in strutture come dischi di accrescimento e venti. A causa dell’altissima densità neutronica in queste strutture, è probabile che nuclei pesanti catturino neutroni, e diventino instabili per decadimento radioattivo. La radiazione prodotta è quella che è stata osservata in ottico e nel vicino infrarosso. In questi venti vengono quindi sintetizzati elementi pesanti in maniera efficiente. Si pensa che la maggior parte degli elementi più pesanti del ferro, tra cui l’oro, vengano in effetti sintetizzati nelle kilonovae. Da cui i titoli sui giornali, che appunto riportavano della scoperta come quella delle fabbriche cosmiche di oro e altri materiali preziosi. Di nuovo, un modello si è trasformato in una osservazione grazie alla nascente astrofisica multi-messaggera.

Nella figura in alto a sinistra è rappresentata la sonda dell’ESA Rosetta che visita la cometa Churymov-Gerasimenko. Rosetta ha effettuano moltissime osservazioni che hanno permesso scoperte fondamentali. Due delle scoperte più importanti sono stata certamente la presenza di molecole prebiotiche e di fosforo nella coda della cometa[1] e la scoperta che la cometa è completamente coperta di materiale organico[2]. Lo spettrometro di massa ROSINA, ha individuato tra gli elementi volatili la presenza di methylamina e ethylamina, due molecole prebiotiche di cui sono composti gli aminoacidi. Gli aminoacidi sono le molecole di cui sono composte le proteine, e in particolare tutte le proteine che conosciamo sulla terra sono composte da venti aminoacidi. ROSINA ha quindi identificato nella coda della cometa la presenza di Glycine, il più leggero degli aminoacidi, in forma volatile e infine, ha trovato anche molto fosforo. Il fosforo è un elemento cruciale per la chimica della vita, perché’ è presente nello scheletro del DNA e nella molecola ATP (Adenosine Tri Phosphate), che è fondamentale per la produzione di energia nelle cellule e quindi in tutti gli esseri viventi. Allo stesso tempo, ci si era resi conto che la cometa era completamente ricoperta di materiale organico. La naturale inferenza è che il suolo della cometa debba essere ricco di molecole prebiotiche, e forse anche di aminoacidi più complessi e pesanti del Glycine. E proprio scoprire molecole prebiotiche complesse era l’obiettivo principale della sonda Phillae, che staccatasi da Rosetta avrebbe dovuto posarsi gentilmente sulla cometa, ed effettuare analisi in situ. Come sappiamo la sonda è effettivamente riuscita ad “accometare” ma purtroppo non è riuscita ad ancorarsi solidamente sulla superficie, e, dopo qualche rimbalzo, è andata ad incastrarsi in un crepaccio. Il trapano, ideato e costruito in Italia dal Politecnico di Milano, che doveva perforare la superficie della cometa, ed estrarre campioni da far analizzare allo spettrometro di massa COSAC, è uscito come previsto dal suo alloggiamento, ma purtroppo non ha trovato il suolo.  E quindi non è stato possibile portare a termine questo esperimento cruciale. Oggi supponiamo, ma non sappiamo per certo, che i mattoni della vita siano presenti sulle comete, come non sappiamo se questi da questi mattoni si siano riuscite a formare strutture ancora più complesse, proteine o addirittura frammenti di RNA, in un ambiente così ostile come lo spazio. È evidente che scoprire tracce di vita nello spazio, su una cometa o altrove, sarà un Game Changer, una scoperta che avrà un impatto profondo e radicale non solo sulla scienza, ma su tutta la società. Un evento che per alcuni è scontato, non si tratta di scoprire se c’è vita altrove nello spazio, ma solo di capire fino a che punto la vita si sviluppa in ambienti cosmici. Mi piace ricordare quello che scrive il premio Nobel Christian De Duve: “I mattoni della Vita si formano naturalmente nella nostra Galassia, e probabilmente anche altrove nel cosmo. I semi chimici della vita sono Universali[3]. E ancora: “La Vita è una manifestazione obbligatoria della materia, è codificata nella trama stessa dell’Universo[4]. Rosetta e Phillae non sono riusciti, ma davvero per poco, ad innescare questa rivoluzione. Ci proverà forse nel prossimo futuro la missione  della NASA CESAR, che ha lo scopo di riportare sulla Terra campioni della superficie della cometa Churymov-Gerasimenko. La scelta della cometa non è casuale. Rosetta ha effettuato uno studio dettagliatissimo di Churymov-Gerasimenko, lasciando una vera e propria legacy in termini di immagini ad altissima risoluzione e dati sull’ambiente cometario. Questa cometa è sicuramente quella meglio conosciuta, e quindi quella che minimizza i rischi inevitabili a cui vanno incontro missioni che hanno l’ambizione di posarsi su una cometa, prendere qualche sassolino, e poi ripartire alla volta della Terra. CAESAR per ora non è stata selezionata per la realizzazione dalla NASA, ma non è detto che non lo sarà in futuro. È un vero peccato che una missione simile non sia stata immaginata dall’ESA, come il naturale proseguimento del grande successo di Rosetta, su tempi scala magari più ravvicinati.


Leggi tutto


Prossima pubblicazione: 8 marzo 2020. 8. Ricerche che producono avanzamenti sostanziali verso ricerche incrementali


[1] Kathrin Altwegg e collaboratori, 2016, Science

[2] Fabrizio Capaccioni e collaboratori, 2015, Science, 347

[3] Singularities, landmarks on the pathway of Life. Cambridge University Press 2005

[4] Phyl. Trans. Royal Soc. 2011

6. Spazio (4.0): l’ultima frontiera

Quando l’Uomo arrivo sulla Luna il 20 luglio 1969 tutti pensavamo che i decenni successivi avrebbero visto astronavi sfrecciare per tutto il Sistema Solare, costruire basi sulla Luna, colonizzare Marte, sfruttare le risorse minerarie della Luna e degli asteroidi. E chissà quant’altro. E invece cinquanta anni dopo il primo l’allunaggio siamo ancora costretti ad appena 500km dalla superficie della terra. La nazione che ci ha portato sulla Luna negli anni ’60 oggi, 2019 non ha la capacità di spedire uomini o donne in orbita terrestre, e deve affittare passaggi dallo storico competitore, o da quello che ne rimane, la Russia. Se gli Stati Uniti torneranno ad avere la capacità di lanciare in orbita astronauti nel prossimo futuro, sarà grazie ad imprese private come Space-X e Boeing. I primi viaggi delle navicelle private verso la stazione spaziale sono previsti per il 2020. Se così sarà, il cinquantenario della conquista della luna sarà festeggiato col ritorno nello spazio di astronauti americani con navicelle americane dopo 9 anni dall’ultima missione dello Space Shuttle, veramente una magra consolazione.

Non così in altri paesi. Ad esempio, i progressi compiuti dalla Cina negli ultimi venti anni sono decisamente spettacolari. La Cina ha lanciato il suo primo satellite nello spazio il 24 aprile 1970, e nel marzo 2019 ha eseguito il suo trecentesimo lancio. Ci sono voluti 37 anni per effettuare i primi 100 lanci, 8 anni per effettuare i secondi cento e solo 4 per gli ultimi 100 lanci. E nel futuro questo ritmo crescerà ulteriormente. La Cina ha lanciato nello spazio il primo equipaggio umano solo nel 2003, ha sviluppato una sua prima stazione spaziale, la Tiangong 1 in funzione dal 2011 al 2013. Una seconda stazione spaziale più grande è in via di sviluppo e il suo lancio è previsto entro un paio d’anni. Tra il 2015 e il 2016 la Cina ha lanciato il primo gruppo di quattro satelliti per scienza spaziale. Tra questi QUESS (quantum science satellite), è il primo satellite al mondo per esperimenti di meccanica quantistica.  È stato concepito e disegnato per verificare leggi fondamentali di meccanica quantistica e per verificare comunicazioni ultrasicure che hanno alla base la crittografia quantistica. Lo scorso anno QUESS ha infranto il record di distanza per teletrasporto quantistico, aumentandolo di ben 14 volte, da 100 a 1400 km. QUESS è anche stato usato per trasmettere fotoni a Pechino e Vienna generando chiavi di crittografia quantistica che consentivano ai team di scienziati di chattare e comunicare in video con totale sicurezza. Infatti, siccome il rilevamento dei fotoni da parte di spie disturberebbe gli stati quantici dei fotoni stessi, i potenziali hacker non possono intercettare le chiavi senza che le loro attività vengano notate. QUESS è stato realizzato da un gruppo di ricercatori cinesi con a capo Pan Jian-Wei. La sua storia è decisamente istruttiva. Pan è il più giovane ricercatore mai insediato nella China Academy of Science. Ha studiato presso l’Università di Vienna sotto la supervisione di Anton Zeilinger, uno dei padri degli esperimenti su stati entangled e teletrasporto quantistico. Rientrato in Cina a 38 anni nel 2008 riesce a convincere il suo governo a finanziare esperimenti di fisica davvero molto fondamentale, stiamo parlando di meccanica quantistica e teletrasporto quantistico. Riesce a convincere il governo a spendere cifre considerevoli, circa 100 milioni di $, per estendere questi esperimenti fuori dai laboratori terrestri, sviluppando un satellite artificiale, QUESS. Come ricaduta, oggi la Cina possiede la tecnologia per rendere completamente sicure le sue comunicazioni. Davvero un evidente caso di fruttuoso rientro dei cervelli.

L’esplorazione del sistema solare da parte di sonde cinesi procede con simile lena. Nel dicembre 2013 il rover Yutu a bordo di Chang’e 3 è stato il primo veicolo ad allunare dopo le missioni statunitensi e russe degli anni 70’. Il 2 gennaio 2019 la sonda Chang’e 4 è allunata per la prima volta della storia sulla faccia nascosta della luna. Chang’e 5 nel 2020 sarà la prima missione di “sample return” dalla Luna dal 1976.  Sempre nel 2020 la Cina manderà su Marte la sua prima missione, consistente in un orbiter, un lander e un rover, Per la fine degli anni 20’ è prevista una ambiziosissima missione di sample return da Marte, e una ancora piu’ ambiziosa missione con Takionauti sulla superfice della luna. Se il progetto Apollo negli anni sessanta da parte degli Stati Uniti è assomigliato alla corsa di un centometrista, il programma cinese assomiglia alla corsa di un maratoneta. Per un programma che non si esaurisce in fantastico ma brevissimo decennio, ma che ha l’ambizione di essere sostenibile, e durare. Fino alla conquista di Marte e del sistema solare. Qui ci sarebbe dovuto essere un punto interrogativo. Mi piace prendermi la licenza di essere categorico. La mia personale previsione è che il primo piede umano su Marte sarà Cinese. L’alternativa è che possa essere americano, ma portato su Marte da una impresa privata come SpaceX.

È emblematico quello che è successo il 22 febbraio 2019. Una sonda costruita per allunare è stata lanciata dalla Florida dopo ben 48 anni dall’ultima. Era il 7 dicembre 1972. Stava partendo quella che sarebbe stata l’ultima missione Apollo, Apollo 17. Io avevo appena compiuto 13 anni ed ero sicuro che la NASA in un decennio o forse poco più avrebbe costruito una base sulla Luna e qualche astronauta avrebbe passeggiato su Marte. Se qualcuno mi avesse detto che ci sarebbero voluti quasi cinquanta anni per lanciare di nuovo un lander lunare, e per di più senza astronauti a bordo, lo avrei preso per pazzo. E ancora di più se mi avesse detto che a lanciare il lander sarebbe stata un’impresa privata (SpaceX) e non la NASA, e che anche il lander sarebbe stato costruito da un’impresa privata, e per di più israeliana (Israel Aerospace Industry, IAI, per SpaceIL). Non solo io, ma nessuno, dico nessuno, avrebbe potuto prevederlo. La realtà come sempre supera, e in questo caso di molto, l’immaginazione. Il lander di IAI è arrivato sulla luna l’11 aprile 2011 ma purtroppo il sistema di propulsione che doveva frenarne la discesa non ha funzionato a dovere e il lander si è schiantato al suolo. Stessa sorte per il lander indiano Vikram nel settembre 2019. In tutti i casi questo è stato probabilmente il tappo che è saltato dal collo della bottiglia. In pochi anni assisteremo ad altri tentativi, da parte di nazioni outsiders, o addirittura di privati.

La prima era della conquista dello spazio, Space 1.0 può essere considerata quella inaugurata dalle osservazioni di Galileo all’inizio del 1600 e proseguita fino a una sessantina di anni fa, quando prima i sovietici e poi gli americani hanno mostrato che nello spazio ci si può anche andare, oltre che osservarlo dalla Terra. La seconda era è concisa con il programma Apollo, quella corsa da centometrista che ha portato l’Uomo sulla Luna in meno di un decennio. La terza era è quella simboleggiata dalla Stazione Spaziale Internazionale (o dalle stazioni spaziali, se vogliamo includere anche la MIR sovietica e le Tiangong cinesi), ovvero dal fatto che da un paio di decenni la presenza dell’Uomo in orbita terrestre è costante e non episodica. La quarta era è quella che stiamo cominciando a vivere oggi, quando lo Spazio sta evolvendo da riserva di pochi governi (Stati Uniti, Russia, Europa), e poche grandi industrie (soprattutto Boeing, Lockeed Martin, Nortrop-Grunman negli Stati uniti, Tales Alenia Space e Airbus in Europa), ad una arena che ospita centinaia se non migliaia di attori, che includono industrie grandi, medie e piccole, Università e centri di ricerca, e nuovi paesi che si affacciano all’esplorazione e all’utilizzo dello spazio (il Giappone e l’India oltre alla Cina già oggi, la Korea forse domani).


Leggi tutto


Prossima pubblicazione: 23 febbraio 2020. 7. Quale scienza e’ davvero utile?

5. Big Science

La big science ha una data di nascita precisa, il 11 ottobre 1939, la nascita di quello che divenne il progetto Manhattan. Quell’11 ottobre Sachs consegnò al presidente americano Franklin Delano Roosevelt una lettera scritta da Albert Einstein e Leo Szilard, dove si spiegava che con l’energia nucleare si poteva produrre energia e costruire bombe eccezionalmente potenti. In pochi anni il progetto Manhattan arrivò ad impiegare 130.000 scienziati e a costare miliardi di dollari. I risultati li conosciamo tutti, la pila di Fermi, le bombe a fissione nucleare di Hiroshima e Nagasaki.

Altri due eventi resero esponenziale la crescita della Big Science e il suo finanziamento, entrambe determinati dalla guerra fredda. Il 29 agosto 1949 l’Unione sovietica detonò la prima bomba atomica prodotta oltrecortina. Questa sfruttava le idee per molti versi geniali di Sakharov, che portarono rapidamente allo sviluppo di ordigni molto più potenti, le bombe termo-nucleari, anche migliaia di volte più potenti di quella della bomba di Hiroshima. Gli Stati Uniti diedero un nuovo forte impulso allo sviluppo dell’ordigno termo-nucleare ed esplosero la loro prima bomba termo-nucleare nel novembre 1952. Il costo totale dello sviluppo del programma atomico statunitense dagli anni ‘50 alla fine degli anni ‘90 è stato di diversi trilioni di $, maggiore, ad esempio, del debito pubblico dell’Italia, o una frazione di circa il 20% dell’attuale debito pubblico statunitense. Negli anni ’50 e ’60 circa la metà di tutti i ricercatori negli Stati Uniti lavorava per programmi connessi con la difesa.

Il secondo evento risale al 4 ottobre 1957. L’Unione Sovietica mette in orbita il primo satellite artificiale della storia, lo Sputnik-1. Un micro-satellite con un solo strumento a bordo, un trasmettitore radio primitivo, che emette solo un debole bip-bip, ma lo fa su frequenze accessibili a tutti, radioamatori inclusi. Il messaggio è quindi chiarissimo: abbiamo vettori che possono portare le nostre bombe sulle vostre teste. A dicembre 1958 i sovietici però lanciano il loro secondo satellite artificiale, lo Sputnik-2, questa volta molto più grosso, pesa circa due tonnellate, e complesso del precedente. Ospita a bordo addirittura un cane, la famosa cagnetta Laika. Gli Stati Uniti reagiscono e il 29 luglio 1958 nasce la NASA, come agenzia spaziale civile. Nell’ottobre 1958 i sovietici raggiungono per la prima volta la Luna, e ci portano circa mezza tonnellata di strumenti. Il 12 aprile 1961 il primo essere umano, il tenente dell’aviazione sovietica Yuri Gagarin, raggiunge lo spazio. Da li parte la corsa allo spazio che porterà al primo allunaggio da parte di astronauti statunitensi il 20 luglio 1969. Il motivo trainante della sfida spaziale statunitense e’ certamente politico, vincere la sfida con l’Unione Sovietica. Ma ci sono anche motivazioni più profonde, espresse bene nel famoso discorso del Presidente Kennedy alla Rice University il 12 settembre 1962: scegliamo di andare sulla Luna non perché sia facile, ma proprio perché è difficile. Questa sfida servirà ad organizzare e misurare al meglio le nostre energie e le nostre abilità. La nostra scienza e educazione sarà arricchita dalla nuova conoscenza del nostro Universo e ambiente, dalle nuove tecniche per imparare e organizzare le osservazioni, dai nuovi strumenti e computers per l’industria, per la medicina, per la casa e per la scuola.

Il progetto Apollo è stato certamente un Big Project ma ha prodotto anche Big Science, Il numero di articoli scientifici prodotti dal progetto Apollo è tra i 3000 e i 4000, circa 6 volte maggiore del numero di articoli prodotto da tutti i rover che hanno visitato e visitano Marte, circa il doppio degli articoli prodotti da ricerche condotte sulla Stazione Spaziale Internazionale, il cui costo totale è simile se non maggiore a quello del progetto Apollo. Ma forse il lascito piu’ importante del progetto Apollo è stato il ‘Moonshot thinking’, il concetto che è alla base della Big Science. Cosa è il Moonshot thinking lo spiega bene il secondo Teller di questa storia, Astro Teller, direttore dei laboratori Google-X: Il Moonshot è un modo di pensare, non è soltanto, come potrebbe apparire, una versione moderna del ‘pensare in grande’. Per essere un ‘moonshot’ il progetto deve affrontare un grande problema. E non basta, perché a far questo basterebbe la religione, abbracciamoci tutti, e le cose cambiano. No, deve offrire una soluzione radicale in cui dobbiamo credere, deve avere qualche scoperta scientifica o tecnica che ci faccia pensare che sia possibile arrivarci. E non basta ancora, perché dipende da come la storia viene raccontata. Per fare Big Science serve uno scopo di alto livello, un grande problema da risolvere, serve una tecnologia adeguata che renda possibile raggiungere lo scopo, e serve una narrazione efficiente che permetta il coinvolgimento positivo da parte della società. Il concetto è stato ulteriormente sviluppato ed estremizzato recentemente. Safi Bahcall, il figlio di John e Neta Bahchall, due famosi astrofisici del secolo passato parla di “loonshots”, idee pazze o sconsiderate[1]. Secondo Bahcall, le scoperte più significative derivano infatti da idee pazze e sconsiderate, piuttosto che dalle idee più comuni, che chiama “franchising”. Idee che sembrano folli e che quindi sono spesso respinte, etichettando chiunque le difendesse come svitato. Tornerò su questo punto fondamentale nei prossimi capitoli.

Lo Hubble Space Telescope sicuramente ha fatto e fa tanta Big Science. È costato molto (in totale circa otto miliardi di $), ci hanno lavorato e ci lavorano migliaia di scienziati, tecnici, ingegneri, e ha messo a disposizione una tecnologia innovativa per affrontare problemi di alto livello. HST è stato tra i protagonisti della scoperta dell’espansione accelerata dell’Universo, ed ha contribuito quindi alla ricerca che ha prodotto il premio Nobel in Fisica nel 2011 a Saul Perlmutter, Brian P. Schmidt e Adam Riess. La popolarità di HST nell’opinione pubblica mondiale è sicuramente enorme, grazie ad una riuscitissima politica di outreach da parte della NASA.

Sono Big Projects che hanno fatto Big Science gli acceleratori di particelle, che dagli anni 60 fino a oggi hanno permesso quella incredibile cavalcata trionfale che è stata la conferma del Modello Standard per le particelle elementari (questa storia è raccontata in moltissimi libri e pubblicazioni, si veda ad esempio il libro di Frank Close[2] e la bibliografia li citata). Il Modello Standard è stato sviluppato dagli anni ’50 agli anni ’70 e che ha trovato via via conferme spettacolari come la scoperta dei bosoni vettoriali intermedi da parte del super-proto-sincrotrone del CERN, la scoperta dei quark fino al più pesante il quark Top da parte del FermiLab a Chigago, fino all’ultimo tassello, la rivelazione del bosone di Higgs da parte dell’LHC al CERN.

Fanno certamente parte della Big Science gli interferometri gravitazionali Ligo e Virgo, entrambe progetti visionari, complessi, costosi e che hanno visto la partecipazione di migliaia di addetti, sia al livello tecnologico che dello sfruttamento scientifico dei dati. E hanno permesso di osservare direttamente le tenui increspature dello spazio-tempo che chiamiamo onde gravitazionali, offendo una nuova finestra per la nostra investigazione del Cosmo (nel seguito un capitolo sarà dedicato a raccontare questa storia).

È sicuramente un Big Project l’European Extremely Large Telescope (E-ELT), citato nel Prologo, con un costo maggiore di un miliardo di Euro, il coinvolgimento di migliaia di scienziati, tecnici ed ingegneri in più di venti nazioni Europee. E con tutta probabilità E-ELT produrrà Big Science. E-ELT è stato pensato e progettato per studiare le prime galassie che si sono formate nella storia dell’Universo, per studiare le atmosfere dei pianeti che pullulano attorno alla maggior parte delle stelle che vediamo splendere nel cielo, e capire se quelle atmosfere presentano tracciatori di Vita.

Contratti come quello citato nel Prologo di ESO verso un consorzio di aziende italiane per l’elemento principale di E-ELT significano sfide tecnologiche avanzate e conseguenti sviluppi strategici nel campo dell’ingegneria edile, nonché posti di lavoro per le aziende e per il territorio coinvolto. Contratti del valore così alto (mezzo miliardo di $) hanno però un naturale risvolto della medaglia. Possono anche indurre appetiti nel sistema industriale, tali da influenzare i processi stessi con cui si sceglie quali grandi infrastrutture scientifiche realizzare. Non è questo il caso di E-ELT perché’ alla radice della sua concezione ci sono problemi fondamentali, molti dei quali rientrano nella nostra ricerca delle nostre Origini: quali sono le origini dell’Universo visibile? Quale l’origine della vita? Ci si è posti poi il problema se e come la tecnologia potesse permettere di affrontare questi problemi e si sono individuate le soluzioni che hanno portato al concepimento di E-ELT.

Non tutti i Big Projects hanno prodotto, producono o produrranno Big Science. Ci sono quelli che semplicemente falliscono, perché il rischio è un elemento ineliminabile quando si voglia fare Scienza con la S maiuscola. Ci sono poi quelli che nascono vecchi, cioè che pur essendo concepiti seguendo il primato della scienza, vengono preceduti da altri progetti in competizione, e vengono in tutto o in parte spogliati da questi. Ci sono infine quelli che nascono per interessi che sono collaterali alla scienza, interessi politici o industriali. Apollo è certamente nato per un interesse primariamente politico. È nato come Big Project, ma ha prodotto anche Big Science. Altri Big Projects nati da interessi politici e/o industriali hanno avuto meno successo dal punto di vista scientifico.

Per garantire il primato della scienza in tutti questi processi e massimizzare il ritorno scientifico dai Big Projects in modo che possano fornire Big Science ci sono solo due antidoti: l’autorevolezza della comunità scientifica di riferimento, e gli anticorpi che si sviluppano in questa tramite l’applicazione costante di processi di selezione condivisi, consolidati e trasparenti.

La Big Science oggi include la gran parte della ricerca scientifica, sicuramente in termini di fondi, e di scienziati e tecnici addetti. Che la Big Science sia eccezionalmente di successo non è, credo, neanche questionabile. Una domanda che però ci si può porre è se Big Science sia sufficiente a riempire tutto il panorama della ricerca. Se serva o sia ancora proponibile una Little Science. Quale sia il rapporto ottimale tra Big e Little Science.

Uno dei problemi della Big Science è che per definizione costa parecchio. La costruzione di un acceleratore di particelle come LHC è costata dell’ordine dei 10 miliardi di $, più o meno il prezzo del nuovo telescopio spaziale JWST. In genere, per aprire nuovi spazi di scoperta uno strumento, una macchina, un osservatorio, devono avere capacità almeno 5-10 volte migliori del precedente. È oggi ragionevole pensare realisticamente a macchine dalla capacità un ordine di grandezza migliore di LHC e JWST? E del costo proporzionalmente maggiore? Probabilmente no, almeno nel mondo occidentale. È probabile che la scienza occidentale abbia raggiunto una saturazione, dal punto di vista delle risorse che si possono investire su un singolo progetto.

Il caso di JWST è emblematico. JWST è lo strumento spaziale di gran lunga più complicato che sia mai stato concepito. Un telescopio da 6.5 metri di diametro, ripiegabile, protetto da schermi termici grandi quanto un campo di tennis. Un telescopio che viene lanciato ripiegato su sé stesso e che si deve quindi aprire una volta fuori dall’atmosfera e dal campo gravitazionale terrestri, schermi termici che si devono dispiegare nello spazio, quando il satellite viaggerà verso il punto Lagrangiano L2. Tutto il processo di montaggio automatico nello spazio ha del miracoloso. È una danza tecnologica spaziale, meravigliosa, ma altrettanto pericolosa. Basta che uno solo delle molte decine di passi non risulti esattamente perfetto e tutta la missione è a rischio. Consiglio vivamente di dare un occhio a questo video[3].

HST, LHC o JWST sono macchine generaliste. Sono progettate per poter soddisfare molte esigenze scientifiche. Una delle possibili vie d’uscita per i successori è la diversificazione. Macchine più semplici, che non ambiscano a fare tutto, ma che siano focalizzate ad affrontare una o poche esigenze scientifiche specifiche. Questo da un lato potrebbe ridurre i costi, e dall’altro sicuramente ridurrebbe i rischi, tramite la moltiplicazione delle macchine e degli esperimenti. Qualcuno potrà anche andare male, dopo tutto la scienza è un risky bussiness, ma altri potranno avere successo.

Un altro dei problemi della Big Science è che progetti che per definizione sono big, impiegano centinaia, spesso migliaia di ricercatori. La stragrande maggioranza di questi ricercatori non ha la visione globale dei progetti, essendo impegnata nella risoluzione di un problema specifico. I giovani ricercatori che si inseriscono un grande progetto sicuramente non hanno partecipato all’ideazione, non hanno partecipato alla definizione del profilo del progetto, forse parteciperanno allo sfruttamento scientifico, ma difficilmente per le parti che sono core science, e cioè quelle fondamentali, per le quali lo strumento è stato concepito e costruito. Il risultato è che migliaia di giovani ricercatori impiegano la maggior parte del loro tempo a fare quello che pochi dirigenti senior ha deciso per loro. Si ritiene che il periodo più creativo per uno scienziato siano gli anni subito successivi al dottorato di ricerca, e comunque tra i trenta e i quaranta anni. Curiosamente, oggi pochissimi scienziati hanno la possibilità di fare lavori veramente creativi durante il loro periodo più creativo. Perché prima sono impegnati a fare una ricerca che gli possa garantire un posto di lavoro stabile, vedi capitolo precedente, e poi perché entrando in un grande progetto la loro ricerca è spesso limitata, nel vero senso della parola, cioè confinata entro recinti stretti, pure se profondi.


Leggi tutto


Prossima pubblicazione: 16 febbraio 2020. 6. Spazio (4.0): l’ultima frontiera


[1] Safi Bahcall, Idee folli, 2019 ROI Edizioni

[2] Frank Close, The infinity puzzle, 2013, Basic Books

[3] https://www.youtube.com/watch?v=v6ihVeEoUdo

4. La produzione scientifica

La produzione scientifica nel mondo è cresciuta in maniera esponenziale, con un periodo di raddoppio delle pubblicazioni ogni 10-15 anni, a partire dall’organizzazione moderna della Scienza all’inizio del 600’ fino al primo decennio degli anni 2000. Nell’ultimo secolo la crescita della produzione scientifica nelle grandi potenze che si affacciavano per la prima volta sul mercato scientifico, Unione Sovietica e Cina, è stata addirittura più veloce, con un tempo di raddoppio tra 3 e 7 anni. Il numero di articoli prodotti in Cina ha superato quelli prodotti negli Stati Uniti a partire dal 2005-2010, anche grazie a un enorme incremento del numero di scienziati in Cina tra la fine degli anni 90’ e il 2005.


Leggi tutto

Prossima pubblicazione: 9 febbraio 2020. 5. Big Science