5. Big Science

La Big Science non è nata adesso, ma non è neanche sempre esistita. La big science ha una data di nascita precisa, il 11 ottobre 1939, la nascita di quello che divenne il progetto Manhattan. Quell’11 ottobre Sachs consegnò al presidente americano Franklin Delano Roosevelt una lettera scritta da Albert Einstein e Leo Szilard, dove si spiegava che con l’energia nucleare non si potevano fare solo esperimenti o produrre energia, ma si potevano costruire bombe. Bombe eccezionalmente potenti. E si spiegava che la Germania di Hitler aveva un programma per raggiungere questo fine. Qualche mese dopo, il 12 giugno del 1940, Roosevelt riceve Vannevar Bush che lo convince che solo lo sviluppo di nuove tecnologie avrebbe garantito agli Stati Uniti la vittoria nella guerra. Bush propone a Roosevelt di formare un nuovo gruppo scientifico e tecnologico, sotto la sua guida, a diretto riporto del presidente, quello che prenderà il nome di Office of Scientific Research and Development (OSRD). Nel 1941 Bush a capo dell’OSRD prima convince Roosevelt che lo studio della scissione dell’atomo deve diventare una priorità, poi vara un il programma di ricerca che diventò il progetto Manahattan. Roosevelt aveva dato ascolto a Bush e aveva capito che si trattava di “fare in modo che i nazisti non ci facciano saltare prima che noi loro”. In pochi anni il progetto Manhattan arrivò ad impiegare 130.000 scienziati e a costare miliardi di dollari. I risultati li conosciamo tutti, la pila di Fermi, la prova cioè che la fissione nucleare poteva essere usata per alimentare centrali e fornire energia elettrica, e soprattutto le bombe a fissione nucleare di Hiroshima e Nagasaki.

Dopo la fine della guerra, la Big Science divenne ancora più grande, se possibile. E venne finanziata soprattutto dal governo degli Stati Uniti. Accanto alla ricerca militare venne pesantemente finanziata la ricerca civile, tramite la neo fondata National Science Foundation (NSF), e il National Institute of Health (NIH).

Altri due eventi resero esponenziale la crescita della Big Science e il suo finanziamento, entrambe determinati dalla guerra fredda e in particolare dal nemico numero uno in questa guerra, l’Unione Sovietica. Il 29 agosto 1949 l’Unione sovietica detonò la prima bomba atomica prodotta oltrecortina. Questa sfruttava le idee per molti versi geniali di Sakharov, e in particolare utilizzava una struttura a cipolla, o come venne chiamata, torta a strati. Questa struttura poteva portare (e infatti portò) allo sviluppo di un ordigno molto più potente, la bomba termo-nucleare. In queste bombe strati differenti di combustibili nucleari a fissione e fusione producono esplosioni anche migliaia di volte più potenti di quella della bomba di Hiroshima. Ad esempio, l’innesco della fusione nucleare è prodotto dall’esplosione dello strato di combustibile per la fissione nucleare. La notizia dell’esperimento sovietico raggiunse rapidamente gli Stati Uniti, che diedero un nuovo forte impulso allo sviluppo dell’ordigno termo-nucleare. Teller e Ulam arrivarono a un disegno simile a quello di Sakharov, e gli Stati Uniti esplosero la loro prima bomba termo-nucleare nel novembre 1952, circa 9 mesi prima dei sovietici. Il costo totale dello sviluppo del programma atomico statunitense dagli anni ‘50 alla fine degli anni ‘90 è stato di diversi trilioni di $, molto maggiore, ad esempio, del debito pubblico dell’Italia, o una frazione di circa il 20% dell’attuale, gigantesco, debito pubblico statunitense. Negli anni ’50 e ’60 circa la metà di tutti i ricercatori negli Stati Uniti lavorava per programmi connessi con la difesa.

Il secondo evento risale al 4 ottobre 1957. L’Unione Sovietica mette in orbita il primo satellite artificiale della storia, lo Sputnik-1. È un micro-satellite in realtà. Una palla di acciaio con un solo strumento a bordo. Un trasmettitore radio primitivo, che emette solo un debole bip-bip, ma lo fa su frequenze accessibili a tutti, radioamatori inclusi. Il messaggio è quindi chiarissimo: abbiamo vettori che possono portare le nostre bombe sulle vostre teste. Sulle prime il presidente statunitense Eisenhower minimizza , ma viene incalzato dal potente gruppo di senatori democratici “class of 48”: Lyndon B. Johnson, che sarà poi presidente dopo l’assassinio di John Kennedy, Robert Kerr, il leader del senato, Robert Humprey e Clinton Anderson. Le dimissioni del segretario alla difesa danno l’opportunità ad Eisenhower di agire. Nomina Neil McElroy, un non addetto ai lavori (aveva lavorato per Procter & Gamble, ed era diventato famoso come l’inventore delle “soap opera”, cioè i programmi televisivi del mattino che servivano per vendere detersivi alle massaie, da cui il nome). McElroy ha una formazione aziendale e capisce che deve cambiare il modo di approcciare i problemi, esattamente come aveva fatto Vannevar Bush due decenni prima. Il 20 novembre 1957 propone di fondare una nuova agenzia che possa coltivare idee visionarie, fuori dal normale. Il 7 febbraio 1958 nasce l’Advanced Research Project Agency, ARPA, poi rinominata DARPA qualche anno dopo. Si devono alla DARPA invenzioni che hanno cambiato il nostro mondo: internet (la prima rete mai costruita era l’ARPANET, nel 1968), il GPS, software per comandi vocali, il primo computer per video grafica, il primo mouse e centinaia di altre innovazioni. L’organizzazione di DARPA merita un minimo di menzione e di approfondimento, perché’ è stata poi presa a modello da molti altri incubatori di innovazione. I program manager di DARPA sono assunti solo a tempo determinato. Il loro incentivo non è ottenere una posizione dell’organizzazione, fare carriera, ottenere un aumento di stipendio. L’unico incentivo è fare una scoperta talmente grande e importante da poterci attaccare il nome, diventare famoso o famosa, costruirsi uno spin off, oppure farsi assumere da una grande azienda. Sull’importanza delle motivazioni e delle forze propulsive per la ricerca torno in un prossimo capitolo diffusamente. Torniamo alla nostra storia. A dicembre 1958 i sovietici però lanciano il loro secondo satellite artificiale, lo Sputnik-2, questa volta molto più grosso, pesa circa due tonnellate, e complesso del precedente. Ospita a bordo addirittura un cane, la famosa cagnetta Laika. La missione per il cane è in realtà suicida, perché non è previsto un rientro dall’orbita terrestre, ma questo ovviamente nella comunicazione dell’evento non apparve. Negli Stati Uniti la preoccupazione aumenta e cominciano le discussioni che porteranno alla nascita della NASA. Ma mentre negli Stati Uniti si discute in Unione Sovietica si lavora, e velocemente. Maggio 1958: è la volta di Sputnik-3, che comincia ad avere l’aspetto di una vera e propria capsula spaziale. Il gruppo di senatori democratici “Class of 1948” (Lyndon Jonhson, Hubert Humphrey, Robert Kerr and Clinton Anderson) prende l’iniziativa: Sputnik means space, travel, satellites and solar system research, new fields where creativity and cooperation become paramount []. Think broadly: space is more than a military staging area; think national and international, act civil.  Il 29 luglio 1958 nasce la NASA, come agenzia spaziale civile.

Nell’ottobre 1958 i sovietici raggiungono per la prima volta la Luna, e ci portano circa mezza tonnellata di strumenti. Il 12 aprile 1961 il primo essere umano, il tenente dell’aviazione sovietica Yuri Gagarin, raggiunge lo spazio. Con la navicella Vostok-1 compie un’intera orbita terrestre ad una velocità di circa 27000 km/ora, e, incredibilmente, riesce anche a tornare sulla terra sano e salvo. Un bel film recente, Il diritto di contare, racconta di quanto possa essere complicato anche solo dal punto di vista della matematica riuscire a disegnare un’orbita che poi riporti una navicella sulla terra. I sovietici ci erano riusciti, e con un uomo a bordo. Al ritorno a terra un’accoglienza trionfale accoglie Gagarin, ovviamente in mondovisione. Fin dal tempo dello Sputnik-1 i sovietici avevano capito perfettamente l’utilità di dare una cassa di risonanza la più grande possibile ai loro successi, e di usare i mezzi di comunicazione, la radio o la televisione all’epoca, per formare l’opinione pubblica, non solo nel loro paese ma nel mondo, già all’epoca globalizzato. Solo cinque giorni dopo gli Stati Uniti conoscono una seconda impensabile sconfitta. Il 17 aprile 1961 qualche migliaia di esuli cubani e di mercenari sbarca a Cuba nella Baia dei Porci con l’intento di rovesciare il regime di Castro. Senza supporto aereo ne navale da parte degli Stati Uniti, che non volevano comparire esplicitamente come facilitatori dell’invasione, la forza di invasione fu rapidamente sconfitta dall’esercito cubano. J.F. Kennedy aveva detto che avrebbe mosso l’America verso una nuova frontiera, in realtà stava andando indietro su tutto. Deve assolutamente rispondere. Durante quei drammatici giorni chiede al suo vice presidente Lyndon Johnson, una delle menti dietro alla presidenza di JFK, assieme al fratello Robert: Do we have a chance to beat the Soviet? Putting a lab in space, or landing to the Moon? Quanto ci può costare? Johnson ordina a James Webb, direttore della NASA, il 5 maggio di portargli per il lunedì 8 maggio le sue raccomandazioni (all’epoca si usavano mezzi più spicci che oggi, quando si sarebbe sicuramente costituita una commissione per studiare il problema, che dopo qualche anno di lavori sarebbe arrivata alla conclusione che non era in grado di concludere e che sarebbe stato il caso di istituire un altro tipo di commissione). La risposta di Webb arrivò puntuale dopo il week-end, ed era composta da due sole raccomandazioni: (1) Moon landing; (2) development of nuclear rockets. Dice del 2 punto: Would provide a means for even more exciting and ambitious exploration of space, perhaps beyond the Moon, perhaps to the very end of the Solar System. Lo sviluppo, la riuscita e l’abbandono di un motore a propulsione nucleare da parte degli Stati Uniti è una storia fantastica, che da sola meriterebbe un intero libro, ma ci porterebbe troppo fuori dal tema di questo di libro, torniamo quindi sulla Luna. Interrogato sui i costi, Webb offre una stima di circa 20 miliardi di $ dell’epoca[1]. Il programma Apollo costò in realtà circa 25 miliardi di $ dell’epoca (circa 200 miliardi in $ correnti), solo il 25% in più di quanto valutato da Webb. Fa sorridere che la Nasa abbia deciso di dedicare proprio a Webb, il nuovo telescopio spaziale, il cui costo era stato valutato in 800 milioni di $ nella Decadal Survey del 2000, e ad oggi è già costato circa 9 miliardi di $, per un lancio che non si è ancora verificato e che è previsto nel 2021. Il James Webb Space Telescope, JWST, farà sicuramente parte della Big Science e produrrà risultati scientifici fondamentali e sbalorditivi, ma è anche il singolo progetto scientifico che ha sofferto del maggiore incremento di prezzi nella storia della scienza, un fattore >10.

Il progetto Apollo, la prima circumnavigazione della Luna da parte di esseri umani il giorno di Natale del1968 a bordo dell’Apollo 8, lo sbarco sulla Luna il 20 luglio 1969 con l’Apollo 11, le altre cinque missioni lunari, che hanno complessivamente riportato a terra circa 300 kg di materiale lunare è sicuramente stato un Big Project, ed è costato comparabilmente molto. È però stato anche un ottimo affare. Si stima che per il progetto Apollo siano stati prodotti 30.000 brevetti sulle cose più disparate, dai motori per razzi agli alimenti liofilizzati, ai tessuti, agli utensili a batterie. E si stima che per ogni $ speso ne siano stati guadagnati da 3 a 5. Quindi non solo politicamente ma anche e soprattutto economicamente il Moon Landing è stato un ottimo affare, e viene naturale chiedersi come mai allora da quasi 50 anni siamo ancora confinati nell’orbita terrestre (tornerò su questo punto nel seguito). Non tutti però sanno che il progetto Apollo è stato un ottimo affare anche dal punto di vista della produzione scientifica. Il numero di articoli scientifici prodotti dal progetto Apollo è tra i 3000 e i 4000, circa 6 volte maggiore del numero di articoli prodotto da tutti i rover che hanno visitato e visitano Marte, circa il doppio degli articoli prodotti da ricerche condotte sulla Stazione Spaziale Internazionale, il cui costo totale è simile se non maggiore a quello del progetto Apollo. Ma la cosa ancora più importante è che il numero di articoli prodotti dal progetto Apollo continua a crescere ancora oggi, a 50 anni di distanza. In un mondo in cui tutto cambia con una velocità estrema questa sembra una assurdità. La ragione sono quelle poche centinaia di chili di materia lunare riportata a terra, il così detto sample-return.  Solo per citare uno studio famoso, riportare campioni da diverse locazioni lunari ha permesso di datare (tramite le analisi al Carbonio-14) luoghi con una diverso numero di crateri, e quindi di studiare la storia della craterizzazione della Luna, che, data la vicinanza con la Terra non può essere molto differente da quella della Terra. Un risultato fondamentale per capire la storia di formazione ed evoluzione del nostro pianeta e della vita su di esso. Il materiale lunare è ancora oggi studiato nei laboratori degli scienziati, perché nel tempo migliorano le capacità degli strumenti, e anche quelle degli scienziati di interpretare i dati. Sample-return vuol dire moltiplicare e di molto i risultati che si possono ottenere da un campione. I rover che sono su Marte possono solo eseguire qualche semplice analisi in situ, e ovviamente è impossibile rifare quell’analisi con uno strumento più sofisticato, a meno di non inviare su Marte un nuovo rover. Avere a terra campioni di Marte, o di un asteroide o di una cometa produrrebbe risultati stupefacenti. Non è quindi sorprendente che molte agenzie spaziali abbiamo organizzato o abbiano in via di studio missioni di sample return (ad esempio Hayabusa e Hayabusa-2 della Jaxa, Osiris-Rex e CAESAR della NASA). Torneremo su questo importante punto nel seguito. Apollo non è stato quindi solo un Big Project, è stato ed è tuttora Big Science.

Apollo e la conquista della Luna sono stati anzi il prototipo della Big Science, più vendibile e raccontabile socialmente dello sviluppo delle bombe a fissione o fusione nucleari. Ha dato il nome a quello che è alla base della Big Science, il ‘Moonshot thinking’. Cosa è il Moonshot thinking lo spiega bene il secondo Teller di questa storia, Astro Teller, direttore dei laboratori Google-X: Il Moonshot è un modo di pensare, non è soltanto, come potrebbe apparire, una versione moderna del ‘pensare in grande’. Per essere un ‘moonshot’ il progetto deve affrontare un grande problema. E non basta, perché a far questo basterebbe la religione, abbracciamoci tutti, e le cose cambiano. No, deve offrire una soluzione radicale in cui dobbiamo credere, deve avere qualche scoperta scientifica o tecnica che ci faccia pensare che sia possibile arrivarci. E non basta ancora, perché dipende da come la storia viene raccontata. Per fare Big Science serve uno scopo di alto livello, un grande problema da risolvere, serve una tecnologia adeguata che renda possibile raggiungere lo scopo, e serve una narrazione efficiente che permetta il coinvolgimento positivo da parte della società. Una sistematizzazione e una migliore espressione di un concetto già presente sia nella comunità scientifica che in quella imprenditoriale. Qualche anno prima del lancio del progetto Apollo Edwin Land, il geniale fondatore della Polaroid, lo scienziato/imprenditore che ha inventato prima i filtri polarizzatori che si potevano utilizzare facilmente su occhiali schermi, superfici qualsiasi, e poi la fotografia istantanea, affermava: “Non intraprendete un progetto a meno che l’obiettivo non sia palesemente importante e il suo raggiungimento quasi impossibile”. Oggii si parla anche di “loonshots”, idee pazze o sconsiderate[2]. Secondo Safi Bahcall, il figlio di John e Neta Bahchall, due famosi astrofisici del secolo passato, le scoperte più importanti, quelle più significative derivano da idee pazze e sconsiderate, piuttosto che dalle idee più comuni, che chiama “franchising”. Idee che sembrano folli e che quindi sono spesso respinte, etichettando chiunque le difendesse come svitato. Tornerò su questo punto fondamentale nei prossimi capitoli.

Non tutti i Big Project producono Big Science, se c’è la tecnologia ma non c’è lo scopo di alto livello non è corretto parlare di Big Science. Se lo scopo di alto livello esiste, ma non c’è la tecnologia per raggiungerlo, oppure non c’è una tecnologia che possa essere sviluppata a questo scopo in un futuro prevedibile, non è possibile parlare di Big Science. E se non c’è un vero coinvolgimento anche emozionale da parte della società, o almeno della parte più istruita della società, la Science non è davvero Big. Il 20 luglio 1969 ho assistito allo sbarco dell’Uomo (Neil Amstrong) sulla Luna guardando le immagini tremolanti in bianco e nero prodotte da un televisore portatile a tubo catodico Brionvega rosso (una chicca per i tempi, un televisore che si trova nei musei di arte moderna), alimentato dalla batteria dell’automobile di mio padre, una Giulia 1300 Nella casa al mare dove passavamo le vacanze non c’era ancora energia elettrica. Ricordo come fosse ieri la telecronaca alterata più che emozionata di Tito Stagno negli studi di Roma che litigava in diretta con Ruggero Orlando dagli Stati Uniti su quando e come il LEM avesse allunato. E ricordo come fosse ieri i miei genitori che mi svegliano alle 5 di mattina per assistere al saltello con cui Neil Amstrong poggia il piede sul polveroso suolo lunare. Se sono diventato uno scienziato e un astrofisico in particolare è stato soprattutto grazie a quel saltello. Oggi ho uno schermo piatto a led da 45 pollici, alimentato da un sistema di pannelli solari, connesso automaticamente a internet e capace di ricevere segnali quindi sia via digitale terrestre, che parabola satellitare che internet, alimentato da migliaia di canali e providers di qualsiasi spettacolo film, serie o documentario che si possa immaginare. Ma a distanza di ben 50 anni dal primo allunaggio non posso vedere un altro sbarco sulla Luna. O su un qualsiasi altro corpo del sistema solare.  Perché’?

Nel capitolo precedente abbiamo discusso come la scienza e la tecnologia hanno proceduto nei decenni e secoli passati e procedono tuttora in maniera esponenziale. In particolare, la produzione scientifica raddoppia ogni circa 15, massimo 20 anni, e il trasferimento tecnologico funziona egregiamente bene, soprattutto in Asia. Come mai l’esplorazione spaziale non è progredita in maniera esponenziale? O, per dirla tutta, perché l’esplorazione dello spazio profondo non è progredita affatto? Come mai la NASA che in soli 8 anni otto ci ha portato dal suolo terrestre a quello della Luna poi nei successivi 50 anni si è di colpo fermata? Libri e riviste sono pieni di discussioni del perché e del percome si è riusciti ad andare sulla Luna negli anni 60 con una tecnologia che i miei figli semplicemente non riescono manco ad immaginare, e oggi invece che viviamo in una società ipertecnologica dove tutto è connesso e scorre veloce siamo ancorati alla superfice terrestre o al meglio all’orbita terrestre. Le risposte più comuni sono che nello spazio, e tantomeno in quello profondo, non ci si guadagna, e che quindi non c’è stato lo stimolo ad avventurarsi per quei lidi, e che lo spazio, e soprattutto quello profondo è difficile. A questo punto non riesco a fare a meno di fare una citazione famosa: We choose to go to the moon in this decade [] not because they are easy, but because they are hard, because that goal will serve to organize and measure the best of our energies and skills, because that challenge is one that we are willing to accept, one we are unwilling to postpone, and one which we intend to win. Questo è un inciso dal famoso discorso di J.F. Kennedy alla Rice University il 12 settembre1962. Certamente lo spazio è difficile, ma questa sfida servirà ad organizzare e misurare al meglio le nostre energie e le nostre abilità. Prosegue Kennedy: La nostra scienza e educazione sarà arricchita dalla nuova conoscenza del nostro Universo e ambiente, dalle nuove tecniche per imparare e organizzare le osservazioni, dai nuovi strumenti e computers per l’industria, per la medicina, per la casa e per la scuola. Possibile che tutti questi concetti oggi siano completamente superati e non siano più veri? Ho già ricordato come in realtà il progetto Apollo sia stato un ottimo investimento, anche dal punto di vista del ritorno economico. E quindi, di nuovo, come mai non c’è stato per l’esplorazione spaziale, almeno fino ad oggi, quell’effetto moltiplicativo tipico della crescita esponenziale? Un tasso di crescita basso, del 2%, meno della metà del tasso di crescita della produzione scientifica negli ultimi 50 anni, avrebbe comportato ad esempio una crescita della capacità di lancio di quasi 3 volte in 50 anni, passando quindi dalle 130 tonnellate verso un’orbita bassa tipiche per il Saturn V a quasi 500 tonnellate. O, a parità di carico utile, un corrispondente aumento della velocità. Il nuovo lanciatore della NASA SLS avrà una capacità di circa 100 tonnellate verso l’orbita bassa, simile al Saturn V. Per di più, il motore che alimenta il modulo di servizio della nuova capsula Orion ha una potenza che è solo un terzo di quella del sistema di propulsione della vecchia capsula Apollo, impedendo di fatto una missione diretta dalla Terra alla Luna, simile a quelle Apollo, e forzando l’utilizzo di una stazione spaziale intermedia, che oggi prende il nome di Deep Space Gateway.  È naturale chiedersi se questo sia il risultato di una insufficiente innovazione. I motori utilizzati dall’SLS sono gli stessi che vennero sviluppati negli anni 70 e utilizzati dallo Space Shuttle. E l’SLS non è un lanciatore riutilizzabile, esattamente come il Saturn V. L’innovazione più forte nel campo dei lanciatori non la si trova oggi nella NASA, ma in compagnie private, come SpaceX che ha realizzato un lanciatore riutilizzabile, il Falcon 9, abbattendo drasticamente i costi di lancio. Anche lo Space Shuttle della NASA era sulla carta un sistema riutilizzabile, ma purtroppo questo sistema non fu in grado di abbattere i costi. Ogni lancio di Space Shuttle costava circa mezzo miliardo di $, circa la metà di un Saturn V, ma con una capacità di carico di meno di un quarto. Una innovazione profonda sarebbe stata lo sviluppo di sistemi di propulsione differenti e più efficienti della propulsione chimica che alimentava i razzi degli anni 60 esattamente come alimenta quelli del 2020. Ho già ricordato come nel 1961 Webb parla già di propulsione nucleare. E in effetti la NASA negli anni 60 effettua ricerche in questo settore, parallelamente programma Apollo. Costruisce un prototipo di motore a propulsione nucleare, il NERVA[3], lo testa lungamente a terra, anche in configurazione di volo, riuscendo a provare il suo funzionamento sia per quanto riguarda la potenza totale, che per la durata di accensione che una missione nello spazio profondo richiedeva, che addirittura come numero di accensioni e spegnimenti. Ovviamente se si vuole andare su Marte e soprattutto si intente tornare, si deve essere sicuri che poi un motore possa essere riavviato, dopo mesi dal primo utilizzo. Riavviare motori chimici non è semplice, soprattutto dopo lunghi intervalli di non funzionamento, il NERVA dimostra di poter essere spento e riavviato a piena potenza molte volte. NERVA era pronto per un test di volo, il così detto RIFT, ma questo test non venne mai effettuato. NERVA doveva essere portato in orbita da un Saturn V, ma nel 1970, l’anno dopo il primo allunaggio, il budget della NASA viene tagliato drasticamente e si ferma la produzione dei Saturn V. Nel 1973 il congresso degli Stati Uniti approva la costruzione dello Space Shuttle e chiude definitivamente il progetto NERVA. Il direttore della NASA Payne si dimette. Si abbandona così lo spazio profondo per l’orbita terrestre, quella dove siamo ancora ancorati oggi, dopo mezzo secolo. Quando dopo la caduta del muro di Berlino fu possibile parlare liberamente e intervistare scienziati aerospaziali Sovietici, questi non volevano credere che il governo americano avesse veramente chiuso il programma NERVA. I sovietici pensavano che il programma fosse stato completamente secretato, ai fini di utilizzare i propulsori nucleari per fini bellici. Non potevano credere che gli statunitensi fossero riusciti a sviluppare un motore nucleare funzionante, e poi non lo avessero utilizzato, chiudendo in naftalina tutto il programma.

Ma torniamo alla Big Science. Lo Hubble Space Telescope sicuramente ha fatto e fa tanta Big Science. È costato molto (in totale circa otto miliardi di $), ci hanno lavorato e ci lavorano migliaia di scienziati, tecnici, ingegneri, e ha messo a disposizione una tecnologia innovativa per affrontare problemi di alto livello. HST è stato tra i protagonisti della scoperta dell’espansione accelerata dell’Universo, ed ha contribuito quindi alla ricerca che ha prodotto il premio Nobel in Fisica nel 2011 a Saul Perlmutter, Brian P. Schmidt e Adam Riess, e della scoperta che i nuclei di tutte le galassie che possiedono un bulge ospitano buchi neri super-massicci (da milioni a miliardi di masse solari), solo per citare due delle tantissime scoperte che è stato possibile effettuare con HST. E la popolarità di HST nell’opinione pubblica statunitense e mondiale è sicuramente enorme, grazie ad una riuscitissima politica di outreach da parte della NASA.

Sono Big Projects che hanno fatto Big Science gli acceleratori di particelle, che dagli anni 60 fino a oggi hanno permesso quella incredibile cavalcata trionfale che è stata la conferma del Modello Standard per le particelle elementari (questa storia è raccontata in moltissimi libri e pubblicazioni, si veda ad esempio il libro di Frank Close[4] e la bibliografia li citata). Il Modello Standard è stato sviluppato dagli anni ’50 agli anni ’70 e che ha trovato via via conferme spettacolari come la scoperta dei bosoni vettoriali intermedi da parte del super-proto-sincrotrone del CERN, la scoperta dei quark fino al più pesante il quark Top da parte del FermiLab a Chigago, fino all’ultimo tassello, la rivelazione del bosone di Higgs da parte dell’LHC al CERN.

Fanno certamente parte della Big Science gli interferometri gravitazionali Ligo e Virgo, entrambe progetti visionari, complessi, costosi e che hanno visto la partecipazione di migliaia di addetti, sia al livello tecnologico che dello sfruttamento scientifico dei dati. E hanno permesso di osservare direttamente le tenui increspature dello spazio-tempo che chiamiamo onde gravitazionali, offendo una nuova finestra per la nostra investigazione del Cosmo (nel seguito un capitolo sarà dedicato a raccontare questa storia).

È sicuramente un Big Project l’European Extremely Large Telescope (E-ELT), citato nel Prologo, con un costo maggiore di un miliardo di Euro, il coinvolgimento di migliaia di scienziati, tecnici ed ingegneri in più di venti nazioni Europee. E con tutta probabilità E-ELT produrrà Big Science. E-ELT è stato pensato e progettato per studiare le prime galassie che si sono formate nella storia dell’Universo, per capire come si sono formate e quali sono state le conseguenze di questa fase capitata quando l’Universo era ancora giovane, l’accensione delle prime stelle in quegli agglomerati che prenderanno poi la forma di galassie. Per studiare le atmosfere dei pianeti che, abbiamo scoperto, pullulano attorno alla maggior parte delle stelle che vediamo splendere nel cielo, e capire se quelle atmosfere presentano tracciatori di Vita, la firma dell’ossigeno, dell’ozono, del metano, e dell’anidride carbonica.

Contratti come quello citato nel Prologo di ESO verso un consorzio di aziende italiane per l’elemento principale di E-ELT significano sfide tecnologiche avanzate e conseguenti sviluppi strategici nel campo dell’ingegneria edile, nonché posti di lavoro per le aziende e per il territorio coinvolto. Contratti del valore così alto (mezzo miliardo di $) hanno però un naturale risvolto della medaglia. Possono anche indurre appetiti nel sistema industriale, tali da influenzare i processi stessi con cui si sceglie quali grandi infrastrutture scientifiche realizzare. Non è questo il caso di E-ELT, la cui ideazione prima, e sviluppo poi, nascono da lontano, e in particolare da qualche domanda semplice posta fin da una ventina di anni fa da scienziate dell’ESO, che avevano appena finito di costruire il Very Large Telescope (VLT), quattro telescopi del diametro di otto metri ciascuno sul Cerro Paranal in Cile: quanto grande deve essere un telescopio per poter raccogliere la poca luce che ci arriva dalle prime galassie che si sono formate? Come possiamo allargare di almeno un ordine di grandezza lo spazio di scoperta di VLT? Come possiamo correggere le aberrazioni che subisce questa luce nell’attraversare la nostra atmosfera e quindi preservare la preziosa informazione che trasporta? Alla radice di E-ELT ci sono quindi problemi fondamentali, molti dei quali rientrano nella nostra ricerca delle nostre Origini: quali sono le origini dell’Universo visibile? Quale l’origine della vita? Ci si è posti poi il problema se e come la tecnologia potesse permettere di affrontare questi problemi e si sono individuate le soluzioni. Dalla metà del prossimo decennio cominceremo ad usare questa macchina per fare Big Science.

Non tutti i Big Projects hanno prodotto, producono o produrranno però Big Science. Ci sono quelli che semplicemente falliscono, perché il rischio è un elemento ineliminabile quando si voglia fare Scienza con la S maiuscola. Ci sono poi quelli che nascono vecchi, cioè che pur essendo concepiti seguendo il primato della scienza, vengono preceduti da altri progetti in competizione, e vengono in tutto o in parte spogliati da questi. Ci sono infine quelli che nascono per interessi che sono collaterali alla scienza, interessi politici o industriali. Apollo è certamente nato per un interesse primariamente politico. È nato come Big Project, ma ha prodotto anche Big Science. Altri Big Projects nati da interessi politici e/o industriali hanno avuto meno successo dal punto di vista scientifico.

Per garantire il primato della scienza in tutti questi processi e massimizzare il ritorno scientifico dai Big Projects in modo che possano fornire Big Science ci sono solo due antidoti: l’autorevolezza della comunità scientifica di riferimento, e gli anticorpi che si sviluppano in questa tramite l’applicazione costante di processi di selezione condivisi, consolidati e trasparenti.

La Big Science oggi include la gran parte della ricerca scientifica, sicuramente in termini di fondi, e di scienziati e tecnici addetti. Dei grandi progressi che la Big Science ha portato ho già accennato. Certamente tutti i grandi successi scientifici brevemente menzionati in precedenza non sarebbero stati possibili senza una dimensione big del progetto, degli investimenti, dei gruppi di ricerca. Che la Big Science sia eccezionalmente di successo non è, credo, neanche questionabile. Una domanda che però ci si può porre è se Big Science sia sufficiente a riempire tutto il panorama della ricerca. Se serva o sia ancora proponibile una Little Science. Quale sia il rapporto ottimale tra Big e Little Science.

Uno dei problemi della Big Science è che per definizione costa parecchio. La costruzione di un acceleratore di particelle come LHC è costata dell’ordine dei 10 miliardi di $, più o meno il prezzo del nuovo telescopio spaziale JWST. L’utilizzo di LHC, solo in corrente elettrica, costa una fortuna, circa un miliardo di $ l’anno. LHC consuma tanta energia elettrica quanto tutta la città di Ginevra. In genere, per aprire nuovi spazi di scoperta uno strumento, una macchina, un osservatorio, devono avere capacità almeno 5-10 volte migliori del precedente. È oggi ragionevole pensare realisticamente a macchine dalla capacità un ordine di grandezza migliore di LHC e JWST? E del costo proporzionalmente maggiore? Probabilmente no, almeno nel mondo occidentale. È probabile che la scienza occidentale abbia raggiunto una saturazione, dal punto di vista delle risorse che si possono investire su un singolo progetto. Anche solamente per tutti gli elementi di rischio che sono naturalmente insiti nel fatto che il progetto sia appunto singolo. Se si mettono tutte le risorse nello stesso paniere, e poi si scopre che il paniere è bucato, si sono sprecate tutte le risorse. In questi mesi è acceso il dibattito sul futuro della fisica delle particelle, e in particolare sul ruolo che potrebbe giocare una macchina dieci volte più grande (e costosa) di LHC. Non è scontato che una macchina più grande e potente possa portare a quelle scoperte e a quella nuova fisica che anche LHC aveva promesso ma che poi non ha ancora mantenuto: particelle super-simmetriche, dimensioni aggiuntive, materia oscura e quant’altro. La fisica oggi semplicemente non riesce a fare previsioni forti circa tutte queste cose. E quindi c’è chi come Sabine Hossenfelder ritiene sia troppo rischioso mettere tutte le risorse in un solo paniere[5]. Altri fisici ritengono che la fisica delle particelle debba comunque cambiare riferimento. Nel passato si sono costruite macchine per verificare precise previsioni della teoria (un esempio su tutti, la scoperta dei bosoni vettoriali intermedi W0 e Z previsti dalla teoria ellettrodebole, fatta dal super-proto sincrotrone del CERN all’inizio degli anni 80’, scoperta che ha fruttato il premio Nobel a Carlo Rubbia), oggi si dovrebbero costruire macchine per investigare l’ignoto, andare a caccia di sorprese, per allargare i confini della nostra conoscenza. Il problema è però ovvio: una volta che si spendono 30-100 bilioni di $ in una macchina, se questa non dovesse portare a nessuna nuova scoperta fondamentale, è naturale che poi la politica, e i taxpayer in generale, siano poco disposti a riporre fiducia di nuovo negli scienziati quando parleranno di nuovi progetti e nuove imprese.

Il caso di JWST è diverso. Selezionato alla Decadal Survey 2000 per un costo valutato in 800 milioni di $, oggi, dopo una spesa di circa 9 miliardi di $, è ancora lontano dal lancio (la Decadal Survey è il processo trasparente con il quale negli Stati Uniti ogni dieci anni si determinano le priorità per quanto riguarda i nuovi grandi progetti per astrofisica e esplorazione planetaria. Tutte le grandi missioni come HST, Spitzer, Chandra, sono state decise sulla base delle prioritizzazioni effettuate nelle Decadal Surveys). I motivi per questo gigantesco incremento dei costi sono almeno due. Il primo è che JWST è lo strumento spaziale di gran lunga più complicato che sia mai stato concepito. Un telescopio da 6.5 metri di diametro ripiegabile, protetto da schermi termici grandi quanto un campo di tennis. Un telescopio che viene lanciato ripiegato su se stesso e che si deve quindi aprire una volta fuori dall’atmosfera e dal campo gravitazionale terrestri, schermi termici che si devono dispiegare nello spazio, quando il satellite viaggerà verso il punto Lagrangiano L2, uno dei punti di equilibrio tra l’attrazione gravitazionale terrestre e quella del sole. Tutto il processo di montaggio automatico nello spazio ha del miracoloso. E’ una danza tecnologica spaziale, meravigliosa, ma altrettanto pericolosa. Basta che uno solo delle molte decine di passi non risulti esattamente perfetto e tutta la missione è a rischio. Consiglio vivamente di dare un occhio a questo video[6]. Come ho detto, la danza non si svolgerà in orbita terrestre, ma durante il viaggio verso il punto Lagrangiano L2, distante circa un milione di km dalla terra. Uno dei motivi per questa scelta è rendere il satellite non visitabile e quindi non riparabile da astronauti. HST è stato visitato e riparato da astronauti ben cinque volte, e ogni volta il costo dell’operazione si è aggirato tra i 500 milioni e il miliardo di $. Si è voluto evitare per JWST questo scenario di costi altissimi di manutenzione. Viene naturale chiedersi se sia più saggio risparmiare su una eventuale possibilità di aggiustare qualcosa che costa la bellezza di 9 miliardi di $, o rischiare di perdere in un colpo solo tutta la cifra. L’esempio fornito proprio dal predecessore di JWST, HST, sembra illuminante. Subito dopo il lancio nel 1990 ci si rese conto che le immagini prodotte da HST non erano molto migliori di quelle prodotte da telescopi terrestri, al contrario di quanto le specifiche promettevano: una acutezza delle immagini 10-100 volte migliore di quelle che si possono raccogliere a terra. Il motivo per cui HST era stato lanciato in orbita era proprio quello di evitare le forti aberrazioni che l’atmosfera terrestre imprime sulle immagini degli oggetti celesti. Il motivo del cattivo funzionamento di HST venne trovato quasi subito. Lo specchio primario era stato si lavorato con la necessaria precisione, ma purtroppo con una forma sbagliata. Una forma molto precisamente sbagliata. Il rimedio fu relativamente semplice da individuare, bastava costruire un correttore, sempre lavorato con estrema precisione, ma con una forma sbagliata esattamente nel verso opposto di quella dello specchio primario. Fortunatamente HST era stato concepito fin dall’inizio e poi costruito per essere riparabile in orbita. Il primo correttore fu installato a bordo di HST durante la prima missione di servizio nel dicembre del 1993. Correttori più moderni vennero installati anche nelle altre quattro missioni si servizio, fino all’ultima nel 2009. Grazie alla possibilità di poter manutenere in orbita lo HST,  oggi abbiamo a disposizione una vera e propria legacy, il cielo visto dall’Hubble Space Telescope[7]. Anche a causa dell’esempio fornito da HST, oggi voci molto forti si stanno alzando per cambiare il modo di pensare della NASA che ha portato alla progettazione di JWST come un satellite non riparabile, e quindi per rendere visitabili da astronauti o sonde automatiche, e quindi riparabili, le prossime grandi missioni scientifiche della NASA[8]. Fortunatamente, già WFIRST, il prossimo grande telescopio che la NASA dovrebbe realizzare dopo JWST, dovrebbe avere una qualche supporto per essere visitato e riparato da sonde automatiche.

Data la complessità dello strumento è probabile che i proponenti di JWST nel 2000 (all’epoca si chiamava New Generation Space Telescope, NGST), sapessero di stare sottostimando i costi. Ma il gioco era vincere la competizione contro una missione nota come Constellation X, una flotta di osservatori per raggi X. Una parte rilevante del costo stratosferico di JWST è sicuramente imputabile alla complessità della macchina. La NASA ha deciso di sviluppare un numero enorme di sistemi e sottosistemi ad altissime prestazioni che non avevano mai volato prima. E chiaramente, fare cose nuove, innovative e super-performanti costa. Il secondo motivo del costo di JWST è che una buona parte dei soldi sono andati a pagare stipendi. Questa è una cosa normale, che succede praticamente sempre nel caso delle grandi imprese spaziali. Ma gli stipendi di chi? Di un numero enorme di ingegneri, tecnici, amministrativi che costituisce la macchina tecnica e burocratica in grado di sviluppare progetti come JWST. La NASA impiega oggi attorno a 17.000 persone, un semplice calcolo mostra quanto alta è la spesa per sostenere gli stipendi di questo esercito di personale altissimamente qualificato. E parte di questi costi sono pagati dai progetti più grossi. Detta così suona malissimo. Sembra che progetti audaci e visionari servano in realtà per mantenere una struttura burocratica. Ed almeno in parte è veramente cosi. È eclatante il caso del nuovo razzo che la NASA sta sviluppando, lo Space Launch System (SLS). Dopo il ritiro dello Shuttle nel 2011 la NASA ha deciso di sviluppare un nuovo lanciatore per tornare con astronauti nello spazio profondo, un lanciatore della potenza del vecchio e sempre rimpianto Saturn V. La NASA ha speso da allora circa 2 miliardi di $ l’anno per questo sistema di lancio (anzi, la spesa era cominciata anche prima, se si pensa allo sviluppo di un sistema analogo chiamato Constellation program, che includeva due lanciatori, ARIES I e ARIES V, era cominciato nel 2005 ma era stato poi bloccato dall’amministrazione Obama nel 2010). Il primo lancio di un SLS era previsto per il 2017, forse sarà effettuato solo nel 2021. Il costo totale del sistema sarà di molte decine di miliardi di $, e il costo per lancio di almeno 2 miliardi di $[9]. Costi così alti non sono sorprendenti, dato che SLS, esattamente come il Satur V, non è stato concepito per essere riutilizzabile. Il primo stadio di ogni SLS usa quattro motori identici a quello principale dello Space Shuttle. Motori che erano stati concepiti e realizzati per essere riutilizzabili nello Space Shuttle, ma che nell’SLS sono persi dopo ogni singolo lancio, dato che il primo stadio cade nell’oceano ad alta velocità distruggendosi.  Il confronto tra i costi di SLS e quelli di sistemi di lancio di potenza analoga in via di sviluppo da parte di industrie private negli stati uniti (il Big Falcon Rocket da parte di SpaceX, poi rinominato Starship la navicella spaziale e SuperHeavy il lanciatore, e il New Glenn da parte di Blue Origin, ne discuteremo ampiamente nel prossimo capitolo), è impari, il maggiore costo affrontato dalla NASA per prestazioni simili a quelle che potrebbe comprare sul mercato è di un fattore tra 5 e10, sia per quanto riguarda i costi di sviluppo che quelli relativi ad ogni lancio. I motivi di queste differenze sono tanti, a partire dal fatto che entrambe i lanciatori di SpaceX e Blue Origin saranno riutilizzabili. Ma a prescindere dalla riutilizzabilità, il fattore principale della differenza di costi è che SLS è anche un così detto sistema per pagare stipendi. Il finanziamento di ARIES prima e SLS poi ha permesso di pagare tutte le migliaia di ingegneri e tecnici che prima avevano lavorato allo Space Shuttle[10]. I grandi progetti spaziali difficilmente si potrebbero affrontare senza il supporto di una struttura solida di ingegneri, tecnici e amministrativi. Dove sia il limite tra spreco e spesa virtuosa ovviamente non è facile dire. Ma non è lo spreco il solo problema. Se un progetto è anche un sistema per pagare stipendi, questo cambia la definizione di successo di questo progetto. Normalmente un progetto di successo è un progetto efficiente, ma, al contrario, aumentare la spesa per stipendi diminuisce l’efficienza. Minore efficienza significa più spesa per stipendi, che significa più posti di lavoro, che significano più voti per il politico locale che supporta quel progetto. Politico in cerca di elezione o rielezione, o semplicemente in cerca di una poltrona. La conclusione è che un progetto nato e cresciuto per interessi politici è raramente un progetto efficiente. E il suo successo può non avere a che fare con le finalità scientifica o tecnologica del progetto.

Sicuramente il costo della macchina tecnologica e burocratica dovrebbe essere considerato quando si fanno stime dei costi complessivi delle nuove missioni. Ad esempio, proprio in questi mesi, inizio 2019, negli Stati Uniti sta cominciando il nuovo esercizio che porterà alla definizione delle prossime priorità nell’ambito della Decadal Survey 2020. Concorreranno quattro concetti di missioni “Large”: Lynx, un telescopio spaziale a raggi X, il potenziale successore di Chandra; LUVOIR, un telescopio spaziale di grande taglia, si parla di dodici metri di diametro, che come dice il nome vuole coprire una banda molto larga dello spettro elettromagnetico, dall’ultravioletto al vicino infrarosso (JWST è cieco a lunghezze d’onda minori di circa 6000 A, mentre HST arriva a coprire l’ultravioletto fino a un migliaio di A); Origins Space Telescope invece si propone di coprire la banda del medio e lontano infrarosso; e infine l’Habitable Exoplanet Observatory, HabEx, come dice il nome vuole osservare e caratterizzare pianeti di tipo terrestre attorno a stelle dello stesso tipo del Sole. Tutte questi quattro progetti costeranno molto, diversi miliardi di dollari certamente. Una domanda ovvia che ci si pone è se nel budget della NASA ci sia spazio per altre spese del tipo di quella affrontata per JWST. E la risposta purtroppo non è scontata né banale. Da poco (11 marzo 2019), l’amministrazione statunitense ha pubblicato la sua proposta per il budget della NASA. In questa proposta, per il terzo anno di fila non si propongono fondi per WFIRST, il telescopio spaziale selezionato dalla Decadal Survey 2010. Un telescopio di 2.4 metri di diametro, simile a HST, ma di grande campo (un campo corretto circa 1000 volte maggiore del campo coperto da HST), del costo stimato tra 3 e 4 miliardi di $. L’amministrazione Trump ha sempre tentato di tagliare questo progetto, e fino ad oggi i fondi necessari per lo sviluppo sono stati assicurati dalla Camera e dal Senato, contro il parere appunto dell’amministrazione. Succederà lo stesso anche quest’anno? Il problema è però più serio e va oltre alla sopravvivenza di WFIRST. Il problema è che tutto il budget della NASA dedicato all’astrofisica è sempre calato dal 2005, e negli ultimi anni si è assestato sotto 1.4 miliardi di $ l’anno. L’amministrazione Trump lo vorrebbe portare sotto 1.2 miliardi di $ l’anno. Ma anche un livello di 1.4 miliardi di $ l’anno sarebbe forse non sufficiente per costruire WFIRST, e sicuramente non permetterebbe di sviluppare un nuovo progetto, dopo WFIRST. Jon Morse, il precedente direttore della divisione di Astrofisica della NASA, oggi ricercatore all’Harvard Smithsonian Center for Astrophysics, in due recenti articoli si chiede quale sia il senso di lavorare alle Decadal Survey (un lavoro lungo, che coinvolge centinaia di scienziati, e anche costoso, si stima che la spesa di una Decadal sia di molte decine di milioni di $), se poi la NASA non ha le risorse per supportare neanche la primissima priorità di queste survey[11].

HST, LHC o JWST sono macchine generaliste. Sono progettate per poter soddisfare molte esigenze scientifiche. Una delle possibili vie d’uscita per i successori è la diversificazione. Macchine più semplici, che non ambiscano a fare tutto, ma che siano focalizzate ad affrontare una o poche esigenze scientifiche specifiche. Questo da un lato potrebbe ridurre i costi, e dall’altro sicuramente ridurrebbe i rischi, tramite la moltiplicazione delle macchine e degli esperimenti. Qualcuno potrà anche andare male, dopo tutto la scienza è un risky bussiness, ma altri potranno avere successo. Un altro dei problemi della Big Science è che progetti che per definizione sono big, impiegano centinaia, spesso migliaia di ricercatori. La stragrande maggioranza di questi ricercatori non ha la visione globale dei progetti, essendo impegnata nella risoluzione di un problema specifico. Chi dirige i grandi progetti ha certamente una visione globale, ma sicuramente lo fa all’apice di una carriera, e quindi in la con gli anni. I giovani ricercatori che si inseriscono un grande progetto sicuramente non hanno partecipato all’ideazione, non hanno partecipato alla definizione del profilo del progetto, forse parteciperanno allo sfruttamento scientifico, ma difficilmente per le parti che sono core science, e cioè quelle fondamentali, per le quali lo strumento è stato concepito e costruito. Queste saranno con tutta probabilità appannaggio dei ricercatori più senior e dei dirigenti. Il risultato è che migliaia di giovani ricercatori impiegano la maggior parte del loro tempo a fare quello che pochi dirigenti senior ha deciso per loro. Si ritiene che il periodo più creativo per uno scienziato siano gli anni subito successivi al dottorato di ricerca, e comunque tra i trenta e i quaranta anni. Curiosamente, oggi pochissimi scienziati hanno la possibilità di fare lavori veramente creativi durante il loro periodo più creativo. Perché prima sono impegnati a fare una ricerca che gli possa garantire un posto di lavoro stabile, vedi capitolo precedente, e poi perché entrando in un grande progetto la loro ricerca è spesso limitata, nel vero senso della parola, cioè confinata entro recinti stretti, pure se profondi. Giovani ricercatori possono essere espertissimi di un singolo aspetto dei tanti che compongono un Big Project, ma conoscere o capire quasi niente di come il Big Project funziona nel suo complesso, o della core science che produrrà. Comunque la si metta, l’estrema centralizzazione delle risorse insita della Big Science, la specializzazione e la mancanza di indipendenza che è ineliminabile quando si lavora in un Big Project, e la conseguente riduzione della possibilità di dedicarsi a ricerche creative e visionarie quando queste meglio si possono perseguire, risulta alla fine anche in uno spreco di risorse.


Prossima pubblicazione: 16 febbraio 2020. 6. Spazio (4.0): l’ultima frontiera


[1] https://history.nasa.gov/Apollomon/Apollo.html

[2] Safi Bahcall, Idee folli, 2019 ROI Edizioni

[3] To the end of the Solar System, James A. Dewar, Apogee books.

[4] Frank Close, The infinity puzzle, 2013, Basic Books

[5] https://www.nytimes.com/2019/01/23/opinion/particle-physics-large-hadron-collider.html?fbclid=IwAR0TKRQ-hinC3uuKSEK4cv4VbL44V8hiBHNUC7GizzBWQAJLCMpW3927840

[6] https://www.youtube.com/watch?v=v6ihVeEoUdo

[7] www.stsci.edu

[8] https://spacenews.com/scientists-engineers-push-for-servicing-and-assembly-of-future-space-observatories/

[9] https://arstechnica.com/science/2019/11/nasa-does-not-deny-the-over-2-billion-cost-of-a-single-sls-launch/, https://cdn.arstechnica.net/wp-content/uploads/2019/11/shelby-mega-approps-10-23-19.pdf

[10] ad esempio https://arstechnica.com/science/2019/03/an-alabama-representative-just-let-the-cat-out-of-the-bag-with-the-sls-rocket/

[11] https://spacenews.com/the-rocky-landscape-for-astrophysics/ https://spacenews.com/op-ed-in-defense-of-astrophysics/