La scienza inutile

Prologo

Prologo versione integrale

1. Il dibattito classico: L’utilità della scienza inutile

1. Il dibattito classico: L’utilità della scienza inutile versione integrale

2. Il finanziamento della scienza (di base) e i trend storici

2. Il finanziamento della scienza (di base) e i trend storici versione integrale

3. Quanti sono e chi sono i ricercatori?

3. Quanti sono e chi sono i ricercatori? versione integrale

4. La produzione scientifica

4. La produzione scientifica versione integrale

5. Big science

5.Big science versione integrale

6. Spazio (4.0): ultima frontiera

6. Spazio (4.0): ultima frontiera versione integrale

7. Quale scienza è davvero utile?

7. Quale scienza è davvero utile? versione integrale

8. Ricerche che producono avanzamenti sostanziali verso ricerche incrementali

8. Ricerche che producono avanzamenti sostanziali verso ricerche incrementali versione integrale

Intermezzo: back to the future

9. Le forze propulsive per la ricerca

9. Le forze propulsive per la ricerca versione integrale

10. Una nuova forza propulsiva per la ricerca

10. Una nuova forza propulsiva per la ricerca versione integrale

11. Un esempio, il migliore, di scienza competition-driven: il sistema ERC

11. Un esempio, il migliore, di scienza competition-driven: il sistema ERC versione integrale

12. La tempesta perfetta

Per una politica sociale solidale per l’innovazione in FVG

Nonostante il Friuli Venezia Giulia (FVG) sia una regione ad alto tasso di innovazione e con alta vocazione scientifica e tecnologica, solo una piccola minoranza di imprese è ad alta intensità tecnologica o di conoscenza. Circa la metà dei laureati in FVG ogni anno lascia la regione, e la dimensione del precariato è paragonabile alla media italiana, coinvolgendo fino a un quarto della popolazione. I cospicui investimenti regionali per sviluppo economico e competitività non hanno portato finora un incremento deciso delle aziende ad alta intensità tecnologica, incluse le start-up, e quindi ad aumentare l’occupazione nei ruoli tecnici e tecnologici (occupazione di alto profilo), che potrebbe essere soddisfatta dai giovani formati in FVG. E’ necessario un cambio di approccio, che da un lato sfrutti la specificità di FVG nel campo scientifico e tecnologico come volano per favorire il trasferimento tecnologico dall’accademia alle imprese e dall’altro aumenti la sicurezza sociale. Occupazione ad alte competenze tecniche e tecnologiche, è da un lato  quella più resistente ai cambiamenti imposti dalla globalizzazione, e dall’altro permette di partecipare alle nuove sfide della società, in particolare le transizioni digitale ed ecologica. Almeno due interventi possono favorire la creazione di nuovi posti di lavoro in grado di attrarre laureati in FVG o dalle regioni limitrofe: 1) rendere più efficaci le sovvenzioni alle imprese per sviluppo economico aumentando la frazione destinata a ricerca e sviluppo e focalizzando gli interventi su limitate aree strategiche, settori prioritari che possano beneficiare di trasferimento tecnologico dalle realtà di ricerca regionali di punta; 2) favorire la creazione di nuove start-up ad alta intensità tecnologica, quelle che nel mondo stanno raccogliendo la maggior parte degli investimenti privati, dotando la Regione di una Fondazione che includendo le  tre Università e i centri di ricerca presenti sul territorio riesca a individuare i temi strategici prioritari su cui coordinare le attività degli incubatori esistenti, e quindi a concentrare l’azione aumentando l’efficacia. 


Ogni analisi politica deve partire da dati e osservazioni. Due osservazioni, correlate tra loro, sono particolarmente rilevanti per la discussione che segue. La prima è la crescita esponenziale del precariato sia in Italia che in FVG negli ultimi tre decenni. La seconda è l’emigrazione giovanile.

Nel 2024 78.000 giovani hanno lasciato l’Italia e circa 5000 giovani hanno lasciato l’FVG, una frazione maggiore rispetto alla  media italiana. Circa il 40% di questi giovani è laureata, percentuale che cresce fino al  50% –  60% in FVG. Il numero assume una valenza ancora più preoccupante se lo si confronta col numero totale di laureati ogni anno in FVG che è di circa 6500. Ogni anno circa la metà dei laureati lascia la Regione, una emigrazione che rappresenta una doppia sconfitta: la perdita di competenze di alto livello da un lato, e la perdita delle risorse investite nella loro formazione dall’altro. Il dato relativo ad FVG è inaspettato dato che è una regione a forte vocazione scientifica e tecnologica, vedi sotto. Uno dei motivi per i quali i giovani lasciano l’Italia e il FVG è quello di evitare di diventare precari.

Oggi il precariato non riguarda solo chi non ha un contratto a tempo indeterminato, ma tutti coloro che vivono senza sicurezze: del posto di lavoro (i contratti a tempo determinato sono oggi circa il 15% del totale in Italia e tra il 10 e il 12% in FVG, e circa un quarto di questi sono contratti part-time involontari; a questi si deve aggiungere una buona frazione dei lavoratori autonomi, le cosiddette partite IVA, che rappresentano circa il 20% degli occupati in Italia e in FVG), sul posto di lavoro, del ruolo professionale (la sotto-occupazione o over-qualification è una forma insidiosa di precarietà, che riguarda tra il 20 e il 30% degli occupati, con picchi del 50% e oltre tra gli immigrati) e, soprattutto, senza sicurezze civili: abitazione adeguata, tutela sanitaria, possibilità di formare una famiglia. Inoltre, include chi è privo di diritti: civili, culturali (accesso a una buona istruzione), sociali (inclusa la rete di protezione familiare e della comunità), economici o politici (anche l’astensione volontaria dal voto rappresenta la rinuncia a un diritto). Le politiche neo liberiste che si sono affermate a partire dagli anni 80 hanno prodotto un aumento enorme della frazione di precari attraverso l’imposizione indiscriminata della flessibilità negli accordi di lavoro e l’uso simultaneo di altrettanta flessibilità nella gestione delle imprese tramite l’esternalizzazione e la dislocazione di posti di lavoro in paesi dove il costo del lavoro è più basso. Queste politiche hanno scaricato sulle categorie più deboli le crisi e le incertezze del mercato, facendo di conseguenza crescere irrefrenabilmente il rapporto PIL/salario medio, cioè ridistribuendo la ricchezza generata non a tutta la società ma solamente tra le élite, aumentando le disuguaglianze.  Questo ha generato un mutamento epocale della struttura della società, riducendo le classi degli impiegati e dei salariati, aumentando esponenzialmente il numero di precari. 

Quella dei precari però non è una vera classe sociale, perché ai precari manca una identità professionale. Per definizione essere precari significa non potersi identificare in modo stabile con il proprio lavoro. Precari sono lavoratori che hanno perso la loro occupazione stabile, giovani che non la trovano, immigrati, il popolo delle partite iva, cioè lavoratori utilizzati dalle aziende attraverso l’esternalizzazione, e anche chi non vuole un rapporto di lavoro a tempo indeterminato perché riesce a guadagnare di più cambiando frequentemente lavoro. Queste grandi diversità rendono difficile identificare nel “precariato” il riferimento sociale di un partito politico. Però un partito veramente  “democratico” non può non considerare come suo riferimento anche questa parte crescente di società. Non farlo favorirebbe l’emergere di politiche populiste di sinistra, che come le politiche populiste di destra non mirano tanto alla soluzione dei problemi quanto ad ottenere consenso elettorale. È quindi necessario individuare e mettere in campo politiche per rendere sostenibile nel breve termine e poi superare  il precariato, contrastando così l’emigrazione giovanile , e quella dei giovani laureati in particolare. Si possono identificare due macro-aree di intervento:

  1. La redistribuzione della sicurezza. In questa area gli interventi possono includere:
    1. favorire il reperimento di alloggi a basso costo anche per chi non ha impiego stabile. Affitti vengono spesso negati in assenza di garanzie. Andrebbero istituiti o consolidati fondi stabili regionali e comunali di garanzia per l’affitto e per poter accedere a un mutuo prima casa. E’ possibile aumentare la disponibilità di alloggi in affitto a costi ragionevoli tramite tetti e incentivi agli affitti e riqualificazione di aree dismesse, soprattutto nelle città medio grandi come Udine e Trieste. Il tessuto urbano del FVG è caratterizzato da una miriade di piccoli paesi che nel corso degli anni si sono spopolati, lasciando grandi quantità di edifici e case non utilizzate. In questi paesi è possibile creare  alloggi a basso costo. Per poterli utilizzare è però necessario fornire servizi, quali trasporti efficienti (per raggiungere dai paesi i posti di lavoro); asili e accoglienza scolastica, estesa al pomeriggio, per non penalizzare le famiglie in cui lavorano entrambi i genitori. La ricostruzione del tessuto sociale nei piccoli borghi e paesi sarà poi utile a ricostruire la rete di protezione sociale delle famiglie e delle comunità, e anche a ridare vita a posti abbandonati e quindi degradati;
    2. favorire l’accesso alla sanità pubblica di chi non può permettersi quella privata. Attivare o consolidare la rete delle Case della Comunità e gli ambulatori locali, soprattutto nei paesi sprovvisti di ospedali. Incrementare la telemedicina e l’home care per i pazienti fragili e/o lontani dai centri di assistenza. 
  2. L’incentivazione di nuova occupazione, soprattutto nei ruoli tecnici e tecnologici. Il FVG è una regione ad alta vocazione scientifica e tecnologica. Il Regional Innovation Scorebord[1] colloca FVG al terzo posto in Italia per innovazione, dopo la Provincia Autonoma di Trento e L’Emilia Romagna, in calo rispetto al periodo 2018-2020. I punti di forza sono il numero di pubblicazioni scientifiche, incluse le pubblicazioni prodotte congiuntamente da entità pubbliche e private, l’introduzione di processi innovativi nelle PMI. Le aree di debolezza sono invece la poca spesa per ricerca e sviluppo nel settore privato, il tasso di occupazione nelle aziende più innovative, il basso export di prodotti ad alto tasso tecnologico.  L’area di Trieste è la prima in Italia per densità di ricercatori (37 ogni 1000 abitanti, contro la media italiana di 6 per 1000, e quella europea di 15 per 1000). Questa specificità di FVG può e deve essere sfruttata e utilizzata come volano per favorire il trasferimento tecnologico dall’accademia alle imprese che possa favorire nuova occupazione tecnica e tecnologica, quella che è la più resistente ai cambiamenti imposti dalla globalizzazione, con  lo spostamento della produzione industriale di beni a basso contenuto tecnologico in paesi dove il costo del lavoro è più basso. L’acquisizione di competenze qualificate è il requisito fondamentale per poter partecipare alle nuove sfide della società e del mercato globale, in particolare le transizioni digitale ed ecologica, e per programmare una crescita industriale sostenibile. Almeno due interventi possono favorire la creazione di nuovi posti di lavoro in grado di attrarre laureati in FVG o dalle regioni limitrofe:
    1. rendere più efficaci le sovvenzioni alle imprese per ricerca e sviluppo. Nel 2024 FVG ha destinato circa 670 milioni di Euro per programmi di sviluppo economico e competitività di cui circa 378 milioni destinati a PMI e artigianato, circa 44 milioni per ricerca e sviluppo e circa 46 milioni per reti informatiche, telecomunicazioni e servizi. Della quota per programmi di sviluppo per PMI e artigianato circa un terzo è stata destinata a contributi a fondo perduto per nuovi insediamenti produttivi, ampliamenti e riconversioni, e finanziare un fondo regionale che eroga finanziamenti agevolati (FRIE); un terzo è destinata a programmi di sovvenzioni per parchi, consorzi e distretti tecnologici e interventi e interventi in settori specifici (ad esempio legno/arredo); e un terzo per una miriade di piccoli interventi (tra qualche decina di migliaia a pochi milioni di euro). Al confronto, solo circa 7,5 milioni di euro sono destinati al supporto alla ricerca e sviluppo nelle imprese o tramite contributi a fondo perduto o tramite credito d’imposta. Nonostante la forte vocazione scientifica e tecnologica verso l’innovazione di FVG e nonostante l’investimento di fondi cospicui per programmi di sviluppo economico, le imprese manifatturiere ad alta intensità tecnologica in FVG rappresentano solo circa l’1% del totale, e le imprese del settore servizi ad alta intensita’ di conoscenza rappresentano solo il 20% del totale[2]. L’efficacia delle misure per incentivare lo sviluppo economico potrebbe essere aumentata aumentando la frazione destinata a incentivare la ricerca e sviluppo rispetto a sovvenzioni per segmenti a basso contenuto tecnologico, e se le risorse fossero focalizzate su limitate aree strategiche di intervento, settori prioritari che ad esempio possano beneficiare di trasferimento tecnologico dalle realtà di ricerca regionali di punta;
    2. favorire la creazione di nuove start-up ad alta intensità tecnologica. Negli ultimi anni il numero di start-up formate come spin-off da Università e centri di ricerca Europei e  che lavorano su temi ad alto tasso tecnologico (Deep Tech e Life Science) è cresciuto molto, raggiungendo nel 2025 il numero di circa 7300 per un valore complessivo di circa 400 miliardi di Euro, con un tasso di crescita di 500 nuovi spin-off l’anno. Circa 170.000 nuovi posti di lavoro altamente qualificati sono stati generati da questo movimento. Alla stessa maniera gli investimenti di Venture Capital (VC) si stanno rivolgendo principalmente a questo tipo di temi (nel 2025 Deep Tech ha assorbito il 60% degli investimenti di VC negli Stati Uniti e il 45% degli investimenti in Europa). L’Italia purtroppo è posizionata male in Europa per valore creato da spin-off Deep Tech e Life Science (solo 80 nuovi spin-off di questo tipo creati dal 2022 contro i 260 della Francia, i 250 del Regno Unito,  170 della Svizzera e  150 della Germania)[3].  In Italia, e in FVG, il numero di start-up è cresciuto tra il 2019 e il 2022 per poi decrescere. A fine 2024 il numero di start-up innovative in Italia e in FVG era simile a quello del 2019 (poco più di 12000 in Italia e tra 200-250 in FVG). Ovviamente il dato tiene conto dell’apertura di nuove start-up e della perdita dello stato di start-up di aziende che o sono fallite o sono divenute società normali a cinque anni dalla fondazione. La densità di start-up in FVG è di circa 170-200 per milione di abitanti, leggermente inferiore alla media nazionale. Le regioni con la densità maggiore sono Lombardia, Lazio e Provincia Autonoma di Trento, con densità tra 270 e 340, cioè con un numero di start-up per milione di abitanti tra il 50% e il 100% maggiore che in FVG. Per confronto la densità di start-up in Israele, la start-up Nation, è di 700-750 per milione di abitanti.  Esiste quindi in FVG un grande margine per crescere, sfruttando meglio il trasferimento tecnologico da Università ed enti di ricerca, che eccellono in FVG rispetto alla media nazionale ed europea come riportato sopra. In FVG esistono almeno 4 maggiori incubatori di start-up ed acceleratori di impresa (Area Science Park e BIC a Trieste, e i tecnopoli di Udine e Pordenone), oltre ad uffici dedicati nelle università e negli enti di ricerca. Queste realtà sono però poco coordinate, e agiscono su una vastissima gamma di temi. Il risultato è che non si riesce a fare sistema, cosa che da un lato impedisce di raggiungere una massa critica su temi strategici e prioritari per FVG e dall’altro non sfrutta al meglio forte densità di ricerca per aumentare la densità di start-up innovative. 

Una proposta per stimolare la crescita del numero di start-up è quella di dotare la Regione di una Fondazione che riesca a individuare i temi strategici prioritari su cui coordinare le attività degli incubatori esistenti, e quindi a concentrare l’azione aumentando l’efficacia. Temi deep tech come intelligenza artificiale data fusion e data science, applicate non solo all’analisi post facto ma anche alla gestione autonoma di sistemi sulla terra e nello spazio; tecnologie quantistiche, incluso comunicazioni sicure e calcolo quantistico; sviluppo di nuovi materiali; e temi life science come nuovi farmaci e terapie basati su processi chimici o derivati da organismi viventi,  o scoperta di farmaci tramite IA. Questa Fondazione potrebbe includere le tre Università e gli altri centri di ricerca presenti sul territorio ed agire quindi su tre fondamentali canali:

i) formazione, attraverso corsi di dottorato di ricerca dedicati e attraverso corsi di management e di business innovation nei principali curricula nei dipartimenti STEM ;

ii) networking, attraverso la creazione di momenti di incontro tra Università enti di ricerca e imprese;

iii) incubatore di start-up che possano sfruttare al meglio trasferimento tecnologico dalle strutture di ricerca presenti sul territorio.


[1] https://projects.research-and-innovation.ec.europa.eu/en/statistics/performance-indicators/european-innovation-scoreboard/eis#/ris?highlightRegions=ITF1,ITF5,ITF6,ITF3,ITH5,ITH4,ITI4,ITC3,ITC4,ITI3,ITF2,ITC1,ITH1,ITH2,ITF4,ITG2,ITG1,ITI1,ITI2,ITC2,ITH3&year=2025

[2] statistiche Eurostat, OCSE, e documenti di programmazione regionale, Sustenaible Smart Specialization Strategy: https://www.regione.fvg.it/rafvg/export/sites/default/RAFVG/fondi-europei-fvg-internazionale/S3_FVG/allegati/17012023_allegato_1_Delibera_1841-2022.pdf

[3] https://dealroom.co/uploaded/2025/11/Dealroom-European-Spinouts-Report-2025.pdf?x94554

HERMES Pathfinder in orbita!

La costellazione di sei cubesat 3U HERMES Pathfinder è stata finalmente lanciata dalla California a bordo della missione Transporter 13 di SpaceX la mattina di sabato 15 marzo 2025 (ora italiana). I sei cubesat sono a bordo dell’Orbital Transfer Vehicle di D-Orbit ION, che è stato rilasciato dal secondo stadio del lanciatore circa un’ora dopo il lancio. La foto sotto mostra il momento del distacco di ION. 

I sei satelliti verranno rilasciati nello spazio a partire del 24 marzo, uno al giorno. Questa è decisamente la fase che più  fa venire i brividi. Una volta rilasciati i satelliti si devono accendere, aprire l’antenna UHF, aprire i pannelli solari per caricare le batterie, correggere il tumbling se c’è, e cominciare a trasmettere un segnale a terra, che include dati sullo stato di salute dei sistemi di bordo. Nella foto sotto i sei satelliti in differenti stati di integrazione, due con i pannelli solari aperti.

Il cartoon mostra quello che dovrebbe succedere con i satelliti in orbita con i pannelli aperti e le antenne UHF dispiegate. 

Da terra, noi dobbiamo ricevere il segnale e lavorare per stabilire comunicazioni stabili con i satelliti. Il tutto complicato dal fatto che ogni satellite passa sopra una delle due stazioni di terra dedicate ad HERMES-PF (una a Spino D’adda in Lombardia e una a Katherine nei nord dell’Australia) per appena 6 minuti un paio di volte al giorno. 

Sei anni di lavoro condensati in sei minuti. Se va bene ci sarà gloria per tutti e ci sarà da lavorare per i prossimi mesi e anni. Se va male, abbiamo buttato sei anni di lavoro e diversi milioni di Euro. 

Sembra una scommessa. E in effetti HERMES Pathfinder è una scommessa (o come si dice tecnicamente, una “in orbit demonstration”). Anzi, due scommesse.

La prima scommessa è che quella di riuscire a produrre scienza di frontiera con una architettura di missione spaziale completamente differente da quelle standard. Invece di grandi, costosi, monolitici satelliti scientifici, una costellazione di piccoli, agili, poco costosi satellitini. Dove “grandi” satelliti significa ordine di grandezza della tonnellata e costo da qualche centinaio di milioni di Euro al miliardo di Euro. “Piccoli” significa grandezza che va da quella di una scatola di bottiglia di champagne (come nel caso dei 3U di HERMES Pathfinder), a quella di una cassa di vino, con costi della/e decina/e di milioni di Euro.  

La seconda scommessa è quella di riuscire a costruire una missione affidabile senza ricorrere a costosi “prime contractor” industriali. Gli strumenti di HERMES Pathfinder sono stati ideati, disegnati, costruiti e testati nei laboratori di INAF e di Fondazione Bruno Kessler, una prima volta per INAF. I satelliti sono stati integrati nei laboratori di Politecnico di Milano. Agli strumenti, ai satelliti, al segmento di terra, al software di bordo e di analisi dati hanno lavorato scienziati, ingegneri, tecnici e studenti di istituti scientifici  e Università.

Anche per questo motivo, per quanto i satelliti siano piccoli, HERMES Pathfinder è un progetto grande e complesso. Ci hanno creduto, lavorato senza orari e senza feste comandate, litigato, pianto, gioito, dormito sempre poco, un centinaio e più di amici e amiche in 24 tra istituti, università e piccole e medie imprese sparse in Italia e nel mondo. Un abbraccio a tutte/i voi di:

  • INAF (Roma, Bologna, Milano, Palermo, Trieste)
  • Politecnico di Milano
  • Fondazione Bruno Kessler
  • Università di Udine
  • INFN (Trieste)
  • Università di Pavia
  • Università di Cagliari
  • Università di Palermo
  • ASI (SSDC)
  • Eberhard Karls Universität Tübingen
  • IHEP-CAS
  • Altec
  • D-Orbit
  • University of Melbourne
  • University of Tasmania
  • Fondazione Politecnico di Milano
  • Skylabs
  • Masaryk University
  • Eötvös loránd University
  • University of Nova Goriza
  • Konkoly Observatory
  • C3S
  • AAlta-lab
  • DEIMOS

E’ un piacere ringraziare i finanziatori, senza i quali questo progetto (o questa scommessa, o questa visione) sarebbe stato impossibile. L’Agenzia Spaziale Italiana, il Ministero dell’Università e della Ricerca, la Commissione Europea.

Ed ora, prepariamoci allo “scary moment” della prossima settimana! Se sopravviviamo appuntamento al prossimo post.

Space science & space economy

Sarà possibile in futuro realizzare grandi e complesse missioni spaziali dedicate alla scienza di base come HST, Chandra e JWST? O il loro costo sarà troppo elevato? Lo scenario spaziale di oggi è completamente diverso da quello di cinque anni fa, e certamente da quello di quando HST, Chandra e JWST sono stati concepiti e costruiti. Gli investimenti nel settore spaziale sono cresciuti in modo esponenziale negli ultimi anni, con investimenti monetari che supereranno il mezzo trilione di dollari nel 2023. Questo boom è in gran parte dovuto all’ascesa della cosiddetta “new space” economy, guidata da finanziamenti commerciali privati, che per la prima volta lo scorso anno hanno superato gli investimenti pubblici nello spazio. L’introduzione di una logica di mercato nelle attività spaziali si traduce in una maggiore concorrenza e in una conseguente drastica riduzione dei costi e dei tempi. Può la scienza spaziale sfruttare i vantaggi della nuova space economy per ridurre i costi e i tempi di sviluppo e allo stesso tempo riuscire a produrre potenti missioni di scienza di base? Questo obiettivo sarebbe raggiungibile se la comunità scientifica riuscisse a sfruttare i tre pilastri alla base dell’innovazione della new space economy: (1) l’innovazione tecnologica, che procede sia attraverso l’innovazione incrementale sia attraverso l’innovazione disruptive, (2) l’innovazione commerciale, attraverso l’integrazione verticale, la produzione su scala e il modello di business orientato ai servizi, e (3) l’innovazione culturale, attraverso l’apertura al rischio e lo sviluppo iterativo.

Tutti questi argomenti sono decisamente controversi e forse proprio per questo a me e al mio amico Martin Elvis e’ venuta voglia di rifletterci sopra, documentarci e cercare delle proposte. Ne e’ venuto fuori un articolo che potete trovare su http://arxiv.org/abs/2502.20922. Qui di seguito un piccolo sunto.

Negli ultimi 10 anni, nello stesso intervallo di tempo in cui è stato lanciato JWST e sono state concepite nuove ambiziose missioni scientifiche spaziali come l’Habitable World Observatory e la missione Mars Sample Return, è emersa prepotentemente la cosiddetta “new space economy”, guidata da finanziamenti privati. L’introduzione di una logica di mercato nelle attività spaziali ha portato a una drastica riduzione dei costi e dei tempi.

La new space economy è stata stimolata dai partenariati pubblico-privati negli anni 2000, grazie alle iniziative della NASA, che ha sperimentato radicali cambiamenti di rotta, come l’acquisto di servizi da aziende private con contratti a prezzo fisso, invece di sviluppare programmi guidati dalla NASA stessa e appaltati all’industria per l’esecuzione con contratti cost-plus (ad esempio i programmi Commercial Orbital Transportation Services, COTS, e Commercial Lunar Payload Services, CLIPS).

Negli ultimi anni, lo stesso approccio è stato seguito dal Dipartimento della Difesa degli Stati Uniti. Ad esempio, il National Reconnaissance Office sta sfruttando la catena di assemblaggio Starlink di SpaceX per costruire una rete di satelliti spia in tempi brevissimi e a prezzi contenuti, lo Starshield (https://arstechnica.com/space/2024/04/spacex-working-with-northrop-grumman-on-spy-satellites-for-us-government/). Aziende private come K2 Space sfruttano l’integrazione verticale e la produzione su scala per offrire satelliti per carichi utili di 3 metri per 3 metri a meno di 15 milioni di dollari per satellite, con tempi di consegna di pochi mesi (https://techcrunch.com/2024/12/19/k2-space-will-fly-its-extra-large-satellite-for-the-first-time-in-2026/). Gli scienziati potrebbero sfruttare questo cambiamento di paradigma per realizzare missioni ambiziose a un costo 10 volte o più inferiore a quello delle attuali grandi missioni della NASA e dell’ESA. Lavorare su due questioni principali può favorire questo cambiamento di paradigma:

(1) ampliare la base di finanziamento. Fino ad ora la stragrande maggioranza delle missioni scientifiche e’ stata pagata con fondi governativi attraverso grandi agenzie spaziali come NASA ed ESA.

La figura che segue mostra l’evoluzione dei bilanci della NASA e dell’ESA dal 2000. Il budget della NASA per la scienza, che comprende l’esplorazione del sistema solare, l’esplorazione di Marte, l’astrofisica e l’osservazione della Terra, è variato tra il 25 e il 35% del totale tra il 2000 e il 2025. Il budget dell’ESA per la scienza è diminuito da circa il 15% del totale nel 2006-2008 all’8,5% nel 2020-2025. Questo non include l’osservazione della Terra, che nel sistema ESA comprende sia la scienza che l’applicazione (il programma Copernicus). La figura mostra anche i bilanci scientifici della NASA e dell’ESA in valori assoluti, corretti in base all’inflazione al 2023. Si possono notare i picchi nel bilancio della NASA intorno al 2003-2006 e al 2018-2022. Il secondo è dovuto principalmente alla spesa per JWST. Il primo è dovuto alla spesa per diverse missioni, tra cui Messenger, MRO, New Horizon, Dawn, Stereo e Fermi, testimoniando un periodo di grande diversificazione nelle missioni scientifiche della NASA. Il budget scientifico dell’ESA è rimasto notevolmente costante intorno a un valore di 600-700 milioni di dollari (2023) all’anno per circa 25 anni (il budget del 2003 è stato aumentato di circa 100 milioni di euro per tener conto dello stop dell’Ariane 5, che ha posticipato il lancio di Rosetta). Il budget dell’ESA per l’osservazione della Terra è aumentato costantemente dal 2008 al 2025, passando da 500 milioni di dollari (2023) a 2700 milioni di dollari (2023), grazie all’investimento della Commissione europea nel programma Copernicus.

Il costo delle missioni scientifiche tradizionali e’ guidato da diversi fattori che includono:

  • Spingere i requisiti scientifici all’estremo
  • Minimizzare volume e peso a causa del costo del lancio
  • Uso di componenti e sistemi qualificati per lo spazio
  • Failure is not an option, cioe’ rischiare il meno possibile a causa dei costi alti, introducendo grande numero di controlli di qualita’ che aumentano di nuovo i costi
  • Un quasi monopolio delle grandi aziende che lavorano per lo spazio

L’elevato costo delle missioni spaziali standard dovrebbe essere bilanciato da un elevato ritorno scientifico. Non è facile fornire una misura quantitativa e imparziale del ritorno scientifico di una missione. Una metrica standard per la produttività scientifica è il numero di articoli pubblicati basati sui dati prodotti da una determinata missione, mentre una metrica standard per valutare l’impatto è il numero di citazioni ricevute da questi articoli. Queste metriche hanno il vantaggio di essere relativamente facili da ottenere, ma presentano importanti limitazioni. Le figure che seguono mostrano la produttivita’ e l’impatto di diverse missioni spaziali recenti in funzione della loro massa e del loro costo. La produttività è parametrata come il numero di pubblicazioni per anno dall’inizio dell’operazione (YSO) per M$ di costo totale (bus, payload, lancio), mentre l’impatto è parameterizzato come il Research Impact Quotient (Riq, vedi A. Pepe, M. J. Kurtz, 2012, PLoS ONE 7, 11) diviso per la radice quadrata del costo totale in M$.

Le missioni ottengono punteggi simili nelle due metriche. In base a queste misure, le missioni scientifiche medio-piccole, soprattutto le missioni Explorer della NASA, tendono ad avere una produttività e un impatto migliori per M\$ rispetto alle grandi missioni ammiraglie. Il maggior numero di pubblicazioni e citazioni delle missioni faro non compensa completamente il loro costo molto più elevato. Tra le missioni con costi superiori a circa 1 M$, Gaia si distingue sia per la produttività che per l’impatto, come menzionato anche nella sezione 1. I cubesat possono raggiungere sia il massimo che il minimo della produttività e dell’impatto. Possono avere un successo incredibile ma anche un completo fallimento, e rappresentano bene il concetto di alto rischio/alto guadagno alla base dell’approccio della nuova economia spaziale, enfatizzando il valore di una linea di produzione. Naturalmente, le semplici metriche non possono raccontare l’intera storia. Le missioni grandi e ambiziose hanno maggiori probabilità di produrre risultati trasformativi rispetto alle missioni piccole e limitate. In tutti i casi, il messaggio e’ che sarebbe forse utile applicare l’approccio high-risk/high-gain usato per i cubesat, ma anche per le missioni Explorer NASA a missioni piu’ grandi.

Oltre ai fondi governativi, gli scienziati possono finanziare i loro progetti attraverso fondazioni filantropiche, oppure attraverso partenariati pubblico-privati e investitori privati. La conoscenza è una risorsa spaziale fondamentale, ed è proprio quella che i ricercatori di scienze di base sono in grado di sfruttare al meglio. Position, Navigation, Timing (PNT), il più grande business della space economy di oggi e di domani, che muove centinaia di miliardi di dollari, sono notoriamente impossibili senza le correzioni della relatività generale. Paradossalmente, Albert Einsten (l’inventore della relatività generale più di 100 anni fa) e i suoi eredi non hanno guadagnato un solo dollaro da questa invenzione. Più rilevante per il nuovo spazio è la storia di Riccardo Giacconi, premio Nobel 2002 per la scoperta delle sorgenti cosmiche di raggi X e del fondo cosmico a raggi X. Quando Giacconi si unì a Bruno Rossi al MIT nel 1959 come giovane ricercatore, fu assunto dall’American Science and Engineering (AS&E), una società fondata l’anno prima da Martin Annis e di cui Bruno Rossi era presidente del consiglio di amministrazione. AS&E lavorava su contratti della NASA, ma era anche molto attiva sul mercato. Svilupparono il primo body scanner, poi adottato negli aeroporti di tutto il mondo. Il denaro guadagnato sul mercato permise ad AS&E di permettere a Rossi e Giacconi di sviluppare le strategie e la e strumentazione che hanno portato alla creazione dell’astronomia a raggi X e a una serie di missioni leader a livello mondiale: Uhuru, Einstein Observatory e Chandra. Questo è uno dei tanti scenari possibili che potrebbero collegare scienza e impresa. Oggi la nuova economia spaziale offre probabilmente più opportunità che ai tempi di Rossi e Giacconi. Due grandi aree sembrano oggi particolarmente promettenti e meritano di essere menzionate: le tecnologie quantistiche e la ricerca di risorse sulla Luna, su Marte e sugli asteroidi.

(2) la capacità degli scienziati di tenere il passo con le innovazioni della new space economy. L’innovazione tecnologica procede attraverso fasi alterne di sviluppo incrementale e disruptive. Le imprese innovano attraverso l’integrazione verticale e la produzione su scala, ma anche attraverso un modello di business orientato ai servizi e una cultura dell’innovazione che si manifesta come apertura al rischio e sviluppo iterativo. Giacconi ci viene ancora una volta in aiuto per spiegare questi concetti. Subito dopo la scoperta del fondo cosmico di raggi X, apparentemente uniforme, nel 1962 Giacconi capì che per rilevare le sorgenti responsabili di questo fondo cosmico era necessaria una qualità di immagine dell’ordine di un arcsecondo nei raggi X, diverse migliaia di volte migliore di quella allora disponibile. A quei tempi era difficile, se non impossibile, convincere la NASA a intraprendere direttamente un progetto per sviluppare e lanciare un osservatorio a raggi X con capacità di un arcsecondo. Giacconi immagino’ invece un programma iterativo, volto a consolidare il campo e ad arrivare al telescopio con capacita’ dell’arcsecondo (Chandra) attraverso delle fasi: Uhuru prima, per fornire la prima indagine all-sky di sorgenti luminose di raggi X all’inizio degli anni ’70, Einstein Observatory, per dimostrare nello spazio le capacità delle ottiche a raggi X, e infine l’Advanced X-ray Astrophysics Facility, AXAF, ribattezzato Chandra dopo il lancio nel 1999. La new space economy offre l’opportunità di eseguire programmi di approccio iterativo di questo tipo su tempi molto più brevi e a costi molto inferiori.

INAF: budget, progetti, risultati scientifici

Il bilancio totale dell’INAF, e più in generale dell’astrofisica in Italia associata ad INAF, negli ultimi 10 anni è circa raddoppiato, mentre il Fondo di Funzionamento Ordinario (FFO) INAF è aumentato di circa il 40%.

Nella figura contribuiscono al bilancio totale, l’FFO INAF, altri fondi INAF che includono fondi dal MUR, da ASI, ESA e dalla Commissione Europea, il finanziamento di ESO da parte del MAECI e i fondi per i progetti SKA e CTA ottenuti attraverso l’Astronomia Industriale prima e il DM 450/2019 dopo. Il finanziamento ESA tramite MAECI dal 2021 include anche il finanziamento per ELT. A partire da quest’anno e fino al 2026 ci sarà una ulteriore grande iniezione di fondi grazie al PNRR, più di 170 MEUR in totale grazie al finanziamento dei progetti STILES, HPC, CTA+, Croce, EMM, Space-it-up e altri (fonti: decreti di assegnamento fondi del MUR, Piani Triennali INAF, Report Annuali ESO, DM450/2019). 

La tabella e l’istogramma che seguono mostrano la distribuzione dei “fondi etichettati”, destinati al supporto di programmi e progetti nel quinquennio 2019-2023, in MEUR, come compaiono nei Piani Triennali INAF. I fondi SRT includono anche il PON 2018-2022 PIR01_00010.

ESO – ELT153.9
SKA e precursori55
SRT39.7
CTA, Astri31.5
Ricerca di base29.4
LBT15.2
TNG14.1

E’ naturale chiedersi quale sia il ritorno scientifico per la comunità INAF e italiana in generale da questi investimenti. 

I punti di debolezza e di forza di INAF e associati (INAF semplicemente nel seguito) circa i lavori di punta sono discussi in:

Nel seguito analizzo tutta la produzione scientifica di INAF negli ultimi 5 e 10 anni, senza ordinarla per impatto. 

La tabella che segue mostra il numero di lavori referati e il numero di citazioni in ADS con il nome dell’osservatorio o strumento presente nell’abstract.  La tabella include sia il numero totale di lavori e citazioni per osservatorio/strumento negli ultimi 10 e 5 anni, sia il numero relativo di lavori che includono la partecipazione di almeno un ricercatore INAF. L’ultima colonna della tabella fornisce il numero di autori unici INAF presenti nei lavori degli ultimi 5 anni per ciascun osservatorio/strumento.

Il dato di JWST si deve considerare parziale, dato che i primi lavori scientifici risalgono alla seconda parte del 2022 e quindi includono solo 3 anni invece dei 5 coperti dagli altri osservatori/strumenti.

Osservatorio o strumentoPapers 10 YearCitations 10 yearsPapers 10 year  INAFCitations 10 year INAFPapers 5 yearCitations 5 yearPapers 5 year INAFCitations 5 year  INAFINAF 5 year Authors
ESO-VLT439712014112364214823803767769914289302
SPHERE4781365117266932794307972051
MUSE992243582808235662115592164788
X-shooter4671492816656512324088871693
GRAVITY239706018467186429816451
ESPRESSO30889158518412413791811798
LBT4159516139332721027236888282
ALMA38431193186772926322254158546012256151
VLA20894671737410141985135202143868123
LOFAR9142156529586955597506209380673
Meerkat429511712619503393800120167038
SRT68107643878403902834933
Medicina25244211801467136713
MAGIC456100721354622240269864113417
Cherenkov13242403116849127126800100164972
Gaia60551700778385543544828584657521430232
Planck6999305129560895803410995692612814793
XMM294859807853198591417157314225081180
Rosetta90923050187818933337235592010
MEX531775529600227152410839
Chandra304468798673200011407148173325157182
LIGO/Virgo3120197230235569551982779771402467731
JWST    21544475340110652128

I Piani Triennali INAF distinguono tra fondi etichettati dedicati alle infrastrutture esistenti per il loro funzionamento e fondi per le nuove infrastrutture (ELT, SKA, CTA) o per il potenziamento di quelle presenti (SRT). Le figure che seguono mostrano i fondi etichettati dal 2019 al 2023 inclusi per osservatori esistenti (cerchi vuoti) o futuri (frecce, l’origine delle quali è posta sui precursori) verso il numero di articoli (nero, scala asse alla base del grafico) e citazioni (magenta, scala asse in cima al grafico) prodotti da ricercatori INAF negli ultimi 5 anni. Per VLT e ALMA ho calcolato la frazione  del costo totale stimato per l’operazione di queste infrastrutture (~100MEUR/anno per ALMA, di cui circa il 37.5% a carico di ESO, ~30MEUR/anno per VLT) relativa al finanziamento italiano per ESO  (tra il 10 e 11% del budget totale). Per gli osservatori/strumenti senza fondi etichettati nei PTA ho usato un valore tra 1 e 2.7MEUR per motivi grafici. In questa categoria rientrano anche i telescopi spaziali, sia quelli ESA (Planck, MEX, Rosetta, Gaia, XMM), che NASA (Chandra, JWST). L’Italia certamente investe nelle missioni scientifiche di ESA (circa 400MEUR/anno) e quindi in linea di principio è possibile ricavare il costo di operazione delle missioni ESA pagato dall’Italia. Aggiornerò i grafici non appena riuscirò a finalizzare questo calcolo.

Se si guarda al numero di citazioni di lavori che includono almeno un autore INAF spiccano su tutti Gaia, Planck e LIGO/Virgo. Gaia sta diventando l’osservatorio più produttivo del mondo, con una produttività e un impatto che può rivaleggiare solamente con quello di JWST. Si può notare come a fronte di un costo per l’Italia dello stesso ordine di grandezza il numero la lavori con autori INAF relativi a VLT e ALMA siano circa 10 e 60 volte maggiori di quelli di LBT e SRT rispettivamente. Lo strumento VLT con il maggiore numero di lavori e citazioni con partecipazione INAF è MUSE, anche se INAF non partecipa al consorzio che lo ha realizzato. INAF partecipa ai consorzi di Sphere, ESPRESSO e X-shooter, che mostrano tutti un discreto ritorno in termini di lavori e citazioni. Buono è il ritorno dai telescopi spaziali XMM e Chandra, testimone della grandezza e bontà della comunità di riferimento. 

Alle ottime prestazioni di VLT, ALMA e Gaia in termini di produttività e di impatto corrisponde la grandezza della comunità che utilizza questi osservatori, più di 300 autori unici per VLT, 230 per Gaia e 150 per ALMA. Gli unici altri osservatori che hanno una comunità di  riferimento di simili dimensioni sono gli osservatori X Chandra e XMM (circa 180 autori unici negli ultimi 5 anni), e VLA (120 autori unici). LIGO/Virgo che sono stati negli ultimi cinque anni tra gli osservatori con il maggiore impatto (maggiore numero di citazioni, ma anche maggiore numero di lavori di punta), hanno coinvolto una comunità piccola, di circa 30 ricercatori INAF.

Le figura che segue mostra il numero di autori verso il numero di lavori e di citazioni. La dimensione dei simboli è proporzionale al costo di operazione e di sviluppo di nuove infrastrutture negli ultimi 5 anni (ho considerato Meerkat e LOFAR come precursori di SKA, e Cherenkov come precursore di CTA). Osservatori/strumenti virtuosi sono caratterizzati da una produttività alta a fronte del loro costo, come certamente è il caso di VLT e ALMA. 

Piccole comunità possono produrre buoni risultati, non c’è solamente il caso estremo di LIGO/Virgo, ma anche quello di Rosetta e MAGIC. 

Il messaggio  più importante che la figura suggerisce è che i nuovi grandi progetti che assorbiscono e assorbiranno la maggior parte dei fondi attualmente etichettati (SKA, CTA) dovranno aumentare le comunità di riferimento e quindi i lavori prodotti e le citazioni di almeno 3-5 volte per diventare competitivi con VLT->ELT, in termini di ritorno scientifico dai fondi investiti.  Un buon esempio per illustrare il concetto e’ quello di ALMA. Certamente l’interferometria mm e submm non facevano parte del dna della comunità INAF quando ALMA venne concepito e realizzato tra la fine degli anni 90’ e la prima decade degli anni 2000. Esisteva certamente una piccola e produttiva comunità, che utilizzava le facilities di IRAM. Le dimensioni di questa comunità sono circa quadruplicate negli ultimi 10 anni, grazie al fatto che da un lato ALMA si è dimostrato uno strumento fondamentale per le comunità INAF galattica ed extragalattica, e dall’altro che l’accesso e l’utilizzo all’infrastruttura è stato agevolato dall’ESO, con il quale la comunità INAF ha lunga e positiva conoscenza e tradizione di utilizzo.  

L’altra grande infrastruttura in fase di studio in Europa e in Italia è Einstein Telescope. La comunità coinvolta in lavori che usano o commentano i dati di LIGO/Virgo è ancora piccola, circa 30 autori unici negli ultimi 5 anni, e certamente sarà necessario allargarla di un ordine di grandezza, di nuovo per fare in modo che rapporto tra produttività e fondi investiti sia confrontabile con quello di VLT->ELT. In questo caso esiste una tradizione forte in INAF almeno per quanto riguarda i transienti che sono le controparti elettromagnetiche delle sorgenti gravitazionali, la loro ricerca e la loro caratterizzazione. INAF sembra quindi ben preparato e posizionato per lo sfruttamento della nuova astrofisica multimessaggera. 

Quali sono gli argomenti astrofisici di punta degli ultimi cinque anni?

Questa pagina presenta una analisi degli articoli referati con il maggiore numero di citazioni nel database di ADS. Ho selezionato due campioni:

  1. 483 articoli pubblicati tra il luglio 2018 e il luglio 2023 con più di 192 citazioni (top 0.3% di tutto il campione originale di più di 164.000 articoli. Il numero medio di citazioni per il campione originale è di 12.0 per articolo.
  2. 340 articoli pubblicati tra il luglio 2022 e il luglio 2023 con più di 31 citazioni (top 1% di tutto il campione originale di circa 34.000 articoli). Il numero medio di citazioni per il campione originale è di 3.1 per articolo.

A luglio 2022 sono stati distribuiti i primi dati JWST e sono apparsi molto rapidamente i primi articoli che hanno riportato l’analisi di questi dati, l’analisi del secondo campione quindi è utile per valutare l’impatto di JWST e i casi scientifici che JWST potrà spingere nel prossimo futuro.

Per ognuno dei papers nei due campioni ho utilizzato: 

  • la nazionalità dell’istituto che ospita il primo autore dell’articolo
  • il principale osservatorio o survey utilizzata (individuato dal titolo, dal consorzio o dall’abstract)
  • il caso scientifico o tecnologico (individuato dal titolo o dall’abstract)
  • il numero di citazioni

Le figure e le tabelle che seguono mostrano per i due campioni la distribuzione del numero di articoli verso lo strumento, l’osservatorio o la survey, e includono anche dati su articoli teorici e simulazioni.

Per il campione 1. 2018/07-2023/07 i picchi più alti tra strumenti e osservatori, quelli con più di 30 articoli, sono relativi a Gaia e Ligo/Virgo. Seguono Dark Matter observations, Apache Point (SDSS, BOSS, MANGA, APOGEE), Planck, EHT (più di 10 articoli per progetto). 

Tra gli articoli teorici i temi con maggior numero di articoli sono relativi a simulazioni (soprattutto cosmologiche), teoria della gravità, oggetti compatti (BH, NH, primordial BH), cosmologia (includendo H0). 

La distribuzione del numero di articoli verso osservatori/surveys per il secondo campione, 2022/07-2023/07 testimonia l’impatto clamoroso di JWST sulla produzione scientifica di eccellenza. Addirittura il 20% degli articoli con il top 1% delle citazioni sono relativi a dati JWST. Resistono soprattutto Gaia, e a seguire, Ligo/Virgo, Apache Point. Compaiono i primi numerosi articoli su DESI/Kitt Peak. Circa gli articoli teorici, rimangono numerosi gli articoli su simulazioni e teorici su gravita’, oggetti compatti e cosmologia.

Le figure e le tabelle che seguono mostrano la distribuzione degli articoli verso il caso scientifico per i due campioni. 

Per il campione 1. 2018/07-2023/07 i casi scientifici rappresentati nel maggior numero di lavori eccellenti sono relati ai dati prodotti da Gaia, stelle e la Milky Way, onde gravitazionali e cosmologia osservativa (più di 40 articoli per ciascuno dei tre temi scientifici). Seguono exoplanets, DM observations, Fast Radio Bursts, M87+SgrA* e multimessenger astrophysics (piu’ di 14 articoli per ciascun tema).

Il dato riferito al campione 2. 2022/07-2023/07 riflette l’impatto molto significativo di JWST già nei primi mesi di attività. Il tema scientifico che raccoglie più articoli eccellenti è quello dell’Universo ad alto redshift, le prime galassie, i primi buchi neri, con più di 50 lavori, corrispondenti a più del 15% del campione. Rimane molto significativo il picco relativo alla cosmologia osservativa. Seguono stelle e la Milky way osservate con Gaia, onde gravitazionali, galassie sempre osservate con JWST ed exoplanets (una buona frazione dei quali osservati con JWST).

Le figure e le tabelle che seguono mostrano la percentuale di articoli per nazione. Il dato USA è fuori dalla scala delle figure per poter meglio apprezzare i dati delle altre nazioni. 

Per il campione 1. 2018/07-2023/07 piu’ del 36% di articoli hanno come primo autore ricercatori che lavorano in istituti statunitensi. Segue il Regno Unito, la Germania, l’Olanda, l’Australia, la Francia, la Spagna e l’Italia.

Il numero di top papers con primo autore di una Università o istituto di ricerca italiano è circa un quarto di quelli con primo autore di istituti britannici e 1/3 di quelli con primo autore di istituti tedeschi, e più piccolo di circa il 30% e del 60% del numero di top papers con primo autore francese e olandese, ed è minore anche di quello relativo ai colleghi spagnoli. Il numero di top papers con primo autore INAF è di solo 5 su 483, il 37% del totale Italiano. Ricercatori italiani sono ovviamente coinvolti nei progetti Planck e Gaia, ma questo è vero anche per i ricercatori francesi, tedeschi, spagnoli, olandesi o britannici. 

Una misura della dimensione o della produttività di una comunità è data dalla frazione di articoli con almeno un autore di quella comunità. La percentuale degli articoli con almeno un autore della nazione è data nella quarta colonna della tabella. Si nota come la comunità astronomica italiana ha una produttività/dimensione simile a quella francese, circa il 63% delle comunità britanniche e tedesche e circa doppio e il 33% maggiore di quelle olandesi e spagnole. 

L’ultima colonna della tabella mostra la % di articoli eccellenti rispetto al totale degli articoli con almeno un autore della nazione. Questa % per gli USA è dello 0.3%. Per l’Italia questa frazione è circa 2.5 e 3 volte inferiore a Regno Unito e Olanda. Per INAF la percentuale è ancora peggiore. A parità di dimensione/produttività di comunità, i ricercatori italiani quindi hanno avuto meno capacità di guidare articoli eccellenti rispetto ai colleghi europei.

Gli articoli con primo autore INAF sono i seguenti:

  • SN evolution and explosive nuclosinthesis, Limongi et al. 2018
  • Multimessenger, Radio Jet of GW/GRB170817, Ghirlanda et al. 2019
  • INTEGRAL observation of SGR1935+2154, Mereghetti et al. 2020
  • Radar evidence of subglacial liquid water on Mars, Orosei et al. 2018
  • Chepheids and RR-Lyrae with Gaia, Clementini et al, 2018

Altri articoli con primo autore di Università o enti di ricerca italiani includono: Photonics, gravity cosmography, progenitors of compact object binaries, cosmological constraints from Hubble diagram of quasars, fundamental physics with LISA, Advanced Virgo, science with eAstrogam, merging BH in stellar clusters.

Per il campione 2. 2022/07-2023/07 di nuovo più del 30% degli articoli ha un primo autore statunitense. Seguono Regno Unito, Germania, Italia, Giappone. Francia, Cina, Svizzera. Il dato complessivo Italiano è di quasi il 6%, con 20 articoli nei top 340, un risultato molto migliore che nel campione 1. riferito all’ultimo quinquennio. Infatti, ben sei papers con primo autore italiano sono su dati JWST, tre dei sei articoli con primo autore INAF. Gli altri 3 articoli con primo autore INAF riguardano dati Gaia. In dettaglio:

  • Early results from JWST GLASS, Castellano et al. 2022
  • Gaia-ESO, Randich et al. 2022
  • Gaia spectroscopic data, Montegriffo et al. 2023
  • Early results from JWST GLASS, Santini et al. 2023
  • Early results from JWST GLASS, Merlin et al. 2022
  • Gaia RR-Lyrae, Clementini et al. 2023

Altri articoli con primo autore di Università o enti di ricerca italiani includono: Emerging cosmological probes, abundance of super-early luminous galaxies revealed by JWST, long GRB from merger compact objects, simulation of high-z galaxies, GBW with Lisa, ALMA Rebels z~7 galaxies, inflaction & primordial BHs,  JWST obscured high-z galaxies, DM beyond 100 TeV, JWST lensing clusters, IXPE simulations, Ligo/Virgo multimessenger, non-gaussianity & primordial BHs, gamma-rays from compact binary mergers.

Nel campione 2. relativo all’ultimo anno la produttività/dimensione della comunità Italiana è di nuovo di circa il 10%, un dato simile a quello per il campione 1. la % di articoli eccellenti rispetto al totale degli articoli con almeno un autore italiano è però ora dello 0.61 %, migliore di quella di Germania, Francia, Olanda e Spagna, ed in Europa seconda solo al Regno Unito. Il dato INAF è però di nuovo circa la metà di quello italiano, confermando la difficoltà dei ricercatori INAF a guidare articoli eccellenti.

Conclusioni

La tabella che segue elenca i temi scientifici che hanno raccolto il maggior numero di articoli nel top 0.3% e nel top 1% di tutti gli articoli referati pubblicati nell’ultimo quinquennio. Ho considerato l’unione dei due campioni discussi in precedenza, per tenere adeguatamente conto dell’impatto di JWST (che ha cominciato a produrre dati solo nell’ultimo anno). 

Le cinque linee di ricerca di astrofisica osservativa che hanno dominato l’ultimo quinquennio è probabile che saranno egualmente importanti o addirittura incrementeranno l’importanza anche nel prossimo futuro, grazie allo sfruttamento scientifico di JWST che è appena cominciato, e all’avvento di Euclid per la cosmologia osservativa e dei nuovi interferometri gravitazionali di seconda generazione (Kagra, Ligo-India) e terza generazione (Einstein Telescope, Cosmic Explorer) e all’incremento e sfruttamento dei dati di Gaia. 

Da notare come il 20-25% degli articoli più citati siano teorici. 

La comunità italiana ha dimostrato difficoltà a guidare articoli nel top 0.3% dell’ultimo quinquennio. Nell’ultimo anno il trend potrebbe aver mostrato una inversione, ma ovviamente è necessario aspettare conferma. INAF rispetto alla comunità italiana nel suo complesso rappresenta tra il 50 e il 60% come dimensione/produzione, ma la frazione di articoli top è tra il 30 e il 37% di tutti quelli con primo autore in una istituzione italiana. 

Se si analizza solamente il campione 2. relativo all’ultimo anno è molto chiaro quali siano le aree scientifiche di maggior impatto per INAF: Milky way vista da Gaia e Universo ad alto redshift. Se si analizza tutto l’ultimo quinquennio a questi si aggiungono oggetti compatti, multimessenger, teoria delle esplosioni di SN,  la scoperta dell’acqua su Marte. Su 11 articoli uno solo è teorico, ben nove utilizzano prevalentemente dati spaziali. Questo è un dato che forse non sorprende, ma che non può non far pensare. Infatti INAF non ha mai investito direttamente in missioni spaziali e nell’analisi dei relativi dati, supportando queste attività per lo più con gli stipendi dei ricercatori coinvolti. Il supporto alle missione spaziali è venuto per la stragrande maggioranza dalle agenzie spaziali italiana e europea, ed è risultato, di conseguenza, anche in una etero-direzione delle politiche scientifiche di INAF (positiva, in questo caso, se si guarda ai risultati prodotti da molte missioni spaziali a forte contributo italiano e/o europeo, Gaia prima tra tutte). Il limite di questo schema è però nel troppo basso numero di pubblicazioni top a guida INAF, sia in relazione al resto delle Università e istituti italiani, sia a maggior ragione nel contesto internazionale.  E’ sicuramente più difficile avere l’autorità per richiedere la guida di articoli scientifici di grande impatto quando non si investe direttamente in quel dato progetto.  Questa preoccupazione è tanto più grande oggi, quando ci si aspettano risultati di altissimo livello da Euclid, su cui l’Italia ha investito tantissimo sia in termini di fondi sia in termini di personale coinvolto.  Per invertire la tendenza ed aumentare il numero di articoli top a guida INAF che utilizzano dati spaziali sembra necessario cambiare la politica INAF verso i progetti spaziali, e investire direttamente per migliorare lo sfruttamento di questi dati, a cominciare da Gaia e JWST.

Dalla tabella emergono almeno quattro aree di debolezza per INAF:

  1. Cosmologia osservativa. Lo sfruttamento dei dati di Euclid potrebbe certamente aiutare a colmare questa lacuna, vedi paragrafo precedente sul supporto alle missioni spaziali.
  2. GW/Multimessenger. Sebbene INAF abbia una grande tradizione nel campo dei transienti cosmici, il coinvolgimento nelle infrastrutture GW è piccolo, e corrispondentemente piccolo è l’impatto negli articoli top. Einstein Telescope rappresenta una enorme opportunità per entrare in questo mercato molto promettente da protagonisti.
  3. Exoplanets. Italia e anche INAF hanno investito e stanno investendo non poco in questo settore (vedi i contributi italiani a Cheops e Ariel per lo spazio, a Sphere/VLT e HARPS-N/TNG per gli osservatori terrestri). Il ritorno in termini di articoli top non è ancora arrivato, e sarà difficile possa arrivare nel prossimo futuro perché’ il settore sarà probabilmente dominato da JWST (almeno per quello che riguarda lo studio delle atmosfere), sul quale la comunità italiana ha accesso non garantito e non banale. Valorizzare al massimo lo sfruttamento dei dati che verranno prodotti da Ariel potrebbe aiutare a colmare questa lacuna, vedi paragrafo precedente sul supporto alle missioni spaziali.
  4. Astrofisica teorica. Storicamente INAF ha sempre investito pochissimo in questo settore, e non è quindi sorprendente che la produzione di eccellenza sia limitata. Andrebbe riconosciuta una piena dignità all’astrofisica teorica, e finanziata in maniera adeguata direttamente, senza dover ricorrere a contatti più o meno fittizi con progetti tecnologici.

L’eta’ dell’oro dell’INAF

Gli ultimi tre-quattro anni possono sicuramente essere considerati come l’età dell’oro dell’Istituto Nazionale di AstroFisica, almeno dal punto di vista dei finanziamenti. Il grafico che segue mostra l’evoluzione nel tempo del Bilancio dell’INAF, sia per quello che riguarda il Fondo di Funzionamento Ordinario (FFO) che altre entrate, che includono entrate finalizzate dal MUR stesso, dalla Commissione Europea, l’Agenzia Spaziale Italiana, L’Agenzia spaziale Europea, regioni e altri ministeri (fonte Piani Triennali di Attività http://www.inaf.it/it/amministrazione-trasparente/disposizioni-generali/atti-generali/documenti-di-programmazione-strategico-gestionale-1/piano-triennale/piano-triennale). Il dato 2022 è solo una stima. La quota di 104 MEuro per FFO è contenuta nel DM 571 del 21-6-2022 https://www.mur.gov.it/it/atti-e-normativa/decreto-ministeriale-n-571-del-21-6-2022).  Le altre entrate sono difficili da quantificare oggi, ma sicuramente includeranno fondi MUR destinati ad attività specifiche per un ammontare probabilmente superiore a quello 2021 (circa 46MEuro), includendo anche i finanziamenti di almeno una prima parte di fondi PNRR, per il Centro Nazionale HPC, oltre che finanziamenti ASI ed EC che negli ultimi anni hanno variato tra 15 e 20 MEuro l’anno.

L’FFO è aumentato a partire dal 2017 da circa 80MEuro l’anno fino a circa 100 MEuro, anche per finanziare l’assunzione di circa 200 nuovi ricercatori e tecnologi. Altri fondi sono aumentati in maniera anche più cospicua, anche scontando il periodo 2020-2021 dove l’emergenza Covid19 ha certamente avuto un impatto soprattutto sulle attività sperimentali e tecnologiche. La situazione economica dell’INAF degli ultimi anni, nonostante l’emergenza Covid19 e la recente emergenza internazionale, è quindi molto positiva. Prova ne è il recente bando per ricerca fondamentale 2022 che ha messo a disposizione dei ricercatori circa 7.5MEuro, una cifra mai destinata prima a queste necessità, superiore di un fattore 3-10 alla media annuale degli ultimi 10 anni. 

Una situazione sicuramente molto differente da quella dell’autunno 2007, quando l’allora CdA approvo un bilancio con zero finanziamenti per la ricerca fondamentale, evento che provoco le dimissioni del Consiglio Scientifico prima e dei Direttori di Struttura poi, portando al commissariamento dell’ente. O ancora peggio del 2011 quando l’FFO venne diminuito di circa il 10%, o, senza considerare gli stipendi, del 30% da un anno all’altro. Nel periodo 2011-2016 venne inoltre imposto un blocco del turnover, prima totale, poi parziale al 25%, che portò a una drastica riduzione del personale dell’INAF,  corretta per i ruoli di ricercatore e tecnologo con le stabilizzazioni del 2017 e anni seguenti, ma ancora non corretta per i ruoli tecnici e amministrativi. 

La situazione economica non potrà che migliorare nei prossimi tre anni, grazie ai fondi PNRR che INAF è stata capace di raccogliere: più di 200MEuro da spendere in 30 mesi.

CN-HPC15 MEuro
CTA+71 MEuro
STILES70 MEuro
NG-Croce19 MEuro
EMM30 MEuro
PE-Spazio6-7 MEuro, ancora in negoziazione
KM3~1 MEuro
ET?

Sinteticamente: INAF non è mai stato così ricco, e mai i ricercatori hanno avuto simili risorse a disposizione. La domanda a questo punto è ovvia: per fare cosa? Cioè, e’ utile, forse necessario capire quale sarà l’impatto di questa grande iniezione di risorse sull’istituto e soprattutto sui ricercatori. Prima di cercare risposte a queste domande, è necessario capire da dove si parte. Cioè quale è il livello di competitività scientifica di INAF oggi e come è cambiato nel tempo.

Il primo strumento per una valutazione della competitività di INAF è il recente documento “Valutazione della Qualità della Ricerca 2015-2019  (VQR 2015-2019)  Rapporto finale ANVUR Statistiche e risultati di compendio 21 luglio 2022″

Il VQR 2015-2019 è stato differente dai precedenti, soprattutto perché la maggior parte dei prodotti presentati è stata valutata non in maniera automatica ma in maniera puntuale da parte dei valutatori.  A seguito del giudizio di qualità, adogni pubblicazione e caso di studio è stato attribuito a  una delle seguenti categorie:

  • A Eccellente ed estremamente rilevante (ECR) PUNTEGGIO 1
  • B Eccellente (EC) PUNTEGGIO 0.8
  • C Standard (ST) PUNTEGGIO 0.5
  • D Rilevanza sufficiente (SUF) PUNTEGGIO 0.2
  • E Scarsa rilevanza o Non accettabile (SR) PUNTEGGIO 

Il VQR 2015-2019 utilizza i seguenti estimatori:

  • PUNTEGGIO COMPLESSIVO: Somma dei punteggi ottenuti dai prodotti nell’insieme di riferimento (es. Area scientifica). 
  • PUNTEGGIO MEDIO: misura della qualità media dei prodotti all’interno di ogni Istituzione nell’insieme di riferimento. 
  • INDICATORE QUALITATIVO ( R ): misura la qualità dei prodotti dell’Istituzione rispetto alla qualità media di tutte le Istituzioni, tenendo conto del peso delle diverse aree scientifiche nella specifica Istituzione. 
  • INDICATORE QUALI-QUANTITATIVO (IRAS): che misura la qualità dei prodotti valutati tenendo conto anche della dimensione (numero totale di prodotti) dell’Istituzione cioe’ moltiplicando R per H=peso nazionale dell’Istituzione i, come il rapporto tra il numero di prodotti attesi dell’Istituzione i (𝑁𝑖) e i prodotti attesi totali (𝑁).Gli indicatori più utili per un confronto tra istituzioni da un punto di vista dell’efficienza sono quindi il punteggio medio e l’indicatore qualitativo R, mentre dal punto di dell’impatto generale e della massa critica ovviamente gli indicatori più utili sono il punteggio complessivo e l’indicatore quali-quantitativo IRAS.

Le valutazioni sono fatte su prodotti presentati da due profili:

  • a) personale che ha mantenuto lo stesso  ruolo nel periodo 2015-2019: IRAS1 e R1
    b) personale che è stato assunto o ha  conseguito avanzamenti di carriera nel periodo 2015-19: IRAS2 e R2 
  • a)+b): IRAS1_2 e R1_2 

Le due tabelle che seguono riportano tutti questi indicatori per i cinque enti di ricerca più grandi. Le tabelle sono ordinate usando gli indicatori R1_2 e voto medio profilo A. E’ abbastanza evidente come l’INAF occupi le posizioni intermedie o di coda usando tutti gli estimatori, sia per quello che riguarda l’efficienza della produzione scientifica dei ricercatori (R e voto medio) che la massa critica e l’impatto globale dell’ente. E’ forse da notare che l’INAF nelle due tabelle segue l’ASI, quando molti dei prodotti presentati da ASI sono stati forniti da personale INAF coinvolto in progetti spaziali. 

EPRH1R1IRAS1H2R2IRAS2H1_2R1_2IRAS1_2
INFN12,361,0913,4220,691,0521,8015,121,0716,24
ASI1,011,081,091,741,031,781,251,051,32
INGV5,301,005,288,200,998,086,260,996,21
CNR67,730,9966,7449,310,9848,3061,640,9860,56
INAF7,900,987,7312,400,9912,239,390,989,24
EPRVoto medio Profilo AVoto medio Profilo BIba = media B / media A
INFN0,850,861,02
ASI0.830.790.95
INAF0,760,811,06
INGV0,70,690,99
CNR0,670,681,01

E’ interessante analizzare i dati che hanno portato al calcolo degli estimatori presentati nelle tabelle precedenti. Nella tabella che segue sono riportate le percentuali di prodotti delle 5 categorie, ordinati rispetto alla percentuale nella categoria A. Si può notare come questo ordine è esattamente inverso a quello della categoria C (INFN e ASI hanno la maggiore percentuale di prodotti valutati A, e la minore percentuale di prodotti valutati C, al contrario CNR e INGV). ASI ed INFN hanno presentato circa il 45% di prodotti valutati nella categoria A contro un 11-13 % in categoria C, mentre l’INAF ha circa un terzo di prodotti in categoria A e un quinto in categoria C.

EPR# prodotti conferitiA %B %C %D %E %
INFN3.31446,7740,9811,410,7240,121
ASI27444,8936,1313,145,110,730
INAF2.05933,6541,3821,902,670,388
CNR12.33525,9842,5325,505,0510,47
INGV1.37221,6539,0729,238,601,46

La conclusione è che INAF rispetto ad INFN è sbilanciato verso prodotti standard rispetto a quelli estremamente rilevanti.

VQR 2015-2019 fornisce pure gli indicatori R e IRAS per i dipartimenti e le strutture che compongono gli enti. La tabella che segue riporta gli indicatori R e IRAS per le 16 strutture INAF, ordinata usando l’estimatore R1_2.

Struttur # prodotti attesi # prodotti attesi ric. in mobilità H1 R1 IRD1 H2 R2 IRD2 H1_2 R1_2 IRD1_2 
OAR164 101 0,43 1,08 0,46 1,39 1,06 1,48 0,75 1,08 0,81 
OATs134 66 0,46 1,06 0,49 0,91 1,04 0,94 0,61 1,05 0,64 
OAAb42 18 0,16 1,01 0,17 0,25 0,25 0,19 1,01 0,19 
OASBo228 93 0,92 0,98 0,91 1,28 1,03 1,32 1,04 1,04 
OAPd175 81 0,64 1,04 0,67 1,12 0,96 1,07 0,8 0,8 
OAA160 49 0,76 0,99 0,75 0,68 0,68 0,73 0,99 0,72 
OACn120 28 0,63 1,03 0,65 0,39 0,91 0,35 0,55 0,99 0,54 
IASF-MI 83 39 0,3 0,9 0,27 0,54 1,07 0,57 0,38 0,98 0,37 
OATo134 28 0,72 0,98 0,71 0,39 1,02 0,39 0,61 0,98 0,6 
OACa91 48 0,29 0,92 0,27 0,66 0,66 0,42 0,97 0,4 
IAPS 256 155 0,69 0,97 0,67 2,14 0,96 2,04 1,17 0,97 1,14 
IRA 116 46 0,48 0,94 0,45 0,63 0,99 0,63 0,53 0,96 0,51 
OAPa65 29 0,25 0,93 0,23 0,4 0,94 0,38 0,3 0,94 0,28 
OABr121 65 0,38 0,94 0,36 0,9 0,93 0,84 0,55 0,94 0,52 
OACt117 42 0,51 0,9 0,46 0,58 0,9 0,52 0,53 0,9 0,48 
IASF-PA 53 12 0,28 0,78 0,22 0,17 0,7 0,12 0,24 0,75 0,18 

Un confronto con la precedente VQR 2011-2014 (https://www.anvur.it/rapporto-2016/) non è semplice, anche per il cambio di impostazione nella valutazione dei prodotti (semi-automatico verso puntuale). La tabella che segue riporta tre estimatori, il voto medio, il voto medio normalizzato rispetto al voto medio degli enti di ricerca R e l’estimatore IRAS, assieme alla frazione di prodotti in sei categorie da A a F. 

EPRVoto medio norm (R)Somma punteggi (v)# Prodotti attesi (n)Voto medio (I=v/n)% A% B% C% D% E% FIRAS1 x 100
INFN1,11248627930,8976,7613,756,232,400,210,6444,75
INAF0,94108514440,7552,0125,9711,635,891,113,3919,52
CNR0,91154021240,7246,0529,5213,516,260,713,9527,72
ASI0,8172,31120,6544,6420,5412,505,360,8916,071,30

INAF occupava una posizione intermedia tra INFN e CNR usando gli indicatori R e I, mentre seguiva anche il CNR nell’indicatore IRAS. Se confrontiamo gli indicatori con gli analoghi del VQR 2015-2019 si può notare come INAF è stato scavalcato da ASI nel voto medio, e anche da CNR nel voto medio normalizzato R. 

Un’altra fonte di dati utili a valutare l’impatto di un istituto scientifico è  Nature Index  (https://www.nature.com/nature-index/), che considera articoli su 82 riviste selezionate. Solo articoli di impatto vengono considerati, come ad esempio le “letters”, oltre che articoli su Nature e Science o altre riviste di grande impatto.   Nature Index usa due indicatori per misurare l’impatto di una istituzione: Counts e Share. Ad ogni istituto viene assegnato 1 Count per ogni articolo che ha tra gli autori almeno un ricercatore di quell’istituto. Share pesa per il numero di autori di ogni istituto nell’authorship di ogni articolo. Ad esempio per un articolo con 10 autori ogni autore riceve uno share di 0.1. Lo share dell’istituto è la somma degli share degli autori che sono affiliati a quell’istituto.

La figura che segue mostra l’andamento dello share dal 2013 al 2021 (nel 2015 Nature Index ha cambiato sistema di misura, ma in quest’anno è stato possibile trovare i dati sia con il vecchio che con il nuovo sistema. Ho quindi normalizzato i dati del 2013 e del 2014 riportandoli alla nuovo sistema di misurazione nel grafico che segue).

Si nota come lo Share di INFN è cresciuto abbastanza regolarmente nel tempo da circa 100 a circa 170, mentre lo Share di INAF è decresciuto da poco meno di 40 fino a poco più di 20. Le oscillazioni nella curva INAF negli anni 2020 e 2021 è possibile dipendano dall’emergenza Covid19. Per una verifica è necessario attendere i dati 2022. Quelli parziali (metà anno), indicano uno Share di 21,78, confermando il cattivo risultato del 2021.

Un terzo metro potenziale per stimare la qualità della comunità astrofisica italiana e di INAF è quello del numero di vincitori di ERC. In questo campo sia l’INAF che la comunità astrofisica italiana in generale hanno sempre performato molto male, ma è evidente che esistono motivazioni più generali e di sistema. Per dati e una discussione si può vedere: https://www.lascienzainutile.it/2021/04/18/11-un-esempio-il-migliore-di-scienza-competition-driven-il-sistema-erc/ . Dall’inizio dell’istituzione del’ERC solo 26 borse nella categoria PE9 sono state portate in Italia su un totale di 404, di cui solo 7 hanno coinvolto ricercatori INAF, 3 dei quali sono migrati in Università dopo aver vinto la borsa. Per confronto, 97 borse sono state portate in UK, 67 in Francia e 57 in Germania.

In conclusione, le due fonti utilizzate per stimare la competitività scientifica di INAF e come questa è cambiata nel tempo (VQR 2015-2019 e Nature Index) suggeriscono che questa è diminuita nel tempo, e che oggi l’INAF è in una posizione medio-bassa in Italia tra i grandi enti di ricerca sia per quello che riguarda la quantità che la qualità della produzione scientifica. La speranza è quindi che il grande afflusso di fondi di questi anni possa rovesciare il trend e rilanciare in quantità e qualità la produzione scientifica di INAF.

Frattali, non frattaglie

Oggi non riesco a dormire. Il sole c’e’, l’ombrellone e l’ombra pure. Addirittura un venticello piacevole invece che l’afa opprimente. Ma niente. Probabilmente il problema e’ il contorno, l’ambiente. Oggi siamo a Bibione, nona fila di ombrelloni, vicino alle docce e ai bagni. Fino a pochi giorni fa Porto Ulisse, quattro famiglie in tutta la spiaggia, mare trasparente tropicale. E’ la prova provata una volta di piu’ di come l’ambiente condizioni gli individui. 

I vicini di ombrellone stanno raccontandosi vicende. Di come la perfida Albione li abbia derubati di un figlio prima e di un nipote dopoi, dato che il figlio e la compagna hanno appena scoperto di essere in dolce attesa, Il figlio era andato oltremanica per imparare l’inglese, poi dato che aveva studiato economia ed era pure bravo gli avevano offerto un lavoro, poco pagato per i loro standard, ma moltissimo per i nostri. E il figlio era rimasto li, dove magari piove (o pioveva) sempre, le citta’ fanno schifo, il cibo neanche a parlarne, ma uno stipendio decente alla fine del mese arriva. Da qui alla generalizzazione: ma quanto costa far studiare un ragazzo? 100-200-300 mila euro? e quando il ragazzo se ne va? tutti questi soldi spesi da stato e famiglie? buttati alle ortiche o appunto rubati. Discussione pure di un certo livello, ma alza il volume del rumore di fondo, non mi fa sentire il mare, e manco la doccia qui accanto. Il che dimostra, come se ce ne fosse bisogno, che l’ambiente viene condizionato dagli individui. 

In termini pomposamente tecnici questa situazione si puo’ descrivere nella seguente maniera: Interazioni al livello “micro”, cioe’ un livello basso, generano un pattern al livello “macro”, un livello piu’ alto, che reagisce all’indietro sulle sotto unita’ del livello “micro”. In biologia evoluzionistica si direbbe: organismi che creano il loro ambiente che influisce sullo sviluppo futuro degli stessi organismi. Siamo nel magico mondo dei sistemi dinamici complessi. In questo mondo un comportamento dinamico ricco e’ generato dalle interazioni tra un grande numero di sotto-unita’. E queste interazioni generano proprieta’ che non possono essere ricondotte al comportamento delle sotto-unita’. O, come ha detto il premio Nobel Phillip Anderson: “more is different”. L’emergenza di queste proprieta’ da livelli bassi e numerosi verso livelli piu’ alti e meno numerosi genera la cosi’ detta invarianza di scala. cioe’ il fatto che non sia possibile determinare la dimensione di un sistema guardandone semplicemente una parte. Un buon esempio e’ il broccolo romanesco. Se ci fate caso, ogni rosetta ha la forma del singolo broccolo, ogni cima ha la forma della rosetta e quindi del broccolo, e cosi’ via. Il broccolo romanesco ha una struttura frattale. Se prendiamo un broccolo, il numero di rosette e’ molto maggiore di uno (un broccolo) e il numero di cime molto maggiore del numero di rosette, e cosi’ via. Cioe’ il numero di strutture piccole e’ sempre molto maggiore di quello delle strutture piu’ grandi. Con piu’ precisione formale, il numero di strutture piccole e’ legato a quello delle strutture piu’ grandi da una legge di potenza del tipo Y=1/X. Non ci sono solamente i broccoli romaneschi che si possono descrivere con leggi di potenza. Queste leggi emergono naturalmente nei sistemi dinamici complessi. Questi sistemi sono formati da tante sotto-unita’ piccole e poche grandi. connesse dalle relazioni di scala descritte sopra. Una incredibile varieta’ di sistemi si comporta in questa maniera, dalle faglie che danno luogo ai terremoti ai neuroni nel mio cervello che sono al lavoro per generare queste parole, ai materiali magnetici, agli insediamenti umani, poche grandi citta’, molte piccole citta’, infiniti villaggi, e cosi’ via. 

E allora, perche’ mai stupirsi del fatto che storicamente la sinistra, o comunque il fronte dei progressisti, e’ composto da una miriade di gruppuscoli, poche aggregazioni medio grandi, una sola organizzazione molto grande? E perche’ stupirsi che ci sia dialettica tra le sotto unita’? che questa dialettica (interazioni) generi un pattern nel livello piu’ alto e piu’ grande, che poi reagisce all’indietro sulle sotto-unita’? Il fronte progressista ha evidentemente una struttura frattale, non e’ una insieme di frattaglie. E il motivo e’ in fondo semplice. Progredire, innovare, e’ complicato, significa rimettersi continuamente in discussione, non dare niente per scontato per inventarsi il futuro. Significa riconoscere l’importanza e la ricchezza della differenza di opinioni. Signifier mettere le forze a fattor comune per far crescere e progredire tutto il sistema, non solo la propria sotto-unita’. Dall’altro lato, conservare e’ piu’ facile, se non altro perche’ si conosce gia’ quello che si vuole conservare (una visione del mondo, soldi, potere, privilegi, poltrone), non c’e’ bisogno di inventarselo.

La frammentazione del fronte progressista e’ vista di solito come uno dei suoi mali incurabili, invece non e’ altro che l’evidenza della complessita’ dinamica di questo sistema. Il problema di questi sistemi e’ proprio che sono dinamici. Cambiano in continuazione, il che rende evidentemente complicato trovare una sintesi duratura. Se la si trova al tempo t0, questa scompare naturalmente al tempo t1.  Possiamo chiamarlo “effetto Turigliatto”. Il problema non e’ eliminare l’effetto Turigliatto, cosa che e’ formalmente e sostanzialmente impossibile, ma compensarlo. Il sistema deve trovare la maniera di convergere verso una auto-organizzazione che ne garantisca sopravvivenza ed evoluzione, fottendo l’effetto Turigliatto. Qui di nuovo viene in aiuto la teoria dei sistemi dinamici complessi, dove si parla di Auto Organizzazione, e Criticità’ auto-organizzata.  In questi sistemi si sviluppano correlazioni a grandi scale grazie all’auto-organizzazione di correlazioni su scale piu’ piccole (feedback). Il feedback e le correlazioni sono l’antidoto alla distruzione del sistema, all’effetto Turigliatto. C’e’ un ulteriore problema pero’. Quello dei tempi scala. Il sistema puo’ convergere verso una criticita’ auto organizzata velocemente o molto lentamente. E se il sistema non e’ isolato ma interagisce con altri sistemi, potrebbe non raggiungere mai l’agognata meta, perche’ nel frattempo le condizioni al contorno sono cambiate. Siccome conservare e’ piu’ facile, i tempi scala con cui i conservatori trovano una sintesi o un compromesso sono in generale molto minori dei tempi scala con cui il sistema complesso progressista puo’ raggiungere l’auto organizzazione. L’unica maniera di accelerare l’operazione e’ far entrare nel gioco un catalizzatore, un evento o una persona, in grado di sintonizzare e accordare velocemente il sistema. Nei sistemi termodinamici ad esempio, qualcuno che regoli la temperatura finemente, così che il sistema riesca a stare sempre vicino ad una transizione di fase. Riusciremo a trovare in tempo questo catalizzatore? 

Il solito formicolio al piede sinistro. Stendo una gamba. Oddio, stavo dormendo? E quindi prima sognavo? Anzi, ero in un sogno dentro un sogno. Accidenti… sarebbe divertente vedere cosa penserebbe Christofer Nolan della situazione onirica del nostro scassato reame..

Sogni

di un pomeriggio di mezza estate

Sento un formicolio al piede sinistro. Che sale verso il polpaccio. Cerco di riattivare la circolazione muovendo le dita impiastrate di sabbia. Non succede niente. Capisco che e’ solo il sole che che sta scottando le gambe, l’ombra si e’ mossa mentre dormicchiavo placidamente, cullato dallo sciabordio delle onde sul bagnasciuga. Di notte dormo poco, invece sulla spiaggia di giorno mi riesce bene, misteri della fisiologia umana. Dormo e sogno.

Faccio un sogno stranissimo. Sogno che un Conte nella sua armatura luccicante sfida il drago che lo tiene prigioniero, ma dopo tutto gli garantisce il desinare tutti i santi giorni, colazione pranzo e cena. Ma il Conte lo fa senza armi vere, solo abbaiando,  giusto per far contenti gli scudieri che lo aizzavano ad azzannare la preda. Non  capisce che dietro di lui c’e una legione di orchi, troll e badanti che non aspettano altro per sguainare lo spadone e trafiggere il drago. Soppiantarlo e provare a creare un Nuovo Ordine. E la Regina Cersette a capo delle orde prima che il drago esali l’ultimo respiro gli chiede consiglio. Il drago, ormai con il sangue che gli ingorga la bocca, biascica: Regina, tu sei potente, ma guardati dai tuoi! Ti tradiranno! ti dico, non buttare a mare tutta la fatica che ho fatto per tenere assieme questo scalcinato reame.. tieniti stretto qualcuno dei miei ciambellani, i tecnici, gli scienziati, che tanto non fanno mai male a nessuno.. il gran ciambellano per la Transizione Ecologica… e poi spira. Mamma mia che cazzate che riesce a generare la mente quando si dorme. 

Poi faccio un sogno ancora piu’ strano.  Sogno che che la Regina in Carrozza si innamora. La principessa e’ sposata da un secolo al Principe regnante Ricerca Applicata, e in questo secolo avevano avuto tante soddisfazioni, tanti bambini assieme agli immancabili problemi che ogni relazione di questo tipo comporta. Il principe che si annoia e fa spesso e volentieri battute fuori luogo, o che peggio cerca conforto sotto altre lenzuola. E questo e’ niente. Che dire dei fratelli perversi o dei figli smidollati, le principesse tristi, i nipoti irriconoscenti. Insomma tutto quello che normalmente succede in ogni famiglia. Ma alla fine si poteva sicuramente dire che le soddisfazioni superavano abbondantemente le delusioni. Irrinunciabile tenere sulle spine e accettare le dimissioni della spocchiosa prima ministra che si credeva lei la Regina! 

E quindi perche’. Perche’ alla sua veneranda eta’ invaghirsi di nuovo. E per di piu’ di uno spiantato, uno di quei Bohemien rimasti nel secolo scorso: Ricerca Fondamentale! Solo il nome suona cosi’ vecchio, cosi’ fuori tempo. Ricerca Fondamentale e’ un tipo che predilige i tempi lunghi o lunghissimi, e’ come il Carrubo, quando pianti un seme poi te ne devi dimenticare, ci possono mettere venti anni prima che germogli. Il frutto del Carrubo poi. Matura in un anno intero, una eternità in confronto alla ciliegia o la pesca. Sulle piante trovi i frutti dell’anno passato maturi assieme a quelli dell’anno in corso ancora acerbi, allappanti. E cosa ci vuole mai fare la Regina in Carrozza coll’umile Carrubo ai tempi di tiktok? Si fosse innamorata di Kabhane Lame si capirebbe. Ma e’ cosi’, nei sogni succedono cose che nella nella realta’ sono sostanzialmente impossibili. E’ come se la funzione d’onda di un qualche processo nella realta’ segua correttamente le probabilita’ e collassi solo nell’evento piu’ probabile, mentre nel sogno le probabilita’ sono tutte uguali e la funzione d’onda collassa a raglio, o, usando una citazione piu’ colta, come se si premesse in maniera spasmodica il pulsantone rosso del motore a improbabilita’ infinta. E in una di queste pigiate la Principessa in Carrozza si innamora del Carrubo Ricerca Fondamentale. E chi diavolo fa ricerca fondamentale nel nostro piccolo e bistrattato regno? C’e’ il Marchese del Piglio Tutto Io: io so’ io e voi non siete un cazzo! e c’e’ il Conte Mascetti-Tafazzi In Su per il Monte, l’astronomo reale. Il primo e’ e sempre resterà uno scapolo d’oro. Il secondo soggetto e’ peculiare anche nel disastrato reame, dove la peculiarità e’ la regola. Di giorno il Conte in Su per il Monte declama massime incomprensibili pure per per se stesso, fa progetti faranoici quanto improbabili (pure nel contesto del sogno, dove appunto il motore e’ quello ad improbabilita’ infinita), di notte si duole perche’ continuamente distrugge quello che di buono pur improbabilmente di giorno e’ riuscito a fare. E’ chiaro che la Regina e’ attratta da questo straordinario essere fuori tempo che e’ il Conte in Su per il Monte. E’ il fascino del perdente nato dopo tutto, niente di nuovo sotto il sole e manco nei sogni. 

La Regina e’ risoluta, vuole il Carrubo in Su per il Monte con tutte le sue, residue, forze. Scrive lettere, apparecchia tavolate imbandite con ogni ben di Dio. Ma soprattutto promette doti favolose. E il Principe Regnante? Rimane li dove e’, la Regina dopo tutto puo’ istituire nello scassato regio la poligamia. Lo aveva fatto pure il re Mormone dopo tutto nel regno d’Oltre Mare. 

Questo matrimonio sa’ da fare! Ma quando? questo e’ il problema. L’uscita scriteriata del Conte nell’armatura luccicante ha provocato il draghicidio, e con questo la possibilita’ di un Nuovo Ordine. La Regina e’ preoccupata, non sara’ mai che nel Nuovo Ordine salta tutto? I denari, non e’ che tutti quei denari promessi per la Ricerca Applicata e pure per la Ricerca Fondamentale evaporano come neve al sole? Ci siamo gia’ passati dopo tutto… riforme dei finanziamenti della Ricerca gettate alle ortiche per trovare 300 milioni per gli AutoFerroTrasportatori… era un altro sogno di un altro Agosto di tanti anni fa.. E quindi… non e’ che sara’ meglio anticipare i tempi? ma come… il rituale prevede un corteggiamento di almeno 12 mesi, e il tempo necessario a che il ciambellano …

Aio!!!!! un bruciore intenso sempre dal piede sinistro. Ma non e’ il sole questa volta, il bruciore e’ piu’ localizzato e intenso. Una vespa dispettosa ha pensato bene si inserire il suo spadone, ops pungioglione nel drago che ha visto nel tallone del mio piede. Mi alzo di scatto e il sogno evapora come neve al sole. Meno male, era troppo strano. E quando i sogni sono troppo strani mi rimane una acidita’ nello stomaco. Non so perche’. Butto via la vesta,  mi massaggio il polpaccio e lo immergo nell’acqua salata. Torno sotto l’ombrellone e apro Dagospia: Meloni preoccupata chiama Draghi: https://www.dagospia.com/rubrica-3/politica/nemici-mi-guardo-io-miei-alleati-mi-guardi-dio-giorgia-meloni-318900.htm

12. La tempesta perfetta

Esiste una crisi del modello occidentale per la ricerca di base?

Il modello occidentale per la ricerca di base è il risultato di un lungo processo evolutivo cominciato nel 1600 con l’introduzione del metodo scientifico da parte di Galileo, e con la costruzione delle Università in Europa, dove insegnamento e ricerca si fondono nello stesso luogo fisico e sono portate avanti dagli stessi scienziati. Concetto ripreso e portato oltre oceano alla fine del diciannovesimo secolo da Abraham Flexner, che rifondò seguendo questo schema le medical schools americane. Flexner andò oltre, codificando la struttura e la finalità di un istituto di ricerca di base, e mettendo in pratica queste idee fondando l’Institute of Advanced Studies di Princeton. Sulla scia di Flexner, Vannevar Bush a cavallo della seconda guerra mondiale getta le fondamenta di quella che è la moderna struttura di ricerca di base statunitense, tra le altre cose contribuendo a creare la National Science Foundation, con la missione di promuovere il progresso della scienza utilizzando capitali pubblici. Il modello occidentale per la ricerca di base ha ottenuto strabilianti successi, e certamente il mondo non sarebbe oggi quello che è senza l’affermazione di questo modello (Capitolo 1).

Che ovviamente nel tempo si è modificato, adattandosi ai momenti storici. Una delle domande che ci siamo posti nel prologo è come si è modificato il modello, e se l’odierna variante è davvero la più adatta ed efficiente a promuovere un progresso paragonabile a quello esponenziale a cui siamo stati abituati fin ora. In altre parole, stiamo osservando la fine del progresso esponenziale, e quindi indizi di una crisi del modello occidentale per la ricerca di base?

Nei capitoli precedenti abbiamo incontrato più di un indizio di questo tipo. Abbiamo constatato che il sistema della ricerca oggi in Italia e nel mondo occidentale soffre probabilmente del problema di una creatività limitata. Più fenomeni, spesso correlati tra loro in maniera complicata, concorrono a generare quella che si può definire una tempesta perfetta. 

Primo. A partire dagli anni ‘90 si assiste ad una decrescita dell’intensità di spesa pubblica in ricerca e sviluppo in tutto il mondo occidentale (Capitolo 2). In UK la decrescita comincia addirittura un decennio prima. Allo stesso tempo, il numero di ricercatori è continuato a crescere, come anche la frazione di fondi destinati a grandi progetti. Di conseguenza, in media, i fondi a disposizione di ogni ricercatore sono diminuiti sostanzialmente in tutta Europa dagli anni 80-90 ad oggi (sono rimasti quasi costanti negli Stati Uniti, Capitolo 3). La quantità di fondi destinati a grandi progetti è però cresciuta ovunque, e quindi i fondi a disposizione della ricerca indipendente per ricercatore sono diminuiti e molto in tutto il mondo occidentale. Questo ha sviluppato un effetto di selezione naturale tra i ricercatori. 

Secondo. Il trend descritto al punto precedente ha prodotto uno sbilanciamento rilevante verso un modello di scienza competitiva (Capitolo 10). Una delle conseguenze è che per trovare un posto di lavoro, per fare carriera, per ottenere fondi di ricerca è necessario pubblicare il più possibile, e per fare questo naturalmente si tendono ad affrontare problemi facili e meno rischiosi. E soprattutto si tende a lavorare in settori alla moda, che possano garantire molte pubblicazioni e citazioni, e che garantiscano di essere almeno riconosciuti dalle commissioni d’esame o da quelle di selezione dei fondi. Questo ha limitato e limita fortemente la ricerca indipendente, la spinta a seguire sentieri tortuosi e meno battuti.

Terzo. Il sistema di reclutamento nel mondo occidentale è sbilanciato verso posizioni a termine, pagate o da grandi progetti o da grants ottenuti da ricercatori più senior (Capitolo 3). Solo uno ogni 7-30 studenti di dottorato di ricerca avrà accesso ad una Università o a un ente di ricerca pubblico, e con uno stipendio non competitivo con il privato. Il risultato è che i migliori studenti non sceglieranno le Università o gli enti pubblici di ricerca per la loro carriera. Quelli che rimarranno nel sistema non riusciranno a trovare un impiego fisso prima dei quaranta anni. Giovani scienziati oggi lavorano su contratti a tempo determinato per lo più su idee che non sono le loro, ma dei loro datori di lavoro. Hanno poche opportunità per sviluppare linee di ricerca indipendenti. Gli anni che sono ritenuti i più fruttiferi dal punto di vista della creatività sono invece destinati a trovare una occupazione fissa e a lavorare per il beneficio dei loro datori di lavoro, che potranno poi fregiarsi di tassi di pubblicazione alti, fare ulteriore carriera, trovare ulteriori fondi per assumere nuovi post-doc.

Quarto. Il sistema della Big Science naturalmente implica centralizzazione delle risorse, specializzazione e limitata indipendenza (Capitolo 5). Migliaia di ricercatori, giovani e vecchi, lavorano su concetti e idee sviluppati da una minuscola frazione di ricercatori senior. La cosa peggiore è però che l’attività della maggior parte dei ricercatori è concentrata in ambiti limitati, molto specializzati, e questo difficilmente permette a giovani ricercatori di sviluppare tutti gli skill necessari per poter prima ideare e poi costruire un esperimento in maniera indipendente. Senza questa essenziale gavetta, è veramente poco probabile che un ricercatore riesca poi in futuro a trasformarsi nel dirigente in grado di ideare e condurre il prossimo grande progetto.

Le conseguenze di questi fatti sono state discusse a lungo nella letteratura specializzata, ad esempio si può consultare il saggio Is American Science in Decline?[1], dove accanto a note certamente positive vengono anche messi in luce diversi sintomi negativi simili a quelli menzionati sopra. Già una dozzina di anni fa la National Academy of Science degli Stati Uniti pubblicava un report molto preoccupato su questi problemi[2]

Ho già ricordato come alcuni fisici teorici ritengono che negli ultimi 30 o 40 anni i progressi nella fisica teorica siano stati per lo più incrementali, neanche lontanamente paragonabili a quelli dei 40 anni o 80 anni precedenti. Questa affermazione è sostenuta anche dall’analisi dei premi Nobel in fisica negli ultimi 60 anni. Tra il 1961 e il 1990 il 50% dei premi Nobel in fisica è andato a ricerche di fisica teorica e di fisica delle particelle, il 3% a ricerche di astrofisica e il 46 % a ricerche di struttura della materia. Nei 30 anni seguenti, dal 1991 al 2020 la frazione di Nobel in fisica teorica e particelle si è dimezzata, totalizzano il 25 % di tutti i premi Nobel in fisica. La frazione di Nobel a ricerche di astrofisica è aumentata tantissimo, raggiungendo il 19% (non si puo’ non notare che 3 degli ultimi 4 anni hanno premiato ricerche di astrofisica (Genzel, Ghez e Penrose per ricerche sui buchi neri nel 2020, Mayor e Queloz per la scoperta dei pianeti extrasolari e Peebles per ricerche in cosmologia, Weiss, Barish e Thorne per l’osservazione delle onde gravitazionali). Il 56% dei Nobel in fisica infine e’ andato a ricerche di struttura della materia negli ultimi 30 anni. 

Certo si può sicuramente sostenere che, al contrario della fisica teorica, campi come la genetica molecolare o l’information technology stanno vivendo una fase di sviluppo eccezionale, e che quindi non sia la Scienza nel suo complesso a vivere una crisi, ma forse solo un campo ristretto. Credo però che non sia molto saggio sottovalutare i sintomi esposti nei capitoli precedenti e riassunti qui sopra. Sintomi che, come in tutte le malattie, richiedono prima una diagnosi e poi un’azione. 


[1] Is American Science in Decline? 2012, Xie & Killewald, Harvard University press

[2] Rapporto della National Academy of Science statunitense:  Rising Above the Gathering Storm, 2007