Vai al contenuto
L’ultima prova di Albert Einstein

L’ultima prova di Albert Einstein

Ultimo aggiornamento: 2016/02/24.

Grande giornata per l’astronomia: l’annuncio della scoperta delle onde gravitazionali schiude orizzonti di ricerca inimmaginabilmente vasti. Per fare il punto della situazione con competenza, lascio la parola (e la tastiera) all’astronomo Paolo G. Calisse, che ho già ospitato con piacere in questo blog.

Paolo Attivissimo

L’ultimo atto della caccia alle onde gravitazionali, la cui esistenza venne teorizzata da Albert Einstein 100 anni fa, intorno al 1916, potrebbe concludersi proprio oggi.

La caccia cominciò alla fine degli anni ’60, con alcuni esperimenti effettuati anche in Italia. Una Barra di Weber, l’antenna gravitazionale che si pensava fosse in grado di rivelare le onde gravitazionali, è visibile ancora oggi all’ingresso del dipartimento di Fisica dell’università di Roma La Sapienza.

In meno di un’ora, alle 15:30 GMT (16:30 ora italiana) di oggi, giovedì 11 febbraio, si terrà una conferenza stampa del LIGO, in cui potrebbe essere comunicata la rivelazione di un evento che confermi l’esistenza di queste onde.

Potete seguirla in diretta cliccando qui o qui (sperando che i server “reggano” la popolarità dell’evento).

Aggiungo i link in chiaro in caso di problemi:

https://www.webcaster4.com/Webcast/Page/219/13131

https://www.youtube.com/user/VideosatNSF/live

Ricordo che nella ricerca ha un ruolo importante anche l’Italia, con un rivelatore vicino a Pisa: VIRGO.

Scriverò se necessario, e se Paolo me lo permette, un articolo con qualche spiegazione del fenomeno e della sua storia, insieme ad un sommario della videoconferenza.

Paolo G. Calisse, 11 febbraio 2016
Prima pagina del lavoro originale di A. Einstein, 1916.

Aggiornamento alle ore 20:00 GMT

Dicono che sia pessimo giornalismo parlare di sè invece che dei fatti, ma questa volta ho la scusa perfetta: avrete letto senz’altro su tutti i giornali e i website cosa è accaduto: di come David Reitze, LIGO Executive Director (CalTech), abbia esordito nella conferenza stampa di oggi dicendo semplicemente, dopo un secondo di pausa, “We have detected gravitational waves!”, “abbiamo rilevato le onde gravitazionali!”, e di come il fenomeno sia la firma dell’amplesso finale di una coppia di buchi neri. Così come forse sapete che il fenomeno è avvenuto circa un miliardo di anni fa, in una regione di spazio nella direzione della Nube di Magellano, e si è svolto ad una velocità inaudita, pari a metà di quella della luce.

Probabilmente avrete anche sentito dire che la perturbazione del tessuto stesso dello spazio-tempo, un’increspatura infinitesimale di ampiezza pari ad un millesimo di nucleo atomico, sia l’effetto di un fenomeno che ha liberato in una frazione di secondo l’energia equivalente alla massa di 3 stelle come il Sole – anche qui, secondo la più famosa equazione einsteiniana: E = mc2, dove m è la massa e c = 300.000 km/s è la velocità della luce. Un’energia spaventosa, pari a cinquanta volte quella emessa da tutte le stelle dell’universo nello stesso intervallo di tempo.

Possiamo anche porci delle domande: cosa sarebbe accaduto se un fenomeno del genere fosse avvenuto, invece che ad 1 miliardo di anni luce di distanza, a 50.000 anni luce, dall’altro lato della nostra Galassia? Nonostante l’energia spaventosa liberata, probabilmente non molto, in quanto le onde gravitazionali non vengono assorbite facilmente dalla materia, e proprio per questo continuano a viaggiare indisturbate proprio come l’onda in una piscina. Non sappiamo però cosa si stesse svolgendo intorno alla danza dei due buchi neri. È probabile che un disco di accrescimento di materia venisse ingoiato dalla mostruosa coppia danzante, emettendo fiotti di radiazione mortale a tutte le frequenze. Ma di per sè, difficilmente le onde gravitazionali sono in grado di interagire con la materia corrente (la cosiddetta materia barionica, quella che siamo abituati a vedere con i nostri occhi).

Quello che vorrei provare a condividere è però come sia rimasta la comunità di scienziati in cui avevo la fortuna di trovarmi di fronte a questa scoperta, anche se separata dal centro dell’azione dall’Oceano Atlantico.

Sentii parlare la prima volta della rilevazione delle onde gravitazionali a causa di un esperimento in procinto di essere avviato, agli inizi degli anni settanta, nel dipartimento in cui ero studente. Un gruppo romano cercava di ripetere il successo (mai confermato) di un sistema costituito da una barra di metallo sospesa nel vuoto a temperature prossime allo zero assoluto (-273.14°C). L’idea era che se un gravitone lo avesse attraversato – ricordiamoci che ogni onda va anche pensata come particella secondo la meccanica quantitistica – la contrazione infinitesima dello spazio-tempo sarebbe stata rivelata da un interferometro posto vicino al sistema, che ne avrebbe misurata una microscopica variazione di lunghezza. Il sistema, chiamato Weber Bar dal nome del suo inventore, nonostante tutti gli sforzi per ridurre il rumore di fondo, non riuscì mai a rivelare alcunché.

Da allora si sono succeduti vari esperimenti sempre più complessi. Oggi LIGO è solo il precursore di quella che diventerà presto una sorta di rete di ascolto delle onde gravitazionali sparsa in tutto il mondo e per questo in grado di identificare molto meglio la direzione di provenienza delle eventuali sorgenti. Di questa rete faranno parte rivelatori analoghi situati in Europa come VIRGO – purtroppo ancora in costruzione – ma anche in Giappone, India, eccetera. Anche osservatori astronomici radio convenzionali come il nascente SKA (Square Kilometer Array) saranno un giorno in grado di rilevare onde gravitazionali, almeno quelle prodotte da meccanismi diversi che creano onde talmente lunghe da necessitare la misura del tempo con orologi in grado di non perdere più di un nanosecondo (un miliardesimo di secondo) in circa trent’anni. SKA sarà infatti in grado di misurare ritardi negli arrivi a destinazione del segnale perfettamente periodico generato da lontanissime pulsar, o stelle di neutroni.

Di onde gravitazionali se ne aspettano di tipi e origine diverse, come ha ricordato Reiner Weiss, dell’MIT e uno degli ormai anziani, ma attivissimi, co-fondatori di LIGO. Ci si aspettano onde prodotte durante le prime fasi di origine dell’universo, da sistemi di pulsar binarie, di buchi neri, eccetera. Onde con tempi caratteristiche di millisecondi, di ore, di giorni, di anni e anche decenni, ognuna essendo la firma univoca del fenomeno che le ha prodotte.

Ma soprattutto, da oggi sappiamo che l’essere umano si è dotato finalmente di un metodo completamente nuovo per guardarsi intorno. È come se avessimo abbattuto il diaframma che ci separava da una grotta gigantesca, grande come lo stesso universo, dalla quale ascoltare i suoni prodotti da specie e fenomeni completamente nuovi. E ogni volta che il rapporto tra segnale e rumore verrà raddoppiato, si potrà osservare una zona di universo otto volte più grande di quella, già immensa, a disposizione da oggi, aumentando geometricamente la probabilità di captare segnali generati da onde gravitazionali.

Bene ha fatto lo stesso Rietze a menzionare Galileo e il suo puntare al cielo, quattrocento anni fa, un telescopio in grado di mostrare un universo completamente diverso da quello che conoscevano tutti coloro arrivati prima di lui. Un universo imperfetto, come le gobbe della luna e le macchie solari. Ma l’aspetto che più ha stupito molti di noi, quasi tutti astronomi, è l’enormità del segnale, la pulizia dell’effetto registrato e la capacità di inferire direttamente il risultato, praticamente ad occhio nudo. In genere i risultati della Big Science odierna richiedono un’analisi statistica accurata, che può durare anni, per arrivare a scrivere numeri che abbiano un senso. È il caso dei grandi esperimenti di fisica delle particelle o di cosmologia, come i risultati di satelliti quali WMAP o Planck. In questo caso invece c’è perfetta correlazione con i modelli, comprensione quasi immediata della distanza alla quale è avvenuta la coalescenza dei due buchi neri attraverso la sua ampiezza, e della massa dei due buchi neri a partire dalla variazione della frequenza. La direzione può essere dedotta, sebbene ancora con grandi incertezze dato il numero limitato di antenne disponibili, attraverso il ritardo tra i due interferometri che fanno parte dell’esperimento LIGO.

Mostruoso.

Kip Thorne, figura leggendaria per tutti coloro che sono attivi nel campo, e autore fra l’altro insieme a John Wheeler e Charles Misner, del gigantesco volume intitolato Gravitation (1279 pagine di formule e grafici sulla teoria della gravitazione, con esempi ed esercizi, per lo più impossibili per la gran parte di noi studenti di allora, e che per lo più veniva usato come “pressa” per foglie, vista la mole), a 75 anni suonati ha saputo spiegare chiaramente in conferenza stampa la teoria dietro al fenomeno.

Nell’aula in cui eravamo raccolti ad ascoltare la videoconferenza non c’era molto rumore di fondo. Il mio vicino di banco editava in tempo reale la voce “Detection of Gravitational Waves” su Wikipedia.

Le equazioni di campo di Einstein, nella loro stesura originale.
Un monumento alla bellezza della matematica.

Ma è comprensibile. Tutti sappiamo che dietro a queste scoperte, l’idea stessa di vedere o comprendere qualcosa che, piccolo o grande che sia, nessuno ha mai visto o compreso prima di noi sia una delle gioie più grandi riservate a chi se l’è saputa conquistare lavorando duramente, spesso per decenni, come in questo caso. Credo anche che questo suggerisca qualcosa di essenziale sulla nostra natura di esseri umani. Sono convinto che la gran parte degli scienziati vorrebbe in fin dei conti che a tutti noi fosse riservata, almeno una volta, la gioia suprema della scoperta. Che si tratti della scoperta teorica, quella sulla carta, o di quella sperimentale, come nel caso di LIGO. Onestamente non credo che esista gioia maggiore di quella data dal successo della nostra creatività, e l’atmosfera che si respirava in questa videoconferenza, da parte di giovani, adulti ed anziani – soprattutto loro, visto il periodo di incubazione che l’esperimento ha richiesto: un quarto di secolo! – ne è la migliore dimostrazione.

Dev’essere stata questa stessa felicità quella che provò, più e più volte, il giovane Einstein, quando con veri e propri salti mortali mentali riuscì a  formalizzare la geometria dello spazio-tempo e ad incatenarla letteralmente alla massa che la occupa nei primi decenni dello scorso secolo. Il solo seguire l’itinerario della sua mente, la capacità di costruire quei 16 numeri che costituiscono i tensori che descrivono la geometria del nostro universo – un potente oggetto matematico di 4 colonne per 4 righe – attraverso le arcinote equazioni di campo partendo dalla conoscenza di uno solo di essi, non dev’essere stata diversa. E’ da queste equazioni che discende l’ipotesi dell’esistenza delle onde gravitazionali insieme a tante altre previsioni e scoperte fondamentali.

100 anni esatti per provare, ancora una volta, che Albert Einstein aveva ragione.

Paolo G. Calisse, 11 febbraio 2016

Aggiornamento 24 Febbraio 2016

Vorrei invitare i più “ardimentosi” tra i lettori di questo blog ad andare a leggere come si arriva alla dimostrazione delle Equazioni di Campo di Einstein, una delle dirette conseguenze delle quali è l’esistenza delle onde gravitazionali.

A meno che non si abbia una buona preparazione in algebra tensoriale è praticamente impossibile seguire per filo e per segno i passaggi, ma anche semplicemente capire di cosa si parla. Comunque sia, visto che si tratta di un’applicazione cristallina di principi del tutto generali, quasi estetici e qualitativi, direi, si può avere un’idea di come questa dimostrazione proceda.

Una dimostrazione, che mi lasciò letteralmente senza fiato quando la vidi mentre ero uno studente di Fisica al III anno, è quella che si trova alle pagine 179-183 del documento pdf (151 del testo) del fondamentale volume Cosmology di Steven Weinberg.

A scando di equivoci, ripeto che è impossibile seguire i passaggi matematici senza una buona preparazione specifica, ma credo che si possa percepire una specie di “aura mistica” nel modo in cui viene effettuata la derivazione, di sottile equilibrio di ipotesi (“guess”) su come “dovrebbero” essere fatte (i cinque punti nella figura qui accanto, a pagina 181 del pdf).  Non ci sono, come in altri casi nella storia della Fisica, i risultati di esperimenti fondamentali, solo un’applicazione geniale di principi del tutto generali.

Alcuni pagagrafi tratti dal volume “Cosmology”,
di Steven Weinberg, con la derivazione delle Eq. di Campo.

Incredibile che una costruzione così apparentemente fragile sia in grado di fornire ancora oggi – vedi le recenti osservazioni di LIGO – risutati sperimentali corretti ed innovativi. Ovvero che si tratti di una teoria “forte”, in grado di prevedere moltissimo a dispetto del fatto che parta da principi teorici tutto sommato abbastanza labili e da un insieme di dati decisamente scarso all’epoca, principalmente a causa del fatto che l’interazione gravitazionale è molto debole rispetto, per esempio, a quella elettromagnetica.

p.s. grazie a Paolo Attivissimo per le numerose correzioni e per l’ospitalità.

I conti in tasca al missile orbitale riutilizzabile di SpaceX

I conti in tasca al missile orbitale riutilizzabile di SpaceX

di Paolo G. Calisse

Paolo G. Calisse è una vecchia conoscenza di questo blog. Di professione fa l’astronomo ed ha collaborato con vari progetti internazionali, incluso ALMA, l’Atacama Large Millimeter Array. Tra le cose curiose che ha fatto durante la sua carriera, è anche stato il primo italiano a trascorrere un anno intero al Polo Sud, sempre lavorando come astronomo al locale osservatorio.

La sua passione – a suo dire “un po’ infantile” – per aerei e missioni spaziali lo ha portato a scrivere questo breve articolo in cui fa i conti in tasca ai piani di Elon Musk di creare un sistema di vettori riutilizzabile. Ospito questo articolo sul mio blog in occasione del primo tentativo di ammaraggio controllato di un primo stadio di un vettore orbitale, avvenuto ieri nell’ambito della missione Dragon/CRS-3.

Paolo Attivissimo
Credit: SpaceX.

Tutto lascia credere che ieri 18/4/2014 sia avvenuto qualcosa di radicalmente nuovo nel settore aerospaziale: il primo stadio di un razzo, dopo aver avviato il proprio carico verso l’orbita, è ammarato intatto a est della Florida. Senza l’aiuto di paracadute o di ali, solo con l’aiuto dei propri propulsori per rallentare la caduta. SpaceX ha così dimostrato la possibilità di realizzare un primo stadio leggero e potenzialmente riutilizzabile, privo di appendici aerodinamiche come lo Space Shuttle e tanti altri progetti. In questo articolo cercheremo di capire come tutto questo sia possibile. 


AGGIORNAMENTO 25/4/2014 : In una conferenza stampa convocata oggi Elon Musk ha dichiarato: “Sono felice di confermare […] che i dati ricevuti indicano che il vettore ha compiuto un atterraggio morbido e che era in perfette condizioni dopo di esso. […] Il vettore [che è ammarato in una tempesta con onde di 6-8 m, nda] è stato distrutto dall’azione delle onde. […] Abbiamo chiamato anche la guardia costiera ma ci hanno detto che non avevano intenzione di uscire dal porto [per recuperare il vettore].” A quanto pare a causa del maltempo sono stati recuperati solo alcuni pezzi dello stadio.


Il sogno di realizzare vettori riutilizzabili è nato insieme alle stesse imprese spaziali e prima ancora in tanti racconti e film di fantascienza. Il primo tentativo concreto di realizzarne uno, lo Space Shuttle, si è concluso tuttavia con risultati insoddisfacenti, costi ingenti e due terribili sciagure che hanno causato la morte di ben quattordici astronauti statunitensi.

Ma allora, è possibile pensare ad un rientro con retrorazzi? Dopo una breve introduzione allo stato attuale della tecnologia, apprenderemo la semplice algebra necessaria per valutarlo, per poi applicarla al caso specifico di un vettore come il Falcon 9R impiegato per il volo di ieri. L’articolo richiede solo una certa attenzione per seguire e comprendere tutti i passaggi necessari.

Aria o propellente?

Da quando Elon Musk, nel 2002, fondò SpaceX con l’obiettivo di realizzare un sistema di vettori orbitali riutilizzabili e per questo a basso costo, molti si chiedono se non si sia trattato di una mossa avventata. Perché infatti non utilizzare, come lo Space Shuttle, l’attrito atmosferico per frenare un oggetto al rientro dall’orbita, invece di sofisticati motori avidi di propellente ed esposti al calore e allo stress del rientro?

Lo Space Shuttle: bello e dannato

Lo Shuttle Endeavour nel 2001.
Credit: NASA.

Nonostante fosse un progetto iconico, ineguagliato per complessità e sofisticazione, lo Space Transportation System, come venne chiamato all’inizio, ha assorbito per decenni gran parte delle risorse economiche disponibili per il settore spaziale negli USA, impedendo lo sviluppo di nuovi e più efficienti vettori. Non poteva raggiungere orbite più elevate di qualche centinaio di km (contro i quasi 400.000 delle capsule Apollo lanciate dal Saturn V), né ha mai eguagliato le specifiche di progetto. Infine era solo parzialmente riutilizzabile: mentre l’Orbiter (la navetta stessa) e i due Solid Rocket Booster (i due razzi ai lati del vettore al momento del lancio) venivano recuperati, il sofisticato serbatoio principale del propellente, che costava 55 milioni di dollari di allora, andava distrutto al rientro nell’atmosfera.

Due sono le ragioni generalmente indicate come causa di questo sostanziale fallimento: (1) la richiesta dei militari di disporre di un oggetto capace di rientrare dopo una sola orbita, il che richiedeva, per le orbite polari, una notevole capacità di planata, e (2) la volontà di portare a bordo ben 7 astronauti per volta oltre ad un carico pagante di più di 22 tonnellate per le orbite basse. Queste richieste influirono pesantemente sul progetto, portando la massa del veicolo da iniettare in orbita ad oltre 90 tonnellate, contro le 6 di una capsula Apollo, e di conseguenza ad una moltiplicazione esponenziale delle difficoltà ingegneristiche da affrontare.

I problemi che queste scelte originarono furono tanti. Poiché, al contrario della navetta russa Buran, lo Space Shuttle non poteva operare missioni senza equipaggio e non vi era alcuna possibilità di fuga per gli astronauti nel caso di guasti gravi in alcune fasi critiche del volo, due incidenti diversi provocarono la perdita di due navette e la morte di ben 14 astronauti: di gran lunga più di qualsiasi altra navicella spaziale.

Infatti alcuni componenti come la schiuma usata per isolare termicamente l’enorme Main External Tank non sono mai stati completamente “commissionati”. La manutenzione, a causa dell’enorme potenza dei tre motori principali e della sofisticazione estrema dell’intero sistema, era costosissima e delicatissima, penalizzando i tempi di riciclo, aumentando a dismisura i costi di gestione e causando, nel tempo, un’affanosa ricerca di scorciatoie. Invece dei pochi giorni previsti, ogni volta occorrevano mesi e un’immenso dispendio di risorse e personale. È quindi in un certo senso sorprendente che si sia comunque riusciti a compiere 133 missioni con successo, nonostante il progetto sia di fatto diventato lettera morta.

Ricominciamo daccapo

Elon Musk, CEO e fondatore di SpaceX, ha seguito un approccio differente per un motivo preciso: sviluppare una tecnologia in grado di consentire il riutilizzo di tutte le componenti, con un abbattimento consistente dei costi, ma anche di programmare una missione su Marte utilizzando componenti simili e quindi sperimentati a fondo. Un sistema, quindi, scalabile ed in grado di consolidarsi progressivamente, con un notevole interscambio di conoscenze e componenti tra i vettori previsti per le diverse funzioni.

Illustrazione del Delta Clipper.
Credit: NASA.

Questo approccio innovativo è sembrato a molti, specie all’inizio, un azzardo: perché fare atterrare un oggetto di forma insolita, in equilibrio sulle zampe, invece di usare la tecnologia sperimentata dagli aerei di tutto il mondo? Pochi ci avevano provato prima di lui, e con risultati discutibili. McDonnell-Douglas negli anni ’90 aveva realizzato un sistema simile, il Delta Clipper, con l’idea di sviluppare un sistema in grado di entrare in orbita con un solo stadio (single-stage-to-orbit, o SSTO), ma dopo un grave incidente aveva abbandonato il progetto.

Elon Musk, dopo un’accurata analisi di tutte le variabili in gioco (velocità alla separazione del primo stadio, disegno e numero dei motori, tecnologia impiegata, numero di stadi, ecc.), ha preferito puntare su un sistema a due stadi, entrambi recuperabili. Qui non ci occuperemo del secondo stadio e della navicella, ma nei piani di Musk anche queste due componenti saranno in grado di rientrare indipendentemente e di essere riutilizzate più volte, con l’obiettivo di ridurre i costi dei viaggi spaziali di almeno un fattore 10 rispetto a quelli attuali.

Ma come si può valutare la sua affermazione che è possibile progettare un primo stadio in grado di compiere autonomamente la frenata necessaria per atterrare dopo un lancio? Il propellente necessario per il rientro non appesantisce inutilmente il carico?

È tutta una questione di delta-v!

La tecnologia spaziale è complessa oltre ogni dire, ma la dinamica su cui si basa è più semplice di quel che si creda, proprio perché nello spazio le forze in gioco sono conservative e gli attriti in genere trascurabili.

Per rispondere alle due domande precedenti basta partire dall’Equazione di Tsiolkovsky (EdT nel seguito), o Equazione del Razzo, ideata al principio del ventesimo secolo da diversi ricercatori, che valuta quanto propellente è necessario per ottenere una differenza di velocità delta-v durante una manovra “orbitale”.

Per cominciare bisogna innanzitutto comprendere che l’ostacolo principale alla messa in orbita di un oggetto non è tanto la quota di almeno 2-300 km necessaria ad abbandonare completamente l’atmosfera, che può essere raggiunta piuttosto agevolmente anche con tecnologie abbastanza semplici, quanto la necessità di raggiungere la velocità orbitale, che è circa 25 volte quella del suono (detta Mach 1) ed è superiore a quella di tutto ciò cui siamo abituati sulla Terra, proiettili e caccia supersonici compresi.

L’EdT può essere scritta come:

DV = Vexh * ln (m0 / m1)

dove:

DV è la differenza di velocità tra “prima” e “dopo” una qualsiasi manovra
m0 è la massa iniziale del razzo
m1 è la massa residua del razzo dopo aver bruciato il carburante necessario
Vexh è la velocità del gas espulso dal motore (exhaust in inglese)
ln è il logaritmo naturale

La derivazione di questa equazione è fornita più in basso e deriva da una applicazione dei principi della dinamica newtowniana.

La formula si applica a qualsiasi motore a razzo in azione nel vuoto e dove non ci siano grandi variazioni di quota (torneremo più tardi su questo punto). È indipendente dal tipo di propellente usato, dalla potenza, dal numero di motori o da altri parametri. Anzi, può essere usata, almeno in prima approssimazione, in situazioni molto diverse…

Ispettore Callaghan, il caso è suo

Supponiamo per esempio che l’ispettore Callaghan spari un colpo in orizzontale con l’immancabile 44 Magnum mentre staziona su una pista di pattinaggio (attrito trascurabile): il rinculo lo farà partire in direzione opposta, ma a quale velocità? Sebbene sarebbe più corretto usare la conservazione della quantità di moto, data la grande differenza tra la massa del proiettile e quella dell’ispettore Callaghan anche l’EdT consente di calcolarla facilmente. Il proiettile di una 44 Magnum viene espulso a circa 450 m/s ed ha una massa di circa 20 g. Se Clint Eastwood pesa 80 kg (ovvero 80.000 g), pistola e proiettili inclusi:

DV = 450 m/s * ln (80.000/(80.000-20))
= 0,112514 m/s

ovvero comincerà a spostarsi nella direzione opposta, a causa del rinculo, ad una velocità di circa 11 cm al secondo (circa 0.4 km/h).

Ma quando Callaghan sparerà il suo secondo proiettile le cose cambieranno, sebbene di poco, in quanto la massa residua sarà diminuita di quella del primo proiettile sparato, e l’incremento di velocità, da aggiungere a quella precedente, diverrà:

DV = 450 m/s * ln ((80.000-20)/(80.000-40))
= 0,112542 m/s

Come prevedibile, il cambio di velocità fornito dal rinculo è aumentato rispetto a prima, sebbene di soli 0,112542 m/s – 0,112514 m/s = 0,0028 cm/s.

Ma nel caso di un motore a razzo come il Falcon 9R la quantità di propellente espulsa ogni secondo è letteralmente un fiume (oltre 2 ton/s). Di conseguenza la massa del carburante ancora a bordo diminuisce rapidamente, e questo rende l’accelerazione del razzo sempre maggiore, al punto che ad una certa quota i motori devono ridurre la loro spinta per evitare stress eccessivi alla struttura stessa del razzo.

Tornando quindi al caso dei lanci spaziali, risolvendo la EdT per m1, si può ricavare quanto propellente resta dopo avere operato un certo delta-v partendo da una massa iniziale del razzo m0:

m1 = m0 * exp(-DV / Vexh)

Per una manovra nello spazio vuoto questa relazione è quasi del tutto corretta. Durante un lancio da Terra, però, parte dell’energia viene spesa per contrastare la forza gravitazionale e l’attrito aerodinamico. La formula consente di trattare questi due fattori valutando il delta-v aggiuntivo (o sottrattivo) che deriva da entrambi:

delta-v = Vorb + Vgrav + Vaero

dove:

  • Vorb è la velocità orbitale da raggiungere, pari, per un orbita bassa, a circa 7.8 km/s
  • Vgrav è la velocità “persa” durante l’ascesa da Terra, calcolata in base a simulazioni o da precedenti lanci o da un’accurata analisi della traiettoria percorsa durante l’ascensione
  • Vaero e la velocità dissipata per combattere l’attrito aerodinamico

Tutte le velocità sono relative al riferimento a Terra. Per questo non viene qui considerato l'”aiutino” (0.4 km/s) dato dalla rotazione terrestre (Vorb) almeno quando si lancia verso Est. 

Consideriamo ora un vettore Falcon 9R v1.1 come quello lanciato ieri da Cape Canaveral per tentare un ammaraggio controllato. Per fare i conti numerici servono alcuni dati che riassumiamo nel seguito.

Il delta-v gravitazionale



Derivare l’EdT richiede qualche ricordo della matematica del Liceo, basta infatti calcolare le forze applicate al razzo e integrare nel tempo. Una è la spinta esercitata dal motore (nel seguito T, dall’inglese “Thrust” che significa appunto “spinta” e si misura in Newton) e l’altra, nel caso di un decollo con traiettoria verticale da terra, la forza peso m*g (in questa derivazione trascureremo l’attrito aerodinamico, e tutti gli altri fattori secondari). Dal Secondo Principio della Dinamica F=m*a, dove a è l’accelerazione, si ottiene:

m(t) * a(t) = F = T – m(t) * g

dove sono indicate tutte le quantità che variano nel tempo. Dividendo per m(t) si ottiene che:

a(t) = T / m(t) – g

E’ abbastanza intuitivo che la spinta T sia pari al prodotto tra la velocità dei gas di scarico  Vexh e la massa k di propellente espulso per unità di tempo, T = Vexh * k. Calcolando l’integrale nel tempo di tutti i termini dell’equazione precedente:

  • il termine a sinistra, a(t), diventa delta-v. La variazione di velocità è infatti per definizione l’integrale nel tempo dell’accelerazione.
  • integrando T / m(t) = Vexh * k / [m0 – k*t] si ottiene proprio log(m0 / m1), dove m0 è la massa iniziale ed m1 quella finale.
  • il termine g, diventa g * t, ovvero il delta-v gravitazionale, almeno nel caso di traiettorie verticali.
In definitiva: 
delta-v = Vexh * log(m0 / m1) – g*t.
Se la traiettoria non è verticale il termine g*t diventa più complesso. Nel caso di manovre orbitali o in generale in tutti quei casi in cui la componente dell’accelerazione di gravità parallela alla direzione del moto è nulla, il termine g*t è a sua volta nullo, portando all’EdT come enunciata all’inizio.

Immaginiamo quindi due razzi: uno in grado di erogare una spinta di poco superiore al suo peso (basso thrust-to-weight ratio, o TWR), l’altro molto più potente (TWR elevato). Il primo impiegherà più tempo del secondo a raggiungere la velocità e la quota orbitali e per questo dovrà mantenere accesi i motori più a lungo. Nel caso estremo in cui la spinta fosse uguale al peso del vettore, sia il tempo che il propellente necessario a raggiungere la quota orbitale diventerebbero infiniti. E’ ragionevole quindi che il tempo, e di conseguenza il propellente necessario per raggiungere una certa velocità, e quindi dello spegnimento dei motori (cut-off), diminuiscano mano a mano che il TWR aumenta.

Parametri relativi all’intero vettore

  • Massa totale al lancio: 482.500 kg. ȏ il peso totale approssimato del Falcon 9R al momento del lancio, incluse le “zampe” e tutto l’hardware addizionale necessario per l’atterraggio morbido.
Credit: SpaceX.

Parametri relativi al solo Primo Stadio:

  • Massa totale al lancio: 392.500 kg. Peso dichiarato del primo stadio al lancio, propellente e “zampe” incluse.
  • Massa inerte: 20.500 kg. È il peso del primo stadio quando si esclude il propellente. Questo valore rappresenta anche la massa minima da riportare intatta a terra, assumendo che il propellente sia stato consumato completamente durante il volo.
  • Massa del propellente: 372.000 kg. Si ottiene sottraendo la massa inerte dalla massa totale al lancio: 392.500 kg – 20.500 kg. Notare come oltre i tre quarti (372.000 kg / 482.500 kg) dell’intera massa del razzo sia costituito dal propellente del primo stadio.

Motore Merlin 1D

Il primo stadio del Falcon 9R (la R sta per riutilizzabile) è spinto da 9 motori Merlin 1D. Sviluppati interamente da SpaceX, questi motori a razzo potenti e leggeri sono disposti in una configurazione detta octaweb: otto motori in cerchio e uno al centro. I Merlin consumano un particolare tipo di kerosene detto RP-1 e ossigeno liquido, LOX in gergo, fornendo una velocità di emissione dei gas di scarico Vexh pari a 2.765 m/s. Useremo come ipotesi pessimistica questo valore, anche se in realtà nel vuoto i gas raggiungono una velocità circa il 10% superiore (3.050 m/s), incrementando di conseguenza la spinta fornita.

Profilo di volo

La separazione del primo stadio dal secondo dopo il lancio avviene ad una velocità di Mach 6, corrispondenti a 2.052 m/s, e ad una quota di circa 90 km. Nel caso dello Space Shuttle invece il serbatoio del propellente (il Main External Tank, o ET) veniva rilasciato già a velocità orbitale (Mach 25), rendendo necessario accelerare una massa ancora più grande di quella dell’Orbiter stesso. La bassa velocità alla separazione del primo stadio è una delle chiavi del possibile successo dei piani di SpaceX.

Dopo la separazione, il singolo motore presente nel secondo stadio del Falcon 9, quasi identico agli altri nove del primo stadio, si accende e inietta in orbita la navicella Dragon con il suo carico per la Stazione Spaziale Internazionale. Il primo stadio invece si riorienta “motori avanti” per mezzo di una prima accensione di tre dei nove propulsori. Lo stadio scende quindi in caduta libera fino a pochi secondi dall’ammaraggio, quando una seconda accensione rallenta di nuovo il vettore, già frenato dalla crescente pressione aerodinamica. Le 4 zampe si estendono e il Falcon 9 compie il proprio ammaraggio controllato.

Perdite gravitazionali ed aerodinamiche

Oltre a dover acquistare la velocità orbitale, un vettore deve anche guadagnare una quota tale da uscire completamente dall’atmosfera e contrastare l’attrito dovuto alla pressione aerodinamica. Nel primo caso si parla di perdita gravitazionale, una forza che tende a frenare il vettore in ascesa e ad accelerarlo durante la discesa, e che quindi lavora sempre contro la spinta esercitata dai propulsori. Il suo valore per il Falcon 9 può essere stimato a partire da quelli ottenuti da vettori analoghi, sebbene per un calcolo più accurato si possa procedere analiticamente in base alla traiettoria prevista. Il volume Space Propulsion Analysis and Design, di R. Humble, considerato la bibbia della propulsione a razzo, fornisce alcuni valori di confronto:

 Vettore
 Delta-V gravitazionale
 Delta-V aerodinamico
Ariane A-44L 
1.576 m/s
135 m/s
Atlas I 
1.395 m/s
110 m/s 
Delta 7925 
 1.150 m/s 
136 m/s 
Space Shuttle 
 1.222 m/s 
 107 m/s 
Saturn V 
 1.534 m/s 
 40 m/s
Titan IV/Centaur 
 1.442 m/s 
 156 m/s 

Il valore straordinariamente basso del delta-v aerodinamico (Vaero) del Saturn V non è un errore di stampa, ma è dovuto al basso rapporto tra la spinta generata dai 5 giganteschi motori F-1 di cui disponeva, veri e ineguagliati capolavori della tecnologia, e la massa del mastodontico vettore subito dopo il decollo, quando il razzo era ancora carico del propellente e di tutta l’infrastruttura necessaria alla sua lunga missione. Ciò riduceva la velocità negli strati più densi dell’atmosfera e di conseguenza la pressione aerodinamica, ma una volta alleggerito di gran parte del carburante l’accelerazione cresceva a valori elevatissimi. Per tutti gli altri vettori, Falcon 9 incluso, il rapporto tra spinta e peso del veicolo al decollo è molto più elevato, rendendo più efficiente l’ascesa nel primo minuto, ma generando velocità elevate quando la densità dell’aria è ancora elevata e quindi un carico aerodinamico nettamente superiore.

Assumeremo quindi una perdita per attrito aerodinamico di 130 m/s durante l’ascensione, come si vede trascurabile rispetto agli altri fattori. Al rientro, alcune simulazioni disponibili forniscono un valore di 280 m/s. Per inciso, il momento in cui la pressione aerodinamica è massima, il cosiddetto Max Q, avviene in genere poco oltre il primo minuto dal lancio.

Il valore del delta-v gravitazionale (Vgrav) per razzi come il Titan, simile al Falcon 9R, è di circa 1.200 m/s. Poiché il distacco del primo stadio con il Falcon 9R avviene a meno di 100 km di quota, e non alla quota orbitale, superiore a 200 km, useremo la metà di questo valore, ovvero un delta-v gravitazionale pari a 600 m/s.

In conclusione

  • durante l’ascensione abbiamo un delta-v totale di 2.052 + 600 + 130 m/s = 2.780 m/s
  • durante il rientro, invece, il delta-v aggiuntivo è di soli 2.052 + 600 – 280 m/s = 2.372 m/s in quanto l’attrito aerodinamico questa volta aiuta la frenata, collaborando con la spinta esercitata dai retrorazzi

Tuttavia, non è facile valutare il delta-v gravitazionale nel caso di una traiettoria di ascesa generica. E’ più semplice, nell’ambito di questo semplice studio della fattibilità della strategia usata da SpaceX, usare valori tipici validi per altri vettori.

E adesso un po’ di semplici calcoli

Inserendo i vari valori nell’equazione di Tsiolkovsky si ottiene la massa del razzo al momento del distacco del primo stadio:

m1 = m0 * exp (- DV / Vexh )
= 482.500 * exp (-2.782 / 2.765)
= 176.444 kg

Sottraendo la massa al lancio si ottengono la quantità di propellente già utilizzato e quella residua, ancora disponibile per attuare la frenata controllata durante il rientro:

  • Quantità di carburante utilizzato fino alla separazione: 482.500 kg – 176.444 kg = 306.056 kg
  • Quantità di carburante disponibile per il rientro: 372.000 kg – 306.056 kg = 65.944 kg
  • Massa del primo stadio DOPO la separazione: 20.500 kg + 65.944 kg = 86.444 kg

Come prevedibile, l’ascensione ha utilizzato gran parte del propellente necessario, visto che in ascensione al peso del primo stadio si aggiungono quello del secondo, del carico utile ma soprattutto del propellente stesso, da accelerare a Mach 6.

Sottraiamo da questo quantitativo residuo di propellente un ulteriore 5%, ovvero 306.056 kg * 0.05 = 15.303 kg, per tenere conto dei controlli di assetto e come margine di sicurezza. Il valore del combustibile disponibile per il rientro controllato diventa adesso 65.944 kg – 15.303 kg = 50.642 kg (tutti i valori sono stati ottenuti con calcoli in virgola mobile, donde le piccole discrepanze sulle unità dopo gli arrotondamenti).

Siamo arrivati alla domanda cruciale: è possibile compiere un rientro ed un atterraggio morbido con tale quantità di carburante?

Il peso del primo stadio immediatamente dopo la separazione è pari alla sua massa inerte più la quantità ancora disponibile di carburante appena calcolata: 20.500 kg + 50.642 kg = 71.142 kg.

Applichiamo finalmente l’EdT una seconda volta, per simulare la discesa:

m1 = m0 * exp( – DV / Vexh )
= 71.142 kg * exp ( -2.372 / 2.765 )
= 30.173 kg

Questa sarà la massa totale del primo stadio all’atterraggio. Ciò significa che durante la discesa sono stati usati almeno 71.142 kg – 30.173 kg = 40.968 kg di propellente. Il propellente residuo nel primo stadio si può calcolare sottraendo al propellente disponibile alla separazione il valore appena trovato:

50.642 kg – 40.968 kg = 9.673 kg

Questa quantità, circa 9 tonnellate metriche, rappresenta quasi il 20% (9.673 / 50.642) del propellente usato per la discesa, garantendo un notevole margine aggiuntivo per le correzioni eventualmente necessarie. Siamo quindi giunti alla conclusione che un primo stadio come quello del Falcon 9R è in grado, almeno sulla carta, di rientrare a terra! Possiamo immaginare che Elon Musk abbia svolto questi calcoli back-of-the-envelope (come si dice in inglese, ovvero su un pezzo di carta qualsiasi) prima di investire i propri “risparmi” in questa affascinante avventura.

Quel 20% di carburante residuo sembrerebbe anche sufficiente a garantire il controllo d’assetto durante la discesa e anche per effettuare un atterraggio direttamente al sito di lancio (Return to Launch Site, o RTLS), come nel programma a lungo termine di Musk. Le nostre stime grossolane dimostrano insomma che si può fare, che l’idea non è affatto peregrina. Va notato anche che la quantità di carburante necessaria all’ascensione, 306 tonnellate metriche, è nettamente superiore a quella necessaria per la discesa, 41 t.

Questa apparente magia è proprio dovuta al fatto che la massa inerte del primo stadio è una frazione marginale del peso dell’intero vettore al decollo: circa il 4%, come una lattina di birra da 330 ml. Provate a prendere in mano una lattina vuota: vi chiederete, considerando la massa dei nove motori Merlin e la rigidità necessaria ad un razzo, come sia possibile costruire uno stadio così leggero in grado di portare a bordo tutto quel propellente. Ma è proprio questa straordinaria leggerezza del primo stadio a ridurre la quantità di propellente necessaria per la discesa controllata rispetto a quella necessaria per l’ascensione.

Senza contare che un rientro ad alta velocità negli strati densi dell’atmosfera, con una prima breve accensione dei retrorazzi in alta quota e una in finale, poco prima dell’atterraggio, permetterebbe di sfruttare al meglio il freno aerodinamico, che va, almeno in prima approssimazione, con il quadrato della velocità. Quindi: più tardi si rallenta – compatibilmente con i problemi termici legati al surriscaldamento – meno propellente è necessario.

Non resta quindi che augurarsi che SpaceX sia in grado di risolvere i molteplici problemi tecnici che si troverà ad affrontare prima di poter affrontare un RTLS, non ultimi lo stress aerodinamico cui i motori e le parti più sensibili del vettore saranno sottoposti durante il rientro in atmosfera, o il preciso controllo dell’assetto durante la discesa.

Marte, prossima frontiera

In realtà Musk ha nel cassetto un obiettivo ancora più intrigante: lo sviluppo di vettori in grado di compiere una missione su Marte con equipaggio con ritorno a Terra. Fino ad oggi nessuna navicella è stata in grado di tornare in orbita dopo un atterraggio su Marte. Una missione umana avrebbe bisogno di questa funzionalità, sebbene Musk contempli anche piani per una colonizzazione senza ritorno, una specie di Mayflower alla scoperta di una nuova “America”.

Gli stessi calcoli possono quindi essere applicati per esercizio per verificare se il primo stadio di un Falcon 9R sarebbe in grado di atterrare e tornare in orbita marziana. Il campo gravitazionale marziano è assai più debole di quello terrestre (Marte ha una massa che è solo il 10% circa di quella del nostro pianeta), la velocità orbitale è di “soli” 13.000 km/h. Perché non dovrebbe essere possibile?

Immaginiamo che un Falcon 9R, identico a quello usato per il rientro a Terra, venga inserito in orbita marziana. Non ci occuperemo di come questo possa avvenire. Supponiamo anche di rimuovere del tutto il secondo stadio e di avere a disposizione un carico utile pari a quello nominale per la missione terrestre. Su Marte possiamo utilizzare come velocità dei gas di scarico Vexh quella valida nel vuoto. Supponiamo inoltre, piuttosto ottimisticamente, che la perdita per gravità e quella per attrito atmosferico siano un decimo di quella terrestre, come la massa del pianeta.

Sorprendentemente, eseguendo i calcoli come sopra, ci accorgeremmo che il carburante disponibile non basterebbe. Come mai, visto che la gravità marziana è una frazione di quella terrestre? Perché, primo, atterrare e tornare in orbita richiede molto più carburante che andare in orbita e poi atterrare, e secondo, il primo stadio dovrebbe questa volta raggiungere la velocità orbitale, superiore a quella della separazione prevista nel caso di lancio dalla Terra.

Il piano di Elon Musk è tuttavia diverso da questa banale semplificazione e prevede lo sviluppo di un sistema più potente, con nuovi motori più performanti. Ci sono inoltre diverse differenze rispetto ad una missione sulla Terra. Parte del vettore, per esempio, potrebbe essere abbandonata sul suolo di Marte per un’inserimento in orbita più leggero.

Conclusioni

L’X-37B.
Credit: USAF.

Lo spazio vuoto è l’ambiente controintuitivo per antonomasia. Il motivo ultimo per cui la strategia dello Space Shuttle – utilizzare l’attrito aerodinamico per permettere il rientro controllato e quindi il riciclo del vettore – si è dimostrata più inefficiente e complessa del previsto è che ogni kg in più da mettere in orbita, a causa delle grandi superfici aerodinamiche necessarie per la frenata, richiede un incremento esponenziale della potenza dei vettori e della complessità del sistema.

Sistemi che utilizzano lo stesso principio, ma più piccoli e meno performanti, come il Dream Chaser, sorta di piccolo Space Shuttle adibito al solo trasporto di passeggeri, o l’X-37B, navicella cargo automatica già utilizzata più volte e al momento in orbita terrestre, potrebbero ovviare a questo problema. Nessuno è ancora in grado di dire se l’alternativa proposta da Musk sia migliore o meno dell’uso dell’attrito aerodinamico per frenare, o se piuttosto entrambe le tecnologie troveranno in futuro la loro utilità, come è piuttosto probabile.

Quello che abbiamo appena dimostrato è soltanto che quella di Musk è una scelta ragionevole e fattibile. Anche sul piano tecnico la potenza di calcolo e la sensoristica attuali permettono un controllo accurato dell’assetto di un oggetto come un razzo, nonostante possa apparire difficile come tenere una penna in equilibrio in verticale sul palmo della mano.

Bibliografia ragionata

[1] SpaceX, Video Captures SpaceX’s Re-Lightable Engine. Nel video si vede, per la prima volta, un motore a razzo durante una fase di rientro nell’atmosfera di un vettore (a marcia indietro). Il video consente anche di verificare la quota alla quale il primo stadio si separa (100 km) e la massima quota raggiunta in volo balistico dal vettore (140 Km)).
[2] http://forum.nasaspaceflight.com/index.php?topic=9959.0, una discussione che spiega come valutare l’effetto dell’atmosfera e della gravità.
[3] http://aldaylongmusings.blogspot.com/2011/04/spacex-sanity-check.html, un esercizio simile svolto per il più pesante SpaceX Falcon Heavy.
[4] Space Propulsion Analysis and Design, R. Humble, 1996, per una discussione approfondita sulla propulsione a razzo.

Aggiornamenti

20/4/2014 – Rimossi alcuni errori tipografici alle formule. Grazie a Laserium per la segnalazione.
22/4/2014 – Aggiunto un paragrafo che descrive il significato fisico del delta-v gravitazionale
26/4/2014 – Aggiunto esito missione come da conferenza stampa con Elon Musk
27/4/2014 – Errore tipografico rimosso – Grazie a ByX-2K per la segnalazione
06/5/2014 – Aggiunto riferimento alla conservazione della quantità di moto nel calcolo della deriva dell’ispettore Callaghan – grazie a Riccardo “Rico” Montorzi per l’osservazione.
09/5/2014 – Aggiunta derivazione dell’EdT.

Chi ha pagato il caffè di Sam?

Chi ha pagato il caffè di Sam?

di Paolo G. Calisse, (g)astronomo – 20 aprile 2015

Una profetica immagine di Thierry Le Gouè per il
Calendario Lavazza 2004 [Credit: Lavazza]

La missione di Samantha sulla International Space Station ha inaugurato la stagione gourmet delle missioni spaziali, ma le spese per queste attività suscitano spesso perplessità che evolvono a volte in una feroce opposizione.

Quando si seppe, per esempio, che una sofisticatissima macchina del caffè sarebbe stata inviata a bordo della International Space Station (ISS) alcuni lettori di questo blog espressero la propria contrarietà all’opportunità di finanziare iniziative del genere, soprattutto in un periodo di crisi economica come questo.

Con questo articolo proveremo a studiare quanto costa e chi paga il caffè a Samantha Cristoforetti e agli altri astronauti della ISS, oltre a tentare di fare due conti sull’entità finanziaria dell’impegno italiano nello spazio.

Negli ultimi anni gli USA hanno cominciato a riprendersi la leadership nel settore spaziale anche attraverso il riutilizzo di interi vettori (ma, paradossalmente, continuando a usare contenitori usa e getta in catene come Starbucks). Il ruolo della tecnologia italiana nello spazio è meno visibile, ma resta decisivo con lo sviluppo del nuovo Vettore Europeo di Generazione Avanzata (VEGA), realizzato dalla AVIO di Colleferro (Roma), con la partecipazione ad un gran numero di sonde e missioni, e con la collaborazione alle spedizioni ISS. Rientra in questo contributo l’arrivo a bordo dell’ultima capsula Dragon, sulla Stazione Spaziale, di una italianissima macchina del caffè, in grado di sostituire quello solubile impiegato fino ad oggi. La macchina è stata realizzata dalla Argotec di Torino su indicazioni di Lavazza, insieme ad ASI (l’Agenzia Spaziale Italiana) e Finmeccanica-Selex ES, che ne ha curato la rispondenza ai rigorosissimi requisiti spaziali.

Va precisato anzitutto che Argotec cura non solo la fornitura del caffè di bordo ma, dal 2012, quella di tutto il catering degli astronauti europei sulla ISS. Un cuoco della Argotec, Stefano Polato, ha preparato i menù di bordo prima per Luca Parmitano ed Alexander Gerst e adesso per Samantha Cristoforetti. Gli esperti della stessa azienda curano, in un modo innovativo e salutista consono alla grande tradizione gastronomica italiana, tutta la filiera che va dall’acquisizione degli ingredienti alla preparazione delle buste di cibo da reidratare inviate periodicamente sulla ISS.

Non è solo questione di menù: i cibi forniti oggi agli astronauti sono più che mai simili ai migliori prodotti cui siamo abituati noi terrestri. I vecchi metodi di sterilizzazione e conservazione, necessari per ovvi motivi, sono stati sostituiti da procedure molto più complesse in grado di conservare il gusto.

Ma come funziona la ISSpresso?

Tutti (o quasi) i segreti della ISSPresso [credit: Lavazza/Argotec]

La macchina per espresso in dotazione alla ISS non è molto più grande di una caffettiera da ufficio (42x43x36 cm), pesa 20 kg ed è alimentata a 120 VAC. Naturalmente ha passato i severissimi test necessari per la sua installazione a bordo della ISS. Al posto del classico tubetto di plastica per il trasporto del liquido delle normali macchine da caffè, per esempio, usa un tubo di acciaio speciale in grado di reggere una pressione di 400 bar, pari a quella che si trova in mare a circa 4.000 m di profondità. È inoltre progettata per non richiedere assistenza per diversi anni, salvo la sostituzione periodica di alcuni materiali deperibili.

Altro aspetto fondamentale è che la ISSpresso può essere usata non solo per preparare il caffè, ma anche per tè, brodo e altre bevande calde, per reidratare cibo congelato, e per dare un assaggio di casa agli astronauti, “a taste of home” nella descrizione dell’esperimento sul sito NASA, dove si ipotizzano anche potenziali ricadute tecnologiche nella preparazione di bevande calde a terra. La stessa pagina mostra che il progetto per la ISSpresso è inserito nella lista ufficiale degli esperimenti per lo sviluppo tecnologico, con risultati applicabili al comportamento di fluidi in condizioni di microgravità.

Come utilizzarla? Basta inserire la spina di alimentazione nell’apposito UOP (“Utility Output Panel”), accenderla, inserire nella bocchetta d’ingresso (blu, nella foto) una bustina piena d’acqua del genere usato per reidratare il cibo sulla ISS e una vuota in quella di uscita (beige). Non resta che inserire una cartuccia di caffè nell’apposita fessura e avviare il processo. Il tutto dura qualche minuto e permette di ottenere un prodotto in tutto simile a un espresso da bar, crema inclusa, da sorbire da particolari tazzine studiate per il funzionamento in microgravità. Alla fine, grazie a un sistema sviluppato ad hoc, tutte le tubazioni interne vengono ripulite automaticamente, permettendone l’uso per bevande diverse senza fastidiose contaminazioni.

OK, ma quanto costa un caffè all’ISS bar?

Soprattutto, c’era bisogno di spendere tutti quei soldi per garantire un buon caffè agli astronauti a bordo?

Tazzine spaziali

Per rispondere a questa domanda occorre anzitutto rendersi conto delle particolari condizioni in cui operano, per periodi di 6 o 12 mesi, gli astronauti e cosmonauti a bordo della ISS. Si tratta senza dubbio di condizioni estremamente stressanti, sia psicologicamente che fisiologicamente, con richieste elevatissime dal punto di vista del rendimento e della concentrazione.

Agli aspetti generali come l’assenza di peso, la permanenza continua in locali sigillati, la lontananza da casa, i ritmi di lavoro intensi, la grandissima responsabilità e i rischi associati, si uniscono tante piccole noie, come l’assenza di un bagno propriamente detto, di luce solare, di cibi cucinati freschi o magari del conforto di una serata a cena con gli amici. Senza contare gli effetti diretti sulla fisiologia cellulare: al di là di quelli diretti su ossa e altri organi, in parte controllabili oggi con un’intensa e quotidiana attività fisica, l’invecchiamento cellulare in microgravità, per esempio, è di oltre un ordine di grandezza più rapido di quello a terra.

In questo contesto anche un “piacere” come il caffè, come recitava proprio la ben nota pubblicità Lavazza anni ’90, può assumere un ruolo importante per garantire un po’ di benessere e qualità della vita in più, soprattutto agli astronauti italiani.

Resta da vedere a che prezzo. Per valutarlo, va considerato innanzitutto che l’hotel load, tradotto letteralmente il “carico dell’hotel”, ovvero la quantità di materiale che la NASA reputa necessario quotidianamente per garantire la permanenza in orbita di un astronauta, è di 5 kg a persona. Fanno 5,4 tonnellate per sei persone per sei mesi. Quindi una macchina di 20 kg, anche includendo gli imballi, corrisponde a meno dell’hotel load quotidiano di tutto il personale di bordo.

Ma quanto costa e chi paga il caffè di Sam e degli altri astronauti? Secondo Antonio Pilello, Communications Officer della Argotec, interpellato direttamente, “si tratta di un investimento privato”. Gli uffici stampa di Lavazza e ASI non hanno invece risposto alle richieste di informazioni. Comunque sia, la policy ISS per i programmi commerciali prevede che i costi di sviluppo possano restare nascosti se richiesto dal committente e finanziatore.

Ai prezzi di sviluppo e fabbricazione di questo esemplare unico vanno poi aggiunti quelli di verifica del prodotto e di trasporto in orbita. Un progetto come questo può generare facilmente decine e decine di interminabili meeting di alto livello, telefonate, documenti e test di verifica. Solitamente i costi di questo tipo vengono inclusi nel cosiddetto overhead che lo sponsor deve garantire in aggiunta ai costi vivi di progetto, ma considerata l’utilità della ISSpresso potrebbe esserci un contributo da parte del Consorzio ISS stesso.

Tentiamo ora una stima dei costi di trasporto da terra all’ISS. Bisogna innanzitutto distinguere costi vivi e prezzi pagati da un qualsiasi partner privato che, una volta approvato un suo progetto, desiderasse trasportare un oggetto a bordo della Stazione Spaziale. Per farlo, può per esempio contattare Nanoracks, una compagnia che si autodefinisce “The Concierge to the Stars” (letteralmente “il portiere per le stelle”). Nanoracks infatti ha un po’ il ruolo del portiere dei vecchi stabili: prende in carico il “pacco” dal postino e lo consegna al condomino dei piani superiori – in questo caso molto superiori, a circa 450 km di quota.

Jeffrey Manber, uno dei fondatori di Nanoracks, sostiene che il costo per volume di una consegna da parte di una compagnia straniera si aggira intorno ai $60.000 (circa € 48.000) per litro di volume, ma ci sono sconti per volumi superiori. Per il volume della ISSpresso la spesa di spedizione complessiva potrebbe superare quindi $3.000.000 (€2.400.000 circa): non proprio bazzecole, ma non è detto che la ISSpresso sia stata spedita a bordo così (vedi sezione aggiornamenti in coda all’articolo).

Se invece consideriamo il costo del trasporto di ogni kg di carico utile in orbita con la navicella Soyuz, si dovrebbe aggirare tra i 10 e i 30 mila dollari. Moltiplicando per i 20 kg della ISSpresso raggiungiamo una cifra tra i 200.000 e i 600.000 US$. Queste spese sono state coperte probabilmente dai partner commerciali, ma anche questo non è dato sapere.

In definitiva, considerata la complessità del progetto, possiamo ipotizzare che tra tutto Lavazza e gli altri eventuali sponsor abbiano investito da uno a due milioni di euro, distribuiti su due o tre anni.

Può apparire una cifra elevata, ma se la si paragona ad una tipica sponsorizzazione sportiva, come il costo di una scritta in bella vista su un’auto di Formula 1, non è poi così tanto. Red Bull, per fare un confronto, ha investito oltre un miliardo e mezzo di dollari in dieci anni solo nella Formula 1, senza includere tutte le numerosissime altre sponsorizzazioni in sport estremi. Una cifra da capogiro, che tuttavia le ha permesso profitti e bilanci in crescita costante. Naturalmente i dettagli sono diversi – il logo Red Bull è ormai visible ovunque vi sia un’impresa un po’ folle – ma anche il prezzo necessario a mantenere competitivo un team di F1, o a permettere il lancio col paracadute di Felix Baumgartner dalla stratosfera, sembrerebbe più elevato di quello di una ISSpresso di diversi ordini di grandezza, e Lavazza non è certo da meno: il fatturato della compagnia nel 2013 ammontava ad oltre 1.300 milioni di euro di cui il 4%, pari a 52 milioni, per la pubblicità. Una spesa di qualche milione di euro, ripartita su più anni, è senz’altro compatibile con un’azienda di queste proporzioni, così aggressiva sui mercati stranieri.

La nostra Astrosamantha con un prototipo
della ISSpresso [credit: Argotec]

Alla fine, se consideriamo 12 caffè al giorno fino al 2024 (come negare anche agli astronauti non ESA un buon caffè all’italiana?), possibile anno del decommissioning della ISS, il costo del singolo caffè dovrebbe risultare superiore, rispetto a quello di un solubile consumato a bordo, di circa €50 a tazzina. Considerate le incertezze su cui si fondano queste stime, questo valore non è troppo lontano da quello di una tazza di Black Ivory, considerato, a circa €40 a tazzina, il caffè più caro del mondo (nonostante venga “processato” dall’intestino di un elefante). A questo vanno aggiunti i costi di manutenzione, dell’acqua, della corrente e del caffè, che sarebbe però necessario coprire anche nel caso di caffè solubile (di cui non siamo in grado di formulare una stima dei costi). Senza considerare che la stessa macchina verrà impiegata per altri usi essenziali, come la reidratazione degli alimenti.

Si tratta quindi di valori elevati, ma ogni attività nello spazio ha un costo nettamente superiore all’equivalente a terra. In questo caso tale valore è coperto completamente o quasi, da sponsor privati.

Tutto sommato, se alcune compagnie italiane riescono ad occupare una posizione preminente in un settore così sofisticato non dovremmo che gioire, anche se qualche euro l’avesse tirato fuori anche qualche istituzione come ASI. Non ci resta che raccomandare a Samantha quindi, che vede un'”alba” ogni ora e mezza circa – il periodo orbitale della ISS – di non esagerare con la caffeina.

Insomma Samantha, ma quanto ci costi?

Bisogna inoltre considerare l’entità dell’impegno italiano nello spazio. La quota italiana ESA di circa 1300 milioni di euro è seconda solo a quella di Germania e Francia (vedi immagine). Ma facciamo un confronto con altre spese tipiche di uno stato moderno. Questo importo è pari a solo 3 volte quanto speso, per esempio, per il recupero del complesso de La Maddalena in Sardegna, realizzato per il G8 e mai usato. Bruscolini, in fin dei conti, rispetto all’entità di certi a volte bizzarri progetti pubblici di utilità nulla.

Il bilancio ESA 2015. La quota italiana è del 10,2%, seconda sola a
quella di Germania (24,6%) e Francia (22,2%) (credit: ESA)

Soprattutto considerando il ritorno economico e di immagine per il Paese a fronte di questo impegno. A parte l’elevato numero di astronauti (5 missioni sulla ISS), ricercatori e dirigenti impegnati nelle varie sedi europee dell’Agenzia, l’Italia ha ottenuto un gran numero di commesse industriali: oltre ai nodi Harmony e Tranquility, componenti essenziali della struttura pressurizzata realizzati a Torino da Thales Alenia e in grado, il secondo, di produrre tra l’altro l’acqua potabile, il Paese dispone di un intero modulo, il Leonardo, e ha realizzato il modulo Columbus per studi di microgravità.

Sono stati anche prodotti in Italia la Cupola, famosa per le straordinarie vedute della Terra, e gran parte dei moduli automatici ATV, senza considerare partecipazioni enormi in un gran numero di missioni e strumenti a bordo di altre sonde. Escludendo la missione Futura di Samantha Cristoforetti, infine, l’Italia ha portato sulla ISS circa 150 esperimenti.

Un bilancio, possiamo quindi concludere, nettamente in attivo per il Paese e l’industria nazionale, a dispetto delle inchieste giudiziarie che coinvolgono, purtroppo, l’Agenzia Spaziale Italiana.

Le stime che ho effettuato sono di mio pugno e migliorabili. Ben vengano quindi commenti e maggiori informazioni che non mancherò di inserire nel testo se circostanziate e dopo opportuna verifica.


Questo articolo è stato aggiornato dopo la sua pubblicazione iniziale:

20/4/2015 – Riformulato confronto con costo caffè Black Ivory (su suggerimento di Paolo Attivissimo).


21/4/2015 – Jeffrey Marden, Managing Director di Nanoracks, mi ha confermato oggi che la spedizione nello spazio della ISSpresso è stata curata direttamente dalla NASA (per cui i costi dovrebbero essere inferiori).

22/4/2015 – Ho cambiato “AVIO di Rivalta di Torino” ad “AVIO di Colleferro (Roma)”. Grazie a Fabio per la segnalazione.

Telescopio Spaziale Hubble: una finestra sull’Universo aperta da 25 anni

Telescopio Spaziale Hubble: una finestra sull’Universo aperta da 25 anni

di Paolo G. Calisse – 24 aprile 2015

Fonte: Hubblesite.org.

Il 24 aprile del 1990 decollava da Cape Canaveral, nella stiva della navetta spaziale Discovery, una delle più straordinarie creazioni del genio umano: il Hubble Space Telescope (HST nel seguito), il primo, vero telescopio orbitante.

Figlio “non riconosciuto” – per così dire – dei satelliti spia della serie KH-11 Kennan (KH sta per Key-Hole, o “buco della serratura”), ne condivide l’assemblaggio ottico e parte della struttura. L’esistenza di questi sofisticatissimi satelliti spia, quasi ignota agli astronomi di allora, consentì alla Kodak di ridurre decisamente il costo delle ottiche.

HST si è dimostrato uno degli strumenti spaziali più versatili di sempre. È in grado di osservare una grande varietà di oggetti in cielo, con la notevole eccezione del Sole, troppo brillante, e del pianeta Mercurio, ad esso troppo vicino per essere osservato senza rischi di danneggiamento dei sensori. Tra i suoi spettacolari risultati e scoperte vi sono dischi di detriti di forme inaspettate orbitanti stelle lontane, immagini di galassie in formazione, gli effetti della materia e dell’energia oscura, zone di formazione stellare, resti di supernova, ma anche osservazioni di Saturno, la scoperta di due nuovi satelliti di Plutone e il sito di atterraggio della missione Apollo 17 sulla Luna. Senza contare la magnificenza di un catalogo di foto in grado di competere con autori come Ansel Adams e Henry Cartier-Bresson in quanto a risultati estetici. HST è arrivato ai confini estremi dell’universo, fotografando migliaia di galassie in una sola volta nelle sue immagini a più elevata risoluzione.

Favorito dall’assenza di atmosfera in orbita, HST ha aperto letteralmente una nuova finestra nello spazio, nonostante i 2,4 m di diametro del suo specchio principale siano ben poco rispetto ai più grandi telescopi a terra, come il Very Large Telescope a Paranal in Cile, che vanta una superficie complessiva circa 44 volte maggiore. Come spesso accade, quello che si prevedeva di misurare ed osservare con questo straordinario strumento è diventato nel tempo irrilevante rispetto a quanto veniva scoperto di inaspettato. L’assenza di atmosfera non solo gli ha consentito di avvicinarsi alla risoluzione teorica consentita dalle ottiche – il cosiddetto limite di diffrazione – ;ma anche di ridurre la luminosità di fondo e di osservare il cielo in bande come quella ultravioletta, un risultato impossibile da ottenere da terra.

Nel seguito alcune informazioni sul satellite e una cronistoria del progetto, che include alcuni dei risultati scientifici ottenuti nel corso della sua lunga vita. Questi risultati, tratti dai quasi 10 alla settimana pubblicati in media su riviste scientifiche, non sono né i più rilevanti né tanto meno gli unici. Li ho disseminati nella cronistoria che segue solo per fornire un esempio il più possibile vario di quanto questo straordinario strumento abbia consentito di avanzare le nostre conoscenze dell’Universo.

Hubble Space Telescope in breve

Massa 11.110 kg
Lunghezza 13,2 m 
Diametro massimo 4,2 m
Quota orbitale 552 km
Periodo orbitale 97 minuti
Velocità orbitale 28.000 km/h
Potenza elettrica 2.8 kW
Configurazione dell’ottica Cassegrain Ritchey-Chretien
Rapporto focale f/24
Accuratezza del puntamento 0,007 arcsec per 24 hr, pari allo spessore di un capello visto da 1 km e mezzo di distanza
Risoluzione nel visibile 0,05 arcsec. Hubble sarebbe capace di distinguere da New York due lucciole separate da 1 metro a San Francisco
Lunghezze d’onda osservate dal visibile all’ultravioletto, che è inaccessibile da terra
Costo al lancio 1,5 miliardi di US$ del tempo (circa 2,52 miliardi di euro di oggi)
Numero di articoli scientifici pubblicati basati su dati HST 12.877 (aggiornato al 22/1/2015)
Numero di autori di almeno un articolo basato su dati HST 13.841
Dati trasmessi a terra dall’inizio della missione circa 156 TB (120 GB a settimana)
Vita prevista inzialmente 15 anni, con aggiornamenti ogni 3-5 anni della strumentazione al piano focale

17 maggio 2009, Fourth Service Mission: gli astronauti NASA Michael Good e Michael Massimino mentre riparano l’STIS (Space Telescope Imaging Spectrograph) all’interno di HST durante una EVA (Extravehicular Activity) di 8 ore di durata [credit: NASA]

Cronistoria del Telescopio Spaziale Hubble

1923: in un articolo dal titolo “Il razzo nello spazio planetario”, Hermann Oberth, uno dei padri della scienza missilistica, teorizza la possibilità di mettere in orbita un telescopio astronomico.

1946: Lyman Spitzer preconizza in un articolo i vantaggi di cui beneficerebbe un telescopio spaziale a causa dell’assenza di atmosfera e ne propone la costruzione.

1952: Sei anni prima della fondazione della NASA, Wernher von Braun, il futuro artefice dei razzi Saturn impiegati nelle missioni Apollo ma ancora poco conosciuto al grande pubblico, pubblica un articolo in cui descrive la sua visione del nostro futuro nello spazio.

Prima pagina di un articolo di Wernher von Braun sul numero di marzo 1952
della rivista Collier’s. Accanto ad uno spazioplano che ricorda vagamente il
britannico Skylon odierno si notano una piccola stazione spaziale e un telescopio
orbitante, di dimensioni paragonabili a quelle del futuro HST [credit: Collier’s].

1966: Prima riunione del comitato per il “Large Space Telescope”, diretto dallo stesso Spitzer.

1969: è l’anno di Apollo 11: viene pubblicato il rapporto “Usi scientifici di un grande telescopio nello spazio”, a cura dello stesso comitato, nel quale si approfondiscono vantaggi e caratteristiche uniche di un telescopio spaziale.

Dicembre 1972: L’Amministratore  della NASA, James C. Fletcher, riconosce che i fondi richiesti, 750 milioni di US$, sono troppo elevati per ottenere l’approvazione dal Congresso dopo la fine del periodo d’oro della “conquista della Luna”.

Dicembre 1974: La dimensione dello specchio principale viene ridotta da 3 a 2,4 m. In questo modo, anche se ai tempi non era ancora noto, la Kodak è in grado di sfruttare le sinergie con i satelliti spia serie KH-11. La riduzione consentirà inoltre la messa in orbita con lo Space Transportation System (Space Shuttle), allora in avanzata fase di progettazione, piuttosto che con un vettore senza equipaggio, oltre a un gran numero di vantaggi ulteriori in termini di costi e peso.

1975: L’Agenzia Spaziale Europea o ESRO (European Space Research Organization, come era chiamata allora), si unisce agli sforzi della NASA per costruire l’osservatorio spaziale orbitante. Il contributo europeo principale sarà costituito dai pannelli solari e dalla Faint Object Camera (OFC, o “Camera per Sorgenti Deboli”).

19 dicembre 1976: decolla da Cape Canaveral il primo satellite spia classe KH-11, dal quale HST erediterà gran parte delle caratteristiche ottiche e la struttura, al punto da poter essere trasportato negli stessi contenitori.

1977: Il congresso USA accetta di finanziare il progetto iniziale con 200 milioni di US$ iniziali.

1978: La Perkin-Elmer vince la commessa per la costruzione delle ottiche, mentre la Lockheed Missile and Space Co. quella per la costruzione del satellite e dei sistemi di supporto.

Maggio 1979: Negli stabilimenti Perkin-Elmer di Dalbury inizia il polishing (la pulitura finale) dello specchio principale.

1979: Alcuni astronauti NASA iniziano l’addestramento per la messa in orbita di HST.

12 aprile 1981: La prima missione Space Shuttle, STS-1, riporta due astronauti USA in orbita per la prima volta dal 1975, anno dell’ultima missione Apollo. La nuova possibilità di avere a bordo equipaggio e cargo in orbita allo stesso tempo è vitale per il progetto HST e viceversa: senza un’adeguata giustificazione scientifica, il progetto Space Shuttle avrebbe rischiato di essere cancellato.

22 giugno 1982: durante uno dei test eseguito sulle ottiche, un tecnico della Perkin-Elmer incolla al proprio quaderno di laboratorio i risultati di un interferogramma (un grafico che fornisce informazioni molto accurate sulla posizione delle ottiche) che suggerisce l’esistenza di un problema che passa inosservato ma avrà conseguenze fondamentali in futuro.

1983: Anno previsto per il lancio di HST. Viene anche fondato lo Space Telescope Science Institute (STScI) a Baltimore, nel Maryland, che avrà il compito di coordinare e sovrintendere tutta l’attività e la ricerca di HST. Primo direttore sarà il futuro Premio Nobel italoamericano Riccardo Giacconi, nato a Genova nel 1931 e trasferitosi negli USA dopo la laurea a Milano.

Ottobre 1983: Il Grande Telescopio Spaziale viene rinominato in onore del grande astronomo inglese Edwin Hubble, scopritore dell’espansione dell’universo.

1985: HST è finalmente pronto per il lancio.

28 gennaio 1986: 73 secondi dopo il lancio lo Space Shuttle Challenger si disintegra, portando alla tragica morte dei sette astronauti a bordo. Tra le consequenze del tragico incidente, il ritardo della missione per la messa in orbita dell’HST. Prevista per ottobre dello stesso anno, viene rinviata a data da destinarsi.

29 settembre 1988: i voli dello Space Shuttle riprendono con la missione Discovery STS-26.

10 aprile 1990: Il primo tentativo di lancio viene interrotto a T-4 secondi a causa del malfunzionamento dell’APU (Auxiliary Power Unit), il sistema ausiliario di produzione dell’energia elettrica a bordo, che verrà sostituito nei giorni successivi.

24 aprile 1990. Dopo un rinvio di quasi 5 anni, Hubble Space Telescope viene lanciato nello spazio a bordo dello Space Shuttle Discovery con 5 strumenti al piano focale. A bordo anche il Pilota Charles Bolden, attuale Amministratore della NASA, e l’astronomo-astronauta Steven Hawley, specialista di missione. Nel corso della missione STS-31 tutto procede perfettamente fino all’estensione del secondo pannello fotovoltaico, che si blocca esteso a metà. Dopo qualche “ritocco” al software il problema viene risolto e Hubble viene rilasciato in orbita. I primi test ingegneristici superano qualche difficoltà iniziale al puntamento, ai pannelli solari e col sistema di messa a fuoco.

A destra, l’ammasso aperto NGC 3532 come appare in una delle prime immagini trasmesse a terra da HST.
A sinistra, lo stesso ammasso dal telescopio di Las Campanas (Chile), che ha un diametro simile (2,5 m).
[credit: NASA/Carnegie University Observatories]

20 maggio 1990: La prima vera immagine ripresa dalla Wide Field Planetary Camera (Camera planetaria a largo campo) viene rilasciata (vedi figura accanto). L’immagine è grosso modo il 50% più definita di quelle acquisite a terra con telescopi di dimensione paragonabile, ma non all’altezza di quanto previsto: qualcosa non quadra. All’inizio si attribuisce il problema ad un incorretto allineamento tra primario e secondario ma in seguito ad alcune simulazioni al computer emerge rapidamente l’esistenza di un’imprevista aberrazione sferica nello specchio principale. Questa aberrazione infinitesimale ammonta a soli 4 micron di differenza nella curvatura dello specchio primario (circa 1/50 del diametro di un capello umano), ma è sufficiente a rendere le immagini sfuocate. La sua causa sembra essere una metodologia insufficiente nei test ottici operati dalla Optical Operation Division della Perkin-Elmer, la compagnia che ha realizzato lo specchio primario. Almeno 4 diversi test eseguiti avrebbero dovuto suggerire l’esistenza di un problema (vedi 22 giugno 1982 per il primo di essi), ma nessuno ci aveva fatto caso a causa di una certa imprecisione nella gestione del progetto da parte della compagnia. Fortunatamente il telescopio è stato progettato per essere assistito in orbita. Nei mesi seguenti viene messa a punto lentamente una strategia per correggere il problema attraverso l’impiego di un’ottica correttiva da inserire all’interno del telescopio. Nel frattempo, comunque, le immagini ricavate, ed un conseguente miglioramento degli algoritmi di correzione ottica, consentono di ottenere già un gran numero di risultati spettacolari.

5 ottobre 1993: Perkin Elmer accetta di pagare 25 milioni di US$ per evitare una denuncia penale per avere falsificato alcuni documenti relativi alla qualità dello specchio di HST. La riparazione in orbita del telescopio (vedi nel seguito) costa più di 3 volte tanto: 86 milioni di US$ per una nuova missione Space Shuttle per il solo sviluppo e realizzazione delle sole ottiche correttive. Da aggiungere ai costi di una missione Shuttle di manutenzione valutati, ai tempi, tra i 500 e i 630 milioni di US$.

2 dicembre 1993: la Service Mission 1 (Prima Missione di Servizio) decolla da Cape Canaveral con la sigla STS-61. Si tratta di una delle più complesse e articolate missioni Space Shuttle mai avvenute fino ad allora. Lo Space Shuttle deve avvicinare HST e catturarlo con il braccio robotizzato CanadArm. Due astronauti per volta spendono quindi diverse ore di lavoro durissimo per eseguire tutte le varie operazioni, facendo uso di oltre 150 attrezzi diversi. Il Fotometro ad Alta Velocità (HSP, High Speed Photometer), uno degli strumenti iniziali al piano focale dell’HST, viene rimosso e sostituito dal COSTAR (Corrective Optics Space Telescope Axial Replacement, letteralmente “Sostituzione in Asse per la Correzione Ottica del Telescopio Spaziale”). Anche la Wide Field and Planetary Camera (Camera Planetaria a largo campo) viene sostituita con un nuovo strumento aggiornato contenente ottiche correttive, la WFPC2.

Le prestazioni di HST prima e dopo la First Service Mission:
L’immagine di sinistra della galassia M100 è acquisita con l’ottica
aberrata e la WF/PC1; quella di destra con la WF/PC2 e l’ottica
corretta. La differenza è in un microscopico errore
nella curvatura dello specchio primario, pari a 1/50 del diametro
di un capello [credit: NASA/ESA]

13 gennaio 1994: viene rilasciata la prima immagine del telescopio con il COSTAR installato. La risoluzione delle immagini è fantastica e apre nuovi orizzonti alla ricerca astronomica. La porzione di universo accessibile all’astronomia ottica è improvvisamente migliaia di volte più grande di prima.

1 aprile 1995: HST riprende quella che diverrà la sua immagine più iconica: quella dei cosiddetti Pilastri della Creazione, una regione di gas e polvere nella nebulosa dell’Aquila dove hanno origine nuove stelle. La regione si trova a circa 7.000 anni luce di distanza dal Sole. Per farsi un’idea delle sue dimensioni basti pensare che la lunghezza della colonna di sinistra è quasi pari a quella che separa il Sole dalla stella più vicina, Alpha Centauri. L’immagine è una sovrapposizione di immagini prese nel visibile e nell’ultravioletto.

I “Pilastri della Creazione”, forse l’immagine più popolare acquisita da HST. A sinistra
nell’edizione originale del 1995, a destra in quella aggiornata del 2014.;

18-28 dicembre 1995: per 150 orbite di HST la camera WFPC2 viene puntata verso una minuscola porzione dello spazio profondo, rivelando un numero enorme di galassie di tutte le forme e dimensioni. Queste osservazioni passeranno alla storia come Hubble Deep Field (HDF, “Campo Profondo Hubble”) e saranno seguite negli anni successivi da ulteriori approfondimenti: l’Hubble Ultra-Deep Field (UDF), e l’Hubble eXtreme Deep Field (XDF), che si spingono a risoluzioni, e quindi a distanze, ancora più estreme. Quest’ultima ha richiesto circa 12 giorni (170 orbite) di osservazioni della stessa area di cielo, senza contare il tempo speso per la pianificazione delle osservazioni, la selezione dei filtri giusti tra i 48 disponibili, e la riduzione dei dati.

Tutte le sorgenti che affollano la Extreme Deep Field – in questa foto – sono galassie, migliaia
di galassie, ciascuna composta da decine o centinaia di miliardi di stelle. Nulla come questa foto rende l’idea delle dimensioni dell’universo in cui viviamo [credit NASA/ESA]

10 dicembre 1996: HST acquisisce la prima immagine risolta diretta di una stella che non sia il Sole: Betelgeuse, una supergigante rossa. Le immagini rivelano delle inattese macchie più calde sulla superficie della stella.

Betelgeuse vista da HST: a sinistra le dimensioni
relative rispetto all’orbita terrestre e di Giove;
a destra la sua posizione in cielo [credit: NASA/ESA]

11-21 febbraio 1997: Service Mission 2. Grazie a cinque EVA (Extravehicular Activity, le “passeggiate spaziali”), due dei vecchi strumenti al piano focale vengono sostituiti con versioni aggiornate. Nel corso della missione, detta STS-82, viene anche completato un gran numero di aggiornamenti all’elettronica ed alla strumentazione di bordo.

19-27 dicembre 1999: Servicing Mission 3A. Nel corso delle 5 EVA vengono sostituiti tutti i giroscopi di bordo, risultati meno affidabili del previsto a causa di un problema inatteso, più varie componenti elettroniche e il computer di bordo, sostituendolo con una versione aggiornata e molto più potente. Ora tutti i dati vengono registrati su memorie a stato solido invece che sugli originali sistemi a nastro magnetico.

27 novembre 2001: esaminando una riga di emissione del sodio, la prima atmosfera di un pianeta extrasolare viene rivelata dopo osservazioni condotte per 4 orbite consecutive. Si tratta del pianeta exrasolare HD 209458 b.

1-12 marzo 2002: Servicing Mission 3B. Gli astronauti della missione Space Shuttle STS-109 installano la nuova Advanced Camera for Surveys (ACS, Camera Avanzata per le panoramiche) che permette al telescopio di riprendere porzioni di cielo più ampie. Inoltre, nel corso delle ormai consuete cinque EVA vengono sostituiti anche i pannelli solari e altri componenti degradati. HST viene infine “trainato” alla quota iniziale da cui era decaduto a causa dell’attrito della residua atmosfera presente.

1 febbraio 2003: lo Space Shuttle Columbia si disintegra durante il rientro nell’atmosfera, portando alla morte dei 7 astronauti a bordo. Ancora una volta tutti i voli in programma vengono rinviati in attesa di capire cosa non ha funzionato. Con essi una già programmata quinta e ultima missione di servizio per l’HST, la Service Mission 4.

La materia oscura è l’anello visibile in questa
mappa della distribuzione di massa dell’ammasso
di Galassie CI 0024+17 [credit: NASA/ESA e Jee]

Agosto 2004: l’alimentazione di backup dello Spettrografo STIS smette di funzionare, rendendo lo strumento inutilizzabile. Il sistema principale si era già guastato precedentemente.

1 dicembre 2005: attraverso alcune osservazioni di distorsioni gravitazionali eseguite con lo strumento ACS a bordo di HST, l’astronomo M. James Jee e i suoi collaboratori ipotizzano la presenza di un anello composto della misteriosa materia oscura intorno all’ammasso di galassie Cl 0024+17.  L’anello ha un diametro di 2,6 milioni di anni luce.

11-24 maggio 2009: Service Mission 4, la quinta e ultima. Dopo il disastro del Columbia del 2003, le missioni Space Shuttle devono usare la ISS come eventuale scialuppa di salvataggio in caso di guasti gravi. Ma l’orbita di HST ha una inclinazione diversa da quella della ISS, quindi l’accesso all’ISS è precluso. Per ovviare a questa difficoltà, un altro Space Shuttle viene tenuto pronto al decollo per una eventuale missione di salvataggio. Durante questa missione comunque tutto va bene: cinque EVA consentono agli astronauti di sostituire la Wide Field Planetary Camera 2 WFC2 con una versione aggiornata, WFC3, i 6 giroscopi, le batterie, oltre a varie componenti elettronici e meccanici guasti o usurati. Il COSTAR installato 16 anni prima per correggere l’aberrazione sferica viene sostituito con il Cosmic Origins Spectrograph (COS), in grado di eseguire spettri su sorgenti lontanissime, sia nel visibile che nell’ultravioletto.

6 dicembre 2011: pubblicato il decimillesimo articolo scientifico basato direttamente sull’analisi di dati raccolti da HST. Si tratta dell’osservazione di una supernova che dimostra la relazione di queste gigantesche esplosioni con il fenomeno dei gamma ray burst.

19 agosto 2015: scadenza della prossima call for proposal, il “concorso” pubblico annuale attraverso il quale viene deciso quali astronomi avranno il diritto di sfruttare il tempo di osservazione ai vari strumenti di HST. Attraverso questi cicli di osservazione – in questo caso il ciclo 23 – chiunque può ottenere del tempo di osservazione su HST per una o più orbite. Tutte le domande ricevute verranno esaminate da un TAC (Time Allocation Committee) formato da una squadra internazionale di astronomi che deciderà, secondo criteri rigorosi,  quali siano le più meritevoli e assegnerà di conseguenza il tempo di osservazione. In genere viene accettato un quinto delle proposte ricevute. Contrariamente a certe semplificazioni cinematografiche, questo è il modo in cui oggi opera quasi ognuno dei grandi osservatori esistenti. Altro punto da ricordare: i dati acquisiti da HST rimangono a disposizione esclusiva del proponente per un anno. Dopo questo periodo, sono a disposizione di chiunque voglia utilizzarli attraverso l’archivio online MAST.

Tutte le osservazioni eseguite da HST in 25 anni [credit: NASA/MAST]

Il futuro di HST

2030-2040: prima o poi, a causa dell’attrito aerodinamico residuo, HST rientrerà nell’atmosfera terrestre disintegrandosi. Con una missione dedicata si potrebbe riportarlo alla quota orbitale iniziale, ma è difficile che ciò accada, in quanto tutte le risorse disponibili sono destinate ormai al James Webb Space Telescope. Questo enorme telescopio, in grave ritardo e assai più costoso del previsto, orbiterà a grande distanza dalla Terra (circa 1,5 milioni di km, nel punto di Lagrange L2), rendendo un’eventuale manutenzione, per il quale non è stato progettato, assai più complicata e rischiosa. La sua vita sarà comunque limitata da alcuni componenti a 10-15 anni. Va inoltre considerato che anche se molto più potente di HST, JWST non sarà un suo vero successore, in quanto lavora a lunghezze d’onda diverse: visibile e vicino infrarosso.

HST rimarrà per questo, in un certo ambito, ineguagliato. Almeno per i prossimi decenni.

Fonti

Lagerstom, J., 2010, IFLA Conf. Proceedings Series
Calcolatore di inflazione: http://www.calculator.net/inflation-calculator.html
NASA: http://history.nasa.gov/hubble/, http://history.msfc.nasa.gov, http://www.nasa.gov, http://hubblesite.org
National Academies Press: http://www.nap.edu
STScIhttp://archive.stsci.edu, http://www.spacetelescope.org, http://hubblesite.org
Allen Report: 1990, http://www.ssl.berkeley.edu/~mlampton/AllenReportHST.pdf
Los Angeles Time: http://articles.latimes.com
http://www.space.com
http://www.swapsale.com

L’ESA ritrova il suo Bracchetto: la sonda Beagle-2, dispersa su Marte nel 2003

L’ESA ritrova il suo Bracchetto: la sonda Beagle-2, dispersa su Marte nel 2003

Figura 1. Beagle-2 come visibile
dall’HiRiSe camera (credit NASA)

L’Agenzia Spaziale Europea (ESA) ha annunciato ieri, 16 gennaio, che la sonda Beagle-2 (beagle in italiano significa “bracco”) è stata ritrovata intatta sul suolo marziano. Beagle-2 venne inviata su Marte nel 2003 ma non se ne seppe più nulla a partire dalla separazione in orbita dalla navicella madre.

Il ritrovamento è opera di un ex collaboratore del progetto, Michael Croon, che dopo scrupolose analisi delle foto raccolte dalla fotocamera ad alta risoluzione HiRISE, aveva notato in una di esse qualcosa che poteva essere proprio la sonda perduta. Beagle-2, con un diametro di circa 2 metri, era al limite della risoluzione dello strumento montato a bordo del Mars Reconnaissance Orbiter (MRO) della NASA. Successive ricerche hanno confermato tuttavia il ritrovamento (figura 1), e hanno consentito di rintracciare anche altri componenti rilasciati durante l’atterraggio (figura 2).

Ma partiamo dall’inizio. L’ente spaziale britannico lanciò nel 2003 da Baikonur un lander, una sonda priva di ruote, che doveva atterrare su Marte per compiere alcune osservazioni. La sonda era assai sofisticata per l’epoca, e faceva parte della missione Mars Express. Il suo nome prendeva spunto da quello della nave a bordo della quale Charles Darwin fece il suo epico viaggio del mondo intorno al 1830. Fu proprio quel viaggio del Beagle a rivoluzionare le nostre conoscenze della vita sulla Terra e a fornire le prove dell’evoluzione. Analogamente, Beagle-2 venne invece pensata per verificare l’eventuale presenza di forme di vita passate e presenti su Marte.

La sonda disponeva di fotocamere stereo, di un microscopio, ed anche di un “trapano”, montato al termine di un lungo braccio meccanico pieghevole, in grado di estrarre campioni dal sottosuolo per eseguire successive analisi in situ.

Figura 2. La sonda Beagle-2, il paracadute (parachute) e il coperchio (rear cover) mostrano
in questa foto variazioni della luminosità con l’ora marziana compatibili con le caratteristiche
dei materiali usati (credit: University of Leicester, Beagle-2, NASA, JPL, University of Arizona).

Dopo essere entrata in orbita marziana, il 19 dicembre 2003 la sonda si separò come previsto dalla navicella madre, Mars Express. Per risparmiare massa e fondi, non era stato previsto l’invio di alcun dato di telemetria alla navicella madre. Sei giorni dopo, esattamente il giorno di Natale del 2003, l’ESA attese quindi un segnale di conferma del suo arrivo sulla superficie di Marte. Purtroppo non accadde nulla.

Diversi radiotelescopi e centri di ascolto, inclusa l’enorme antenna di Jodrell Bank, vennero allora puntati verso Marte, nel tentativo di raccogliere un minimo segnale di “vita” da Beagle-2. Ancora nulla. Dopo qualche mese le ricerche vennero abbandonate, causando grande frustrazione nei circoli scientifici, soprattutto del Regno Unito, dove un consorzio universitario aveva concepito la sonda. Il disastro causò certamente un ripensamento nella politica spaziale britannica, e il suo successore, Beagle-3, non vide mai la luce.

Le ipotesi sulla fine di Beagle-2, in mancanza di alcun dato sensibile, furono molteplici. Il rapporto presentato dalla Commissione di inchiesta all’Agenzia Spaziale Europea (ESA) nel 2004 per chiudere la questione proponeva diversi scenari. Un paracadute che non si era aperto, un problema allo schermo ablativo richiesto durante la discesa nella sottile atmosfera marziana, il mancato funzionamento degli “airbag” prima del contatto col suolo. In molti cercarono senza successo di identificare i resti del lander o il paracadute nelle foto di Marte disponibili allora. Ciò rende ancora più sorprendente il fatto che in realtà, come si sa solo adesso, Beagle-2 era atterrato con successo a soli 5 km dal centro dell’enorme ellisse prevista per l’atterraggio, che aveva una dimensione di 500 per 100 km. Un errore di pochi punti percentuali quindi, che conferma la straordinaria qualità della missione e in particolare delle complesse manovre di EDL (“Entry, Descent and Landing”, o “Ingresso, discesa e atterraggio” in italiano).

Figura 3. Beagle-2 a circa 20 m da
Mars Express, dopo la separazione in orbita.
Questa era l’ultima sua foto circolante, fino
a ieri.

Ma quali furono le cause di quel silenzio radio, visto che, come sappiamo adesso, la sonda sembra essere atterrata intatta? Osservando le foto ad alta risoluzione del lander non si vede molto, ma si capisce che almeno uno dei cinque pannelli solari che dovevano aprirsi dopo l’atterraggio come petali di un fiore non lo fece, coprendo così le antenne ed impedendo qualsiasi comunicazione con l’esterno. Può essere che durante l’atterraggio gli enormi airbag che dovevano attutire l’urto facendolo rimbalzare più volte (una tecnica standard adottata anche per i rover Opportunity e Spirit della NASA, sebbene non per Curiosity) non hanno funzionato a dovere, provocando una leggera deformazione ad uno dei mille meccanismi necessari all’apertura dei pannelli solari. Nessuno potrà dirlo con certezza fino al giorno in cui non si potrà fare della “archeoastronautica” su Marte, un possibile passatempo di futuribili turisti e coloni.

Fig. 4 – Prof. Colin Pillinger accanto alla sua creatura,
Beagle-2. Notare la disposizione “a fiore” dei
pannelli solari e le compatte dimensioni del lander
(credit: STFC, UK).

Ma possiamo anche domandarci se questo ritrovamento sia stato realmente una bella notizia per i progettisti e gli scienziati che hanno collaborato al progetto. Difficile rispondere. Ottenere i finanziamenti per una sonda, progettarla e costruirla arrivando fino al lancio richiede una gigantesca testardaggine e dedizione, e impegna spesso oltre metà della vita professionale di uno scienziato. Per questo un fallimento è particolarmente bruciante in questo campo. Scoprire che tutto andò bene fino a dopo l’atterraggio (uno dei momenti più delicati di ogni missione planetaria), potrebbe risultare assai frustrante per chi vi dedicò anni ed anni di lavoro. Senza contare quello che deve avere provocato a molti riaprire un capitolo mai chiuso della propria vita professionale. Non è facile quindi immaginare le sensazioni che il vedere a tanta distanza di tempo quel minuscolo avamposto dell’intelligenza umana, abbandonato in una piana sedimentaria di un altro pianeta, deve avere suscitato in costoro. Possiamo immaginare qualche telefonata alla ricerca di questo o quel collaboratore del progetto per comunicare l’inattesa notizia, qualche polemica mai sopita riaffacciarsi, qualche meeting e molti rimpianti.

Comunque sia, la realtà è che ce l’avevano quasi fatta, oggi ne abbiamo la prova.
Complimenti sentiti a tutti, quindi. Soprattutto a quel Prof. Colin Pillinger (Figura 4) della Open University di Milton Keynes, UK, leader ed ideatore dell’intero progetto, spentosi circa un anno fa e che quindi non ha mai avuto una risposta alle mille domande che si sarà posto riguardo alla fine misteriosa del suo “bracchetto”.

Paolo G. Calisse, 16 gennaio 2015


Modifiche
18 Gennaio 2015Aggiunta foto e aggiornato il testo in vari punti.

18 Gennaio 2015 – Il Program Manager di Beagle-2, Mark Sims, di Leicester University, ha affermato in un’intervista che il sistema potrebbe essere tuttora funzionante, e addirittura contenere alcuni dati scientifici a bordo: There could still be power going to Beagle 2 and it might still be working and saying ‘I’m here, I’m here, I’m here’. Una prospettiva senz’altro interessante, e chissà che qualcuno non se ne esca con un metodo per cogliere qualche trasmissione dal sistema – magari sotto forma di interferenza elettromagnetica, ora che si sa dove puntare esattamente le antenne…

Rigenerare gli arti, primi passi concreti

Rigenerare gli arti, primi passi concreti

Far ricrescere falangi e muscoli non è più fantascienza

Recentemente Discover Magazine ha pubblicato un articolo affascinante sulla rigenerazione dei tessuti umani che sembra attingere a piene mani alla fantascienza di Doctor Who pur essendo molto reale (anche se alcuni aspetti sono controversi). Ho chiesto a Elena Albertini, whoviana DOC, di raccontarlo per il Disinformatico. L’articolo è stato aggiornato dopo la pubblicazione iniziale. Per favore, leggete l’intero articolo e gli aggiornamenti prima di giudicare.

Si sa che del maiale non si butta via niente, ma da qui a pensare che ci potrebbe trasformare tutti in novelli Jack Harkness o Dottori di Doctor Who ce ne passa. Eppure il maiale è fondamentale per una nuova tecnica di rigenerazione dei tessuti che permetterebbe di ricostruire parti mancanti complesse, come un dito o addirittura un arto completo.

Non si tratta quindi di rigenerare solo un tipo di tessuto, per esempio il tessuto muscolare asportato per un incidente o per un tumore, ma anche ossa, cartilagine e quant’altro. Fantascienza?

Nel 2007 Discovery Channel trasmise un documentario nel quale narrava la storia di un veterano di guerra, Lee Spievack, che aveva perso una porzione della prima falange di un dito, recisagli da una pala di un modellino di aeroplano. Il fratello di Spievack, chirurgo a Boston, gli aveva inviato una polvere “magica”, dicendogli di spargerla sulla ferita, avvolgere la mano con della plastica e applicare la polvere un giorno sì e uno no fino a quando non avesse terminato la quantità che gli aveva mandato. Dopo quattro mesi la falange di Lee si era rigenerata: unghia, osso, muscolo… tutto quanto, come si vede qui accanto. Evito di mostrarvi immagini della falange prima della rigenerazione; le trovate in Rete.

Agli appassionati di fantascienza non può che venire in mente il caro dottor McCoy che con due semplici pastiglie fa ricrescere un rene a una paziente in attesa della dialisi nel film Star Trek IV, oppure la mano amputata al Dottore e rigenerata in pochi minuti nel episodio The Christmas Invasion di Doctor Who, appunto. Eppure non si tratta di fantascienza, ma scienza vera e propria.

Questa “polvere magica” è composta da una parte della vescica di maiale conosciuta come matrice extracellulare o MEC, una sostanza fibrosa che occupa gli spazi tra le cellule. Un tempo si pensava fosse semplicemente materiale che teneva insieme le cellule; ora invece si sa che contiene proteine molto interessanti (laminina, collagene e fibronectina) che possono risvegliare le capacità latenti del corpo di rigenerare i tessuti.

Un altro caso è quello del caporale americano Isais Hernandez. In un’esplosione aveva perduto il 70% del muscolo della coscia destra ed era stato sottoposto a un intervento nel quale una parte di un muscolo della schiena gli era stato trapiantato nella coscia. Il risultato non era affatto soddisfacente, ma era l’unica alternativa all’amputazione.

Sfortunatamente, se buona parte del muscolo di un arto viene rimosso è molto facile perdere completamente la funzionalità dell’arto e le probabilità di rigenerazione del muscolo sono molto remote. Il corpo, infatti, entra in modalità di sopravvivenza e cerca di chiudere la ferita il più in fretta possibile per evitare infezioni, utilizzando tessuto cicatriziale, che però indebolisce l’arto, lasciandolo storpio.

Dopo tre anni di fisioterapia faticosa e dolorosissima, la gamba di Hernandez non presentava miglioramenti di sorta. Si rivolse quindi al dottor Wolf, che inserì nella gamba uno strato sottile della stessa sostanza usata per la “polvere magica”. I risultati furono sorprendenti: il muscolo ricominciò a crescere e dopo sei mesi la forza nella gamba era aumentata dell’80%. Oggi Hernandez ha ritrovato la completa funzionalità della gamba destra.

Adesso la sfida è riprodurre il successo di Hernandez in altri pazienti. Una squadra di scienziati all’Università di Pittsburgh, nel McGowan Institute for Regenerative Medicine, ha iniziato una sperimentazione su ottanta pazienti sottoposti al trattamento con MEC in cinque diversi istituti. Gli scienziati cercheranno di usare il materiale per rigenerare i muscoli di pazienti che hanno perso almeno il 40% della massa muscolare, cosa che solitamente spinge i medici a effettuare amputazioni.

Per molti medici, l’idea di usare parti di maiale per rigenerare tessuti umani è considerato alquanto bizzarra, per usare un eufemismo. Per questo Stephen Badylak, il dottore che scoprì questa tecnica negli anni ’80, fu riluttante a parlarne apertamente per anni. Neanche lui, ammette, credeva ai propri risultati: ora è a capo della sperimentazione al McGowan Insitute.

Già il fatto che tessuti provenienti da un’altra specie non provochino una forte risposta immunitaria nel corpo umano sembra impossibile, ma non basta: questo materiale può trasformarsi in pochi mesi in qualsiasi tipo di tessuto che sia stato danneggiato. Muscolo, pelle o vaso sanguigno.

Quando Badylak pubblicò per la prima volta le proprie scoperte nel 1989, il campo della medicina rigenerativa era inesistente. Oggi gli sforzi più conosciuti in questo settore si concentrano sulla crescita di tessuti al di fuori del corpo umano dentro speciali “bioreattori”. Le tecniche di Badylak, invece, stimolano l’esercito di cellule staminali presenti nel corpo per guarire senza l’uso di strutture esterne.

La scoperta che ha portato a questo approccio inconsueto è nata quasi per caso. Tutto è iniziato con un’idea balzana e un bastardino di nome Rocky. Badylak era rimasto affascinato dalla tecnica sperimentale della cardiomioplastica, che prevede di avvolgere un muscolo, solitamente preso dal dorso del paziente, intorno al cuore e di farlo contrarre attraverso un pacemaker per aiutare il cuore a pompare sangue. Uno dei problemi di questa tecnica è che per sostituire l’aorta viene usato un tubo sintetico che spesso causa infiammazioni ed emboli.

Badylak era convinto che se avesse trovato un sostituto per il vaso sanguigno all’interno del corpo del paziente avrebbe impedito l’insorgere di infiammazioni. Così un pomeriggio, dopo aver sedato un cagnolino di nome Rocky, Badylak procedette ad asportargli l’aorta e a sostituirla con un pezzo del suo intestino tenue. Non pensava che l’animale avrebbe superato la notte, ma perlomeno, se non fosse morto dissanguato, avrebbe dimostrato che l’intestino era abbastanza resistente da farvi scorrere il sangue, cosa che avrebbe permesso ulteriori studi.

Per chi, come me, sta sentendo un brivido gelido dietro la schiena, dico subito che il cagnolino è sopravvissuto e il giorno dopo era in piedi, scodinzolante, in attesa della colazione. Non solo, ma ha vissuto per altri otto anni.

Badylak ripeté la procedura su altri quattordici cani con successo. Sei mesi più tardi operò uno di questi cani per capire come mai erano sopravvissuti. Ed è qui che le cose incominciarono a diventare ancora più strane: Badylak non riuscì a trovare l’intestino trapiantato.

Dopo aver controllato e ricontrollato che fosse l’animale giusto, prelevò un pezzo di tessuto della zona del trapianto e la osservò al microscopio. Rimase allibito. “Stavo guardando qualcosa che non sarebbe dovuto succedere” dice Badylak. “Andava contro tutto quello che mi era stato insegnato.” Poteva vedere i segni delle suture, ma il tessuto intestinale era sparito e al suo posto era ricresciuta l’aorta.

Nessuno confonderebbe mai un intestino con un’aorta; sono tessuti completamente diversi. Dopo aver controllato anche gli altri cani e aver riscontrato gli stessi risultati, incominciò a sospettare che l’intestino fosse in grado di sopprimere le infiammazioni e allo stesso tempo promuovere la rigenerazione dei tessuti.

Si ricordò di una scoperta bizzarra a proposito del fegato: se si ingerisce del veleno che distrugge tutte le cellule del fegato, l’organo si può rigenerare se lo scaffold di supporto, la sua “impalcatura”, rimane intatto. Forse lo scaffold era la chiave.

Il passo successivo fu quindi di togliere gli strati dell’intestino fino ad arrivare a un sottile strato di tessuto connettivo chiamato appunto matrice extracellulare: la magica MEC. Con questo “nuovo” materiale Badylak eseguì altri trapianti con successo. Provò allora a utilizzare la MEC proveniente dall’intestino di un gatto e trapiantarlo in un cane, certo che quest’ultimo lo avrebbe rigettato, non certo solo per la nota antipatia tra le due razze. E invece, ancora una volta, con sua grande sorpresa, non ci fu alcun rigetto.

Rendendosi conto che avrebbe dovuto utilizzare un bel po’ di intestino tenue per i suoi esperimenti, decise di rivolgersi a uno dei tanti macelli di maiali presenti in Indiana. Oltre all’intestino tenue incominciò a usare anche la vescica, che offriva le stesse caratteristiche. I suoi esperimenti continuarono, passando dalle arterie principali alle vene e alle arterie secondarie fino alla rigenerazione del tendine d’Achille. Grazie a quest’ultima scoperta, la società DePuy di Warsaw, in Indiana, sovvenzionò ulteriori ricerche nel campo ortopedico; con il suo aiuto, nel 1999 la FDA (Agenzia per gli alimenti e i medicinali degli Stati Uniti) ne approvò l’utilizzo sugli esseri umani.

I chirurghi incominciarono quindi a utilizzare la MEC per riparare la cuffia dei rotatori della spalla, le ernie addominali e i danni da reflusso esofageo e per la ricrescita delle meningi del cervello. Ma fu solo grazie al chirurgo John Itamura che Badylak scoprì finalmente il vero punto di forza della MEC.

Itamura aveva impiantato uno scaffold di MEC nella spalla di un paziente, che otto settimane più tardi era tornato per un’altra operazione che non aveva alcun collegamento con quella precedente. Questo permise al dottore di ottenere un raro campione umano prelevato dalla zona d’intervento alla spalla. La biopsia mostrò che lo scaffold era sparito, come ci si aspettava, ma c’era una sorpresa: al microscopio si poteva vedere che la zona dell’operazione pullulava di attività. Non si trattava di una reazione infiammatoria anche se vi assomigliava molto. In realtà, con la scomparsa dello scaffold erano state rilasciate delle molecole chiamate peptidi criptici, che potrebbero spiegare il fenomeno particolare della MEC.

Queste molecole hanno un ruolo di reclutamento delle cellule, e ben presto Badylak capì che a essere reclutate erano le cellule staminali, quelle che possono trasformarsi in qualsiasi tipo di tessuto.

Siamo quindi a una svolta che ha dell’incredibile: poter rigenerare i tessuti danneggiati o distrutti. Ma la ricerca non si ferma qui. Lo staff di Badylak adesso sta lavorando alla possibilità di far ricrescere gli arti di un mammifero, come se fosse una salamandra, in una sorta di manica con una riserva di liquido che avviluppa un dito amputato di un topo e permette ai ricercatori di controllare l’ambiente di guarigione. Aggiungendo fattori di crescita come acqua e fluido amniotico e variando la corrente elettrica si ricreano le condizioni che esistono in un embrione umano: un ambiente perfetto per aiutare la trasformazione delle cellule staminali nei vari tessuti che compongono un corpo.

L’idea di ricreare un ambiente embrionale alla fine di un arto di un mammifero per farlo ricrescere è considerata troppo fantascientifica da molti critici. Il progetto è ancora senza fondi, ma Badylak non si dà certo per vinto.

Ancora una volta la scienza raggiunge la fantascienza, e se in un prossimo futuro oltre a far ricrescere i muscoli in braccia e gambe per evitare l’amputazione sarà anche possibile rigenerare l’arto completo allora potremmo avvicinarci sempre di più al sogno dell’eterna giovinezza e forse anche dell’immortalità. Ma proprio Torchwood, in Miracle Day, insegna che l’immortalità generalizzata sarebbe una catastrofe sociale più che una benedizione.

Aggiornamenti

Ben Goldacre, medico e noto debunker, è molto scettico sulla storia della falange ricresciuta. La sua indagine su questo aspetto, pubblicata dal Guardian nel 2008, si concentra principalmente sulle esagerazioni pubblicate dai media, secondo i quali sarebbe ricresciuto l’intero dito di Lee Spievack. In realtà la parte mozzata misurerebbe circa un centimetro e il letto dell’unghia sarebbe rimasto intatto, e a volte lesioni di questo genere si riparano bene anche da sole. Goldacre ne parla anche qui su Badscience.net; i commenti contengono moltissime considerazioni e link interessanti.

Ho trovato varie pubblicazioni scientifiche di Badylak sull’argomento: The extracellular matrix as a scaffold for tissue reconstruction (2002), Vascular Endothelial Growth Factor in Porcine-Derived Extracellular Matrix (2001); molti altri si trovano tramite Google Scholar cercando il nome dell’autore insieme alle parole “porcine” ed “extracellular matrix”. Il suo esperimento sui cani sembra essere quello descritto in Small intestinal submucosa as a large diameter vascular graft in the dog (1988). L’articolo di Discover Magazine cita anche una pubblicazione di Badylak del 2011 nella quale si descrive la rigenerazione di parti dell’esofago.

A prescindere dal singolo caso, il concetto di rigenerazione come terapia non è fantascienza: un rapporto stilato dall’NIH statunitense nel 2006 fa il punto sull’argomento; Scientific American ha dedicato un intero numero allo stato dell’arte. Ma come sempre, asserzioni straordinarie richiedono prove straordinarie. –– Paolo