Pour SpaceX le lancement du Starship du 20 avril est un demi-succès

Les spectateurs retenaient leur souffle et quand, au décompte T+0, la fusée s’est élancée, on y a cru. L’espoir a duré 02:40 minutes car, juste avant la séparation du lanceur SuperHeavy d’avec le vaisseau spatial Starship qui devait intervenir à T+3 m, on a vu que quelques chose n’allait pas. L’ensemble a commencé à faseiller, puis, déstabilisé, il a perdu sa direction, a perdu de l’altitude et a explosé. On était à T+4 m.

Voir en fin d’article, une mise à jour du 22 avril.

C’est évidemment une déception mais Elon Musk nous avait prévenu, il n’y avait que 50% de chances que le lancement réussisse. Par ailleurs SpaceX avait également déclaré que le but était de recueillir autant de données qu’il était possible avec ce premier lancement d’un Starship pleinement intégré (vaisseau ET lanceur).

Il est vrai que le lanceur SuperHeavy n’avait jamais volé. Une seule mise à feu statique avait pu être accomplie avec succès (31 moteurs sur 33) le 11 février de cette année. On peut dire que non seulement la seconde mise à feu (celle de ce jour) a été satisfaisante pour l’allumage mais qu’elle a bien réussi à conduire le vaisseau presqu’à l’altitude de la séparation (34 km d’altitude, 1950 km/h). A ce moment 28 moteurs Raptors sur 33 fonctionnaient, ce qui n’est pas mal du tout. D’autant qu’on peut constater que les 5 qui n’ont pas fonctionné n’ont ni explosé ni empêché de les autres de fonctionner (2 seulement étaient contigus).

C’est donc quand même un succès d’autant que ce test correspond à la manière de progresser d’Elon Musk, ne pas attendre que tout soit théoriquement parfait mais tenter tout ce qu’il est possible de faire dès qu’il est possible de le faire afin d’apprendre de son échec et corriger les défauts ou les faiblesses si l’on constate que l’on s’est engagé dans une mauvaise voie. C’est exactement ce qu’il a fait avec le vaisseau Starship seul puisque ce n’est qu’avec le SN 15 (Serial Number 15) que le vol a été concluant (il n’a pas explosé en revenant se poser au sol).

Il ne faut donc pas désespérer du vol S24/B7 (S pour le vaisseau, B pour le lanceur, « booster »). D’autant qu’une autre grosse étape a été passée avec succès, l’autorisation de voler donnée par la FAA (Federal Aviation Administration). Les complications administratives générées par cette administration ont été en effet à l’origine de plusieurs mois d’attente et de 75 mesures préventives à satisfaire avant la mise à feu. Les 75 mesures sont un catalogue de contraintes écologiques plus ou moins justifiées (mais certainement si l’on se place au niveau d’un écologisme ambiant absolument délirant). On peut en déduire que puisque le vol S24/B27 s’est terminé sans dommage pour l’environnement, la FAA ne va pas durcir sa position et que le prochain test orbital aura lieu plus rapidement. On a pu en effet constater par le passé qu’Elon Musk a réagi très vite. Je ne serais pas étonné que dès ce soir, réunis à Starbase (Boca Chica, Texas) on analyse les données et on commence à en discuter. Elon Musk dort très peu et les personnes qui travaillent avec lui n’ont pas beaucoup le choix de faire autrement, d’ailleurs ils s’intéressent à ce qu’ils font et sont bien payés pour cela.

On peut douter qu’un jour les vols de Starship deviennent une routine. On aurait tort. Souvenez-vous des premiers vols d’aéroplane, des premiers km des trains et des balbutiements de l’automobile. Rien n’était certain et on considérait les pratiquants comme de dangereux baroudeurs. Certes l’explosion d’une fusée est plus spectaculaire que l’éclatement au sol de la carcasse d’un avion ou le déraillement d’un train de la belle époque. Cela s’explique aisément par l’énergie déchainée pour faire voler une fusée, qui plus est une fusée de la masse d’un Starship (4500 tonnes avec un poussée qui doit être de quelques 5500 tonnes et 1200 tonnes d’ergols). Il faut penser qu’avec beaucoup d’essais, d’échecs donc de progrès, l’époque des pionniers paraitra bientôt comme une époque fantastique, dangereuse, mais révolue, un peu comme le vol de Gagarine quand on le considère aujourd’hui.

Sur le fond j’ai réentendu de la bouche de la présentatrice de SpaceX que le but du Starship était plus que jamais de faire de l’humanité une espèce multiplanétaire. Quoi qu’on puisse dire par ailleurs, c’est cela l’objet du Starship. Elon veut aller sur Mars pour y établir une présence humaine durable, ce qu’on appelait avant le wokisme, une « colonie ». Les autres vols seront faits pour rendre accessible le coût du voyage vers Mars. C’est pour cela qu’il y aura Starlink (hélas ! pour la pollution que cela va occasionner) et les vols sur la Lune dans le cadre du programme Artemis. Seul un vaisseau offrant un volume viabilisable et utilisable capable de transporter des dizaines de passagers ou 100 tonnes d’équipements sur Mars, permettra la réalisation de ce rêve et aussi de revenir sur Terre si l’on en a envie. Et pour sûr la plupart des passagers voudront revenir sur Terre, surtout au début de l’Aventure.

Nous venons de faire un premier pas. On to Mars !

Illustration de titre: capture d’écran émission SpaceX dédiée. Nous sommes encore à “0km” mais le décollage a eu lieu. Ce sont les premiers mètres qui sont les plus durs car c’est à ce moment que le vaisseau est le plus lourd et que, par définition, il n’a aucune vitesse acquise.

PS: mise à jour du 22 avril

On dit de plus en plus que le non fonctionnement de quelques moteurs s’expliquent par la destruction de la table de lancement lors de l’impulsion de départ. Des blocs de béton et de métal aurait été projetés dans toutes les directions et certains auraient heurté des moteurs les rendant inutilisables. Ensuite le lanceur SuperHeavy a manqué de puissance pour monter jusqu’à l’altitude prévue pour la séparation d’avec le Starship-vaisseau.

Elon Musk ajoute qu’une plaque en acier très épaisse était prévue pour recevoir la flamme au fond de la table de lancement mais que cette plaque n’avait pu être livrée à temps. Il a quand même voulu faire le test le 20 avril car il y avait d’autres observations à faire dans le comportement de la fusée. Lors du prochain lancement, dans deux ou trois mois, il y aura bien cette plaque de métal (et peut-être quelques ajustements à l’architecture de la plateforme de lancement).

JUICE, mission majeure de l’ESA vers les lunes de Jupiter, a été lancée ce 14 Avril

Ça y est, elle est partie ! La mission JUICE de l’ESA a quitté la Terre ce vendredi 14 avril de la base de Kourou en Guyane pour le monde de Jupiter (le nom derrière l’acronyme est « JUpiter ICy moons Explorer »)*.C’est, pour l’Europe, l’événement astronautique de l’année. L’objet de la mission est de chercher à savoir jusqu’à quel niveau de complexification vers la vie ont pu mener les « astres-océan » que sont Europa, Ganymède et Callisto**, les plus grosses lunes de la « géante gazeuse » qu’est Jupiter. La mission sur place durera quatre ans, le vaisseau passant de l’orbite de l’une à l’orbite de l’autre. Mais il lui faudra malheureusement cheminer huit années pour parvenir dans l’environnement jovien qui n’évolue pourtant que de 590 à 966 millions de km de la Terre (Mars, de 56 à 400 millions).

*Voir les détails du déroulé du lancement en fin d’article.

**vous remarquerez que Io n’est pas dans les objectifs de JUICE. Il n’y a pas d’océan sous la croûte d’Io, trop proche de Jupiter, et son environnement radiatif, résultant de cette proximité, est trop perturbateur pour être supporté sans dommage trop longtemps. Cette même situation requerrait également trop d’énergie pour s’en éloigner après s’y être satellisée.

C’est en 2004 que tout a commencé, quand l’ESA a entrepris de consulter la communauté scientifique des pays membres pour choisir l’orientation de son futur programme « Cosmic Vision 2015-2025 » (sur des thèmes extrêmement vagues ou complétement ouverts selon le point de vue). L’ESA a ensuite, en 2007, lancé un « appel à missions » pour déterminer quelle devrait être la mission majeure (de classe « L ») de ce programme. En 2012, trois propositions ont été retenues pour étude plus approfondie (phase de « définition ») : JUICE, NGO et ATHENA. Finalement JUICE a été choisie et les deux autres ont été reportées. ATHENA (Advanced Telescope for High Energy Astrophysics) qui doit étudier avec un capteur à rayon X l’accumulation de la matière dans les galaxies ainsi que la formation et l’évolution des trous noirs, pourrait faire l’objet d’une seconde mission « L » mais, telle que prévue, elle coûte trop cher et elle a été remise à l’étude en 2022. NGO (New Gravitational wave Observatory), dédiée à l’étude des ondes gravitationnelles (adaptation de LISA) reste « en suspens ». Tout ça pour dire que la progression des projets se fait très lentement au milieu de beaucoup de concurrence, de beaucoup de bavardages et de beaucoup de précautions, notamment financières, au-delà même du raisonnable (je ne dis pas qu’une bonne définition est évidemment indispensable). L’explication est sans doute à rechercher dans le nombre des intervenants et le poids des administrations.

Ceci dit l’étude des mondes de Jupiter est passionnante et elle est tout à fait faisable sur le plan astronautique. Sur le plan scientifique les équipements d’observation embarqués nous font espérer une moisson magnifique de connaissances nouvelles.

Sur le plan astronautique, c’est une fusée Ariane 5-ECA d’Arianespace, qui a effectué le lancement d’aujourd’hui. La version « ECA » est la plus puissante de la gamme de ces lanceurs. Elle permet de placer 21 tonnes en orbite basse terrestre et 10,5 tonnes en orbite géostationnaire. Sur trajectoire interplanétaire c’est environ moitié moins. En l’occurrence cela a suffi mais de justesse pour la masse à injecter qui était de 5,2 tonnes (dont 285 kg d’instruments scientifiques). C’est cette version d’Ariane qui a lancé le télescope JWST vers le point de Lagrange L2 le 25 décembre 2021. JUICE était son 84ème et avant-dernier lancement (il aurait été impardonnable de le rater !).

Le problème, comme évoqué en introduction, c’est la durée du voyage (pour ceux qui, comme moi, attendent avec impatience les données). Les missions précédentes ont été nettement plus rapides. Galileo, lancé par la navette-spatiale de la NASA, arriva dans l’environnement de Jupiter en 6 ans ; Cassini, lancé par un Titan-IVB de Martin Marietta y parvint en 3ans (et de Saturne en 6 ans) ; Juno, lancé par un Atlas V 551 de Lockheed Martin y parvint en 3 ans. Huit ans pour JUICE c’est donc vraiment beaucoup. L’explication est que la masse de la sonde ne permettait pas d’aller plus vite. Par ailleurs, on a voulu économiser au maximum les ergols pour le voyage puisqu’on aura besoin une fois arrivé « sur place », d’une quantité supérieure aux précédentes missions pour circuler d’une lune à l’autre (35 survols prévus !).

Pour réduire au maximum cette consommation on a prévu d’y substituer au maximum de l’énergie « naturelle », celle qu’on peut obtenir par assistance gravitationnelle (dans un sens positif d’accélération qu’on appelle l’effet de fronde). C’est une opération délicate car il faut s’approcher de l’astre (tomber vers lui) pour bénéficier de la force de son attraction qui va augmenter la vitesse, suffisamment mais pas trop pour qu’elle corresponde exactement à l’ellipse que l’on souhaite parcourir pour parvenir au mieux à l’astre suivant. Le moment de la libération permettra de réorienter la fusée.

Dans le cas de cette mission, l’assistance gravitationnelle suivra un programme « EVEE ». Cela veut dire que la propulsion chimique sera complétée par les impulsions gravitationnelles successives de la Terre (E), de Vénus (V) puis deux fois de la Terre (EE). La première manœuvre aura lieu en aout 2024 en utilisant le système Terre/Lune.

Quoi qu’il en soit du voyage, les objectifs sont passionnants. Il s’agit d’abord d’étudier les zones habitables de Ganymède (comme « objet planétaire et habitat potentiel »), Europa (en insistant sur les zones les plus récemment actives) et Callisto (comme témoin du système le plus ancien de Jupiter), les trois lunes abritant un océan sous une carapace de glace. Il est notable que le fond de ces océans soit constitué de roches, ce qui doit permettre sous l’effet de l’énergie tellurique, imprégnations, enrichissements, évolutions des molécules organiques qu’ils peuvent contenir. On veut en même temps explorer le système de Jupiter comme archétype des systèmes de planètes géantes gazeuses (leur atmosphère, leur magnétosphère et leur système de satellites et d’anneaux). Ce sera en fait la suite de la mission JUNO de la NASA (2016-2021-2025).

Ganymède va être étudié par de nombreux survols à basse altitude. C’est un satellite particulièrement intéressant du fait non seulement de son océan sous surface mais aussi de sa magnétosphère, le seul satellite du système solaire à en générer une, et de sa taille puisque c’est le plus gros des satellites du système solaire avec un diamètre de 5.268 km (plus que Titan, D = 5.149 km ; mais nettement moins que Mars, D = 6.779 km et beaucoup plus que notre Lune, D = 3.475 km). JUICE devrait terminer sa course en s’écrasant sur Ganymède (l’occasion de transmettre un supplément d’informations). Jusqu’à la fin, l’altitude minimum des survols sera de 500 km (pour référence, L’ISS orbite la Terre à environ 400 km).

Europa, bien connue pour sa surface de glace blanche (mais un peu sale, ce qui précisément nous intéresse) et réfléchissante, va être scrutée dans les régions où les rejets d’eau et de matière souterraines (le « sale » ci-dessus) de nombreuses fissures apparaissent les plus récents et l’on va essayer ainsi de déterminer la composition chimique des matériaux autres que la glace, tout en analysant aussi précisément que possible leurs processus de remontée en surface. L’altitude minimum sera de 400 km.

Callisto (la deuxième en taille avec D = 4820 km) est une lune particulière en ce qu’elle est la plus éloignée de Jupiter et de beaucoup, puisque son orbite est à 1.882.700 km de Jupiter (notre Lune est à 385.000 km de la Terre) alors que la deuxième, Ganymède, évolue à 1.070.000 km. Elle a donc été beaucoup moins transformée par Jupiter que les autres, par force de marée (ou par radiations), comme en témoigne d’ailleurs sa surface extrêmement cratérisée (qui est aussi une indication sur l’épaisseur de la croûte recouvrant son océan interne). Elle peut donner de ce fait des informations sur la période la plus ancienne du système jovien et servir de référence pour comparaison avec Ganymède.  Le survol le plus bas sera effectué à seulement 200 km (à noter que plus un passage est bas, plus la vitesse est grande, autrement la sonde s’écrase) !

Pour exploiter ces différents passages à basse altitude, la sonde sera équipée d’un grand nombre d’équipements, pertinents et à la pointe de ce que l’on sait faire aujourd’hui : Imaging system (JANUS), Visible-IR Imaging spectrometer (MAJIS), UV Spectrograph (UVS), Sub Millimeter Wave Instrument (SWI), JUICE Magnetometer (J-MAG), Radio and Plasma Wave Instrument (RPWI), Particle Environmental Package (PEP), Laser Altimeter (GALA), Ice Penetrating Radar (RIME), Radio Science Experiment (3GM), VLBI Experiment (PRIDE). Je les évoque ci-dessous :

Janus va nous fournir des cartes géologiques détaillées à haute résolution et imagées avec les altitudes (DTM) et donner le contexte des autres données observées. Il opérera dans les longueurs d’ondes du spectre visible et du proche infra-rouge. Il bénéficie du know-how des caméras des missions Bepi-Colombo, Dawn, Rosetta et Mars Express. MAJIS va ajouter une dimension spectrométrique à l’image, avec une précision jamais atteinte (1280 bandes spectrales dans le segment 0,4 µm à 5,7 µm, soit de l’IR moyen à l’IR profond). Mais pour analyser les différentes atmosphères et leurs interactions avec l’espace, JUICE sera aussi équipée d’un spectromètre, UVS, opérant de l’autre côté du visible, dans l’ultraviolet (55 à 210 nm, UV lointain et UV extrême). Dans l’atmosphère de Jupiter, SWI mesurera et dressera la carte des températures et des vents Doppler (verticaux) ; il étudiera les molécules CO, HS, HCN, H2O, présentes dans la stratosphère de cette planète géante. Il caractérisera les atmosphères ténues des lunes galiléennes. Il mesurera également les propriétés thermophysiques et électriques des surfaces et sous-sol de ces mêmes astres et les corrèlera avec leurs propriétés atmosphériques et les traits géographiques. Le magnétomètre J-MAG permettra de mieux comprendre la formation des lunes, de caractériser leurs océans souterrains (profondeur, étendue, conductivité), et permettra d’étudier le comportement d’un astre magnétisé en rotation rapide comme Jupiter, et la façon dont il accélère les particules qu’il émet. Il permettra aussi de caractériser la petite magnétosphère de Ganymède. En surface d’Europa, il pourra détecter et caractériser d’éventuels dégazages. RPWI disposera de sondes de Langmuir qui lui permettront de mesurer la température, la densité électronique et le potentiel du plasma circulant entre Jupiter et ses lunes et en particulier de mesurer comment les océans des satellites et les ionosphères réagissent aux variations très fortes de la magnétosphère de Jupiter. Le PEP permettra la mesure et l’imagerie des densités et des mouvements des particules énergétiques neutres (ENA) et du plasma dans tout le système de Jupiter (NB : les particules peuvent atteindre une énergie se mesurant en plusieurs MeV). GALA est spécifique à Ganymède. Il va mesurer l’effet de marée exercé par Jupiter sur cette dernière et déduira des déformations de la croûte, l’épaisseur de celle-ci et l’importance du volume de l’océan sous-jacent. Le rôle de RIME (Radar for Icy Moon Exploration) s’explique de lui-même. Il concerne au premier chef Europa. Compte tenu de ses caractéristiques visibles et de sa position dans le système de Jupiter (chaleur interne par effet de marée), cette lune est la meilleure candidate pour disposer de l’océan capable de faire évoluer les molécules organiques au plus loin vers la vie. RIME est la continuation des radars MARSIS et SHARAD opérant en orbite autour de Mars. Il aura une pénétration allant jusqu’à 9 km. C’est nettement moins que l’épaisseur de la banquise d’Europa qui peut faire entre 80 et 170 km mais cela donnera une vision en 3D de cette banquise (et ce qu’il conviendrait de faire si l’on veut commencer à la sonder). 3GM étudiera tous les effets que peut avoir la gravité dans le système de Jupiter : effet de la planète sur ses lunes, effets des lunes entre elles. PRIDE étudiera tout ce qui peut être mesuré par effet Doppler à l’intérieur du système de Jupiter et de ce système vers les autres astres du système solaire, par la mesure précise des positions et déplacements du vaisseau spatial sur le cadre de référence ICRF (International Celestial Reference Frame). Enfin les organisateurs de la mission ont insisté sur la coordination et la synergie des différents instruments embarqués (« Synergistic payload capabilities ») ce qui est judicieux pour un ensemble aussi riche.

Cet orchestre absolument magnifique (on peut en effet comparer ces instruments scientifiques embarqués à des instruments de musique joués en harmonie du fait de la coordination et de la synergie ci-dessus mentionnées) doit nous permettre d’avancer considérablement dans la compréhension du système de Jupiter. On se rend bien compte qu’animé par un cœur violent, la redoutable planète-reine elle-même, c’est un milieu très hostile de par son environnement radiatif. Mais « la nature est bien faite » ; la vie, si elle existait dans les océans souterrains, bénéficierait d’une protection contre ces forces destructrices du fait de la présence d’une carapace de glace (et d’ailleurs ces océans n’existeraient pas sans ces carapaces) et de la chaleur interne des lunes stimulée par les forces de marée générées par la masse de Jupiter. On peut toujours espérer.

L’énergie à bord est fournie par 85 m2 de panneaux solaires. Les corrections d’attitudes et les impulsions pour changer de direction (principalement insertion en orbite de Jupiter puis insertion en orbite de Ganymède) seront faites grâce à 3650 kg d’ergols (mono-méthil hydrazine – MMH – brûlant dans un mélange d’oxydes d’azote – MON). Poussée maximum 425 Newton.

Les participants scientifiques (« JUICE Science Working Team ») à cette mission sont évidemment très nombreux. Ils sont ressortissants de plusieurs pays membres de l’ESA : l’Allemagne, l’Italie, la France, la Grande Bretagne, la Suède, la Suisse, les Pays-Bas, la Belgique mais aussi des Etats-Unis et Israël.

Le décollage a eu lieu le 14 avril à l’heure prévue, 14h15 (avec un jour de retard compte tenu du temps orageux le 13 avril). Les deux boosters latéraux se sont détachés à 14h18. La coiffe protégeant la sonde s’est ouverte et a été évacuée à 14h20. La séparation du premier étage s’est faite à 14h22. L’allumage du second étage a eu lieu à 14h24. La séparation de la sonde et du second étage a eu lieu à 14h42. L’acquisition du signal radio a eu lieu à 15h05. Le déploiement des panneaux solaires a eu lieu à 15h50. Comme on dit en Franglais « All is nominal ! »

Le moment le plus délicat de la mission, après le décollage et après les multiples recherches d’assistance gravitationnelle sera l’insertion en orbite de Jupiter mais malheureusement nous n’en sommes pas encore là.

Au-delà, en m’éloignant de la science jusqu’aux rives de la science-fiction, je ne peux m’empêcher de me souvenir que c’est dans ce cadre grandiose qu’évoluait l’un des monolithes-relais de l’épopée 2001 Odyssée de l’Espace conçue par l’esprit fertile d’Arthur Clarke et merveilleusement mis en images et en musique par le génial Stanley Kubrick. JUICE rencontrera-t-elle un Monolithe ? Ce serait bien sûr une révolution pour nous, l’ouverture d’une porte splendide vers l’infini et vers la vie ailleurs. On peut toujours rêver.

Illustration de titre : Les quatre plus grosses lunes de Jupiter, de gauche à droite : Io, Europe, Ganymède, Callisto. Crédit ESA. Les proportions ainsi que l’ordre en distance à la planète sont respectées, la plus chaude et la plus « tourmentée » par sa proximité avec Jupiter, étant la volcanique Io couverte de souffre.

https://sci.esa.int/documents/33960/35865/1567260128466-JUICE_Red_Book_i1.0.pdf

https://www.esa.int/Science_Exploration/Space_Science/Juice

https://www.cosmos.esa.int/web/juice

https://www.esa.int/Space_in_Member_States/Belgium_-_Francais/JUICE_prochaine_grande_mission_scientifique_de_l_Europe

https://saf-astronomie.fr/la_mission_juice_esa/

https://sci.esa.int/documents/33960/35865/1567260193381-ESA_SPC%282012%2920_rev.-1_JUICE_SMP.pdf

https://fr.wikipedia.org/wiki/Jupiter_Icy_Moons_Explorer

https://fr.wikipedia.org/wiki/Juno_(sonde_spatiale)

https://www.space.com/why-take-juice-spacecraft-eight-years-reach-jupiter

De la Poussière à l’Homme

Au commencement était un nuage, un gigantesque nuage de gaz moléculaire et d’un peu de poussière, d’une centaine d’années-lumière en étendue et de deux ou trois soleils en masse, comme il en existe partout dans l’Espace, matériau léger et froid provenant des origines mêmes de l’Univers, enrichi au cours du temps de quelques parties d’éléments lourds, « métalliques », forgés au cœur des étoiles-massives et libérés après leur mort.

« Un jour », comme l’ont théorisé Emmanuel Swedenborg (1734), Emmanuel Kant (1755) puis Pierre-Simon Laplace (1796), cette énorme masse immobile et passive fut animée par un événement extérieur fortuit, le passage d’une étoile proche ou l’explosion en supernova d’une étoile-massive qui ayant généré un vent puissant, souffla le nuage en l’enrichissant aussi d’un peu plus de matière. Le seuil critique de densité était atteint pour que la force de gravité intrinsèque à toute matière commence à faire son œuvre, que la concentration du nuage à peine esquissée se développe et s’auto-accentue et qu’un disque d’accrétion en rotation résultant de l’accélération de la rotation pendant la contraction, se forme autour des parties les plus denses et s’y réchauffe du fait de cette densité.

Le processus étant enclenché, rien ne pouvait plus l’arrêter. C’est au centre du disque que la densité était naturellement la plus forte et la température la plus élevée. Et c’est là qu’assez rapidement (une centaine de millions d’années) un astre ou deux devaient se former comme un enfant dans le ventre de sa mère. La masse seule devait déterminer leur puissance, c’est-à-dire leur capacité à générer une fusion nucléaire de l’hydrogène vers l’hélium plus ou moins importante. Pour notre système ce fut une « naine-jaune », c’est-à-dire une étoile de puissance moyenne (type spectral « GV ») et de durée de vie assez commune, soit quelques 10 milliards d’années…et sans doute un ou deux frères du Soleil dont nous ne savons rien sinon qu’ils sont probables et qu’ils ont dû partir vivre leur vie en fonction de leur masse, de l’influence des masses voisines et de leur vitesse propre autour du Centre galactique.

Aussitôt le feu allumé par la fusion, le Soleil, car c’était lui un des “happy few” qui naissaient, rayonna ; c’est-à-dire qu’il projeta au sein de sa sphère d’influence des particules résultant de son activité interne et rejeta au-delà de son environnement le plus proche les nuages de matière qu’ils n’avaient pas absorbés et en particulier les volatils, dont l’eau sous forme de cristaux. Celle-ci fut repoussée au-delà d’une certaine limite qu’on appellera la « Ligne de glace », située aujourd’hui au milieu de la Ceinture d’Astéroïdes.

Mais le Soleil n’avait pas épuisé la matière de son disque, même s’il en constituait et de loin, la plus grande partie, soit 99,86%. Ce disque continuait à tourner car une fois le processus de concentration du nuage initié, il ne pouvait s’arrêter puisque porteur de l’énergie cinétique liée à l’effondrement de ce même nuage dont il était issu. A l’intérieur, la matière, du fait de la diversité de son mixte de constituants en fonction de sa distance au jeune Soleil et de la vitesse générée par la gravité, ne pouvait y être homogène. Des tourbillons se formaient, des chocs multiples intervenaient, des attractions gravitationnelles de plus en plus puissantes s’exprimaient en fonction des masses en présence et de la distance à l’Astre central, tout ceci dans un « joyeux désordre » apparent mais toujours selon les lois universelles de la Physique (Lois de Kepler et de Newton).

C’est à plus grande distance du Soleil, au-delà de la Ligne de glace, par nettoyage et absorption de la quasi-totalité de la masse de leur environnement et notamment de leur orbite, que se formèrent d’abord les plus grosses planètes, les « géantes gazeuses », Jupiter, Saturne, Neptune, Uranus et peut-être la fabuleuse « Planète-9 » située entre Saturne et Neptune, car non seulement elles disposaient de la matière solide mais aussi des volatils à l’origine présents partout mais rejetés par le jeune Soleil au-delà de cette Ligne. En deçà de la Ligne, les masses étaient par définition sèches, sans eau libre (ce qui n’exclut pas l’eau chimiquement captive). C’est là que se formèrent ensuite les planètes telluriques, Mars, la Terre, Vénus, Mercure. C’était il y a quelques 4,6 milliards d’années.

Les étapes furent multiples. L’accrétion n’est pas quelque chose de simple dans un milieu occupé par d’innombrables masses différentes. Les plus grosses absorbent les plus petites à leur proximité mais en même temps elles se déplacent vers leur centre commun de gravité, leur barycentre. Certains chocs font éclater des astres déjà gros et les centres d’accrétion peuvent se recomposer différemment après impact et éjections. Enfin des zones entières peuvent être soumises à des forces gravitationnelles contradictoires qui empêchent ou limitent toute centralisation. C’est ainsi que la Ceinture d’Astéroïde se forma à distance respectable mais insuffisante de Jupiter et de Mars de telle sorte qu’elle ne put se concentrer en planète. Avant les planètes qui purent se former et après l’époque des astéroïdes, il y eut l’époque des planétoïdes. Certains fusionnèrent pour former ces planètes qui libérèrent de matière leur orbite. D’autres ne purent aller jusqu’au bout de cette évolution, ce sont aujourd’hui les planètes-naines (dans la Ceinture d’Astéroïdes ou la Ceinture de Kuiper, comme Cérés, Pluton ou Eris) et les gros astéroïdes.

Enfin la stabilisation fut longue et difficile. On pense ainsi (Alessandro Morbidelli, « le Grand Tack ») que Jupiter, après avoir concentré l’essentiel de la matière de sa zone mais toujours attiré par la matière voisine qui restait très abondante, « entreprit » de descendre vers la Ceinture d’Astéroïdes, région qui, vers le Soleil lui était la plus proche et où la matière était encore très diffuse. Jupiter entraîna sa voisine, Saturne, en amorçant sa descente et ce ne fut que lorsqu’une certaine résonnance fut établie entre les deux (trois rotations de Jupiter pour deux de Saturne) que les deux astres purent revenir de concert vers leur lieu de naissance. A l’aller et au retour elles capturèrent une bonne partie de la matière initiale de la Ceinture d’Astéroïdes et « chamboulèrent » le reste, remettant des corps glacés en deçà de la Ligne de glace toujours à l’intérieur de la Ceinture, ce à quoi le Soleil, un peu calmé de ses ardeurs juvéniles, ne put s’opposer. Quand les perturbations étaient trop violentes ces petits corps glacés étaient projetés en dehors de la Ceinture, soit vers le système planétaire externe soit vers le système planétaire interne et donc la Terre. Mais, comme dans toute manœuvre de ce genre, il y eut des excès ; c’est-à-dire des effets d’inertie ou de balancier. Jupiter descendit très bas vers le Soleil, jusque dans le domaine de Mars et captura beaucoup de matière à cette distance du Soleil, ce qui n’en laissa pas suffisamment à la future Mars pour devenir aussi massive que la Terre ou Vénus. Dans l’autre direction, après rebroussement, le retour du couple emporta Saturne bien au-delà du berceau de sa naissance. Neptune fut de ce fait éjecté au-delà d’Uranus et l’axe de rotation d’Uranus fut complètement perturbé (rotation rétrograde, sur un axe incliné de 97,7° sur l’écliptique). Certains pensent même qu’une autre géante gazeuse, qui s’était formée à distance respectable de l’orbite initiale de Saturne, fut, du fait de son retour, expulsée bien au-delà des autres planètes. C’est ce qu’on appelle la Planète-9 susmentionnée, qui serait aujourd’hui quelque part dans la Ceinture de Kuiper, ce tore d’astéroïdes trop lointain et trop immense (et ses composants animés d’une vitesse trop faible) pour avoir permis la création d’une planète unique sur son orbite bien qu’il soit peuplé de plusieurs planètes-naines de la taille de Pluton. D’ailleurs ces planètes naines résultent peut-être de perturbations créées par l’intrusion profonde de Neptune dans cette zone du fait qu’elle y avait été rejetée par le retour de Saturne. Du fait de ces bouleversements dans les Ceintures d’astres glacés, l’eau redescendit sous forme de pluies de comètes vers le Soleil. Et la Terre, comme Mars et Vénus purent jouir de ses bienfaits.

Les dés étaient jetés, les cartes distribuées, les rôles pouvaient se dérouler en fonction des positions de chacune des planètes par rapport au Soleil et de leurs dons ou aptitudes respectifs. La Terre, comme les autres, avaient ses potentialités sinon son destin. Compte tenu des circonstances particulières galactiques, compte tenu du dosage des composants chimiques les constituant, compte tenu de l’histoire ayant mené les astres jusqu’à ce point, beaucoup de voies étaient possibles. Ce qui est certain c’est que la Terre se trouvant alors dans la zone-habitable du Soleil et possédant de l’eau en plus des fameux éléments chimiques C,H,O,N (plus souffre, potassium, et quelques autres), elle devenait potentiellement habitable.

Cela a conduit jusqu’à nous au travers d’une multitude de vicissitudes, d’accidents, d’imprévus comme de possibles sinon de prévisibles. C’est précisément parce que la Vie a pris au bon moment les bonnes directions dans les multiples carrefours qui se sont présentés par accidents que nous sommes aujourd’hui présents sur Terre. Ces accidents étaient imprévisibles dans leur intensité particulière et dans le moment exact où ils survinrent par rapport à l’écoulement du fleuve de la Vie.

Certains voudraient que tout fut écrit. Je ne le pense pas. De la poussière à l’Homme il y a un très long parcours croisant de multiples carrefours, unique comme une empreinte digitale et qui s’est effacé au fur et à mesure qu’on a progressé. Il y a eu le Hasard et la Nécessité et aussi, lorsqu’il accéda à la conscience, la Liberté de l’Homme, sa Réflexion, sa Volonté et sa capacité de Faire. Maintenant on peut toujours s’interroger sur le Hasard, la Nécessité et l’issue de la Réflexion. Jamais nous n’aurons de certitude absolue sur la cause du résultat de ce cheminement absolument unique. C’est cela aussi notre Liberté. Le pari de Pascal a un bel avenir.

Comme quoi « On » peut tout faire avec la poussière, même l’Homme pour contempler le Ciel et se poser les questions qui lui sont essentielles.

Joyeuses Pâques!

Illustration de tire : Nébuleuse d’Orion, crédit NASA, ESA, M Robberto (STscl/ESA et al.).

Liens :

https://media4.obspm.fr/public/ressources_lu/pages_planetologie-formation/disque-protoplanetaire_impression.html

https://fr.wikipedia.org/wiki/N%C3%A9buleuse_solaire

Traces de vie. Terre, oui ; Mars, peut-être. Une exposition à Neuchâtel à ne pas manquer

L’exposition “Traces de vie”, certitude sur Terre, hypothèse sur Mars, a été ouverte au public lundi 26 mars ; elle durera jusqu’au 3 décembre. Il s’agit, dans le cadre bucolique du Jardin botanique de Neuchâtel (exposition dans la « Villa ») et grâce au concours de spécialistes reconnus, (1) de comprendre l’environnement terrestre particulier dans lequel le phénomène de la vie est apparu ; (2) de voir quels équipements l’ESA compte utiliser pour savoir si ce même phénomène s’est développé également sur Mars.

Les spécialistes sont l’astrophysicien Jean-Luc Josset, directeur du Space Exploration Institute de Neuchâtel (le « SpaceX » suisse, rien à voir avec l’autre SpaceX) et le biologiste Blaise Mulhauser, directeur du Jardin botanique de Neuchâtel. Les deux ont chacun une équipe parfaitement « branchée » aussi bien sur Mars que sur les problématiques de l’origine de la vie. Au sein de SpaceX, la géologue Marie Josset et le géobiologiste et exobiologiste Tomaso Bontognali connaissent Mars comme s’ils y avaient déjà été. Quant à Blaise Mulhauser, le sujet de la vie le passionne depuis toujours, aussi bien dans le domaine animal que dans le domaine végétal et, bien sûr, de leurs ancêtres eucaryotes et procaryotes. Pour préparer l’exposition ils ont reçu le confort de l’ESA (Jorge Vago, ExoMars Project Scientist), des Universités de Berne, de Neuchâtel, du Musée d’Histoire Naturelle de Berne (Beda Hofmann) et de la Haute Ecole Arc ingénierie ainsi que de chercheurs de renommée mondiale, comme la géologue-exobiologiste Frances Westall (Centre de biophysique moléculaire, Orléans) ou la géologue-exobiologiste Emmanuelle Javaux (Université de Liège).

L’hypothèse à la base de l’exposition, comme d’ailleurs des missions d’exploration martiennes, une éventuelle vie sur Mars (passée ou encore présente), repose sur la similitude entre la Planète Mars et la Terre dans les premières centaines de millions d’années suivant leur accrétion (entre -4,56 et -3,9 ou -3,8 milliards d’années). Dans les deux cas on se trouve en présence d’une planète rocheuse, avec présence d’eau liquide en surface (en zone dite d’« habitabilité ») sous atmosphère. Mars est de ce point de vue plutôt à la marge compte tenu de sa distance au Soleil et de l’excentricité de son orbite mais pendant cette période (essentiellement Hadéen et début Archéen sur Terre, Phylosien sur Mars) l’atmosphère était très dense (surtout au début car la gravité de Mars n’a pas eu la force de la retenir bien longtemps). Mais cela ce sont de « grandes lignes » et il faut probablement descendre loin « dans les détails » pour vérifier l’hypothèse. Nous n’aurons bien sûr de réponse que lorsque nous aurons trouvé, ou non, des traces de cette vie.

Pour ce faire, l’ESA a prévu depuis le début des années 2000 (à l’origine dans le cadre de son programme Aurora) d’envoyer sur Mars un rover (laboratoire mobile robotique), comme l’ont fait à plusieurs reprises les Américains. A partir de cette date, la mission, nommée « ExoMars », va subir de nombreuses vicissitudes. Elle passe d’une association avec les Américains à une association avec les Russes, pour le lancement et l’atterrissage. Elle devait être lancée en 2016 (ce fut heureusement le cas de la partie orbiteur, « TGO » qui fonctionne à merveille), puis en 2018, en 2020, en 2022. Finalement l’ESA a dû renoncer à cette dernière opportunité à cause de l’éclatement de la guerre en Ukraine*. Il a donc fallu reprendre le projet en 2022 pour repartir dans une coopération avec les Etats-Unis (puisque l’Europe ne dispose toujours pas d’un lanceur suffisamment puissant et ne maîtrise pas la technique très « pointue » de l’EDL pour descendre sur Mars). Mais, du coup, des ajustements nombreux doivent être faits. Le résultat c’est que le lancement ne pourra avoir lieu qu’en 2028 ! Ces différents reports sont à la fois impressionnants et très frustrants. On peut toutefois se consoler en considérant que les Russes n’ont jamais réussi à poser sur Mars un laboratoire robotique qui ait fonctionné avec succès (malgré trois semi-échecs/réussites d’atterrissage) et que les Américains maîtrisent, eux, parfaitement la technologie.

*Remarquez que cette guerre n’a pas empêché les Américains de continuer à coopérer avec les Russes dans l’ISS. Les Européens se veulent sans doute moralement plus irréprochables qu’irréprochables !

Le rover européen « Rosalind Franklin » de cette mission ExoMars, (bien présenté à l’exposition) est très clairement conçu pour nous faire avancer dans nos recherches exobiologiques. Il ne faut pas le voir comme une simple copie des rovers américains car il est porteur d’innovations considérables. Tout d’abord, il est équipé d’une foreuse qui lui permettra d’atteindre une profondeur de 2 mètres alors que les forets américains actuels (sur Curiosity ou Perseverance) ne peuvent pas être enfoncés au-delà de 6,5 cm. Cela représente une différence énorme car en raison d’une atmosphère très ténue et de l’absence de protection par champs magnétiques générés par dynamo interne de la planète, le sol de Mars est bombardé depuis des milliards d’années par toutes sortes de radiations cosmiques (galactiques et solaires) qui ont dû détruire toute molécule organique jusqu’à cette profondeur de 2 mètres. Par ailleurs, l’eau liquide de surface s’est forcément sublimée compte tenu de la très faible pression atmosphérique et on ne peut espérer trouver un peu d’humidité que si l’on s’enfonce assez profondément dans le sol (autrement l’eau se trouve sous forme de glace, si la température le permet).

Au-delà de la foreuse, Jean-Luc Josset (PI, Principal Investigator) et son équipe (Beda Hofmann et Frances Westall sont co-PI) ont conçu et fait réaliser un outil essentiel, la caméra CLUPI (CLose-Up Imager) qui est un trésor d’ingéniosité. Cette caméra équipe le bras de la foreuse qui doit examiner le sol avant puis après extraction des échantillons et également au moment de l’introduction de ces échantillons dans le laboratoire d’analyses embarqué dans le rover. Elle bénéficiera d’une capacité de réglage pour de multiples focalisations qui donneront des images claires à différentes distances et toutes ces images seront synthétisées avant l’envoi vers la Terre sur un document unique. A noter par ailleurs que le laboratoire embarqué qui fera l’analyse des échantillons n’utilisera pas d’oxydant pouvant fausser la composition des éventuelles molécules organiques prélevées et que la caméra CLUPI fonctionne sans lubrifiant ce qui est un gage de durabilité compte tenu du temps qui doit encore s’écouler avant utilisation et des conditions environnementales martiennes très dures pour les lubrifiants. Le rover européen pourra également affronter des terrains plus difficiles, en pente et sableux, grâce à des articulations aux « jambes » des roues, qui lui permettront par effet de braquet, de bloquer les roues dans la montée ou la descente.

Mais que s’attend-t-on à trouver sur cette sœur de la Terre ? On déduit de la ressemblance des environnements, que le « réacteur biologique » que constitue la planète aura conduit à la même évolution des matières organiques vers la vie que sur Terre. L’exposition montre dans cet esprit des procaryotes (bactéries ou archées) vivants et des procaryotes fossilisés. Ils montrent aussi des microbialithes, ces structures minérales, parmi lesquelles on classe les stromatolithes, créées par l’activité et le métabolisme des bactéries. Ils montrent aussi les traces plus discrètes de la vie, les plus anciennes formes de procaryotes telles qu’elles ont survécu dans la roche au travers du travail du temps (on est vers -3,5 milliards d’années). On peut cependant reconnaître des volumes de procaryotes par microscope électronique à balayage et confirmer leur nature par analyse chimique (compte tenu de l’évolution des molécules du fait du temps). Au-delà (jusqu’à -3,8 milliards), on ne peut plus identifier sans réserve les formes mais on peut toujours remarquer les assemblages chimiques particuliers, mettant en évidence la présence des fameuses molécules de la vie autour des atomes de carbone, hydrogène, oxygène, azote, souffre, potassium ou encore l’organisation de ces molécules en composés aromatiques ou encore le choix très caractéristique de leur homochiralité (démonstration faite à l’exposition).

Là où je diverge avec mes amis concepteurs de cette exposition, c’est que j’estime qu’ils vont trop vite trop loin, en supposant, c’est cela l’hypothèse, que ces matières organiques se sont organisées également sur Mars en organismes vivants, c’est-à-dire en organismes capables de se reproduire, presque à l’identique (avec quelques « accidents » permettant l’adaptation) en puisant leur matière et leur énergie dans leur environnement. Je ne les suis pas sur cette voie car je pense qu’il y a un saut énorme entre les molécules les plus complexes que peut sans doute produire le réacteur planétaire (il y a déjà complexification dans les astéroïdes) et la vie, c’est-à-dire l’organisation de ces molécules, et seulement elles, au sein d’une cellule qui « fonctionne ». Je pense que ce sont des conditions très particulières sur Terre qui ont permis le saut du prébiotique au biologique et je ne vois pas d’automatisme pour qu’il se réalise ailleurs. La Terre est en effet très “spéciale” ne serait-ce qu’en raison de son satellite de masse anormalement importante, relativement, qui dans les premiers temps évoluait très près de nous, 30.000 à 40.000 km seulement, provoquant de très fortes marées (et l’on sait que l’alternance d’humidité et de sécheresse a été indispensable à certaines réactions chimiques à l’origine de la vie). Ou bien ce sont les fumeurs gris (« Lost City ») dont les emanations s’échappent à grande profondeur le long des dorsales courant au fond des océans, dans des conditions spécifiques aussi bien de minéralogie que de température et de pression et sur un temps très long (les fumeurs gris ne sont pas des fumeurs noirs!). Ou encore des environnements de type Yellowstone en milieu aqueux acide sous une atmosphère riche en azote et en gaz carbonique, à des pressions et températures bien précises. Ou enfin, et ce n’est pas le moins important, un différentiel de taux de pH particulier entre le liquide basique qui sort des profondeurs de la planète et celui de l’environnement de l’Océan. Ce différentiel est évolutif et c’est un différentiel élevé qui a permis, à une époque précise, la mise en route du processus oxydation/réduction à la base de toute chimie de la vie. N’oublions jamais qu’il n’y a eu qu’un seul LUCA (Last Universal Common Ancestor) pour toute vie présente aujourd’hui sur Terre et que depuis près de 4 milliards d’années il n’y en a eu aucun autre (la phylogénétique nous le dit très clairement, sans contestation possible). Bref, il ne faut pas vendre la peau de l’ourse « Vie martienne » avant de l’avoir trouvée…ce qui ne veut pas dire qu’il ne faut pas la chercher, bien sûr (et la recherche est d’autant plus “facile”, si l’on peut dire, qu’en l’absence de tectonique des plaques sur Mars, les surfaces datant de cette époque très ancienne, sont extrêmement étendues).

Un autre point de divergence est une réflexion inutile (de mon point de vue) qui est affichée à l’entrée de l’exposition : « il n’y a pas de planète « B ». Pour moi, il est évident au contraire qu’il y a bien pour nous, êtres humains, une planète-B et que cette planète est Mars. J’ai tout à fait conscience des difficultés qu’il y aurait à y vivre mais je sais aussi que notre technologie pourrait nous le permettre. Ce serait bien sûr pour un petit nombre mais un nombre suffisant tout de même pour survivre, pour nous reproduire et pour faire perdurer l’humanité dans des conditions acceptables au cas où la Civilisation (sinon l’Homme) disparaîtrait sur Terre.

Pour terminer je voudrais signaler deux faits qui ont flatté mon égo dans cette exposition. D’abord apprendre que c’est à l’occasion de la convention de la Mars Society Switzerland que j’avais organisée à La Chaux-de-Fonds en 2018 (« EMC18 »), que Jean-Luc Josset (un des sponsors de EMC18) et Blaise Mulhauser ont commencé à discuter de son principe. Ensuite ce fut le plaisir d’y retrouver « ma » double-horloge (« dual clock ») réalisée par Vaucher Manufacture Fleurier pour Baselword 2016 avec mon conseil (voir mon article du 17 mars 2016 sur ce blog)*. Ce bel objet (dimensions : 80 cm x 40 cm) montrant à la fois l’écoulement des temps martien (cadran ocre) et terrestre (cadran bleu), avait, après Baselworld, été exposé à la Convention EMC18 (outre sa présentation à la conférence à l’U3A de Neuchâtel en 2016 à l’invitation de Philippe Terrier et à la conférence à la commune du Val de Travers, organisée par Caroline Houriet, à l’occasion de la célébration du changement d’heure de 2019). Les deux parties de l’horloge sont reliés par un mouvement central instituant un rapport de 1,0275, correspondant à celui existant entre la journée terrestre de 24h00 et le « sol » martien de 24h39 (avec en plus, un décompte de 22 mois martiens et 12 mois terrestres).

*C’était Katia Della Pietra (alors responsable de la communication de Vaucher) qui m’avait contacté et nous en avions discuté avec Pierre-Yves Grüring (constructeur mouvement, chef de projets). Je les salue tous les deux ainsi bien sûr que Caroline Houriet et Philippe Terrier, s’ils lisent ce blog.

Ceci dit je n’émets aucune réserve sur la qualité de l’exposition. Chacun pourra réfléchir sur la probabilité d’une vie martienne à partir de l’excellente documentation présentée. Jusqu’en décembre, Mars sera à Neuchâtel. Vous pourrez même y mettre le pied car une expérience de réalité virtuelle vous permettra de vous promener autour de Rosalind Franklin comme si vous y étiez (et lui aussi !).

liens:

https://www.space-x.ch/

https://hal.science/tel-03572179/document

https://www.jbneuchatel.ch/

NB: Vous pourrez accéder facilement au Jardin botanique de Neuchâtel avec le bus 109 ou le bus 106, en dix minutes à un quart d’heure, à partir de la Place Pury.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 23 03 17

Continuation du Dialogue entrepris à Venise en 1624 par Galilée + annonces de bas de page

Cette semaine, Christophe de Reyff reprend avec son propre Dialogue, celui initié par Galilée, en l’ouvrant sur les perspectives de l’Univers résultant de ce que nous savons de son état actuel et des potentialités que nous lui connaissons du fait de l’étude de son passé.

En réfléchissant à ces perspectives et au fait que le Dialogue se déroule à Venise, je ne peux m’empêcher de penser à l’histoire de cette ville magnifique et à ses propres perspectives. Après un début éclatant qui l’a portée au plus haut de la Civilisation dans tous les domaines, Venise se meurt depuis des siècles, en fait depuis le coup de poignard qui lui a été infligé par les Grandes Découvertes et ses conséquences économiques et donc politiques. Cependant, comme l’Univers, elle a continué sur sa lancée initiale et n’a jamais perdu de sa splendeur. Le 18ème siècle, totalement décadent, a été sans doute la période où la Ville a brillé avec le plus d’éclat, comme le début du bouquet final d’un feu d’artifice. Souvenez-vous de Vivaldi et écoutez sa musique dans vos têtes comme elle devait emplir les murs de la Basilique Saint-Marc. Aujourd’hui ses vestiges dont toute force politique a été évacuée et dont la population native diminue année après année, attirent encore comme un aimant la curiosité, l’admiration et l’affection de l’humanité toute entière. Venise se meurt mais Venise n’est pas morte. Elle est simplement mourante, en représentation, comme une cantatrice d’un des splendides opéras qui sont nés ici. Elle est de plus en plus dégradée, de plus en plus menacée par les flots et le tourisme de masse, et pourtant, dans la flamboyance de son Automne, elle est toujours plus belle, attirante et émouvante. Cela dure depuis des siècles et cela durera encore des siècles car l’humanité entière fera tout pour que Venise ne disparaisse jamais complètement tant qu’elle même restera consciente. On peut dire sans se tromper que laisser cette image grandiose de ce que nous avons été, disparaître, serait entrer dans la barbarie définitive ou le néant de la Civilisation et sera sans doute le signe ultime de notre déliquescence. C’est un peu (seulement « un peu » car à la différence de Venise nous n’y pourrons vraiment rien) comme l’Univers qui perdra petit à petit au fil des milliards d’années à venir son éclat pour tout observateur possible, et dont l’énergie un jour sera tellement diluée qu’elle ne pourra même plus porter son souvenir. Mais jusqu’au bout, la grandeur, la force et la beauté de l’Univers restera le plus merveilleux des concepts que l’on puisse imaginer, hormis celui de son éventuel créateur. Pour ressentir l’analogie vous pouvez toujours écouter un lento de Vivaldi.

Après cette introduction un peu longue, je passe la parole à Christophe de Reyff.

Nous reprenons le spectacle après l’entracte hebdomadaire mais, avant de continuer, je vous en rappelle les toutes dernières lignes (interventions de Salviati et Simplicio) :   

Salviati : On doit donc admettre que l’Univers a eu une phase d’expansion décélérée, est ensuite passé par un état d’« hésitation », comme l’a joliment écrit le chanoine Georges Lemaître, puis a repris une accélération qui se poursuit actuellement.

Simplicio : Vous me rassurez, Maître. Donc nous allons bien avoir un de ces jours notre feu d’artifice ?

Salviati : Du calme, Signor Simplicio ! Il faut regarder les choses d’un point de vue astronomique. Ce ne sera pas demain ! Je reprends la suite de mon raisonnement. La vitesse d’expansion subit donc une accélération, mais jusqu’où cela ira-t-il ? Jusqu’à la vitesse de la lumière ? Au-delà ? Remarquez bien : ce ne sont pas les galaxies qui « bougent » en s’éloignant radialement de nous, ce que montre le décalage vers le rouge de leur spectre ; c’est bien plutôt le « tissu » de l’espace-temps lui-même qui se dilate, transportant les galaxies, disons, pour prendre une image parlante souvent utilisée, un peu comme des raisins secs de Corinthe dans un soufflé qui gonfle au four : chacun s’éloigne de chacun de ses voisins sans bouger lui-même, car c’est la pâte qui gonfle. Il est donc possible, sans violer aucune loi, que cette vitesse dépasse la vitesse de la lumière ; l’espace « vide » peut se dilater à n’importe quelle vitesse, même supérieure à celle de la lumière. Cela, du reste, a déjà lieu depuis longtemps. Si l’on prend la valeur du « paramètre de Hubble », son inverse est une durée, nommée « temps de Hubble » (mais ce n’est pas du tout l’« âge de l’Univers », comme on le lit ici ou là). Si l’on multiplie cette durée par la vitesse de la lumière, on obtient une distance, dite justement « rayon de Hubble ». C’est tout simplement la distance à laquelle, depuis notre point d’observation, et j’insiste sur cela, la vitesse apparente de fuite des galaxies franchit la vitesse de la lumière. On ne pourra donc depuis ici plus jamais rien voir au-delà de cette distance, car aucun signal lumineux ou autre ne pourrait nous parvenir d’objets qui depuis là-bas sont plus rapidement transportés que la vitesse des photons qu’ils émettraient vers nous. Mais …

Simplicio : Ah ! J’ai compris, c’est l’horizon cosmologique ou horizon de visibilité, comme on l’appelle …

Sagredo : Mais voyons, Signor Simplicio, laissez notre Maître poursuivre son explication !

Salviati : Non, Signor Simplicio ! Ce « rayon de Hubble », ce n’est pas cela. On confond – et même d’éminents astronomes le font – l’« horizon cosmologique » et ce « rayon de Hubble », où la vitesse de fuite des galaxies dépasse la vitesse de la lumière. L’« horizon cosmologique » est, tout simplement, la distance qu’ont pu parcourir les photons de la lumière émise par des objets les plus lointains, et les plus anciens, vus de la Terre, durant la durée que représente l’âge de l’Univers ; c’est le temps maximal actuel qui est à leur disposition pour nous faire parvenir leur lumière. Si l’Univers a quelque 13,8 milliards d’années d’âge, notre horizon de visibilité est bien situé à 13,8 milliards d’années-lumière de la Terre, cela, par définition. Mais si l’on calcule le « rayon de Hubble », le nôtre, à ce jour bien entendu, avec la meilleure valeur actuelle du « paramètre de Hubble », on arrive à déjà 14,4 milliards d’années-lumière. Ce rayon de Hubble est donc, actuellement du moins, situé encore bien au-delà de notre « horizon cosmologique ». Ce qui est intéressant pour nous autres Terriens, c’est que chaque année qui passe augmente ainsi notre horizon cosmologique d’une année-lumière ; on a donc des chances chaque année de pouvoir observer l’un ou l’autre nouvel objet céleste lointain, et ancien, qui entre enfin dans notre horizon, disons, en moyenne, probablement une nouvelle galaxie par an. De son côté, puisque le paramètre de Hubble décroît, le « rayon de Hubble » continue aussi de croître, mais de plus en plus lentement, dans la même mesure où le « paramètre de Hubble » diminue continûment avec le temps qui passe ; ce qui est le cas.

Simplicio : J’ai bien compris : il ne faut pas confondre ni identifier l’« horizon cosmologique » et le « rayon de Hubble » qui, pour l’instant, ne coïncident pas. Mais un jour viendra …

Salviati : C’est cela, très bien, Signor Simplicio ! Continuons : après le Russe Alexandre Friedmann et le Belge Georges Lemaître, d’autres savants ont montré par leurs équations, que le « temps de Hubble », donc l’inverse du « paramètre de Hubble », a toujours été supérieur à l’âge de l’Univers jusqu’à aujourd’hui. Le passionnant dans tout ça, c’est que, même si l’expansion accélère, il va arriver un jour prochain où l’âge de l’Univers va « rattraper » exactement le « temps de Hubble », autrement dit, que la distance de notre horizon va coïncider exactement avec le « rayon de Hubble ». Cela se fera dans plus d’un milliard d’années. Que se passera-t-il au-delà de cette époque ? Simplement dit, la distance limite de visibilité que représente aussi le « rayon de Hubble », mais pour une autre raison, celle de la vitesse de fuite qui dépasse celle de la lumière, cette distance, donc, se substituera à notre horizon actuel : les objets nouveaux qui apparaîtraient sur cet horizon disparaîtraient aussitôt, cela étant dû à leur vitesse de fuite qui dépassera tout juste celle de la lumière.

Simplicio : Je ne vois toujours pas venir mon feu d’artifice …

Salviati : Ce qui va vous décevoir, je le crains, Signor Simplicio, c’est qu’il n’y en aura probablement pas, car un certain feu d’artifice a déjà eu lieu il y a des milliards d’années, quelque trois-cent quatre-vingt mille ans après le Big Bang à l’origine de l’expansion de l’Univers ! Du fait de l’expansion accélérée, nos galaxies lointaines, puis celles de plus en plus proches vont toutes être accélérées et, un jour, elles vont comme « franchir la vitesse de la lumière » et, par-là, vont donc sortir de notre horizon en passant à la distance de notre « rayon de Hubble » atteint ce jour-là. Le ciel va peu à peu littéralement se vider de son contenu, sous nos yeux ! Notre Univers proche – mais est-ce tout l’Univers -, du moins notre Univers visible ne sera plus qu’un Univers-île, formé de notre Galaxie, familièrement appelée la Voie Lactée, avec ses immédiates galaxies voisines du Groupe Local, retenues toutes ensemble en un amas par la gravitation. Mais le ciel sera vraiment noir au-delà. Il y a un physicien hollandais qui a prévu cela, sans savoir que ce serait le destin ultime de l’Univers, Willem de Sitter : son Univers théorique est quasi vide, homogène, de courbure spatio-temporelle positive, mais de courbure spatiale quelconque, éventuellement nulle (on parle alors d’espace plat ou euclidien), et en expansion, rempli seulement de… presque rien, de quoi ? De ce qui correspond à une densité d’« énergie du vide », exprimée sous la forme mathématique d’une « constante cosmologique » positive, ayant une valeur bien définie, minuscule, quoique non nulle. Notre Univers évolue inéluctablement vers cet état de vacuité qu’il atteindra de façon asymptotique dans un temps indéfini. Cela, ce sera notre point de vue de Terriens ; mais, dans n’importe quel autre endroit de l’Univers, le point de vue sera le même : tout aura disparu à l’horizon de chacun, à sa propre distance de visibilité qui sera autant de réalisations locales du « rayon de Hubble final », atteint asymptotiquement.

Sagredo : Vos explications sont lumineuses, Maître, mais, en contraste, quel tableau sombre vous nous faites là. Au fond, dites-nous encore, qu’est-ce que cette « constante cosmologique » positive qui va remplir tout l’Univers ?

Simplicio : … Et moi qui m’attendais à une explosion grandiose …

Salviati : Gardons encore les pieds sur notre Terre, voulez-vous, Messeigneurs ! Vous avez raison de vous poser ces questions qui sont des plus pertinentes. Qu’en est-il, tout d’abord, du destin de ce « paramètre de Hubble » ? Va-t-il diminuer toujours pour aller vers zéro lorsque le temps va tendre vers l’infini ? La réponse est : non ! Comme je vous le disais, c’est un quotient d’une vitesse par une distance. Toutes deux tendent vers l’infini. Le quotient de l’infini par l’infini, comme celui de zéro par zéro, est indéterminé en bonne mathématique. Mais, tout aussi mathématiquement, ce quotient peut être fini ! Et ce sera bien le cas ici. Le « paramètre de Hubble » va diminuer, et de plus en plus lentement, le « temps de Hubble » va croître, mais de plus en plus lentement au fur et à mesure que l’âge de l’Univers va continuer de passer. Le « rayon de Hubble » va aussi croître de plus en plus lentement. Ils vont tous deux atteindre, asymptotiquement, une valeur limite, déterminée uniquement par la valeur de cette « constante cosmologique » qui caractérise le vide. Je ne vous dirai pas ici comment, ni leurs valeurs numériques. Pour le savoir il faudrait lire attentivement tout un autre article…

Simplicio : C’est bien noté, on le lira.

Sagredo : D’accord ! Mais je ne vois pas très bien cette situation finale …

Salviati : Je le redis autrement : nous aurons comme une sorte de « bulle », invisible et non transparente, autour de nous, qui sera notre rayon de l’Univers, le « rayon de Hubble final » qui ne croîtra quasiment presque plus, et cela indéfiniment. Tous les objets que nous voyons actuellement au-delà de notre Groupe local de galaxies, auront franchi cette limite. On peut se consoler, en se disant qu’il en est de même pour chaque point de l’Univers. Le centre de l’Univers n’étant nulle part, on peut considérer qu’il est partout, et chaque point de l’Univers sera entouré d’une telle bulle limitant dès lors son horizon. Rien ne semblera plus changer dans le ciel. L’Univers, notre Univers sera devenu comme statique.

Simplicio : Dites-moi, Maître, ce sera alors à ce moment-là la fin du monde ?

Salviati : Oui et non ! Ce sera en quelque sorte une fin qui durera, une fin qui ne finira pas ! Le temps pourra indéfiniment continuer de couler. L’Univers continuera de vieillir ; il le fait déjà, mais ce sera indéfiniment, comme un ralentissement du temps. Justement, le modèle d’Univers prévu par de Sitter prédit que le temps semble aller de l’avant en se figeant de plus en plus. Nos descendants, s’ils ont encore un Soleil, un autre soleil, bien sûr, pour les réchauffer, auront beau observer avec leurs télescopes, ils ne verront plus rien du tout en dehors de notre Groupe local de galaxies, et, avec leurs radiotélescopes, ils ne pourront même plus mesurer le fonds diffus cosmologique du rayonnement fossile qui se sera à tel point dilué, du fait de l’expansion de l’Univers, qu’il sera devenu strictement indétectable, passant des 2,73 degrés kelvin actuels à quasiment zéro, sans pourtant jamais l’atteindre. On se retrouvera dans la situation expérimentale de la cosmologie du début du XXe siècle, où l’on ignorait même l’existence d’autres galaxies en dehors de la nôtre et où l’on croyait l’Univers statique et perpétuellement le même. Mais il est certain que d’ici là notre Soleil et toutes les étoiles de notre Galaxie se seront depuis longtemps éteints. Comme l’a bien décrit le chanoine Georges Lemaître, « le feu d’artifice se terminera en laissant ici ou là quelques escarbilles finissant de rougeoyer… » Mais plus personne ne sera là pour les contempler.

Sagredo : Eh bien ! Ces considérations nous ont passablement échauffés et assoiffés. Le jour tombe, Messeigneurs ; il est temps que nous nous rendions maintenant à bord de la gondole que j’ai commandée et qui doit déjà nous attendre au pied de ce palais, avec quelques rafraîchissements à bord, pour nous permettre de prendre le frais de la soirée et de nous désaltérer en parcourant nonchalamment la Laguna. Venez, descendons et embarquons-nous !

Illustration de titre : Ca’ Sagredo (Palazzo Morosini Sagredo).

Salutations à Jakob qui a la chance de se trouver actuellement à Venise et qui m’a envoyé une photo de la Ca’ Sagredo:

 

Mise à jour sur Relativity Space:

Les déçus de l’échec du lancement le 11 mars de la fusée GLHF de Relativity Space (mon article du 11 mars) peuvent se réjouir car un nouvel essai, le 22 mars, a été couronné de succès. Ses objectifs ont été atteints (notamment passage au point Max-Q) et un nouveau concurrent dans le monde astronautique est né ce jour. L’Europe doit “faire quelque chose” si elle veut rester en lice.

Annonce exposition “Traces de vie”.

A partir de lundi 26 mars, l’exposition “Traces de vie”, certitude sur Terre, hypothèse sur Mars, est ouverte au public dans le beau cadre de la villa du jardin botanique de Neuchâtel. Préparée avec soin par des spécialistes incontestables, elle est à voir absolument. Je vous en parlerai la semaine prochaine plus longuement. L’exposition restera ouverte jusqu’au 3 décembre.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 23 03 17

Un Dialogue, initié à Venise en 1624, continué 400 ans plus tard

Cette semaine et la suivante je passe la plume à Christophe de Reyff que les lecteurs de ce blog connaissent bien pour ses nombreux commentaires perspicaces et parfaitement documentés, assis sur une qualification professionnelle incontestable*. Il nous emmène à Venise, cité choisie par Galilée pour y tenir son fameux « Dialogue » qui osait défendre, avec une force nouvelle donnée par l’observation avec lunette astronomique, la théorie de Copernic. Non, la Terre n’était pas le centre de l’Univers, comme l’affirmait l’Eglise qui avait fait de l’adhésion aux thèses d’Aristote une question de foi. Il fallait du courage en ces temps d’Inquisition ; ce n’était que quelques années après que Giordano Bruno eut été brûlé vif pour son ouvrage « De l’infinito, universo e Mondi ». Même le Pape qui avait été l’ami de Galilée mais qui estimait sa confiance trahie, ne voulut pas s’opposer à sa condamnation fondée sur ce discours « sulfureux ». Mais le Dialogue avait été publié et il allait faire son œuvre dans les esprits car de plus en plus, l’observation allait démontrer que Galilée, comme Copernic, avaient raison. Aujourd’hui nous vivons à nouveau une époque passionnante de grandes avancées dans la Connaissance. Heureusement l’Eglise ne prétend plus se mêler de tout et la recherche est libre, quoique l’académisme et ses rigidités soient toujours présents dans certains esprits bien diplômés (cf. l’intangibilité de l’hypothèse de la matière ou de l’énergie noire). Mais enfin la parole est libre et la Science peut continuer à avancer, les incertitudes ou le brouillard étant peu à peu éclairés par l’esprit critique des pairs et la multiplication des observations croisées. Grâce à quoi, nous avons fait beaucoup de chemin. Il est donc temps de reprendre ce Dialogue, dans un environnement apaisé, sans jamais oublier ni pardonner le crime commis contre l’esprit il y a 400 ans. C’est à quoi Christophe de Reyff s’est attaché. Pour commencer il va, comme il se doit, dessiner le cadre et rappeler le contexte pour bien nous situer. Maintenant que vous êtes assis, le rideau s’ouvre et je laisse la parole à ses personnages:

Giovan Francesco Sagredo : Messeigneurs, je suis heureux de vous accueillir une nouvelle fois ici à Venise dans mon palais. En ces beaux jours d’automne profitons encore du soleil d’après-midi sur le Canal Grande ! Venise n’est jamais aussi belle en cette saison qu’en fin de journée lorsque les rayons solaires apportent une touche rose aux façades claires et suscitent aussi des reflets cuivrés somptueux dans les eaux de la Laguna.

Simplicio : C’est vrai, Signor Sagredo, vous avez tout à fait raison. Rien ne vaut ce spectacle que je ne me lasserai jamais de contempler.

Filippo Salviati : Je me permets d’ajouter de mon côté que, à première vue, presque rien n’a changé devant nous … Les gondoles sont toujours faites avec exactement deux cent quatre-vingts morceaux de bois, provenant de huit essences diverses, et glissent, toujours sans bruit, sur cette surface plombée et, ce soir, cuivrée, comme vous le dites bien, Signor Sagredo ; ou presque sans bruit, avec seulement, quelquefois, le crissement ligneux du remo dans la fórcola qui transmet l’impulsion donnée par le gondolier à l’embarcation.

Sagredo : Nos souvenirs de ce Dialogue entre nous, de quatre journées, tenu ici-même, ne se sont pas estompés. Si vous le voulez bien, reprenons notre discussion ! Mais il nous faut aller aujourd’hui bien au-delà du point où nous l’avons laissée il y a bientôt 400 ans ! N’oublions pas que notre cher et vénéré Maître Galileo a publié nos entretiens vénitiens dans son ouvrage, devenu vite célèbre : Dialogo … sopra i due massimi sistemi del mondo tolemaico e copernicano …, rédigé entre 1624 et 1630. Il en reçut l’Imprimatur officiel, après bien des péripéties, seulement en 1632. Malgré cela, il a été condamné, précisément le 22 juin 1633, pour cette publication par le tribunal de la Sainte Inquisition à Rome. Lors de cette condamnation, notre académicien a dû abjurer, donc renoncer officiellement à ses idées. Il a été ensuite assigné à résidence pour le reste de ses jours, soit jusqu’à ce triste 8 janvier 1642, où il mourut sereinement dans sa villa retirée, Il Gioiello, sise dans la campagne, près d’Arcetri, non loin de Florence. On sait que, aussitôt, le Grand-Duc de Toscane, Ferdinando II de’ Medici, avait manifesté l’intention d’ériger à sa mémoire, dans la Basilique de Santa Croce à Florence, un « tombeau somptueux, comparable à celui de Michelangelo Buonarroti et lui faisant face ». Mais le Pape Urbain VIII, de son vrai nom Maffeo Barberini, avait fait savoir, par son neveu, le Cardinal Francesco Barberini, sa vive contrariété à l’idée de voir « construire un mausolée destiné au corps de celui qui a été puni par le tribunal de la Sainte Inquisition, et qui est mort au cours de sa pénitence ». On obtempéra… et une simple cérémonie funèbre eut lieu dans l’intimité le 12 janvier, donc sans aucune personnalité. Et ce n’est que presque cent ans plus tard, le 27 mars 1737, sous le règne finissant de l’ultime Grand-Duc, Gian Gastone de’ Medici, que notre cher Maître Galileo put enfin être enseveli dignement, et publiquement. Et tout cela arriva du fait d’un jugement peu éclairé, c’est le moins qu’on puisse dire, au triple motif d’avoir « tenu pour vraie, défendu et enseigné » l’hypothèse héliocentrique du chanoine polonais Nicolas Copernic. On l’a répété à notre cher Maître Galileo : « tu avevi precetto di non tenere, difendere né insegnare in qualsivoglia modo tale dottrina ». Pour toute personne tant soit peu instruite en astronomie, c’est un comble d’entendre cela aujourd’hui ; cette condamnation était due à des juges bien ignorants en la matière, ou simplement bornés, qui refusaient même d’accepter ce qu’ils avaient eu l’occasion de voir dans la lunette astronomique que Galilée avait mise à leur disposition ! Son Dialogo a donc été inscrit à l’Index Librorum Prohibitorum en 1633, ce qui signifie qu’il figurait dès lors dans la liste des livres « les plus pervers et les plus condamnés » ! Il y restera jusqu’en 1757… Au-delà des siècles écoulés, nous avons encore de la peine à y croire. Par cette condamnation, en effet, on signifia à notre cher Maître Galileo qu’il avait désobéi à une ancienne admonition, une interdiction prononcée en 1616 par le Cardinal Roberto Bellarmino, alors à la tête du Saint Office, et décédé du reste dans l’intervalle en 1621. Lors du procès, on exhiba devant notre grand astronome une petite note, écrite curieusement verso-recto – donc sur deux feuillets d’autres documents (ff. 43v et 44r), comme un ajout intercalaire, sur deux autres documents -, devenue un document-clé pourtant, sur lequel ne figurent ni sceau ni la moindre signature ! C’est la fameuse « prescription » (le soi-disant « precetto »), du Cardinal Bellarmino, qui aurait été rédigée le 26 février 1616 ; mais c’était probablement une simple note personnelle faite par le Commissaire général du Saint Office, après l’entretien entre l’astronome et le cardinal, précisant l’injonction signifiée alors de vive voix par ce dernier à l’astronome. Pourtant, notre académicien, lors de son procès, nia, en vain, avoir reçu une telle interdiction ce jour-là.

Simplicio : Ce que vous nous dites là, Signor Sagredo est effrayant. Un astronome ne pouvait donc pas défendre, publier et enseigner une hypothèse qu’il jugeait plus vraisemblable que la conception traditionnelle ?

Sagredo : C’est cela ! J’ajoute maintenant une coïncidence curieuse de l’histoire de l’astronomie : quasiment une année après la mort de notre cher et vénéré Maître Galileo, naissait en Angleterre, le 4 janvier 1643 – pour être précis, c’était à Noël, le 25 décembre 1642 dans le calendrier julien alors encore utilisé en Angleterre jusqu’en septembre 1752 ! -, naissait donc un certain Isaac Newton qui allait bâtir une nouvelle physique, valable sur Terre et dans tout l’Univers, et qui, par-là, allait permettre de décrire correctement et la chute des corps et les mouvements des astres. Il allait aussi concevoir un nouveau type de lunette astronomique, le télescope, avec un miroir concave.

Salviati : Ah bien ! Le flambeau de la science ne s’est donc heureusement pas éteint. De mon côté, pour continuer de parler histoire de l’astronomie, j’ajouterai ceci – et en vous le donnant en mille, comme on dit – : un astrophysicien anglais des plus célèbres, Stephen Hawking, est né le 8 janvier 1942, soit exactement trois cents ans après la mort de notre maître ! On lui doit la conjecture d’un Univers « sans bord », ayant un « commencement » dans un temps imaginaire (au sens mathématique du terme), tout cela afin d’éviter des « singularités » et des grandeurs infinies ; mais c’est un tout autre problème, celui du « commencement » alors que nous allons nous intéresser aujourd’hui à celui de la « fin » de l’Univers !

Sagredo : Depuis ces tristes évènements arrivés à notre cher et vénéré Maître Galileo, bien de l’eau a coulé sous les ponts du Tibre à Rome et sous ceux de l’Arno à Florence et à Pise. Et, au fil des ans, notre Laguna vénitienne a vu son niveau monter et descendre plus de deux cent quatre-vingt-cinq mille fois…

Salviati : Finalement, la révolution, dite « copernicienne » s’est imposée, puis la physique newtonienne, et bien d’autres nouveautés inattendues après elles, donnant dès lors une place très modeste à notre Système solaire parmi les cent milliards d’étoiles de notre Galaxie, ou Voie Lactée, et à celle-ci, parmi des centaines de milliards d’autres galaxies, dans ce que l’on peut nommer l’Univers, ou, plus prudemment, « notre » Univers. Depuis longtemps, heureusement, les astronomes ne sont plus passibles de tels jugements de l’Église, même si les hypothèses qu’ils continuent d’énoncer vont bien au-delà des audaces coperniciennes et galiléennes d’alors ! Je voudrais que nous parlions maintenant justement de l’Univers et plus particulièrement de son destin, laissant pour une prochaine occasion l’autre face du problème, soit son début, joliment nommé Big Bang quasiment dans toutes les langues, au commencement du temps, ou… à peu après.

Sagredo : Serait-ce à dire que les cosmologistes sont encore partagés entre les tenants d’un Univers infini et perpétuel – vous êtes d’accord qu’il ne faut pas utiliser l’adjectif « éternel » qui signifie strictement que le temps n’existe pas, ne s’écoule pas ? -, donc sans commencement ni fin, et ceux qui prônent un Univers fini, avec un vrai début, une vraie fin ou, éventuellement, un début, mais pas de fin brutale du tout ?

Salviati : Oui ! Et il y a aussi ceux qui pensent que le temps existe depuis toujours et pour toujours et que l’Univers a simplement débuté à un moment dans cette durée, comme une fluctuation du vide, et qu’il s’achèvera à un autre moment de ce temps qui s’écoulera toujours ; voire aussi qu’il renaîtrait indéfiniment de ses cendres, de façon cyclique. Parler de fin est-ce vraiment parler de fin apocalyptique, brutale, spectaculaire ?

Simplicio : Si je comprends bien, Signor Salviati, vous allez nous annoncer que nous n’allons pas nécessairement assister dans le ciel à un feu d’artifice sans précédent pour signaler le moment de l’Apocalypse, la fin du Monde ? Mais les observations les plus récentes ne nous disent-elles pas que l’Univers non seulement est en expansion, ce qu’a montré l’Américain Edwin Hubble en 1929, en proposant sa fameuse loi, mais que cette expansion serait même accélérée ?

Sagredo : Mais oui ! Vous êtes très bien informé, Signor Simplicio. Pourtant, je préciserai, de mon côté, qu’on dispose d’une valeur pour la « constante de Hubble » qui semble assez petite aujourd’hui. Du temps des mesures de Hubble, durant les années 1920 et jusqu’à récente date, on a parlé de 500, puis de 150 puis de 100, puis de 75 kilomètres par seconde et par mégaparsec (c’est là l’unité habituelle de cette constante pour les astronomes contemporains). On va donc plutôt vers le bas puisque la valeur actuelle semble être juste en dessous de 70. Qu’en dites-vous, Maître ?

Salviati : Vous avez raison, Signor Sagredo, et vous aussi, Signor Simplicio ! Vos deux énoncés sont exacts. Il existe une loi, dite de Hubble, énoncée en 1929, mais qu’on devrait appeler « loi de Hubble-Lemaître », car le chanoine Georges Lemaître – un autre chanoine après Nicolas Copernic ! – l’avait prévue théoriquement deux ans avant, soit déjà dès 1927, une loi qui donne une relation entre la vitesse et la distance des objets célestes très lointains, les galaxies. Entre les mesures de Hubble dans les années 1920 et aujourd’hui, il s’est passé à peine une petite centaine d’années. Cela n’est pas suffisant pour détecter une éventuelle variation de la « constante de Hubble ». Simplement, les mesures de distances, à l’époque, étaient entachées de grossières erreurs. On a sous-estimé ces distances et la constante était alors trouvée d’autant plus grande. Pourtant, et on en a la preuve expérimentale, il est vrai que, voici des milliards d’années, la « constante de Hubble » était beaucoup plus grande qu’aujourd’hui. C’est pourquoi on ne doit plus parler de la « constante », mais bien du « paramètre de Hubble », car il décroît inéluctablement avec le temps qui passe, avec l’âge de l’Univers, et possède une valeur actuelle, dite « constante de Hubble », qui correspond uniquement à nos observations du moment. Cela semble contredire la très juste affirmation de Simplicio. Car l’Univers est bel et bien actuellement en expansion accélérée. Reprenons la définition du « paramètre de Hubble » : c’est, finalement, le quotient d’une vitesse par une distance. On sait que, actuellement, toutes les deux croissent avec le temps qui passe, mais la distance, qui est une mesure spatiale de l’expansion, et qui est au dénominateur, a toujours crû et continue de croître de plus en plus vite, quasiment aujourd’hui comme le carré du temps qui passe, et, bien sûr, plus vite que la vitesse d’expansion elle-même, qui est au numérateur et qui croît quasiment linéairement avec le temps ; donc le « paramètre de Hubble » diminue, progressivement mais inéluctablement, avec le temps. C’est toujours le cas pour un Univers en expansion. Mais, si l’expansion est aujourd’hui accélérée, cela n’a pas été le cas il y a très longtemps. Car dès le tout début de l’Univers, après une probable et extrêmement rapide phase très puissante, dite d’« inflation » initiale, dont la réalité est encore disputée dans la communauté des astrophysiciens, l’expansion a bien sûr continué sur sa lancée, mais à un rythme freiné, décéléré par la gravitation : le numérateur était décroissant et le numérateur toujours croissant. Bien que l’expansion se fît toujours (le dénominateur allait et continue d’aller toujours croissant), sa vitesse est allée diminuant, elle est ensuite passée par un minimum il y a quelque 6 milliards d’années, puis elle a augmenté à nouveau. Et on en est là actuellement ; la vitesse d’expansion continue d’augmenter. Je vous rappelle que qui dit vitesse décroissante, dit décélération, qui dit vitesse croissante dit accélération. On doit donc admettre que l’Univers a eu une phase d’expansion décélérée, est ensuite passé par un état d’« hésitation », comme l’a joliment écrit le chanoine Georges Lemaître, puis a repris une accélération qui se poursuit actuellement.

Simplicio : Vous me rassurez, Maître. Donc nous allons bien avoir un de ces jours notre feu d’artifice ?

(à suivre)

Illustration de titre : Galilée devant le Saint Office lors de son procès en 1633, huile de Joseph-Nicolas Robert-Fleury (Musée du Louvre)

* Christophe de Reyff, Dr ès sciences, retraité de l’OFEN (Office Fédéral suisse de l’Energie), y a été l’un des responsables de la recherche, pendant plus de 20 ans.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 23 03 17

NB: L’assemblée Générale des membres de la Mars Society Switzerland aura lieu le 22 mars à 16h00 dans les locaux de Microcity (EPFL, Neuchâtel). Les personnes intéressées à participer peuvent écrire sur le site de l’association (page “contactez-nous”). Ils seront accueillis avec plaisir, sur preuve de paiement de leur cotisation pour adhésion.

Lien vers la page adhésion du site de l’association : https://planete-mars-suisse.space/fr/adhesion

La concurrence qui monte en Astronautique avec les sociétés New Space comme Relativity Space laissera peu de place aux institutionnels frileux

Ce mercredi 8 mars, un nouvel acteur dans le domaine astronautique, la start-up américaine « Relativity-Space » a pointé son nez en tentant le lancement de sa première fusée, « Terran-1 ». Elle a finalement renoncé (« aborted ») à -70 secondes de l’allumage en raison d’une température trop élevée constatée par ses capteurs dans les réservoirs d’ergols de son second étage. Elle retentera le lancement ce samedi 11 mars, entre 19h00 et 22h00 (heure suisse).

PS (23/03/23): Après deux tentatives malheureuses, les 8 et 11 mars, le lancement a pu finalement avoir lieu dans la nuit du 22 au 23 mars. La fusée s’est parfaitement comportée. Elle a notamment bien supporté son passage au point Max-Q (voir ci-dessous).

Le fait est remarquable pour plusieurs raisons : l’entreprise est privée ; elle est toute jeune puisque créée seulement en 2015 ; ses deux fondateurs, Tim Ellis et Jordan Noone, sont de jeunes ingénieurs relativement peu diplômés mais passionnés ; tous deux sont passés par SpaceX et Blue Origin ; surtout, et c’est la grande nouveauté, leur première fusée, « GLHF » (Good Luck, Have Fun), a été réalisée à 85% (en masse) en impression 3D et leurs fusées suivantes le seront en quasi-totalité (95%?) ; l’objectif clairement annoncé est l’envol vers la planète Mars et ce, dès 2024 ; enfin, Relativity Space dispose des moyens financiers de ses ambitions.

Tim Ellis, né en 1990, est le CEO (Chief Executive Officer) de l’entreprise, Jordan Noone, né en 1992 fut son CTO (Chief Technical Officer) et il en est aujourd’hui l’ETA (Executive Technical Advisor). Ils ont été, tous deux, étudiants enthousiastes en astronautique à l’USC (University of Southern California, Los Angeles) où ils animèrent son « Rocket Propulsion Lab ». Dans ce cadre, ils mirent au point une fusée étudiante (« Traveller ») qui fut la première de ces petites fusées, à être lancée dans l’espace avec succès (après avoir obtenu l’accord des autorités américaines pour le faire !). Leurs études se terminèrent assez vite (BS pour Jordan Noone et MS pour Tim Ellis) car tout de suite après leur exploit (le lancement juste mentionné), ils furent recrutés par les deux grandes sociétés astronautiques privées américaines. Noone entra chez SpaceX comme « in-space propulsion development engineer » après un très court passage chez Blue Origin ; Ellis entra, lui, chez Blue Origin. Il y fut « propulsion development engineer » mais surtout il y introduisit l’impression 3D avec métal, qu’il avait expérimentée et pratiquée pour réaliser leur fusée lorsqu’il était étudiant. Les deux amis se retrouvèrent très vite pour fonder Relativity Space. Ellis en est resté le « patron » alors que Noone, séduit par l’aspect financier de son travail, vole déjà vers d’autres cieux. Tout en restant présent par ses conseils auprès d’Ellis, il vient en effet de fonder la société « Embedded Ventures », un fonds qui se spécialise dans le financement des industries de la Défense et de l’Aérospatial. Il faut dire qu’il a démontré ses aptitudes dans ce milieu très dynamique et attractif (aux Etats-Unis). En juin 2021 il avait en effet obtenu, bien sûr avec la participation d’Ellis, le montant énorme de 1,3 milliards de dollars en fonds propres privés (capital risque) pour Relativity Space. Ceci leur permet aujourd’hui de « faire tourner » une entreprise de 170 employés en y travaillant librement (et ardemment) à la réalisation de leur rêve (chaleureusement approuvé bien entendu par leurs financiers).

L’originalité de la société, justifiant l’importance des financements reçus, est qu’elle fabrique ses fusées par impression 3D, en y intégrant l’intelligence artificielle et la robotique, induisant un maximum d’autonomie dans les opérations, sur la base de deux brevets déposés par Noone « Real-time adaptive control of additive manufacturing processes using machine learning » et « Real-time adaptive control of manufacturing processes using machine learning ». Cette impression 3D est quelque chose que les deux partenaires connaissent bien pour l’avoir déjà pratiquée, comme mentionné plus haut. Les avantages de l’impression 3D sont la suppression de nombreuses étapes intermédiaires dans la production et son corollaire la diminution drastique du nombre de pièces à assembler (100 fois moins), la rapidité d’exécution (60 jours pour réaliser une fusée à partir des matières premières), l’adaptabilité (on peut modifier les programmes d’impression) et le faible coût. A noter qu’elle est également utilisée pour certains équipements, comme les moteurs, par SpaceX. Le développement des « outils » et process depuis 2015 a permis l’utilisation d’imprimantes de trois générations successives. La génération prochaine pourra faire de l’impression horizontale (actuellement elle est verticale) ce qui facilitera les manipulations et contrôles d’objets longs comme les coques ou les réservoirs.

La première fusée de la classe « Terran-1 » est encore petite (33 mètres), comporte deux étages, a une charge utile possible de 1,25 tonnes (mais GLHF n’en emportera pas). Elle devra atteindre une altitude en orbite de 185 km (comme chacun sait, c’est un minimum). La même fusée Terran-1 pourra, si elle fonctionne, porter 900 kg sur une orbite SSO (Sun Synchronous Orbit, héliosynchrone) à 500 km d’altitude ; ou 700 kg sur une orbite SSO à 1200 km).  GLHF fonctionne au LNG, ce qui implique qu’elle sera facilement adaptable au méthane, brûlant dans l’oxygène. Le méthane a été visé parce que c’est un gaz que l’on peut obtenir sur Mars à partir du CO2 de l’atmosphère et de l’hydrogène de la glace d’eau. GLHF n’est pas réutilisable alors que les fusées Terran-1 suivantes le seront. Comme les autres futures Terran-1, elle utilise neuf moteurs « maison », « Aeon-1 », pour son premier étage et un autre moteur maison, « Aeon-Vac », pour le second étage (vac = vacuum, propulsion dans le vide). L’objet de ce premier vol n’est clairement qu’un essai. Au-delà du décollage il sera important de franchir l’étape « Max Q » (période du début de vol au cours de laquelle la fusée subit une pression dynamique maximale) pour voir sa résistance. L’ensemble du vol doit démontrer que les processus de réalisation « tiennent le choc » et que les principes appliqués pour les différents paramètres de contrôle et de navigabilité sont bons. La société en tirera un maximum d’enseignements grâce à un maximum de capteurs embarqués.

Il y aura exploitation commerciale de cette première classe de fusées Terran-1, qui peut se comparer à la Vega européenne. Il faut toujours penser à se financer car une entreprise privée ne peut pas vivre si elle n’est pas rentable. Mais en même temps la société préparera son objectif suivant qui est la réalisation puis le lancement dès l’année prochaine d’une fusée plus puissante, la « Terran-R ». Ce sera une fusée à deux étages (66 mètres), réalisée entièrement en impression 3D, récupérable et réutilisable. Elle aura une capacité d’emport de 20 tonnes en orbite et sera donc de la classe de l’Ariane 6, de la H3 japonaise ou de la Falcon-9 de SpaceX.

Sans attendre davantage, dès Novembre 2024, Relativity Space prévoit d’envoyer une fusée Terran-R en orbite de Mars, en partnership avec une autre start-up, « Impulse-Space ». Relativity fournira le lanceur et son second étage, Impulse qui s’est spécialisé dans le service « last-mile » en orbite, fournira la capsule et l’atterrisseur car il est bien prévu, dès le premier vol, de descendre sur la planète. Mars est en effet bien présent dans les esprits des membres de l’équipe. S’y poser est non seulement le but exprimé dans la présentation de la Société mais Ellis et Noone ne veulent pas se contenter de missions robotiques. Ils veulent pouvoir y aller pour que l’homme s’y installe physiquement. Dès aujourd’hui la société met en avant que l’impression 3D facilitera non seulement le séjour mais aussi l’implantation puisqu’elle permettra la construction des fusées à partir de matières premières martiennes. C’est en quelque sorte la quintessence de l’ISRU (In Situ Resources Utilization) recommandée par Robert Zubrin (fondateur de la Mars Society) dès le début des années 1990.

On peut remarquer que la fusée Terran-1 pourra concurrencer la fusée Vega (3ème échec au lancement, le 13 juillet 22) et que Terran-R pourra concurrencer Ariane 6 dont le premier lancement est sans cesse reporté, de même que la fusée H3 de la JAXA japonaise (2nd échec, 7 mars). C’est d’autant plus inquiétant (pour elles) que ces fusées concurrentes européennes et japonaises ne seront pas réutilisables (du moins tout de suite) ni bien sûr imprimables et que leurs lancements seront donc beaucoup plus coûteux que celui des Terran. C’est encore plus inquiétant quand on sait que SpaceX, déjà pleinement opérationnel et qui tient le marché avec sa gamme de lanceurs, Falcon-9, Falcon-Heavy et bientôt Starship, ne fera de cadeau à personne. Certes Ariane-6 deviendra sans doute un jour réutilisable (cf travaux en cours de la société suisse Almatech, spin-off de l’EPFL sur les pieds rétractables) mais en attendant, il faudra que l’ESA survive en dépensant davantage d’argent que ses concurrents. Autant dire que, comme actuellement, elle ne pourra compter que sur des commandes de lancement d’entités publiques européennes, captives. Et ceci se fera aux frais des contribuables de ces pays qui auraient pu dépenser l’argent autrement. Du moins quand Ariane 6 pourra voler (même dans son format non réutilisable) ce qui n’est pas encore démontré.

La conclusion c’est que les Etats-Unis malgré leurs problèmes sociétaux (wokisme, ultra-écologisme, ultra-féminisme…) restent extrêmement dynamiques dans ce secteur de l’astronautique et du spatial. Sans doute est-ce parce que le sujet séduit une bonne partie des Américains, ingénieurs, entrepreneurs et investisseurs, que cette population riche et puissante considère sans aucune inhibition les voyages, habités ou non, dans l’espace et qu’elle ne considère pas Mars comme un objectif d’exploration habitée inavouable. Aux Etats-Unis, on peut encore parler de science-fiction dure sans être vu comme un adolescent attardé coupé des réalités mais comme un entrepreneur sérieux. Comme par ailleurs, le capital-risque est une pratique largement comprise et encouragée on ne doit pas s’étonner de la multiplicité de ces initiatives New Space qui ont l’avantage de ne rien coûter à la collectivité nationale. Avec Elon Musk comme modèle, tous les espoirs sont stimulés. Grace à lui également (le réutilisable !) toutes les audaces sont permises, sans tabou. C’est de là que peuvent sortir l’innovation et la création, non de l’esprit timoré et conformiste de fonctionnaires qui doivent rendre compte à des autorités politiques obsédées par les problèmes « sociaux » et la conformité au « possible ».

Le lancement de GLHF aura lieu depuis Cap Canaveral, car Relativity bénéficie de la mise à disposition par la NASA d’une plateforme de lancement à Cap Canaveral. Vous pourrez le suivre sur Youtube (lien ci-dessous).

Je remercie Christine Vogt, membre de la MSS, de m’avoir mis sur la piste de cette très belle start-up.

Liens :

https://qz.com/relativity-space-aims-for-a-record-breaking-debut-launc-1850197041 (avec la video de l’essai du 8 mars)

https://www.space.com/relativity-space-1st-terran-1-3d-printed-rocket-scrub

https://en.wikipedia.org/wiki/Relativity_Space

https://en.wikipedia.org/wiki/Terran_1

https://www.impulsespace.com/

Illustration de titre : un moteur Aeon-1 créé et réalisé en impression 3D par Relativity Space. Une véritable œuvre d’art ! Les ergols arrivent par la droite, sont mis au contact au centre dans la chambre de combustion ; les gaz résultant de la combustion sont expulsés par la tuyère à gauche. Il existe trois versions du moteur Aeon-1 ; Aeon-R ; Aeon-Vac. Ils utilisent du gaz naturel liquide (LNG) comme carburant et de l’oxygène liquide comme comburant.

Illustration ci-dessous: trajectoire de GLHF (crédit Relativity Space):

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 23 01 29

Pourquoi pas un Starship à propulsion nucléaire pour compléter les capacités du Starship à propulsion chimique ?

Avec la propulsion nucléaire thermique (« NTP ») le voyage jusqu’à Mars pourrait durer deux mois au lieu de six. Cela serait très appréciable pour les passagers humains puisque, notamment, le temps d’exposition aux radiations cosmiques serait réduit de quatre mois. Ceci dit, les transports d’équipements ne requérant pas de protection-antiradiations particulière pourront toujours se faire à bord de vaisseaux Starship à propulsion chimique. On peut donc envisager, en créant une version NTP du Starship « classique » à propulsion chimique, d’utiliser pour les deux versions un accès à l’orbite terrestre en utilisant le même lanceur SuperHeavy. De toute façon nul vaisseau à NTP ne sera autorisé à partir de la Terre une fois son réacteur à fission activé et, une fois le réacteur activé en orbite haute, aucun de ces vaisseaux ne sera autorisé à revenir sur Terre.

Il faut donc réfléchir à la possibilité de cette adaptation en sachant que cette solution impose un entretien du vaisseau NTP resté en orbite haute (si on veut s’en servir plus d’une fois !) ainsi qu’un transbordement des passagers et de leurs bagages sur cette même orbite ; ces deux opérations pouvant être effectuées par un Starship à propulsion chimique monté sur un SuperHeavy mieux qu’avec n’importe quel autre lanceur (volume et masse transportés). Au retour de Mars, le problème sera assez semblable puisque si le Starship n’aura pas besoin d’un lanceur SuperHeavy pour repartir du sol de la planète (gravité plus faible), la version NTP ne sera pas davantage autorisé à repartir du sol de Mars (après y être descendu) puisque cette planète possède aussi une atmosphère susceptible de transporter des particules irradiantes et que, par principe, elle sera en cours de colonisation humaine. Il faudra donc prévoir que le vaisseau NTP reste en orbite et que la navette entre le sol et l’orbite se fasse là aussi, avec une navette Starship à propulsion chimique.

Mais un préalable pour envisager ce mode de transport est de savoir si un vaisseau spatial serait compatible avec un SuperHeavy, ou plus précisément si un Starship à propulsion chimique pourrait être converti en vaisseau NTP en conservant le même volume dans la même coque, en n’excédant pas la masse pouvant être propulsée par un lanceur SuperHeavy et en restant adaptable à ce lanceur (docking, activation du réacteur aussitôt que possible après que le Starship aura été libéré par son lanceur). Après avoir lu les documents en référence ci-dessous, je pense qu’il est possible d’aménager une telle compatibilité mais je laisserai mes amis ingénieurs le confirmer par leurs calculs.

Voyons d’abord les risques auxquels on s’expose avec une propulsion NTP. Il s’agit plus précisément des radiations résultant des fuites de neutrons qui sortiront du réacteur, et du rayonnement gamma secondaire induit par l’impact des neutrons sur divers obstacles. Les fuites de neutrons sont d’autant moins négligeables que le réacteur est puissant et il faut qu’il soit puissant pour propulser un vaisseau spatial vers Mars. L’étude en référence mentionne 0,5% pour un réacteur d’une puissance de 1000 MW. Cela donne un ordre de grandeur. C’est peu en pourcentage de ce que produit la fission mais c’est beaucoup en valeur absolue, surtout considérant la durée d’exposition, même si le réacteur ne fonctionne pas pendant toute la durée du voyage.

Comment s’en protéger ? Il y a plusieurs solutions et elles sont cumulables : (1) la réserve de gaz utilisée comme élément propulsif, étant bien compris que la quantité de ce gaz diminue avec le temps puisqu’il est éjecté dans l’espace ; (2) la distance mise entre le réacteur et l’habitat ; (3) un bouclier en matière appropriée, d’une forme adéquate et bien positionné par rapport au réacteur et à l’habitat.

Concernant le gaz, le plus probable car le plus efficace (le plus léger) est qu’on utilisera l’hydrogène. L’avantage pour la protection est que cet élément chimique est constitué d’un seul proton autour duquel orbite un seul électron. Face aux projections de neutrons, le proton unique de l’hydrogène constitue un excellent absorbeur d’énergie (beaucoup plus que les atomes de numéro atomique élevé qui peuvent éclater à l’impact, ce qu’on appelle la « fission »). L’inconvénient ce sont les fuites qui résultent de la très faible masse de la molécule d’hydrogène et qui nécessite un réservoir particulièrement étanche donc massif. Mais on parle de plus en plus de « powerpaste* » qui permet de piéger de l’hydrogène dans un matériau stable et transportable (hydrure de magnésium, MgH2 avec adjonction de quelques sels métalliques pour stabiliser le produit) avec reconversion facile et rapide en présence d’eau (MgH2 +2 H2O => 2 H2 + Mg(OH)2. Une partie importante de l’hydrogène (celle qui n’est pas utilisable dans l’immédiat) pourrait être transportée sous cette forme

*Fraunhofer Institute for Manufacturing Technology and advanced materials (IFAM), filiale de Fraunhofer Gesellschaft, Dresde.

Concernant le bouclier, le plus probable est qu’on utilisera principalement du carbure de bore (B4C). Cette matière est quatre fois plus légère que l’acier inoxydable (qui constitue la coque du Starship) et utilisée généralement dans les réacteurs à fission pour interrompre la diffusion des neutrons (lorsqu’on veut mettre le moteur à l’arrêt). Ce bouclier devra éviter que des neutrons émis par la réaction lors de l’utilisation des moteurs, parviennent à l’habitat. Mais il devra aussi éviter que ces neutrons réchauffent l’hydrogène dans son réservoir pour ne pas risquer son ébullition ou sa cavitation avant son chauffage pour expulsion. Par ailleurs certains équipements (circuits électroniques ou actionneurs motorisés) pourraient souffrir des radiations. Enfin il ne faut pas oublier le rayonnement gamma qui, lui, ne sera pas sensible à l’écran formé par l’hydrogène et qui ne pourra être contenu que par un élément à numéro atomique très élevé (le plomb). Le bouclier devra donc être constitué essentiellement de carbure de bore avec une couche aussi fine que possible (mais quand même suffisante pour être efficace) de plomb du côté exposé au réacteur.

Maintenant, le volume et la position du bouclier seront très importantes. Dans l’espace, les radiations parviendront en ligne droite du réacteur à l’intérieur du vaisseau. Pour se protéger, il conviendra donc de placer un disque orthogonal au réacteur, aussi épais que nécessaire, avant les réservoirs d’hydrogène et au plus près des moteurs. Le disque déterminera avec le réacteur, un cône dans l’ombre duquel la protection sera maximum (« shadow shield »). Si le bouclier a lui-même une forme de cône avec son sommet vers le réacteur, cela facilitera l’évacuation des radiations en dehors du corps du vaisseau et, par ailleurs, la trajectoire possible des neutrons à l’intérieur du bouclier sera étendue. Dans ce cas, l’épaisseur sur la périphérie du cône pourra être réduite mais l’épaisseur au droit du sommet du cône, devra être renforcée.

Le bouclier sera donc un cône de quelques centimètres d’épaisseur sur toute la section de la coque du Starship (diamètre de 9 mètres). La masse volumique du carbure de bore étant de 2,5 g/cm3, et celle du plomb 11,3 g/cm3 on voit tout de suite que les masses seront importantes (un disque de carbure de bore de 9 mètres de diamètre et de 5 cm d’épaisseur aurait une masse de 8 tonnes, un disque de plomb de même diamètre et de 0,5 cm d’épaisseur aurait une masse de 3,5 tonnes) d’autant que la forme conique du bouclier implique une masse plus importante qu’un simple cylindre. A noter qu’en plus de la masse du bouclier, le Starship devra embarquer un réservoir d’hydrogène avec son revêtement isolant pour éviter les fuites, plus une réserve d’eau pouvant libérer l’hydrogène à partir du powerpaste et bien sûr une réserve de powerpaste contenant la quantité d’hydrogène nécessaire à l’approvisionnement des moteurs (10 kg de powerpaste pouvant contenir 1 kg d’hydrogène). Ce réservoir remplacera les réservoirs de méthane et d’oxygène nécessaires à la propulsion chimique, pour une masse sans doute équivalente.

Quelle que soit la masse nécessaire pour le bouclier, pourvu qu’il ne dépasse tout de même pas une vingtaine de tonnes, on peut penser que le Starship classique pouvant transporter une masse utile de 100 tonnes ou 100 personnes jusqu’à Mars, il restera suffisamment de capacité d’emport pour transporter un équipage de dix à douze personnes sur Mars avec leurs vivres et équipements. Dans l’étude en référence, une enceinte supplémentaire est prévue autour de l’habitat pour le protéger des radiations cosmiques. Alternativement on peut prévoir de placer les réserves d’eau et de vivres dans des compartiments autour de l’habitat. Leur contenu en hydrogène donnerait une très bonne protection contre le flux régulier de protons portés par le vent solaire et l’eau pourrait récupérer la chaleur fatale provenant des réacteurs pour chauffer la partie habitable du vaisseau.

Schéma d’un vaisseau NTP avec son « shadow shield ». Vous remarquerez que sa forme est semblable à celle d’un Starship

Je ne dispose pas des éléments nécessaires pour démontrer que les hypothèses que j’avance dans cet article sont réalistes ou ne le sont pas. Si des lecteurs sont intéressés à calculer la faisabilité de ce Starship, je suis intéressé à dialoguer avec eux.

A noter que d’autres vaisseaux spatiaux que le Starship sont possibles, notamment ceux ayant une architecture au sein de laquelle l’habitat est séparé du réacteur par une structure métallique de longueur suffisante pour réduire les radiations à un niveau acceptable (d’autant qu’au début du voyage le réservoir d’hydrogène entre le réacteur et l’habitat ajouterait une protection supplémentaire).

L’avantage d’utiliser un Starship adapté (avec transposition des moteurs et du réservoir pour la propulsion NTP, dans le même volume) serait que l’on pourrait utiliser le SuperHeavy pour le porter jusqu’à l’orbite terrestre en même temps qu’on continuerait à utiliser le SuperHeavy pour mettre des Starship à propulsion chimique en orbite. Eventuellement, on pourrait ajouter entre le SuperHeavy et le Starship NTP, un deuxième étage “tampon” à propulsion thermique* capable de pousser le Starship sur une orbite suffisamment haute où il aurait tout le temps de mettre en route la propulsion NTP. Ce deuxième étage serait évidemment récupérable. L’ennui avec cet ajout c’est qu’on commence à modifier la coque du Starship et donc on renonce à une certaine standardisation du vaisseau (par ailleurs si on ajoute un volume complémentaire en hauteur, on modifie l’équilibre général SuperHeavy + Starship).

*comme je crois le propose Xavier Philippon.

Quoi qu’il en soit, ma conclusion est qu’il faudra réfléchir à deux fois avant de jeter le Starship avec l’eau du bain de la propulsion chimique car on devrait toujours en avoir besoin.

Liens :

https://www.mragheb.com/Nuclear%20Propulsion%20Choices%20for%20Space%20Exploration.pdf

https://ntrs.nasa.gov/api/citations/20150006884/downloads/20150006884.pdf

https://www.iter.org/newsline/-/3552

https://www.discoverthegreentech.com/powerpaste-pate-stocker-hydrogene/

DRACO, le « dragon » nucléaire de la NASA qui renouvelle les perspectives d’un accès facilité à la planète rouge (2)

Cette semaine, Pierre-André Haldi vous parlera du moteur à propulsion nucléaire thermique utilisable par les vaisseaux spatiaux qui partiront pour Mars. Vous verrez que la base construite pendant de longues années avant d’être abandonnée et qui permet maintenant ce développement, est épaisse et solide. C’est d’ailleurs pour cela que le calendrier envisagé aujourd’hui pour mener à bien ce projet est très court ; 2027 c’est demain. Avec SpaceX la propulsion chimique n’est pas pour autant abandonnée et reste une alternative ou un complément. Nous approchons ainsi du moment où la grande aventure spatiale par vols habités initiée dans les années 1960 va pouvoir reprendre, vers Mars aussi bien que vers la Lune. Nous revenons de ce fait à une nouvelle époque de « Grandes découvertes » et de Colonisation qui va changer la vie de l’homme aussi bien sur Terre que dans l’Espace puisque si nous devenons une espèce multiplanétaire, les perspectives de l’humanité seront totalement bouleversées.

Si le récent accord entre la NASA et la DARPA remet la propulsion nucléaire thermique sous les feux de l’actualité, avant même que l’énergie nucléaire n’émerge et ne produise ses premiers kWh4), et que les premiers « bip-bip » d’un engin fabriqué par l’Homme ne soient émis depuis l’espace, les pionniers de l’astronautique que sont Robert H. Goddard ou Robert Esnault-Pelterie avaient déjà imaginé, en 1907 et 1911 respectivement, l’utilisation de la propulsion nucléaire pour aller dans l’espace et sur la Lune. Ce n’est qu’après la Seconde Guerre mondiale cependant et les développements des applications industrielles de la fission nucléaire que des projets concrets de propulsion nucléaire spatiale commencent à voir le jour dans divers pays. De vastes programmes de recherche sur les combustibles et la conception de réacteurs de propulsion ont ainsi été menés aux Etats-Unis et en URSS dès le début des années 1950 ; ils visaient à identifier les options technologiques les plus prometteuses en matière de designs de réacteurs et de types de combustibles. Et pas seulement au stade de la planche à dessin ; au cours d’expérimentations au sol de prototypes de réacteurs, des températures allant jusqu’à 2550 K pendant deux heures ont été atteintes aux Etats-Unis et des combustibles capables de fonctionner à plus de 3000 K pendant une heure en réacteur et plus de 100 heures en laboratoires ont été testés en URSS. Un héritage technologique considérable a ainsi été laissé par ces programmes, dont les nouveaux projets actuels peuvent encore bénéficier.

Cela est tout particulièrement vrai pour le programme américain NERVA (pour : Nuclear Engine for Rocket Vehicle Application), le seul qui ait connu des développements techniques suffisamment avancés pour que des tests en situation réelle dans l’espace aient pu être envisagés (mais jamais réalisés malheureusement, en raison de l’arrêt prématuré du programme Apollo et des importantes coupes budgétaires qui s’en sont suivies pour la NASA, voir plus bas). Les prémices de ce programme remontent à 1955. La Commission de l’énergie atomique américaine (AEC) élabore alors un programme de recherche baptisé Rover, visant à équiper des missiles balistiques intercontinentaux (ICBM) d’un étage supérieur à propulsion nucléaires5). Dans le contexte de la rivalité spatiale entre les Etats-Unis et l’URSS, la NASA nouvellement créée à la suite du lancement réussi du premier satellite artificiel par l’Union soviétique en 1957, est associée au projet à partir de 1959 pour appliquer cette technologie à la propulsion d’engins spatiaux civils. C’est dans le cadre de cette collaboration entre l’AEC et la NASA qu’est développé le programme NERVA entre 1961 et 1972 en s’appuyant sur l’expérience acquise préalablement avec le projet Rover. Le but n’était pas de fabriquer un moteur directement destiné à une exploitation spatiale, mais de développer et tester un démonstrateur validant la technologie, dans l’optique de disposer à la suite d’un système de propulsion performant capable de répondre aux exigences des missions spatiales envisageables dans les vingt ans à venir. C’est le concept de réacteur à uranium fortement enrichi, modérateur graphite et caloporteur hydrogène qui a servi de base de développement. De nombreux tests ont été réalisés sur le site d’essais nucléaires du Nevada à Jackass Flats ; ils avaient pour but la mise au point progressive d’un réacteur mettant en œuvre des matériaux dont les comportements aux températures et pression d’utilisation étaient initialement inconnus. Une activité de moindre amplitude a été consacrée à l’étude de techniques plus performantes mais plus délicates à mettre au point telles que les réacteurs à lit de boulets, à cœur liquide, ou à cœur gazeux. Malgré les nombreuses difficultés techniques inhérentes à un concept alors tout nouveau, le programme a rapidement progressé et abouti en 1969 au test au sol d’un moteur quasiment qualifié pour le vol. Ce prototype, le NRX (Nuclear Reactor Experiment) / XE Prime, mesurait 6,8 mètres de long, pour un diamètre maximal de 2,59 mètres et une masse d’environ 18 tonnes ; il était conçu pour produire une poussée nominale de 246,7 kilonewtons, avec une impulsion spécifique de 710 secondes, et a fonctionné 1’680 secondes au total.

On notera le parallélisme des calendriers de développement des moteurs NERVA et de la fusée lunaire Saturn-V. Ce parallélisme n’est pas fortuit ; en fait, l’idée initiale était d’équiper la Saturn-V d’un dernier étage à propulsion nucléaire déjà pour aller sur la Lune. Pour des raisons de répartition équitable des contrats6), la firme North American Aviation qui avait déjà décroché celui pour le deuxième étage S-II du super-lanceur s’est néanmoins vue évincée du contrat pour la version nucléaire du troisième, que cette firme aurait construite avec un laboratoire privé, au profit de Douglas Aircraft Company qui entendait, elle, en rester à une propulsion chimique classique. Exit donc l’option nucléaire pour la fusée lunaire américaine ! A défaut de servir pour la Lune, alors pour Mars ? L’intérêt dans ce cas est encore plus marqué, puisqu’en donnant la possibilité de raccourcir de manière significative la durée du transit Terre-Mars (on parle de la possibilité de passer d’environ 6 mois avec la propulsion chimique à 2 seulement avec la propulsion nucléaire), la propulsion nucléaire permet d’une part de réduire l’exposition des équipages aux rayonnements solaires et cosmiques et d’autre part de diminuer la masse des consommables que le vaisseau doit embarquer au départ de la Terre pour assurer le support de vie des astronautes pendant le voyage; sans compter le bénéfice pour ces derniers d’un séjour moins long en apesanteur le cas échéant. En 1969, Wernher von Braun, alors directeur du Centre de vol spatial Marshall, proposa d’envoyer sur Mars un équipage de douze personnes au moyen de deux vaisseaux équipés chacun de trois moteurs NERVA. Le lancement était prévu pour novembre 1981, avec atterrissage sur la planète rouge en août 1982. Cet objectif n’était pas du tout utopiste, comme le soulignait alors von Braun : «although the undertaking of this mission will be a great national challenge, it represents no greater challenge than the commitment made in 1961 to land a man on the moon before the decade is over» («bien que la réalisation de cette mission constitue un grand défi national, elle ne représente pas un plus grand défi que l’engagement pris en 1961 de faire atterrir un homme sur la lune avant la fin de la décennie»). Les performances atteintes par les moteurs NERVA à l’époque en matière de rapport poids/poussée, de comportement à l’allumage et à l’arrêt, ainsi que de durée de vie répondaient pleinement aux spécifications de la NASA pour une telle mission. Le programme Rover/NERVA fut cependant abandonné en 1973 sans qu’une telle mission ne soit effectuée, pour diverses raisons dont des considérations environnementales et en conséquence de la perte d’intérêt de la part du public pour des expéditions dans la ligne du programme Apollo une fois gagnée la ”course à la Lune”. L’objectif martien mis en retrait, le développement de moteurs-fusées nucléaires thermiques n’avait momentanément plus de vraie raison d’être. Le coût total du programme NERVA au terme de la décennie de recherche est estimé à environ 1,4 milliards de dollars US (1972).

Ceci nous ramène à 2023 et au projet DRACO (on peut se demander si l’aiguillon de la Chine, qui ne cache pas ses ambitions, y compris martiennes, dans le domaine spatial et progresse très rapidement, n’est pas pour beaucoup dans ce soudain regain d’intérêt pour la propulsion nucléaire thermique aux Etats-Unis !). Peu de détails techniques ont été donnés sur ce projet mais on peut penser qu’il se basera, logiquement, en grande partie sur les acquis du programme NERVA. La NASA prévoit actuellement de lancer une mission habitée vers Mars à la fin des années 2040. Selon une étude commanditée par les Académies nationales des sciences, de l’ingénierie et de la médecine, les quatre défis majeurs qui restent à relever dans le cadre d’un calendrier aussi serré sont: (1) le développement d’un  système de propulsion nucléaire thermique (NTP) capable de chauffer le fluide de propulsion à environ 2700 K; (2) la nécessité d’amener rapidement le système NTP à cette pleine température de fonctionnement en un temps très court (de l’ordre d’une minute); (3) le stockage à long terme du LH2 avec perte minimale au cours d’une mission; (4) le manque d’installations-tests ad hoc aux Etats-Unis.

Tous les moteurs-fusées nucléaires testés jusqu’à présent aux Etats-Unis avaient pour combustible de l’uranium hautement enrichi (UHE)7). Les progrès réalisés dans le domaine de la technologie des matériaux ouvrent aujourd’hui la voie au passage à des combustibles faiblement enrichis (UFE, d’enrichissement inférieur à 20%) mais qui demandent de travailler à plus hautes températures pour garder des performances identiques. Un des problèmes que les ingénieurs ont à résoudre est de trouver des matériaux capables de résister aux températures élevées présentes dans le cœur, sans avoir d’effets trop négatifs sur le bilan neutronique. Les combustibles UFE offrent non seulement de bonnes capacités de propulsion, mais encore d’autres avantages : les mesures de sûreté pourraient être simplifiées, le budget du projet allégé et le calendrier de développement raccourci. Les premiers tests ont montré que les combustibles nucléaires en cours de développement par la NASA et le DoE (Department of Energy) sont capables de résister à des montées en température jusqu’aux températures opérationnelles de propulsion nucléaire thermique sans subir de dommages importants.

Relevons pour terminer, que la mise au point d’un vaisseau équipé de moteurs de type DRACO rendrait passablement obsolètes les vaisseaux à propulsion chimique ”classique” tels que développés actuellement aux Etats-Unis dans le cadre du programme Artemis, ou le Starship de la firme SpaceX, qui devraient devenir opérationnels plus ou moins à la même période (fin des années 2020). A moins que ces vaisseaux puissent être rééquipés avec ces nouveaux moteurs nucléaires, ce qui paraît difficile avec un vaisseau de conception très monolithique comme le Starship par exemple. Cependant cela n’enlève pas tout intérêt au Starship, pour aller sur la Lune (on éviterait les transbordements en orbite pour un voyage qui reste court dans ce cas) ou pour transporter des charges massives et volumineuses non soumises à une contrainte de temps (on éviterait également ces mêmes transbordements).

4. La première production d’électricité d’origine nucléaire a été réalisée aux Etats-Unis, au laboratoire national de l’Idaho, le 20 décembre 1951; l’installation expérimentale EBR-1 ayant permis ce jour-là de produire suffisamment d’électricité … pour illuminer 4 ampoules de 200 watts!

5. C’était dans l’air du temps. Dans l’euphorie d’après-guerre et de la promesse d’une ”énergie sans limite” grâce à la fission nucléaire, on envisageait d’appliquer celle-ci à la propulsion de pratiquement tous les types de véhicules; on a vu ainsi fleurir à l’époque des projets non seulement de bateaux à propulsion nucléaire (ce qui sera réalisé), mais encore d’avions et même de trains ”atomiques” (comme on disait à l’époque)!

6. Cette féroce bataille entre firmes américaines pour l’attribution des juteux contrats de la NASA se répète aujourd’hui avec la lutte qui oppose SpaceX, gagnante initiale de la compétition pour l’atterrisseur lunaire du programme Artemis, à Blue Origin et Dynetics qui contestent cette attribution unique et réclament avec virulence d’avoir également part au gâteau.

7. L’uranium naturel (tel qu’on le trouve dans la nature) ne contient que 0,72 % d’uranium-235 fissile, le reste étant de l’uranium-238 qui n’intervient en principe pas (en fait, peu) dans les fissions se produisant dans un réacteur nucléaire ”classique”. Pour améliorer les taux de réactions de fission, on enrichit en uranium-235 le combustible de ces réacteurs (augmentation du pourcentage d’uranium-235). C’est une opération difficile, car l’uranium-235 et l’uranium-238 appartenant par définition au même élément chimique il n’est pas possible de faire intervenir des procédés chimiques de séparation; il faut recourir à des opérations physiques (diffusion, centrifugation, séparation laser) jouant sur la faible différence de masses entre les deux isotopes.

Illustration de titre : Vue d’artiste de la société ”General Atomics” d’un vaisseau spatial ”Draco” à destination de la planète Mars ; crédit General Atomics Electromagnetic Systems (GA-EMS). C’est cette société qui a été chargée par la DARPA de concevoir le réacteur nucléaire et le moteur.

Liens :

https://www.nasa.gov/directorates/spacetech/game_changing_development/Nuclear_Thermal_Propulsion_Deep_Space_Exploration

https://www.energy.gov/ne/articles/6-things-you-should-know-about-nuclear-thermal-propulsion

https://x-energy.com/why/nuclear-and-space/nuclear-thermal-propulsion

https://www.nasa.gov/mission_pages/tdm/nuclear-thermal-propulsion/index.html

https://en.wikipedia.org/wiki/NERVA

https://www.nasa.gov/press-release/nasa-announces-nuclear-thermal-propulsion-reactor-concept-awards

https://www.nasa.gov/directorates/spacetech/nuclear-propulsion-could-help-get-humans-to-mars-faster

https://www.nasa.gov/press-release/nasa-darpa-will-test-nuclear-engine-for-future-mars-missions

https://www.nasa.gov/sites/default/files/atoms/files/darpa-nasa_draco_nonreimbursable_interagency_agreement_final_2023-01-11_.pdf

https://breakingdefense.com/2023/01/nasa-funding-draco-nuclear-thermal-rocket-engine-under-deal-with-darpa/

https://www.ga.com/ga-completes-draco-nuclear-thermal-propulsion-system-design-and-test-milestone

DRACO, le « dragon » nucléaire de la NASA qui renouvelle les perspectives d’un accès facilité à la planète rouge (1)

Après cinquante longues années, l’Administration américaine vient de relancer l’étude de la propulsion nucléaire pour ses vaisseaux spatiaux avec l’objectif d’en faire une démonstration en vol en 2027. C’est une révolution. J’ai pensé que Pierre-André Haldi était la personne la plus qualifiée pour vous en parler puisqu’il a formé pendant de longues années les étudiants de l’EPFL sur les systèmes énergétiques, notamment nucléaires, et les questions de sécurité/fiabilité qui y sont liées. Je lui passe donc la plume pour cette semaine et la semaine prochaine. Vous apprendrez avec lui tout ce qu’il convient de connaître sur la propulsion nucléaire thermique, ses extraordinaires capacités, et ses quelques inconvénients :

Peut-être inspirée par la série ”Game of Thrones” (!), la NASA vient de conclure le 24 janvier 2023 un accord de coopération (Non-reimbursable Interagency Agreement) avec la DARPA (Defense Advanced Research Projects Agency1)) pour faire voler dans l’espace avant la fin de la présente décennie son propre ”dragon” (DRACO, pour : Demonstration Rocket for Agile Cislunar Operations2)), en l’occurrence un vaisseau à propulsion nucléaire thermique destiné in fine à faciliter l’accès à la planète Mars. Pour mieux comprendre le pourquoi et le comment de cette relance d’une technologie laissée en sommeil pendant plus de 40 ans, il n’est pas inutile de revenir sur les principes de base de la propulsion spatiale et l’intérêt que présente l’énergie nucléaire dans ce domaine.

Pour se mettre en orbite, ou pour toute manœuvre de modification de trajectoire, les engins spatiaux font appel à des moteurs-fusées qui mettent en œuvre le bien connu principe action = réaction. Ces moteurs éjectent ”quelque chose” (gaz, particules ionisées …), ce qui leur permet de donner à l’engin spatial une impulsion dans la direction opposée ; cette impulsion est d’autant plus forte que le débit et la vitesse des masses éjectées sont grands (poussée F = D . ve). Action et réaction sont des forces, et une force dont le point d’application se déplace effectue un travail ou, en d’autres mots, une dépense d’énergie. Toute la question, dans le domaine spatial comme dans tout autre, est donc de chercher la source d’énergie présentant la meilleure efficacité. Dans le domaine de la propulsion spatiale, cette efficacité est donnée par l’impulsion spécifique, un paramètre qui fait intervenir le quotient de l’impulsion fournie à la fusée par la consommation en une seconde d’un kilogramme-poids de propergol (Isp = F/(D.g) = ve/g, g étant l’accélération de la pesanteur terrestre, soit 9,81 m/s2). L’impulsion spécifique se mesure en secondes, c’est la durée pendant laquelle un kilogramme de propergol produit la poussée nécessaire pour soulever une masse d’un kilogramme dans le champ gravitationnel terrestre (c’est-à-dire une poussée de 9,81 newtons). On comprend donc que plus l’impulsion spécifique est élevée, meilleure est l’efficacité de la propulsion.

La première, et jusqu’ici pratiquement la seule, énergie mise en œuvre pour la propulsion des fusées repose sur un phénomène chimique des plus courants, la combustion (qui du point de vue chimique est une oxydation) d’un carburant en présence d’un comburant ou oxydant. A remarquer qu’il n’est pas forcément nécessaire de faire intervenir séparément un carburant et un comburant, que l’on désigne sous le nom général de propergols, car la décomposition d’un seul corps peut dans certains cas également donner lieu à un dégagement de chaleur important (la bombe volante V1 de sinistre mémoire utilisait par exemple la décomposition d’eau oxygénée, H2O2). De nombreuses combinaisons de carburant (le plus souvent un composé de carbone et/ou d’hydrogène) /comburant (oxygène ou composé oxygéné de l’azote, ou du fluor) ont été utilisées au fil des années, avec des impulsions spécifiques allant de 230 secondes pour des propergols peu évolués mais d’un autre côté peu coûteux, jusqu’à 450 secondes avec l’hydrogène liquide (LH2) associé à l’oxygène liquide (LOX). Cette bonne performance du couple hydrogène/oxygène s’explique par le fait que la vitesse d’éjection que peut produire un moteur-fusée est proportionnelle à la racine carrée de la température atteinte dans la chambre de combustion et inversement proportionnelle à la masse moléculaire des gaz éjectés. Or non seulement la température de combustion de l’hydrogène H2 est élevée (2130 °C), mais encore c’est le corps qui présente la plus faible masse molaire (2 g/mol) ; à noter cependant que ce n’est pas l’hydrogène lui-même qui est éjecté dans ce cas, mais le produit de sa combustion avec l’oxygène qui donne de la vapeur d’eau (combustion par conséquent non polluante !), de masse molaire 18 g/mol. L’intérêt du couple LH2-LOX est tel que son utilisation tend à se généraliser, malgré les importantes difficultés techniques à surmonter. Ces deux ergols, mais tout particulièrement l’hydrogène, posent en effet des problèmes de stockage et d’alimentation (pompes, tuyauteries) du fait qu’ils doivent être maintenus à des températures extrêmement basses – à pression atmosphérique : -253 °C pour l’hydrogène et -183 °C pour l’oxygène – afin d’éviter qu’ils ne s’évaporent. La faible densité de l’hydrogène impose par ailleurs des réservoirs très volumineux, raison pour laquelle on utilise généralement le couple LH2-LOX pour propulser les étages supérieurs des lanceurs lourds uniquement. Quoi qu’il en soit, on atteint là une limite physique, on ne peut espérer obtenir des impulsions spécifiques supérieures si l’on se restreint à la combustion d’ergols.

Et c’est là qu’intervient l’énergie nucléaire, qui ne connaît pas, elle, cette limite. Fondamentalement, un moteur-fusée nucléaire ne se distingue guère de son pendant chimique, il s’agit toujours de porter un gaz à très haute température et de l’éjecter ensuite en le détendant au travers d’une tuyère qui lui confère une vitesse de sortie  élevée. La différence principale réside dans la manière de porter ce gaz à haute température, plus besoin ici de combustion, ce sont les réactions de fission réalisées au cœur d’un réacteur qui fournissent l’énergie nécessaire3) (le fluide à éjecter traversant le cœur en question pour s’échauffer). Cette importante différence a deux conséquences majeures : 1/ la température n’est plus limitée par une température de combustion donnée mais uniquement par celle que peuvent supporter les matériaux de structure sans se mettre à fondre, 2/ il devient possible d’éjecter directement de l’hydrogène, et non plus le produit de sa combustion avec l’oxygène, bénéficiant ainsi pleinement de sa faible masse molaire. Pas étonnant donc que l’on arrive ainsi à réaliser des impulsions spécifiques de l’ordre du double de celle obtenue avec le couple LH2-LOX, un gain de performance considérable permettant de raccourcir la durée des trajets. Un autre avantage décisif de l’énergie nucléaire, surtout lorsqu’on sait à quel point le facteur masse est critique en astronautique, est la très grande densité énergétique de son combustible ; si la combustion d’un kilogramme d’hydrogène dégage une énergie d’un peu moins de 40 kWh, ce sont environ 23 millions de kWh que produit la fission complète d’un kilogramme d’uramium-235, soit non loin de 600’000 fois plus!

Par contre, il n’est pas exact de prétendre, comme on le lit parfois, que la propulsion thermique nucléaire offrirait la possibilité d’une poussée quasi-continue sur la durée d’un trajet Terre-Mars par exemple. Même si le combustible nucléaire embarqué pourrait effectivement fournir au vaisseau de l’énergie non-stop sur plusieurs années, la propulsion reste, comme dans le cas de la combustion, tributaire des réserves d’ergols qui peuvent être stockées à bord d’un vaisseau spatial, réserves qui sont, elles, loin d’être inépuisables. Le nucléaire présente néanmoins là encore deux avantages sur la combustion, d’une part comme on l’a vu une utilisation plus efficace des quantités stockées ce qui permet d’obtenir avec celles-ci des Δv plus importants, et d’autre part le fait que le volume de réservoirs à disposition peut être entièrement utilisé pour stocker le fluide de propulsion (typiquement l’hydrogène) et non pas partagé avec le comburant nécessaire en plus dans le cas de la combustion. Le point négatif de la propulsion nucléaire (rien n’est jamais parfait !) est évidemment la radioactivité des produits de fission émise par tout réacteur en fonctionnement, ou ayant fonctionné, dont il convient de protéger l’équipage et les équipements sensibles. Cela nécessite d’intercaler des écrans de protection, inévitablement massifs et lourds, entre le réacteur et les quartiers d’habitation du vaisseau et de faire intervenir par ailleurs le facteur distance, raison pour laquelle les vaisseaux spatiaux à propulsion nucléaire présentent le plus souvent un aspect très allongé. Notons à ce propos que la crainte souvent évoquée dans le grand public des conséquences d’un éventuel accident (explosion) au lancement n’est pas fondée ; Il est en effet hors de question de mettre en service le réacteur embarqué tant que le vaisseau se trouve dans l’environnement terrestre (c’est-à-dire susceptible de retomber au sol, entier ou en morceaux). Or un réacteur qui n’a encore jamais fonctionné (le terme technique est : ”divergé”) ne renferme par définition aucun produit de fission ; il y a bien une certaine radioactivité de l’uranium lui-même, mais celle-ci est extrêmement faible et ne pose pas de problèmes. Un vaisseau à propulsion nucléaire thermique sera donc mis en orbite par un lanceur à propulsion chimique ”classique” et son réacteur activé uniquement lorsqu’une distance de sécurité suffisant avec la Terre aura été atteinte. Ensuite, le vaisseau devra rester à jamais dans l’espace, ce qui veut dire que s’il doit être réutilisé il devra être ravitaillé, et remis en état le cas échéant, en orbite.

  1. La DARPA a été créée en réponse à la mise en orbite par l’Union Soviétique de Spoutnik 1 en octobre 1957, une grande première, de retentissement mondial, qui a pris les Etats-Unis totalement par surprise. Pour éviter de se voir à nouveau brûler la politesse à une autre occasion dans des secteurs technologiques stratégiques, la DARPA a reçu la mission d’effectuer une veille technologique dans tous les domaines d’intérêt crucial pour la défense nationale US et de lancer au plus tôt les actions de recherche et développement utiles dès qu’un tel domaine est identifié. 
  2. Les Américains aiment bien donner à leurs projets des appellations dont l’acronyme signifie quelque chose. Dans le cas présent, la formulation est néanmoins aussi tarabiscotée (on imagine la prise de tête des responsables pour arriver à concocter dans ce cas un nom qui ait un sens !) qu’elle n’est pas très appropriée, le DRACO n’ayant pas pour vocation de se cantonner au final à des missions entre la Terre et la Lune.
  3. Il s’agit d’une application de la fameuse relation d’Einstein : E=Δmc2, qui indique que la disparition d’une certaine masse (défaut de masse” Δm) au cours d’une réaction conduit à un dégagement d’énergie . Or, dans une réaction de fission la masse additionnée de tous les produits issus de la réaction – fragments du noyau d’origine plus 2 à 3 neutrons – est très légèrement inférieure à celle additionnée du noyau d’origine et du neutron qui a provoqué la cassure de celui-ci. Ce défaut de masse est certes très faible, mais compte tenu de la valeur élevée du facteur c2 (c, vitesse de la lumière, est égal à environ 300 millions de m/s) et du nombre extrêmement grand de fissions se produisant dans le cœur d’un réacteur, l’énergie totale dégagée est considérable.

Illustration de titre : Vue d’artiste du vaisseau DRACO. Ce vaisseau doit démontrer la capacité de fonctionnement d’un moteur-fusée thermique nucléaire. Crédit : DARPA/NASA/USSF