KRUSTY offre à Elon Musk une vraie chance de transformer son essai

Malgré l’appréhension qu’elle suscite a priori, l’énergie nucléaire semble devoir être le meilleur support au développement d’un établissement humain sur Mars. La NASA travaille en partenariat avec le DOE* pour une solution de réacteur efficace, fiable et transportable. Des progrès considérables sont en cours.

*Département Fédéral de l’Energie des Etats-Unis

Après avoir interrompu les premières réalisations de réacteurs nucléaires pour l’espace il y a une cinquantaine d’années suite à la prise de conscience de la dangerosité de l’utilisation des matières radioactives (confirmée en 1979 par l’accident de la centrale de Three Miles Island), la NASA (Glen Research Center) a recommencé à les étudier en 2006, dans un esprit soucieux de l’environnement et visant la simplicité dans le cadre de technologies éprouvées et maîtrisables. Elle a publié cette année-là une étude sur les réacteurs de petites puissances utilisables en surface planétaire pour y produire de l’électricité en couplant ces réacteurs à des moteurs Stirling. En 2010 une évaluation technologique faite lors d’un « Planetary Science Decadal Survey » a constaté ou plutôt confirmé que les réacteurs à fission pouvaient offrir une alternative préférable sur tous les plans aux générateurs thermoélectriques à radio-isotopes (« RTG ») et a posé les bases du projet «Kilopower ». Dans la lancée, la NASA (Glen Research Center et Marshal Space Flight Center) et le DOE (National Nuclear Security administration et plusieurs laboratoires dont le célèbre Los Alamos National Laboratory) constituèrent un partenariat chargé de travailler sur la faisabilité puis la conception des réacteurs avec deux objectifs, d’une part la propulsion hors environnement planétaire et d’autre part la production d’énergie nécessaire à la vie en surface. En Septembre 2012 le concept Kilopower a franchi avec succès son test de faisabilité (« proof of concept ») et le Partenariat a jeté les bases du sous-projet KRUSTY (pour « Kilowatt Reactor Using Sirling TechnologY ») pour la production d’énergie en surface planétaire, laissant de côté (pour le moment ?) le sous-projet concernant la propulsion interplanétaire. KRUSTY a ensuite (à partir de 2015) passé avec succès d’autres tests, sans matière radioactive mais avec un cœur métallique non radioactif chauffé, puis avec de l’uranium appauvri (Novembre 2017). Une réunion tenue le 18 janvier 2018 a fait le point pour la suite. Ce sera le test à froid des composants du réacteur avec son cœur d’uranium enrichi (235U) en place. Enfin la démonstration « grandeur réelle » (avec réaction lancée) aura lieu fin mars 2018. Le TLR (Technology Readyness Level) visé est supérieur à 5 (sur 9). L’affaire devient sérieuse !

A noter que l’utilisation des matières radioactives dans l’exploration spatiale n’a cependant pas cessé durant ces dernières décennies (27 missions, de Viking dans les années 1970 à Curiosity aujourd’hui, y ont eu recours) mais qu’elle l’a toujours été selon le processus du « générateur » RTG, plus simple que le « réacteur » et utilisant une source radioactive extrêmement instable (d’où son intérêt mais aussi sa dangerosité), le plutonium 238, « 238Pu », (demi-vie de 87,7 ans et masse critique de 10 kg seulement). Mais cette source se fait rare car on le produit très lentement (actuellement 400 g par an pour un stock mondial de 18 kg) et qu’on hésite beaucoup à le faire par crainte de dissémination dans l’atmosphère en cas d’échec du lancement. Enfin, l’efficacité du générateur est faible. Ainsi, dans le cas de Curiosity, la chaleur générée par ses 4,8 kg d’oxyde de 238Pu est de 2 kWt mais la puissance électrique récupérée n’est que de 110 We (celle d’une bonne lampe électrique domestique !). Aucun système basé sur le principe du RTG n’a donné de puissance supérieur à 290 We et c’est bien là le problème car une mission habitée sur Mars requerra évidemment beaucoup plus. On estime le besoin à quelques 40 kWe pour une base abritant 4 personnes actives*. Pour mémoire la « génération » d’électricité par le RTG consiste à transformer en cette forme d’énergie la chaleur provenant de la dégradation spontanée et continue de la matière radioactive; la chaleur est captée par des thermocouples fixés sur le cœur du réacteur, la source froide étant constituée par l’environnement extérieur renforcé par des radiateurs évacuant la chaleur dans l’atmosphère et (dans le cas de Curiosity ou d’autres sondes spatiales) de capteurs branchés à une tuyauterie allant réchauffer divers centres stratégiques de l’équipement.

*Etant donné qu’une maison en Europe occidentale équipée en « tout électrique » fonctionne avec des puissances de l’ordre de 15 kWe, on peut s’étonner de cette puissance modique visée. On suppose que les équipements prévus et leur utilisation seront extrêmement bien gérés compte tenu du besoin constant d’y recourir et des conditions environnementales extrêmement dures.

Le réacteur nucléaire repose sur un tout autre principe. Il s’agit de déclencher une réaction en chaîne de fission par impacts de neutrons, cette réaction produisant de la chaleur, à partir d’un matériau certes radioactif mais pas nécessairement aussi instable que le 238Pu et qui peut (doit donc !) être contrôlée ou pilotée à l’intérieur d’une structure sophistiquée comprenant une source radioactive (le cœur), un réflecteur de neutrons, un déclencheur/interrupteur, un bouclier, une liaison avec un générateur d’électricité et un radiateur. On a choisi pour cœur de Kilopower, de l’Uranium 235 (235U), élément habituel des réacteurs nucléaires, dont la « demi-vie » est très longue (700 millions d’années) mais qui a un « excès de masse » important (favorable à la fission). Sa réaction en chaîne peut être spontanée mais seulement si la quantité de matière atteint son niveau de « masse critique » (48 kg) ; autrement elle doit être provoquée, ce que précisément l’on veut pour KRUSTY afin de mieux le maîtriser. Ce cœur sera un cylindre d’un alliage de 235U et de molybdène (7%). Puisqu’il ne comportera au maximum que 43 kg d’235U (en dessous de la masse critique), il sera relativement peu actif tant que la réaction en chaîne de fission ne sera pas initiée (c’est un « détail » important pour la traversée de l’atmosphère). Mais cette quantité de matière radioactive sera suffisante pour fournir, compte tenu de la présence du réflecteur, une puissance thermique de 40 kWt et in fine (après transmission de la chaleur – entre 800 et 650°C – aux convertisseurs Stirling et utilisation de ces convertisseurs) une puissance électrique de 10 kWe. L’alliage avec le Molybdene est choisi pour ses qualités stabilisatrices ; il élimine les problèmes de changement de phase, de température de fusion trop basse, et améliore la résistance au fluage à haute température. Le réflecteur sera comme souvent, en oxyde de béryllium. Il a la fonction très importante de permettre d’abaisser la masse critique et donc de permettre la réaction en chaîne (sans lui rien ne peut se passer). On peut ne le mettre en position qu’après l’arrivée sur le sol de Mars et il est de plus modulaire (disques) ce qui fait qu’il peut être plus ou moins actif. Le dispositif est complété par un déclencheur, comme souvent une barrette de carbure de bore, élément absorbeur de neutrons, située au centre du cœur au départ mais que l’on peut bouger pour désinhiber la réaction ou au contraire l’interrompre.

Le réacteur ainsi complété va alimenter en chaleur via des tubulures contenant du sodium à l’état gazeux, un certain nombre de convertisseurs en électricité de type Stirling (extrémité chaude et extrémité froide avec circulation d’un piston en fonction du chauffage puis du refroidissement d’un gaz) équipés d’un radiateur (renforçant la source froide) s’ouvrant en ombrelle de 20 m2, au-dessus des convertisseurs. Il est bien sûr protégé par un bouclier antiradiations (en tungstène et hydrure de lithium).

Image ci-dessus : magnifique parapluie ouvert de KRUSTY, crédit NASA, hauteur  3.00 m

Le système effectue une conversion de chaleur en électricité beaucoup plus efficace que le RTG (de l’ordre de 10 fois plus de puissance électrique pour la même masse). La masse du réacteur produisant 40 kWt (toute une gamme allant de 4 à 40 est prévue) sera, pour le réacteur y compris le cœur, le réflecteur et les tubes au sodium, 235 kg ; la masse du bouclier, 547 kg, la masse du reste (convertisseurs Stirling et radiateur), 763 kg. Au total pour le système entier on devrait avoir une masse de 1544 kg ce qui donne pour l’ensemble une puissance spécifique de 6,5 W/kg*. Pour comparaison la masse du RTG de Curiosity est de 45 kg (mais ne donne une puissance électrique que de 0,1 kW). Pour atteindre les 40 kWe estimés nécessaire à la première base martienne, on aura donc besoin de 4 unités KRUSTY de 10 kWe. C’est effectivement la quantité que l’on peut envisager exporter sans problème de la Terre dans « nos » fusées de type Falcon Heavy (ou mieux BFR).

*c’est le meilleur rapport que l’on puisse obtenir. Le KRUSTY de 1 kWe de puissance ne pouvant avoir une puissance spécifique que de 2,5 W/kg et le KRUSTY de plus de 10 kWe impliquant une masse critique de 235U trop importante.

Il n’a pas été facile de mettre au point ce petit réacteur car jusqu’à présent on n’avait envisagé que de gros formats (minimum 40 kWe de puissance) qui supposaient des technologies différentes (et plus de risques). Une des idées nouvelles est le système de transmission de la chaleur du réacteur aux convertisseurs à l’aide de tube de sodium (et non pas d’eau, par exemple) passant à l’intérieur même du cœur. La géométrie du système est également très intéressante car elle permet un haut coefficient de réactivité de température négative qui favorise l’auto-régulation (la réaction en chaîne diminue lorsque la température monte). En résumé l’ensemble des dispositions prises permet de réduire considérablement le risque de radiations lors du lancement tout en permettant une excellente puissance spécifique sur place.

Mais pourquoi s’intéresser à l’énergie nucléaire plutôt qu’à d’autres sources d’énergie ?

L’avantage est évidemment que le réacteur peut fonctionner jour et nuit alors que le Soleil ne donne de l’énergie que durant le jour, et en l’absence de tempête de poussière. La durée de vie de plus de 10 ans permet d’envisager une utilisation sereine pendant plusieurs séjours sur Mars (rappelons qu’il sera d’environ 18 mois en raison de l’évolution des positions respectives des planètes). La masse également est nettement plus faible que celle des panneaux solaires capables de mettre à disposition la même puissance électrique (d’autant qu’avec le temps les panneaux peuvent se couvrir de poussière). Ceci dit, par prudence et pour disposer d’un maximum de flexibilité, une base martienne jouera probablement sur toute la gamme des sources d’énergie possibles dont le solaire sous ses divers aspects (des progrès dans le taux de conversion de la lumière en électricité sont toujours possibles), le chimique méthane/oxygène, permettant notamment la pile à combustible au méthanol, et si possible le géothermique. La suite de Kilopower devrait être un « Megapower » fournissant une puissance de 2 MWe. Il reste à étudier mais on entrevoit que le « Mega-Krusty » qui devrait en résulter, permettrait la viabilisation et le fonctionnement d’une colonie importante.

Comme souvent les avancées technologiques se nourrissent l’une l’autre. Grâce aux fusées Falcon Heavy puis BFR (propulsion chimique) et à la volonté d’Elon Musk, on pourra aller sur Mars, et grâce à KRUSTY puis à MegaPower on pourra y vivre et y produire et transformer. Il faut bien voir que cette amélioration des possibilités de générer de l’électricité en surface ouvre de vraies perspectives d’installation humaine sur Mars. Les seuls « bémols » sont que pendant longtemps il faudra encore importer les réacteurs de la Terre…et surtout que, vis-à-vis des préjugés, il faudra oser le principe même du nucléaire.

Image à la Une : Environnement énergétique d’une future base martienne, composé de plusieurs unités de KRUSTY.

Image ci-dessous : Schéma KRUSTY, “en toute simplicité” (crédit NASA):

Liens :

file:///H:/Capsule%20nouvelle%202018%2001%2017/Kilopower%20Fission%20Project/Kilopower%20Fission%20Project%2020170002010.pdf

“NASA’s Kilopower Reactor Development and the Path to Higher Power Missions” par Marc A. Gibson, ingénieur en chef de la NASA pour le projet Kilopower, et al. 04 février 2018

file:///H:/Capsule%20nouvelle%202018%2001%2017/Kilopower%20Fission%20Project/AIAA2014-3458Gibson.pdf

“Kilopower, NASA’s Small Fission Power System for Science and Human Exploration” par Marc Gibson,  Propulsion and Energy Forum, Cleveland, Juillet 2014 DOI: 10.2514/6.2014-3458.

https://beyondnerva.wordpress.com/2017/11/19/krusty-first-of-a-new-breed-of-reactors-kilopower-part-ii/

Blog “Beyond Nerva” 19 Nov. 2017.

Les premier hommes sur Mars puiseront leurs matières premières dans la poussière

Mars n’a pas d’eau liquide en surface mais elle a de la poussière et du sable, ce sont des éléments meubles, homogènes et riches qui lui sont, sous ces aspects, équivalents. Il faudra en tirer parti. Sur l’image “à la une” vous voyez au premier plan une étendue de couleur gris-foncé et en arrière-plan, beaucoup plus haut dans la montagne, des masses de couleur beige-clair. La première est une dune de sable basaltique comme on en a observée beaucoup dans la région, les secondes sont des accumulations de poussière agglomérée.

Il y a une première différence entre le sable et la poussière, c’est la taille des grains qui les composent (typiquement sur Mars plus de 50 µm pour le sable et moins de 30 µm pour la poussière, avec abondance aux environs du micromètre). Le grain de sable est plus lourd que le grain de poussière (c’est cela, en rapport avec sa taille, qui l’en distingue). En raison de la faible force du vent résultant de la faible densité de l’atmosphère (pression moyenne au sol martien, 611 pascals), le grain de sable est peu mobile. La caractéristique principale du grain de poussière est au contraire d’être très mobile puisque très léger. Il peut rester en suspension quasi indéfiniment dans l’atmosphère ou bien être transporté autour du globe par les vents les plus forts. Il résulte soit de la décomposition de certaines roches de surface au grain très fin, soit de la saltation des grains de sable eux-mêmes.

Bien sûr en géologie tout évolue avec le temps et la consistance des accumulations de poussière, comme de sable, a changé depuis leur formation et continue à changer. Certaines dunes continuent à bouger, d’autres se sont stabilisées et durcies (diagénèse). La poussière après avoir volé a pu s’accumuler et s’incruster puis elle-aussi durcir (diagénèse). Une grande partie reste mobile, flotte dans l’atmosphère lui donnant sa couleur ocre-rougeâtre, une autre, un peu plus lourde, recouvre le sol, une autre encore qui n’a pu être soulevée depuis très longtemps ou qui est toujours soumise aux mêmes pressions (vents unidirectionnels) s’est tassée et s’est transformée en roche sans doute friable (du moins en surface) comme le lœss chinois. C’est cette dernière variété qui enrobe le pic qui probablement se trouve au centre du Cratère Gale et constitue l’armature du Mont Sharp.

Outre le degré de mobilité, il y a une seconde différence entre le sable et la poussière mais elle en résulte, c’est la composition chimique. En effet la poussière étant globale, elle a été homogénéisée. On retrouvera une composition à peu près identique partout et surtout une très grande richesse en variété d’éléments chimiques car elle reflète l’ensemble de la composition chimique de la surface martienne (ou plus exactement des roches accessibles à l’érosion éolienne au cours des 3,5 milliards d’années pendant lesquels elle a été dominante). Les différentes sondes posées sur le sol de Mars l’ont constaté comme le montre le graphe ci-dessous établi sur la base des observations faites sur des échantillons de sol par les laboratoires mobiles Spirit, Opportunity puis Curiosity, à des endroits très différents de la planète.

Photo PIA16572: “Inspecting Soils Across Mars” 03 12 2012; Crédit image: NASA/JPL-Caltech/University of Guelph; Les niveaux de dioxyde de silicium et des oxydes de fer ont été divisées par 10; Les niveaux de nickel, zinc et brome ont été multipliés par 100

Le sable, lui, résulte de l’érosion locale ; il est donc de ce fait, essentiellement local et reflète la géologie du lieu. Ceci dit les différences sont assez peu marquées du fait de l’absence de tectonique des plaques qui sur Terre mélange et renouvelle les minéraux par métamorphisme. Plus de la moitié du socle rocheux de la surface de Mars est constituée d’éléments magmatiques primordiaux (« mafiques », roches silicatées contenant beaucoup de manganèse et de fer, et « ultramafiques ») alors que la surface des plaines du Nord de Mars ont été recouvertes d’épanchements volcaniques « tardifs » riches en soufre (hespérien surtout et un peu début amazonien) très liquides.

On pourra trouver « autre chose » car l’eau a beaucoup hydraté certains sites pendant quelques petites centaines de millions d’années (jusqu’à -3,6 milliards d’années environ) et le volcanisme a pu sélectionner les minéraux. Les deux ont provoqué ou facilité des réactions chimiques avec les éléments (contenus dans l’atmosphère et dans le sol) entrant en contact avec eux. L’hydratation a produit des argiles (phyllosilicates) et sans doute des filons (concentrations) de minéraux y compris de métaux. Le volcanisme a produit des sulfates et concentré certains métaux.

L’homme sur Mars pourra en tirer profit comme sur Terre. Il pourrait certes exploiter le sous-sol de Mars en creusant des mines mais cela impliquerait des infrastructures lourdes, difficiles à importer ou alternativement à créer sur place et de toute façon à exploiter. Il sera sans doute préférable, du moins au début de son installation, que tout simplement il ramasse le sable ou la poussière de surface (sol) et en extraie les minéraux dont il aura besoin, notamment le fer et les métaux sidérophiles, la silice (pour le verre) et les sulfates.

La collecte pourrait se faire par pelles mécaniques robotisées opérant sur sites repérés pour leur abondance et pour leur proximité de la base (à combiner avec la proximité des gisements de glace d’eau !), ou au niveau des filtres des aspirateurs d’atmosphère qui alimenteront des concentrateurs en liaison avec les installations de transformation du CO2 en méthane et oxygène. Comme ces filtres devront constamment être nettoyés, le produit du nettoyage pourrait facilement être traité d’autant qu’il pourrait y avoir plusieurs filtres aux mailles de plus en plus serrées (les poussières pourraient être libérées par vibrations périodiques des filtres placés au-dessus de bacs circulants). Pour le traitement (la fonte et la purification des éléments) on peut imaginer des fours solaires alimentés par de grandes surfaces réfléchissantes (comme le four solaire d’Odeillo dans les Pyrénées). Ce four dont vous voyez une image ci-dessous, permet de parvenir très vite à des températures très élevées (à Odeillo, 3500 ° C). L’utilisation de ces ressources pour produire du verre ou des structures en fer / acier, sera essentielle et s’imposera très vite compte tenu de la masse qu’ils représentent et dont l’importation depuis la Terre serait fort coûteuse et donc très limitée.

Référence :

“Chemical, mineralogical, and physical properties of Martian dust and soil” par D.W. Ming et R.W. Morris, Astronautical Research and Exploration Science Division, NASA JSC (LPI contribution n°1966, 2017).

Image à la Une: le Mont Sharp (Cratère Gale) vu le 25 septembre 2015, photo NASA (avec éclairage terrestre restitué, « white balanced »). La « tache » foncée au premier plan est une partie du champ de dunes nommé « Bagnold ». Crédit NASA/JPL-CalTech/MSSS 

Image ci-dessous : principe du four solaire d’Odeillo:

 

Elon Musk did it !

Mardi à 21h45, comme prévu, le Falcon Heavy de Space X a fait un départ de la Terre (presque) « sans faute ». La réussite de ce test qui était moins qu’évidente, prouve que l’audace d’Elon Musk est fondée sur le sérieux d’une maîtrise technologique sans faille. Les concurrents, dont l’ESA toujours très critique, ne peuvent que se rendre à l’évidence, ils sont largement distancés et le public qui veut l’aventure martienne peut maintenant raisonnablement espérer.

La plus belle photo de cet exploit est sans doute celle capturée à l’écran et placée en « image à la une », qui montre le retour simultané des deux « side-boosters » (fusées latérales) du « core-booster » (fusée centrale) sur le site de lancement des fusées Saturn V du programme Apollo, à Cap Canaveral. Un problème technique sur la barge en mer où devait se poser le core-booster a empêché de voir ce troisième élément de propulsion se re-poser* mais cela n’entame en rien la satisfaction du succès. La récupération des lanceurs « marche » et le vaisseau spatial est en route vers l’orbite martienne avec à son bord la voiture personnelle d’Elon Musk car, compte tenu des risques d’échec (évalués par lui-même à 50/50) il n’a pas voulu vendre la montée en orbite à qui que ce soit.

*On a appris plus tard que cet élément avait “raté”  la barge d’une centaine de mètres et avait donc sombré dans l’océan.

Au-delà de ce côté spectaculaire, ce qui était le plus risqué dans ce test et qui n’avait jamais été tenté, était de faire fonctionner ensemble les 27 moteurs (« merlin ») du 1er étage. 27 moteurs en l’occurrence c’est trois fois neuf, c’est-à-dire trois lanceurs de la génération précédente, Falcon 9, fonctionnant côte à côte. Et ce n’est pas une simple addition mais un problème de coordination des combustions, de plomberie pour une alimentation régulière, de maîtrise des vibrations et de maîtrise des forces de propulsion (imaginez les attaches des boosters latéraux au booster central et le moment où les deux boosters latéraux doivent se désolidariser du booster central !).

Falcon Heavy qui pèse au départ 1400 tonnes, pourra, avec une poussée de 2500 tonnes, mettre 64 tonnes en orbite basse terrestre (LEO). C’est trois fois la capacité de lancement d’Ariane V de l’ESA (20 tonnes) et plus de deux fois la fusée la plus puissante jusqu’à aujourd’hui, celle de l’armée américaine, Delta IV Heavy (28,8 tonnes), c’est moitié moins que celle de Saturn V, la fusée du programme Apollo qui a permis l’aventure lunaire (dernier vol en 1973 !). Mais maintenant qu’Elon Musk a réussi son lancement de Falcon Heavy, il va s’attaquer au BFR (big Falcon Rocket) qui pourra largement concurrencer Saturn V.

Franchement, les opérations commerciales ne nécessitent pas une telle capacité de lancement. C’est un peu pour cela que la capacité de la fusée Ariane n’a pas augmenté avec Ariane VI par rapport à Ariane V, l’Europe (ESA) préférant pouvoir lancer souvent pour répondre rapidement à la demande des clients, plutôt que gros et lourd. Ceci dit il y a de temps en temps des lancements lourds et de toute façon SpaceX continuera à produire le Falcon 9 qui du fait de la modularité de sa conception, n’est qu’une fraction de Falcon Heavy et utilise les mêmes moteurs. La différence, et elle est de taille, c’est que l’exploration par vols habités était impossible sans lanceurs lourds et l’on sait que tout ce que fait Elon Musk, il le fait en perspective d’aller un jour sur Mars, aussitôt que possible (vols d’essai en 2022 et vols réel en 2024).

L’aventure des vols habités vers Mars a bel et bien commencé ce soir, que le gouvernement américain le veuille ou non, que le projet SLS de la NASA qui traine depuis des années aboutisse ou non* et que les Européens y restent indifférents (après tout, Mars comme le Canada jadis, ce n’est pour « l’establishment » européens que « quelques arpents de glace »). Bravo Elon!

*Robert Zubrin, fondateur de la Mars Society, rapporte qu’il y a sept ans la Commission Augustine qui préparait le programme spatial de l’administration Obama avait dit que le programme de son prédécesseur (pour aller sur la Lune) devait être annulé (ce qu’il fut!) parce que le développement du lanceur lourd nécessiterait  12 ans et coûterait 36 milliards de dollars! 

Image à la Une: retour sur Terre des deux booster latéraux de Falcon Heavy (crédit SpaceX)

Image ci-dessous: Les 27 moteurs Merlin de Falcon Heavy (crédit SpaceX)

Dernières nouvelles, le 8 février :

Le corps central du lanceur s’est écrasé à la surface de l’océan à 500 km/h. La dernière mise à feu, pour le freinage final, n’a pas fonctionné. Il y a quelques dégâts sur la barge d’atterrissage qui se trouvait à seulement environ 300 mètres.

Starman, le passager de la décapotable Tesla rouge cerise d’Elon Musk, est parti pour l’orbite martienne après la seconde mise à feu du second étage. En fait il ira beaucoup plus loin, presque jusqu’à l’orbite de Cérès au centre de la Ceinture d’astéroïdes. Il redescendra ensuite en dessous de l’orbite terrestre.

Sur son site, SpaceX annonce non seulement la capacité de placement de masse en LEO (64 tonnes) mais également la capacité de dépose en  surface de Mars (16,8 tonnes). Avec une telle masse et plusieurs lancements, on peut déjà envisager une mission habitée sur Mars. Si vous voulez expédier votre propre voiture sur Mars…en payant le transport, je suis certain qu’Elon Musk sera ravi de vous offrir ses services (mais vous pouvez aussi financer l’envoi d’objets plus intéressants, par exemple quelques rovers d’exploration chargés d’instruments d’observation et d’analyse).

 

Les défis auxquels l’homme est confronté doivent l’attirer plutôt que le décourager

Nous sommes des poussières d’étoiles, des fruits de la Terre et du Soleil, des êtres de chair et de sang produits d’une évolution biochimique prodigieuse déroulée tout au long de 4,567 milliards d’années sur une planète bien particulière, rocheuse, où l’eau – fait rare – est abondante et liquide, orbitant autour d’une étoile de masse moyenne née quelques petits millions d’années avant elle, à la périphérie d’une galaxie spirale ordinaire parmi les innombrables qui peuplent un univers vieux de 13,8 milliards d’années.

Depuis quelques siècles nous nous éveillons à la conscience de ce monde, en ouvrant les yeux de la Science tout autour de nous pour comprendre. Nous observons, nous réfléchissons. Nous sommes peut-être uniques, les seules entités douées d’intelligence et de capacités créatrices dans cette galaxie sinon dans l’univers tout entier et nous devons en tirer un devoir moral. Depuis quelques dizaines d’années notre puissance d’observation et de réflexion a été considérablement augmentée par nos découvertes en informatique, par la création d’observatoires de plus en plus puissants et de lanceurs de plus en plus performants, par l’utilisation d’instruments de plus en plus extraordinaires comme les chromatographes, les spectromètres, les lasers, les microscopes à force atomique (entre autres !), par les mises en réseau d’ordinateurs de plus en plus rapides et par les constructions intellectuelles remarquables fondées sur les données rassemblées par ces instruments, résultant d’échanges quasi immédiats entre scientifiques du monde entier.

De ce fait nous progressons.

Nous semblons cependant contraints à l’intérieur de limites dont certaines paraissent des obstacles infranchissables. Des problèmes nous sont posés par des données physiques ou chimiques dont nous n’avons pas ou dont nous avons peu la maîtrise. Ce sont l’immensité de l’Univers, le temps que l’on ne peut que mesurer, la vitesse de communication / réception qui est absolument limitée par celle de la lumière, la gravité inhérente à toute masse, les radiations dont on ne peut parfaitement se protéger, l’énergie produite ou captée qui est épuisable, la biologie dont les (des)équilibres sont si complexes et si fragiles qu’il faut sans cesse les restaurer et qui, in fine, limitent notre durée de vie. Ces problèmes sont redoutables et souvent, d’une manière ou d’une autre, intrinsèquement liés.

Les conséquences sont différentes pour les deux domaines qui nous intéressent ici, l’astronomie et l’astronautique, la première n’impliquant pas le transport de masse (donc de besoin en énergie) que la seconde impose. Si on ouvre la fenêtre du domaine de l’astronautique on peut encore se placer du point de vue des missions robotiques ou des missions habitées, les premières n’impliquant pas toutes les complexités (et les précautions !) requises par le transport d’êtres humains. Selon ces points de vue les obstacles sont évidemment à des distances différentes et l’astronomie ouvre la voie à l’astronautique tandis que les missions robotiques ouvrent la voie aux missions habitées.

Pour avancer, l’homme louvoie. Il utilise ce qu’il peut comme il peut. Par son travail il se hisse d’abord jusqu’au niveau des connaissances acquises par ses pairs puis, grâce à l’effervescence de « ses petites cellules grises » et parfois la chance, il ajoute une idée, il fait un rapprochement, il réussit une expérience et fait pousser un peu plus la magnifique fleur de corail de nos capacités humaines.

Aujourd’hui il est donc probable que certains des murs qui nous entourent vont reculer encore, comme reculent les lignes d’horizon quand on croit s’en approcher. Et de ce fait, le « terrain de jeu » ou la « marge de progression » qu’ils nous laissent aujourd’hui et dans lesquelles nous pouvons nous exprimer, est de plus en plus vaste. Nous n’avons pas épuisé la mise en pratique de nos capacités technologiques théoriques et nous n’avons pas encore imaginé les nouvelles possibilités qui au-delà, un jour, s’ouvriront à nous. Mais pour avancer, il ne faut pas faiblir. En astronomie nous ne devons pas renoncer aux champs de télescopes interférométriques en réseaux dans l’espace même si pour le moment le projet Darwin a été annulé.  En astronautique, le projet « Breakthrough Starshot » soutenu par Stephen Hawking, pour envoyer des sondes explorer les étoiles voisines, nous ouvre des perspectives extraordinaires ; soutenons le ! Dans les années qui viennent (« l’immédiat ») nous ne devons pas faire défaut à Elon Musk pour son projet martien même s’il présente quelques faiblesses car il est le plus crédible et le seul qui puisse vraiment nous ouvrir la chance d’un établissement humain sur Mars, première étape de la création d’une civilisation multiplanétaire dans le cadre de laquelle l’homme ne serait plus dépendant d’une seul Terre.

Laissons notre esprit rêver pour projeter et construire en utilisant notre raison. Du mythe de Dédale et d’Icare, on ne retient d’ordinaire que la chute de ce dernier qui s’était approché de trop près du Soleil et on oublie la prouesse de Dédale qui réussit à fuir le Minotaure grâce à son ingéniosité. N’ayons pas peur ; osons l’audace. Cela n’empêche pas d’évaluer les risques qu’on prend pour pouvoir les prendre. Nous ne devons ni nous sous-estimer, ni nous sur-estimer comme nous ne devons ni sous estimer, ni sur-estimer les défis auxquels nous sommes confrontés. Dédale avait mis son fils en garde. 

Image à la Une : La fuite du Labyrinthe. Dédale réussit son vol car il a évalué correctement la puissance de ses ailes et ne les a pas sollicitées au-delà de leurs capacités.

Gravité, énergie, biologie, défis à l’astronautique

L’astronautique ce sont les missions robotiques ou habitées dans l’espace*. On ne peut envisager les mener que dans notre environnement « proche », autant dire le système solaire et peut-être un jour quelques étoiles voisines, l’ensemble s’étendant à l’intérieur d’une sphère d’un rayon d’environ 10 années-lumière, maximum * (100 mille milliards de km), dont nous serions le centre, cette sphère n’étant qu’un point par rapport aux 100.000 années-lumière de diamètre de notre galaxie.

*ma proposition mais ce n’est qu’un ordre d’idée. Le rayon pourrait n’être que de 7 ou 8 années-lumière.

Pourquoi ce domaine restreint? Parce que nous sommes contraints par la masse (soumise à la gravité et occupant un volume) que nous devons transporter (et à laquelle nous devons donc appliquer une énergie) pour observer ou pour vivre et pour nous déplacer…sans oublier que, compte tenu de l’hostilité et des dimensions de l’espace, nous sommes aussi contraints par nos capacités biologiques.

*Les missions habitées répondent à une pulsion humaine, celle d’aller voir et toucher mais aussi au besoin d’efficacité, un homme étant beaucoup plus réactif qu’une machine et capable d’initiatives. Le transport d’un corps humain vivant et opérationnel est ce qu’il y a de plus difficile dans l’exploration car il s’agit d’extraire ce corps de l’environnement où (et dont) il est né tout en en conservant les fonctions vitales essentielles. 

(1) La gravité

La gravité est une contrainte dont les missions robotiques ou habitées ne peuvent s’abstraire puisqu’on habite toujours sur une planète (avant d’habiter une éventuelle « île de l’espace » à la Gerard O’Neill). Devoir s’extraire du puits de gravité terrestre nous force à limiter drastiquement les masses dont nous pouvons disposer pour l’exploration. Par ailleurs, vivre sur une super-Terre de masse double (par exemple) de celle de la Terre serait probablement insupportable à long terme pour un être humain. Un exosquelette n’aurait aucun effet sur nos organes ou nos fonctions internes. Le cœur devrait lutter plus que notre physiologie ne nous le permet pour irriguer l’ensemble du corps. En sens inverse une gravité trop faible, par exemple celle de 0,16g sur la Lune, pourrait être catastrophique, sur le long terme, dans la perspective d’un retour sur Terre. Plus précisément un séjour long sur la Lune serait sans doute très dommageable pour la santé indépendamment des exercices qu’on pourrait faire pour conserver sa force musculaire et osseuse, compte tenu de la surpression du sang dans le cerveau qui résulterait de la faible gravité locale (dans la mesure où le cœur même affaibli continuerait à y propulser le sang plus que nécessaire). On peut évidemment se poser la question de savoir si la gravité martienne de 0,38g serait suffisante pour le bon fonctionnement, sur le long terme, de nos organes internes lorsque nous nous serions installés sur cette planète. Pour le moment nous n’avons pas de réponse mais il semble évident que le problème serait moins grave que sur la Lune.

(2) L’énergie

Pas d’astronautique sans énergie, pour vaincre la gravité et procurer la vitesse nécessaire au franchissement de distances considérables. L’ennui c’est qu’à la source d’énergie correspond le plus souvent (sauf l’énergie solaire ou la gravité des astres approchés) une masse et des réservoirs pour les contenir, toujours des moteurs ou des dispositifs pour les utiliser. Le deuxième problème c’est que la source d’énergie s’épuise en échange de l’énergie cinétique qu’elle libère (sauf encore l’énergie solaire et la gravité des astres approchés) et que les moteurs qui les utilisent s’usent en fonctionnant. Elle est donc limitée en masse, en volume et en durée d’utilisation et cette limite est une contrainte incontournable, qui peut être aggravée par le gâchis ou par la panne.

Pour préciser, on peut distinguer entre les énergies consommables (chimique et nucléaire) et les énergies utilisables (solaire et gravité) mais elles ne sont pas ou peu remplaçables. Du fait de contraintes propres à chacune, les choix s’imposent inévitablement.

L’énergie chimique ne nous conduira pas bien loin (mais sûrement jusqu’à Mars) à cause du volume énorme des ergols qu’il faut bruler mais elle est indispensable au décollage, à l’injection sur orbite interplanétaire et à l’atterrissage sur une planète (si elle est rocheuse !) du fait de sa capacité à libérer une poussée considérable très rapidement (on parle d’Isp – impulsion spécifique – élevée), sans polluer au point que pourrait le faire une explosion atomique.

L’énergie nucléaire est sûrement promise à un bel avenir mais elle s’épuise elle aussi avec le temps. Les sondes Voyagers parties dans les années 1970 et qui sont aujourd’hui aux confins du système solaire sont équipées d’un moteur au plutonium qui touche à sa fin de vie; les réserves de plutonium de Curiosity arrivé sur Mars en 2012, seront épuisées en 2020. En tout cas elle ne peut être utilisée dans l’atmosphère des planètes et ne peut donc servir qu’au fonctionnement des vaisseaux et au corrections de trajectoires pendant les vols interplanétaires.

L’énergie photonique fonctionne bien si l’on est proche du soleil (ou d’une autre étoile !), moins bien si on s’en éloigne. Cette énergie ne peut être utilisée pour décoller de la Terre, à cause cette fois de sa très faible Isp, mais seulement à partir de l’orbite de parking. Comme son Isp est très faible elle s’éloignera très lentement de cette orbite. On attendra que l’accélération continue ait suffisamment augmenté sa vitesse pour venir charger le vaisseau (surtout les passagers qui ne supporteraient pas de rester longtemps dans le piège à radiations que constituent les champs magnétiques qui enveloppent la Terre dans sa coque, générant la fameuse Ceinture de Van Allen). Les lasers peuvent donner une impulsion initiale très forte mais ils consomment eux-mêmes beaucoup d’énergie, d’autant plus qu’ils sont plus puissants. Il faut aussi noter qu’on ne transportera pas ses lasers avec soi (la masse toujours !) et que si on va « quelque part » on aura besoin d’une source d’énergie sur place pour freiner et éventuellement arrêter le vaisseau.

La gravité des astres approchés est une autre source d’énergie. Elle a été utilisée notamment pour le programme Voyager qui a profité de la position exceptionnelle des planètes lors de la mission pour utiliser l’effet d’accélération (« de fronde ») qui se manifeste lorsqu’on « tombe » vers elles, pour aller de l’une à l’autre, jusqu’à Neptune avant de continuer leur route vers l’extérieur du système solaire. Elle est évidemment limitée par la distance minimum à laquelle on peut approcher l’astre en fonction de la vitesse lors de l’approche, et aussi par la gravité même de l’astre approché.

(3) La biologie

Les Radiations

On sait à peu près se protéger des radiations solaires (SeP) même fortes (SPE dont les CME) parce qu’on peut assez bien bloquer le rayonnement des protons qui les constituent en quasi-totalité mais on n’a pas encore les moyens de se protéger vraiment des radiations galactiques dures (HZE). Aucun blindage n’est vraiment efficace contre elles compte tenu de la force énergétique des particules lourdes (numéro atomique “Z” élevé) dont elles sont constituées en petite partie (2%). Pendant les voyages interplanétaires et éventuellement interstellaires, on recevra une dose qui au bout d’un certain temps excédera les capacités d’absorption de notre corps. On peut ainsi difficilement envisager (pour le moment) de voyager plusieurs années dans l’espace interplanétaire (mais on peut envisager d’y voyager plusieurs mois, jusqu’à un refuge…par exemple la surface de la planète Mars).

Le contrôle environnemental

Le corps humain doit être maintenu en (bon!) fonctionnement par un système de support vie adéquat et nous pouvons créer tant bien que mal une bulle plus ou moins auto-régénératrice à l’intérieur de laquelle on pourra se chauffer, respirer et se nourrir, dans des conditions microbiennes acceptables (voir mes billets sur MELiSSA). C’est ce qui nous a permis de commencer à entreprendre des voyages ou des séjours dans l’espace. Mais l’instabilité des systèmes de support vie ou la masse des remèdes chimiques qui seraient nécessaires pour contrer cette instabilité, imposent une limite aux durées de voyage (un an ?)…jusqu’à un refuge planétaire.

Par ailleurs, enverra-t-on une sonde robotique dans l’espace pour n’en avoir des retombées que dans plusieurs dizaines d’années ? J’en doute, compte tenu de la durée de nos vies humaines.

Alors que faire de ces limites ? On voit bien qu’elles ne se manifestent que lorsqu’on les approche. Il faut donc les approcher au plus près, progressivement, apprendre à les connaître, si possible en jouer comme l’aurait fait le rusé Ulysse, pour aller aussi loin que possible, Mars, d’abord et maintenant ! Le but est d’aller un jour encore plus loin, toujours plus loin, et pouvoir dire encore longtemps comme dans l’ouverture des épisodes de Star Trek, « to boldly go where no man has gone before! »

Image à la Une: Un vaisseau ITS d’Elon Musk posé, un jour futur, à la surface d’Encelade, une des lunes de Jupiter. Crédit SpaceX (présentation faite par Elon Musk au 67ème IAC le 27 septembre 2016 à Guadalajara, Mexique).

Espace, Temps, Vitesse, défis à l’astronomie et l’astronautique

Je parlerai aujourd’hui des problèmes posés par l’immensité de l’Univers, le temps que l’on ne peut que mesurer, la vitesse de nos différents vecteurs qui est limitée absolument par celle de la lumière. Ils constituent aujourd’hui des lignes d’horizons infranchissables dans le domaine de l’astronautique et aussi dans celui de l’astronomie. Ils n’en laissent pas moins ouvertes des perspectives de développement infinies.

L’immensité de l’Univers.

C’est la donnée qui constitue l’obstacle le plus formidable à l’astronautique et à l’astronomie, celui qui commande tous les autres. Comme on le voit à l’occasion des discussions sur les exoplanètes, les dimensions de l’Univers nous écrasent. Il faudrait parcourir 45.000 milliards de km pour atteindre le système de Proxima Centauri, étoile la plus proche du Soleil, auquel appartient Proxima-b, objet du projet d’exploration Breakthrough Starshot, et Pluton dans notre système, n’évolue qu’à une distance de 6 à 9 milliards de km. Par ailleurs, la Voie Lactée a un diamètre de 100.000 années-lumière ; la Galaxie d’Andromède, sa plus proche voisine, est située à 2,5 millions d’années-lumière et l’origine de l’univers, qui est de ce fait le point le plus lointain dont nous pouvons recevoir un message, se trouve à 13,8 milliards d’années-lumière c’est à dire que la lumière qui en provient et que nous percevons aujourd’hui a mis pour nous atteindre trois fois là durée de la vie entière de notre soleil. Ces chiffres donnent le vertige en regard de nos faibles moyens et de la courte durée de nos vies.

L’astronomie s’en accommode évidemment beaucoup mieux que l’astronautique mais elle y est cependant également confrontée. Pour voir de plus en plus précisément de plus en plus loin, elle s’efforce de valoriser de mieux en mieux le moindre photon de lumière  recueilli dans des télescopes ou réseaux de télescopes de plus en plus puissants. Hubble distingue individuellement des astres de magnitude apparente* 30 et JWST sera encore plus performant. Au sol, les télescopes de plus en plus puissants corrigent de mieux en mieux leurs défauts (sans pouvoir néanmoins collecter toutes les longueurs d’onde). Ainsi avec l’instrument MUSE (conçu par le Centre de Recherche Astrophysique de Lyon), le VLT pourra obtenir simultanément un spectre pour chacun des points du champ de vue sur lequel il travaillera. D’autres télescopes veulent cartographier l’immensité plutôt que la percer de plus en plus profondément, tel Gaïa de l’ESA. La mission en cours de ce dernier, situé au point de Lagrange terrestre « L2 », montre cependant la limite (actuelle) de l’exercice bien que le mécanisme d’ajustement et de prise de vue soit beaucoup plus rapide que les autres. Le télescope a une puissance de séparation de quelques millièmes de secondes d’arc, et bientôt de quelques millionièmes de secondes d’arc (on pourrait voir un tabouret et bientôt une pièce de monnaie sur la Lune). C’est un instrument formidable même s’il est moins puissant que Hubble puisqu’il ne discerne les astres “que” jusqu’à la magnitude 20. Cependant, après trois ans d’opération, il n’a pu mesurer « à plat » (on pourrait dire aussi en “2D”) la position « que » d’un milliards d’étoiles et « en 3D » (c’est-à-dire en incluant une évaluation de distance), de 2 million d’étoiles (en attendant 10). C’est très peu sur les 100 milliards que compte la Voie-Lactée et sa vision ne porte que sur environ un petit quart de cette galaxie. Comme souvent en science, il faudra donc extrapoler à partir de l’échantillon obtenu. A noter que cet échantillon est toutefois bien supérieur à la « collecte » précédente, les 114.000 étoiles de la mission Hipparcos terminée en 1997 et heureusement il nous permet de voir beaucoup plus loin, jusqu’au centre galactique.

*NB: l’œil nu ne peut distinguer d’astres au-delà de la magnitude 6. Neptune (au mieux 7.8) et Pluton (au mieux 13.7) sont au delà de ce seuil mais pas Uranus (au mieux 5.3). Par contre une très bonne paire de jumelles peut permettre d’aller jusqu’à la magnitude 10 (ce qui ne peut toujours pas permettre de voir Pluton!). Dans l’autre sens, les astres les plus visibles ont des magnitudes négatives (Mars, au mieux  -2.9 ; Vénus -4.6)

Le Temps.

C’est la seconde contrainte qui domine l’astronautique. Nous venons de nous éveiller au monde et ne disposons déjà, peut-être, que de peu de temps avant une catastrophe telle que nous devions chercher refuge « ailleurs » ou que nous ne disparaissions corps et biens. L’espèce humaine ne s’est différenciée de celle des singes qu’il n’y a seulement quelques petits millions d’années (3 ?), juste ce qu’il a fallu à la lumière pour nous parvenir de la Galaxie d’Andromède, notre plus proche voisine ! A la plus grande vitesse imaginable, celle que nous procurerait la lumière des rayons lasers gonflant une voile spatiale comme veulent en construire les promoteurs du projet Breakthrough Starshot (soutenus par Stephen Hawking), il faudrait vingt ans pour rejoindre Proxima Centauri mais, à la vitesse que procurerait une propulsion chimique classique, il en faudrait 20.000 !

Pour l’astronomie le temps constitue aussi un obstacle incontournable puisque la vitesse de la lumière (ou des ondes électromagnétiques dans leur ensemble), l’unique messager de nos informations, est limitée absolument et ne nous permet donc de voir que dans notre passé.

La vitesse.

En astronautique, tout espoir de vitesse générée par l’énergie que nous pouvons activer est comme chacun sait, limité par celle de la lumière. Ses 300.000 km par seconde sont insurpassables et pour l’atteindre, notre vaisseau devrait avoir une masse nulle. Le projet Breakthrough Starshot  nous fait espérer une vitesse égale à 20% de celle de la lumière (pour des « nano-masses » !). Mais à 60.000 km/s, l’impact de la moindre poussière pourrait déjà avoir des effets terribles sur la coque de notre vaisseau ou notre voile spatiale. Par ailleurs, à partir de 10% de la vitesse de la lumière, l’effet relativiste résultant du différentiel de vitesse entre les personnes restées sur Terre et les voyageurs spatiaux deviendrait notable, le temps s’écoulant plus lentement pour ces derniers. On voit les problèmes que cela poserait au retour si le vaisseau était habité ! Mais il n’est pas encore opportun de s’inquiéter car actuellement la plus grande vitesse que nous ayons obtenue (par propulsion chimique assistée par la gravité de certaines planètes) par rapport au Soleil n’est que de 17,26 km/s (celle de Voyager 1, aujourd’hui aux confins du système solaire).

En astronomie les problèmes sont différents puisqu’il n’est pas question d’« aller vers ». Cependant la vitesse impose aussi un obstacle. Du fait de l’expansion de l’univers, les éléments qui le composent s’éloignent les uns des autres à une vitesse d’autant plus grande qu’ils sont plus lointains…jusqu’à atteindre la vitesse de la lumière. Ainsi nous pouvons encore voir les galaxies dont la distance croît entre nous à une vitesse juste inférieure à celle de la lumière mais d’autres déjà plus lointaine ont “disparu des radars”. Et puis, comme dit plus haut, il y a la finitude de la vitesse de la lumière qui nous interdit de voir l’état de nos voisins dans le même temps que nous (Antarès, l’étoile géante rouge la plus « proche », a peut-être déjà explosé en supernova et nous ne le savons pas encore car la lumière que nous recevons d’elle aujourd’hui en est partie il y a 600 ans). D’un autre côté la vitesse nous renseigne aussi sur la distance (une tendance vers le rouge exprime par effet Doppler-Fizeau une vitesse d’éloignement d’autant plus grande que la lumière reçue est lointaine). Ce « défaut » nous est donc indispensable pour connaître l’univers en 3D.

Ces contraintes cependant ne nous empêchent ni de progresser dans la Connaissance (l’analyse des effets Doppler ou la mise en oeuvre du concept de “spectographe intégral de champ” de MUSE ), ni d’envisager de « sortir de notre berceau » (il y a peut-être une vraie seconde Terre dans la sphère des 10 années-lumière dont nous sommes le centre, et plein d’autres endroits où nos astronautes pourrons “poser les bottes” de leurs scaphandres). Dans ce qui nous est accessible, tant reste encore à découvrir ! La semaine prochaine je vous parlerai des autres problèmes qui, à la différence de ceux-ci, ne concernent que l’astronautique.

Image à la Une : le champ ultra-profond de Hubble (« Ultra Deep Field ») tel que visible en juin 2014 après 841 images prises entre 2003 et 2012 dans toutes les longueurs d’onde captables par le télescope (de l’ultraviolet à l’infrarouge). Le télescope visait une toute petite région de la galaxie du Fourneau (visible dans notre hémisphère Sud) à travers un trou sans étoile de notre environnement. La lumière a pris plus de 13 milliards d’années pour nous parvenir de ces astres. Crédit image : NASA, ESA, H.Teplitz et M. Rafelski (IPAC / CalTech), A. Koekomoer (STScl), R. Windhorst (Arizona State University et Z. Levay (STScl).

Mars, de nombreuses falaises de glace renforcent les possibilités d’habitabilité de la planète

Une étude parue dans Science cette semaine* fait état de nombreuses « falaises » de glace d’eau coupant des terrains lisses de dépôts accumulés à la surface de Mars à des latitudes moyennement élevées (autour de 55°, surtout dans l’hémisphère Sud). Cela met en évidence la richesse en eau (solide et non liquide) accessible et confirme la possibilité pour l’homme de s’établir sur cette planète.

Ce n’est pas la première fois qu’on constate la présence de glace d’eau à la surface de Mars mais la particularité de cette découverte est le caractère à la fois massif et facilement accessible de cette ressource (une fois sur Mars, évidemment!). Les constatations proviennent de l’observation de données recueillies par divers instruments à bord de l’orbiteur MRO (“Mars Reconnaissance Orbiter”) de la NASA . Les scientifiques ont d’abord remarqué visuellement, dans les photos prises par la caméra HiRISE (High Resolution Imaging Science Experiment) de l’orbiteur, des lignes bleutées de plusieurs km de long, orientées vers le pôle et surplombant des puits chaotiques (huit à ce jour dont sept dans l’hémisphère Sud). Ils ont pu en déduire que les lignes correspondaient à des « escarpements » (en Anglais « scarp ») d’une centaine de mètres de hauteur et de pente forte (45 à 55°). Ils les ont faites analyser par le spectromètre CRISM du même orbiteur (Compact Reconnaissance Imaging Spectrometer for Mars) puis par un autre instrument de MRO, SHARAD (Shallow Radar). Cela a permis de constater que le bleu correspondait à la ligne d’absorption de la lumière réfléchie par l’eau (CRISM) et ensuite que la glace commençait très près de la surface (un à deux mètres en moyenne) et s’enfonçait d’une trentaine de mètres en dessous du sol (SHARAD), la base, au contact du socle rocheux, étant cachée par des éboulis. L’observation sur la durée ainsi que des examens thermiques ont ensuite pu prouver que les dépôts n’étaient pas saisonniers mais relativement stables (retraits saisonniers probablement de l’ordre du millimètres seulement).

La glace n’est pas totalement pure car elle contient quelques débris rocheux (sans doute morainiques) et un peu de poussière qui délimite des strates périodiques mais elle est presque aussi pure que celle des calottes polaires. NB c’est d’ailleurs les chutes observées de rochers de l’ordre du mètre, qui permettent d’apprécier la vitesse de recul du front de glace.

L’origine des dépôts est relativement récente car la surface du sol à proximité de ces falaises est très peu cratérisée. Elle doit résulter des dernières périodes de forte obliquité (inclinaison de l’axe de rotation sur le plan de l’écliptique) qui se reproduisent environ tous les 120.000 ans. En effet la planète n’étant pas stabilisée comme l’est la Terre par la Lune, cette obliquité varie de façon cyclique beaucoup plus forte en fonction du différentiel d’attraction gravitaire du Soleil au différentes latitudes de la planète (phénomène de précession). Lorsque l’axe s’incline aux environs de 35° (son maximum dans ce type de cycle), les calottes polaires sont exposées trop sensiblement aux rayonnements solaires et se subliment très largement dans l’atmosphère. L’eau s’y condense et compte tenu des faibles températures, retombe en neige en surface aux latitudes moyennes alors très peu exposées aux rayonnements solaires. Avec le temps et l’accumulation, la neige se tasse et se transforme en glace. Le processus n’est pas continu car en raison de l’aridité, les tempêtes de poussière doivent toujours sévir et certaines périodes doivent être plus chaudes ou moins neigeuses (en fonction notamment de l’excentricité de l’orbite).

NB : il est possible qu’à l’occasion de cette densification de l’atmosphère par la vapeur d’eau, la plage de températures permettant l’eau liquide s’étende quelque peu permettant un certain écoulement en surface…mais cela est une autre histoire.

Ensuite, lors du redressement de l’axe de rotation sur le plan de l’écliptique, la glace non protégée ou mal protégée se sublime aux latitudes basses et moyennes et retombe en neige aux pôles mais les plaques de glace situées en hautes latitudes doivent persister très longtemps (aux environs de 55°, la glace est stable à une profondeur de seulement 10 cm de profondeur). Les banquises pourraient donc rester cachées jusqu’à la prochaine période de forte obliquité et c’est probablement ce qui se passe en de nombreux endroits (où l’on trouvera de la glace très ancienne). Mais il peut y avoir des raisons pour lesquelles des failles verticales se manifestent (la glace n’est pas homogène) et ces failles peuvent mettre à nue de la glace pure qui va se sublimer. On note d’ailleurs que partout où l’on a observé ce type de relief, des failles ont été repérées près du front d’escarpement et aussi que l’escarpement dominait un piedmont puis un chaos résultant de la libération des moraines par l’effondrement jusqu’au socle rocheux sous-jacent puis la disparition par sublimation progressive du front. Par ailleurs le vent peut aussi jouer son rôle érosif et dégager des plaques de poussière mettant à nue la glace pure.

Les résultats de cette étude sont à rapprocher des découvertes des buttes glaciaires repérées dans l’Ouest d’Utopia Planitia, entre 40 et 50° de latitude Nord, à l’Est de Nili Fossae (cf mon article sur ce sujet). La différence est, dans le cas des buttes, un manteau protecteur plus épais, sans doute d’origine volcanique et une sublimation superficielle laissant un sol poreux de plusieurs mètres ne contenant plus ou peu de glace. Il s’agit pour la NASA de découvrir jusqu’à quelle latitude le phénomène des falaises de glace s’est produit (initialement la recherche n’a porté que sur les zones de latitude supérieure à 50°). Il est certain que tout phénomène similaire repéré à des latitudes plus basses serait encore plus intéressant puisque les conditions de vie en hiver aux environs de 55° sont évidemment assez dures (donc plus consommatrices en énergie). Si on en découvre à moins de 50°, on doit toutefois s’attendre à ce qu’ils soient moins spectaculaires c’est-à-dire que la sublimation s’effectuant plus vite et le sol superficiel étant moins froid, l’accessibilité à la glace soit moins bonne. Ce seraient en quelque sorte des intermédiaires entre les « falaises » et les « buttes ».

Contrairement à ce qui a été rapporté par la presse en général, il faut noter que visuellement on ne sera pas face à de vraies falaises, car les pentes ne sont pas assez fortes pour justifier ce terme, mais il est quand même certain qu’on devrait voir de la glace vive sur une hauteur impressionnante et que la pente des premiers mètres avant le sommet doit être très raide.  Cela ajoutera surement de la variété au paysage martien et surtout facilitera beaucoup la vie des futurs colons (encore plus que les buttes puisque la glace y sera plus accessible). Sur le plan scientifique, on pourra toujours rechercher si la pression a pu générer de l’eau liquide sous la banquise (et chacun sait que cet élément est un vecteur puissant pour toutes sortes de transformations). Par ailleurs les strates permettront d’avoir une lecture de l’histoire récente de Mars donc de mieux connaître ses cycles, notamment celui de l’eau, et de remarquer des phénomènes globaux particuliers (épisodes volcaniques) ou même d’autres événements non cycliques que l’on pourrait rapprocher d’événements climatiques terrestres et qui serait le témoignage d’une activité particulière solaire ou galactique. Ce serait une autre opportunité pour que l’étude de Mars soit utile à la compréhension de la Terre.

*“Exposed subsurface ice sheets in the Martian mid-latitudes” par Colin M. Dundas et al. in Science 359, 199 (2017) DOI: 10.1126/science.aao1619, publié le 12 janvier 2018. Colin Dundas est géologue à l’Astrogeology Science Center de l’US Geological Survey

Image à la Une : ligne de front d’un escarpement glaciaire. La couleur bleue a été renforcée (crédit NASA, MRO, HiRISE)

Image ci-dessous : effondrements (au premier plan) dégageant un front de glace. Les vagues de terrain parallèles dans la zone effondrée témoignent du recul progressif du front. Crédit NASA/MRO/HiRISE.

Mars, des défis psychologiques redoutables mais exaltants

Les premières missions pour Mars nous lancent des défis psychologiques redoutables mais nous pouvons être confiants, nous trouverons des hommes suffisamment forts pour les affronter. Les vrais problèmes seront plutôt d’ordre technique, le bon fonctionnement du lanceur, surtout lors du départ de la Terre ou lors de l’EDL, et le bon fonctionnement du système de support vie.

Lorsque les astronautes quitteront la Terre pour Mars, ils auront pleine conscience qu’ils se trouvent embarqués pour un séjour de plus de deux ans hors de chez eux. Compte tenu de la position respective des astres et des contraintes de la « mécanique céleste », le voyage durera de nombreux mois (6 mois à l’aller, 6 au retour) et le séjour sur Mars durera 18 mois (configuration énergétique, scientifique et, pour l’équipage, biologique, optimum). Ceci implique que les voyageurs seront privés de contact physique avec leurs proches pendant cette longue durée de temps et ceci implique aussi qu’après trois ou quatre semaines sur Mars, ils ne pourront plus changer d’avis et choisir d’écourter leur séjour, ni recevoir aucun secours, quoi qu’il arrive.

Le fait que pendant le voyage, il n’y aura pas ce qu’on pourrait appeler un « extérieur-habitable », est un inconvénient incontestable. Pas question en effet de se « dégourdir » les jambes en allant se promener « ailleurs » ; pas question de contempler un paysage changeant et « vivant » (aussi belles soient-elles, les étoiles ne danseront jamais dans le ciel et très vite la Terre ne sera plus qu’un point parmi d’autres) ; pas question de ne pas subir la promiscuité des autres. Durant deux fois six mois, chacun sera réduit à vivre à l’intérieur de « quatre murs » (en l’occurrence la paroi d’un cylindre) avec toujours les mêmes partenaires. A noter que la situation sera différente une fois arrivé sur Mars car si la « société » y sera toujours aussi réduite, l’aspect « extérieur-habitable » sera totalement différent (la sortie impliquant toutefois le port obligatoire d’un scaphandre). En effet les quatre ou six membres de l’équipage disposeront alors pour eux seuls de la surface entière de la planète (en fonction du moins des possibilités de mobilité motorisée et de la nécessité d’éviter de trop s’exposer aux radiations spatiales).

Pour atténuer le problème du confinement pendant le vol, il faudra certainement que chacun exerce la plus grande prudence dans ses interactions avec les autres (afin d’éviter le piège de l’« enfer » sartrien). La vie privée devra être très strictement respectée ; les contacts avec les proches ou les collègues restés sur Terre, aussi fréquents que possible (pour améliorer la diversité des échanges) même si le « time-lag » sera de plus en plus long au fur et à mesure que le vaisseau s’éloignera de la Terre (de 3 à 23 minutes-lumières, dans un seul sens, une fois sur Mars) ce qui empêchera les interactions directes. L’accès aux divertissements digitaux diffusés depuis la Terre (jeux ou films, plateformes d’échanges) devra évidemment être totalement libre, individualisé et le choix aussi riche que possible.

Un problème de santé pourra s’avérer déstabilisant puisque les soins seront rendus difficiles par l’éloignement, surtout pendant le voyage (peu d’équipements, au plus un seul médecin à bord, pas de télémédecine en direct du fait du time-lag) et également sur Mars du moins jusqu’à ce que la société martienne se soit développée en nombre d’habitants, en compétences, et dispose d’un stock étendu d’équipements et de médicaments (ou de matières chimiques et de laboratoire adéquats pour les produire).

Sur place les épreuves et les dangers (outre ceux relatifs à la santé) seront nombreux et d’autant plus potentiellement stressants que les astronautes auront le sentiment d’être largement seuls pour les affronter et les surmonter. Ils le seront effectivement. Pas de « coup de main » possible, personne non plus pour « prendre votre place » pour résoudre un problème. De nombreux facteurs pourront peser sur le moral ou créer des frustrations. On peut évoquer la fatigue, l’éventuelle détérioration physique malgré les exercices, l’obligation de vivre dans une gravité faible ou de porter un scaphandre pour sortir, la faible irradiance pendant l’hiver austral, le manque de couleurs, surtout le vert et le bleu, l’absence d’eau liquide dans le paysage, un manque possible de satisfaction professionnelle (un échec dans la recherche, dans la construction d’une infrastructure importante ou la mise en route d’un process important), un équipement ou un instrument important, cassé et non réparable. Le découragement menacera de gagner même les plus positifs. Peu de consolations seront possibles (non seulement éloignement des proches mais aussi régime alimentaire peu varié).

Ceci dit il ne faut pas exagérer la difficulté. Il n’y aura ni temps-mort, ni ennui pendant une mission habitée sur Mars car les astronautes seront des personnes extrêmement motivées. Ils auront par nécessité le souci du fonctionnement le plus parfait possible de leur vaisseau et de leurs équipements divers, dont celui nécessaire à leur survie. A l’aller ils seront également très occupés par la préparation de leur mission sur le sol de Mars, au retour par l’interprétation des observations et des donnés qu’ils auront recueillies et tout le temps, par leurs communications avec la Terre qui les sollicitera sans cesse pour obtenir des rapports sur l’état du vaisseau, leur état personnel et sur leurs recherches. Par ailleurs l’aventure, le fait de se retrouver dans un univers inconnu et vierge, immense à l’échelle de l’homme, avec un potentiel de développement quasiment illimité, et pouvant révéler des connaissances essentielles pour l’humanité (sur le plan exobiologique notamment), le fait d’être des pionniers entreprenant une action pour la première fois dans des domaines passionnants, le fait d’avoir des problèmes à résoudre et y parvenir, peuvent se révéler des facteurs excellents pour soutenir ou doper le moral.

De ce point de vue je pense que les simulations qui ont eu lieu sur Terre (« Mars 500 », achevée en Novembre 2011 par exemple ou même le séjour long dans l’ISS de l’astronaute Scott Kelly en 2015 / 2016) n’ont absolument pas pu recréer les conditions d’une mission habitée. Les hommes enfermés de juin 2010 à novembre 2011 dans les locaux de l’« Institut des Problèmes BioMédicaux » (« IPBM »), à proximité de Moscou, ne pouvaient ignorer qu’ils étaient sur Terre et qu’ils pourraient sortir en cas de besoin extrême ; par ailleurs leur simulation en « bac à sable » ne pouvait absolument pas restituer l’espace martien du fait de ses très petites dimensions. Quant à Scott Kelly, il savait qu’il pourrait toujours rentrer sur Terre en cas de problème grave. A contrario le pseudo isolement pour des motifs beaucoup moins exaltants que l’exploration d’une autre planète, pouvait générer l’ennui ce qui pouvait induire toutes sortes de friction sociales et de stress.

Alors, toujours partant ? Personnellement oui; mais je ne serai vraisemblablement pas choisi, question d’âge! Plus généralement, je pense que les premiers vols ne seront pas pour les faibles, physiquement comme mentalement, mais pas non plus pour les tièdes, les indécis, les blasés et ceux qui n’auraient rien à faire sur Mars. Il faudra des hommes d’acier, de corps et d’esprit, et nous les aurons !

NB : On se situe ici au début de l’exploration spatiale par vols habités, alors qu’il n’y a pas encore de base permanente sur Mars.

Image en tête d’article : l’astronaute Scott Kelly au travail dans un module de l’ISS (crédit image : NASA). Il a bouclé (en Mars 2016) une mission de 342 jours dans l’espace. On peut imaginer que l’habitat utilisé pendant le voyage vers Mars sera tout autant « encombré » que celui de l’ISS et que les taches de vérification et d’entretien  seront constantes.

Image ci-dessous : Columbia Hills (crédit image : NASA et Olivier de Goursac), le cadre de vie des explorateurs pendant 18 mois; une vue grandiose mais non humanisée, qui pourrait être ressentie comme froide et hostile.

Pour survivre dans l’espace l’homme devra se déplacer avec sa coquille

ECLSS, ce sigle a priori peu « parlant », est l’abréviation d’« Environmental Control and Life Support System ». Il recouvre la nécessité pour l’homme de se déplacer « avec sa coquille » s’il prétend sortir de l’environnement terrestre, et aussi, implicitement, le fait que l’environnement spatial n’est pas naturellement le nôtre. C’est une clef pour comprendre les possibilités mais aussi les difficultés et les dangers de l’exploration spatiale par vols habités.

NB: Je continue le fil de mes articles sur les contraintes et les limites qui s’imposent à l’exploration spatiale par vols habités (lire ici le précédent). J’ai déjà publié un article sur le thème de l’ECLSS en juillet 2016 (“ECLSS, une bulle pour la vie”).  J’y apporte quelques précisions et (je l’espère) quelques améliorations.

La maîtrise de l’ECLSS est donc une condition des vols spatiaux. L’homme a besoin d’une atmosphère contenant certains gaz (environ 21% d’oxygène et 78% d’azote) et pas ou très peu d’autres (gaz carbonique notamment), d’une certaine pression (entre 0,7 et 1 bar), d’eau liquide au pH neutre et d’une atmosphère au contenu bactériologique contrôlé. Il a aussi besoin de se nourrir selon un régime équilibré qui permette à ses fonctions vitales de se perpétuer. Les vols dans l’espace proche aussi bien que lointain, nous forcent à chercher à répondre à ces exigences en utilisant le minimum en termes de masse et de volume. Cette nécessité implique la réutilisation, c’est à dire le recyclage.

Le problème est complexe et des progrès, lents, sont faits « tous les jours ». On voit bien l’intérêt que cela représente pour la vie terrestre sur Terre. Parmi les recherches qui sont menées sur le sujet, celles de Suren Erkman de l’UniL (écologie industrielle), de Théodore Besson de la Sté « ESTEE » (Earth Space Technical Ecosystem Enterprise SA) en Suisse, de Mike Dixon du CESRF (« Control Environment Systems Research Facility ») de l’Université de Guelph, au Canada, et celles du Consortium MELiSSA (Micro Ecological Life support System Alternative), coordonné et animé par Christophe Lasseur dans le cadre de l’ESA/ESTEC, sont sans doute les plus remarquables. Idéalement il faudrait pouvoir recycler 100% de ce que l’on consomme. Le « réacteur biologique » Terre y parvient tant bien que mal jusqu’à aujourd’hui (il semble connaître quelques problèmes – même peut-être avoir atteint ses limites – d’où ce qu’on appelle la pollution ou le réchauffement climatique). Cela est évidemment beaucoup plus difficile dans la bulle très restreinte que constitue un habitat artificiel hors de l’environnement terrestre. Aujourd’hui cependant on sait recycler à peu près complètement l’oxygène de l’atmosphère et l’eau, moins bien les matières. On sait aussi analyser la qualité microbiologique de l’atmosphère (détecteur MiDASS de EC/ESA/bioMérieux) mais c’est de ce côté qu’on pourrait avoir le plus de difficultés. En effet, sur Terre, le volume habitable et habité immense (notre biosphère), à peu près équilibré, résultat de notre très longue histoire mais toujours évolutif, permet de corriger (lisser, atténuer) les déséquilibres ponctuels (« buffer effect » ou effet tampon). Sur Mars et surtout dans l’espace, les petits volumes viabilisés qu’on peut considérer de ce point de vue comme des « microbiomes », subiront des pressions de déséquilibres relativement énormes du fait de l’absence d’effet tampon. Il faudra pallier cette situation par un contrôle et un ajustement constants pour éviter d’être rapidement débordés par la guerre que les bactéries mènent depuis des milliards d’années contre les métazoaires que nous sommes.

Le film « Seul sur Mars » met partiellement en évidence cette problématique mais la traite mal. On n’y parle pas du contrôle microbiologique (qui semble aller de soi dans le film !). Par ailleurs un ECLSS efficace doit absolument tirer parti de l’environnement lorsque cet environnement contient des éléments exploitables comme c’est bien le cas de Mars (à la différence de l’espace profond où l’on ne dispose que de ce qu’on a emporté). Dans cet esprit, l’auteur du roman à la base du film commet l’erreur de ne pas envisager l’utilisation de la réaction dite de Sabatier, bien connue et maîtrisée, pour obtenir à partir du gaz carbonique martien et d’un peu d’hydrogène, de l’oxygène (pour respirer et pour servir de comburant) et du méthane (pour brûler comme carburant dans l’oxygène en dégageant de l’énergie permettant de faire fonctionner les machines et les véhicules). Il n’envisage pas non plus, curieusement, d’exploiter l’eau du sol martien que l’on peut obtenir par forage et par chauffage (pergélisol omniprésent) et il néglige totalement le danger des sels de perchlorates omniprésents en surface.

Mais il ne faut pas non plus « voir trop grand ». Un ECLSS doit être réaliste et respectueux de l’environnement. Nous avons appris assez récemment que notre planète est un système complexe, cohérent et fragile. Mars l’est aussi. Un ECLSS doit être conçu pour protéger l’homme et lui permettre de vivre, non pour détruire les endroits où il veut s’installer. On ne peut à la légère envisager d’enclencher un processus de terraformation, irrespectueux de « l’autre » et par nature démesuré donc non contrôlable. La déclaration d’Elon Musk selon laquelle il faudrait faire exploser des bombes thermonucléaires sur les calottes polaires de la planète pour réchauffer et densifier l’atmosphère, apparaît à cet égard totalement inacceptable. Ces bombes, outre qu’elles contamineraient la surface et l’atmosphère de la planète, pourraient certes faire fondre les calottes polaires mais les conditions sur Mars sont telles que, probablement, l’eau retomberait aussitôt en neige plutôt qu’en pluie sur toute la surface et que la poussière et les particules de glace emportées dans l’atmosphère empêcheraient les rayons du soleil de parvenir au sol, déclenchant un hiver très long (à l’échelle humaine). Quel serait l’avantage pour le but recherché ? Par ailleurs, un tel bombardement serait une agression scandaleuse contre un environnement original (riche de ses différences avec la Terre) qu’il convient au moins d’étudier avant de le dénaturer. Compte tenu de ce que l’on constate aujourd’hui, il y a sans doute eu sur Mars une évolution vers la vie, qui mérite d’être recherchée et comprise. L’homme n’aurait-il rien appris des catastrophes qu’il a à plusieurs reprises causées à son environnement naturel ? Ce serait plus que dommage, un véritable acte de vandalisme.

Puisque nous passons cette nuit dans une nouvelle année, je vous adresse mes meilleurs vœux. Pour notre sujet, elle comportera deux événements majeurs: le test du lanceur Falcon Heavy d’Elon Musk et le lancement de la sonde Insight par la NASA. Je vous en parlerai bien entendu, en temps voulu.

Image à la Une: le modèle terrestre de la Boucle MELiSSA (crédit ESA/ESTEC/TEC-MCT).

image ci-dessous: la boucle MELiSSA (crédit : ESA/ESTEC/TEC-MCT), les différents compartiments du système MELiSSA (« Micro Ecological Life Support System Alternative ») que l’on pourra un jour utiliser pour les vols spatiaux et les séjours sur d’autres planètes. Il s’agit de recréer une boucle de vie, auto-régénérative, dans un volume aussi restreint que possible. Vous remarquerez que cette boucle reprend les différentes phases de fonctionnement de l’étang en « image à la Une »:

Liens:

http://www.esa.int/Our_Activities/Space_Engineering_Technology/Melissa

https://blogs.letemps.ch/pierre-brisson/2016/07/11/melissa-la-clef-de-notre-survie-dans-lunivers/

http://est2e.com/about/

http://www.ces.uoguelph.ca/

https://wp.unil.ch/geoblog/2016/07/les-ecosystemes-clos-artificiels-etudies-au-sein-du-programme-oikosmos/

Alain Souchier nous a quitté, il nous laisse une avancée technologique brillante et l’espérance

Mon ami Alain Souchier, président de l’Association Planète Mars (« APM »), membre français de la Mars Society, est décédé la semaine dernière. Il n’ira donc jamais physiquement sur Mars ! Diplômé de l’Ecole Centrale de Paris, c’était un ingénieur particulièrement doué, imaginatif et productif, outre qu’il était d’une grande sensibilité et d’une grande culture agrémentée d’un sens de l’humour toujours fin et à propos. Il a énormément contribué à la conception des moteurs des différentes générations de la fusée Ariane. L’espace l’habitait depuis toujours. Dans sa jeunesse, à l’époque d’Apollo, il aurait voulu être astronaute et sa passion était d’imaginer comment l’homme pourrait aller aussi loin que possible dans l’espace profond. Après avoir travaillé toute sa vie sur la propulsion des fusées et avoir apporté des solutions admirables à des problèmes d’une extrême complexité, il avait voulu retourner au rêve qui avait motivé son inclination pour l’astronautique, la planète Mars qu’il connaissait presque aussi bien que la Terre. Son intérêt dans le cadre de l’APM, se portait principalement sur les scaphandres et les simulations de vie sur la Planète Rouge mais sa réflexion pratique, structurée par des connaissances très solides en mathématiques, en physique et en chimie, était complétée par une interrogation philosophique forte sur nos origines et notre destin et il était séduit par les réponses qu’y apporte la philosophie de Teilhard de Chardin.

Il est mort et sa contribution à l’enrichissement intellectuel de l’humanité s’est arrêtée mais cette dernière est différente et meilleure du fait de l’empreinte qu’il a laissée de sa vie. Alain est de ceux qui nous ont sans doute fait un peu progresser collectivement vers ce que Teilhard appelait le point Omega.

Je pensais à cela pendant la messe de ses obsèques à Vernon, aux marches de la Normandie, où il s’était établi il y a longtemps pour être à proximité de la SNECMA, son employeur, constructeur d’Ariane. Et je me disais que le système de valeurs qui conduisait à donner plus d’importance à un chanteur comme Johnny Hallyday qu’à un homme comme Alain, était celui d’une société bien malade, un peu comme jadis la société byzantine qui couvrait d’honneurs et d’or ses conducteurs de chars dans le cirque. Alain était un ouvreur de mondes, de ces personnes qui nous permettent de rêver sur des bases concrètes à des lendemains dans l’espace infini parce que du fait de leur travail ces lendemains pourront, si nous le voulons, advenir. Il aurait dû pour cette raison, toucher la sensibilité de nos contemporains de nombreuses fois davantage qu’un interprète de chansons aussi électrisant et sympathique soit-il. Choisir les paillettes plutôt que la substance me semble compréhensible dans une approche populaire superficielle flattée par les médias mais extrêmement condamnable de la part d’une soi-disant élite qui sacrifie ainsi à la facilité sur l’autel de la démagogie plutôt que d’attirer les foules vers les cimes de l’intelligence.

Alain me faisait penser aussi à Jean d’Ormesson, autre esprit pétillant et porteur des préoccupations les plus importantes de l’humanité. Jean d’Ormesson a été également honoré par l’élite française mais il l’a été plutôt moins que Johnny dans la ferveur populaire et cette comparaison, à la limite cette égalité, m’a choqué. Jean d’Ormesson aurait trouvé « épatant » mon ami Alain s’il avait pu le rencontrer. J’imagine leurs échanges, les questions pressantes de Jean d’Ormesson et les réponses appliquées et précises d’Alain, l’un qui aurait apporté ses connaissances, ce qu’on peut dire de plus précis aujourd’hui sur Terre sur les possibilités de l’ingénierie spatiale, et l’autre qui les aurait intériorisées et les aurait magnifiées en exprimant leur quintessence esthétique.

Mais ne soyons pas négatifs ; cela ne sert à rien. Ne jalousons pas la lumière factice et fugace d’une célébrité météorique du monde du spectacle valorisée par des personnes pour lesquelles nous n’avons aucune estime (au moins en ce qui me concerne). Au-delà de l’irritation qu’elle cause, elle n’a en fait aucune importance. Et, si Alain n’a pu rencontrer Jean d’Ormesson qui aurait pu s’inspirer de sa science pour éclairer et embellir notre message martien, constatons qu’il a concrètement fait progresser l’astronautique et qu’il aura semé ses graines et sa passion dans de nouvelles têtes bien faites (notamment celles des jeunes ingénieurs qu’il a aidé à participer à des simulations dans les bases terriennes de la Mars Society).

Par ailleurs, heureusement, Alain n’était pas tout à fait seul même si les hommes comme lui sont rares. De brillants ingénieurs ont travaillé dans ses équipes ou en parallèle avec lui. Ils portent ses projets, continuent ses recherches ou d’autres complémentaires. Comme dans le cas de celles d’Alain, le public ne réalise sans doute pas tout de suite leur importance car les vrais « savants » sont souvent modestes comme il l’était lui-même, communiquent mal, et aussi parce que les contraintes de la vie quotidienne n’incitent les gens à réfléchir que sur ce qui les concerne immédiatement et gêne leur perception du lointain, du différent et du complexe. Mais, en attendant que tous les perçoivent et les apprécient, ces idées, ces constructions intellectuelles, existent et brillent avec force dans la sphère qu’on pourrait appeler la « cognosphère » des spécialistes capables de les exploiter ou de s’en inspirer. Sans aucun doute nombreuses sont celles qui germeront et donneront encore à l’humanité de nouvelles fleurs concrètes toutes aussi magnifiques et brillantes que celles produites par l’esprit exigeant et puissant d’Alain. Elles nous permettront de progresser encore et d’aller « plus loin plus vite » dans l’espace profond.

Nous devons nous résigner à ce que l’étoile d’Alain reste désormais éteinte mais sa lumière subsiste au-delà du souvenir, au travers de son œuvre et de son modèle inspirant. Je suis confiant ; nous nous retrouverons un jour, en esprit, sur le chemin de Mars. Dans cette espérance je vous souhaite à tous un Noël serein, certes intériorisant le passé avec ses peines et ses joies mais surtout tourné vers l’avenir.

Image à la Une : Alain Souchier en train de travailler à son « VRP » (véhicule de reconnaissance de parois). Ce VRP repose sur des principes simples mais auxquels il fallait penser. Il pourrait avoir un grand intérêt pour l’exploration de Mars par missions habitées. En effet les parois ont une très grande importance pour les géologues car les strates qu’elles mettent en évidence sont une des clés essentielles de la compréhension de l’histoire géologique et on a beaucoup de mal à bien les observer. Les satellites prennent des photos à la verticale ou, au mieux, avec un angle d’autant plus fermé que la surface observée est proche et lorsque des hommes seront sur Mars, ils éviteront probablement les risques d’escalader en scaphandre des parois à très forte pente. Le VRP pourrait, lui, descendre le long des pentes tenu par des câbles que l’on déroule et prendre au passage des photos et recueillir toutes sortes de données.

Image ci-dessous, moteur Vulcain à propulsion chimique cryogénique de la fusée Ariane V :