Exoplanètes, des chercheurs de l’ETHZ veulent resusciter le projet DARWIN. Soutenons les!

En 2007 le projet DARWIN d’observation des exoplanètes de taille terrestre par un groupe de télescopes spatiaux interférométriques était abandonné par son promoteur, l’ESA. Aujourd’hui des chercheurs de l’ETH de Zürich mettent en évidence l’intérêt qu’aurait la reprise d’un projet comparable, compte tenu des observations accumulées par la mission Kepler.

Le positionnement de DARWIN dans l’espace était justifié pour pouvoir utiliser des longueurs d’ondes dans l’infra-rouge moyen (« MIR » pour « Mid-InfraRed ») difficilement accessibles ou non accessibles (selon la longueur d’onde) à partir du sol en raison de l’écran atmosphérique terrestre alors que c’est précisément dans ces longueurs d’onde que les exoplanètes réfléchissent le plus de rayonnements électromagnétiques. Le recours à cette gamme de longueurs d’onde facilite ainsi leur observation directe. Il est d’autant plus utile que, dans ce cadre, la différence d’intensité entre le rayonnement d’une étoile et celui de ses planètes est moins importante de plusieurs ordres de grandeurs.

Le choix de l’interférométrie a pour objet de permettre la combinaison des rayonnements reçus d’une même source par plusieurs petits télescopes en formation (dans le cas de DARWIN, minimum trois, maximum neuf, selon les différentes phases de l’évolution du projet), afin de restituer la capacité de discernement spatial qu’aurait un seul grand télescope de dimensions égales aux distances qui séparent les petits télescopes (même si l’intensité lumineuse de l’image qui en résulte est beaucoup plus faible). L’interférométrie a un autre avantage, celui de permettre de dissocier le rayonnement reçu de l’étoile de ceux reçus de ses planètes en annulant (technique du « nulling ») celui de l’étoile et donc de pouvoir observer les planètes, de luminosité beaucoup plus faible que l’étoile.

L’observation directe permet d’obtenir des informations différentes de celles que procurent la méthode des transits ou celle des vitesses radiales; ceci les rend complémentaires. La première (« la directe ») présente, sous certaines conditions, beaucoup d’avantages par rapport aux secondes. Celle du transit est d’autant plus difficile à pratiquer que la planète est éloignée de son étoile (et ne permet de bien identifier que les grosses planètes orbitant très près, et souvent, d’étoiles peu lumineuses, notamment celles qu’on appelle les « Jupiters chauds ») ; celle de la vitesse radiale est d’autant plus difficile à pratiquer que la masse relative de la planète par rapport à l’étoile est faible. Les méthodes de transit et de vitesse radiale s’appliquent donc assez mal (ou « moins bien ») que l’observation directe, à la recherche d’exoplanètes de type terrestre qui sont de petites planètes qui orbitent autour d’étoiles moyennes comme le Soleil (catégorie « G ») et qui passent moins fréquemment (une fois par an ou moins) devant leur étoile si elles se trouvent dans la zone habitable de celle-ci.

Le projet DARWIN était donc très séduisant. Finalement il fut abandonné pour des raisons techniques et scientifique. La raison technique principale était la difficulté de satisfaire au besoin de précision nécessaire pour le réglage des distances des télescopes entre eux (chacun flottant dans l’espace) et avec le centre commun de collecte des rayonnements (flottant également dans l’espace, au centre de la formation). En effet la tolérance de précision du contrôle est de quelques micromètres pour les distances entre les télescopes et de seulement un nanomètre entre chaque télescope et le collecteur commun des rayonnements (dans lequel se trouve aussi l’interféromètre, des spectromètres et un centre de communication). On avait, de plus, pour occulter la lumière du Soleil, choisi de mettre le système en service au point de Lagrange Terre / Soleil « L2 » qui est en opposition par rapport à notre étoile, mais ce point est un lieu d’équilibre instable qui implique de temps en temps de petits ajustements de position des appareils qui s’y trouvent. Enfin la température des télescopes devait être réduite à 40 Kelvin (pour distinguer les ondes thermiques que sont les MIR), ce qui est une température très basse et donc difficile à maintenir (il faut les alimenter en liquide cryogénique). Sur le plan scientifique, on avait encore, en 2007, identifié peu d’exoplanètes et aucune « petite » planète d’une taille proche de celle de la Terre ; la rentabilité potentielle de l’investissement avait donc été estimée trop basse.

Les résultats abondants de la mission KEPLER de la NASA changent cet environnement et ce raisonnement. On a identifié maintenant plus de 3700 exoplanètes avec certitude et au moins autant de candidates, et KEPLER a permis de constater que la probabilité de planètes de taille terrestre (entre 0,5 et 2 rayons de notre Terre) était élevée. De ces constatations, les chercheurs de l’ETHZ susmentionnés, MM Jens Kammerer et Sascha Quanz** ont pu établir des statistiques (en utilisant la méthode dite de Montecarlo) qui laissent entrevoir la possibilité de quelques 315 planètes d’une taille allant de 0,5 à 6* rayons terrestres orbitant 326 étoiles dans un rayons d’observation de 20 parsecs (65,23* années-lumière). Parmi celles-ci 72 seraient de catégorie G (les plus nombreuses 121, sont des naines rouges, de catégorie « M »).

*NB : il est intéressant de cibler un éventail de tailles de planètes plus ouvert que celui des planètes de taille terrestre, à fin de comparaisons et de compréhension des systèmes stellaires dans lesquels elles peuvent évoluer. La sphère explorée de 65 années-lumière de rayon est très petite par rapport à notre galaxie qui fait 100.000 années-lumière de diamètre mais il faut voir que les planètes étant des miroirs de leur étoile (rayonnements réfléchis) dont le disque est très petit, on ne peut aller beaucoup plus loin.

La recherche pourrait se faire sur 2 à 3 ans et elle utiliserait les longueurs d’ondes MIR de 5,6 / 10 et 15 µm. Les chercheurs estiment que 85 des planètes recherchées pourraient se situer dans la zone habitable de leur étoile. Elles deviendraient alors les cibles d’une seconde phase de l’exploration (sur la même durée que la première) qui serait l’analyse par spectrométrie du rayonnement qu’elles réfléchissent, afin de nous renseigner sur la composition de leur atmosphère.

Les chercheurs sont tout à fait conscients que la recherche d’exoplanètes peut continuer à se faire à partir d’autres instruments, notamment ceux des projets HabEx et LUVOIR de la NASA qui utiliseraient de grands télescopes spatiaux dans les longueurs d’onde allant du proche infrarouge à l’ultraviolet. Ce que j’appellerais « DARWIN revisité », tel qu’ici suggéré, n’est qu’une des options mais une option qui mérite sérieusement d’être reconsidérée car la rentabilité d’un système travaillant dans l’infra-rouge moyen, le plus adapté à la captation du rayonnement réfléchi que nous envoient les exoplanètes et combinant les lumières de plusieurs télescopes, serait la meilleure (c’est-à-dire celle qui nous permettrait d’identifier et de caractériser le plus précisément le plus grand nombre de planètes). Le grand public tout comme la communauté scientifique, doit soutenir ce projet.

Image à la Une : représentation du système de télescopes interférométriques du projet DARWIN de l’ESA. Crédit Université de Liège. Les molécules évoquent l’aspect spectrographie du projet.

**Jens Kammerer et Sascha Quanz sont membres de « PlanetS – Origine, évolution et caractérisation des planètes», l’un des 36 « PRN » (Pôles de Recherche Nationaux) lancés depuis 2001 par le « FNR » (Fonds National de la Recherche Scientifique suisse). PlanetS a été créé par le FNR en Juin 2014. Il est dirigé par le Professeur Willy Benz (Université de Berne). Il réunit des chercheurs des Universités de Berne, Genève et Zurich ainsi que les EPF de Zurich et Lausanne. Il est structuré en « projets de recherche ». Le sous-projet du Dr. Quanz est celui de la « Détection et caractérisation des exoplanètes » à l’intérieur du projet « Disques et Planètes ».

Communication du 27/09/2017 de Mme Barbara Vonarburg, journaliste scientifique, chargée de communication à l’Université de Berne:

http://nccr-planets.ch/fr/blog/2017/09/27/remake-dune-mission-spatiale-annulee/

Etude scientifique: “Simulating the exoplanet yield of a space-based mid-infrared interferometer based on Kepler statistics” par Jens Kammerer et Sascha P. Quanz, in Astronomy & Astrophysics; Oct 19th 2017:

file:///H:/Capsule%20nouvelle%202018%2001%2017/Darwin%20la%20suite/Arwin%20sequel%201707.06820.pdf

 

KRUSTY offre à Elon Musk une vraie chance de transformer son essai

Malgré l’appréhension qu’elle suscite a priori, l’énergie nucléaire semble devoir être le meilleur support au développement d’un établissement humain sur Mars. La NASA travaille en partenariat avec le DOE* pour une solution de réacteur efficace, fiable et transportable. Des progrès considérables sont en cours.

*Département Fédéral de l’Energie des Etats-Unis

Après avoir interrompu les premières réalisations de réacteurs nucléaires pour l’espace il y a une cinquantaine d’années suite à la prise de conscience de la dangerosité de l’utilisation des matières radioactives (confirmée en 1979 par l’accident de la centrale de Three Mile Island), la NASA (Glen Research Center) a recommencé à les étudier en 2006, dans un esprit soucieux de l’environnement et visant la simplicité dans le cadre de technologies éprouvées et maîtrisables. Elle a publié cette année-là une étude sur les réacteurs de petites puissances utilisables en surface planétaire pour y produire de l’électricité en couplant ces réacteurs à des moteurs Stirling. En 2010 une évaluation technologique faite lors d’un « Planetary Science Decadal Survey » a constaté ou plutôt confirmé que les réacteurs à fission pouvaient offrir une alternative préférable sur tous les plans aux générateurs thermoélectriques à radio-isotopes (« RTG ») et a posé les bases du projet « Kilopower ». Dans la lancée, la NASA (Glen Research Center et Marshal Space Flight Center) et le DOE (National Nuclear Security administration et plusieurs laboratoires dont le célèbre Los Alamos National Laboratory) constituèrent un partenariat chargé de travailler sur la faisabilité puis la conception des réacteurs avec deux objectifs, d’une part la propulsion hors environnement planétaire et d’autre part la production d’énergie nécessaire à la vie en surface. En Septembre 2012 le concept Kilopower a franchi avec succès son test de faisabilité (« proof of concept ») et le Partenariat a jeté les bases du sous-projet KRUSTY (pour « Kilowatt Reactor Using Stirling TechnologY ») pour la production d’énergie en surface planétaire, laissant de côté (pour le moment ?) le sous-projet concernant la propulsion interplanétaire. KRUSTY a ensuite (à partir de 2015) passé avec succès d’autres tests, sans matière radioactive mais avec un cœur métallique non radioactif chauffé, puis avec de l’uranium appauvri (Novembre 2017). Une réunion tenue le 18 janvier 2018 a fait le point pour la suite. Ce sera le test à froid des composants du réacteur avec son cœur d’uranium enrichi (235U) en place. Enfin la démonstration « grandeur réelle » (avec réaction lancée) aura lieu fin mars 2018. Le TLR (Technology Readyness Level) visé est supérieur à 5 (sur 9). L’affaire devient sérieuse !

A noter que l’utilisation des matières radioactives dans l’exploration spatiale n’a cependant pas cessé durant ces dernières décennies (27 missions, de Viking dans les années 1970 à Curiosity aujourd’hui, y ont eu recours) mais qu’elle l’a toujours été selon le processus du « générateur » RTG, plus simple que le « réacteur » et utilisant une source radioactive extrêmement instable (d’où son intérêt mais aussi sa dangerosité), le plutonium 238, « 238Pu », (demi-vie de 87,7 ans et masse critique de 10 kg seulement). Mais cette source se fait rare car on le produit très lentement (actuellement 400 g par an pour un stock mondial de 18 kg) et qu’on hésite beaucoup à le faire par crainte de dissémination dans l’atmosphère en cas d’échec du lancement. Enfin, l’efficacité du générateur est faible. Ainsi, dans le cas de Curiosity, la chaleur générée par ses 4,8 kg d’oxyde de 238Pu est de 2 kWt mais la puissance électrique récupérée n’est que de 110 We (celle d’une bonne lampe électrique domestique !). Aucun système basé sur le principe du RTG n’a donné de puissance supérieur à 290 We et c’est bien là le problème car une mission habitée sur Mars requerra évidemment beaucoup plus. On estime le besoin à quelques 40 kWe pour une base abritant 4 personnes actives*. Pour mémoire la « génération » d’électricité par le RTG consiste à transformer en cette forme d’énergie la chaleur provenant de la dégradation spontanée et continue de la matière radioactive; la chaleur est captée par des thermocouples fixés sur le cœur du réacteur, la source froide étant constituée par l’environnement extérieur renforcé par des radiateurs évacuant la chaleur dans l’atmosphère et (dans le cas de Curiosity ou d’autres sondes spatiales) de capteurs branchés à une tuyauterie allant réchauffer divers centres stratégiques de l’équipement.

*Etant donné qu’une maison en Europe occidentale équipée en « tout électrique » fonctionne avec des puissances de l’ordre de 15 kWe, on peut s’étonner de cette puissance modique visée. On suppose que les équipements prévus et leur utilisation seront extrêmement bien gérés compte tenu du besoin constant d’y recourir et des conditions environnementales extrêmement dures.

Le réacteur nucléaire repose sur un tout autre principe. Il s’agit de déclencher une réaction de fission par impacts de neutrons, cette réaction produisant de la chaleur, à partir d’un matériau certes radioactif mais pas nécessairement aussi instable que le 238Pu et qui peut (doit donc !) être contrôlée ou pilotée à l’intérieur d’une structure sophistiquée comprenant une source radioactive (le cœur), un réflecteur de neutrons, un déclencheur/interrupteur, un bouclier, une liaison avec un générateur d’électricité et un radiateur. On a choisi pour cœur de Kilopower, de l’Uranium 235 (235U), élément habituel des réacteurs nucléaires, dont la « demi-vie » est très longue (700 millions d’années) mais qui a un « excès de masse » important (favorable à la fission). Sa réaction de fission peut être spontanée mais seulement si la quantité de matière atteint son niveau de « masse critique » (48 kg) ; autrement elle doit être provoquée, ce que précisément l’on veut pour KRUSTY afin de mieux le maîtriser. Ce cœur sera un cylindre d’un alliage de 235U et de molybdène (7%). Puisqu’il ne comportera au maximum que 43 kg d’235U (en dessous de la masse critique), il sera relativement peu actif tant que la réaction de fission ne sera pas initiée (c’est un « détail » important pour la traversée de l’atmosphère). Mais cette quantité de matière radioactive sera suffisante pour fournir, compte tenu de la présence du réflecteur, une puissance thermique de 40 kWt et in fine (après transmission de la chaleur – entre 800 et 650°C – aux convertisseurs Stirling et utilisation de ces convertisseurs) une puissance électrique de 10 kWe. L’alliage avec le Molybdene est choisi pour ses qualités stabilisatrices ; il élimine les problèmes de changement de phase, de température de fusion trop basse, et améliore la résistance au fluage à haute température. Le réflecteur sera comme souvent, en oxyde de béryllium. Il a la fonction très importante de permettre d’abaisser la masse critique et donc de permettre la réaction de fission (sans lui rien ne peut se passer). On peut ne le mettre en position qu’après l’arrivée sur le sol de Mars et il est de plus modulaire (disques) ce qui fait qu’il peut être plus ou moins actif. Le dispositif est complété par un déclencheur, comme souvent une barrette de carbure de bore, élément absorbeur de neutrons, située au centre du cœur au départ mais que l’on peut bouger pour désinhiber la réaction ou au contraire l’interrompre.

Le réacteur ainsi complété va alimenter en chaleur via des tubulures contenant du sodium à l’état gazeux, un certain nombre de convertisseurs en électricité de type Stirling (extrémité chaude et extrémité froide avec circulation d’un piston en fonction du chauffage puis du refroidissement d’un gaz) équipés d’un radiateur (renforçant la source froide) s’ouvrant en ombrelle de 20 m2, au-dessus des convertisseurs. Il est bien sûr protégé par un bouclier antiradiations (en tungstène et hydrure de lithium).

Image ci-dessus : magnifique parapluie ouvert de KRUSTY, crédit NASA, hauteur 3.00 m

Le système effectue une conversion de chaleur en électricité beaucoup plus efficace que le RTG (de l’ordre de 10 fois plus de puissance électrique pour la même masse). La masse du réacteur produisant 40 kWt (toute une gamme allant de 4 à 40 est prévue) sera, pour le réacteur y compris le cœur, le réflecteur et les tubes au sodium, 235 kg ; la masse du bouclier, 547 kg, la masse du reste (convertisseurs Stirling et radiateur), 763 kg. Au total pour le système entier on devrait avoir une masse de 1544 kg ce qui donne pour l’ensemble une puissance spécifique de 6,5 W/kg*. Pour comparaison la masse du RTG de Curiosity est de 45 kg (mais ne donne une puissance électrique que de 0,1 kW). Pour atteindre les 40 kWe estimés nécessaire à la première base martienne, on aura donc besoin de 4 unités KRUSTY de 10 kWe. C’est effectivement la quantité que l’on peut envisager exporter sans problème de la Terre dans « nos » fusées de type Falcon Heavy (ou mieux BFR).

*c’est le meilleur rapport que l’on puisse obtenir. Le KRUSTY de 1 kWe de puissance ne pouvant avoir une puissance spécifique que de 2,5 W/kg et le KRUSTY de plus de 10 kWe impliquant une masse critique de 235U trop importante.

Il n’a pas été facile de mettre au point ce petit réacteur car jusqu’à présent on n’avait envisagé que de gros formats (minimum 40 kWe de puissance) qui supposaient des technologies différentes (et plus de risques). Une des idées nouvelles est le système de transmission de la chaleur du réacteur aux convertisseurs à l’aide de tube de sodium (et non pas d’eau, par exemple) passant à l’intérieur même du cœur. La géométrie du système est également très intéressante car elle permet un haut coefficient de réactivité de température négative qui favorise l’auto-régulation (la réaction en chaîne diminue lorsque la température monte). En résumé l’ensemble des dispositions prises permet de réduire considérablement le risque de radiations lors du lancement tout en permettant une excellente puissance spécifique sur place.

Mais pourquoi s’intéresser à l’énergie nucléaire plutôt qu’à d’autres sources d’énergie ?

L’avantage est évidemment que le réacteur peut fonctionner jour et nuit alors que le Soleil ne donne de l’énergie que durant le jour, et en l’absence de tempête de poussière. La durée de vie de plus de 10 ans permet d’envisager une utilisation sereine pendant plusieurs séjours sur Mars (rappelons qu’il sera d’environ 18 mois en raison de l’évolution des positions respectives des planètes). La masse également est nettement plus faible que celle des panneaux solaires capables de mettre à disposition la même puissance électrique (d’autant qu’avec le temps les panneaux peuvent se couvrir de poussière). Ceci dit, par prudence et pour disposer d’un maximum de flexibilité, une base martienne jouera probablement sur toute la gamme des sources d’énergie possibles dont le solaire sous ses divers aspects (des progrès dans le taux de conversion de la lumière en électricité sont toujours possibles), le chimique méthane/oxygène, permettant notamment la pile à combustible au méthanol, et si possible le géothermique. La suite de Kilopower devrait être un « Megapower » fournissant une puissance de 2 MWe. Il reste à étudier mais on entrevoit que le « Mega-Krusty » qui devrait en résulter, permettrait la viabilisation et le fonctionnement d’une colonie importante.

Comme souvent les avancées technologiques se nourrissent l’une l’autre. Grâce aux fusées Falcon Heavy puis BFR (propulsion chimique) et à la volonté d’Elon Musk, on pourra aller sur Mars, et grâce à KRUSTY puis à MegaPower on pourra y vivre et y produire et transformer. Il faut bien voir que cette amélioration des possibilités de générer de l’électricité en surface ouvre de vraies perspectives d’installation humaine sur Mars. Les seuls « bémols » sont que pendant longtemps il faudra encore importer les réacteurs de la Terre…et surtout que, vis-à-vis des préjugés, il faudra oser le principe même du nucléaire.

Image à la Une : Environnement énergétique d’une future base martienne, composé de plusieurs unités de KRUSTY.

Image ci-dessous : Schéma KRUSTY, “en toute simplicité” (crédit NASA):

Liens :

“NASA’s Kilopower Reactor Development and the Path to Higher Power Missions” par Marc A. Gibson, ingénieur en chef de la NASA pour le projet Kilopower, et al. 04 février 2018

“Kilopower, NASA’s Small Fission Power System for Science and Human Exploration” par Marc Gibson,  Propulsion and Energy Forum, Cleveland, Juillet 2014 DOI: 10.2514/6.2014-3458.

https://beyondnerva.wordpress.com/2017/11/19/krusty-first-of-a-new-breed-of-reactors-kilopower-part-ii/

Blog “Beyond Nerva” 19 Nov. 2017.

Les premiers hommes sur Mars puiseront leurs matières premières dans la poussière

Mars n’a pas d’eau liquide en surface mais elle a de la poussière et du sable, ce sont des éléments meubles, homogènes et riches qui lui sont, sous ces aspects, équivalents. Il faudra en tirer parti. Sur l’image “à la une” vous voyez au premier plan une étendue de couleur gris-foncé et en arrière-plan, beaucoup plus haut dans la montagne, des masses de couleur beige-clair. La première est une dune de sable basaltique comme on en a observée beaucoup dans la région, les secondes sont des accumulations de poussière agglomérée.

Il y a une première différence entre le sable et la poussière, c’est la taille des grains qui les composent (typiquement sur Mars plus de 50 µm pour le sable et moins de 30 µm pour la poussière, avec abondance aux environs du micromètre). Le grain de sable est plus lourd que le grain de poussière (c’est cela, en rapport avec sa taille, qui l’en distingue). En raison de la faible force du vent résultant de la faible densité de l’atmosphère (pression moyenne au sol martien, 611 pascals), le grain de sable est peu mobile. La caractéristique principale du grain de poussière est au contraire d’être très mobile puisque très léger. Il peut rester en suspension quasi indéfiniment dans l’atmosphère ou bien être transporté autour du globe par les vents les plus forts. Il résulte soit de la décomposition de certaines roches de surface au grain très fin, soit de la saltation des grains de sable eux-mêmes.

Bien sûr en géologie tout évolue avec le temps et la consistance des accumulations de poussière, comme de sable, a changé depuis leur formation et continue à changer. Certaines dunes continuent à bouger, d’autres se sont stabilisées et durcies (diagénèse). La poussière après avoir volé a pu s’accumuler et s’incruster puis elle-aussi durcir (diagénèse). Une grande partie reste mobile, flotte dans l’atmosphère lui donnant sa couleur ocre-rougeâtre, une autre, un peu plus lourde, recouvre le sol, une autre encore qui n’a pu être soulevée depuis très longtemps ou qui est toujours soumise aux mêmes pressions (vents unidirectionnels) s’est tassée et s’est transformée en roche sans doute friable (du moins en surface) comme le lœss chinois. C’est cette dernière variété qui enrobe le pic qui probablement se trouve au centre du Cratère Gale et constitue l’armature du Mont Sharp.

Outre le degré de mobilité, il y a une seconde différence entre le sable et la poussière mais elle en résulte, c’est la composition chimique. En effet la poussière étant globale, elle a été homogénéisée. On retrouvera une composition à peu près identique partout et surtout une très grande richesse en variété d’éléments chimiques car elle reflète l’ensemble de la composition chimique de la surface martienne (ou plus exactement des roches accessibles à l’érosion éolienne au cours des 3,5 milliards d’années pendant lesquels elle a été dominante). Les différentes sondes posées sur le sol de Mars l’ont constaté comme le montre le graphe ci-dessous établi sur la base des observations faites sur des échantillons de sol par les laboratoires mobiles Spirit, Opportunity puis Curiosity, à des endroits très différents de la planète.

Photo PIA16572: “Inspecting Soils Across Mars” 03 12 2012; Crédit image: NASA/JPL-Caltech/University of Guelph; Les niveaux de dioxyde de silicium et des oxydes de fer ont été divisées par 10; Les niveaux de nickel, zinc et brome ont été multipliés par 100

Le sable, lui, résulte de l’érosion locale ; il est donc de ce fait, essentiellement local et reflète la géologie du lieu. Ceci dit les différences sont assez peu marquées du fait de l’absence de tectonique des plaques qui sur Terre mélange et renouvelle les minéraux par métamorphisme. Plus de la moitié du socle rocheux de la surface de Mars est constituée d’éléments magmatiques primordiaux (« mafiques », roches silicatées contenant beaucoup de manganèse et de fer, et « ultramafiques ») alors que la surface des plaines du Nord de Mars a été recouverte d’épanchements volcaniques « tardifs » riches en soufre (hespérien surtout et un peu début amazonien) très liquides.

On pourra trouver « autre chose » car l’eau a beaucoup hydraté certains sites pendant quelques petites centaines de millions d’années (jusqu’à -3,6 milliards d’années environ) et le volcanisme a pu sélectionner les minéraux. Les deux ont provoqué ou facilité des réactions chimiques avec les éléments (contenus dans l’atmosphère et dans le sol) entrant en contact avec eux. L’hydratation a produit des argiles (phyllosilicates) et sans doute des filons (concentrations) de minéraux y compris de métaux. Le volcanisme a produit des sulfates et concentré certains métaux.

L’homme sur Mars pourra en tirer profit comme sur Terre. Il pourrait certes exploiter le sous-sol de Mars en creusant des mines mais cela impliquerait des infrastructures lourdes, difficiles à importer ou alternativement à créer sur place et de toute façon à exploiter. Il sera sans doute préférable, du moins au début de son installation, que tout simplement il ramasse le sable ou la poussière de surface (sol) et en extraie les minéraux dont il aura besoin, notamment le fer et les métaux sidérophiles, la silice (pour le verre) et les sulfates.

La collecte pourrait se faire par pelles mécaniques robotisées opérant sur sites repérés pour leur abondance et pour leur proximité de la base (à combiner avec la proximité des gisements de glace d’eau !), ou au niveau des filtres des aspirateurs d’atmosphère qui alimenteront des concentrateurs en liaison avec les installations de transformation du CO2 en méthane et oxygène. Comme ces filtres devront constamment être nettoyés, le produit du nettoyage pourrait facilement être traité d’autant qu’il pourrait y avoir plusieurs filtres aux mailles de plus en plus serrées (les poussières pourraient être libérées par vibrations périodiques des filtres placés au-dessus de bacs circulants). Pour le traitement (la fonte et la purification des éléments) on peut imaginer des fours solaires alimentés par de grandes surfaces réfléchissantes (comme le four solaire d’Odeillo dans les Pyrénées). Ce four dont vous voyez une image ci-dessous, permet de parvenir très vite à des températures très élevées (à Odeillo, 3500 ° C). L’utilisation de ces ressources pour produire du verre ou des structures en fer / acier, sera essentielle et s’imposera très vite compte tenu de la masse qu’ils représentent et dont l’importation depuis la Terre serait fort coûteuse et donc très limitée.

Référence :

“Chemical, mineralogical, and physical properties of Martian dust and soil” par D.W. Ming et R.W. Morris, Astronautical Research and Exploration Science Division, NASA JSC (LPI contribution n°1966, 2017).

Image à la Une: le Mont Sharp (Cratère Gale) vu le 25 septembre 2015, photo NASA (avec éclairage terrestre restitué, « white balanced »). La « tache » foncée au premier plan est une partie du champ de dunes nommé « Bagnold ». Crédit NASA/JPL-CalTech/MSSS 

Image ci-dessous : principe du four solaire d’Odeillo:

 

Elon Musk did it !

Mardi 6 février 2018 à 21h45, comme prévu, le Falcon Heavy de Space X a fait un départ de la Terre (presque) « sans faute ». La réussite de ce test qui était moins qu’évidente, prouve que l’audace d’Elon Musk est fondée sur le sérieux d’une maîtrise technologique sans faille. Les concurrents, dont l’ESA, toujours très critique, ne peuvent que se rendre à l’évidence, ils sont largement distancés et le public qui veut l’aventure martienne peut maintenant raisonnablement espérer.

La plus belle photo de cet exploit est sans doute celle capturée à l’écran et placée en « image à la Une », qui montre le retour simultané des deux « side-boosters » (fusées latérales) du « core-booster » (fusée centrale) sur le site de lancement des fusées Saturn V du programme Apollo, à Cap Canaveral. Un problème technique sur la barge en mer où devait se poser le core-booster a empêché de voir ce troisième élément de propulsion se re-poser* mais cela n’entame en rien la satisfaction du succès. La récupération des lanceurs « marche » et le vaisseau spatial est en route vers l’orbite martienne avec à son bord la voiture personnelle d’Elon Musk car, compte tenu des risques d’échec (évalués par lui-même à 50/50) il n’a pas voulu vendre la montée en orbite à qui que ce soit.

*On a appris plus tard que cet élément avait “raté”  la barge d’une centaine de mètres et avait donc sombré dans l’océan.

Au-delà de ce côté spectaculaire, ce qui était le plus risqué dans ce test et qui n’avait jamais été tenté, était de faire fonctionner ensemble les 27 moteurs (« merlin ») du 1er étage. 27 moteurs en l’occurrence c’est trois fois neuf, c’est-à-dire trois lanceurs de la génération précédente, Falcon 9, fonctionnant côte à côte. Et ce n’est pas une simple addition mais un problème de coordination des combustions, de plomberie pour une alimentation régulière, de maîtrise des vibrations et de maîtrise des forces de propulsion (imaginez les attaches des boosters latéraux au booster central et le moment où les deux boosters latéraux doivent se désolidariser du booster central !).

Falcon Heavy qui pèse au départ 1400 tonnes, pourra, avec une poussée de 2500 tonnes, mettre 64 tonnes en orbite basse terrestre (LEO). C’est trois fois la capacité de lancement d’Ariane V de l’ESA (20 tonnes) et plus de deux fois la fusée la plus puissante jusqu’à aujourd’hui, celle de l’armée américaine, Delta IV Heavy (28,8 tonnes), c’est moitié moins que celle de Saturn V, la fusée du programme Apollo qui a permis l’aventure lunaire (dernier vol en 1973 !). Mais maintenant qu’Elon Musk a réussi son lancement de Falcon Heavy, il va s’attaquer au BFR (big Falcon Rocket) qui pourra largement concurrencer Saturn V.

Franchement, les opérations commerciales ne nécessitent pas une telle capacité de lancement. C’est un peu pour cela que la capacité de la fusée Ariane n’a pas augmenté avec Ariane VI par rapport à Ariane V, l’Europe (ESA) préférant pouvoir lancer souvent pour répondre rapidement à la demande des clients, plutôt que gros et lourd. Ceci dit il y a de temps en temps des lancements lourds et de toute façon SpaceX continuera à produire le Falcon 9 qui du fait de la modularité de sa conception, n’est qu’une fraction de Falcon Heavy et utilise les mêmes moteurs. La différence, et elle est de taille, c’est que l’exploration par vols habités était impossible sans lanceurs lourds et l’on sait que tout ce que fait Elon Musk, il le fait en perspective d’aller un jour sur Mars, aussitôt que possible (vol d’essai en 2022 et vol réel en 2024).

L’aventure des vols habités vers Mars a bel et bien commencé ce soir, que le gouvernement américain le veuille ou non, que le projet SLS de la NASA qui traîne depuis des années aboutisse ou non* et que les Européens y restent indifférents ou non (après tout, Mars comme le Canada jadis, ce n’est pour « l’establishment » européens que « quelques arpents de glace »). Bravo Elon!

*Robert Zubrin, fondateur de la Mars Society, rapporte qu’il y a sept ans la Commission Augustine qui préparait le programme spatial de l’administration Obama avait dit que le programme de son prédécesseur (pour aller sur la Lune) devait être annulé (ce qu’il fut!) parce que le développement du lanceur lourd nécessiterait 12 ans et coûterait 36 milliards de dollars! 

Image à la Une: retour sur Terre des deux booster latéraux de Falcon Heavy (crédit SpaceX)

Image ci-dessous: Les 27 moteurs Merlin de Falcon Heavy (crédit SpaceX)

Dernières nouvelles, le 8 février :

Le corps central du lanceur s’est écrasé à la surface de l’océan à 500 km/h. La dernière mise à feu, pour le freinage final, n’a pas fonctionné. Il y a quelques dégâts sur la barge d’atterrissage qui se trouvait à seulement environ 300 mètres.

Starman, le passager de la décapotable Tesla rouge cerise d’Elon Musk, est parti pour l’orbite martienne après la seconde mise à feu du second étage. En fait il ira beaucoup plus loin, presque jusqu’à l’orbite de Cérès au centre de la Ceinture d’astéroïdes. Il redescendra ensuite en dessous de l’orbite terrestre.

Sur son site, SpaceX annonce non seulement la capacité de placement de masse en LEO (64 tonnes) mais également la capacité de dépose en surface de Mars (16,8 tonnes). Avec une telle masse et plusieurs lancements, on peut déjà envisager une mission habitée sur Mars. Si vous voulez expédier votre propre voiture sur Mars…en payant le transport, je suis certain qu’Elon Musk sera ravi de vous offrir ses services (mais vous pouvez aussi financer l’envoi d’objets plus intéressants, par exemple quelques rovers d’exploration chargés d’instruments d’observation et d’analyse).

 

Les défis auxquels l’homme est confronté doivent l’attirer plutôt que le décourager

Nous sommes des poussières d’étoiles, des fruits de la Terre et du Soleil, des êtres de chair et de sang produits d’une évolution biochimique prodigieuse déroulée tout au long de 4,567 milliards d’années sur une planète bien particulière, rocheuse, où l’eau – fait rare – est abondante et liquide, orbitant autour d’une étoile de masse moyenne née quelques petits millions d’années avant elle, à la périphérie d’une galaxie spirale ordinaire parmi les innombrables qui peuplent un univers vieux de 13,8 milliards d’années.

Depuis quelques siècles nous nous éveillons à la conscience de ce monde, en ouvrant les yeux de la Science tout autour de nous pour comprendre. Nous observons, nous réfléchissons. Nous sommes peut-être uniques, les seules entités douées d’intelligence et de capacités créatrices dans cette galaxie sinon dans l’univers tout entier et nous devons en tirer un devoir moral. Depuis quelques dizaines d’années notre puissance d’observation et de réflexion a été considérablement augmentée par nos découvertes en informatique, par la création d’observatoires de plus en plus puissants et de lanceurs de plus en plus performants, par l’utilisation d’instruments de plus en plus extraordinaires comme les chromatographes, les spectromètres, les lasers, les microscopes à force atomique (entre autres !), par les mises en réseau d’ordinateurs de plus en plus rapides et par les constructions intellectuelles remarquables fondées sur les données rassemblées par ces instruments, résultant d’échanges quasi immédiats entre scientifiques du monde entier.

De ce fait nous progressons.

Nous semblons cependant contraints à l’intérieur de limites dont certaines paraissent des obstacles infranchissables. Des problèmes nous sont posés par des données physiques ou chimiques dont nous n’avons pas ou dont nous avons peu la maîtrise. Ce sont l’immensité de l’Univers, le temps que l’on ne peut que mesurer, la vitesse de communication / réception qui est absolument limitée par celle de la lumière, la gravité inhérente à toute masse, les radiations dont on ne peut parfaitement se protéger, l’énergie produite ou captée qui est épuisable, la biologie dont les (des)équilibres sont si complexes et si fragiles qu’il faut sans cesse les restaurer et qui, in fine, limitent notre durée de vie. Ces problèmes sont redoutables et souvent, d’une manière ou d’une autre, intrinsèquement liés.

Les conséquences sont différentes pour les deux domaines qui nous intéressent ici, l’astronomie et l’astronautique, la première n’impliquant pas le transport de masse (donc de besoin en énergie) que la seconde impose. Si on ouvre la fenêtre du domaine de l’astronautique on peut encore se placer du point de vue des missions robotiques ou des missions habitées, les premières n’impliquant pas toutes les complexités (et les précautions !) requises par le transport d’êtres humains. Selon ces points de vue les obstacles sont évidemment à des distances différentes et l’astronomie ouvre la voie à l’astronautique tandis que les missions robotiques ouvrent la voie aux missions habitées.

Pour avancer, l’homme louvoie. Il utilise ce qu’il peut comme il peut. Par son travail il se hisse d’abord jusqu’au niveau des connaissances acquises par ses pairs puis, grâce à l’effervescence de « ses petites cellules grises » et parfois la chance, il ajoute une idée, il fait un rapprochement, il réussit une expérience et fait pousser un peu plus la magnifique fleur de corail de nos capacités humaines.

Aujourd’hui il est donc probable que certains des murs qui nous entourent vont reculer encore, comme reculent les lignes d’horizon quand on croit s’en approcher. Et de ce fait, le « terrain de jeu » ou la « marge de progression » qu’ils nous laissent aujourd’hui et dans lesquelles nous pouvons nous exprimer, est de plus en plus vaste. Nous n’avons pas épuisé la mise en pratique de nos capacités technologiques théoriques et nous n’avons pas encore imaginé les nouvelles possibilités qui au-delà, un jour, s’ouvriront à nous. Mais pour avancer, il ne faut pas faiblir. En astronomie nous ne devons pas renoncer aux champs de télescopes interférométriques en réseaux dans l’espace même si pour le moment le projet Darwin a été annulé.  En astronautique, le projet « Breakthrough Starshot » soutenu par Stephen Hawking, pour envoyer des sondes explorer les étoiles voisines, nous ouvre des perspectives extraordinaires ; soutenons le ! Dans les années qui viennent (« l’immédiat ») nous ne devons pas faire défaut à Elon Musk pour son projet martien même s’il présente quelques faiblesses car il est le plus crédible et le seul qui puisse vraiment nous ouvrir la chance d’un établissement humain sur Mars, première étape de la création d’une civilisation multiplanétaire dans le cadre de laquelle l’homme ne serait plus dépendant d’une seul Terre.

Laissons notre esprit rêver pour projeter et construire en utilisant notre raison. Du mythe de Dédale et d’Icare, on ne retient d’ordinaire que la chute de ce dernier qui s’était approché de trop près du Soleil et on oublie la prouesse de Dédale qui réussit à fuir le Minotaure grâce à son ingéniosité. N’ayons pas peur ; osons l’audace. Cela n’empêche pas d’évaluer les risques qu’on prend pour pouvoir les prendre. Nous ne devons ni nous sous-estimer, ni nous sur-estimer comme nous ne devons ni sous estimer, ni sur-estimer les défis auxquels nous sommes confrontés. Dédale avait mis son fils en garde. 

Image à la Une : La fuite du Labyrinthe. Dédale réussit son vol car il a évalué correctement la puissance de ses ailes et ne les a pas sollicitées au-delà de leurs capacités.