Des étoiles naines de toutes les couleurs

Notre Soleil est une étoile assez banale, du type dénommé « naine jaune », à ne pas confondre avec « naine brune», « naine rouge » ou même « naine blanche », quoi qu’il soit précisément destiné à entrer dans cette dernière catégorie, avant de devenir beaucoup plus tard une toujours hypothétique « naine noire ». Mais ne vous inquiétez pas, nous ne serons plus là pour le voir car la transformation en naine blanche n’arrivera que dans plus de 6 milliards d’années et de toute façon, la Terre sera devenue inhabitable bien plus tôt et de surcroît l’espèce humaine telle que nous la connaissons aura disparu depuis très longtemps, du simple fait de l’évolution darwinienne.

Le « diagramme de Hertzprung-Russel » établi au début du XXème siècle par le Danois Ejnar Hertzprung et l’Américain Henry Norris Russel classe les étoiles selon leur « luminosité absolue » en fonction de leur température de surface et indirectement de leur masse. En effet plus une étoile est massive, plus son éclat est fort (et plus sa vie est brève) et inversement. Chacune d’entre elles peut passer au cours de sa vie par plusieurs positions sur ce diagramme en fonction de sa masse initiale qui détermine son évolution. Ainsi le Soleil qui est actuellement dans la « séquence principale » du diagramme est une naine jaune (luminosité « 1 » !) puis elle deviendra une géante rouge avant de devenir une naine blanche. La séquence principale des naines jaunes est située en dessous de deux groupes, un ensemble de « géantes », comprenant les géantes proprement dit, les sous-géantes, les géantes lumineuses, et le groupe des supergéantes ; et elle est située au-dessus des « naines-blanches ». Les « naines rouges » sont situées à l’extrémité « froide » de la séquence principale. Les « naines brunes » constituent un groupe à part.

Il faut voir qu’une étoile est une sorte de réacteur à fusion nucléaire, allumé par la simple pression interne résultant de sa masse concentrée par la gravité, à partir du moment où la densité du nuage de gaz et de poussière précurseur est suffisante pour déclencher sa concentration gravitationnelle. Le matériel initial est l’hydrogène, matière de base de l’Univers, qu’il s’agit de convertir, par nucléosynthèse, en élément plus lourd, le deutérium d’abord (mais c’est encore de l’hydrogène), l’hélium ensuite, et plus ou moins de « métaux » enfin (pas seulement de métaux au sens ordinaire mais tous les éléments plus lourds que les trois précités), en fonction de la puissance de la « machine » c’est-à-dire de sa masse. Plus la masse est importante plus on descendra dans le tableau de Mendeleïev vers le fer. Au-delà de la transformation « normale » de la matière stellaire, on dépassera le stade du fer lors de la séquence explosive de l’évolution stellaire (nova ou supernova), si elle a lieu, ce qui dépendra encore une fois de la masse de l’étoile.

La moins « puissante » des naines, la brune (la noire est une forme extrême que j’évoquerai plus tard), a une masse allant d’environ 13 à 75 fois celle de Jupiter (soit 0,07 masses solaires). C’est un objet hybride, plus chaud qu’une étoile mais pas suffisamment massif pour que sa densité interne permette une nucléosynthèse, si ce n’est marginalement celle de l’hydrogène en deutérium (hydrogène lourd). Le résultat de cette non-transformation interne est une très grande stabilité. Son histoire se résume à une lente contraction gravitationnelle et à un lent refroidissement (d’environ 2500 à environ 200 K). Il y a une infinité de naines brunes dans l’espace mais comme leur rayonnement est très faible, elles sont difficiles à observer, plus difficiles encore que le sont les exoplanètes dont le rayonnement interfère avec celui d’étoiles de masse supérieure. Il ne faut pas confondre ces naines-brunes, quasi-étoiles, avec les planètes orphelines ou errantes, c’est-à-dire ne dépendant pas d’une étoile. Ces dernières seraient par définition plus petites (en fait de toutes tailles inférieures à 13 masses joviennes, autrement ce seraient des naines brunes). On peut penser qu’elles ont fait partie à l’origine d’un système stellaire mais qu’elles en ont été éjectées (comme l’hypothétique cinquième planète de notre système solaire, entre Saturne et Neptune, peut-être éjectée par le retour de Saturne accompagnatrice de Jupiter dans son « grand tack », plus loin vers l’extérieur que leur lieu de naissance).

Les étoiles naines plus lumineuses que les brunes, les rouges, sont extrêmement communes dans l’Univers. Notre plus proche voisine Proxima Centauris est l’une d’entre elles et la plupart des exoplanètes observées à ce jour dépendent d’elles (leurs planètes sont relativement plus facilement observables qu’autour d’étoiles plus lumineuses ou massives car elles orbitent plus près d’elles et, pour une masse planétaire égale, leur contraste de luminosité ainsi que l’oscillation autour de leur centre de gravité commun sont relativement plus importants). Les naines rouges sont de véritables étoiles. Leur masse varie de 0,07 à 0,7 masses solaires ; leur température monte à quelques 4000 K et leur luminosité n’excède pas 10% d’une étoile de type solaire (elles émettent dans le rouge du spectre lumineux – elles rougeoient – et dans l’infrarouge). Leur nucléosynthèse (hydrogène vers hélium) est très lente et leur masse est entièrement convective c’est-à-dire que l’hélium résultant de la nucléosynthèse ne peut se concentrer au centre de gravité et que l’intérieur des astres reste donc homogène. Cette lenteur et le brassage permanent de la matière de l’étoile permettent aux réserves d’hélium de durer très longtemps et l’homogénéité est un facteur de stabilité. Leur longévité serait donc extraordinairement longue, plusieurs centaines de milliards d’années (NB : notre Univers n’a jailli du Big-bang qu’il n’y a que 13.8 milliards d’années) ; on n’a donc pas encore pu observer une fin de cycle pour ce type d’étoiles (épuisement de l’hélium). Cependant le fait qu’elles contiennent quelques éléments lourds (des « métaux ») impliquent qu’elles ne sont pas des étoiles primordiales (de première génération).

Les naines jaunes sont particulièrement intéressantes puisque notre Soleil est l’une d’entre elles. Au-delà de notre système, la plus proche est Alpha Centauri A. Elle se trouve à 4,5 années-lumière (notre galaxie, la Voie Lactée, fait plus de 100.000 années-lumière de diamètre) et il n’est pas impensable de pouvoir l’atteindre physiquement et d’abord avec nos robots (une vingtaine d’années seraient nécessaires selon les promoteurs du projet Breakthrough Starshot).

Leur masse varie entre 0,7 et 1,2 masses solaires. Elles pratiquent elle-aussi la nucléosynthèse mais de façon plus active que les naines rouges. La transformation de l’hydrogène en l’hélium se fait à partir du centre, comme chez les naines brunes ou rouges mais l’hélium se concentre au centre et évolue, par couche, vers la périphérie. Leur température de surface varie de 5000 à 6000°C mais au centre elle peut atteindre une quinzaine de millions de degrés. Elles ont une espérance de vie de l’ordre de 10 milliards d’années. Lorsque la réserve d’hélium de leur cœur est épuisée (le Soleil contient 74% d’hydrogène, 24% d’hélium et 2% de « métaux »), la fusion se propage dans les couches plus superficielles (la zone radiative puis la zone de convection) qui se dilatent de plus en plus du fait de la température et du fait qu’elles ne sont pas contraintes avec la même intensité par la gravité que le centre. Les naines se gonflent alors démesurément en géantes rouges. Le Soleil englobera ainsi Mercure, Vénus puis sans doute la Terre. A la fin de la phase de géante rouge, la température aura atteint une centaine de millions de Kelvin ce qui déclenchera le « flash de l’hélium », une réaction de fusion extrêmement rapide (quelques secondes) qui donnera du carbone et un peu d’oxygène. Ensuite, après quelques vicissitudes, les géantes rouges devenues très instables projettent leurs couches externes dans l’espace en une « nébuleuse planétaire » (notre système solaire, engagé dans son « nuage interstellaire local » traverse peut-être actuellement les vestiges d’une ancienne nébuleuse de quelques 30 années-lumière de diamètre…depuis quelques dizaines de milliers d’années et peut-être encore dix ou 20 mille ans, seulement un instant au regard des séquences de temps de l’Univers !). Après cette éjection, elles ne sont plus assez massives pour poursuivre leur nucléosynthèse au-delà du carbone, vers le néon, le sodium ou le magnésium. Il ne reste plus que leur cœur de carbone, très chaud (jusqu’à 100.000 K) et dense qui s’effondre sur lui-même en une « matière électronique dégénérée », devenant une naine blanche qui perdra peu à peu sa chaleur, très lentement car la sphère étant toute petite (ce qui restera du Soleil n’aura plus que le diamètre de la Terre) sa surface radiative sera très réduite. Un jour elle pourrait théoriquement devenir une « naine noire » dont la température serait celle de son environnement et dont plus aucune radiation ne sortirait. Mais ce dernier état reste hypothétique car l’Univers n’est pas encore assez vieux pour qu’une seule naine blanche ait atteint ce stade.

Comme évoqué plus haut, le Soleil aura bien avant le stade de géante rouge, dans « seulement » quelques 500 millions d’années, éradiqué toute vie de la surface de la Terre. En effet ses radiations et sa température vont augmenter continûment du seul fait de son « fonctionnement » interne et la hausse des températures va augmenter continûment l’évapotranspiration : l’atmosphère comprendra de plus en plus de vapeur d’eau et cette vapeur d’eau absorbera de plus en plus de gaz carbonique. Les plantes manqueront de ce gaz qui permet leur photosynthèse. Les espèces végétales terrestres puis marines disparaîtront progressivement…ainsi que les animaux qui s’en nourrissent. 500 millions d’années c’est beaucoup puisque par symétrie dans le temps on remonterait dans le passé jusqu’à l’époque cambrienne, au début de l’éon phanérozoïque (celui de la vie animale) qui a commencé il y a 541 millions d’années et puisque la divergence entre homme et singe n’est survenue qu’il y a environ 7,5 millions d’années. Il faut bien voir que sur cette durée mais déjà sûrement dans une dizaine de millions d’années, l’homme et son environnement auront profondément changé de par la simple évolution darwinienne. Dans 500 millions d’années d’une manière ou d’une autre, nous ne serons donc plus là. Nous aurons passé le flambeau à une autre ou plutôt à plusieurs autres espèces et on ne peut qu’espérer qu’au moins l’une d’entre elles aura conservé et fait prospérer l’Intelligence et la Sensibilité.

Les naines blanches sont donc « notre » futur, par succession de formes de vie en devenir au delà de la nôtre. Il est catastrophique mais il est très lointain. Nos éléments constitutifs, au niveau de l’atome, résultant de notre désintégration, que le Soleil aura engloutis, seront traités comme le reste de la matière absorbée et expulsés vers l’espace dans une nébuleuse planétaire et un jour peut-être, par suite de quelque phénomène de nouvelle concentration de matière, seront intégrés à un autre système planétaire. Si notre étoile était plus massive l’aventure ne s’arrêterait pas là. En effet pour les étoiles qui dépassent les 8 masses solaires, la naine blanche aurait une masse supérieure à 1,4 masse solaire (« masse de Chandrasekhar ») et l’équilibre entre la gravité et les forces de pression serait impossible ce qui conduirait le cœur à une explosion en supernova et à un surcroît d’enrichissement en métaux de cette matière disséminée dans l’espace.

En attendant nous avons beaucoup de belles choses à accomplir pour nous accomplir nous-mêmes. L’une d’elles est la recherche urgente et avide de connaissance et de compréhension de l’Univers autant que nous le permettent nos progrès technologiques et entre autres, la recherche ailleurs que dans notre système solaire de traces d’une autre vie ou plutôt, d’une évolution vers la vie, pour au moins mieux comprendre ce phénomène à ce point extraordinaire qu’il est probablement unique, du moins dans sa forme la plus développée que nous incarnons. La tâche est difficile car la complication supplémentaire à celles déjà évoquées dans ce blog est que toute étoile, même accompagnée de planète(s) dans sa zone habitable, n’est pas forcément un centre dispensateur de conditions suffisantes à la vie. Les géantes ont une vie trop courte, les naines brunes sont trop froides et les naines-rouges ont une zone habitable trop proche. Reste les naines jaunes d’un certain âge (pour avoir permis le lent développement que nous avons-nous-mêmes connus) nées dans un univers déjà riche en métaux (ce qui exclut les deux tiers de l’histoire de l’Univers), pas trop proche du centre galactique (trop de perturbations et de radiations) et pas trop loin non plus (un minimum est requis pour disposer d’une bonne métallicité)…De telles étoiles « ne courent pas les rues » !

Illustration de titre :  Tablizer traduit par Kokin — Traduction de l’image sous licence GFDL issue de la wikipedia anglophone

Illustration ci-dessous : le diagramme de Hertzprung Russel (créé par Richard Powell, avec sa permission pour une diffusion sur Wikipédia).

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 24

Comme l’infiniment petit, l’infiniment grand est constitué surtout de vide mais il est tout autant structuré

Plus on considère l’Univers à grande échelle plus il ressemble à l’infiniment petit, du vide structuré très finement par la matière. On ne s’en est rendu compte que récemment puisque, étant nous-mêmes noyés à l’intérieur de l’objet observé, nous n’avions pas le recul nécessaire pour l’appréhender sans déformation. Pour comparaison, nous voyons les arbres et non la forêt. Il a fallu que nous disposions des outils modernes que constituent les grands télescopes terrestres de dernière génération, comme le VLT et sa MUSE*, et les télescopes spatiaux, comme le télescope Hubble (avec son « Cosmic Origins Spectrograph »), pour observer suffisamment de galaxies et de nuages de gaz et en déduire, compte tenu des emplacements, des distances et des vitesses de déplacement, et grâce à la puissance de calculs de nos ordinateurs pour annuler les distorsions de perspectives, une image de ce que devrait être en réalité le tissu de l’univers.

VLT est le Very Large Telescope de l’ESO, situé au Cerro Paranal, Atacama, Chili. MUSE est le Multi Unit Spectrometer Explorer, un spectromètre 3D grand champ qui équipe le VLT depuis 2014.

La matière visible est regroupée en galaxies. Il y en a peut-être 200 milliards dans l’univers observable. Mais ces galaxies ne sont que les points où la matière primordiale s’est reconcentrée après que le Big-bang l’ait projetée avec violence dans ce qu’on appelle l’expansion de l’Univers. Au début des « âges sombres », mettons pendant les 250 premiers millions d’années de l’histoire de notre Univers (même si ces âges ont duré quelques 400 millions d’années), la matière atomisée était diluée, sans étoiles et sans galaxies mais quand même avec des régions de plus fortes et de moindres densités. Ce brouillard général était constitué de beaucoup d’atomes d’hydrogène et d’un peu d’atomes d’hélium. A la « surface de dernière diffusion », 380.000 ans après le Big-bang, lorsque la lumière fut libérée de la matière par l’expansion qui elle-même avait permis aux protons de récupérer des électrons, il y avait déjà des irrégularités de densité, provoquées par les « oscillations acoustiques des baryons » et ce sont ces irrégularités qui plus tard donneront les premières galaxies. Au tout début, en devenir, elles étaient d’énormes nuages sombres car sans étoiles puis, petit à petit, la gravité jouant son rôle, les premières concentrations se firent, des quasars se formant autour de quelques trous noirs primordiaux et les premières étoiles apparurent. Le mouvement d’expansion générale et de concentration locale se poursuivit et se poursuit encore mais le grand nuage originel ne se résorba pas et ne se résorbera jamais complètement. En fait, il subsiste partout où la densité n’a pas été suffisante pour engendrer un effondrement gravitationnel et, en s’étirant, partout entre les galaxies et les amas de galaxies en formant comme des ponts ou, vu de très loin, des feuilles minces puis des filaments.

On a une image du résultat, le « Two Degree Field Galaxy Redshift Survey » (ou « 2dF Galaxy Redshift Survey » ou « 2dFGRS ») publiée en juin 2003 (Steve Maddox et John Peacock) après collecte de données sur 1500 degrés carrés de la voûte céleste, par l’AAO (télescope Anglo-Australien équipé d’un instrument « 2dF » capable de produire des clichés de 2 degrés carrés). Ce qui frappe le plus quand on regarde aujourd’hui cette « structure à grande échelle de l’Univers », grâce à nos « merveilleuses machines », au-delà de l’homogénéité et de l’isotropie , c’est le vide. Il constitue 90 % du volume de l’Univers et il est « partout » entre les amas de galaxies qui apparaissent comme des renflements le long de fibres constituant une mousse très légère. Ce vide, dit « lacunaire » car il est constitué d’une infinité de cavités gigantesques (jusqu’à plusieurs dizaines de millions d’années-lumière), est vraiment très vide, au tel point que notre vide « local », entre les planètes du système solaire, à un moindre degré entre les étoiles de notre galaxie, à un moindre degré entre les galaxies de notre groupe local et à un moindre degré encore entre les galaxies de notre amas de galaxie, parait presque comme un « plein ». Déjà le vide intergalactique est 100.000 fois plus vide que le vide interstellaire à l’intérieur de notre galaxie.

Les filaments nuageux liant les galaxies, le « milieu intergalactique », sont de plus en plus intéressants aux yeux des astrophysiciens car ils représentent une part importante de la totalité de la matière baryonique (variable en fonction de l’éloignement donc de l’ancienneté). Les particules ténues dont ils sont constitués sont des atomes d’hydrogène neutre -75% -, d’un peu d’hélium -24%- et d’un tout petit peu d’autres éléments (les “métaux”). Ils ont une température froide à la différence des nuages résultant de supernovae ou ceux de la couronne galactique (qui orbitent autour des galaxies), et peuvent être animées d’une grande vitesse (plusieurs centaines de km par seconde). Ils constituent des liaisons entre les formes concentrées de la matière et leurs intersections pourraient être des lieux privilégiés pour les concentrations et donc la formation de galaxies. Quoi qu’il en soit, ils sont une source d’alimentation en matière des galaxies, comme un fleuve qui coule vers l’une ou l’autre, en fonction des vitesses initiales et des forces gravitationnelles. On les observe indirectement par plusieurs types de radiations: la lumière visible provenant de sources puissantes, comme les quasars, qui les traverse et se transforme à leur passage en UV (absorption Lyman-alpha), ou les particules lourdes très énergétiques (UHECP- Ultra High Energy Cosmic Particles) déviées dans leurs trajectoires. Mais on les observe aussi, directement, par leurs émissions radio dans la fameuse raie à 21 cm du spectre électromagnétique.

Les nodosités sont le résultat de la gravité qui tend à faire fusionner les galaxies et en tout cas les regroupe en amas et en superamas aux formes étirées. Avec quelques 100.000 autres galaxies, notre Voie Lactée fait partie du super-amas « Laniakea » (« ciel immense » en langue hawaïenne) dont le super-amas de la Vierge n’est qu’un segment (on s’en est rendu compte en 2014). Leurs formes, prolongées par les filaments nuageux qui les enveloppent et les prolongent, ont un peu l’apparence de structures nerveuses, les nodosités gonflant par endroits les structures fibreuses. Mais ces fibres et ces nodosités ne sont pas stables. Ils sont soumis comme le reste de la matière à l’expansion de l’Univers, à l’accélération de cette expansion et, en sens contrariant, à la gravité qui s’exerce à partir de concentrations multiples de matière qui ne jouent pas toutes dans la même direction. Notre voisine la Galaxie d’Andromède se rapproche de nous à quelques 120 km/s (il lui faudra quand même plusieurs milliards d’années pour qu’elle fusionne avec notre Voie Lactée) mais toutes les deux et notre groupe local sont entraînés vers l’amas de la Vierge (au centre de notre super-amas de la Vierge) à une vitesse comparable.

Cette dernière remarque me donne l’occasion d’insister sur le fait que tout cet Univers qui nous entoure, qui semble figé et immuable, est animé de mouvements sans fin (mais pas du tout désordonnés car selon des lois déchiffrables par l’astrophysique) et qu’il est en transformation constante (« notre » super-amas de la Vierge pourra un jour ne plus faire partie de Laniakea). Nous sommes partie d’une Histoire et emportée par elle à une vitesse énorme mais dans une danse très lente compte tenu des distances, Histoire dont la succession des instants apparemment identiques peut nous faire penser que rien ne change alors que ce n’est absolument pas le cas. C’est une question d’échelle de distances et de temps. A la surface de notre petite planète, aveuglés le jour par la lumière de notre Soleil, nous ne pourrions en avoir conscience que lorsque la nuit nous ouvre sa fenêtre mais notre vie est trop courte pour que nous remarquions quelque changement que ce soit sur la voûte céleste, sauf de temps en temps un météore et plus rarement une supernova, et d’ailleurs, compte tenu de la durée de cette vie éphémère, ces amples mouvements n’ont pratiquement aucune incidence sensible sur nous. Ce qui est le plus prodigieux c’est que grâce à nos astronomes et nos astrophysiciens nous puissions en avoir aujourd’hui conscience !

Laniakea: Crédit images: R.Brent Tully (U. Hawaï) et al., SDivision DP, CEA/Saclay

Illustration de titre :

Simulation numérique de la structure à grande échelle calculée et représentée par l’équipe du projet IllustrisTNG. L’image montre une tranche de l’Univers d’environ 1,2 milliards d’années-lumière, l’intensité de chaque région représente sa densité de matière et la couleur la température moyenne du gaz qui la baigne. Crédit : TNG Coopération.

Image ci-dessous : résultat (« final data release » du 30 juin 2003) de la 2dFGRS. Comme on peut le constater la simulation ressemble énormément à la réalité. Crédit 2dFGRS.

Liens :

https://www.tng-project.org/

http://magnum.anu.edu.au/~TDFgg/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 12

Mars, de la glace d’eau facilement accessible dans une région vivable

On sait depuis longtemps qu’il y a de la glace d’eau sur Mars. Ce que l’on apprend avec une nouvelle étude, dirigée par Sylvain Piqueux (CalTech) et publiée dans les « Geophysical Research Letters » en décembre 2019, c’est qu’il existe une vaste région de l’hémisphère Nord au climat acceptable, où cette eau est abondante et serait très facilement accessible.

L’eau sur Mars n’existe pratiquement pas à l’état liquide en raison de la pression atmosphérique très basse, 6 millibars en moyenne, sur la journée et l’année, à l’altitude moyenne (« Datum ») qui correspond par ailleurs à la ligne de la dichotomie crustale qui sépare de façon très contrastée les hautes terres du Sud (jusqu’à 3 ou 4 km au-dessus du Datum), des basses  terres du Nord (4 à 5 km en dessous du Datum en moyenne). Cette pression est aussi celle du point triple de l’eau (611 Pa) c’est-à-dire le point du diagramme de phase de l’eau pure où peuvent coexister ses phases liquides, solides et gazeuses. A cette pression la glace d’eau pure a tendance à se sublimer c’est-à-dire à passer directement de la phase solide à la phase gazeuse lorsque la température monte au-dessus de 0°C. Ceci dit la pression en dessous de cette altitude moyenne monte au-dessus de 6 millibars et dans ces conditions, compte tenu des très fortes dénivellations à la surface de Mars, on peut trouver un peu d’eau liquide dans les basses terres du Nord ou dans le Bassin d’Hellas au Sud (région la plus basse de Mars à – 8 km du Datum en moyenne, pression de 11 millibars maximum) mais les possibilités sont très limitées. Au mieux, dans ces régions privilégiées, elle bout à quelques tout petits degrés au-dessus de 0°C (2° ou 3°C ?) et elle gèle un peu en dessous de 0°C (-10 à -15°C ?) grâce à une très forte salinité (perchlorates). Le résultat de la sublimation quasi générale de l’eau de surface qui tendrait à évoluer en phase liquide à un moment ou un autre de la journée et /ou de l’année, est que Mars est partout aride, les endroits les plus humides étant comparables aux endroits les plus secs du Désert d’Atacama.

Cependant on a pu observer la présence de glace d’eau un peu partout en surface de Mars. D’abord, même depuis la Terre, les deux calottes polaires (glace d’eau au Pôle Nord et au Pôle Sud, glace d’eau et glace carbonique en surface) offrent leurs surfaces réfléchissantes à tout observateur disposant d’un télescope de puissance moyenne. Dans les latitudes élevées, la sonde PHOENIX nous a aussi montré que là où elle s’était posée (68° Nord) la glace était immédiatement accessible (elle a été découverte sous quelques cm de régolithe sous la sonde, dégagée par la force de la rétropropulsion lors de l’atterrissage et la pelle de l’engin l’a mise à jour un peu plus loin, sans effort). Ensuite, avec les radars embarqués sur plusieurs orbiteurs (notamment MARSIS de Mars Express, de l’ESA, puis SHARAD – Shalow Radar – à bord de MRO – Mars Reconnaissance Orbiter, de la NASA, qui fonctionne à plus hautes fréquences) on a découvert plusieurs banquises enterrées, même en zone intertropicale (Medusa Fossae), et, en latitudes moyennes de l’hémisphère Nord, entre 40 et 50°, dans l’Ouest d’Utopia Planitia (près d’Isidis Planitia), une vaste région (quelques 375.000 km2) de buttes (« mesas ») à forte teneur en eau. En janvier 2018, une étude a mis en évidence l’existence de véritables falaises de glace a des latitudes assez élevées (55°) dans l’hémisphère Sud. Par ailleurs, de petits cratères d’impact créés aux altitudes moyennes dans les basses terres du Nord montrent, à l’occasion, de petites surfaces blanches qui disparaissent dans un temps relativement court ; il s’agit incontestablement de glace d’eau proche de la surface et qui se sublime une fois découverte, plus ou moins vite en fonction de l’importance du volume. Enfin l’analyse radar de SHARAD a révélé une diélectricité très faible se renforçant en profondeur, dans toute la région des basses terres du Nord (zone de basse altitude occupant environ 40% de l’hémisphère Nord et réceptacle probable d’un ancien Océan), ce qui indique la présence d’eau actuelle ou ancienne (porosité du sol après sublimation).

Il y a donc beaucoup de glace d’eau sur Mars mais ce qui intéresse ceux qui y préparent l’installation de l’homme (en particulier certaines équipes de la NASA), ce sont les latitudes basses et moyennes de l’hémisphère Nord car ce n’est qu’à ces latitudes que l’on peut envisager d’utiliser le rayonnement solaire pour obtenir de l’énergie (ne serait-ce que complémentaire à l’énergie nucléaire) et éviter des hivers trop rudes et longs (sur une année de 630 jours, ils le sont aux latitudes élevées, surtout dans l’hémisphère Sud compte tenu de l’excentricité de l’orbite de la planète !). C’est dans l’hémisphère Nord également que l’on trouve les conditions les plus favorables pour l’atterrissage (vastes plaines lisses et plates d’altitudes basses à proximité de l’équateur et en latitude moyenne, qui impliquent plus de temps disponible pour le freinage, moins de risques de déstabilisation lors du contact au sol, moins de consommation d’énergie car moindre déviation de la trajectoire « naturelle » du vaisseau, qui se place au-dessus de l’équateur par attraction « naturelle » de la planète).

L’étude de Sylvain Piqueux porte précisément sur ce type de « gisements » des latitudes moyennes de l’hémisphère Nord, qui sont cachés ou qui n’apparaissent qu’en cas d’impacts. Le chercheur a eu l’idée d’utiliser les données de température du sol, collectées par deux instruments embarqués à bord de l’orbiteur 2001 Mars Odyssey, le radiomètre infrarouge MCS (Mars Climate Sounder) et l’imageur THEMIS (Thermal Emission Imaging System) fonctionnant dans le visible et également dans l’infrarouge. Les données ont été accumulées sur une très longue période (plus de 13 ans) et donnent une bonne définition (précision de 3 ppd pour MCS et de 100 mètres par pixel pour THEMIS). La glace d’eau ayant une inertie thermique notablement haute comparée à celle du régolithe martien, l’intérêt est que ces données de température du sol indiquent clairement sa présence. Comme écrit dans l’étude, « la glace présente dans le sol influe de façon mesurable sur les tendances saisonnières de la température de surface et la profondeur de la couche d’eau s’exprime dans l’ampleur de l’effet ». En été la glace d’eau absorbe l’énergie du soleil et les températures du sol qui en contient sont donc plus basses que celles du sol qui n’en contient pas. En automne/hiver c’est le contraire, la chaleur est restituée et le sol qui contient de la glace d’eau est moins froid que celui qui n’en contient pas. La réactivité ou plutôt la différence de réactivité du sol est d’autant plus nette que la glace est proche du sol et qu’elle est abondante. Bien entendu le système ne peut fonctionner qu’à une latitude suffisante pour que les différences de température entre les saisons puissent être sensibles (au moins 35°).

Selon ce principe le chercheur a pu dresser avec les données recueillies à deux saisons opposées sur la durée des treize années, une carte de l’hémisphère Nord montrant les zones où ce phénomène se manifestait le mieux. Il en est ressorti une région particulièrement « riche » qui descend jusqu’à 35° de latitude Nord dans le Sud d’Arcadia Planitia, entre les volcans Alba Patera et Elysium Mons. La glace d’eau y est abondante très près de la surface (à partir de seulement 3 cm). Comme le dit l’auteur (et comme la NASA l’a remarqué) cette région est particulièrement intéressante car dans ces conditions la glace pourrait être facilement extraite pour tous les besoins d’une implantation humaine et cela se combine avec un sol lisse et plat à basse altitude permettant un atterrissage moins difficile qu’ailleurs. Notez bien que cela ne veut pas dire que l’on ne pourrait pas extraire de la glace d’eau ailleurs à la surface de Mars. Cela veut simplement dire que dans cette région, cela serait particulièrement facile.

Les esprits chagrins doivent s’inquiéter car je n’ai pas encore évoqué la protection planétaire ! Je le fais maintenant pour dire que j’espère que l’objection que les tenants de cette protection pourraient formuler ne sera pas retenue et que je pense qu’elle ne le sera pas. Je considère que la réglementation qui veut tenir l’homme éloigné de l’eau martienne est en contradiction totale avec nos intérêts qui sont d’une part de rechercher sur une autre planète une évolution vers la vie (et on ne trouvera d’éventuelles traces ou manifestations pré-biotiques récentes donc plus facilement observables, que dans les régions les plus humides) et d’autre part de pouvoir subvenir à nos besoins vitaux en eau sans avoir à l’importer de la Terre. Cette réglementation ne résistera pas aux nécessités qui s’imposeront dès que nos vaisseaux spatiaux seront en mesure d’atterrir sur Mars.

Illustration de titre :

Arcadia Planitia, entre les volcans Elysium Mons à gauche et Alba Patera à droite (au Nord de Tharsis). La ligne de latitude 35°N passe au Nord du premier et au Sud du second. Notez, un peu plus au Sud, Olympus Mons et le bloc de Tharsis avec ses trois volcans alignés. L’endroit serait un excellent site d’atterrissage en raison de cet environnement volcanique et aussi des tunnels, parfois effondrés, résultant d’anciens cheminements d’eau souterrains plus au Sud. Crédit : Google Mars.

Image ci-dessous:

Exemple d’épaisseur relative de couche de glace d’eau à gauche et d’inertie thermique du régolithe de surface (TI*, à droite). Carte établie à partir de données recueillies par THEMIS, à l’Ouest d’Arcadia Planitia où plusieurs cratères exposant de la glace occasionnelle on été observés. « deep » signifie environ 1 mètre (mais pas plus); « shallow », quelques dizaines de cm. Crédit: Sylvain Piqueux, THEMIS, MCT et Geophysical Research Letter.

Références :

“Widespread shallow water ice on Mars at high latitudes and mid latitudes” par Sylvain Piqueux et al. in Geophysical Research Letters, doi.org/2019GL083947.

Liens: https://agupubs.onlinelibrary.wiley.com/doi/pdf/10.1029/2019GL083947

Autres liens :

https://www.space.com/mars-water-ice-map.html?utm_source=notification

https://www.space.com/42786-where-is-water-on-mars.html

https://www.nasa.gov/feature/jpl/nasas-treasure-map-for-water-ice-on-mars

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 09

2020, une année de départ vers Mars pour une volée de nouveaux robots d’exploration

Comme tous les 26 mois, cycle imposé par la mécanique céleste, les Terriens vont envoyer vers Mars une nouvelle « volée » de robots explorateurs. Ils partiront entre le 17 juillet et le 5 août et arriveront quelques 9 mois plus tard dans le voisinage de Mars. Cette fois ci les missions sont originaires des Etats-Unis, des pays membres de l’ESA avec un lanceur russe, de la Chine et des Emirats Arabes Unis avec un lanceur japonais.

Toutes n’ont pas les mêmes chances de succès, c’est-à-dire de mise en orbite autour de Mars et surtout d’atterrissage à sa surface. En réalité seuls les Etats-Unis ont démontré leur capacité aussi bien à la mise en orbite qu’à la descente en surface, c’est-à-dire à effectuer avec succès la difficile succession de manœuvres de l’« EDL » (« Entry, Descent, Landing ») et il a quand même fallu un peu de temps pour effectuer cette démonstration. C’est pour cela que les statistiques sur expériences passées qui prétendent prouver les faibles chances d’atterrir avec succès sur Mars sans se référer à l’identité du lanceur ni à la période de lancement, n’ont aucun sens, et elles en ont d’autant moins si on prend en compte toute la série des tentatives. Tous pays du monde confondus, il y a eu 54 lancements pour Mars depuis 1960 dont 11 pour « flyby » et « assistance gravitationnelle » (survols simples et survols pour aller plus loin que Mars), 25 pour mise en orbite et 18 pour atterrissage. Les Américains ont effectué 23 lancements, ils ont échoué 5 fois mais la dernière fois c’était il y a très longtemps, en 1999, avec Mars Polar Lander, et sur les 5, ils n’ont échoué qu’une seule fois à se poser (le même Mars Polar Lander). Il n’y a eu aucun autre échec depuis cette date (10 lancements réussis en série). Les Russes par contre ont effectué 22 lancements, ils ont échoué 19 fois et n’ont réussi que 3 opérations dont un flyby, une seule mise en orbite (pour la mission MarsExpress de l’ESA, en utilisant leur lanceur Soyouz) et aucun atterrissage. Les Européens n’ont réussi, seuls (avec leur lanceur Ariane 5G+), qu’une opération, la mise en orbite de la première partie de la mission ExoMars (Trace Gas Orbiter) en 2016 tandis que la partie atterrissage (Schiaparelli) a échoué. L’autre opération, Mars Express, a (comme dit plus haut) été réalisée avec un lanceur russe. Le Japon a tenté et échoué une fois, l’Inde a tenté et réussi un fois (mise en orbite de Mangalyaan). Enfin on ne peut compter dans les mêmes statistiques les tentatives des années 1960 et celles d’aujourd’hui. Les technologies ont évolué et les Américains ont appris très vite à faire ce qu’ils ne savaient pas faire, pour la bonne raison qu’ils n’avaient pas essayé !

Toutes les missions 2020 n’ont pas le même potentiel scientifique.

Les Emirats Arabes Unis, avec la « Hope Mars Mission », envoie un « démonstrateur technologique », c’est-à-dire qu’ils veulent montrer qu’ils sont capables de participer à une mission pour aller jusqu’à l’orbite de Mars et y déployer des instruments scientifiques. Il s’agit « simplement » d’envoyer, de placer et d’utiliser un orbiteur (satellite) ; pas question de tenter de descendre au sol pour une première mission. Officiellement Hope (ou « al-Amal ») va étudier l’atmosphère et le climat au sol avec deux spectromètres, l’un opérant dans l’infrarouge pour mesurer la variabilité de la thermosphère et les pertes d’hydrogène et d’oxygène, l’autre dans l’ultraviolet pour étudier, dans l’atmosphère moyenne et basse, les températures, la vapeur d’eau et les variations de teneur en poussière. Le lanceur, japonais, H-IIA de Mitsubishi est un lanceur fiable qui a propulsé de nombreuses missions dont quelques-unes dans l’espace profond. L’opération, mineure sur le plan scientifique, a donc de bonnes chances de succès.

La Chine veut lancer un orbiteur et un atterrisseur « Mars Global Remote Sensing Orbiter and Small Rover », mission plutôt connue comme « Huoxing-1 » ou « HX-1 ». C’est aussi une première puisque jusqu’à présent ce pays n’a lancé que vers la Lune. Au-delà de la démonstration ingénieuriale et politique, l’objet sera la recherche de traces passées ou présentes de vie et l’« évaluation de la surface et de l’environnement de la planète », expression plutôt vague qui annonce un travail de cartographie géologique. La mission devrait aussi préparer un retour d’échantillons sur Terre. Bien sûr le vecteur sera chinois, une fusée « Long March 5 » ou « Changzheng 5 » ou « CZ-5 » ; lanceur lourd dont le « track-record » est extrêmement faible ; seulement une seule opération menée à bien sur trois tentées, le placement d’un satellite sur une orbite géostationnaire. On peut donc craindre un échec.

Les deux missions les plus sérieuses sont les missions européennes et américaines. La mission européenne ExoMars qui doit déposer au sol le rover Rosalind Franklin est évidemment la moins certaine puisqu’elle suppose le succès d’une technique d’atterrissage jamais maîtrisée par l’ESA et c’est d’autant plus inquiétant que ce n’est pas faute d’avoir essayé : le test qui devait être mené avec l’atterrisseur Schiaparelli en 2016 (avec la première partie de la mission ExoMars) a échoué.

Les équipements du rover qui doit être déposé sur Mars sont ambitieux et j’aimerais vraiment qu’ils puissent fonctionner car la mission est passionnante et très bien préparée sur le plan scientifique. Il s’agit aussi de rechercher la vie, passée ou présente. A noter à ce propos que la britannique Rosalind Franklin, docteure en physico-chimie décédée en 1958, a participé « de manière déterminante » à la découverte de la structure de l’ADN (ce qui n’a pas empêché ses collègues masculins de l’« oublier » lorsqu’en 1962 ils ont reçu le prix Nobel pour cette découverte !). Le rover disposera d’un foret et de neuf instruments d’analyse. Le foret doit pouvoir atteindre une profondeur de 2 mètres. A ce niveau, les radiations spatiales sont fortement atténuées et il peut y avoir plus d’humidité (provenant de glace d’eau chargée en sels et non sublimée du fait de la protection du sol) donc évidemment de la vie (si elle existe !) ou des traces d’évolution vers la vie (« prébiotiques ») ce qui à mon avis est plus vraisemblable. Les échantillons prélevés par le foret seront examinés à l’intérieur du rover par divers dispositifs embarqués. Toutes les opérations du rover seront photographiées avec des caméras d’une précision inégalées pour donner le contexte et permettre de voir les échantillons prélevés avant de les traiter à l’intérieur du rover. Les instruments sont très cohérents et complets pour leur objectif : PanCam (Panoramic Camera), deux caméras grand angle (les yeux du rover) et une caméra à haute résolution, avec téléobjectif, pour l’appréhension et la cartographie digitale du terrain (les trois sont situées dans la « tête », au bout du mât du rover) ; ISEM (Infrared Spectrometer for ExoMars) pour évaluer à distance la composition minéralogique des cibles identifiées via PanCam (situé également dans la tête du rover) ; WISDOM (Water Ice and Subsurface Deposit Observation on Mars), un radar pour caractériser la stratigraphie dans l’environnement immédiat du rover ; WISDOM sera utilisé avec ADRON-RM, un détecteur de neutrons, pour donner des informations sur le contenu en eau (hydrogène) du sous-sol et orientera donc le choix des forages pour collecte d’échantillons ; Ma_MISS (Mars Multispectral Imager for Subsurface Studies), un spectromètre situé à l’intérieur du foret et qui va étudier la minéralogie environnante en éclairant la paroi du forage au fur et à mesure de la descente (c’est lui qui va faire la première étude des échantillons potentiels, avant prélèvement et transmission au laboratoire embarqué) ; CLUPI (Close Up Imager)*, une caméra pour acquérir des images en couleurs, à haute résolution, des cibles approchées, des rejets de forage et des échantillons prélevés (comme la caméra CASSiS de l’orbiteur TGO, « CLUPI » pourra utiliser plusieurs angles d’inclinaisons successifs, restituant au mieux les volumes et permettant de mieux interpréter ce qu’on voit) ; MicrOmega, un spectromètre imageur infrarouge (résolution de 20 x 20 µm par pixel) qui va étudier la minéralogie des échantillons prélevés ; RSL, un spectromètre laser Raman qui doit étudier les roches à distance ; il va en dire la composition minéralogique et identifier les composants organiques ; MOMA (Mars Organic Molecule Analyser), un chromatographe en phase gazeuse (il y en a un aussi dans le laboratoire embarqué SAM de Curiosity) ; il examinera les éventuels biomarqueurs qu’il pourrait trouver, pour répondre aux questions relatives à l’origine, l’évolution et la distribution de la vie sur Mars.

* petit salut « en passant » à mon ami Jean-Luc Josset et son équipe du Space Exploration Institute – Space-X – de Neuchâtel, qui l’ont conçue ainsi que la caméra grand angle de PanCam. Jean-Luc Josset est PI de CLUPI et co-PI de PanCam.

Le rover Mars 2020 de la NASA est, à mon avis, relativement moins intéressant. Il est la suite de Curiosity et a pour objet de rechercher aussi les traces de vie passée (Curiosity cherchait à savoir si Mars avait été habitable, ce qui n’est pas la même chose), de préparer un futur retour d’échantillons et de préparer la venue de l’homme sur Mars. Il comprend 7 instruments qui sont pour plusieurs d’entre eux des améliorations de ceux qui équipent aujourd’hui Curiosity. Le Mastcam-Z est une caméra panoramique et stéréoscopique avec une forte capacité de zoom. Ce sera les yeux du rover et elle aura un rôle à jouer dans l’identification minéralogique. MEDA (Mars Environmental Dynamics Analyzer) est un ensemble de capteurs qui donneront toutes indications sur le temps qu’il fait (y compris le contenu en poussière de l’atmosphère et la taille des particules). MOXIE (Mars Oxygen ISRU Experiment) est un instrument qui doit tester la possibilité de produire de l’Oxygène à partir de du dioxyde de carbone de l’atmosphère martienne (une des recommandations faites par Robert Zubrin dans les années 1990). PIXL (Planetary Instrument for X-Ray Lithochemistry) est un spectromètre à fluorescence de rayons X avec un imageur à haute résolution pour déterminer la composition des roches de surface. Le but est de permettre une analyse chimique plus fine que précédemment. RIMFAX (Radar Imager for Mars’ Subsurface Experiment) est un radar qui doit permettre de déterminer la structure géologique du sol à l’échelle du centimètre (jusqu’à une profondeur d’une dizaine de mètres). SHERLOC (Scanning Habitable Environments with Raman & Luminescence of Organics & Chemicals) est un spectromètre qui doit déterminer la minéralogie à petite échelle et détecter les composés organiques. SuperCam est une sorte de ChemCam (embarquée sur Curiosity) améliorée. L’instrument pourra détecter à distance la présence de composés organiques dans le régolithe ou les roches.

En plus de ces instruments, le rover disposera, comme son prédécesseur, d’un bras robotique avec un foret capable de prélever des échantillons qui seront soit analysés sur place, soit préservés dans une « cache » en attendant une mission de retour d’échantillons fin des années 20 ou début des années 30 (c’est loin et c’est vraiment frustrant !). Les prélèvements resteront très superficiels (le foret prévu n’est pas celui de Rosalind Franklin !). Enfin la mission débarquera un petit hélicoptère pour tester la possibilité d’utiliser ce type de véhicule dans les explorations futures. C’est intéressant car il est vrai que l’exploration martienne souffre de devoir se faire avec un rover qui roule sur un sol par définition non préparé à la circulation des véhicules à roues. On a vu que Spirit est mort d’avoir pénétré dans des sables mouvants et que les roues de Curiosity ont très vite été très abimées et qu’il ne peut aller « partout ». Il est impossible d’aller observer/analyser un site intéressant même à quelques mètres s’il est inaccessible au rover et hors de portée de sa ChemCam. Ceci dit ce premier hélicoptère n’aura qu’une autonomie très limitée et n’embarquera qu’une caméra. Espérons qu’il vole!

Ces missions vont s’ajouter à celles qui sont encore en cours. D’abord les orbiteur de l’ESA, ExoMars-TGO, « en pleine forme » (fin de mission prévue en 2022), et Mars Express qui continuera ses observations jusqu’à fin 2020 ; puis les orbiteurs de la NASA, MRO, le Mars-Reconnaissance-Orbiter avec sa camera HiRISE qui nous donne toujours des photos d’une précision extraordinaire (résolution jusqu’à 0,3 mètre par pixel) et qui a été prolongé, le vieux 2001-Mars-Odyssey qui a suffisamment d’énergie pour fonctionner jusqu’en 2025 et MAVEN qui a terminé sa mission mais communique encore, sans oublier en orbite le démonstrateur Mangalyiaan de l’Inde, et au sol le rover Curiosity au sol ainsi que la sonde InSight qui continue à faire de la sismographie. MRO, Mars Odyssey, MAVEN et MarsExpress serviront de relais aux nouveaux rovers pour les télécommunications vers la Terre.

L’exploration de Mars continue donc. Le thème de la vie est vraiment ce qui caractérise la génération des missions 2020. Nous pouvons espérer de nouvelles informations passionnantes et de toute façon une meilleure connaissance de cette planète, la plus semblable à la Terre et la seule sur laquelle on puisse envisager d’aller physiquement avec les technologies d’aujourd’hui et où j’espère on finira par aller un jour pas trop éloigné. La lente progression qu’a entrepris la NASA vers cet objectif (années 2040 ?) pourrait être, heureusement, accélérée par Elon Musk qui veut mener une première expédition habitée en 2024 (mais si cette date était reculée à 2026, ce ne serait pas trop grave). Espérons qu’il pourra finaliser son lanceur SuperHeavy et son vaisseau Starship et que les tenants de la protection planétaire ne lui mettront pas des bâtons dans les roues en empêchant son décollage ou plutôt son atterrissage sur Mars ! En attendant je vous souhaite, chers lecteurs, un bon début d’année.

Illustration : lancement par un Atlas 5-541 (développé par ULA pour l’armée de l’air américaine depuis 1997) le 26 novembre 2011 de la mission MSL (Curiosity). Crédit ULA (United Launch Alliance = Boeing et Lockheed Martin). Le lancement de Mars-2020 utilisera aussi un Atlas 5-541.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 12 21