Le télescope NuSTAR a ouvert nos yeux sur les rayonnements X durs de l’Univers

Le télescope NuSTAR (NUclear Spectroscopic Telescope Array) de la NASA observe le ciel dans la gamme des rayons X depuis 2012. Au-delà de Chandra (NASA) et de XMM-Newton (ESA) lancés en 1999 et qui ont observé les émissions de rayons-X « mous », il nous a ouvert le domaine des rayons X « durs », et comble le « gap » entre les capacités de ces télescopes et celles du télescope Fermi qui collecte les rayons gamma. Cette prouesse est due à la réalisation d’un instrument remarquable, utilisant des technologies à l’extrême limite de l’optique. Il complète ainsi notre capacité d’appréhension de l’Univers à hautes énergies, indispensable à notre connaissance et à notre réflexion pour tenter de le comprendre. Sa mission étendue se termine comme celle de Fermi, en 2018 mais il n’est pas exclu que la NASA décide de la poursuivre encore plus longtemps.

Les rayons X, découverts par Röntgen en 1895, se situent dans le spectre des rayonnements électromagnétiques, entre les rayons ultraviolets et les rayons gamma. Ils sont constitués de photons dont la longueur d’onde va d’un peu plus de 0,001 nanomètres (1 picomètre) à environ 10 nanomètres; leur longueur d’onde va de 30 petahertz (1015Hz) à 30 exaherts (1018Hz) et leur énergie, d’une centaine d’eV à environ 100 keV. Ils sont dits « mous » jusqu’à 10 keV et « durs » au-delà. Pour comparaison les rayons gamma ont des longueurs d’onde inférieures au picomètre et leur énergie va de quelques keV à plusieurs centaines de GeV. Les émissions de rayons X peuvent provenir des amas de galaxie, des trous noirs, des rémanences de supernovæ, des étoiles (même celles de type solaire), des étoiles binaires avec naine blanche, des étoiles à neutrons… Certains corps passifs peuvent même émettre ou plutôt ré-émettre des rayons X par réflexion (la Lune). Bien entendu plus le phénomène est énergétique plus le rayonnement X est « dur » (courte longueur d’onde et haute énergie)*.

L’idée de détecter les sources émettrices dans l’espace de ces rayons X est venue très tôt, dès le début de l’ère spatiale (1962, fusée sonde Scorpius) et s’est beaucoup développée (plusieurs dizaines de télescopes à capacité X depuis lors). Cela s’explique par (1) l’intérêt de connaître ces sources puisqu’elles sont des facteurs majeurs de structuration de la matière et (2) la capacité de ces rayonnements à être perçus séparément de la lumière visible et donc à ne pas y paraitre « noyés »…le problème étant que l’atmosphère terrestre fait écran à ces rayonnements et qu’il faut donc en sortir pour les observer.

Mais les longueurs d’onde à capter sont très courtes, plus courtes que la distance moyenne entre les atomes d’un bloc de verre, et on ne peut donc utiliser les miroirs classiques perpendiculairement à la source car les rayons les traverseraient. La solution imaginée (pour les microscopes !) par le physicien Allemand Hans Wolter en 1952, est de recueillir ces rayons en lumière rasante, par deux miroirs (parabolique et hyperbolique) peu absorbants, dirigeant progressivement le rayon vers un foyer du fait de leur très légère courbure. Le résultat est un instrument dit « télescope Wolter » (types 1,2 ou 3) en forme de « tonneau » dont les miroirs sont tournés vers l’intérieur et exposés aux rayonnements avec une pente très forte. Chandra et XMM-Newton utilisaient déjà un tel télescope mais les ingénieurs concepteurs de NuSTAR (le P.I. en est Fiona Harrison de CalTech), l’ont beaucoup perfectionné puisque NuSTAR étend notre visibilité à quasiment l’ensemble des rayonnements X durs. Pour obtenir ce résultat, le télescope présente des particularités / innovations, à trois niveaux : les miroirs, la surface focale et le « mât » :

Les rayons sont réfléchis successivement par deux séries, en suite, de miroirs quasi cylindriques (« coques »). Les cylindres sont plus précisément des cônes tronqués, de telle sorte que le rayonnement puisse être dévié vers la surface focale. Compte tenu de son inclinaison chaque miroir n’offre qu’une toute petite surface de collecte. Pour l’augmenter et pouvoir la répartir à la surface du récepteur focal, les miroirs cylindriques sont multipliés (138 miroirs au total dans NuSTAR) et emboités les uns dans les autres (ils restent accessibles aux rayons puisque la lumière doit être « rasante » à leur surface). Leur verre très spécial (titane + verre + résine époxy + graphite) n’est pas recouvert de métaux à forte densité (et donc réfléchissant) comme ceux de Chandra ou de XMM (Platine, Iridium et Or) mais d’un revêtement multicouches (jusqu’à 200 !) qui alterne des matériaux à forte densité (Tungstène, Platine) avec d’autres à faible densité (Silice, Carbone, Carbure de silicium), c’est l’application du « principe du miroir de Bragg », selon lequel l’alternance des indices de réfraction dope la réflectivité. C’est ce « cocktail » qui évite l’absorption des rayons durs (au-delà de 10 keV) et permet d’aller jusqu’à 78,4 keV, niveau où le Platine absorbe plutôt qu’il ne réfléchit les rayons. Mais quasiment 79 keV c’est déjà beaucoup et cela permet de chevaucher la gamme d’énergies des rayonnements captés par Fermi. L’entrée des miroirs est protégée dans la ligne de visée, par deux couches minces de polyimide pour les isoler thermiquement. NuSTAR est équipé de deux miroirs tonneaux ainsi composés, positionnés côte à côte, les deux renvoyant vers le même plan focal pour plus de précision, avec l’angle maximum permis par leur réflectivité et leur courbure. Cela donne une distance focale minimum de 10,15 mètres. C’est beaucoup pour un satellite qu’il fallait transporter dans une capsule à volume réduit. Pour résoudre le problème, les ingénieurs ont imaginé un « mât » télescopique qui relie les deux miroirs tonneaux au plan focal et ils l’ont déployé avec succès une fois NuSTAR en orbite.

Le plan focal présente une autre innovation, capitale. Compte tenu de l’énergie du rayonnement, on utilisait jusqu’à présent (et en particulier pour Chandra et XMM) un dispositif complexe de protection qu’on appelle un « masque codé », c’est-à-dire un masque opaque aux rayons-X mais percé de trous et on utilisait l’ombre portée (passant par les trous) apparaissant lors des impacts pour lire leurs traces. L’image était indirecte et le traitement difficile. L’innovation de NuSTAR est d’utiliser une batterie de détecteurs composés de quatre semi-conducteurs (de type cadmium-zinc-tellures) qui « acceptent » les hautes énergies et permettent le traçage en direct des rayons, avec beaucoup de précision. Ils mesurent le moment de l’arrivée, l’énergie et la direction de chaque rayon-X incident. Il y a une batterie de détecteurs à chaque foyer de chacun des deux « tonneaux » de miroirs. L’ensemble est protégé par une coque en cristaux de iodure de césium (fabriqué par Saint-Gobain) qui écarte tout rayonnement ne provenant pas de la ligne de visée.

Le satellite lui-même n’a rien d’extraordinaire. Il orbite la Terre à une altitude relativement basse (LEO), stabilisé sur trois axes et s’oriente sur la voûte céleste grâce à une caméra de visée (80% du ciel est accessible à tout moment). Une de ses originalités est qu’il ne dispose que d’un seul volet de panneaux solaires, orientable. Sa masse n’est que de 360 Kg. Il est vrai que pour la NASA ce n’était qu’une « SMEX » (Small Explorer Mission = petit prix et pas de difficulté astronautique). Comme d’habitude le projet (sélectionné en 2003) a connu plusieurs vicissitudes avant le lancement (2012). A noter que la quasi-totalité des participants sont des entreprises américaines (exception faite de la société française ci-dessus et d’une société danoise pour la caméra d’orientation).

L’objectif de NuSTAR était d’observer l’activité des AGN (noyaux actifs de galaxies) précédemment cachés par leur environnement, pour mieux examiner la source des jets relativistes de particules à partir des trous noirs supermassifs ; étudier la population des objets compacts de notre galaxie émetteurs de rayons-X (par exemple naines blanches, étoiles à neutrons ou trous noirs) et bien sûr notre trou noir central, en cartographiant la région centrale « SgrA » (Sagittarius A) ; d’étudier les radiations dans les rémanences de supernovæ récentes (continuum de radiations X dures), en même temps que les éléments lourds récemment synthétisés et expulsés, pour mieux comprendre le processus de la nucléosynthèse.

Les résultats ont été à hauteur des attentes, de nombreux pulsars ou blazars identifiés et examinés en détails, des supernovæ comme Cassiopée-A mieux comprises, l’environnement de notre trou noir, SgrA, pénétré, des rémanences de “sursauts gamma” (prodigieux flashs célestes émettant un cocktail de particules à haute énergie) analysés. Comme avec Fermi, maintenant que nous pouvons disposer dans l’espace de « toute la gamme » d’observations, il est particulièrement intéressant de rapprocher celles d’un télescope opérant dans une certaine gamme de longueurs d’ondes (par exemple le visible) avec celles d’autres télescopes opérant dans d’autres longueurs d’ondes (par exemples les plus courtes, comme NuSTAR ou Fermi).

En considérant ce télescope après les autres on ne peut qu’être confortés dans le sentiment que nous vivons une véritable révolution dans le domaine de l’astronomie. Nos chercheurs ont aujourd’hui accès à des instruments dont la génération active à la fin du 20ème siècle ne pouvait que rêver. Il faut en être conscients, s’en réjouir et s’en émerveiller. C’est le résultat du progrès technologique accéléré de ces dernières décennies, dans de nombreux domaines et…cela permet de continuer à rêver à d’autres découvertes.

NB: l’article a été soumis pour relecture à la NASA (par l’intermédiaire de Felicia Chou, contact media pour ce télescope).

Image à la Une : vue d’artiste du satellite télescope NuSTAR en orbite (crédit NASA/JPL).

Image ci-dessous (1) : schéma du dispositif optique de NuSTAR (crédit CalTech).

Image ci-dessous (2) : un des deux miroirs tonneaux en cours de montage. Vous voyez la tranche du collecteur (en noir sur l’image) par lequel est attendu le passage des rayons X (crédit Laboratoire Nevis de Columbia University). L’intérieur du “tonneau” est un empilement de miroirs (comme ceux que l’on voit à l’extérieur) séparés par un très petit interstice…quand même suffisant!

Image ci-dessous (3) : détecteur, photo de l’un des deux modules du plan focal (crédit CalTech).

Image ci-dessous (4) : étendue du rayonnement X couvert (défini par la courbe rouge). Vous noterez la différence avec les autres télescopes (crédit NASA, Goddard Space Flight Center).

Image ci-dessous (5) : reste de l’étoile Cassiopée A après supernova. Les rayons X durs, radioactifs (NuStarr) sont en bleus, les rayons X mous non radioctifs (Chandra) en rouge, jaune et brun (crédit NASA/JPL-Caltech/CXC/SAO.

Lien : https://www.nustar.caltech.edu/news

Lecture: https://heasarc.gsfc.nasa.gov/docs/nustar/nustar_obsguide.pdf

Rappel:

“EMC18”, la 18ème “European Mars Conference”, aura lieu au Musée International d’Horlogerie de la Chaux-de-Fonds, du 26 au 28 octobre. Pour mettre à jour vos connaissances sur Mars, le Voyage, les projets d’établissement de l’Homme sur cette planète*, renseignez vous – inscrivez vous: https://planete-mars-suisse.space/fr/emc18

*exposés en Anglais

Le télescope Fermi fête ses dix ans, il a transformé notre perception de l’Univers

Le télescope spatial Fermi a été lancé en juin 2008 par la NASA pour une mission initiale de 5 ans afin de collecter les rayons gamma traversant notre environnement et d’identifier leurs sources. En Août 2013 il est entré dans une mission étendue de 5 ans qui maintenant touche à sa fin. Il a à son actif une moisson éblouissante d’observations inédites.

Situés à une des extrémités du spectre électromagnétique, les rayons gamma cosmiques, rayonnement à très hautes fréquences de photons à très courtes longueurs d’onde, ont une très haute énergie et sont produits par les situations ou les événements les plus violents de l’univers*. Ils sont cependant presque complètement arrêtés par l’atmosphère terrestre et on a donc cherché à observer leurs sources en utilisant des télescopes spatiaux, le dernier en date étant Fermi (d’après le nom du physicien italien Enrico Fermi, pour rendre hommage à son hypothèse sur l’accélération des particules cosmiques).

*Fréquences montant à plus de 30 exahertz, longueurs d’onde inférieures à 1 picomètre, énergie montant à plus de 500 GeV. Ils proviennent de sources relativement stables, pulsars, AGN (Noyaux Actif de Galaxies) se manifestant sous forme de blazars (jets relativistes produits par des trous noirs supermassifs) ou d’émissions soudaines et de courte durée, produites par des événements, « GRB » (« Gamma-Ray Bursts » ou sursauts gamma), notamment du fait de l’effondrement gravitationnelle d’étoiles géantes (hypernovæ) pour les GRBs longs et fusions d’étoiles à neutrons pour les GRBs courts. A noter que les photons gamma sont rares (3 photons par seconde détectés par Fermi alors que les rayons cosmiques – « GCR » – sont 100 fois plus nombreux).

Comme tous ces merveilleux instruments que sont les télescopes modernes de haute technologie, Fermi est le fruit d’une vaste coopération internationale sous la direction d’un initiateur puis maître d’œuvre. Ici, la NASA a mené la conception et la réalisation de Fermi avec le concours du département américain de l’énergie (DOE) et de la France*, ainsi que de l’Allemagne, de l’Italie, du Japon, de la Suède et de diverses sociétés américaines.

*Les entités françaises ayant participé à Fermi sont le Centre d’Etudes Nucléaires de Bordeaux-Gradignan (« CENBG »), le Laboratoire Leprince-Ringuet de l’Ecole Polytechnique, le Laboratoire Univers et Particules de Montpellier, le Service d’Astrophysique du Commissariat à l’Energie Atomique, soutenus par le CNES.

Compte tenu des rayonnements qu’il cherche à capter, Fermi n’a pas de lentille ni de miroir, ce n’est donc pas un « télescope » au sens strict du mot mais plutôt un capteur de rayonnements électromagnétiques. Il est équipé principalement, d’un collecteur orienté comme un télescope (« LAT » pour « Large Area Telescope ») et secondairement, d’un détecteur multidirectionnel de sursauts gamma (« GBM » pour « Gamma-ray Burst Monitor »). A noter qu’à l’origine, jusqu’à sa mise en service en Août 2008, Fermi s’appelait « GLAST » pour « Gamma-ray Large Area Space Telescope ».

Il faut se représenter le LAT comme une boite parallélépipèdique à base carrée de 0,72 mètre d’épaisseur et de base de 1,8 mètres de côté. Le capteur, bien protégé de toute perturbation extérieure (température, micrométéorites), est un ensemble de 16 « récipients » de 37 cm x 37 cm sur une hauteur de 66 cm, appelés « tours », chacun fermé par une couche de détecteurs « anti-coïncidence » qui ne laisse passer sans interférence (flash) que les seuls rayons gamma (électriquement neutres). Les GCR (chargés) sont identifiés lorsqu’ils traversent le détecteur de la couche anti-coïncidence et le signal déposé, évite leur traitement par le système d’acquisition des données (Data Acquisition System). A noter que le cahier des charges imposait que l’appareil puisse écarter 99,97% des rayons cosmiques. Les tours sont chacune remplie de 18 plaques de tungstène et de 16 bandes de détection en silicium (880000 microbandes !). Après avoir franchi la couche anti-coïncidence, les rayons gamma pénètrent les plaques de tungstène (« convertisseurs ») où ils produisent des particules chargées (électrons et positrons) qui tracent leur passage dans les bandes de silicium (ce sont des « trajectographes micropistes ») ce qui donne la direction des rayons gamma d’origine (plus l’énergie est élevée, plus la direction est précise, jusqu’à 0,2° au-delà de 10 GeV). Les particules perdent tout ou partie de leur énergie ensuite dans un calorimètre en iodure de césium, l’intensité du signal lumineux produit par ces particules dans cette matière permettant de mesurer l’énergie reçue. Le calorimètre du LAT perçoit toute émission dans une gamme de 20 MeV à plus de 300 GeV.

L’instrument secondaire, GBM, développé par le National Space Science & Technology Center américain avec le Max Planck Institute (Allemagne) consiste en douze volumes d’iodure de sodium (élément choisi pour ses propriétés de scintillation) qui détectent les rayons X et les rayons gamma de basse énergie, et en deux volumes de germanate de bismuth (scintillateur, comme l’iodure de sodium) pour les rayons gammas de haute énergie. Il est sensible à des rayonnements moins énergétiques (de 8 KeV à 30 MeV) que ceux décelés par le LAT avec un petit chevauchement qui permet de « ne rien manquer ». Il doit réagir à la provenance aléatoire de rayonnements occasionnés par toutes sortes d’événements de type GRB et sur une période de temps variable (les GRB peuvent durer quelques microsecondes à plusieurs milliers de secondes).

Le LAT couvre 20% du ciel à tout moment et la totalité toutes les trois heures (le satellite porteur pivotant sur son axe sans jamais regarder vers la Terre). Le GBM, lui, capte les émissions tout azimut, sauf celles cachées par la Terre mais cela ne dure pas longtemps car l’orbite (à 565 km de la Terre) est parcourue par le satellite en seulement 96 minutes. Il est donc multidirectionnel (ses capteurs ressemblent à de grosses lampes de poches tournées dans toutes les directions).

Les données des deux instruments sont recueillies par un Data Acquisition System, véritable centre nerveux de l’observatoire spatial, qui traite, stocke puis transmet les données à la Terre. A noter que le dispositif n’utilise que 650 Watts de puissance électrique (fournie par des panneaux solaires). A noter aussi qu’en cas de besoin (GRB suffisamment intense) le LAT peut se focaliser automatiquement sur une même source. Il peut aussi être pointé volontairement. A noter enfin que Fermi n’est pas le premier télescope dédié aux rayons gamma mais qu’il est extraordinairement plus puissant que son prédécesseur EGRET (25 fois moins sensible).

L’observation a permis de collecter des données sur une quantité très importantes de sources, AGN, pulsars, amas globulaires (amas stellaires très denses), électrons de rayonnement cosmique, GRB, étoiles à neutrons binaires, restes de supernovæ, sources diffuses de rayons gamma.

Sur dix ans le LAT a observé plus de 5000 sources de rayons gamma y compris la plus grosse explosion cosmique jamais détectée (en Avril 2013 rayon gamma de 94 GeV provenant de la source GRB 130427A dans un GRB qui a duré plusieurs heures). Une carte du ciel a été établie qui montre la répartition des sources. Elle sera pour longtemps une référence et l’origine de nouvelles études. Sur cette carte on voit notamment une zone en-dessous et au-dessus de notre centre galactique, très riche en rayons gamma. On parle de deux « bulles » émettrices. Oblongues, elles s’étendent sur 25000 années-lumière de part et d’autre du centre galactique et font penser à la base des jets relativistes de matière que l’on voit partir du trou noir central des galaxies actives (même si la Voie Lactée n’en est pas une). Une « première », toute récente, annoncée le 17 juillet 2018, localise la source d’un neutrino perçu par le collecteur IceCube situé en Antarctique de cette particule évanescente (du fait qu’elle interagit extrêmement peu avec la matière). Le neutrino avait une énergie énorme 300 TeV (un TeV est égal à 1000 GeV) et était en cohérence avec une éruption perçue par Fermi en provenance du trou noir supermassif d’une galaxie active (blazar) connue, distante de 3,7 milliards d’années-lumière.

De son côté le GBM a observé plus de 2300 explosions de rayons gamma (GRB). Notamment le 17 août 2017, un GRB dans la constellation de l’Hydre alors que, simultanément LIGO (Laser Interferometer Gravitational-wave Observatory) détectait des ondulations de l’espace-temps provenant du même évènement, la fusion de deux étoiles à neutrons. C’était la première fois que l’on détectait en même temps des ondes gravitationnelles et lumineuses.

L’on voit donc qu’en nous permettant de connaître les moteurs les plus puissants de nos galaxie, le télescope Fermi va nous faire accomplir une grande avancée dans la compréhension de l’univers. On approche de plus en plus (espérons de mieux en mieux) les phénomènes de gravité extrême. C’est très important puisque, in fine, c’est ce phénomène qui structure le monde de la matière qui nous entoure aussi loin que nous permettent d’appréhender nos instruments.  On constate aussi, une fois de plus, l’apport très important de la coopération dans la complémentarité entre les observatoires, qui est permise par l’instantanéité des communications mondiales et par l’intérêt commun bien compris des astronomes.

NB : Ce texte a été soumis pour relecture à Benoît Lott du CENBG (Directeur de recherche au CNRS). Il y a apporté quelques précisions/rectifications. Le savoir-faire de l’Institut National de Physique Nucléaire et de Physique des Particules (IN2P3/ CNRS) dans la réalisation de détecteurs pour la physique subatomique a permis aux physiciens bordelais, avec le concours du Professeur Benoît Lott, d’apporter leurs compétences dans l’étude de la réponse du calorimètre aux rayons gamma.

Image à la Une: La voie Lactée vue par Fermi. On y voit les deux bulles de 25.000 années-lumière mentionnées dans l’article. Constituées de rayons gamma d’énergie allant de 1 à 10 GeV,  elles s’élèvent de part et d’autre du Centre galactique. Un satellite ROSAT (Allemagne avec les Etats-Unis et la Grande-Bretagne), avait détecté la racine en rayons X de ces bulles dans les années 90. Fermi a permis d’en voir la composante gamma, beaucoup plus importante. Credits: NASA’s Goddard Space Flight Center

Lien vers le site de la NASA https://fermi.gsfc.nasa.gov/

Lien vers le site du CENBG : http://www.cenbg.in2p3.fr/COSMAX-Contexte-Experimental

Image ci-dessous (1) : représentation du spectre électromagnétique (les rayons gamma sont tout à droite).

Image ci-dessous (2), crédit CENBG :

Schéma éclaté du Fermi-LAT. Vous voyez ici l’intérieur d’une de ses 16 « tours » et de la représentation de la pénétration d’un rayon gamma. La tout est (comme les autres) composée d’un trajectographe (partie supérieure) et d’un calorimètre (partie inférieure). Un système d’anti-coïncidence (tuiles en gris clair) entoure la partie supérieure et est recouverte d’un bouclier de protection contre les micro-météorites (en jaune):

Image ci-dessous (3): télescope Fermi déployé sur son orbite (vue d’artiste, crédit NASA):

Des zircons nous indiquent que la croûte de la planète Mars s’est durcie extrêmement vite

On se doutait que Mars étant d’une masse très inférieure à la Terre (1/10ème), elle avait dû se refroidir beaucoup plus vite que cette dernière; on vient d’obtenir la preuve géochimique que tel a bien été le cas. On peut à cette occasion s’émerveiller des méthodes extraordinaires utilisées aujourd’hui pour analyser les minéraux. Quant aux conséquences pour une éventuelle vie martienne, elles restent à constater dans les analyses de plus en plus précises que nous faisons des roches en surface de Mars et dans son sous-sol immédiat. Mais la précipitation pour aborder le sujet de la vie et en tirer des conclusions définitives comme l’ont fait certains media, me semble tout à fait prématurée et inappropriée. On en est au stade des questionnements, pas des réponses.

Rappelons les faits. Des chercheurs viennent d’examiner la composition chimique de 7 petits cristaux de zircon (de 50 à 110 µm) extraits d’un fragment (5 grammes) de météorite d’origine martienne, « NWA 7034 » (pour « North West Africa 7034 ») trouvée dans le désert du Sahara en 2011. Le zircon (ZrSiO4) est un minéral du groupe des silicates très intéressant pour les datations car ses cristaux sont extrêmement résistants à l’altération et au métamorphisme et contiennent une relativement large quantité d’uranium remontant à leur formation. Depuis cette formation, l’uranium se désintègre radioactivement en Plomb (Pb). En mesurant le rapport entre les abondances isotopiques des deux éléments et connaissant la vitesse de dégradation radioactive de l’Uranium en Plomb (235U => 207Pb et 238U =>206Pb), on peut calculer l’âge du zircon. Les dates obtenues dans le cas de NWA 7034 se situe entre 4,43 et 4,476 milliards d’années, la plus vieille date jamais constatée pour une roche martienne (par rapport à un âge de formation du système solaire estimé à 4,567 milliards d’années). Pour comparaison, sur Terre la plus ancienne datation remonte à 4,37 milliards soit une centaine de millions d’années de moins, ce qui implique un processus de solidification plus lent.

Mais il existe un deuxième couple d’éléments à considérer, celui du Lutétium et de l’Hafnium. L’Hafnium est comme l’Uranium, très abondant dans les zircons. On étudie également la composition isotopique et la désintégration radioactive du premier élément, 176Lu ,vers le second, 176Hf, par rapport à d’autres isotopes, stables (non-radiogéniques), de l’Hafnium (notamment 177Hf), témoins de la roche source. L’âge obtenu cette fois-ci est d’environ 4,547 Milliards d’années, juste une vingtaine de millions d’années après la formation du système solaire et comme le couple 176Lu/177Hf est le témoin d’une roche de type andésite solidifiée (des brèches des Hautes Terres du Sud de la planète), cela indique à cette date, l’existence d’une croûte planétaire de type andésitique à partir de laquelle se sont formés les zircons. Le processus a donc dû être (1) une première solidification par baisse de température (croûte andésitique), (2) une centaine de millions d’années plus tard, une fusion des roches andésitiques à l’occasion de nouveaux impacts violents puis, à partir de ce magma, (3) une cristallisation des zircons lors du refroidissement subséquent de la surface.

Comme toutes les planètes, Mars et la Terre se sont formées par accrétion de poussières et de gaz, puis de météoroïdes, puis d’astéroïdes de plus en plus gros, puis de planétoïdes dont l’énergie cinétique de plus en plus importante (en fonction de la gravité générée par la masse de l’embryon planétaire s’exerçant sur les masses sous son influence) se transformait en chaleur. A la fin de la période d’accrétion (environ 5 millions d’années après que le processus ait commencé) les planètes se présentaient comme d’énormes masses de magma sphériques à l’intérieur desquelles les éléments avaient pu se stratifier par gravité du fait de la fluidité de l’ensemble. Le fer et autres éléments sidérophiles au centre, silicates en surface. Le refroidissement a alors commencé, avec des effets sans doute plus rapide sur Mars que sur Terre, mais il était interrompu de temps en temps par de nouveaux impacts catastrophiques (dont éventuellement ceux du LHB, Grand Bombardement Tardif vers – 4 milliards d’années), avec d’autant plus d’effets en surface que la croûte formée était mince.

On peut déduire de la solidification de la surface de Mars et des mouvements de convection qui brassaient le manteau en fusion par nécessité thermique, qu’il a dû y avoir sur Mars comme sur Terre, une tectonique des plaques, les éléments solidifiés de surface étant périodiquement déchirés par les mouvements sous-jacents de convection et engloutis par le manteau avec formation de nouvelles croûtes en surface. Cela devait produire des dégazages considérables donc un renouvellement constant de l’atmosphère en dépit des pertes importantes résultant d’une gravité faible. On peut en déduire aussi la création, par différentiel de rotation entre les éléments légers et lourds des différentes couches constitutives de la planète, d’un champ magnétique global résultant d’un effet dynamo.

Finalement c’est la faiblesse de la masse de la planète qui a eu raison de cette activité géologique primitive. Comme nous le savons, tout s’est figé assez vite (ou du moins ralenti considérablement) vers -3,5 milliards d’années, d’autant que la masse n’a pas permis aux éléments radioactifs contenus dans la sphère planétaire, la génération de suffisamment d’énergie thermique pour compenser la dissipation progressive dans l’espace de la chaleur résultant de l’énergie cinétique primordiale.

Sur le plan exobiologique puisqu’il faut toujours parler de la vie quand on parle de Mars, toute une série de questions se posent les unes après les autres, comme des poupées russes que l’on ouvrent. Pour commencer il serait important de savoir, la solidification de la surface s’étant produit quelques 100 millions d’années plus tôt que sur Terre, à partir de quel niveau de température (probablement en dessous du point d’ébullition de l’eau, mais sous quelle pression ?), la complexification et la polymérisation des molécules carbonées a pu commencer. Ensuite, deuxième poupée, il faudrait savoir si l’évolution des matières organiques prébiotiques a disposé d’autant de temps sur Mars que sur Terre avant le seuil fatidique des -3.5 milliards d’années (environ !) où la planète s’est endormie alors que la Terre donnait naissance à la vie. Encore ensuite, troisième poupée, il faudrait savoir, les conditions initiales étant plus précoces sur Mars et aussi plus favorables (la planète Terre était probablement une planète océan alors que Mars était plus sèche), si certaines molécules prébiotiques qui supposent des alternances humides et sèches ne se sont pas formées sur Mars avant d’être transportées sur Terre à la suite d’impacts ayant éjecté des météorites jusqu’à la Terre, où elles auraient trouvé un environnement aqueux favorable « pour la suite »*.  Ensuite, quatrième poupée, il faudrait alors savoir comment ces éléments organiques martiens prébiotiques se seraient reproduits sur Terre, la capacité de reproduction étant un attribut fondamental de la vie. Cela entraînerait l’ouverture d’une cinquième poupée, celle de la probabilité de l’émergence de la vie sur Mars (au-delà du stade prébiotique) plutôt que sur Terre ou sur les deux planètes à la fois, en parallèle. C’est en ces termes que l’on peut se poser la question de la vie sur Mars mais pour le moment, certainement pas davantage.

*paradoxe de l’eau soulevé par Steven Benner à la conférence Goldschmidt de la Geochemical Society en 2013. A certaines étapes initiales du processus de vie il a fallu un milieu sec pour permettre l’action des borates sur les hydrates de carbone pour empêcher la décomposition des molécules organiques en goudron, et l’action des molybdates sur les glucides pour favoriser la création de ribose.

Référence : “Evidence for extremely rapid magma ocean crystallization and crust formation on Mars” par Laura C. Bouvier, Maria M. Costa et al. (dont Martin Bizzaro, directeur du Centre pour la formation des Etoiles et des Planètes du Musée National d’Histoire Naturelle du Danemark et Frédéric Moynier, Professeur à l’Uni. De Paris Diderot, Institut de Physique du Globe de Paris, chaire de Cosmochimie),

lettre de recherche publiée le 27 juin dans Nature (https://doi.org/10.1038/s41586-018-0222-z)

NB : le texte de l’article a été revu par le Professeur Moynier.

Image à la Une : NWA 7034 appelée aussi « Black Beauty ». Ne trouvez vous pas remarquable que l’on puisse extraire autant d’informations d’un tel « caillou » ?!

Image ci-dessous, le grain de zircon le plus gros et le plus ancien des sept étudiés:

Congrès EMC18 ; tout ce que vous avez toujours voulu savoir sur Mars

Du 26 au 28 octobre les Martiens-de-cœur, de Suisse et d’ailleurs, se retrouveront au Musée International d’Horlogerie de la Chaux-de-Fonds, pour dire ce qu’ils ont appris et ce qu’ils espèrent apprendre de leur chère planète, pour écouter des experts parmi les meilleurs mondiaux et leur poser les questions qui leurs brûlent les lèvres, pour échanger à propos des missions robotiques actuelles et prévues sans oublier le rêve de plus en plus prégnant des missions habitées et de l’établissement de l’homme sur cette Nouvelle-Terre et, pour y parvenir, des meilleurs solutions pour mener à bien le voyage au long cours qui permettra de la rallier…et d’en revenir.

Quatre thèmes ont été choisis, la connaissance de la planète, le Temps, le voyage et l’établissement de l’homme sur Mars. Ils feront l’objet de plus de 20 exposés et d’un débat : « Des robots et des hommes sur Mars sous le regard du Temps ».

La connaissance de la planète c’est ce que pourront en dire les scientifiques derrière les commandes des merveilleuses machines déjà sur place ou sur le point de partir, Michel Cabane, responsable scientifique (ou, comme on dit « Principal Investigator » ou « PI ») du chromatographe en phase gazeuse du laboratoire SAM (Sample At Mars) monté sur le rover Curiosity de la NASA, qui a identifié toute une gamme de molécules organiques, certaines étant probablement des éléments de matière kérogène ; Antoine Pommerol de l’équipe de l’Université de Berne qui a conçu la caméra CaSSIS (PI Nick Thomas) à bord de TGO (Trace Gas Orbiter) et va pouvoir en analyser les données (localisation des sources de gaz à l’état de traces dans l’atmosphère, notamment méthane) puisque l’orbiteur de l’ESA est parvenu en avril sur son orbite d’observation ; Jean-Luc Josset, concepteur et PI de la caméra CLUPI et Tomaso Bontognali, géobiologiste, tous les deux de l’Institut d’Exploration Spatiale (« SpaceX », de Neuchâtel), pour cette caméra qui sera mise à bord du rover ExoMars dont le lancement est prévu en 2020 pour mener la seconde mission exobiologique de l’Histoire et étudier des échantillons prélevés dans le sous-sol de la planète, hors d’atteinte de la plupart des radiations ; Philippe Lognonné, concepteur et PI de SEIS, le sismographe embarqué sur la sonde InSIGHT qui doit nous permettre de faire un bon gigantesque dans la compréhension de la structure interne de la planète et de pouvoir répondre aux questions fondamentales sur l’absence de tectonique des plaques et de magnétosphère.

Le Temps c’est la contrainte formidable qui s’impose à nous tous, êtres vivants, dans notre vie quotidienne mais aussi particulièrement dans le cadre de l’exploration spatiale puisqu’il faut s’introduire dans la mécanique céleste, que l’on a depuis toujours comparée à l’horlogerie la plus sophistiquée*, et en jouer au mieux pour obtenir ce que l’on veut : transporter le maximum de masse utile, le plus loin possible dans le minimum de temps et dans des conditions optimales de sécurité. Les règles du Temps nous seront données par les grands spécialistes mondiaux de sa mesure, que sont Gaetano Mileti du Laboratoire Temps-Fréquence de l’Université de Neuchâtel et Pascal Rochat de la société Spectratime qui conçoit et réalise les horloges les plus précises au monde. J’exposerai de ce point de vue également, les conséquences résultant de l’éloignement de Mars de la Terre compte tenu de la vitesse de la lumière, et les conséquences pour les Terriens de la nécessaire prise en compte du temps local martien. Mitko Tanevski de SpaceX Neuchâtel nous amènera, en nous confrontant à la réalité, à nous émerveiller de la complexité des systèmes de télécommunications à maîtriser pour manier l’instrument d’une mission robotique. Alain Sandoz (EPFL) nous présentera une complication horlogère permettant de mesurer exactement, mécaniquement, le temps passé en apesanteur (inévitable même pour de courtes périodes, dans ce type de voyage). C’est aussi le Temps, surtout sous son aspect stratégie, qui sera au cœur de notre débat « Des Robots et des hommes sur Mars sous le regard du Temps ». Il s’agira pour Claude Nicollier, Robert Zubrin, Richard Heidmann, Jean-Luc Josset et moi-même, de dialoguer avec le public pour bien faire comprendre que la problématique de l’exploration spatiale et de l’essaimage de l’homme en dehors de sa planète d’origine est aussi une question de « timing », de maturité technologique et psychologique collective et d’opportunités qu’il convient de saisir lorsqu’elles se présentent faute de les voir disparaître. Rien n’est écrit et nous n’irons sur Mars que si nous le voulons, dans un certain contexte temporel.

*Le Congrès sera aussi l’occasion de visiter avec un guide, le très riche Musée International d’Horlogerie qui nous accueille.

Du Temps on passera logiquement au Voyage puisque le premier impose pour le second, des dates de départ et de retour, des vitesses, des quantités d’énergie et donc des masses d’ergols et de charge utile. Ce voyage est long, de l’ordre de 6 mois. Il faut y faire face notamment pour le corps humain, en prenant des contre-mesures pour lutter contre les effets nocifs débilitants (mais pas seulement) de l’apesanteur. Claude Nicollier nous parlera des solutions de gravité artificielle. Pierre-André Haldi (EPFL) nous fera la critique, constructive, du projet Interplanetary Transport System de SpaceX (Elon Musk). Jean-Marc Salotti (Uni. Bordeaux) nous proposera une architecture de mission fondée sur l’utilisation de lanceurs Ariane super lourds. Jürgen Herholz, ancien de l’ESA, responsable du programme Hermès, nous fera l’historique de ce rêve humain des vols habités, tel qu’il a évolué dans le cadre européen.

Le dernier thème abordé sera celui de l’établissement de l’homme sur Mars. C’est quelque chose que nous tous, les membres de la Mars Society, appelons de nos vœux les plus fervents. Nous avons conscience des difficultés mais nous pensons qu’elles sont aujourd’hui surmontables, sur Mars plus que sur n’importe lequel des autres objets célestes que nous pouvons aujourd’hui atteindre. Nous aborderons donc différents sujets qu’il convient de bien connaître et de technologies qu’il convient de maîtriser. Roland Loos, CEO de Solarstratos nous dira ce qu’on peut retenir de son expérience concernant l’avion stratosphérique solaire pour l’exploration de Mars dans des conditions de densité atmosphérique comparables à celles qu’il veut affronter au-dessus de la Terre. Comme, avant de partir, il nous faut anticiper le mieux possible le maximum de situations qui se présenteront sur place, Olivia Haider de l’ÖWF (Österreichisches Weltraum Forum, Uni. Innsbrück) nous racontera ce qu’il faut retenir de ses simulations menées en scaphandre Aouda (conception ÖWF) dans le désert d’Oman en 2018 et Pierre-Emmanuel Paulis, ce que l’Euro-Space Center, au cœur de l’Ardenne belge, veut démontrer et enseigner au public avec sa base habitat martienne « analogue ». Dans le même registre, Antonio del Mastro, fondateur de Mars-Planet, la Mars Society Italienne, nous dira où en est son entreprise de « réalité-virtuelle » pour mieux appréhender dans le contexte de son « Mars City Project, » cette « réalité-réelle » à laquelle on se trouvera confronté en débarquant sur Mars. Théodore Besson, directeur-général d’ESTEE (Earth Space Technical Ecosystem Enterprises) nous parlera de son projet « Scorpius », un habitat clos intégrant les principales fonctions de support vie bio-régénératifs, sur la base de sa connaissance de MELiSSA, et de sa formation en écologie industrielle avec le Professeur Suren Erkman (UniL). Avec Richard Heidmann, fondateur de l’Association Planète Mars, polytechnicien, ancien directeur « orientation recherche et technologie » de la SNECMA, société qui a conçu et réalisé la fusée Ariane, nous nous transporterons par la pensée sur Mars, après les premières missions d’exploration et l’implantation des premiers éléments d’une base permanente, pour considérer les contraintes de production de masse pour une colonie en développement rapide. Il ne suffit pas de penser aux principes quand on doit manipuler la matière ; l’établissement de l’homme sur Mars suppose des infrastructures, des machines, des matières premières et du temps !

Enfin nous clorons ces trois journées par une « ouverture » de Robert Zubrin, fondateur de la Mars Society. Les hommes débarquant sur Mars auront une « vision » et ce devrait être celle qu’il nous exposera, celle d’une « Révolution spatiale » débouchant sur un futur illimité de ressources, de temps, de développement et de liberté créatrice. Mars est une première étape mais essentielle puisque c’est la sortie de notre berceau et peut-être l’entrée dans la voie d’une sorte d’immortalité pour notre espèce.

Parler du futur sans la participation active de la plus jeune génération éduquée que l’on veut encourager à poursuivre notre objectif serait une entreprise vaine. Nous espérons la venue de beaucoup de jeunes à notre congrès et nous donnerons la parole à deux d’entre eux. Maxime Lenormand (IPSA, Paris) présentera une solution d’EDL (Entry, Descent, Landing), dont tout le monde sait que c’est une des parties les plus difficiles de toute mission : la cargaison pourrait terminer son voyage en suivant un long processus d’aérofreinage alors que l’équipage devrait utiliser un freinage plus classique par rétropropulsion. Anne-Marlène Ruede (EPFL, architecture) nous parlera de son projet d’habitat fait de glace d’eau, relié à l’orbite basse martienne par un  système de « grues » très spécial.

Ce dernier sujet est un bon exemple de l’imagination créatrice qu’induit l’exploration spatiale, comme souligné par Robert Zubrin. Mais l’imagination créatrice n’est pas stimulée que chez les étudiants. Elle l’est (on devrait dire « doit l’être ») chez tous ceux qui sont intéressés à faire avancer le processus d’Exploration, donc également les chercheurs et les ingénieurs expérimentés, car ce cadre où tout est à concevoir est un espace illimité de liberté. Il oblige cependant, ce qui n’est pas contradictoire, à ne pas perdre de vue les fondements solides de la science et de l’ingénierie car la réalité est toujours là et le danger aussi. Nous avons l’esprit tourné vers Mars mais les pieds (encore) sur Terre!

Si vous êtes intéressé, inscrivez vous! https://planete-mars-suisse.space/fr/emc18/inscription-emc18

NB: la langue du Congrès EMC18 sera l’Anglais, compte tenu de la présence de Suisses Alémaniques et d’étrangers ne parlant pas Français.

Nos sponsors sont:

Space-X Neuchâtel,  le Musée International d’Horlogerie,  Trax-L,  Spectratime,  la BCN

Une nouvelle Course-à-la-Lune, entre la Chine et les Etats-Unis, aura-t-elle lieu ?

La Chine révèle peu à peu ses intentions pour voyager dans l’espace profond et le moins que l’on puisse dire c’est qu’elles sont ambitieuses. La question est de savoir si le pays en a les moyens. De cela dépend la question suivante : Cette ambition pourra-t-elle relancer la très fructueuse émulation qui a existé entre les Etats-Unis et l’URSS et qui a permis les missions habitées lunaires ?

En Mars, le président, puis en mai le « chief designer » de la China Academy of Launch Vehicle (« CALT ») qui est la société publique chinoise de construction des lanceurs, ont donné des détails sur leur plus grosse fusée, la « Long-March* 9 », un lanceur « super-lourd » qui n’en est pour le moment qu’aux balbutiements de sa réalisation mais que les autorités chinoises voudraient faire voler dans les années 2030. Cette fusée serait un monstre de 100 mètres de haut, 9 ou 10 mètres de diamètre, qui aurait une masse au départ de la Terre de 4000 tonnes et qui pourrait bénéficier d’une poussée de 6000 tonnes (moteurs kérosène / oxygène liquide). Elle pourrait placer 140 tonnes en orbite basse terrestre (LEO), comme la légendaire fusée Saturn V de la NASA qui a permis la réalisation du programme lunaire Apollo, 50 tonnes sur orbite de transfert pour la Lune et 44 tonnes sur orbite de transfert pour Mars, donc déposer une vingtaine de tonnes en surface de Mars (en partant évidemment à la bonne date de la Terre). Cette fusée est donc non seulement de la classe des Saturn V, mais aussi de celle des lanceurs que les Américains s’efforcent de mettre aujourd’hui au point pour pouvoir retrouver / récupérer les performances de la Saturn V, c’est-à-dire le SLS lourd de la NASA et, dans une certaine mesure, le BFR de la société Space-X d’Elon Musk (150 tonnes en LEO et, grâce à quatre réapprovisionnements en ergols en LEO, capable de déposer 100 tonnes sur Mars). A noter que par ailleurs la Chine veut suivre la piste de la réutilisabilité ouverte par Space-X. C’est ce qu’elle prépare avec son petit lanceur Long-March 8 (7,6 tonnes en LEO), qui devrait voler vers 2021.

*en chinois mandarin “Chang Zheng”. “Longue-marche” fait référence à la retraite militaire stratégique des Communistes en 1935, pendant leur guerre civile contre les Nationalistes.

Parler de Long-March 9 c’est évidemment quelque peu anticiper car la Chine en est actuellement seulement à son lanceur Long March 5 (un vol réussi en Novembre 2016 mais encore en phase d’essais en raison d’un second vol raté en juillet 2017) qui devrait pouvoir placer 25 tonnes en LEO. Mais ce tonnage n’est pas ridicule car la fusée américaine la plus puissante aujourd’hui, la « Delta IV Heavy » (de l’United Launch Alliance, « ULA », une JV Lockheed Martin et Boeing) ne peut placer que 28,8 tonnes en LEO (Falcon 9 de Space-X peut placer 22,8 tonnes) et c’est plus que le « gros » lanceur européen, Ariane V, qui elle, ne peut placer que 20 tonnes (mais il est vrai que l’ESA « avance en reculant » dans le domaine de l’exploration de l’espace profond par vols habités). Elon Musk a un peu d’avance car son Falcon Heavy (un lancement réussi, spectaculairement) devrait pouvoir placer 64 tonnes en LEO.

On est donc bel et bien dans une course et dans cette course, quelles sont les avantages des uns et des autres ?

Les Etats-Unis, secteur public (la NASA), ont l’expérience mais aussi subissent la lourdeur des entreprises « établies » (régulations lourdes, procédures de toutes sortes, personnel nombreux, structure complexe, ingérences politiques). Leur SLS n’avance pas (même au niveau « heavy » de 70 tonnes, le « Super-Heavy » de 140 tonnes n’étant, de ce fait, qu’un rêve). Par ailleurs l’expérience a montré que l’engagement politique ne pouvait durer qu’une seule présidence (pour ne parler que de l’époque la plus récente, abandon du projet Constellation par le Président Obama, retour à une politique pro-Lune avec le président Trump).

Space-X bénéficie de l’enthousiasme, communicatif, de son patron, Elon Musk, de la créativité du secteur privé (en concurrence et forcé de ce fait d’être « meilleur que les autres ») et d’une excellente organisation (principe de modularité par utilisation répétitive d’éléments standardisés, de concentration verticale et géographique de la recherche, de la production et du montage). Sa faiblesse ressort de ses moyens de financement qui reposent largement (mais heureusement pas seulement) sur ses contrats avec la NASA et avec plus de fragilité (et indirectement via Elon Musk) sur le succès incertain des ventes des voitures Tesla.

Les Chinois ont pour eux la détermination et la continuité politique (ce que n’ont pas les Américains). Ils ont aussi moins de scrupules vis-à-vis des « droits humains » (j’imagine que beaucoup de taïkonautes se sacrifieraient volontiers, spontanément ou sur ordre, en acceptant des conditions de sécurité moindres qu’aux Etats-Unis) ou de la « protection planétaire ». Cependant, ils manquent totalement d’expérience dans les sciences de support vie. Ils doivent en avoir conscience car leur objectif avec Long-March 9 est soit une exploration habitée de notre banlieue (la Lune), soit un retour d’échantillons de Mars. A noter de plus qu’ils n’envisagent même pas de production d’ergols in situ sur Mars (ce qui justifie les moteurs fonctionnant au méthane des américains) et donc que les possibilités de « rapatrier » des charges utiles (payload) significatives (comme celle d’un équipage) sont nulles puisqu’il faudrait pour cela emporter à l’aller les ergols nécessaires au retour.

Alors que peut-il se passer ?

Si Long-March 5 passe ses tests avec succès, la Chine entrera véritablement dans la compétition et une certaine pression sera mise sur les Etats-Unis, secteur public. A ce moment-là deux politiques seraient possibles pour ces derniers: soutenir l’entreprise privée Space-X puisque c’est la formule « qui marche », ou mettre davantage de pression sur ULA pour que la JV termine le SLS (quitte à modifier drastiquement l’architecture du projet en s’inspirant de Space-X). La première solution n’est malheureusement pas la plus certaine car ni Boeing ni Lockheed Martin ne sont des « petits joueurs ». Cependant si le danger chinois se précise, les Américains ont suffisamment de fierté nationale et de capacité technologique pour réagir…et ceci serait pour le plus grand plaisir de ceux qui comme moi se désespèrent de voir l’exploration spatiale par vols habités ronronner dans des préparatifs interminables au niveau de l’orbite basse terrestre.

Image à la Une: Long March 9 en vol, vue d’artiste, crédit CALT.

Image ci-dessous (crédit CALT): Long-March 9 (“Cz-9”) comparée à Long-March 5 (“Cz-5) et aux SLS version lourde (70 tonnes en LEO, à gauche) et super-lourde (130 tonnes en LEO, à droite):

Liens :

https://www.youtube.com/watch?v=Uf3v19A7Htw&feature=push-fr&attr_tag=P5XAWRRK8Rfik-1x-6

https://spacenews.com/china-reveals-details-for-super-heavy-lift-long-march-9-and-reusable-long-march-8-rockets/

Sur Mars, les tempêtes de poussière planétaires imposeront l’utilisation de l’énergie nucléaire

Tous les trois ans martiens en moyenne*, une tempête de poussière se lève dans l’hémisphère Sud de Mars et enveloppe l’ensemble de la planète. Cette année, elle est apparue le 9 juin dans la région où opérait le rover Opportunity de la NASA. Le 10 juin, l’énergie produite par les panneaux solaires tombait à 21 Watts-heure contre environ 350 la veille et les jours précédents, et le rover entrait en veille ; simultanément le taux d’opacité de l’atmosphère, « Ƭ », montait en flèche à 10,8, beaucoup plus haut que lors de la tempête globale précédemment subie en 2007 par le même rover (Ƭ 5,5). Vers le 23 juillet, enfin, davantage de poussière retombe qu’il n’en est soulevé! On parvient donc à un renversement de situation, une sorte de phénomène de décrue, 43 jours après le début de la tempête. Il faudra bien sur un certain temps, plusieurs semaines, avant que la situation ne redevienne normale (la masse des grains de poussière est très faible et la gravité martienne seulement de 0,38g)

*Une année martienne dure 688 jours, trois ans martiens dure 5 ans et 8 mois.

Dernières mesures de production d’énergie par les panneaux solaires du rover Opportunity, crédit: NASA/JPL-CalTech/New Mexico Museum of Natural History.

Les tempêtes de poussière sont inévitables sur Mars puisqu’il n’y a pas d’eau liquide en surface et que, comme dans toute atmosphère (ou comme dans tout fluide), des mouvements de convection résultant des changements de température, emportent les éléments qu’ils peuvent soulever, dans leurs déplacements. Actuellement l’explication est la suivante : les rayons du soleil (lumineux et autres) frappent le sol de la planète et le réchauffe. Le sol chauffe la couche d’atmosphère à son contact. Celle-ci (relativement plus légère) se trouve confrontée à la couche supérieure plus froide (relativement plus lourde). L’élément léger monte, l’élément froid descend, le mouvement est lancé et il va avoir d’autant plus d’intensité qu’il se généralise et que les contrastes de températures sont importants. Or, à l’arrivée du Printemps dans l’hémisphère Sud*, on sort d’une période d’hiver long et très froid (la saison correspond à l’aphélie de la planète sur son orbite ; elle est alors au plus loin du Soleil et se déplace à vitesse croissante vers des conditions exactement opposées). C’est donc dans ces périodes que les vents martiens soulèvent le plus de poussière. Cette poussière faisant écran à la déperdition de température la nuit (effet de serre) on obtient des nuits moins froides, de l’air de surface moins froid et un sol qui se réchauffe plus lentement, idéal pour un effet qui s’auto-entretient et s’intensifie, jusqu’à retrouver un nouvel équilibre. Bien sûr « la mayonnaise » ne prend pas à toutes les occasions et elle « prend » plus ou moins fort, sans doute en raison des particularités géographiques des endroits où elle commence et sans doute parce que certaines années la jonction de plusieurs départs en même temps dans une même région ne se fait pas. Toujours est-il que le risque existe et que la probabilité qu’il se concrétise est forte.

*dans l’hémisphère Sud de Mars, le dernier équinoxe de printemps a eu lieu le 22 mai, le solstice d’été sera le 16 octobre 2018.

Les conséquences de ces tempêtes planétaires (ou « globales » comme on dit en Anglais) sont très importantes. Elles constituent des obstacles à l’exploration robotiques et demain à l’installation de l’homme sur Mars.

D’abord, l’écran constitué par les masses de poussière soulevées fait obstacle à la collecte de l’énergie solaire. Sur le graphique fournis par la NASA on voit qu’en deux jours, l’énergie disponible pour la maintenance et le fonctionnement d’Opportunity a été divisée par 15. Si l’on utilise l’énergie solaire pour les instruments d’exploration ou demain dans les bases solaires, il faut donc pouvoir passer très vite sur une autre source.

La seconde conséquence négative, c’est la réduction de la luminosité. Sur les photos du Soleil prises par le rover Opportunity (Image en tête d’article), on voit en deux jours, la luminosité passer d’une opacité quasi nulle (taux  = 1) à une opacité maximum (11). Pendant la tempête, le rover Curiosity a continué à fonctionner (énergie nucléaire) et sur les photos prises, on n’a pas la même impression d’obscurité mais plutôt d’un fort rougeoiement de l’image (très peu de lumière bleue et verte peuvent pénétrer l’écran de poussière en raison de leurs longueurs d’ondes). On peut donc penser que des moyens sont déjà disponibles pour améliorer la luminosité des caméras et donc des optiques que pourront porter les astronautes en mission sur Mars, mais surtout que la densification de l’atmosphère (son encombrement par des poussières) n’est pas telle qu’elle empêche de voir à quelques centaines de mètres.

Roche “Duluth”, photo prise le 21 mai (à gauche) et le 17 juin (à droite) crédit: NASA/JPL-Caltech/MSSS. Il faut noter que le taux d’opacité ajoute une baisse de luminosité au “virage” vers le rouge: temps d’exposition à gauche 7,3 millisecondes et à droite 66 millisecondes.

La troisième conséquence, c’est le risque de grippage des instruments et véhicules. La poussière est constituée de grains plus ou moins fins mais les particules de seulement quelques microns sont très abondantes et comme ce sont elles qui sont le plus soulevées par la tempête, ce sont elles qui posent problème, d’autant que la sécheresse, favorise l’électricité statique qui les rend collantes. Les grains de poussière portés par le vent vont s’insinuer partout et en particulier dans tout ce qui est interstices et articulations, les replis des combinaisons spatiales, les points de jonction des pièces métalliques, les serrures, toutes les jonctions de pièces mobiles. Il faudra prévoir des instruments de nettoyage particulièrement puissants et efficaces (et des surfaces de vêtements et d’instruments antistatiques) car il n’est pas question de laisser rentrer la poussière dans les habitats (les particules fines sont dangereuses pour la santé ; inhalées, elles pénétreraient profondément dans les poumons et pourraient y causer des dégâts – silicose – d’autant qu’elles sont beaucoup moins érodées que sur Terre, sans être aussi acérées que sur la Lune).

La troisième conséquence c’est que la durée contraint à l’adaptation. Un des avantages majeurs de Mars par rapport à la Lune c’est que la nuit n’y dure qu’une partie du jour (“sol”). Dans le cas d’une tempête globale ce n’est plus le cas et il faut s’adapter. Les plantes qui pousseront dans les serres ne pourront pas attendre 43 jours que la lumière revienne. Certains travaux en cours qui nécessitent des sorties devront pouvoir être interrompus, des atterrissages devront pouvoir être différés, des contrôles ou des commandes à distance interrompus, pendant la durée nécessaire.

La leçon que l’on doit tirer de ce phénomène est à mon avis la suivante : la continuité de fonctionnement du dispositif d’approvisionnement en énergie et la fiabilité de la source étant primordiales puisque c’est d’elles que dépend le support vie, il n’y a pas d’alternative à l’énergie nucléaire. Pour cela il y a heureusement une solution en vue, le projet KRUSTY (Kilowatt Reactor Using Stirling TechnologY) sur lequel la NASA travaille (voir mon article sur ce blog, paru le 20/02/18). Des tests, satisfaisants (cf lien* ci-dessous) ont été menés de Novembre 2017 à Mars 2018. Ces petits réacteurs nucléaires de petite puissance thermique (40 Kw) sont couplés à des moteurs Stirling pour délivrer une puissance électrique de 10 Kw. D’après la NASA, quatre réacteurs KRUSTY seraient suffisants pour alimenter une base d’exploration de quatre personnes pendant 10 ans. Ils ont un cœur d’Uranium 235 (235U) mais, afin d’éviter la fission spontanée (et faciliter le transport !), les ingénieurs de KRUSTY limitent l’utilisation de cette matière à 43 kg, en-dessous de la masse critique qui est de 48kg. La réaction peut être activée grâce à une enceinte en béryllium (réflecteur) et déclenchée/interrompue par une barrette en carbure de bore amovible, au centre de la masse d’uranium. La masse d’uranium est elle-même stabilisée sur le plan physique (pour éviter les problèmes de changement de phase, de température de fusion trop basse et améliorer la résistance au fluage à haute température) par un alliage avec du molybdène (7%).

Bien entendu recourir à cette source nucléaire n’exclut pas que l’on utilise le solaire ou éventuellement le géothermique (quand on trouvera un point chaud exploitable en surface !) mais la sécurité impose une source d’énergie indépendante des conditions climatiques. Par ailleurs, en période critique, aucune sortie (EVA) ne devra être autorisée pour une période dépassant une journée, sans une source d’énergie chimique (avec réserves suffisantes) ou nucléaire dans le véhicule.

NB : vous remarquerez que je n’aborde pas le faux « problème » de la force du vent, cette grossière erreur d’Andy Weir dans son roman « Seul sur Mars ». La très faible densité de l’air martien rend tout simplement impossible la destruction de la base par une tempête comme il l’imagine.

Image à la Une: évolution sur deux jours de l’opacité (9 et 10 juin) de l’atmosphère martienne vue par le rover Opportunity. Chaque prise de vue correspond à un taux d’opacité (“tau”). De gauche à droite, on passe de 1 à 3,; 5; 7 ;9 et 11. Crédit: NASA/JPL-Caltech/TAMU,

Image ci-dessous (crédit: NASA/JPL-Caltech/MSSS) : Photos du paysage vers le bord du cratère, prises le 7 juin (à gauche) et le 10 juin (à droite) par Curiosity. La baisse de lumière est moins dramatique que dans l'”Image à la Une” car la caméra de Curiosity ne fait pas face au Soleil et donc les contrastes sont moins forts. L’heure de la prise de vue n’est pas indiquée et le taux d’obscurité était sans doute plus proche de 5 que de 10 (on est sans doute entre le deuxième et le troisième rectangle, Ƭ =4). En dépit du taux d’obscurité de toute façon élevé  on voit quand même encore assez loin.

Lien vers la note de presse de la NASA rendant compte des tests de KRUSTY :

https://www.nasa.gov/press-release/demonstration-proves-nuclear-fission-system-can-provide-space-exploration-power

Un petit peu d’eau liquide sous la calotte-polaire australe de Mars. Un lac? Pas vraiment!

Des chercheurs travaillant avec le radar MARSIS à bord du satellite Mars Express de l’ESA, viennent de déduire de leurs observations, la probabilité forte d’eau liquide sous la calotte-polaire située au Pôle Sud de Mars. On s’y attendait. C’est une constatation importante mais ce n’est pas une découverte qui change vraiment les perspectives que nous avons de trouver de la vie sur Mars.

Les faits :

Le radar « MARSIS » ( pour « Mars Advanced Radar for Subsurface and Ionosphere Sounding ») observe le sol et le sous-sol de Mars depuis Juillet 2005 à partir d’une altitude variant de 800 à 1200 km. Les données exploitées pour le sujet ici traité ont été collectées de mai 2012 à décembre 2015. Le travail de recherche a été mené par une équipe de scientifiques italiens dont l’auteur principal est Roberto Orosei de l’Istituto Nazionale dei Astrofisica, de Bologne.

MARSIS est doté de deux antennes qui permettent de capter en même temps les échos provenant du sol et du sous-sol et il a été placé sur une orbite qui permet de passer au-dessus de l’ensemble de la surface de Mars. La technique radar utilisée, « RES » (« Radio Echo Sounding »), consiste à émettre des ondes à basses fréquences (radio, limite MF/HF) et à en récolter les échos. C’est la technique dont on se sert sur Terre pour détecter l’eau liquide sous les couches de glace.

La découverte se situe à 81°de latitude Sud (région de Planum Australe) donc tout prêt du pôle géographique actuel de Mars qui est couvert d’une calotte de glace d’eau permanente et d’une couche de gaz carbonique saisonnière. A noter que le Pôle Sud de Mars connait des températures beaucoup plus froides que le pôle Nord car l’hiver austral a lieu alors que Mars est au plus loin du Soleil (aphélie sur une ellipse allongée) et il est beaucoup plus long que l’hiver boréal car étant plus éloignée du Soleil, la planète se déplace alors à une vitesse plus faible (min. 21,92 km/s au lieu de 26,5 km/s max.).

Comme on le voit sur l’illustration de l’article, le radar a rencontré deux couches essentielles de réflexion. La première, la plus haute, est la ligne plate de la surface de l’inlandsis (limite entre deux milieux), la plus basse est la ligne moins régulière du socle sur lequel repose l’inlandsis, à 1,4 km en dessous. Entre les deux, les couches de dépôts de glace, « SPLD » (pour « South Polar Layered Deposits ») dont on voit vaguement qu’il y en a plusieurs, correspondent aux changements climatiques qu’a connu la planète et aux limites desquelles a dû se déposer de la poussière. Le contenu de poussière dans la glace vers la surface, est de l’ordre de 10 à 20%, vers le socle la pureté est beaucoup plus grande.

Sur la couche de réflexion inférieure, on remarque des endroits très brillants ; en fait la brillance à certains endroits est nettement plus forte que celle de la couche de réflexion supérieure (haut de l’inlandsis). Comme vous le voyez sur le diagramme du bas de l’illustration, la ligne de l’écho reçu de la couche de réflexion inférieure passe au-dessus de la ligne de l’écho reçu de la surface. C’est la brillance de ces segments qui indique, à ces endroits précis, la présence d’eau à l’état liquide. On constate qu’ils s’étendent sur une vingtaine de km dans la zone étudiée (entre km 45 et km 65). Le substrat est très proche, la profondeur de la poche étant évaluée à quelques dizaines de cm, probablement un mètre. On est donc en présence de ce que je qualifierai d’« anomalie », d’un volume assez étendu mais très peu profonde. La capacité de définition horizontale du radar n’est pas très bonne (en raison des longueurs d’ondes utilisées par MARSIS) surtout là où le signal de retour n’est pas fort et ne permet pas une reconstitution précise de la topographie autour de l’anomalie. La confirmation de la nature aqueuse de ce qui emplit ce volume est donnée par la « permittivité diélectrique » des couches traversées par le radar (cette permittivité étant un coefficient de pénétration/réflexion de l’onde radar). La glace se laisse pénétrer (permittivité tendant vers zéro), l’eau agit comme un miroir et elle a un coefficient très élevé; l’eau pure peut atteindre 78. Ici le coefficient constaté se situe pour l’essentiel entre 10 et 50 ; C’est évidemment beaucoup plus bas mais très nettement supérieur à celui d’autres éléments (rocheux) possibles (autour de l’anomalie le coefficient va de 4 à 12) et c’est aussi comparable à ce qu’on a obtenu pour des poches d’eau liquide sous la glace dans l’Antarctique ou au Groenland. On a donc affaire sans doute à une eau impure, c’est-à-dire à une saumure riche en sels de toutes sortes constatés ailleurs en surface de Mars, notamment en raison de la dissolution des fameux perchlorates de magnésium, de calcium et de sodium observés à une latitude un peu plus basse (68°N) par Phoenix en 2008 (et plus bas par les autres robots fonctionnant en surface). L’état liquide s’explique par la composition du liquide (saumure), la pression importante résultant de la masse de glace et aussi par la température interne de la planète. La température doit remonter, en descendant de la surface extérieure de la glace jusqu’au contact de l’anomalie, de 160°K (-113°C) aux environ de 205°K (-68°C) alors que le point de glaciation de l’eau, compte tenu des sels dissous, doit se situer entre 198°K et 204°K (-75°C à – 69°C). On se trouve donc, dans l’anomalie, quelque part au-dessus de ce seuil de 198°K.

Réflexion :

Peut-il y avoir de la vie dans ces conditions ? La réponse est « on ne sait pas ». Dans l’environnement terrestre aucune vie microbienne active n’a jamais été constatée à cette température et dans cette probable salinité. A noter que la température de l’eau du lac Vostok (eau douce !), sous la calotte-polaire de l’Antarctique, où l’on a effectivement trouvé des extrêmophiles, se situe autour de -3°C. Si des organismes vivants se trouvent dans cette anomalie martienne ils doivent provenir d’une souche développée ailleurs sur la planète où les conditions sont ou ont été moins hostiles. Cela suppose également qu’il y ait eu de la vie sur Mars, ce qu’on ne sait toujours pas.

Donc, « ne nous emballons pas » ! Il faut très certainement de l’eau liquide pour qu’il y ait de la vie mais ce n’est pas parce qu’il y a de l’eau liquide quelque part, qu’il y a de la vie.

Il y a d’autres endroits sur Mars où l’eau pourrait être liquide. Je pense aux suintements en surface (où dans le sous-sol immédiat protégé des radiations) dans une petite fourchette de degrés (-10°C à + 4°C ?) dans les régions où la pression atmosphérique est supérieure à celle du point triple de l’eau (610 Pascals) soit notamment le fond du Bassin d’Hellas (-8 km du datum) où la pression est la plus forte (jusqu’à 1100 Pascals). Pour le reste, ce serait évidemment passionnant de trouver des poches d’eau à l’intérieur du sous-sol de Mars aux latitudes moyennes ou sous les inlandsis à ces latitudes que l’on a observés un peu partout et où le froid est peut-être moins intense. Pour l’instant et c’est la mauvaise nouvelle, MARSIS, ni l’autre radar embarqué sur MRO (NASA), SHARAD (qui pénètre moins profondément le sol car il opère a des fréquences plus élevées – HF vers 10Mhz), n’ont trouvé nulle part de telles poches et pourtant, ils cherchent !

Image à la Une : données radar collectées par MARSIS, crédit R.Orosei et al. Science, doi :10.1126/science.aar7268 (2018). Cette image et ce graphique sont l’occasion de mettre en avant la difficulté de l’analyse des données reçues des instruments d’observation. Le “lac” mentionné à l’envie par les media n’est pas aussi clairement identifiable que sur la photo d’un magazine de voyages.  

Lecture : “Radar evidence of subglacial liquid water on Mars” publié dans Science le 25 juillet par R. Orosei et al. (istituto Nazionale dei Astrofisica, Bologne :

https://www.sciencemagazinedigital.org/sciencemagazine/03_august_2018/MobilePagedReplica.action?u1=40952320&pm=2&folio=490#pg102

http://science.sciencemag.org/content/sci/suppl/2018/07/24/science.aar7268.DC1/aar7268_Orosei_SM.pdf

Le 31 juillet, Mars sera au plus près de la Terre. Mais qu’est-ce que cela veut dire ?

Après être passé à l’« opposition » du Soleil, le 27 juillet, c’est-à-dire avoir intersecté sur son orbite une ligne prolongeant l’axe Soleil – Terre à l’« opposé » du Soleil, la planète Mars sera le 31 juillet au plus près de la Terre, à 57.614.515 km, du moins pour ce qui est de la révolution synodique dans laquelle nous nous trouvons. Ce ne sera cependant pas le minimum possible puisqu’il est de 54.546.844 km (différence entre aphélie terrestre et périhélie martien). Cet événement que nous allons vivre n’en est pas moins rare. Le passage récent le plus proche, on pourrait dire d’une « rareté intermédiaire », à 55.758.118 km, a eu lieu le 26 août 2003. Nous n’avions pas été aussi proches de Mars depuis 59.619 ans et nous ne le serons plus avant le 28 août 2287 (55.688.405 km). Mais lors du prochain « rendez-vous » synodique, le 13 Oct. 2020, la distance sera de 62,1 millions de km (le maximum étant la différence entre l’aphélie martien et le périhélie terrestre soit 99.630.843 km).

La raison de ces différences c’est que Mars parcourt une orbite beaucoup plus longue que celle de la Terre (normal puisqu’elle est plus éloignée du Soleil) et qu’elle le fait à des vitesses nettement différentes selon qu’elle s’approche ou s’éloigne du Soleil (max. 26,499 km/s et min 21,972 km/s) parce que son orbite est très excentrique (0,09341233). Autrement dit Mars est au plus près du Soleil (périhélie) à 206.644.545 et au plus loin (aphélie) à 249.228.730 km alors que la Terre a une orbite beaucoup plus circulaire (excentricité 0,01671022), avec des extrêmes de 149.597.887,5 km et 152.097.701 km. La vitesse de la Terre est plus grande (normal puisqu’elle est plus proche du Soleil) et avec des variations moindres en raison de cette faible excentricité (30,287 km/s et 29,291 km/s aux extrêmes).

NB: Sur le long terme il y a évolution. Les planètes appartiennent à un système et sont soumises à l’influence des autres composants de ce système, notamment celle des planètes géantes. Le grand axe de l’ellipse de l’orbite de Mars fait « le tour du cadran » en 135.000 ans et au cours de cette période, la forme de l’ellipse se déforme, l’excentricité se réduisant puis ré-augmentant, mais la longueur du trajet parcouru et la vitesse moyenne (24,077 km/s pour Mars) à laquelle elle l’est, restent les mêmes.

Le résultat de ces différences c’est que les planètes en parcourant leur orbite, “se rejoignent” en opposition après des durées différentes de leur propre année. L’année martienne est de 686,96 jours mais sa période synodale (le temps qui sépare deux positions identiques de Mars dans notre ciel terrestre), est de 779,96 jours, soit deux ans et 50 jours (presque 26 mois) car la planète est plus lente que la Terre. Nous la retrouvons donc à la fin de cette période synodale, un peu plus loin sur notre orbite que ne donnerait un déplacement de Mars à notre propre vitesse, soit la distance parcourue entre 779,96 et 686,96 jours à la vitesse de Mars. Et cette distance est variable puisque la « rencontre » va se faire à un endroit de l’orbite de Mars où cette dernière est en phase de ralentissement ou d’accélération. A cette « complication » il faut ajouter celle, plus légère, de la vitesse différente de la Terre et de sa distance différente (compte tenu de son excentricité, certes faible mais réelle). Pour faire « le tour du cadran » (aller de la position où les deux planètes sont au plus près, à celle où elles sont au plus loin puis au plus près), il faut environ 15 ans (de 15 à 17 ans) mais le retour n’assure pas la situation optimale. Le passage au plus près peut se faire alors que les planètes ne sont pas sur leur orbite à l’aphélie pour la Terre et au périhélie pour Mars, d’où les espaces de temps très longs entre rencontres optimales mentionnés dans le premier paragraphe.

Le résultat c’est aussi que, après avoir « dépassé » Mars sur sa voie quasiment parallèle, la Terre la laisse derrière elle et s’en éloigne de plus en plus. Le point symétrique de l’opposition, c’est la « conjonction » c’est-à-dire la position où Mars et la Terre se trouve sur une même ligne avec le Soleil mais avec le Soleil au milieu (le terme remonte à l’ancienne astronomie où l’on n’avait aucune notion de la distance des astres et où l’on pouvait penser que la planète rejoignait le Soleil et c’est bien ce qui se passe visuellement). Cette situation se retrouve au milieu de chaque période synodique ; il faut donc également 779,96 jours pour se retrouver d’une conjonction à la suivante. La particularité remarquable de cette situation pour l’époque astronautique dans laquelle nous entrons, c’est que pendant une quinzaine de jours les communications entre les planètes par ondes électromagnétiques sont impossibles du fait de l’obstacle que constitue le Soleil (elles ne le traversent évidemment pas !)*. L’autre particularité c’est qu’à ce moment là les deux planètes sont le plus éloignées qu’il est possible qu’elles soient au cours d’un cycle synodique (401.326.431 millions de km lorsque la Terre est à son périhélie alors que Mars est à son aphélie, actuellement, et seulement 201.144.731 millions lorsqu’elles seront toutes deux à leur périhélie de part et d’autre du Soleil).

*un jour sans doute, on positionnera des satellites « troyens » sur l’orbite de Mars d’une part ou de la Terre d’autre part, pour servir de relais…ce qui permettra les communications entre les deux planètes mais rallongera un peu la durée nécessaire aux échanges alors que cette durée est déjà maximum (22 minutes dans un seul sens).

Alors pour aller sur Mars, quelle distance faut-il parcourir ? Certains se contenteraient bien de 55 millions de km mais…c’est tout simplement impossible, sauf pour la lumière (qui n’a pas de masse) et la distance de conjonction (401 millions de km maximum aujourd’hui) ne sera même pas suffisante comme je vous le dirai plus tard. Mais considérons d’abord les 55 millions de km. Il faut bien voir que lorsque l’on quitte la Terre on est animé par la vitesse…de la Terre (quelques 30 km/s) et qu’on se déplace sur son orbite. Avec nos moyens technologiques (propulsion chimique), on peut espérer au mieux acquérir une vitesse supplémentaire initiale de quelques 3,5 km/s, après libération de l’attraction terrestre, vitesse qui nous permet de nous en éloigner tangentiellement et qui, de plus, se réduira petit à petit. Il nous faut d’abord sortir de la « sphère de Hill » de la Terre (le volume où l’attraction terrestre bien que faible reste dominante sur tout troisième corps, par rapport à celle du Soleil, de telle sorte qu’une satellisation autour de la Terre y est toujours possible) et on en sort (dans l’hypothèse des 3,5 km/s) avec une vitesse de l’ordre de 2,5 km/s. Ensuite on va aller doucement vers Mars en perdant sous l’influence gravitationnelle solaire, de plus en plus de vitesse. On arrive ainsi, péniblement, à proximité de Mars à une vitesse proche de celle-ci (une vingtaine de km/s).

Pour se déplacer dans l’espace, tout petits et faibles que nous sommes, il nous faut donc faire comme au judo, utiliser la force des « adversaires » (ces forces qui frontalement nous dominent) et d’abord profiter de la vitesse de la Terre et ensuite de la capture par la gravité martienne. Car il faut aussi ne pas aller trop vite en arrivant dans l’environnement de Mars, sinon il faudrait freiner donc dépenser de l’énergie, donc gaspiller de la masse et du volume. En arrivant plus ou moins à la vitesse de Mars, nous allons naturellement « tomber » sur Mars et ne devrons utiliser notre énergie que pour freiner notre chute, d’autant qu’à vitesse réduite on pourra bénéficier du freinage « naturel » et gratuit offert par son atmosphère (en le modulant en fonction de l’angle de pénétration choisi).

Alors, si on ne peut pas espérer se limiter aux 55 millions de km (et quelques!) de l’opposition, arrivera-t-on au voisinage de Mars à son point de conjonction par rapport à notre position de départ (départ tangentiel, arrivée tangentielle), après n’avoir parcouru au pire que 401 millions de km ? Certainement pas. Il faudra compter au moins une centaine de millions de km de plus car le Soleil est là et sa masse courbe les trajectoires du fait de la gravité qu’elle génère. On est obligé de subir cette contrainte en parcourant non pas une ligne droite mais un arc d’ellipse, plus ou moins long en fonction de la position respective de Mars par rapport à son périhélie et son aphélie…et par rapport à notre date de départ.

Il faut en effet penser à la date. Quand on part de la Terre vers Mars ou de Mars vers la Terre, il faut s’assurer que non seulement on rejoindra l’orbite de la planète de destination mais que la planète sera bien là quand on y arrivera et cette date essentielle, on la retrouve tous les 26 mois (encore la période synodale). On parle de « fenêtre de lancement » et inutile de rêver à des dates en dehors de ces fenêtres, les couts énergétiques et donc de masses utiles transportées, deviennent très vite tout à fait exorbitants et rédhibitoires. On ne peut pas « courir » après Mars ou la Terre en accélérant si nous l’avons « ratée » ; nous n’avons pas et n’aurons jamais la puissance nécessaire.

Jouer avec cette mécanique dont les paramètres variables sont très nombreux est une science, celle de l’astronautique, et elle est encore plus complexe à maîtriser que la science de la navigation car elle fait intervenir la dimension du Temps et celle de l’énergie disponible au départ, dans des conditions extérieures particulièrement hostiles. Aucune faute ne peut être pardonnée*.

*il y a bien, dans certains cas, possibilité d’une trajectoire dite “de libre retour” mais celle-ci n’est possible qu’à une certaine vitesse d’arrivée à hauteur de l’orbite de Mars donc d’une certaine vitesse impulsée au départ de la Terre (propulsion chimique)…C’est un autre sujet!

Image à la Une: trajectoire apparente de Mars dans le ciel de la Terre au cours de la période. Vous remarquerez la boucle de cette trajectoire. Elle est due à ce que la Terre se déplace plus vite que Mars dans le système solaire. Ici nous la rattrapons et la dépassons (elle est devant nous jusqu’à la boucle et nous la laissons derrière nous après).

NB: pour référence notre distance à Jupiter varie de 588,52 à 968,72 millions de km et notre distance à Vénus de 40,66 à 261,04 millions de km.

lecture: un exemple d’étude de trajectoires, “Interplanetary Mission Design Handbook (NASA 1998) : Earth-to-Mars Mission Opportunities and Mars-to-Earth Return Opportunities 2009–2024”:

http://www.ltas-vis.ulg.ac.be/cmsms/uploads/File/InterplanetaryMissionDesignHandbook.pdf

La pérennité du « Système de support vie avancé » du vaisseau Terre est en question, nous sommes responsables

Nous sommes tous embarqués dans le vaisseau-spatial « Terre » qui, sous l’emprise gravitationnelle de son étoile, le Soleil, orbite autour du centre de notre galaxie à la vitesse “folle” de 200 km/s. Notre système approche et s’éloigne des systèmes voisins mais les distances aux étoiles proches qui sont emportées comme nous-mêmes dans cette gigantesque ronde, restent énormes puisqu’elles se chiffrent en années-lumière, 4,3 pour Proxima du Centaure notre plus proche voisine aujourd’hui. Il faut environ 27.000 ans à la lumière émise par le Soleil pour parvenir jusqu’au centre de la Voie Lactée dont le diamètre est d’environ 100.000 années-lumière et dont nous ne faisons le tour qu’en 240 millions d’années. La dernière fois que nous étions au même endroit par rapport à ce centre, le Trias de notre histoire géologique commençait et la vie récupérait après l’une des grandes-extinctions les plus terribles connues qui avait marqué la fin du Permien. Les premiers dinosaures ainsi que les thérapsides, nos ancêtres reptiliens qui avaient survécu à un abaissement considérable de la quantité d’oxygène dans l’atmosphère, avaient un boulevard devant eux.

Le temps a passé, les dinosaures ont acquis une position dominante puis ont disparu lors de la grande-extinction suivante qui a laissé le champ libre aux mammifères il y a 65 millions d’années et nous voici, nous les hommes, petits nouveaux en ce monde puisque notre espèce ne remonte qu’à 3 millions d’années, pleins de capacités extraordinaires mais aussi pleins d’arrogance, en train de provoquer la « sixième » grande-extinction ! Il ne faut en effet pas être « grand-clerc » pour constater la catastrophe écologique dans laquelle nous nous enfonçons, de notre fait. Mais nous avons des œillères et en plus la vue courte.

Où en sommes-nous ? La population humaine de la Terre a dépassé les 7,3 milliards d’individus, elle n’avait pas atteint les 2,5 milliards quand je suis né, avant 1950, et on nous dit qu’elle pourrait dépasser les 9 milliards en 2050 (projection moyenne). Certains s’en réjouissent, d’autres s’en moquent, je m’en effraie. Réfléchissons ! Un quadruplement en cent ans, est-ce bien raisonnable ? Sommes-nous si certains que notre « vaisseau » Terre disposera, demain comme aujourd’hui, des ressources nécessaires et que nous saurons les exploiter de telle sorte qu’elles restent suffisantes et puissent se renouveler pour « la suite » ? Déjà nos frères animaux non-domestiques disparaissent par espèces entières à une vitesse effectivement indicative d’une grande extinction. Notre égoïsme est insondable ; nous ne pensons qu’à nous. Mais au-delà de cet aspect moral, nous faisons comme si nous n’avions pas besoin des autres formes de vie, comme si leur disparition pouvait nous laisser indemnes, comme si nous étions de purs esprits. Nous persévérons dans les comportements suicidaires. Les sacs plastiques envahissent non seulement nos décharges sauvages sur Terre mais aussi nos océans. Le taux de gaz carbonique atteint des niveaux jamais atteints depuis des centaines de millions d’années, les poussières de natures diverses nous empoisonnent littéralement, la température globale monte, les banquises de glace fondent en milliers de km3. Les coraux meurent, les tortues meurent, les poissons meurent, les insectes meurent, les oiseaux meurent, les gros mammifères sauvages ne sont plus que des souvenirs et nous pensons « nous en tirer » !? Qui va polliniser nos fleurs ? Comment contrôler notre équilibre climatique et celui, biochimique, de nos sols ? Qui va contrôler l’équilibre biologique de notre environnement, y compris microbien ? J’ai été très choqué d’apprendre récemment que la forêt avait quasiment disparu de Côte-d’Ivoire ; les média en ont vaguement parlé à l’occasion des problèmes que cela posait pour la pousse des cacaoyers ! Et le reste ? Ce pays était à 90 % couvert de forêt quand j’étais jeune. En Amazonie c’est pareil, on fait pousser du soja après avoir brûlé la forêt primaire. En Indonésie, on fait pousser des hévéas sur les cendres des arbres d’essences prodigieusement variées qui poussaient sur ce sol depuis des dizaines de millions d’années et tant pis pour ces espèces végétales et pour les orangs-outans (et les autres animaux) qui meurent par milliers alors qu’ils sont sur le point d’extinction. La forêt c’est la production d’un solde positif d’oxygène pour la planète, c’est la diversité de la vie, toutes sortes de molécules y ont été concoctées depuis plusieurs centaines de millions d’années, nous en avons besoin pour élaborer nos médicaments, pour nous nourrir, pour que les autres formes de vie puissent persister. Sommes-nous si stupides que nous pensions pouvoir nous en passer ?! Certains parmi nous sont conscients. Ils doivent non seulement alerter mais faire prendre conscience aux autres du grand danger et faire appliquer les solutions. Il n’y en pas « trente-six » mais seulement trois. Il y a obligation de résultat et la voie est très étroite.

La première solution, et ça déplaira aux « bonnes-âmes » mais tant pis, c’est de stopper l’explosion démographique. La population humaine n’est pas sur le point de disparaître faute de naissances, elle est en train d’étouffer sous les naissances. Et n’en déplaise aux mêmes bonnes-âmes c’est dans les pays « en voie de développement » et surtout en Afrique mais aussi en Asie ou en Amérique Latine que le problème se pose. C’est dans ces pays qu’il faut changer les mentalités, éduquer, introduire le planning familial, faire comprendre, car dans les autres les populations se sont stabilisées. Les adultes doivent accepter que les enfants ne soient pas la seule solution pour leur permettre de survivre dans leurs « vieux jours », les œuvres humanitaires, que leur rôle n’est pas de favoriser le plus possible de naissances mais uniquement celles pour lesquelles il y a une issue vers une bonne éducation et une évolution responsable et viable. Il est trop facile de dire qu’il y a suffisamment de richesses pour tous ou que l’on peut facilement en créer, ce n’est pas vrai.

La deuxième, c’est de gérer nos ressources et nos déchets beaucoup plus sérieusement. Une des caractéristiques essentielles de la vie depuis les premiers procaryotes c’est que l’organisme vivant se sépare de ses rejets métaboliques. Nous le faisons individuellement plus ou moins bien mais nous le faisons collectivement de façon toujours catastrophique sans nous soucier suffisamment de la récupération / réutilisation et de la pollution. Si nous ne changeons pas nos pratiques, nous sommes condamnés de ce fait à disparaître. L’écologie-industrielle théorisée par le Professeur Süren Erkman (Université de Lausanne) est la voie qu’il faut suivre. Elle consiste à refuser le retour en arrière, vers un âge d’or bucolique qui n’a jamais existé et que l’on ne pourrait plus supporter compte tenu de notre nombre et de nos standards civilisationnels, et à choisir un traitement technologique de la situation. Ne crachons pas sur le progrès, c’est la seule solution pour continuer notre développement économique tout en réduisant notre impact écologique. Cela veut dire qu’il faut être toujours plus économes de nos ressources, utiliser ces ressources en pensant toujours à limiter les dégâts que nous causons, réutiliser tout ce que nous avons déjà extrait du sol de notre planète et se mettre en capacité de le faire dès le début de tout processus industriel, pour éviter les productions trop difficiles à recycler. Pour évoluer au mieux selon cette ligne, il faut voir que les missions spatiales longues et lointaines sont des « analogues » précieux pour étudier et mettre en application la soutenabilité des processus pour la Terre; il faut prendre conscience que le contrôle des systèmes clos étudiés pour l’espace (projet MELiSSA par exemple) introduit des connaissances spécifiques indispensables pour mettre en place une « économie circulaire » sur Terre et qu’il faut donc considérer ces études avec sérieux et les faire progresser très vite (ce qui n’exclut pas, bien au contraire, l’investissement dans les innovations ni la croissance des richesses).

La troisième c’est de partir essaimer ailleurs. Nous savons que pour qu’un système aussi colossal que le système écologique anthropisé terrestre se redresse, il faut prendre en compte une force d’inertie considérable. Tel pays (dont probablement la Suisse) prendra assez facilement des mesures conservatives et dynamiques, d’autres (comme la Chine) ne les prendront que contraints et forcés par les nuisances dont ils souffrent de leur fait* mais les prendront tout de même, d’autres enfin ne le feront que sous la pression de la collectivité mondiale. Dans ces conditions nul ne peut dire aujourd’hui que les conséquences de l’accélération de l’explosion démographique et de la pollution commencée dans les années 1960 pourront être maîtrisées avant le naufrage corps et bien de notre humanité. Il nous faut une solution de rechange à un éventuel échec sur Terre. Il nous faut au moins un canot de sauvetage ou plutôt une nouvelle arche de Noé où nous tenterons de sauver ce que nous avons de plus précieux, nos graines et notre mémoire ; il nous faut très vite une base martienne créée pour durer et nous survivre en cas de besoin.

*L’exploitation des terres-rares, notamment, a conduit à des situations écologiques épouvantables.

Nous sommes responsables de notre destin. Nous avons un devoir vis-à-vis de nos ascendants dont nous portons la mémoire, vis-à-vis de nos descendants auxquels nous préparons un enfer si nous ne faisons rien ou pas assez, et vis-à-vis de l’univers entier car les êtres conscients et capables de communiquer et de se diriger en fonction de leur volonté y sont sans doute extrêmement rares ; nous sommes peut-être les seuls, un merveilleux accident non reproductible de l’Histoire. Réfléchissez et agissez! Si nous ne faisons rien ou pas assez, le Soleil et le vaisseau Terre qui lui est indissolublement lié continueront certes leur “course folle” autour du centre galactique, mais ses passagers humains, nos descendants directs, ne pourront bientôt plus s’en émerveiller ou en parler car, prisonniers de leur unique planète de naissance, ils seront tous morts étouffés par la masse de leurs enfants et sous leurs propres déjections.

Lecture :

« Vers une écologie industrielle » Par Suren Erkman chez Charles Léopold Mayer (2004).

« La guerre des métaux rares (la face cachée de la transition énergétique et numérique) » par Guillaume Pitron, éditions « Les Liens qui Libèrent » 2018.

Image à la Une: La Terre avec en premier plan la Lune. Photo prise par la sonde japonaise SELENE / “Kaguya” en 2008. Crédit JAXA / NHK. Une planète bleue et chaude dans un univers gris et noir. Toute notre humanité, toute notre histoire sont là dans ce globe précieux. Nous lui devons notre amour et notre respect.

La NASA va envoyer un hélicoptère sur Mars

Le nouvel administrateur de la NASA, Jim Bridenstine, l’a décidé, la mission « Mars-2020 » de la NASA, qui quittera la Terre en juillet 2020, emportera un mini-hélicoptère avec elle. Cela ouvre des perspectives très intéressantes.

Une difficulté majeure que les missions martiennes en surface doivent affronter est le caractère souvent extrêmement agressif du sol pour les roues puisqu’il n’y a évidemment pas de route et que par ailleurs l’érosion a été faible donc que les roches sont coupantes. On le voit bien sur les photos que Curiosity prend périodiquement de son train de roues. Elles nous inquiètent car on y voit depuis longtemps des déchirures sur la bande de roulement en aluminium alors qu’elles étaient prévues pour parcourir un terrain difficile pendant aussi longtemps que durerait l’approvisionnement en énergie de l’appareil. La conséquence est que l’on doit ménager ces roues au détriment de la visite de sites qu’on voudrait examiner de plus près. Que de fois le rover est passé hors d’atteinte de reliefs dont on ne pouvait que rêver de s’approcher ou près desquels on était passé et qu’on regrettait de ne pas avoir étudiés (par exemple les supposés tapis microbiens fossiles que la paléo-biogéologue Nora Noffke a cru voir sur le site Gillespie Lake Member fin 2014) ! Par ailleurs, la visibilité est limitée. On se demande toujours ce qu’il peut y avoir « derrière » ou « plus loin ». Enfin certains endroits peuvent être dangereux et contraindre à des détours. Rappelons-nous que Spirit s’est ensablé, que sa mission s’est de ce fait terminée prématurément et que les pentes fortes sont intéressantes à explorer (examen de leurs strates) mais qu’au-delà d’un certain degré de déclivité, on ne peut s’y risquer.

Il y a donc un besoin, celui de s’élever au-dessus du sol pour voir un peu plus loin ou pour aller « quelque part » et y aller vite (car le temps est toujours compté puisqu’on souhaite faire le maximum d’observations dans le cadre d’une mission et que le rover peut subir une défaillance fatale prématurée). Pour cela deux solutions, le plus lourd ou le plus léger que l’air. Dans les deux cas, le problème est la faible densité de l’atmosphère, en ordre de grandeur environ 100 fois moins élevée que sur Terre (610 Pascal en moyenne, au « datum », 1100 Pascal maximum, au fond du bassin d’Hellas et quelque 30 Pascal minimum, au sommet d’Olympus Mons). C’est très peu pour la portance ou la traînée (lift and drag) d’un observateur « volant ». Compte tenu de la composition de l’atmosphère (CO2), meilleure de ce point de vue que notre mélange oxygène et azote, ces facteurs donnent, pour les pressions de 600 à 1100 Pascal, l’équivalent des conditions que l’on a, sur Terre, vers 30 à 35 km d’altitude au-dessus du niveau de la mer. A ces altitudes, la stabilité est précaire et les phénomènes chaotiques possibles (nombre de Reynolds élevé). Et plus on s’élève plus cette instabilité s’aggrave. Nous ne discuterons pas ici des avantages ou des inconvénients du plus léger que l’air puisque le sujet est l’hélicoptère. Disons seulement en ce qui concerne le premier, qu’il présente l’avantage d’être peu consommateur d’énergie une fois gonflé (principalement pour la propulsion) et qu’il pourrait donc mener des missions longues. Ses inconvénients sont (1) le poids de l’enveloppe et de la structure, accessoirement du gaz – hydrogène de préférence puisque le plus léger – et (2) le volume puisque le différentiel entre pressions intérieure et extérieure est faible, et en conséquence la prise au vent.

Ce premier hélicoptère de la NASA (« Mars Helicopter Scout ») est naturellement prévu comme un essai ou une démonstration de faisabilité en situation réelle plus que comme un instrument d’observation. L’étude a commencé en 2013, avec GeorgiaTech, une des meilleures écoles d’ingénieurs des Etats-Unis, et le résultat que l’on voit sur la vidéo de la NASA est impressionnant car celle-ci montre qu’il a bel et bien volé de façon satisfaisante dans une atmosphère raréfiée équivalente à l’atmosphère martienne (composition et densité). La raison du succès est sans doute (1) la giration en sens contraire des deux rotors coaxiaux (configuration éliminant le bseoin d’un « rotor de queue »), et (2) le fait que la rotation se fait à très grande vitesse (3000 tours par minute donc 10 fois la vitesse de rotation des rotors d’hélicoptère traditionnel). La configuration assure la stabilité directionnelle (un hélicoptère « classique » se met à tourner sur lui-même si son rotor de queue est défaillant) car la rotation en sens contraire des deux rotors assurent un “couple en lacet” nul. La grande vitesse de rotation permet de générer un flux d’air vers le bas suffisamment rapide pour créer par réaction, malgré la faible densité de l’atmosphère, la sustentation requise pour soulever la masse de l’appareil soumise à la gravité martienne.

Bien sûr la masse de l’hélicoptère est faible (1,8 kg) et l’énergie embarquée étant limitée (batterie Lithium-ion rechargée par panneaux solaires sur le corps de l’hélicoptère) l’appareil ne pourra faire que de petits vols (maximum prévu de 2 à 3 minutes, par jour) d’autant que la vitesse de rotation rapide des pales doit en être très consommatrice. Ces petits vols lui permettront cependant de parcourir jusqu’à 600 mètres en distance (aller et retour!) et de monter jusqu’à 40 mètres du sol mais l’appareil pourra aussi faire du « sur-place » et cela est très important pour l’observation. Notons la taille impressionnante de ces pales : 120* centimètres (pour un corps cubique de 14 cm de côté) !  On imagine difficilement de plus gros hélicoptères martiens avec ces proportions mais ce n’est pas nécessaire si l’appareil doit simplement reconnaître le terrain sur la trajectoire d’un rover ou s’il doit prendre des photos ou analyser la composition par spectrométrie d’une roche inaccessible au rover.

*dimension pour le “diamètre” balayé (en fait deux longueurs de pales).

Entre les vols, l’hélicoptère une fois déposé au sol (détaché du « ventre » du rover) n’aura plus de connexion fixe au rover et communiquera avec lui par ondes (envoi de l’ordre de mission, retour d’images ou de données observées et renseignements sur l’état de l’appareil).

Espérons que cette démonstration technologique soit un succès. Cela faciliterait énormément les missions robotiques. Mais attention ! Sans homme en prise directe avec l’appareil (impossible compte tenu du « time-lag » entre Mars et la Terre), tout doit être programmé. L’appareil ne pourra donc servir que pour les repérages puis ensuite les observations à distance, plus que pour les collectes d’échantillons qui supposent toutes sortes de capteurs (et d’intelligence artificielle, comme on dit) qui sont probablement encore difficile à mettre au point (identification de l’objet « intéressant », descente jusqu’au sol ou en sustentation immobile à proximité, prélèvement) et qui représentent une masse complémentaire aux instruments d’observation qu’il serait de plus en plus difficile de soulever.

Image à la Une: vue d’artiste de l’hélicoptère en opération sur Mars. Crédit NASA.

Source :

NASA : note de presse 18-035 du 11 mai 2018:

https://www.nasa.gov/press-release/mars-helicopter-to-fly-on-nasa-s-next-red-planet-rover-mission