Une nouvelle Course-à-la-Lune, entre la Chine et les Etats-Unis, aura-t-elle lieu ?

La Chine révèle peu à peu ses intentions pour voyager dans l’espace profond et le moins que l’on puisse dire c’est qu’elles sont ambitieuses. La question est de savoir si le pays en a les moyens. De cela dépend la question suivante : Cette ambition pourra-t-elle relancer la très fructueuse émulation qui a existé entre les Etats-Unis et l’URSS et qui a permis les missions habitées lunaires ?

En Mars, le président, puis en mai le « chief designer » de la China Academy of Launch Vehicle (« CALT ») qui est la société publique chinoise de construction des lanceurs, ont donné des détails sur leur plus grosse fusée, la « Long-March* 9 », un lanceur « super-lourd » qui n’en est pour le moment qu’aux balbutiements de sa réalisation mais que les autorités chinoises voudraient faire voler dans les années 2030. Cette fusée serait un monstre de 100 mètres de haut, 9 ou 10 mètres de diamètre, qui aurait une masse au départ de la Terre de 4000 tonnes et qui pourrait bénéficier d’une poussée de 6000 tonnes (moteurs kérosène / oxygène liquide). Elle pourrait placer 140 tonnes en orbite basse terrestre (LEO), comme la légendaire fusée Saturn V de la NASA qui a permis la réalisation du programme lunaire Apollo, 50 tonnes sur orbite de transfert pour la Lune et 44 tonnes sur orbite de transfert pour Mars, donc déposer une vingtaine de tonnes en surface de Mars (en partant évidemment à la bonne date de la Terre). Cette fusée est donc non seulement de la classe des Saturn V, mais aussi de celle des lanceurs que les Américains s’efforcent de mettre aujourd’hui au point pour pouvoir retrouver / récupérer les performances de la Saturn V, c’est-à-dire le SLS lourd de la NASA et, dans une certaine mesure, le BFR de la société Space-X d’Elon Musk (150 tonnes en LEO et, grâce à quatre réapprovisionnements en ergols en LEO, capable de déposer 100 tonnes sur Mars). A noter que par ailleurs la Chine veut suivre la piste de la réutilisabilité ouverte par Space-X. C’est ce qu’elle prépare avec son petit lanceur Long-March 8 (7,6 tonnes en LEO), qui devrait voler vers 2021.

*en chinois mandarin “Chang Zheng”. “Longue-marche” fait référence à la retraite militaire stratégique des Communistes en 1935, pendant leur guerre civile contre les Nationalistes.

Parler de Long-March 9 c’est évidemment quelque peu anticiper car la Chine en est actuellement seulement à son lanceur Long March 5 (un vol réussi en Novembre 2016 mais encore en phase d’essais en raison d’un second vol raté en juillet 2017) qui devrait pouvoir placer 25 tonnes en LEO. Mais ce tonnage n’est pas ridicule car la fusée américaine la plus puissante aujourd’hui, la « Delta IV Heavy » (de l’United Launch Alliance, « ULA », une JV Lockheed Martin et Boeing) ne peut placer que 28,8 tonnes en LEO (Falcon 9 de Space-X peut placer 22,8 tonnes) et c’est plus que le « gros » lanceur européen, Ariane V, qui elle, ne peut placer que 20 tonnes (mais il est vrai que l’ESA « avance en reculant » dans le domaine de l’exploration de l’espace profond par vols habités). Elon Musk a un peu d’avance car son Falcon Heavy (un lancement réussi, spectaculairement) devrait pouvoir placer 64 tonnes en LEO.

On est donc bel et bien dans une course et dans cette course, quelles sont les avantages des uns et des autres ?

Les Etats-Unis, secteur public (la NASA), ont l’expérience mais aussi subissent la lourdeur des entreprises « établies » (régulations lourdes, procédures de toutes sortes, personnel nombreux, structure complexe, ingérences politiques). Leur SLS n’avance pas (même au niveau « heavy » de 70 tonnes, le « Super-Heavy » de 140 tonnes n’étant, de ce fait, qu’un rêve). Par ailleurs l’expérience a montré que l’engagement politique ne pouvait durer qu’une seule présidence (pour ne parler que de l’époque la plus récente, abandon du projet Constellation par le Président Obama, retour à une politique pro-Lune avec le président Trump).

Space-X bénéficie de l’enthousiasme, communicatif, de son patron, Elon Musk, de la créativité du secteur privé (en concurrence et forcé de ce fait d’être « meilleur que les autres ») et d’une excellente organisation (principe de modularité par utilisation répétitive d’éléments standardisés, de concentration verticale et géographique de la recherche, de la production et du montage). Sa faiblesse ressort de ses moyens de financement qui reposent largement (mais heureusement pas seulement) sur ses contrats avec la NASA et avec plus de fragilité (et indirectement via Elon Musk) sur le succès incertain des ventes des voitures Tesla.

Les Chinois ont pour eux la détermination et la continuité politique (ce que n’ont pas les Américains). Ils ont aussi moins de scrupules vis-à-vis des « droits humains » (j’imagine que beaucoup de taïkonautes se sacrifieraient volontiers, spontanément ou sur ordre, en acceptant des conditions de sécurité moindres qu’aux Etats-Unis) ou de la « protection planétaire ». Cependant, ils manquent totalement d’expérience dans les sciences de support vie. Ils doivent en avoir conscience car leur objectif avec Long-March 9 est soit une exploration habitée de notre banlieue (la Lune), soit un retour d’échantillons de Mars. A noter de plus qu’ils n’envisagent même pas de production d’ergols in situ sur Mars (ce qui justifie les moteurs fonctionnant au méthane des américains) et donc que les possibilités de « rapatrier » des charges utiles (payload) significatives (comme celle d’un équipage) sont nulles puisqu’il faudrait pour cela emporter à l’aller les ergols nécessaires au retour.

Alors que peut-il se passer ?

Si Long-March 5 passe ses tests avec succès, la Chine entrera véritablement dans la compétition et une certaine pression sera mise sur les Etats-Unis, secteur public. A ce moment-là deux politiques seraient possibles pour ces derniers: soutenir l’entreprise privée Space-X puisque c’est la formule « qui marche », ou mettre davantage de pression sur ULA pour que la JV termine le SLS (quitte à modifier drastiquement l’architecture du projet en s’inspirant de Space-X). La première solution n’est malheureusement pas la plus certaine car ni Boeing ni Lockheed Martin ne sont des « petits joueurs ». Cependant si le danger chinois se précise, les Américains ont suffisamment de fierté nationale et de capacité technologique pour réagir…et ceci serait pour le plus grand plaisir de ceux qui comme moi se désespèrent de voir l’exploration spatiale par vols habités ronronner dans des préparatifs interminables au niveau de l’orbite basse terrestre.

Image à la Une: Long March 9 en vol, vue d’artiste, crédit CALT.

Image ci-dessous (crédit CALT): Long-March 9 (“Cz-9”) comparée à Long-March 5 (“Cz-5) et aux SLS version lourde (70 tonnes en LEO, à gauche) et super-lourde (130 tonnes en LEO, à droite):

Liens :

https://www.youtube.com/watch?v=Uf3v19A7Htw&feature=push-fr&attr_tag=P5XAWRRK8Rfik-1x-6

https://spacenews.com/china-reveals-details-for-super-heavy-lift-long-march-9-and-reusable-long-march-8-rockets/

Sur Mars, les tempêtes de poussière planétaires imposeront l’utilisation de l’énergie nucléaire

Tous les trois ans martiens en moyenne*, une tempête de poussière se lève dans l’hémisphère Sud de Mars et enveloppe l’ensemble de la planète. Cette année, elle est apparue le 9 juin dans la région où opérait le rover Opportunity de la NASA. Le 10 juin, l’énergie produite par les panneaux solaires tombait à 21 Watts-heure contre environ 350 la veille et les jours précédents, et le rover entrait en veille ; simultanément le taux d’opacité de l’atmosphère, « Ƭ », montait en flèche à 10,8, beaucoup plus haut que lors de la tempête globale précédemment subie en 2007 par le même rover (Ƭ 5,5). Vers le 23 juillet, enfin, davantage de poussière retombe qu’il n’en est soulevé! On parvient donc à un renversement de situation, une sorte de phénomène de décrue, 43 jours après le début de la tempête. Il faudra bien sur un certain temps, plusieurs semaines, avant que la situation ne redevienne normale (la masse des grains de poussière est très faible et la gravité martienne seulement de 0,38g)

*Une année martienne dure 688 jours, trois ans martiens dure 5 ans et 8 mois.

Dernières mesures de production d’énergie par les panneaux solaires du rover Opportunity, crédit: NASA/JPL-CalTech/New Mexico Museum of Natural History.

Les tempêtes de poussière sont inévitables sur Mars puisqu’il n’y a pas d’eau liquide en surface et que, comme dans toute atmosphère (ou comme dans tout fluide), des mouvements de convection résultant des changements de température, emportent les éléments qu’ils peuvent soulever, dans leurs déplacements. Actuellement l’explication est la suivante : les rayons du soleil (lumineux et autres) frappent le sol de la planète et le réchauffe. Le sol chauffe la couche d’atmosphère à son contact. Celle-ci (relativement plus légère) se trouve confrontée à la couche supérieure plus froide (relativement plus lourde). L’élément léger monte, l’élément froid descend, le mouvement est lancé et il va avoir d’autant plus d’intensité qu’il se généralise et que les contrastes de températures sont importants. Or, à l’arrivée du Printemps dans l’hémisphère Sud*, on sort d’une période d’hiver long et très froid (la saison correspond à l’aphélie de la planète sur son orbite ; elle est alors au plus loin du Soleil et se déplace à vitesse croissante vers des conditions exactement opposées). C’est donc dans ces périodes que les vents martiens soulèvent le plus de poussière. Cette poussière faisant écran à la déperdition de température la nuit (effet de serre) on obtient des nuits moins froides, de l’air de surface moins froid et un sol qui se réchauffe plus lentement, idéal pour un effet qui s’auto-entretient et s’intensifie, jusqu’à retrouver un nouvel équilibre. Bien sûr « la mayonnaise » ne prend pas à toutes les occasions et elle « prend » plus ou moins fort, sans doute en raison des particularités géographiques des endroits où elle commence et sans doute parce que certaines années la jonction de plusieurs départs en même temps dans une même région ne se fait pas. Toujours est-il que le risque existe et que la probabilité qu’il se concrétise est forte.

*dans l’hémisphère Sud de Mars, le dernier équinoxe de printemps a eu lieu le 22 mai, le solstice d’été sera le 16 octobre 2018.

Les conséquences de ces tempêtes planétaires (ou « globales » comme on dit en Anglais) sont très importantes. Elles constituent des obstacles à l’exploration robotiques et demain à l’installation de l’homme sur Mars.

D’abord, l’écran constitué par les masses de poussière soulevées fait obstacle à la collecte de l’énergie solaire. Sur le graphique fournis par la NASA on voit qu’en deux jours, l’énergie disponible pour la maintenance et le fonctionnement d’Opportunity a été divisée par 15. Si l’on utilise l’énergie solaire pour les instruments d’exploration ou demain dans les bases solaires, il faut donc pouvoir passer très vite sur une autre source.

La seconde conséquence négative, c’est la réduction de la luminosité. Sur les photos du Soleil prises par le rover Opportunity (Image en tête d’article), on voit en deux jours, la luminosité passer d’une opacité quasi nulle (taux  = 1) à une opacité maximum (11). Pendant la tempête, le rover Curiosity a continué à fonctionner (énergie nucléaire) et sur les photos prises, on n’a pas la même impression d’obscurité mais plutôt d’un fort rougeoiement de l’image (très peu de lumière bleue et verte peuvent pénétrer l’écran de poussière en raison de leurs longueurs d’ondes). On peut donc penser que des moyens sont déjà disponibles pour améliorer la luminosité des caméras et donc des optiques que pourront porter les astronautes en mission sur Mars, mais surtout que la densification de l’atmosphère (son encombrement par des poussières) n’est pas telle qu’elle empêche de voir à quelques centaines de mètres.

Roche “Duluth”, photo prise le 21 mai (à gauche) et le 17 juin (à droite) crédit: NASA/JPL-Caltech/MSSS. Il faut noter que le taux d’opacité ajoute une baisse de luminosité au “virage” vers le rouge: temps d’exposition à gauche 7,3 millisecondes et à droite 66 millisecondes.

La troisième conséquence, c’est le risque de grippage des instruments et véhicules. La poussière est constituée de grains plus ou moins fins mais les particules de seulement quelques microns sont très abondantes et comme ce sont elles qui sont le plus soulevées par la tempête, ce sont elles qui posent problème, d’autant que la sécheresse, favorise l’électricité statique qui les rend collantes. Les grains de poussière portés par le vent vont s’insinuer partout et en particulier dans tout ce qui est interstices et articulations, les replis des combinaisons spatiales, les points de jonction des pièces métalliques, les serrures, toutes les jonctions de pièces mobiles. Il faudra prévoir des instruments de nettoyage particulièrement puissants et efficaces (et des surfaces de vêtements et d’instruments antistatiques) car il n’est pas question de laisser rentrer la poussière dans les habitats (les particules fines sont dangereuses pour la santé ; inhalées, elles pénétreraient profondément dans les poumons et pourraient y causer des dégâts – silicose – d’autant qu’elles sont beaucoup moins érodées que sur Terre, sans être aussi acérées que sur la Lune).

La troisième conséquence c’est que la durée contraint à l’adaptation. Un des avantages majeurs de Mars par rapport à la Lune c’est que la nuit n’y dure qu’une partie du jour (“sol”). Dans le cas d’une tempête globale ce n’est plus le cas et il faut s’adapter. Les plantes qui pousseront dans les serres ne pourront pas attendre 43 jours que la lumière revienne. Certains travaux en cours qui nécessitent des sorties devront pouvoir être interrompus, des atterrissages devront pouvoir être différés, des contrôles ou des commandes à distance interrompus, pendant la durée nécessaire.

La leçon que l’on doit tirer de ce phénomène est à mon avis la suivante : la continuité de fonctionnement du dispositif d’approvisionnement en énergie et la fiabilité de la source étant primordiales puisque c’est d’elles que dépend le support vie, il n’y a pas d’alternative à l’énergie nucléaire. Pour cela il y a heureusement une solution en vue, le projet KRUSTY (Kilowatt Reactor Using Stirling TechnologY) sur lequel la NASA travaille (voir mon article sur ce blog, paru le 20/02/18). Des tests, satisfaisants (cf lien* ci-dessous) ont été menés de Novembre 2017 à Mars 2018. Ces petits réacteurs nucléaires de petite puissance thermique (40 Kw) sont couplés à des moteurs Stirling pour délivrer une puissance électrique de 10 Kw. D’après la NASA, quatre réacteurs KRUSTY seraient suffisants pour alimenter une base d’exploration de quatre personnes pendant 10 ans. Ils ont un cœur d’Uranium 235 (235U) mais, afin d’éviter la fission spontanée (et faciliter le transport !), les ingénieurs de KRUSTY limitent l’utilisation de cette matière à 43 kg, en-dessous de la masse critique qui est de 48kg. La réaction peut être activée grâce à une enceinte en béryllium (réflecteur) et déclenchée/interrompue par une barrette en carbure de bore amovible, au centre de la masse d’uranium. La masse d’uranium est elle-même stabilisée sur le plan physique (pour éviter les problèmes de changement de phase, de température de fusion trop basse et améliorer la résistance au fluage à haute température) par un alliage avec du molybdène (7%).

Bien entendu recourir à cette source nucléaire n’exclut pas que l’on utilise le solaire ou éventuellement le géothermique (quand on trouvera un point chaud exploitable en surface !) mais la sécurité impose une source d’énergie indépendante des conditions climatiques. Par ailleurs, en période critique, aucune sortie (EVA) ne devra être autorisée pour une période dépassant une journée, sans une source d’énergie chimique (avec réserves suffisantes) ou nucléaire dans le véhicule.

NB : vous remarquerez que je n’aborde pas le faux « problème » de la force du vent, cette grossière erreur d’Andy Weir dans son roman « Seul sur Mars ». La très faible densité de l’air martien rend tout simplement impossible la destruction de la base par une tempête comme il l’imagine.

Image à la Une: évolution sur deux jours de l’opacité (9 et 10 juin) de l’atmosphère martienne vue par le rover Opportunity. Chaque prise de vue correspond à un taux d’opacité (“tau”). De gauche à droite, on passe de 1 à 3,; 5; 7 ;9 et 11. Crédit: NASA/JPL-Caltech/TAMU,

Image ci-dessous (crédit: NASA/JPL-Caltech/MSSS) : Photos du paysage vers le bord du cratère, prises le 7 juin (à gauche) et le 10 juin (à droite) par Curiosity. La baisse de lumière est moins dramatique que dans l'”Image à la Une” car la caméra de Curiosity ne fait pas face au Soleil et donc les contrastes sont moins forts. L’heure de la prise de vue n’est pas indiquée et le taux d’obscurité était sans doute plus proche de 5 que de 10 (on est sans doute entre le deuxième et le troisième rectangle, Ƭ =4). En dépit du taux d’obscurité de toute façon élevé  on voit quand même encore assez loin.

Lien vers la note de presse de la NASA rendant compte des tests de KRUSTY :

https://www.nasa.gov/press-release/demonstration-proves-nuclear-fission-system-can-provide-space-exploration-power

Un petit peu d’eau liquide sous la calotte-polaire australe de Mars. Un lac? Pas vraiment!

Des chercheurs travaillant avec le radar MARSIS à bord du satellite Mars Express de l’ESA, viennent de déduire de leurs observations, la probabilité forte d’eau liquide sous la calotte-polaire située au Pôle Sud de Mars. On s’y attendait. C’est une constatation importante mais ce n’est pas une découverte qui change vraiment les perspectives que nous avons de trouver de la vie sur Mars.

Les faits :

Le radar « MARSIS » ( pour « Mars Advanced Radar for Subsurface and Ionosphere Sounding ») observe le sol et le sous-sol de Mars depuis Juillet 2005 à partir d’une altitude variant de 800 à 1200 km. Les données exploitées pour le sujet ici traité ont été collectées de mai 2012 à décembre 2015. Le travail de recherche a été mené par une équipe de scientifiques italiens dont l’auteur principal est Roberto Orosei de l’Istituto Nazionale dei Astrofisica, de Bologne.

MARSIS est doté de deux antennes qui permettent de capter en même temps les échos provenant du sol et du sous-sol et il a été placé sur une orbite qui permet de passer au-dessus de l’ensemble de la surface de Mars. La technique radar utilisée, « RES » (« Radio Echo Sounding »), consiste à émettre des ondes à basses fréquences (radio, limite MF/HF) et à en récolter les échos. C’est la technique dont on se sert sur Terre pour détecter l’eau liquide sous les couches de glace.

La découverte se situe à 81°de latitude Sud (région de Planum Australe) donc tout prêt du pôle géographique actuel de Mars qui est couvert d’une calotte de glace d’eau permanente et d’une couche de gaz carbonique saisonnière. A noter que le Pôle Sud de Mars connait des températures beaucoup plus froides que le pôle Nord car l’hiver austral a lieu alors que Mars est au plus loin du Soleil (aphélie sur une ellipse allongée) et il est beaucoup plus long que l’hiver boréal car étant plus éloignée du Soleil, la planète se déplace alors à une vitesse plus faible (min. 21,92 km/s au lieu de 26,5 km/s max.).

Comme on le voit sur l’illustration de l’article, le radar a rencontré deux couches essentielles de réflexion. La première, la plus haute, est la ligne plate de la surface de l’inlandsis (limite entre deux milieux), la plus basse est la ligne moins régulière du socle sur lequel repose l’inlandsis, à 1,4 km en dessous. Entre les deux, les couches de dépôts de glace, « SPLD » (pour « South Polar Layered Deposits ») dont on voit vaguement qu’il y en a plusieurs, correspondent aux changements climatiques qu’a connu la planète et aux limites desquelles a dû se déposer de la poussière. Le contenu de poussière dans la glace vers la surface, est de l’ordre de 10 à 20%, vers le socle la pureté est beaucoup plus grande.

Sur la couche de réflexion inférieure, on remarque des endroits très brillants ; en fait la brillance à certains endroits est nettement plus forte que celle de la couche de réflexion supérieure (haut de l’inlandsis). Comme vous le voyez sur le diagramme du bas de l’illustration, la ligne de l’écho reçu de la couche de réflexion inférieure passe au-dessus de la ligne de l’écho reçu de la surface. C’est la brillance de ces segments qui indique, à ces endroits précis, la présence d’eau à l’état liquide. On constate qu’ils s’étendent sur une vingtaine de km dans la zone étudiée (entre km 45 et km 65). Le substrat est très proche, la profondeur de la poche étant évaluée à quelques dizaines de cm, probablement un mètre. On est donc en présence de ce que je qualifierai d’« anomalie », d’un volume assez étendu mais très peu profonde. La capacité de définition horizontale du radar n’est pas très bonne (en raison des longueurs d’ondes utilisées par MARSIS) surtout là où le signal de retour n’est pas fort et ne permet pas une reconstitution précise de la topographie autour de l’anomalie. La confirmation de la nature aqueuse de ce qui emplit ce volume est donnée par la « permittivité diélectrique » des couches traversées par le radar (cette permittivité étant un coefficient de pénétration/réflexion de l’onde radar). La glace se laisse pénétrer (permittivité tendant vers zéro), l’eau agit comme un miroir et elle a un coefficient très élevé; l’eau pure peut atteindre 78. Ici le coefficient constaté se situe pour l’essentiel entre 10 et 50 ; C’est évidemment beaucoup plus bas mais très nettement supérieur à celui d’autres éléments (rocheux) possibles (autour de l’anomalie le coefficient va de 4 à 12) et c’est aussi comparable à ce qu’on a obtenu pour des poches d’eau liquide sous la glace dans l’Antarctique ou au Groenland. On a donc affaire sans doute à une eau impure, c’est-à-dire à une saumure riche en sels de toutes sortes constatés ailleurs en surface de Mars, notamment en raison de la dissolution des fameux perchlorates de magnésium, de calcium et de sodium observés à une latitude un peu plus basse (68°N) par Phoenix en 2008 (et plus bas par les autres robots fonctionnant en surface). L’état liquide s’explique par la composition du liquide (saumure), la pression importante résultant de la masse de glace et aussi par la température interne de la planète. La température doit remonter, en descendant de la surface extérieure de la glace jusqu’au contact de l’anomalie, de 160°K (-113°C) aux environ de 205°K (-68°C) alors que le point de glaciation de l’eau, compte tenu des sels dissous, doit se situer entre 198°K et 204°K (-75°C à – 69°C). On se trouve donc, dans l’anomalie, quelque part au-dessus de ce seuil de 198°K.

Réflexion :

Peut-il y avoir de la vie dans ces conditions ? La réponse est « on ne sait pas ». Dans l’environnement terrestre aucune vie microbienne active n’a jamais été constatée à cette température et dans cette probable salinité. A noter que la température de l’eau du lac Vostok (eau douce !), sous la calotte-polaire de l’Antarctique, où l’on a effectivement trouvé des extrêmophiles, se situe autour de -3°C. Si des organismes vivants se trouvent dans cette anomalie martienne ils doivent provenir d’une souche développée ailleurs sur la planète où les conditions sont ou ont été moins hostiles. Cela suppose également qu’il y ait eu de la vie sur Mars, ce qu’on ne sait toujours pas.

Donc, « ne nous emballons pas » ! Il faut très certainement de l’eau liquide pour qu’il y ait de la vie mais ce n’est pas parce qu’il y a de l’eau liquide quelque part, qu’il y a de la vie.

Il y a d’autres endroits sur Mars où l’eau pourrait être liquide. Je pense aux suintements en surface (où dans le sous-sol immédiat protégé des radiations) dans une petite fourchette de degrés (-10°C à + 4°C ?) dans les régions où la pression atmosphérique est supérieure à celle du point triple de l’eau (610 Pascals) soit notamment le fond du Bassin d’Hellas (-8 km du datum) où la pression est la plus forte (jusqu’à 1100 Pascals). Pour le reste, ce serait évidemment passionnant de trouver des poches d’eau à l’intérieur du sous-sol de Mars aux latitudes moyennes ou sous les inlandsis à ces latitudes que l’on a observés un peu partout et où le froid est peut-être moins intense. Pour l’instant et c’est la mauvaise nouvelle, MARSIS, ni l’autre radar embarqué sur MRO (NASA), SHARAD (qui pénètre moins profondément le sol car il opère a des fréquences plus élevées – HF vers 10Mhz), n’ont trouvé nulle part de telles poches et pourtant, ils cherchent !

Image à la Une : données radar collectées par MARSIS, crédit R.Orosei et al. Science, doi :10.1126/science.aar7268 (2018). Cette image et ce graphique sont l’occasion de mettre en avant la difficulté de l’analyse des données reçues des instruments d’observation. Le “lac” mentionné à l’envie par les media n’est pas aussi clairement identifiable que sur la photo d’un magazine de voyages.  

Lecture : “Radar evidence of subglacial liquid water on Mars” publié dans Science le 25 juillet par R. Orosei et al. (istituto Nazionale dei Astrofisica, Bologne :

https://www.sciencemagazinedigital.org/sciencemagazine/03_august_2018/MobilePagedReplica.action?u1=40952320&pm=2&folio=490#pg102

http://science.sciencemag.org/content/sci/suppl/2018/07/24/science.aar7268.DC1/aar7268_Orosei_SM.pdf

Le 31 juillet, Mars sera au plus près de la Terre. Mais qu’est-ce que cela veut dire ?

Après être passé à l’« opposition » du Soleil, le 27 juillet, c’est-à-dire avoir intersecté sur son orbite une ligne prolongeant l’axe Soleil – Terre à l’« opposé » du Soleil, la planète Mars sera le 31 juillet au plus près de la Terre, à 57.614.515 km, du moins pour ce qui est de la révolution synodique dans laquelle nous nous trouvons. Ce ne sera cependant pas le minimum possible puisqu’il est de 54.546.844 km (différence entre aphélie terrestre et périhélie martien). Cet événement que nous allons vivre n’en est pas moins rare. Le passage récent le plus proche, on pourrait dire d’une « rareté intermédiaire », à 55.758.118 km, a eu lieu le 26 août 2003. Nous n’avions pas été aussi proches de Mars depuis 59.619 ans et nous ne le serons plus avant le 28 août 2287 (55.688.405 km). Mais lors du prochain « rendez-vous » synodique, le 13 Oct. 2020, la distance sera de 62,1 millions de km (le maximum étant la différence entre l’aphélie martien et le périhélie terrestre soit 99.630.843 km).

La raison de ces différences c’est que Mars parcourt une orbite beaucoup plus longue que celle de la Terre (normal puisqu’elle est plus éloignée du Soleil) et qu’elle le fait à des vitesses nettement différentes selon qu’elle s’approche ou s’éloigne du Soleil (max. 26,499 km/s et min 21,972 km/s) parce que son orbite est très excentrique (0,09341233). Autrement dit Mars est au plus près du Soleil (périhélie) à 206.644.545 et au plus loin (aphélie) à 249.228.730 km alors que la Terre a une orbite beaucoup plus circulaire (excentricité 0,01671022), avec des extrêmes de 149.597.887,5 km et 152.097.701 km. La vitesse de la Terre est plus grande (normal puisqu’elle est plus proche du Soleil) et avec des variations moindres en raison de cette faible excentricité (30,287 km/s et 29,291 km/s aux extrêmes).

NB: Sur le long terme il y a évolution. Les planètes appartiennent à un système et sont soumises à l’influence des autres composants de ce système, notamment celle des planètes géantes. Le grand axe de l’ellipse de l’orbite de Mars fait « le tour du cadran » en 135.000 ans et au cours de cette période, la forme de l’ellipse se déforme, l’excentricité se réduisant puis ré-augmentant, mais la longueur du trajet parcouru et la vitesse moyenne (24,077 km/s pour Mars) à laquelle elle l’est, restent les mêmes.

Le résultat de ces différences c’est que les planètes en parcourant leur orbite, “se rejoignent” en opposition après des durées différentes de leur propre année. L’année martienne est de 686,96 jours mais sa période synodale (le temps qui sépare deux positions identiques de Mars dans notre ciel terrestre), est de 779,96 jours, soit deux ans et 50 jours (presque 26 mois) car la planète est plus lente que la Terre. Nous la retrouvons donc à la fin de cette période synodale, un peu plus loin sur notre orbite que ne donnerait un déplacement de Mars à notre propre vitesse, soit la distance parcourue entre 779,96 et 686,96 jours à la vitesse de Mars. Et cette distance est variable puisque la « rencontre » va se faire à un endroit de l’orbite de Mars où cette dernière est en phase de ralentissement ou d’accélération. A cette « complication » il faut ajouter celle, plus légère, de la vitesse différente de la Terre et de sa distance différente (compte tenu de son excentricité, certes faible mais réelle). Pour faire « le tour du cadran » (aller de la position où les deux planètes sont au plus près, à celle où elles sont au plus loin puis au plus près), il faut environ 15 ans (de 15 à 17 ans) mais le retour n’assure pas la situation optimale. Le passage au plus près peut se faire alors que les planètes ne sont pas sur leur orbite à l’aphélie pour la Terre et au périhélie pour Mars, d’où les espaces de temps très longs entre rencontres optimales mentionnés dans le premier paragraphe.

Le résultat c’est aussi que, après avoir « dépassé » Mars sur sa voie quasiment parallèle, la Terre la laisse derrière elle et s’en éloigne de plus en plus. Le point symétrique de l’opposition, c’est la « conjonction » c’est-à-dire la position où Mars et la Terre se trouve sur une même ligne avec le Soleil mais avec le Soleil au milieu (le terme remonte à l’ancienne astronomie où l’on n’avait aucune notion de la distance des astres et où l’on pouvait penser que la planète rejoignait le Soleil et c’est bien ce qui se passe visuellement). Cette situation se retrouve au milieu de chaque période synodique ; il faut donc également 779,96 jours pour se retrouver d’une conjonction à la suivante. La particularité remarquable de cette situation pour l’époque astronautique dans laquelle nous entrons, c’est que pendant une quinzaine de jours les communications entre les planètes par ondes électromagnétiques sont impossibles du fait de l’obstacle que constitue le Soleil (elles ne le traversent évidemment pas !)*. L’autre particularité c’est qu’à ce moment là les deux planètes sont le plus éloignées qu’il est possible qu’elles soient au cours d’un cycle synodique (401.326.431 millions de km lorsque la Terre est à son périhélie alors que Mars est à son aphélie, actuellement, et seulement 201.144.731 millions lorsqu’elles seront toutes deux à leur périhélie de part et d’autre du Soleil).

*un jour sans doute, on positionnera des satellites « troyens » sur l’orbite de Mars d’une part ou de la Terre d’autre part, pour servir de relais…ce qui permettra les communications entre les deux planètes mais rallongera un peu la durée nécessaire aux échanges alors que cette durée est déjà maximum (22 minutes dans un seul sens).

Alors pour aller sur Mars, quelle distance faut-il parcourir ? Certains se contenteraient bien de 55 millions de km mais…c’est tout simplement impossible, sauf pour la lumière (qui n’a pas de masse) et la distance de conjonction (401 millions de km maximum aujourd’hui) ne sera même pas suffisante comme je vous le dirai plus tard. Mais considérons d’abord les 55 millions de km. Il faut bien voir que lorsque l’on quitte la Terre on est animé par la vitesse…de la Terre (quelques 30 km/s) et qu’on se déplace sur son orbite. Avec nos moyens technologiques (propulsion chimique), on peut espérer au mieux acquérir une vitesse supplémentaire initiale de quelques 3,5 km/s, après libération de l’attraction terrestre, vitesse qui nous permet de nous en éloigner tangentiellement et qui, de plus, se réduira petit à petit. Il nous faut d’abord sortir de la « sphère de Hill » de la Terre (le volume où l’attraction terrestre bien que faible reste dominante sur tout troisième corps, par rapport à celle du Soleil, de telle sorte qu’une satellisation autour de la Terre y est toujours possible) et on en sort (dans l’hypothèse des 3,5 km/s) avec une vitesse de l’ordre de 2,5 km/s. Ensuite on va aller doucement vers Mars en perdant sous l’influence gravitationnelle solaire, de plus en plus de vitesse. On arrive ainsi, péniblement, à proximité de Mars à une vitesse proche de celle-ci (une vingtaine de km/s).

Pour se déplacer dans l’espace, tout petits et faibles que nous sommes, il nous faut donc faire comme au judo, utiliser la force des « adversaires » (ces forces qui frontalement nous dominent) et d’abord profiter de la vitesse de la Terre et ensuite de la capture par la gravité martienne. Car il faut aussi ne pas aller trop vite en arrivant dans l’environnement de Mars, sinon il faudrait freiner donc dépenser de l’énergie, donc gaspiller de la masse et du volume. En arrivant plus ou moins à la vitesse de Mars, nous allons naturellement « tomber » sur Mars et ne devrons utiliser notre énergie que pour freiner notre chute, d’autant qu’à vitesse réduite on pourra bénéficier du freinage « naturel » et gratuit offert par son atmosphère (en le modulant en fonction de l’angle de pénétration choisi).

Alors, si on ne peut pas espérer se limiter aux 55 millions de km (et quelques!) de l’opposition, arrivera-t-on au voisinage de Mars à son point de conjonction par rapport à notre position de départ (départ tangentiel, arrivée tangentielle), après n’avoir parcouru au pire que 401 millions de km ? Certainement pas. Il faudra compter au moins une centaine de millions de km de plus car le Soleil est là et sa masse courbe les trajectoires du fait de la gravité qu’elle génère. On est obligé de subir cette contrainte en parcourant non pas une ligne droite mais un arc d’ellipse, plus ou moins long en fonction de la position respective de Mars par rapport à son périhélie et son aphélie…et par rapport à notre date de départ.

Il faut en effet penser à la date. Quand on part de la Terre vers Mars ou de Mars vers la Terre, il faut s’assurer que non seulement on rejoindra l’orbite de la planète de destination mais que la planète sera bien là quand on y arrivera et cette date essentielle, on la retrouve tous les 26 mois (encore la période synodale). On parle de « fenêtre de lancement » et inutile de rêver à des dates en dehors de ces fenêtres, les couts énergétiques et donc de masses utiles transportées, deviennent très vite tout à fait exorbitants et rédhibitoires. On ne peut pas « courir » après Mars ou la Terre en accélérant si nous l’avons « ratée » ; nous n’avons pas et n’aurons jamais la puissance nécessaire.

Jouer avec cette mécanique dont les paramètres variables sont très nombreux est une science, celle de l’astronautique, et elle est encore plus complexe à maîtriser que la science de la navigation car elle fait intervenir la dimension du Temps et celle de l’énergie disponible au départ, dans des conditions extérieures particulièrement hostiles. Aucune faute ne peut être pardonnée*.

*il y a bien, dans certains cas, possibilité d’une trajectoire dite “de libre retour” mais celle-ci n’est possible qu’à une certaine vitesse d’arrivée à hauteur de l’orbite de Mars donc d’une certaine vitesse impulsée au départ de la Terre (propulsion chimique)…C’est un autre sujet!

Image à la Une: trajectoire apparente de Mars dans le ciel de la Terre au cours de la période. Vous remarquerez la boucle de cette trajectoire. Elle est due à ce que la Terre se déplace plus vite que Mars dans le système solaire. Ici nous la rattrapons et la dépassons (elle est devant nous jusqu’à la boucle et nous la laissons derrière nous après).

NB: pour référence notre distance à Jupiter varie de 588,52 à 968,72 millions de km et notre distance à Vénus de 40,66 à 261,04 millions de km.

lecture: un exemple d’étude de trajectoires, “Interplanetary Mission Design Handbook (NASA 1998) : Earth-to-Mars Mission Opportunities and Mars-to-Earth Return Opportunities 2009–2024”:

http://www.ltas-vis.ulg.ac.be/cmsms/uploads/File/InterplanetaryMissionDesignHandbook.pdf

La pérennité du « Système de support vie avancé » du vaisseau Terre est en question, nous sommes responsables

Nous sommes tous embarqués dans le vaisseau-spatial « Terre » qui, sous l’emprise gravitationnelle de son étoile, le Soleil, orbite autour du centre de notre galaxie à la vitesse “folle” de 200 km/s. Notre système approche et s’éloigne des systèmes voisins mais les distances aux étoiles proches qui sont emportées comme nous-mêmes dans cette gigantesque ronde, restent énormes puisqu’elles se chiffrent en années-lumière, 4,3 pour Proxima du Centaure notre plus proche voisine aujourd’hui. Il faut environ 27.000 ans à la lumière émise par le Soleil pour parvenir jusqu’au centre de la Voie Lactée dont le diamètre est d’environ 100.000 années-lumière et dont nous ne faisons le tour qu’en 240 millions d’années. La dernière fois que nous étions au même endroit par rapport à ce centre, le Trias de notre histoire géologique commençait et la vie récupérait après l’une des grandes-extinctions les plus terribles connues qui avait marqué la fin du Permien. Les premiers dinosaures ainsi que les thérapsides, nos ancêtres reptiliens qui avaient survécu à un abaissement considérable de la quantité d’oxygène dans l’atmosphère, avaient un boulevard devant eux.

Le temps a passé, les dinosaures ont acquis une position dominante puis ont disparu lors de la grande-extinction suivante qui a laissé le champ libre aux mammifères il y a 65 millions d’années et nous voici, nous les hommes, petits nouveaux en ce monde puisque notre espèce ne remonte qu’à 3 millions d’années, pleins de capacités extraordinaires mais aussi pleins d’arrogance, en train de provoquer la « sixième » grande-extinction ! Il ne faut en effet pas être « grand-clerc » pour constater la catastrophe écologique dans laquelle nous nous enfonçons, de notre fait. Mais nous avons des œillères et en plus la vue courte.

Où en sommes-nous ? La population humaine de la Terre a dépassé les 7,3 milliards d’individus, elle n’avait pas atteint les 2,5 milliards quand je suis né, avant 1950, et on nous dit qu’elle pourrait dépasser les 9 milliards en 2050 (projection moyenne). Certains s’en réjouissent, d’autres s’en moquent, je m’en effraie. Réfléchissons ! Un quadruplement en cent ans, est-ce bien raisonnable ? Sommes-nous si certains que notre « vaisseau » Terre disposera, demain comme aujourd’hui, des ressources nécessaires et que nous saurons les exploiter de telle sorte qu’elles restent suffisantes et puissent se renouveler pour « la suite » ? Déjà nos frères animaux non-domestiques disparaissent par espèces entières à une vitesse effectivement indicative d’une grande extinction. Notre égoïsme est insondable ; nous ne pensons qu’à nous. Mais au-delà de cet aspect moral, nous faisons comme si nous n’avions pas besoin des autres formes de vie, comme si leur disparition pouvait nous laisser indemnes, comme si nous étions de purs esprits. Nous persévérons dans les comportements suicidaires. Les sacs plastiques envahissent non seulement nos décharges sauvages sur Terre mais aussi nos océans. Le taux de gaz carbonique atteint des niveaux jamais atteints depuis des centaines de millions d’années, les poussières de natures diverses nous empoisonnent littéralement, la température globale monte, les banquises de glace fondent en milliers de km3. Les coraux meurent, les tortues meurent, les poissons meurent, les insectes meurent, les oiseaux meurent, les gros mammifères sauvages ne sont plus que des souvenirs et nous pensons « nous en tirer » !? Qui va polliniser nos fleurs ? Comment contrôler notre équilibre climatique et celui, biochimique, de nos sols ? Qui va contrôler l’équilibre biologique de notre environnement, y compris microbien ? J’ai été très choqué d’apprendre récemment que la forêt avait quasiment disparu de Côte-d’Ivoire ; les média en ont vaguement parlé à l’occasion des problèmes que cela posait pour la pousse des cacaoyers ! Et le reste ? Ce pays était à 90 % couvert de forêt quand j’étais jeune. En Amazonie c’est pareil, on fait pousser du soja après avoir brûlé la forêt primaire. En Indonésie, on fait pousser des hévéas sur les cendres des arbres d’essences prodigieusement variées qui poussaient sur ce sol depuis des dizaines de millions d’années et tant pis pour ces espèces végétales et pour les orangs-outans (et les autres animaux) qui meurent par milliers alors qu’ils sont sur le point d’extinction. La forêt c’est la production d’un solde positif d’oxygène pour la planète, c’est la diversité de la vie, toutes sortes de molécules y ont été concoctées depuis plusieurs centaines de millions d’années, nous en avons besoin pour élaborer nos médicaments, pour nous nourrir, pour que les autres formes de vie puissent persister. Sommes-nous si stupides que nous pensions pouvoir nous en passer ?! Certains parmi nous sont conscients. Ils doivent non seulement alerter mais faire prendre conscience aux autres du grand danger et faire appliquer les solutions. Il n’y en pas « trente-six » mais seulement trois. Il y a obligation de résultat et la voie est très étroite.

La première solution, et ça déplaira aux « bonnes-âmes » mais tant pis, c’est de stopper l’explosion démographique. La population humaine n’est pas sur le point de disparaître faute de naissances, elle est en train d’étouffer sous les naissances. Et n’en déplaise aux mêmes bonnes-âmes c’est dans les pays « en voie de développement » et surtout en Afrique mais aussi en Asie ou en Amérique Latine que le problème se pose. C’est dans ces pays qu’il faut changer les mentalités, éduquer, introduire le planning familial, faire comprendre, car dans les autres les populations se sont stabilisées. Les adultes doivent accepter que les enfants ne soient pas la seule solution pour leur permettre de survivre dans leurs « vieux jours », les œuvres humanitaires, que leur rôle n’est pas de favoriser le plus possible de naissances mais uniquement celles pour lesquelles il y a une issue vers une bonne éducation et une évolution responsable et viable. Il est trop facile de dire qu’il y a suffisamment de richesses pour tous ou que l’on peut facilement en créer, ce n’est pas vrai.

La deuxième, c’est de gérer nos ressources et nos déchets beaucoup plus sérieusement. Une des caractéristiques essentielles de la vie depuis les premiers procaryotes c’est que l’organisme vivant se sépare de ses rejets métaboliques. Nous le faisons individuellement plus ou moins bien mais nous le faisons collectivement de façon toujours catastrophique sans nous soucier suffisamment de la récupération / réutilisation et de la pollution. Si nous ne changeons pas nos pratiques, nous sommes condamnés de ce fait à disparaître. L’écologie-industrielle théorisée par le Professeur Süren Erkman (Université de Lausanne) est la voie qu’il faut suivre. Elle consiste à refuser le retour en arrière, vers un âge d’or bucolique qui n’a jamais existé et que l’on ne pourrait plus supporter compte tenu de notre nombre et de nos standards civilisationnels, et à choisir un traitement technologique de la situation. Ne crachons pas sur le progrès, c’est la seule solution pour continuer notre développement économique tout en réduisant notre impact écologique. Cela veut dire qu’il faut être toujours plus économes de nos ressources, utiliser ces ressources en pensant toujours à limiter les dégâts que nous causons, réutiliser tout ce que nous avons déjà extrait du sol de notre planète et se mettre en capacité de le faire dès le début de tout processus industriel, pour éviter les productions trop difficiles à recycler. Pour évoluer au mieux selon cette ligne, il faut voir que les missions spatiales longues et lointaines sont des « analogues » précieux pour étudier et mettre en application la soutenabilité des processus pour la Terre; il faut prendre conscience que le contrôle des systèmes clos étudiés pour l’espace (projet MELiSSA par exemple) introduit des connaissances spécifiques indispensables pour mettre en place une « économie circulaire » sur Terre et qu’il faut donc considérer ces études avec sérieux et les faire progresser très vite (ce qui n’exclut pas, bien au contraire, l’investissement dans les innovations ni la croissance des richesses).

La troisième c’est de partir essaimer ailleurs. Nous savons que pour qu’un système aussi colossal que le système écologique anthropisé terrestre se redresse, il faut prendre en compte une force d’inertie considérable. Tel pays (dont probablement la Suisse) prendra assez facilement des mesures conservatives et dynamiques, d’autres (comme la Chine) ne les prendront que contraints et forcés par les nuisances dont ils souffrent de leur fait* mais les prendront tout de même, d’autres enfin ne le feront que sous la pression de la collectivité mondiale. Dans ces conditions nul ne peut dire aujourd’hui que les conséquences de l’accélération de l’explosion démographique et de la pollution commencée dans les années 1960 pourront être maîtrisées avant le naufrage corps et bien de notre humanité. Il nous faut une solution de rechange à un éventuel échec sur Terre. Il nous faut au moins un canot de sauvetage ou plutôt une nouvelle arche de Noé où nous tenterons de sauver ce que nous avons de plus précieux, nos graines et notre mémoire ; il nous faut très vite une base martienne créée pour durer et nous survivre en cas de besoin.

*L’exploitation des terres-rares, notamment, a conduit à des situations écologiques épouvantables.

Nous sommes responsables de notre destin. Nous avons un devoir vis-à-vis de nos ascendants dont nous portons la mémoire, vis-à-vis de nos descendants auxquels nous préparons un enfer si nous ne faisons rien ou pas assez, et vis-à-vis de l’univers entier car les êtres conscients et capables de communiquer et de se diriger en fonction de leur volonté y sont sans doute extrêmement rares ; nous sommes peut-être les seuls, un merveilleux accident non reproductible de l’Histoire. Réfléchissez et agissez! Si nous ne faisons rien ou pas assez, le Soleil et le vaisseau Terre qui lui est indissolublement lié continueront certes leur “course folle” autour du centre galactique, mais ses passagers humains, nos descendants directs, ne pourront bientôt plus s’en émerveiller ou en parler car, prisonniers de leur unique planète de naissance, ils seront tous morts étouffés par la masse de leurs enfants et sous leurs propres déjections.

Lecture :

« Vers une écologie industrielle » Par Suren Erkman chez Charles Léopold Mayer (2004).

« La guerre des métaux rares (la face cachée de la transition énergétique et numérique) » par Guillaume Pitron, éditions « Les Liens qui Libèrent » 2018.

Image à la Une: La Terre avec en premier plan la Lune. Photo prise par la sonde japonaise SELENE / “Kaguya” en 2008. Crédit JAXA / NHK. Une planète bleue et chaude dans un univers gris et noir. Toute notre humanité, toute notre histoire sont là dans ce globe précieux. Nous lui devons notre amour et notre respect.

La NASA va envoyer un hélicoptère sur Mars

Le nouvel administrateur de la NASA, Jim Bridenstine, l’a décidé, la mission « Mars-2020 » de la NASA, qui quittera la Terre en juillet 2020, emportera un mini-hélicoptère avec elle. Cela ouvre des perspectives très intéressantes.

Une difficulté majeure que les missions martiennes en surface doivent affronter est le caractère souvent extrêmement agressif du sol pour les roues puisqu’il n’y a évidemment pas de route et que par ailleurs l’érosion a été faible donc que les roches sont coupantes. On le voit bien sur les photos que Curiosity prend périodiquement de son train de roues. Elles nous inquiètent car on y voit depuis longtemps des déchirures sur la bande de roulement en aluminium alors qu’elles étaient prévues pour parcourir un terrain difficile pendant aussi longtemps que durerait l’approvisionnement en énergie de l’appareil. La conséquence est que l’on doit ménager ces roues au détriment de la visite de sites qu’on voudrait examiner de plus près. Que de fois le rover est passé hors d’atteinte de reliefs dont on ne pouvait que rêver de s’approcher ou près desquels on était passé et qu’on regrettait de ne pas avoir étudiés (par exemple les supposés tapis microbiens fossiles que la paléo-biogéologue Nora Noffke a cru voir sur le site Gillespie Lake Member fin 2014) ! Par ailleurs, la visibilité est limitée. On se demande toujours ce qu’il peut y avoir « derrière » ou « plus loin ». Enfin certains endroits peuvent être dangereux et contraindre à des détours. Rappelons-nous que Spirit s’est ensablé, que sa mission s’est de ce fait terminée prématurément et que les pentes fortes sont intéressantes à explorer (examen de leurs strates) mais qu’au-delà d’un certain degré de déclivité, on ne peut s’y risquer.

Il y a donc un besoin, celui de s’élever au-dessus du sol pour voir un peu plus loin ou pour aller « quelque part » et y aller vite (car le temps est toujours compté puisqu’on souhaite faire le maximum d’observations dans le cadre d’une mission et que le rover peut subir une défaillance fatale prématurée). Pour cela deux solutions, le plus lourd ou le plus léger que l’air. Dans les deux cas, le problème est la faible densité de l’atmosphère, en ordre de grandeur environ 100 fois moins élevée que sur Terre (610 Pascal en moyenne, au « datum », 1100 Pascal maximum, au fond du bassin d’Hellas et quelque 30 Pascal minimum, au sommet d’Olympus Mons). C’est très peu pour la portance ou la traînée (lift and drag) d’un observateur « volant ». Compte tenu de la composition de l’atmosphère (CO2), meilleure de ce point de vue que notre mélange oxygène et azote, ces facteurs donnent, pour les pressions de 600 à 1100 Pascal, l’équivalent des conditions que l’on a, sur Terre, vers 30 à 35 km d’altitude au-dessus du niveau de la mer. A ces altitudes, la stabilité est précaire et les phénomènes chaotiques possibles (nombre de Reynolds élevé). Et plus on s’élève plus cette instabilité s’aggrave. Nous ne discuterons pas ici des avantages ou des inconvénients du plus léger que l’air puisque le sujet est l’hélicoptère. Disons seulement en ce qui concerne le premier, qu’il présente l’avantage d’être peu consommateur d’énergie une fois gonflé (principalement pour la propulsion) et qu’il pourrait donc mener des missions longues. Ses inconvénients sont (1) le poids de l’enveloppe et de la structure, accessoirement du gaz – hydrogène de préférence puisque le plus léger – et (2) le volume puisque le différentiel entre pressions intérieure et extérieure est faible, et en conséquence la prise au vent.

Ce premier hélicoptère de la NASA (« Mars Helicopter Scout ») est naturellement prévu comme un essai ou une démonstration de faisabilité en situation réelle plus que comme un instrument d’observation. L’étude a commencé en 2013, avec GeorgiaTech, une des meilleures écoles d’ingénieurs des Etats-Unis, et le résultat que l’on voit sur la vidéo de la NASA est impressionnant car celle-ci montre qu’il a bel et bien volé de façon satisfaisante dans une atmosphère raréfiée équivalente à l’atmosphère martienne (composition et densité). La raison du succès est sans doute (1) la giration en sens contraire des deux rotors coaxiaux (configuration éliminant le bseoin d’un « rotor de queue »), et (2) le fait que la rotation se fait à très grande vitesse (3000 tours par minute donc 10 fois la vitesse de rotation des rotors d’hélicoptère traditionnel). La configuration assure la stabilité directionnelle (un hélicoptère « classique » se met à tourner sur lui-même si son rotor de queue est défaillant) car la rotation en sens contraire des deux rotors assurent un “couple en lacet” nul. La grande vitesse de rotation permet de générer un flux d’air vers le bas suffisamment rapide pour créer par réaction, malgré la faible densité de l’atmosphère, la sustentation requise pour soulever la masse de l’appareil soumise à la gravité martienne.

Bien sûr la masse de l’hélicoptère est faible (1,8 kg) et l’énergie embarquée étant limitée (batterie Lithium-ion rechargée par panneaux solaires sur le corps de l’hélicoptère) l’appareil ne pourra faire que de petits vols (maximum prévu de 2 à 3 minutes, par jour) d’autant que la vitesse de rotation rapide des pales doit en être très consommatrice. Ces petits vols lui permettront cependant de parcourir jusqu’à 600 mètres en distance (aller et retour!) et de monter jusqu’à 40 mètres du sol mais l’appareil pourra aussi faire du « sur-place » et cela est très important pour l’observation. Notons la taille impressionnante de ces pales : 120* centimètres (pour un corps cubique de 14 cm de côté) !  On imagine difficilement de plus gros hélicoptères martiens avec ces proportions mais ce n’est pas nécessaire si l’appareil doit simplement reconnaître le terrain sur la trajectoire d’un rover ou s’il doit prendre des photos ou analyser la composition par spectrométrie d’une roche inaccessible au rover.

*dimension pour le “diamètre” balayé (en fait deux longueurs de pales).

Entre les vols, l’hélicoptère une fois déposé au sol (détaché du « ventre » du rover) n’aura plus de connexion fixe au rover et communiquera avec lui par ondes (envoi de l’ordre de mission, retour d’images ou de données observées et renseignements sur l’état de l’appareil).

Espérons que cette démonstration technologique soit un succès. Cela faciliterait énormément les missions robotiques. Mais attention ! Sans homme en prise directe avec l’appareil (impossible compte tenu du « time-lag » entre Mars et la Terre), tout doit être programmé. L’appareil ne pourra donc servir que pour les repérages puis ensuite les observations à distance, plus que pour les collectes d’échantillons qui supposent toutes sortes de capteurs (et d’intelligence artificielle, comme on dit) qui sont probablement encore difficile à mettre au point (identification de l’objet « intéressant », descente jusqu’au sol ou en sustentation immobile à proximité, prélèvement) et qui représentent une masse complémentaire aux instruments d’observation qu’il serait de plus en plus difficile de soulever.

Image à la Une: vue d’artiste de l’hélicoptère en opération sur Mars. Crédit NASA.

Source :

NASA : note de presse 18-035 du 11 mai 2018:

https://www.nasa.gov/press-release/mars-helicopter-to-fly-on-nasa-s-next-red-planet-rover-mission

Naître et mourir sur Mars

Si l’homme veut un jour s’établir durablement sur Mars, il est évident qu’il doit anticiper sa naissance, sa vieillesse et sa mort sur cette planète. Pour les personnes hostiles au projet cela constitue un obstacle de plus, pour nous autres, « Martiens de cœur », c’est un de nos sujets de réflexion avant d’être le défi à relever par les « Martiens de chair » qui vivront effectivement sur Mars.

Transportons nous par la pensée après les premières missions d’exploration habitées, après qu’on aura bien vérifié que le voyage est faisable, qu’on dispose du support-vie suffisant pour satisfaire à nos besoins vitaux pour la totalité d’une période de révolution autour du Soleil et donc qu’on peut attendre 18 mois sur place sans réapprovisionnement d’aucune sorte. Dans ce contexte, beaucoup de voyageurs vont souhaiter rentrer sur Terre après 24 mois d’absence (18 + 6 pour le voyage aller) mais certains préféreront rester, parmi eux des hommes et des femmes encore jeunes, attirés par l’autre sexe et désirant avoir des enfants. Que va-t-il se passer ? Le sujet a été traité récemment dans une étude scientifique* (publiée le 23 avril 2018) qui présente un intérêt mais qui à mon avis, ignore certaines particularités martiennes ou met en avant de faux problèmes concernant « la valeur de la vie humaine », « la politique d’avortement », « Mars comme lieu en dehors des valeurs morales », « la sélection sexuelle et l’engineering génétique ».

Je parlerai peu de la conception car je crois que l’homme est assez imaginatif pour passer cette étape. Je suppose que l’attirance naturelle entre homme et femme existera toujours. Certains mettent en avant les difficultés pour l’intimité posées par la promiscuité. Il est vrai que pendant le voyage, l’exiguïté relative du vaisseau spatial pourrait poser problème mais de toute façon, pour d’autres raisons développées plus tard, un début de grossesse dans ce contexte ne serait pas souhaitable. Il faudra donc que les partenaires prennent leurs précautions pour que la femme ne tombe pas enceinte avant l’arrivée. Sur Mars le problème ne se posera pas car grâce aux habitats gonflables puis aux excavations faites dans la roche (sols ou falaises), les hommes disposeront très vite de volumes de vie suffisants. Un problème connexe, celui du caractère des colons sera forcément traité. On ne laissera pas partir sur Mars des personnes présentant des signes manifestes de difficultés relationnelles. Pour les générations nées sur Mars, cette précaution n’aura évidemment aucun effet mais une sanction possible pour les personnes asociales pourrait être l’exil sur Terre (tant que la Terre existera !). Par ailleurs il me semble prudent de ne sélectionner pour le départ que des couples notoirement stables.

Les auteurs de l’étude mettent en avant le risque des radiations. L’on sait bien que l’espace est un milieu très hostile pour cette raison. Le flux régulier de radiations solaires (« SeP » pour « Solar energetic Particles »), composé quasi exclusivement de rayonnements électromagnétiques et de radiations particulaires constituées de protons, ne peut être supporté pour une durée indéfinie. Et de temps en temps le soleil émet des bouffées de radiations particulaires beaucoup plus denses (tempêtes solaires, « SPE », « Solar Particle Events », certains correspondant à des « CME », « Coronal Mass Ejections ») tandis que constamment la Galaxie nous envoie à faibles doses, des radiations que l’on appelle  « GCR », « Galactic Cosmic Rays »). Parmi ces radiations un petit pourcentage (2% de 98%) est composé de noyaux atomiques lourds, HZE (pour High, atomic number -Z, Energy)  jusqu’au fer, extrêmement énergétiques et évidemment dommageables pour nos organismes compte tenu de leur masse et de leur vitesse. Ces HZE de GCR traversent toutes les protections, en produisant des rayons gamma lors du contact.

Pour une durée de voyage jusqu’à Mars (supposons 4 à 6 mois et non 7 à 9 comme dans l’étude précitée car pour le transport de passagers on dépensera plus d’énergie et on emportera moins de masse), la dose « normale » de radiations serait cependant supportable (même si l’on dit officiellement qu’elle doit être « ALARA » c’est à dire « as low as reasonably achievable ») d’autant que l’on peut prévoir des protections contre les rayonnements solaires comme les vestes de type astrorad (de la société israélo-américaine Stemrad) riches en protons et des caissons entourés des réserves d’eau et de nourriture de la mission, en cas de SPE (l’eau comprenant beaucoup de protons – dans l’élément H – freine efficacement les protons solaires ou galactiques). Les femmes sont certes plus sensibles que les hommes (moindre masse corporelle) et leur appareil reproductif plus fragile mais, protégées comme mentionné ci-dessus, elles pourraient passer l’épreuve au moins une fois aller et retour.

NB : on ne peut envisager qu’une jeune femme devienne « pilote de ligne » sur la boucle Terre-Mars-Terre mais je ne pense pas que cela pose un problème rédhibitoire à l’établissement de l’homme sur Mars.

Une fois sur Mars, le problème des radiations ne se poserait plus ou plutôt il pourrait être géré. En effet la surface de Mars bénéficie d’une certaine protection par l’atmosphère (et ce d’autant plus que l’altitude est basse, donc le manteau plus épais). Au fond du cratère Gale (4,3 km en dessous du « datum », niveau zéro d’altitude), la protection est telle que le niveau des radiations n’excède pas celui prévalant au niveau de l’orbite de l’ISS et l’on sait que les astronautes, femmes et hommes, qui ont séjourné de longues périodes dans cet habitat, ne sont pas pour autant plus souvent morts de cancer que leurs contemporains. On peut prévoir de toute façon, parce que le séjour des résidents martiens sur Mars sera très long, que les jeunes femmes et les enfants restent la plupart du temps à l’abri d’une protection quelconque (dôme de glace – 40 cm – ou couche de régolite – 2 mètres – ou roche au-dessus de cavernes naturelles ou creusées). Sur Terre, les hommes vivent de plus en plus « à l’intérieur » (bureaux, habitats) et sur Mars on vivra aussi largement « à l’intérieur », en commandant en direct toutes sortes de robots affrontant les conditions extérieures martiennes hostiles. Bien entendu cela n’exclut pas les « sorties » en scaphandre. Simplement on aura droit à d’autant moins de sorties que l’on est plus jeune (ou femme en âge de procréer) et il faudra prévoir à distances régulières des refuges à utiliser en cas de tempêtes solaires.

Un problème cependant subsiste, c’est celui de la gravité réduite. Là aussi comme pour les radiations, inutile de fantasmer sur les dangers, en l’occurrence ceux de la microgravité (comme le font les auteurs de l’étude précitée) car elle ne durera que le temps du voyage et encore si l’on ne prend pas de disposition pour créer une gravité artificielle dans le vaisseau, ce qui semble possible, d’une manière ou d’une autre (force centrifuge dans tout ou partie du vaisseau recréant par rotation une gravité artificielle*). Mais il serait souhaitable de constater le plus tôt possible les effets d’une gravité martienne de 0,38g sur le développement d’un fétus. A priori je ne vois pas de contre-indication étant donné que le fétus se développe en suspension dans le liquide amniotique de sa mère mais il serait préférable de ne pas se refuser l’expérimentation sur de petits mammifères avant l’expérience humaine. La gestation devrait être moins fatigante pour la femme; l’accouchement un peu plus problématique (phase expulsion) mais en Europe les femmes accouchent le plus souvent couchées. Ensuite, on peut penser que, pour l’enfant et l’adolescent non formés sur Terre, le squelette développé en gravité réduite puisse être plus fragile que sur Terre et donc non facilement adaptable à la vie terrestre. Ce risque est probablement réel même si on peut imaginer des remèdes (calcification médicamenteuse, musculation). Un risque annexe est celui de l’infection car la microgravité crée un terrain favorable à la prolifération bactérienne alors que les femmes enceintes connaissent un état transitoire immunodépressif. On ne connait pas les risques dans ce domaine résultant non de la microgravité mais d’une gravité partielle. Sont-ils proportionnels ? Il faudrait l’étudier. Il faudra évidemment protéger particulièrement les femmes enceintes de ce risque accru d’infection mais je pense que les premières femmes enceintes sur Mars seront de toute façon particulièrement suivies.

*On en parlera à notre Congrès EMC18, notamment dans le cadre d’une présentation de Claude Nicollier.

A supposer toutefois que l’adaptation aux conditions terrestres d’un corps humain développé sur Mars, s’avère très difficile, il faudrait donc envisager que les jeunes Martiens restent sur Mars. Je ne pense pas cependant que ce soit un châtiment épouvantable qui justifierait qu’on renonce à l’établissement de colonies sur Mars. Cette contrainte accélérerait d’ailleurs la création de telles colonies et permettrait d’atteindre assez vite la population viable minimum d’un isolat (évaluée à 6000* personnes par Chris Impey en 2015). Pour ce qui est du risque de consanguinité il n’y a sans doute rien à craindre car l’enrichissement de « sang neuf » sera constant ( à chaque rotation tous les 26 mois) et le seuil de risque de 500 personnes distinctes génétiquement sera très vite dépassé.

*chiffres à bien considérer en fonction des besoins d’une telle société et de nos capacités technologiques (notamment télécommunications et impression 3D). Richard Heidmann, fondateur de l’Association Planète Mars et polytechnicien, l’évalue plus proche de 1000 personnes seulement.

Les vieillards seront comme pour toute société, une charge sur le plan sanitaire mais il n’y a aucune raison de ne pas y faire face car la société martienne sera bien médicalisée (présence nécessaire de médecins aux compétences couvrant l’éventail des pathologies possibles avec tous les appareils – facilité par l’impression 3D – et tous les médicaments nécessaires) et en forte croissance (donc avec une pyramide des âges « en sapin », à très large base à partir des jeunes adultes). Les jeunes pourront sans problèmes « supporter » les vieux d’autant que les vieux seront sans doute nécessaires pour les jeunes (pourquoi ne pas confier leur éducation à ceux dont les forces physiques sont déclinantes mais les connaissances et l’expérience considérables ?).

Dans l’étude, les auteurs se posent des problèmes d’éthiques, plus précisèment ceux de laisser accéder à la vie ou de garder en vie des êtres qui a priori seront à charge. En ce qui concerne l’euthanasie je ne vois pas sa nécessité en particulier pour ce qui résulte du grand âge. On peut cependant envisager que de grands malades touchés par une pathologie incurable et avec une espérance de vie pourtant encore longue, soient rapatriés sur Terre lors de la première fenêtre de retour (s’ils sont transportables mais au risque de mourir pendant le voyage). Pour ce qui est de l’avortement c’est un autre problème. Il est certain qu’il vaudrait mieux éviter de mettre au monde des enfants handicapés qui, par l’attention qui leur serait due, incapaciteraient pendant une longue durée leurs parents, membres difficilement remplaçables d’une petite communauté isolée. Ceci dit on sait prévoir de plus en plus les grossesses à risques et les interrompre. On le fait déjà assez généralement sur Terre et on le fera certainement sur Mars (à moins que des parents disposant des moyens financiers suffisants décident de les assumer ainsi que leur moindre productivité personnelle qui en résulterait). Pour être clair il n’y aura pas d’acharnement thérapeutique dans une communauté qui ne pourrait pas se le permettre.

Mais rassurez-vous, la vie sur Mars ne sera pas plus inhumaine que sur Terre.

*« Biological and social challenges of human reproduction in a long-term base » par Konrad Szocik, (dept of Philosophy and cognitive science, Uni. Of Information & technology & management) de Rzeszów, Pologne, et al. in Futures (publication d’Elsevier). 

Image à la Une : Luciana Vega sur Mars (crédit American girl / Mattel)

CHEOPS un observatoire spatial pour affiner notre connaissance des exoplanètes proches

CHEOPS ( CHaracterizing ExOPlanet Satellite) sera la première mission dédiée à la caractérisation des exoplanètes proches déjà repérées. C’est une entreprise dirigée par l’Université de Berne dans le cadre de l’ESA au travers du Swiss Space Office. La réalisation de la charge scientifique, le télescope et ses annexes, a été terminée en avril ; elle est maintenant en Espagne pour montage sur la plateforme du satellite ; le lancement doit avoir lieu début 2019 en Guyane.

Avec CHEOPS il ne s’agit pas de découvrir de nouvelles exoplanètes mais, connaissant leur masse par la méthode dite de la « vitesse radiale » de leur étoile (déplacement de l’étoile du fait de sa relation gravitationnelle avec sa ou ses planètes), de déterminer leur volume (via leur diamètre) par mesure aussi précise que possible de leur « profondeur de transit » en utilisant la méthode dite « des transits » (c’est-à-dire l’intensité d’obscuration de la lumière de l’étoile causée par leur passage devant l’étoile). Connaissant le volume et la masse d’une planète, on peut en déduire sa densité et donc dans une certaine mesure sa composition en prenant en compte sa proximité à l’étoile (donc sa température). La différenciation entre roche et atmosphère peut-être renforcée par l’observation de la « modulation » de la lumière lorsque la planète est éclairée par son étoile avant de passer derrière elle ou encore la disparition de la planète derrière l’étoile peut permettre de déduire l’émission thermique propre à la planète, donc son spectre d’émission.

CHEOPS doit étudier les planètes identifiées comprises entre un et six diamètres terrestres dans des systèmes dont l’étoile a une magnitude visuelle (« V ») allant de 6 à 12 (pour comparaison l’œil peut discerner les objets jusqu’à la magnitude 6 et l’observatoire spatial Hipparcos a établi la carte des étoiles allant jusqu’à la magnitude 11). Cela représente une population de 500 à 700 étoiles. CHEOPS est une mission « de suivi » par rapport aux planètes déjà repérées et comme les petites planètes à grande distance de leur étoile ne sont pas encore connues, on ne pourra pratiquement observer que des planètes à périodes orbitales courtes et relativement proches de notre système solaire (jusqu’à quelques centaines de parsec). CHEOPS pourrait mesurer une planète de la taille de la Terre et on en connait quelques-unes mais elles orbitent des étoiles plus petites que notre Soleil (des « naines rouges »). On attend la mission PLATO qui sera lancé en 2026 pour trouver ce type de planète orbitant des étoiles de type solaire.

Tout a commencé en 2012 lorsque l’ESA a lancé un appel d’offres pour les missions « S » (pour Small, à côté de « M » – comme « PLATO » – et « L ») dans le cadre de son programme « Cosmic Vision ». L’idée était de mener des missions peu chères (50 millions d’euros maximum, pour l’ESA) et réalisables en quatre ans maximum (l’équivalent en moins cher des missions « scouts » de la NASA). L’Université de Berne a remporté l’appel d’offre pour la première mission S avec ce concept CHEOPS, devant 25 autres projets. La charge utile, le télescope et ses annexes (qui représente 40 millions d’euros – dont 25 pour la Suisse – sur un total de 100 en prenant en compte les participations non-ESA venant du « Consortium CHEOPS réunissant 11 pays membres de l’ESA sous la direction de la Suisse) a été étudiée et réalisée par le Center of Space and Habitability (CSH) sous la direction de Christopher Broeg (chef de projet), le Professeur Willy Benz, directeur de l’Institut de Physique, étant le responsable de la mission dans son ensemble (« Principal Investigator »). La plateforme, réalisée par Airbus Defense & Space en Espagne, sur laquelle sera monté le télescope, est inspirée de celle de leur satellite SEOSAT (satellite d’observation de la Terre qui doit être lancé également en 2019). Le lancement de CHEOPS était originellement prévu à partir de Kourou en 2017 mais il a été quelque peu retardé (comme la quasi-totalité des projets spatiaux qui posent, pour leur réalisation, des problèmes complexes que l’on ne peut totalement anticiper). Finalement, CHEOPS va être lancé comme un passager secondaire avec un satellite italien d’observation de la terre sur une fusée Soyouz, très vraisemblablement durant la première moitié de 2019.

Comme tous les télescopes spatiaux, CHEOPS est une merveille technologique. Il est le résultat de tout un ensemble d’idées originales et souvent « géniales » car on doit toujours envoyer la charge utile la moins massive, la plus adaptée à l’objectif, la plus performante et la plus fiable. Sans tout mentionner on peut par exemple évoquer le positionnement du satellite porteur du télescope. Il sera en rotation autour de la Terre à 700 km d’altitude (environ deux fois l’altitude de l’ISS) sur une orbite héliosynchrone, dans un plan orthogonal à l’éclairage solaire (le plan de l’orbite suivra celui du terminateur terrestre) et tournant toujours l’objectif du télescope dans la direction opposée à la source des rayons solaires, tandis que les panneaux solaires (réalisés en Belgique) fixés sur sa coque extérieure, feront écran et fourniront l’énergie (puissance de 60 W seulement !). Le télescope lui-même est petit, doté d’un miroir (réalisé en Italie) de 32 cm dans un tube de 150 cm (ouverture 30 cm) et il fonctionne en visuel et proche infrarouge (détecteur CCD, longueurs d’ondes entre 0,4 et 1,1 microns). Un dispositif de lentilles défocalise le rayonnement et l’étale sur 765 pixels ce qui permet une analyse plus facile, en définissant un périmètre et une surface soigneusement calibrée à l’Université de Berne. De la même manière l’intensité des signaux reçus par la plaque CCD, des photons convertis en électrons, a fait l’objet d’un calibrage pour pouvoir être proprement interprétée une fois le télescope en fonction. Après le montage en Espagne, il y aura encore des tests thermiques en France, vibratoires à Zurich, acoustiques en Hollande. Pendant le fonctionnement du satellite (la mission doit durer 3,5 ans) le Science Operation Center de la mission sera localisé à l’Université de Genève. NB ce « segment sol » représente 10 millions d’euros (à l’intérieur du total des 100 déjà mentionnés) et la Suisse en prend 5 à sa charge (portant ainsi la dépense totale pour la Confédération, à 30 millions d’euros).

La profondeur des transits des planètes de taille terrestre possibles sera de l’ordre de 100 ppm et la sensibilité des CCD sera de l’ordre de 20 ppm en six heures. Pour les planètes de la taille de Saturne la profondeur des transits attendue sera évidemment beaucoup plus grande (2500 ppm), la sensibilité requise de 85 ppm en 3 heures et la luminosité de l’étoile pourra aller beaucoup plus bas (V de 9 à 12). On a donc là un éventail assez largement ouvert mais il faut noter qu’on ne recherchera pas les mêmes informations venant d’une Saturne ou d’une super-Terre (une super-Terre de la taille de Saturne serait impossible du fait de sa masse et réciproquement), cet éventail est donc bien nécessaire pour couvrir une gamme étendue de planètes proches de leur étoile. D’autant que si on recherche des super-Terres, on cherche aussi à comprendre comment « fonctionnent » les planètes plus grosses dans leur système c’est-à-dire quelle a pu être leur histoire dynamique étant donnée leur présence très près de leur étoile (sur des orbites de courte période) contrairement à ce que l’on constate dans le système solaire.

CHEOPS est une étape. En étudiant les étoiles les plus brillantes on aura des signaux beaucoup plus nets pour une population relativement importante d’étoiles proches, que ceux recueillis par Kepler. On veut aussi grâce à cette mission sélectionner les meilleurs cibles pour les caractérisations futures des exoplanètes de la catégorie concernée. Il faut bien voir en effet l’intégration de tous ces projets d’exploration. Un instrument collecte des données qui après analyse sont utilisées par les autres. Dans le cas de CHEOPS, E-ELT et JWST avec leur outils spectrométriques reprendront les cibles semblant les plus intéressantes.

Lien vers le site CHEOPS de l’Université de Berne :

http://cheops.unibe.ch/fr/

Le texte de cet article a été soumis pour contrôle au Professeur Willy Benz. Il y a apporté quelques corrections.

Image à la Une : CHEOPS dans son contexte. Crédit Airbus DS.

Image ci-dessous : CHEOPS avec ses panneaux solaires déployés (vue d’artiste), crédit Swiss Space Center, EPFL

Image ci-dessous, CHEOPS, dans sa configuration de lancement avec détails de la localisation des équipements (par rapport à l’illustration ci-dessus, les panneaux solaires sont repliés). Crédit ESA.

La mission Kepler va s’achever après avoir découvert des milliers d’exoplanètes

Tout le monde connaît la mission Kepler de la NASA qui a fait des découvertes sensationnelles d’exoplanètes, par ailleurs parfaitement médiatisées. Comme elle va s’arrêter par la force des choses en 2018 ou début 2019, après dix ans de collecte de données, il est temps de faire le point. Il est de toute façon remarquable de constater les résultats au regard des difficultés surmontées.

La mission a été lancée le 7 mars 2009 et le télescope est devenu opérationnel le 12 mai 2009. C’est la dixième des douze du programme « Discovery » dont le concept fut lancé en 1992 par l’Administrateur de la NASA Daniel S. Goldin, la dernière étant InSIGHT, lancée le 5 mai 2018 vers Mars. La motivation de la création de Discovery était de réaliser de petits projets « plus vite, mieux et moins cher » (« faster, better, cheaper »). Comme pour toutes les missions d’exploration spatiales, le « faster » s’est avéré difficile à appliquer car les ingénieurs et les scientifiques conçoivent des projets dès que les progrès de la connaissance le permettent mais ils ne peuvent ensuite que les faire entrer dans une file d’attente (financement, aménagements techniques et agenda des lancement). Pour Kepler le concept a été présenté dès 1994 sous le nom de « FRESIP » (FRequency of Earth Sized Inner planets). Il est devenu « Képler » en 1996 après plusieurs modifications pour le rendre moins cher (dont la localisation dans l’espace). Il ne fut sélectionné (l’élément « better ») qu’en 2001. A noter que c’est sans doute la découverte en 1995 de la première planète extrasolaire par les astronomes suisses Michel Mayor et Didier Queloz qui renforça l’intérêt du projet aux yeux des décideurs. Pour ce qui est du « cheaper », le budget était de 600 millions de dollars. Comme souvent on a dépassé les 450 millions unitaires théoriques du programme Discovery mais à moins de 1 milliard on reste dans des montants acceptables par rapport au cadre.

Képler a été réalisée et mise en service par le JPL de la NASA avec Ball-Aerospace pour la construction du satellite et Ames Research Center pour les installations au sol et la gestion. Sa durée primaire était de 3ans ½ (donc jusqu’en novembre 2012) ce qui était parfaitement adapté à sa méthode d’observation. Elle a connu pas mal de mésaventures techniques par la suite mais a pu continuer son travail.

L’objet étant essentiellement d’identifier des planètes habitables, il s’agissait (1) de déterminer combien de planètes, de taille équivalente ou supérieure à la Terre, se trouvent à l’intérieur ou à proximité de la zone habitable des étoiles situées dans la profondeur de la zone observée (donc de masses et de types spectraux très variés); (2) de mener cette recherche dans la zone habitable de la Galaxie (GHZ), un anneau autour de son centre, qui contient notre système solaire et dans lequel on estime que la métallicité est suffisamment forte et l’occurrence des supernovæ suffisamment faible, ceci implique que les observations se fassent dans la direction du déplacement du Soleil autour du Centre galactique ; (3) de déterminer les propriétés des étoiles qui abritent des systèmes planétaires.

La méthode d’observation utilisée est celle dite « des transits » qui se fonde sur les baisses de luminosité des étoiles du fait du passage d’une planète du système stellaire visé, entre l’étoile de ce système et nous-même (baisse de luminosité de 0,01% pour une étoile de type solaire lors du passage devant elle d’une planète de la taille de la Terre et de 1% lors du passage d’une planète de type Jupiter). La distance de la zone favorable au point de vue de la température compatible avec une eau liquide (« habitable ») est évaluée en fonction des modèles de radiation stellaire (irradiance).

principe de détection par la méthode du transit

Le champ d’observation de Képler est de 105 degrés carré soit 0,28% de la surface apparente du ciel, soit 12 degrés en diamètre (la taille du poing observé bras tendu), à l’origine (dans la première partie de la mission) perpendiculairement au plan de l’écliptique (vers le Nord) de telle sorte que le soleil ne pénètre jamais dans l’ouverture du télescope. La surface du champ est très supérieure à celui de Hubble (10 minutes d’arc, soit 1/5 de degré) et Hubble n’observe que rarement un champ stellaire en continu alors que c’est le principe même de Kepler pour appliquer la méthode des transits. Sur 500.000 étoiles dans ce champ, 150.000 ont été sélectionnées, pour être observées simultanément en permanence pendant les 3 ½ ans, avec variation de luminosité contrôlée toutes les 30 minutes. Cette « persistance » et cette « continuité » sont nécessaires pour vérifier que les fluctuations de luminosité expriment bien le passage d’une planète, pour ne pas « rater » son retour devant l’étoile et pour vérifier le rayon de son orbite en supposant que la planète est de type terrestre autour d’une étoile de type solaire et orbite dans sa zone habitable. Pour assurer le moins de perturbations possibles et lui offrir un maximum de visibilité, on a placé Képler sur l’orbite de la Terre, dans son sillage, avec une vitesse un peu inférieure (parcours de l’orbite en 372,5 jours). On avait envisagé auparavant une localisation au point de Lagrange L2 dans l’ombre de la Terre et l’observatoire aurait pu donc fonctionner sans pare-soleil mais cela aurait impliqué une consommation supérieure d’énergie (panneaux solaires inutilisables). Ce choix s’est effectivement avéré important (positivement et négativement) après la mission primaire.  La distance des étoiles étudiées se situe entre 600 années-lumière (dans cette zone du ciel moins de 1% se trouve à moins de 600 al) et 3000 al car au-delà l’observation d’une planète de la taille de la Terre n’aurait pas été possible. Képler se comporte en quelque sorte comme un phare inversé, collectant plutôt qu’émettant la lumière dans une sorte de très long pinceau. A noter que cette approche est très différente de celle de TESS (lancé le 18 avril 2018) qui recherche les planètes à moins de 300 a.l. et sur la totalité de la surface du ciel mais qui aussi peut voir des fluctuations dans la lumière d’étoiles 30 à 100 fois plus brillantes que celles vues par Képler (donc beaucoup plus d’étoiles proches de type solaire).

Orientation de Kepler pendant la mission primaire, lorsque ses trois roues de réaction fonctionnaient (crédit NASA/ Lab for Atmospheric and Space Physics, Colorado). Vous remarquerez que l’objectif est tourné vers le Nord de l’écliptique (qui est inclinée par rapport au plan galactique vers la direction de déplacement du soleil)

Techniquement le miroir primaire de Képler est de 1,4 mètre de diamètre et l’ouverture de l’objectif de 95 cm. La précision de ses caméras à capteurs utilisant des CCD était théoriquement d’une sensibilité de 20 ppm mais elle s’avéra être de 29 ppm or le signal d’une planète de type terrestre passant devant une étoile de type solaire de magnitude 12 est de 80 ppm. Cette sensibilité moins bonne que prévu nécessite davantage de transits (pour confirmer l’observation) et a fait dès le début envisager une prolongation de mission au-delà des 3½ ans prévus. Le télescope est refroidi à l’azote liquide pour limiter le « bruit thermique ». L’énergie du télescope est fournie par des panneaux solaire de 10,2 m2 délivrant une puissance de 1100 watts et l’observatoire disposait au départ de 11,7 kg d’hydrazine pour son contrôle d’attitude. Son orientation fixe était stabilisée sur 3 axes avec quatre roues de réaction (dont une de « secours »).

Tout s’est bien passé pendant la mission primaire mais l’observatoire a souffert de la panne d’une première roue de réaction en juillet 2012 et d’une deuxième en mai 2013. En août on dut conclure qu’on ne pouvait le réparer ; le pointage fin et stable d’origine n’était plus possible. En novembre 2013 une solution fut trouvée et on entra dans la phase « K2 » (« second light »). On avait constaté que les photons du Soleil pouvaient maintenir la stabilité du télescope pourvu qu’il soit parallèle / horizontal et non plus vertical par rapport au plan orbital (et en utilisant les deux roues de réaction restantes) mais, pour éviter que la lumière solaire pénètre dans l’ouverture du télescope resté pointé sur une cible fixe (toujours pour le transit !), l’orientation devait être modifiée tous les 83,5 jours. La lumière d’une même cible ne pouvait donc être recueillie aussi longtemps que pendant la période primaire.

Schéma d’explication de K2 (Kepler second light), crédit NASA Ames/W Stenzel. Vous voyez l’équilibrage de l’observatoire par les photons du soleil et le changement de position périodique sur l’orbite héliocentrique. L’observatoire est désormais couché sur son orbite.

Depuis janvier 2014 le télescope spatial fonctionne donc en mode dégradé. L’observation de 3 transits consécutifs dans ce contexte ne permet d’identifier que les planètes ayant une période orbitale très courte (moins de trente jours !) ou de confirmer des observations précédentes. En mars 2018 les responsables de la mission ont estimé que l’hydrazine utilisée par de petits propulseurs et nécessaire pour stabiliser le télescope était en voie d’épuisement. Toutefois faute d’une jauge dans les réservoirs il est difficile d’évaluer la date de fin de la mission. Celle-ci pourrait intervenir courant 2018 ou au plus tard en 2019.

Képler a cependant bien « travaillé ». En Mai 2018, il avait identifiée plus de 2619 exoplanètes (soit 2327 dans le cadre de la mission Képler et 292 dans le cadre de la mission K2) dont 30 planètes de moins de deux fois la taille de la Terre et en zone habitable, sur un total de 3726 exoplanètes identifiées par toutes les méthodes d’observation (dont 2935 identifiées par la méthode des transits). 2244 + 480 autres signaux sont à l’étude (« candidats » pour être reconnus comme émanant de planètes). Ce beau résultat doit cependant être affecté de “bémols”. La méthode des transits n’a permis pendant la période K2 que d’ajouter des planètes très proches de leur étoile, donc en ce qui concerne les planètes « habitables », que celles qui orbitent autour de naines rouges, par nature hostiles à la vie. Par ailleurs pendant les deux missions la sensibilité a exclu les forts contrastes et privilégié encore les naines rouges. Enfin la profondeur du champ n’a été vraiment favorable pour l’observation des planètes de type terrestre que pour les étoiles proches et non jusqu’au 3000 années-lumière théoriques (plus on s’éloigne, plus les différentiels de lumière sont difficiles à observer).

Képler a été un précurseur, ce premier travail doit être poursuivi par TESS, par CHEOPS et, espérons-le, par WFIRST. Il convient à cette occasion de noter l’importance de l’interaction des instruments en astronomie. Pour confirmer que l’effet d’atténuation de la luminosité de l’étoile est bien dû à une planète, l’observation est répétée en utilisant les autres moyens (télescopes) existants : imagerie (avec coronographe, pour les planètes proches du Soleil et éloignées de leur étoile) astrométrie (pour les planètes massives, Gaïa), vitesse radiale (planètes massives proches de leur étoile, HARPS, spectromètre ELODIE sur télescope Alpes de Hte Provence, utilisé par Queloz et Mayor ), lentille gravitationnelle (WFIRST). Notre époque informatisée et mondialisée, avec télécommunications ultra-rapides facilite ces coopérations qui sont accélératrices de progrès.

image à la Une: les découvertes de Kepler (points jaunes). Les autres sources sont en bleu, clair ou foncé. Crédit NASA. Vous remarquerez que les planètes Kepler ont des périodes orbitales (“années”) très courtes (>90% moins de 100 jours) ce qui est dû au biais observationnel de la méthode de transit (il faut par définition un multiple de cent jours pour confirmer une planète dont l’année dure cent jours). Les grosses planètes (taille de Jupiter) ont été observée par d’autres méthodes (surtout “vitesse radiale”).

NB: le texte a été soumis pour contrôle à Claire Saravia, responsable de la communication pour Kepler, au Goddard Space Flight Center de la NASA.

Gaia nous fait faire un bon fantastique dans la cartographie du ciel

Le 25 avril, l’ESA a publié son deuxième catalogue d’objets célestes repérés par l’observatoire spatial Gaia (« DR2 »*). Pour un secteur significatif de notre galaxie c’est un peu comme si nous passions d’une carte du début du 18ème siècle à une carte Google. Il faut bien voir que dans les années 1960** les astronomes ne pouvaient donner les distances à moins de 10% d’erreur que pour quelques 350 étoiles. Aujourd’hui, grâce à Gaia, on a cette précision pour 70 millions d’étoiles et ce n’est qu’un des progrès apportés par ce merveilleux observatoire spatial.

*Data Release 2; **General Catalogue of Trigonometric Stellar Parallaxes, Jenkins 1963.

Tout a commencé en 1993 quand Lennart Lindegren (Université de Lund, Suède) et Michael Perryman (ESA/University College Dublin) ont voulu donner une suite à l’observatoire spatial Hipparcos en orbite depuis 1989 et qui arrivait cette année-là en fin de mission. Il avait relevé par astrométrie la position de 118.000 étoiles proches avec une précision de 0,001 secondes d’arc (cent fois mieux que précédemment) et de 2,54 millions d’étoiles jusqu’à la magnitude-apparente 11* avec une précision de 20 millisecondes d’arc. Leur projet, la mission GAIA (à l’origine « Global Astrometric Interferometer for Astrophysics ») était beaucoup plus ambitieux. Il s’agissait de dresser une carte en trois dimensions de notre environnement sur une population d’étoiles appartenant à une gamme de luminosité beaucoup plus étendue, allant jusqu’à la magnitude-apparente 20 donc couvrant une population stellaire de la Galaxie beaucoup plus importante (1% de ses quelques 200 milliards d’étoiles).

*L’échelle des magnitudes va de -26,7 pour le Soleil à 6,5 pour les astres discernables à l’œil nu et 30 pour les astres les plus éloignés. Hipparcos a identifié 99% des étoiles allant jusqu’à 11.

Gaia comme tout projet d’exploration spatiale a connu des vicissitudes. Il a été modifié en cours de conception pour des raisons budgétaire et d’évolution technologique (notamment abandon de l’interférométrie…sans que son beau nom soit changé). Sur recommandation du « SSAC » (Comité du conseil scientifique spatial) de l’ESA, il a finalement été sélectionné en 2000 par le « SPC » (Science Program Committee) composé des représentants des Etats membres (qui financent !) comme « pierre angulaire » n°6 de son programme « Horizon 2000+ ». Il a été ensuite construit par EADS Astrium* (aujourd’hui une composante d’Airbus Defense and Space) pour un budget de 740 millions d’euros, lancé en décembre 2013 et est devenu opérationnel en mai 2014. Juillet 2014 est la date de départ de sa mission scientifique de 5 ans, prolongée déjà d’une année, jusqu’en 2020, mais avec suffisamment de consommables pour fonctionner 9 ans. Deux publications de données ont été faites (en 2016, DR1 et en 2018, DR2) ; deux autres doivent avoir lieu (en 2020 et 2022). Ces données sont mises à la disposition des chercheurs du monde entier qui les exploitent pour en tirer une meilleure compréhension de notre environnement et de notre Galaxie.

*avec Mersen Boostec (France) pour la structure du télescope et E2v (Grande Bretagne) pour la fourniture des CCD (« Charge Coupled Devices », dispositifs à transfert de charges, utilisés pour lire les signaux lumineux, comme dans les appareils photos digitaux).

En tant que satellite, Gaia a plusieurs particularités qui lui permettent d’être le moins perturbé possible par son environnement, il le faut pour la précision recherchée des mesures. Il est d’abord extrêmement rigide et léger et cela a déterminé le choix de la matière qui constitue sa structure ou ses miroirs (carbure de silicium). Il évolue dans un environnement à l’écart de tout trouble qui résulterait du voisinage de la Terre (lumineux, thermique, radiatif), autour du point de Lagrange « L2 », en opposition au Soleil par rapport à nous, à 1,5 million de km. Son orbite de 380.000 km autour de L2, parcourue en 6 mois, est exposée au Soleil en permanence, selon un éclairage constant. Son bouclier thermique de 10 mètres de diamètre constitue son pare-soleil.  Il est partiellement revêtu de panneaux solaires fournissant une puissance de 2 kW. L’objectif de ses télescopes est donc en permanence protégé de la lumière solaire et sa température est stable.

Gaia a embarqué plusieurs instruments qui lui donnent toutes les capacités nécessaires pour la détermination de la position, de la distance, du mouvement et autres caractéristiques (spectre lumineux) de tous les objets célestes dont il reçoit la lumière. Ces objets sont essentiellement des étoiles mais pas uniquement ; dans le système solaire, des astéroïdes ou des comètes ; en dehors de notre système, de grosses planètes de la taille de Jupiter (distinguables directement par astrométrie) et dans l’espace profond, bien au-delà de la Voie Lactée, d’autres objets très lumineux (quasars).

La lumière est collectée par deux télescopes rectangulaires de 1,45 m sur 0,50 m avec un écart entre leur ligne de visée de 106,5 degrés. La mesure précise des positions relatives d’objets observés simultanément dans deux directions séparées par un angle obtus, permet d’éviter les erreurs qui pourraient résulter de références trop proches. Les mouvements de l’observatoire sont complexes : Il effectue une rotation sur lui-même en 6 heures (1 degré d’angle par minute de temps) ce qui permet qu’une observation effectuée par le premier télescope soit répétée par le second 106 minutes et 30 secondes plus tard. De plus l’axe de rotation de l’observatoire est incliné de 45° par rapport à la direction du Soleil et il décrit un cercle de précession en 63,12 jours autour de cette direction. La combinaison des mouvements du satellite avec la rotation du point L2 autour du Soleil permet de couvrir la totalité de la voûte céleste. Finalement chaque objet sera vu au minimum 60 fois sur les 5 ans.

Les signaux lumineux reçus par chacun des télescopes forment des images se superposant sur un plan focal commun de 100 cm composé de 106 capteurs CCD de 4500 X 1966 pixels, soit un total de 1 giga-pixels, organisés en 16 colonnes. Trois traitements sont donnés à ces signaux grâce à un jeu de 6 miroirs, un réseau de diffraction, deux prismes et différents types de CCD.

Le traitement par un instrument astrométrique (« Astrometric Field ») comme celui d’Hipparcos mais beaucoup plus performant (capacité de discernement encore 100 fois supérieure) donne la localisation de l’objet. Il s’agit de sa position sur la sphère céleste c’est-à-dire de son « ascension droite » (équivalent de la longitude) et de sa « déclinaison » (équivalent de la latitude). A cela s’ajoute la distance donnée par la parallaxe (angle entre deux visées à partir des points extrêmes de l’orbite d’observation) et le « mouvement propre » (déplacement apparent) des astres les plus proches. La localisation de l’observatoire dans l’espace, sans aucune perturbation, et la puissance des télescopes ainsi que la capacité des capteurs CCD donne en fin de mission une précision de 24 micro-arcs-seconde (µas) pour des sources de magnitude-apparente 15 (et jusqu’à 7 µas pour les étoiles proches).

Le traitement par les instruments spectrophotométriques couplant un prisme pour la lumière bleue, « BP » (pour « Blue Photometer ») dans les longueurs d’onde allant de 330 à 680 nm et un prisme pour la lumière rouge (RP) allant de 640 à 1050 nm, donne pour chaque objet un spectre qui permet de mesurer l’intensité lumineuse, la température, la gravité, l’âge et la composition chimique.

La dispersion de la lumière par un spectromètre, « RVS » (pour « Radial Velocity Spectrometer »), utilisant l’effet Doppler-Fizeau, permet de mesurer la vitesse radiale (éloignement ou rapprochement en profondeur, dans l’axe de visée) des 150 millions d’objets les plus lumineux et donc, conjuguée avec l’astrométrie, permet de connaître la dynamique de la galaxie.

Les résultats sont spectaculaires. La DR1 (observations de 14 mois allant du 25 juillet 2014 jusqu’en Septembre 2015) donnait la position de 1,1 milliards d’objets, la DR2 publiée le 25 avril 2018 pour des observations allant du 25 juillet 2014 au 23 mai 2016, de 1,7 milliards d’objets. Cela représente des dizaines de milliards de données et encore les deux premières colonnes de CCD constituent pour chaque télescope un « Sky Mapper » (« SM »), sélecteur qui permet d’effectuer une détection des sources lumineuses avant transmission aux autres cellules CCD. Ces chiffres espérés mais énormes impliquent une difficulté évidente, celle du traitement des données. Quelques 100 téraoctets sont attendus. Un consortium de laboratoires, le « DPAC » (« Data Processing and Analysis Consortium »), véritable « quatrième instrument » (comme dit François Mignard, responsable Gaia pour la France), a développé des programmes très complexes pour les traiter avec des moyens informatiques très importants. Avec la publication de la DR1 puis de la DR2 on peut constater qu’il a pu faire face.

J’entends des esprits chagrins me dirent « A quoi ça sert ? ». Je réponds « A savoir où nous sommes et où nous allons par rapport à ces étoiles qui nous entourent ». La connaissance du cadre sur un plan dynamique nous permettra forcément de mieux comprendre les relations que nous soupçonnons entre les éléments qui composent notre Univers proche et à en faire apparaître de nouvelles. Certains continueront à s’en moquer mais pour moi, le progrès dans la connaissance de l’Univers est littéralement essentiel et l’ingéniosité des solutions comme Gaia trouvées pour l’obtenir, source d’une grande satisfaction esthétique, égale à la contemplation de nos plus belles œuvres d’art.

Image à la Une: champ d’exploration de Gaia, crédit Lund Observatory.

NB : Ce texte a été revu et corrigé par le Professeur François Mignard, responsable du SNO (Service National d’Observation) au sein de l’OSU (Observatoire des Sciences de l’Univers) du CNRS pour la participation française au DPAC.

lien: https://gaia-mission.cnes.fr/fr

lmage ci-dessous: estimation des sources lumineuses repérées dans le catalogue DR2 publié le 25 avril 2018