Moon-Direct : un pis aller pour ensuite aller sur Mars

Robert Zubrin, fondateur de la Mars Society et président de l’association américaine, a écrit un article* encourageant le gouvernement américain à décider la création d’une base lunaire, en lui recommandant une marche à suivre qui s’apparente beaucoup à « Mars-Direct », l’architecture de mission géniale qu’il a imaginée avec son collègue de Martin-Marietta, David Baker, au début des années 1990 (voir son livre « The case for Mars » publié pour la première fois en 1996).

*article publié le 26 mars dans Space News Magazine; traduction en Français après mon propre article, ci-dessous.

La démarche peut surprendre venant de quelqu’un qui était très critique des projets d’établissements sur la Lune, considérant que cet astre était un piège où la volonté de sortir véritablement du berceau terrestre, se perdrait. Il avait notamment comparé la Lune à une « sirène »  dont il convenait de se protéger.

La Lune est en effet un monde beaucoup plus hostile que Mars avec sa gravité de 0,16 g très handicapante, la longueur de ses jours et de ses nuits (14+14), son absence totale d’atmosphère, son aridité extrême (les volumes de glace d’eau sur la Lune sont « anecdotiques »), la dangerosité de ses particules de poussière acérées. Ces défauts sont en creux les avantages de Mars même si la planète reste beaucoup moins hospitalière que la Terre. Les deux seuls avantages que l’on puisse donner à la Lune, c’est (1) qu’elle est accessible à tout moment de l’année alors que nos fusées ne peuvent partir de la Terre pour Mars que tous les 26 mois en raison de vitesses différentes sur orbite (en gros 30 km/s pour la Terre et 20 km/s pour Mars) ; (2) que le voyage est beaucoup moins long (environ 3 jours pour la Lune et de 4 à 9 mois pour Mars selon que l’on consomme plus ou moins d’énergie) ce qui implique une exposition plus longue aux radiations et la nécessité d’un support vie plus « musclé ». Mais il n’y a aucun avantage énergétique à aller sur la Lune, l’essentiel de l’effort étant dû à la sortie du puits de gravité terrestre et ensuite, dans une moindre mesure, au freinage pour descendre sur l’astre visé.

Alors, est-ce un renoncement ?

Je ne le pense pas. Robert Zubrin est réaliste et il fait de la politique. Il sait que tant que Donald Trump détiendra le pouvoir exécutif aux Etats-Unis, le projet Mars Direct n’a aucune chance. Alors il s’adapte comme un judoka s’adapte à la poussée de son adversaire. Ce faisant, il sert son ami Elon Musk qui est absolument déterminé à aller sur Mars, avec ou sans l’aide de l’Etat (mais mieux avec cette dernière), et qui devrait obtenir des contrats avec la NASA pour mener quelque mission habitée que ce soit dans l’espace profond puisque le Falcon Heavy est le seul lanceur mi-lourd qui existe aujourd’hui (le SLS est toujours dans les limbes et ne semble pas devoir en sortir). Quelle que soit l’utilisation qui en sera faite, elle confirmera la technologie de SpaceX, elle abaissera les coûts de lancement unitaires et elle apportera des fonds dans les caisses d’Elon Musk. Par ailleurs l’article de Robert Zubrin remet en avant la stratégie « Direct ». En gros, pour aller sur un astre, il faut décider d’y aller vraiment, sans prendre de voie détournée, et il faut y aller aussi « léger » que possible en utilisant les ressources locales, notamment pour le retour sur Terre. Ce qui est valable pour la Lune est valable pour Mars et on suivra la même stratégie sur Mars après avoir démontré que c’était la meilleure pour la Lune.

Espérons que Donald Trump entre dans le jeu ; c’est-à-dire qu’à défaut de Mars, il lance les Etats-Unis vers la Lune pour s’y poser et laisse tomber le stupide et coûteux projet de Lunar-Orbital-Platform-Gateway qui ne propose que de tourner autour. C’est encore possible. Cependant je persiste à craindre que la Lune ne soit le tombeau des rêves martiens, que l’on risque de s’y investir longuement et coûteusement comme on a fait dans la Station Spatiale Internationale, pour presque aucune retombée valable, que la vie sur la Lune s’avère vraiment difficile en raison des problèmes exposés ci-dessus, que les retombées scientifiques soient médiocres, la Lune n’étant qu’un fragment de la Terre desséché, morte presque depuis son origine, et qu’en fin de compte cela « dégoûte » le public (c’est lui, in fine, qui paye) de l’aventure spatiale. La stratégie du judoka est donc très dangereuse, mais nous verrons bien, nous n’avons, jusqu’à la fin de la présidence Trump, pas le choix!

Pierre Brisson

Image à la Une: Falcon Heavy sur son aire de lancement, Crédit Space-X

Lien vers l’article de Robert Zubrin dans Space News, traduit ci-dessus :

http://spacenews.com/op-ed-moon-direct-how-to-build-a-moonbase-in-four-years/

Traduction de l’article:

La Lune en direct : comment construire une base lunaire en quatre ans

Robert Zubrin ; article publié dans Space News Magazine le 26 mars 2018

Le récent et spectaculaire succès du lancement de Falcon Heavy offre à l’Amérique une opportunité sans précédent pour mettre fin à la stagnation qui a affecté son programme de vols spatiaux habités pendant des décennies. En bref, la Lune est maintenant à notre portée.

Voici comment le plan de mission pourrait être développé. Le Falcon Heavy peut emporter 60 tonnes en orbite basse terrestre (LEO). À partir de là, un atterrisseur-cargo propulsé par fusée à hydrogène / oxygène pourrait déposer 12 tonnes de charge utile à la surface de la Lune.

Nous pourrions donc envoyer deux atterrisseurs à l’emplacement prévu pour la base. La meilleur région serait l’un des pôles car il y a des endroits sur ces pôles où la lumière du soleil est accessible tout le temps et, en proximité immédiate, des cratères en permanence dans l’obscurité absolue où la glace s’est accumulée. Cette glace pourrait être électrolysée pour produire des ergols d’hydrogène et d’oxygène pour approvisionner à la fois des véhicules de retour sur Terre (« ERV ») et des fusées qui fourniraient au personnel de la base lunaire un accès pour exploration à la plus grande partie du reste de la Lune.

Le premier atterrisseur-cargo transporterait des équipements comprenant un dispositif de panneaux solaires, un équipement de communications à haut débit, un faisceau micro-ondes de transmission d’énergie avec une portée de 100 km, une unité d’électrolyse / réfrigération, deux véhicules pour l’équipage, une remorque, et un groupe de rovers-robots télécommandés. Après l’atterrissage, certains des rovers seraient utilisés pour installer le système de panneaux solaires et de communications, tandis que d’autres seraient utilisés pour explorer la zone d’atterrissage en détail et pour poser des radio-émetteurs pour signaler les emplacements précis des atterrissages futurs.

Le second atterrisseur-cargo déchargerait un module d’habitation de 12 tonnes, empli de nourriture, de combinaisons spatiales de rechange, d’équipements scientifiques, d’outils et autres fournitures. Il servirait de logement aux astronautes, de laboratoire et d’atelier. Une fois qu’il aurait atterri, les robots le brancheraient à l’alimentation électrique et tous les systèmes seraient vérifiés. Ceci fait, les rovers seraient déployés pour prendre des photographies détaillées de la zone de la base et de ses environs. Toutes ces données seraient envoyées sur Terre pour aider les planificateurs de mission et les équipes de soutien scientifique et technique et pour finalement établir la structure d’un programme de réalité virtuelle qui permettrait à des millions de personnes de participer aux missions.

La base étant opérationnelle, il serait temps d’envoyer le premier équipage. Un Falcon Heavy serait utilisé pour placer un autre atterrisseur-cargo en orbite dont la charge utile serait constituée d’un Véhicule d’Excursion Lunaire (LEV) dont on aurait fait le plein en carburant/comburant. Ce véhicule serait constitué d’une cabine de deux tonnes comme celle utilisée par le module d’excursion lunaire d’Apollo, monté sur un système de propulsion hydrogène / oxygène d’une tonne chargé de neuf tonnes de propergol et capable de le transporter de la surface lunaire à l’orbite terrestre. Une fusée Falcon 9 certifiée vol habitable emporterait ensuite l’équipage dans une capsule Dragon jusqu’à LEO où il passerait dans le LEV. Ensuite l’atterrisseur-cargo emporterait le LEV avec l’équipage à bord, jusqu’à la Lune tandis que le Dragon resterait en arrière sur LEO.

Après atterrissage sur la base lunaire, l’équipage terminerait les opérations d’installation nécessaires et commencerait l’exploration. Un objectif clé serait d’aller dans un cratère abrité de la lumière solaire et, en utilisant l’énergie transmise depuis la base par rayon, d’utiliser des robots télécommandés pour extraire de la glace d’eau. Après avoir rapporté ce trésor à la base dans leur remorque, les astronautes introduiraient l’eau dans l’unité d’électrolyse / réfrigération qui la transformerait en hydrogène liquide et en oxygène. Ces produits seraient ensuite stockés dans les réservoirs vides des atterrisseurs-cargo pour une utilisation future – principalement pour propulser des fusées mais aussi pour fournir une source d’énergie aux piles à combustible et pour constituer une source abondante de consommables de support vie.

Après avoir passé quelques mois à lancer ce genre d’opérations et à engager d’autres formes de prospection de ressources ainsi que diverses explorations scientifiques, les astronautes prendraient place dans le LEV, décolleraient et retourneraient sur orbite terrestre. Là, ils seraient recueillis par un Dragon – soit celui qui les aurait placés en orbite en premier lieu, soit un autre qui viendrait d’être lancé pour transporter l’équipage assurant la relève sur la Lune – et qui servirait de capsule de rentrée pour la dernière partie du voyage de retour.

Ainsi, chaque mission suivante ne nécessiterait qu’un seul lancement de Falcon Heavy, de 100 millions de dollars, et un seul lancement de Falcon 9, de 60 millions de dollars. Une fois la base établie, il y aurait peu de raisons de ne pas prolonger les séjours de surface à six mois.

En supposant que le coût du matériel de la mission soit à peu près égal au coût de son lancement, nous devrions être en mesure de créer et de maintenir une base lunaire occupée en permanence, pour un coût annuel constant de moins de 700 millions de dollars. Cela représente moins de 4% du budget actuel de la NASA, soit environ le quart de ce qui est dépensé annuellement pour le programme du « SLS » (le lanceur spatial désormais obsolète de l’agence) qui traîne depuis plus d’une décennie sans avoir rien produit.

Les astronautes ne seraient pas limités à l’exploration de la région autour de la base. Ravitaillé avec de l’hydrogène et de l’oxygène, le même vaisseau spatial LEV, prévu pour rejoindre la surface lunaire et revenir sur Terre, pourrait être utilisé pour voler à partir de la base jusqu’à n’importe quel autre endroit de la Lune, atterrir, servir d’habitat sur place pour permettre à l’équipage de mener son exploration, puis revenir à la base. Nous n’obtiendrions pas seulement un poste avancé ; nous aurions un accès complet à un monde tout entier.

Actuellement, la NASA n’a pas de tel plan. Au lieu de cela elle propose de construire une station spatiale en orbite lunaire nommée Deep Space Gateway. Ce gâchis coûtera au moins plusieurs dizaines de milliards de dollars et ne servira à rien, sauf peut-être à fournir une publicité de lancement pour le SLS. Nous n’avons pas besoin d’une station en orbite lunaire pour aller sur la Lune. Nous n’avons pas besoin d’une telle station pour aller sur Mars. Nous n’en avons pas besoin pour aller sur les astéroïdes proches de la Terre. Nous n’en avons pas besoin pour aller où que ce soit. Si nous gaspillons notre temps et notre argent à le construire, nous n’irons nulle part.

Si on veut aller sur la Lune, on doit aller sur la Lune. Nous avons maintenant la capacité de le faire. Saisissons l’opportunité.

Image “à la Une”: Falcon Heavy sur son pas de tir. Photo SpaceX

image ci-dessous; architecture de mission Lune Direct (crédit Robert Zubrin et Space News graphic):

EMC18. Des robots et des hommes sur Mars sous le regard du Temps

Du 26 au 28 octobre la Mars Society Switzerland invite les membres des autres associations européennes de la Mars Society ainsi que le public intéressé par l’exploration de Mars par vols robotiques et la perspective des vols habités, à se réunir à La Chaux-de-Fonds. L’occasion est notre congrès EMC18, autrement dit « 18th European Mars Convention ». Vous, lecteurs fidèles ou qui venez de découvrir ce blog et qui l’appréciez, êtes les bienvenus à venir écouter (en Anglais !) les spécialistes parmi les mieux informés, faire le point sur la recherche mondiale ou leur propre travail et à leur poser des questions. Vous pouvez dès maintenant vous inscrire.

Notre hôte sera le Musée International d’Horlogerie (MIH). A cette occasion cette institution de la Suisse des microtechniques fera une exposition sur les horloges atomiques et leurs applications spatiales. Vous pourrez donc approfondir ou mettre à jour vos connaissances sur les méthodes et les instruments de mesure du Temps (avec ou sans guide). Vous réaliserez ou vous aurez la confirmation que l’aventure spatiale ne serait pas possible sans sa maitrise avec une précision toujours plus grande. Il s’agit en effet lors de l’injection sur une trajectoire transplanétaire, de mettre à feu les moteurs à un instant très précis en fonction de la position du vaisseau spatial, de la position future de l’astre à atteindre, de la puissance de poussée dont on dispose et de la masse à propulser ou bien, dans le processus de descente sur une planète (EDL), de dérouler une séquence d’interventions se succédant à de très courts intervalles, avec les « complications » nécessaires pour agir sur des éléments matériels (les moteurs, les ergols, la portance et la traînée du vaisseau) en fonction de conditions locales très lointaines et changeantes (la pression atmosphérique, les vents, éventuellement la poussière), avec un handicap résultant du décalage dans le temps causé par l’éloignement qui oblige à prendre en compte la vitesse de la lumière. Et rien n’est simple puisque cet éloignement varie entre 56 et 400 millions de km en conséquence de la vitesse relative des planètes sur leur orbite respective, donc entre et 3 et 22 minutes-lumière.

Le « temps » c’est aussi l’évolution du temps-court (journée et subdivisions) constaté sur Mars en même temps que sur Terre. La planète Mars tourne sur elle-même en 24h39 (un « sol »), ce qui est presque mais pas tout à fait notre jour de 24h00. L’homme pourra sans doute s’adapter à cette légère différence. Des expériences menées dans des cavernes (le spéléologue Michel Siffre pendant deux mois dès 1962 puis plusieurs fois ensuite) ont montré que notre rythme circadien se stabilisait vers 24h30. Ceci dit, dans ce cadre journalier, ni la subdivision horaire (pris pour 1/24ème d’un sol), ni les subdivisions inférieures (minutes, secondes) n’ont les mêmes durées sur Mars que sur Terre. Alors, devra-t-on vivre sur un temps martien ou garder le temps terrestre dont la base, la seconde, a été très précisément définie pour être universelle* ? La réponse n’est pas simple car d’un côté toutes nos machines fonctionnent avec le temps terrestre et les Martiens auront pendant encore très longtemps besoin de les importer ou, également, d’être en interactions très fréquentes avec la Terre ; d’un autre côté, ne vivre dans un environnement temporel martien qu’avec des référentiels différents de celles de la réalité vécue poserait problème car il faudra évidemment tenir compte de l’évolution de l’éclairage naturel au cours du sol et de la nuit. Par ailleurs, si l’on gardait les référentiels terrestres en ajustant chaque sol la durée du jour, quand ferait-on l’ajustement quotidien; la nuit ? Mais quand donc est « la nuit » sur une planète qui comme la Terre est en rotation sur elle-même ? Devrait-on ajuster son instrument de mesure du temps de 61minutes et 37 secondes ou d’un multiple de cette durée en changeant de fuseau horaire ? La réponse la plus simple serait de garder les deux référentiels de temps, de porter des montres ou de consulter des horloges « dual-time » comme celle réalisée par l’entreprise Vaucher Manufacture Fleurier (avec mes conseils) qui sera exposée au MIH pendant EMC18.

*« La seconde est la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l’état fondamental de l’atome de césium 133 ».

Le « temps » c’est aussi le temps-long (année et subdivisions). Mars parcourt son orbite en 686,971 jours (soit 668,5991 sols) à comparer à nos 365,256 jours. Bien que Mars connaisse comme la Terre des saisons (son axe est incliné de 25°19 sur l’écliptique à peu près comme la Terre qui est, elle, inclinée de 23°44), subdiviser son parcours autour du soleil en douze mois égaux regroupés en quatre saisons égales ne serait pas satisfaisant car ces mois en moyenne très longs (55,66 jours), ne correspondraient de ce fait pas aux nôtres dès le début de l’année (après 31 jours) et leur durée moyenne serait peu significative car la vitesse de la planète sur son orbite est très inégale (26,5 km/s au périhélie et jusqu’à 21,9 km/s à l’aphélie) compte tenu de l’excentricité de son orbite ( de 206,7 à 249,2 millions de km du soleil). La saison d’hiver de l’hémisphère australe est ainsi beaucoup plus courte que son été (situation évidemment symétrique pour l’hémisphère boréale) et il faudra cependant pouvoir se repérer facilement pour prévoir efficacement les programmes d’actions annuels, d’autant que le climat est extrême et les contraintes qu’il impose, incontournables. Là aussi les Martiens (résidents permanents comme temporaires) devront prendre en compte le déroulement du temps sur leur planète aussi bien que rester informés de celui de leurs correspondants sur Terre. Un référentiel martien avec des saisons martiennes (inégales avec des mois plus courts autour du périhélie) sera inévitable et le « dual time » s’imposera encore. Vous verrez comment suivre les deux à la fois sur l’extraordinaire horloge de Vaucher Manufacture Fleurier.

Le « temps » c’est encore celui de l’histoire de la planète. L’un des domaines principaux de recherche sera l’exobiologie. Or l’objectif principal sera sans doute de trouver des traces d’évolution organique remontant à plus de 3,5 milliards d’années et de les comprendre. Malgré la très faible érosion, cet éloignement dans le temps est considérable et les traces organiques ont forcément évolué y compris et surtout du fait du bombardement radiatif. Savoir lire cette évolution ressort sur Terre de la science bien établie de la « taphonomie ». Sur Mars elle devra trouver de nouveaux repères, d’autant plus difficiles à définir qu’on ne connaît pas le point de départ. Jusqu’à quel point les molécules complexifiées par le « réacteur biologique » martien ont-elles été ensuite altérées, est la grande question. Comment auront résisté au temps les polymères et leurs assemblements (pour ne pas parler d’organismes)? Les éléments chimiques seront-ils restés suffisamment expressifs au niveau isotopique ou structurel (énantiomères) ? Pourra-t-on se contenter de simples biomorphes sans risquer de prendre pour vivant ce qui résulte d’un processus naturel rare ? Au-delà, le temps a-t-il manqué pour que la vie commence (jusqu’à la « découverte » du processus de reproduction), ou au contraire la vie naissante s’est-elle arrêtée avant d’avoir atteint un niveau de complexité et de résilience suffisant, compte tenu de la détérioration des conditions environnementales ?

Le « temps » c’est enfin celui que nous mettrons, nous humains, pour nous décider à aller physiquement sur Mars, à nous y installer et faire le nécessaire pour acquérir une nouvelle autonomie planétaire. Elon Musk aura-t-il le temps (outre les moyens financiers et le succès technologique) pour concrétiser son rêve d’implantation humaine ? S’il échoue parce qu’il ne réunit pas les moyens financiers suffisants ou que son BFR ne peut voler, quelqu’un prendra-t-il la relève ? La NASA parviendra-t-elle à faire voler son SLS et se décidera-t-elle un jour à aller vers Mars plutôt que de s’encalminer sur la Lune ? Si cette étape est franchie, rien ne sera aisé sur Mars où aucune structure n’existe et où les conditions sont si difficiles (mais moins difficiles qu’« ailleurs »). Les premiers hommes pourront-ils supporter l’isolement, la vie encapsulée, la nourriture peu variée, les pannes énergétiques, les proliférations microbiennes dans les habitats ? Pourront-ils le supporter toute une vie et voudront-ils imposer ces contraintes à leurs descendants ? Les Terriens auront-ils de leur côté la patience de maintenir « à bout de bras » (c’est-à-dire de milliards de dollars) une colonie martienne pendant longtemps ? L’échappatoire serait la création de relations économiques fructueuses aussi bien pour les Terriens que pour les Martiens. Ce n’est pas impossible. Mars pourrait devenir un centre de recherche privilégiée pour toutes les technologies de l’environnement, du recyclage, de la production agricole, un laboratoire, peut-être une université, une « mine » de brevets, dans une certaine mesure un havre de tourisme. Et surtout, Mars n’étant pas la Terre, elle pourrait être un refuge aussi bien pour toutes les formes de vie que pour les hommes, un véritable conservatoire de la Terre…Mais le concrétiser sera forcément long.

L’homme est engagé dans une course contre le temps pour devenir une espèce multiplanétaire et se donner une chance d’éviter la décadence et/ou la disparition sur sa planète d’origine surpeuplée et saccagée*. Trop peu de nos décideurs semblent avoir conscience du danger, très peu de la crédibilité de la possibilité martienne. Aurons-nous le temps ?

*PS : Si les hommes parviennent à arrêter leur explosion démographique et la destruction de leur environnement terrestre avant qu’il ne soit trop tard, ce sera tant mieux mais cela n’exclut aucunement l’intérêt du saut vers Mars. Dans ce cas l’établissement sur une autre planète devrait être vu comme un ensemencement permettant le déploiement d’une seconde branche de l’humanité et donc un potentiel d’enrichissement civilisationnel.

Image à la Une: Le Mont Sharp au centre du Cratère Gale. Mosaïque de photos prise par le MastCam de Curiosity et assemblées le 22 mars 2018 (Crédit: NASA/JPL-Caltech/MSSS).  Cette zone est particulièrement riche en argile, donc très intéressante pour la recherche exobiologique…Bien entendu la présence de l’horloge atomique qui se trouve sur la droite de l’image résulte d’un montage. Elle illustre le fait que nous ayons choisi de tenir notre congrès EMC18 au MIH de la Chaux-de-Fonds et que le MIH prenne cette occasion pour faire une exposition sur les horloges atomiques et leurs applications spatiales.

InSIGHT va ausculter Mars pour nous permettre de mieux la comprendre

Entre le 5 mai et le 8 juin* la NASA va lancer une nouvelle mission vers Mars. Elle a été nommée « InSIGHT », pour « INterior exploration using Seismic Investigation, Geodesy and Heat Transport ». Comme ce nom l’indique son objet est l’étude de l’intérieur de la planète, ce qui complétera, dans une « troisième dimension », les connaissances déjà acquises sur la surface et l’atmosphère.

*le lancement est actuellement prévu pour 13h05 samedi.

La décision a été prise le 20 août 2012 ; le lancement devait être effectué entre le 4 et le 30 mars 2016  mais un problème d’étanchéité de la cloche protégeant l’instrument principal (SEIS) a fait manquer cette fenêtre de tir ; la sonde se posera sur Mars le 26 novembre 2018 (voyage de six mois) et commencera à produire des données scientifiques dès le mois suivant. La mission doit durer 728 jours (708 sols), jusqu’au 06 novembre 2020 soit un peu plus d’une année martienne de 669 sols (688 jours).

InSIGHT est la douzième mission du « Discovery Program » de la NASA qui a été créé en 1992 par Daniel S. Goldin (alors Administrateur de la NASA) pour mettre en application son principe de « faster, better, cheaper ». Les missions de ce programme doivent répondre à une des interrogations posées sur des sujets d’exploration de l’espace profond, par la « Revue décennale » (« Decadal Survey ») du « National Research Council » de la « National Academy of Sciences » des Etats-Unis. La mission Pathfinder (1996) en faisait partie mais aussi les missions Phoenix (poussière martienne), Dawn (pour Vesta et Cérès) et Kepler (pour les exoplanètes). Le budget d’InSIGHT, initialement de 425 millions de dollars, a en fin de compte été porté à 813,8 millions majoré de 180 millions pour les participations européennes, essentiellement de France et d’Allemagne. Ce chiffre est à comparer aux 520 millions de Phoenix ou aux 2,5 milliards de Curiosity. Sous la direction de la NASA, l’équipe scientifique est internationale (comme toujours dans ces missions). Elle comprend des chercheurs des Etats-Unis, de France, d’Allemagne, d’Autriche, de Belgique, du Canada, du Japon, de Suisse (pour l’instrument SEIS, voir ci-dessous), d’Espagne et du Royaume Uni.

Sur le plan astronautique elle ne pose pas de problème car ce sera une répétition de la Mission Phoenix (2007-2008). Le lanceur sera un Atlas V de l’Armée de l’air américaine (76 lancements effectués depuis 2002 dont un seul échec et encore, partiel !) ; même atterrisseur, même masse au sol de 350 kg (contre 899 kg pour Curiosity). Le site choisi dans Elysium Planitia (grandes plaines du Nord) se situe  à environ 4° au Nord de l’équateur, entre le massif volcanique d’Elysium et le cratère Gale (Curiosity). Il offre les conditions idéales pour un atterrissage : un terrain plat, lisse et sans rocher (la qualité de l’interface des instruments avec le sol est capitale).

Indépendamment de la mauvaise surprise d’un gros caillou ou de la pente trop forte d’un mini cratère, la mission est par contre délicate du fait de ses objectifs et des instruments embarqués pour les atteindre. Il s’agit de : (1) déterminer la taille, la composition, l’état physique (solide/liquide) du noyau de la planète; (2) déterminer l’épaisseur et la structure de la croûte ; (3) déterminer la composition et la structure du manteau ; (4) déterminer l’état thermique de l’intérieur de la planète ; (5) mesurer la magnitude, la fréquence et la localisation géographique de l’activité sismique interne ; (6) mesurer la fréquence des impacts météoritiques à sa surface.

De quels instruments s’agit-il ? Outre les « yeux » de deux caméras, il y aura un sismomètre (« SEIS »), une sonde qui doit pénétrer dans le sol (« HP3») et un instrument utilisant l’effet Doppler (« RISE »).

L’instrument principal est le SEIS (pour « Seismic Experiment for Interior Structure »). Ce sismomètre (30 kg de masse au total) a été conçu et réalisé par le CNES (Centre National de la Recherche Scientifique, l’agence spatiale française) avec des éléments d’Allemagne, de Suisse, du Royaume-Uni et des Etats-Unis. C’est le CNES  qui a assuré la maîtrise d’oeuvre de l’expérience et Philippe Laudet, de cette institution, qui en est le chef de projet. Le responsable scientifique (PI pour Principal Investigator) en est Philippe Lognonné (Université Paris-Diderot et Institut de Physique du Globe de Paris, « IPGP »). Il a porté le projet pendant plus de vingt ans avec, jusqu’en 2012, beaucoup d’espoirs d’embarquement déçus (comme souvent hélas compte tenu de la rareté des lancements et de leurs coûts !). Le capteur principal est un appareil à très large bande (« VBB ») c’est-à-dire qu’il pourra capter une gamme très étendue de mouvements (la période des ondes sismiques peut varier de 0,1 à 1000 secondes). Il doit donc, en particulier, pouvoir détecter des mouvements extrêmement faibles. Dans ces cas, forcément intéressants sur Mars, planète a priori peu « vivante », sa sensibilité pourrait être troublée par l’environnement extérieur. On a donc prévu une protection, un « bouclier », nommé « Wind Thermal Shield » (réalisé par le JPL), permettant d’isoler l’instrument des variations thermiques (avec une protection en MLI – « Multi-Layer Insulation » – alvéolaire, utilisant du CO2 martien, l’englobant à l’intérieur du bouclier et jusqu’au contact du sol) ou des vents forts (de par sa masse qui doit le maintenir parfaitement en place). Ce bouclier doit isoler également le sol dans l’environnement immédiat du capteur et ce n’est pas facile. Une enceinte sous vide complète la protection. C’est cette dernière qui ne permettait pas de maintenir le vide et donc la capacité d’isolation, qui n’était pas démontrée en 2016, qui a causé le report du lancement. Les ingénieurs sont à présent satisfaits, avec aucune fuite pendant 9 mois de test à la pression terrestre. On aura donc un instrument très performant, beaucoup plus sensible notamment que ceux qui avaient été embarqués par les Viking en 1976 (plus de 1000 fois pour des ondes de volume de 1 sec. et plus de 100.000 fois pour des ondes de surface de 20 sec.). Le sismomètre de Viking 2 s’était avéré influencé par le vent et il n’avait pu prendre qu’une seule mesure (celui de Viking 1 n’avait pas fonctionné). Une difficulté particulière vient de ce qu’il n’y aura qu’un seul sismomètre à la surface de Mars ce qui empêchera d’utiliser la triangulation pour prendre les mesures des mouvements internes de la planète (ce qui est fait habituellement). Les concepteurs de SEIS comptent pallier cette difficulté par l’utilisation des ondes de surface (verticales) en même temps que de volume (verticales et horizontales). A noter que la participation suisse est importante : (1) c’est l’Aerospace Electronics and Instruments Laboratory (AEIL) de l’institut de Géophysique de l’EPFZ qui a développé l’électronique d’acquisition des données et de commande du sismomètre ; (2) ce seront les spécialistes du Service sismologique suisse (SED) de cette même EPFZ qui analyseront les données pour élaborer un catalogue de sismicité martienne. L’IPGP (France) et le JPL (Etats-Unis) sont eux responsables de la détermination des catalogues de structure interne de Mars.

Deux autres instruments compléteront le dispositif : HP3 (« Heat Flow and Physical Property Package »), une sonde que l’on devra faire pénétrer de trois à cinq mètres en profondeur du sol pour évaluer la chaleur interne indépendamment des fortes variations de surface. Outre les informations sur l’état et les flux de chaleur, elle donnera des indications sur la composition du sol et sa densité. Elle est conçue et réalisée par la DLR (agence allemande de l’Espace). RISE (« Rotation and Interior Structure Experiment ») un instrument de mesure des oscillations de la planète au cours de sa rotation (sous l’influence du soleil et des deux satellites naturels de Mars) à partir de l’observation de l’effet Doppler-Fizeau sur les communications entre InSIGHT et la Terre. Cela doit permettre de connaître la distribution et la composition (solide/liquide, éléments chimiques) des masses internes de la planète.

Sur le fond, on sait que le « problème » fondamental de Mars est sa faible masse. Elle ne représente que 1/10 de celle de la Terre et cela a pour conséquence une chaleur interne moindre puisque cette chaleur résulte d’une part de l’énergie cinétique emmagasinée lors de l’accrétion puis du bombardement météoritique, et d’autre part de la décomposition des matériaux radioactifs qu’elle contient (comme la Terre, Uranium 238 / 235, Thorium 232, Potassium 40). Cette faible chaleur interne n’a peut-être jamais été suffisante pour générer une fluidité du manteau suffisante pour déclencher puis entretenir une tectonique de plaques par convection. Par ailleurs elle n’a pas permis le maintien d’un volcanisme très actif jusqu’à aujourd’hui, même si des volcans ont eu des caldera actives dans les 100 derniers millions d’années. Les dernières manifestations de ce volcanisme ont décru depuis l’époque où il constituait le phénomène planétologique dominant, l’Hespérien / Theiikien, il y a 3,9 à 3,5 milliards d’années. Connaître les différentes couches structurant la planète nous renseignera plus finement sur son histoire et notamment sur la durée probable pendant laquelle ces différents phénomènes ont pu exister ou perdurer. Ce qu’on estime actuellement c’est que, par rapport à un rayon de 3380 km (Terre 6570 km), la croûte aurait environ 65 km d’épaisseur (Terre de 5 km à 100 km) mais avec des différences importantes entre le Sud (Syria Planum 90 km) et le Nord, 3 km sous le bassin d’impact Isidis Planitia ou 10 km sous Utopia Planitia , le manteau 1800 km et le noyau 1700 km (il pourrait être entièrement liquide alors que celui de la Terre comprend une partie solide peut-être indispensable pour générer par frottement un effet dynamo donc une magnétosphère). Il s’agit bien sûr de confirmer ou affiner ces estimations, de définir plus finement les couches intermédiaires et de mieux estimer leur viscosité, de manière à pouvoir faire des comparaisons utiles avec la Terre et aussi comprendre mieux la structure des planètes rocheuses en général. Mars du fait de sa taille n’a pas poursuivie son évolution aussi loin que la Terre et peut nous renseigner sur les étapes intermédiaires de cette évolution.

Avec cette mission, on retombe donc indirectement sur l’étude de l’histoire du système solaire et sur celle des conditions prévalant à l’époque où la vie a pu apparaître (et disparaître ) sur Mars. Insight est le chaînon jusqu’à présent manquant des laboratoires embarqués, qui va nous fournir de nouvelles données auxquels les autres pourront être confrontées pour lever des doutes, faire apparaître des (im)possibilités ou de nouvelles logiques. C’est ainsi que progresse la Science.

Image à la Une: représentation d’artiste de l’atterrisseur InSIGHT, crédit NASA. Vous voyez la cloche de SEIS à gauche et la sonde HP3 qui est enfoncée dans le sol, à droite. Les deux antennes RISE se trouvent sur la plateforme à gauche et à droite (inclinées vers les panneaux solaires).

NB: cet article a été soumis avant publication à Monsieur Philippe Lognonné. Il y a apporté quelques corrections et précisions concernant son instrument.

L’exobiologie martienne mérite tous nos efforts

Il est tout à fait improbable que la vie martienne, si elle a existé, ait pu évoluer au-delà des êtres monocellulaires les plus simples, équivalents de nos procaryotes terrestres (bactéries ou archées). L’exploration de Mars à la recherche de traces de l’émergence de la vie n’en reste pas moins, un objectif passionnant et qui mérite que les hommes y consacrent des ressources non négligeables.

Si la vie monocellulaire de type bactérien a dû commencer sur Terre dès la solidification de la croûte terrestre, juste après l’Hadéen, il y a quelques 4 milliards d’années (premiers indices de « mix » d’éléments chimiques et de composition isotopique légère vers 3,8 milliards), la vie métazoaire (vie pluricellulaire organisée) n’a, elle, commencé il n’y a seulement que quelques 600 millions d’années (faune d’Ediacara –« vendobiontes », avant l’explosion cambrienne) et le processus qui a conduit jusque-là a été « semé d’embûches », et d’accidents. Il a fallu notamment que l’oxygène moléculaire, produit en rejet métabolique par les premières formes de vie en surface de la planète (cyanobactéries), ait, il y a plus de 2 milliards d’années, à l’occasion du « Great Oxydation Event » puis du premier épisode « Snowball Earth », commencé à s’accumuler suffisamment dans l’atmosphère pour que les eucaryotes monocellulaires (improbables chimères entre bactérie et archée) puissent l’utiliser pour proliférer malgré les dangers que cet oxydant très puissant leur faisait courir (mais incités à le faire en fonction de son très grand avantage énergétique). Il a fallu ensuite, beaucoup plus tard, il y a 700 à 600 millions d’années, à l’occasion d’un nouveau déséquilibre planétaire (une nouvelle série d’épisodes Snowball Earth) que les niveaux nouvellement atteints par l’oxygène (encore en dessous mais proches des nôtres) permettent à la population de ces eucaryotes de se structurer en êtres pluricellulaires  avec spécialisation par organes constitués chacun de nombreux individus identiques (métazoaires).

Mais l’oxygène moléculaire, indispensable élixir mortel, n’a pu être produit par les cyanobactéries que par photosynthèse à la surface des océans. Sur Mars, la disparition de l’eau liquide en surface, sauf épisodes cataclysmiques par la suite, s’est produite beaucoup trop tôt (vers -3,6 milliards d’années, époque correspondant à celle de nos premiers fossiles de type procaryotique ne pratiquant pas la photosynthèse) et la surface martienne mal protégée par une atmosphère insuffisamment épaisse et ne contenant pas d’ozone, a été dès cette époque probablement trop hostile à la vie. Ne comptons donc pas sur une vie martienne évoluée au-delà de l’équivalent des bactéries terriennes anoxiques les plus simples. Mais espérons tout de même. Il n’est en effet pas impossible que des molécules organiques présentes dans une région de l’espace proche de la nôtre, n’ait évolué dans le « bioréacteur » planétaire martien jusqu’à aboutir à une forme primitive de vie monocellulaire utilisant les matières et les sources d’énergies puisées dans un environnement aussi riche que le nôtre à l’origine. NB : tous les éléments chimiques dont nous sommes faits sont présents sur Mars (Carbone, Hydrogène, Oxygène, Azote + Phosphore, Calcium + Soufre, Sodium, Potassium, Manganèse, Fer & Chlore).

Sur Terre, il est de plus en plus probable que la vie ait commencé, avant que les cyanobactéries ne prolifèrent à la surface de l’océan, au sein des cheminées géothermales formées au fond d’un océan acide, aux limites des plaques tectoniques, par l’eau basique chargée d’effluents minéraux, chauffée, mais pas trop (aux environs de 60°C) par le magma (fumeurs gris de type « Lost-City » sur des failles parallèles aux résurgences magmatiques mid-océaniques). Sur Mars, quelques endroits (fond de la mer d’Eridania) ont pu connaître les mêmes conditions et le même phénomène a pu se produire. Mais il n’est pas impossible que les mêmes conditions favorables aient existé également dans des environnements de type Yellowstone (eau chaude, percolant par des failles d’un sol riche en minéraux alcalins à la rencontre de fluides acides descendant de la surface et riches en soufre et en gaz carbonique, avec un différentiel de pH important). C’est donc à ce niveau très primitif, avant photosynthèse, qu’il faut considérer la possibilité de vie sur Mars. Le processus aurait pu ensuite se développer et se prolonger dans l’environnement du sous-sol, stable, chaud (après les couches des premiers mètres constituées de pergélisol) et protégé des radiations, mais modérément et lentement compte tenu des conditions environnementales (notamment absence d’oxygène et aussi difficulté des contacts entre individus ou populations). C’est la thèse développée par l’astrophysicien Joseph Michalski dans un document scientifique publié en janvier 2018 (voir ci-dessous). Cerise sur le gâteau, le domaine habitable en sous-sol de Mars est beaucoup plus important que sur Terre en raison de la faible masse de la planète (1/10ème de celle de la Terre), donc de la gravité plus faible, ce qui induit une zone de porosité potentielle des roches beaucoup plus profonde (plus du double que sur Terre, jusqu’à 10 km). En fait la limite d’habitabilité est plutôt imposée avant que cette profondeur soit atteinte, par la montée de la température au fur et à mesure que l’on s’éloigne du sol, 120°C étant considéré comme un maximum supportable (3 km sur Terre, 6 km sur Mars).

Mais, comme le souligne Joseph Michalski, l’intérêt de Mars n’est pas seulement d’offrir la possibilité d’observer une forme de vie ailleurs que sur Terre, elle est aussi d’offrir la possibilité d’observer le cheminement de l’évolution pré-biotique jusqu’à la vie. Sur Terre, seulement 0,001 % de la surface est suffisamment ancienne pour porter des traces de l’époque où il a dû se dérouler car le reste est totalement inaccessible ou, surtout, profondément transformé par la tectonique des plaques dont le rouleau compresseur fonctionne depuis plus de 2 milliards d’années. Sur Mars, les surfaces non transformées plus anciennes que 3,5 milliards d’années représentent plus de la moitié de la totalité et le sous-sol immédiat non transformé par les épanchements de lave de l’Hespérien et de l’Amazonien, est encore plus important.

Vous voyez l’enjeu ? Aller sur Mars n’est pas seulement “aller se balader” dans un endroit exotique, c’est aussi chercher les sources de la vie, que l’on ne peut espérer trouver, dans un futur proche, nulle part ailleurs. Quel homme resterait insensible à cet argument qui nous interpelle sous diverses formes depuis que nous sommes conscients ?!

Références :

“The Martian subsurface as a potential window into the origin of Life” par Joseph Michalski et al. in Nature Geoscience, janvier 2018; doi.org/10.1038/s41561-017-0015-2;

“Oxygen” (the molecule that made the world) par Nick Lane, Oxford Landmark Science, 2002;

“A new history of Life” par Joe Kirschvink et Peter Ward, Bloomsbury Press, 2015;

et toujours:

« L’unique Terre habitée? » Par André Maeder, éditions Favre, 2012.

Image à la Une : bactérie  observée dans le lac Whillans (en Antarctique occidentale, sous 700 mètres d’épaisseur de glace). On ne sait pas de quel type serait la vie martienne et quelle forme elle pourrait revêtir. Mais ce serait probablement un être de type procaryote (quasi certainement phylogénétiquement différent des procaryotes terrestres) et, selon nos critères, de « style de vie » extrêmophile  chemoautotrophe (qui puise son énergie et ses matières constitutives dans les éléments inorganiques qui l’entourent). Il devrait être très petit s’il vit dans les pores du sous-sol et de toute manière, pour être efficace. On estime qu’un être vivant ne peut avoir une taille inférieure à 100 nanomètres pour comprendre les constituants minimum nécessaires à la vie. Une bactérie ou une archée terrestre typique ont une taille d’environ 1 micron. Plus la taille est petite, meilleur est le rapport surface volume, ce qui est recherché par cette forme de vie car les procaryotes fonctionnent avant tout au travers de leur membrane externe.

Image ci-dessous : schéma d’une bactérie. Bien qu’il s’agisse de la forme de vie (connue) la plus simple, on peut néanmoins constater son extrême complexité (même si les premières bactéries ont été un peu plus simples, elles ont dû, pour fonctionner, posséder les mêmes organes).

Où en est la réflexion sur le méthane martien ?

La détection, depuis 1999, de bouffées occasionnelles de méthane dans l’atmosphère de Mars constitue l’une des énigmes les plus déconcertantes posées par la planète. Des scientifiques du monde entier y ont travaillé et réfléchi sans encore apporter de solution satisfaisante. Pour aller plus loin, nous allons bientôt disposer d’un nouvel instrument d’investigation très performant. Faisons le point.

Le méthane a été identifié à de multiples occasions par plusieurs équipes scientifiques travaillant de façon indépendante avec différents instruments aussi bien à partir de la Terre que dans l’environnement martien. Ce fut pour la première fois en 2003 par Vladimir Krasnopolski (Catholic University of America) et al. via les télescopes terrestres « IRTF » (Infrared Telescope Facility) et « Keck », tous deux situés au sommet du Mauna Kea sur l’île d’Hawaï. En Mars 2004, l’ESA avec Vittorio Formisano (IFSI, en Italie) et al. le confirmait avec le spectromètre planétaire à transformée de Fourier, « PFS », à bord de son orbiteur Mars Express. Puis en 2009 avec les mêmes télescopes du Mauna Kea, Michael Mumma (Goddard Space Flight Center de la NASA) et al. découvraient la saisonnalité du phénomène. Celle-ci était étudiée par Giuseppe Marzo (Centre de Recherches Ames de la NASA) et Sergio Fonti (Universita del Salento) sur la base des données recueillies entre 1999 et 2004 par le spectromètre pour émissions thermiques (« TES ») embarqué à bord de l’orbiteur de la NASA, Mars Global Surveyor.

Mais pourquoi s’intéresser au méthane ? Le premier problème est que le méthane est un gaz relativement instable mais que sur Mars il devrait subsister en moyenne 340 ans dans l’atmosphère (durée de vie théorique fonction de la destruction photochimique de ce gaz dans l’environnement martien). Or il y est un phénomène saisonnier (environ 200 sols seulement sur une année de 668 sols !) et, de ce fait assez localisé (l’homogénéisation par dispersion ne doit pas pouvoir se faire totalement). Il apparait avec la chaleur au début de l’été et disparait à la fin de l’automne. Le deuxième problème est qu’il peut être généré par la vie (rejet métabolique) et que, comme chacun sans doute le ressent, la possibilité de vie ailleurs que sur Terre est une interrogation essentielle. Le troisième problème c’est que ses émissions sont très variables d’une année sur l’autre. Les premières observations, en 2004, montrèrent des quantités d’une dizaine de « ppbv » (parties par milliards, sur base volumique, mesure utilisée pour les gaz à l’état de traces). En 2009 on était passé à 45 pbbv. A son arrivée en 2012 Curiosity ne trouva presque rien si ce n’est un « fond » oscillant entre 0,3 et 0,7 ppbv  avec maximum à 1,3 ppbv (au point que des études scientifiques sortirent pour dire que ce qu’on avait cru voir était une illusion tenant à la faiblesse des signaux). Puis soudainement fin 2013 et début 2014 le spectromètre TLS (Tunable Laser Spectrometer) du laboratoire embarqué SAM (Sample Analysis at Mars) du rover, enregistra quatre pics atteignant les environs de 7 ppbv. Les quantités observées retombèrent par la suite au niveau du « fond » précédent. Le quatrième problème c’est que les quantités étant non seulement fugaces mais très faibles (quantités à comparer aux 1800 ppbv sur Terre), elles sont difficiles à étudier pour les appareils pointés à partir de la Terre (problèmes de « bruit ») ou même pour ceux qui ont jusqu’à présent été embarquées sur les sondes et orbiteurs évoluant autour de Mars.

Le méthane, CH4, peut avoir plusieurs origines. La plus banale et la plus importante quantitativement aujourd’hui sur Terre est biologique ; c’est la fermentation anaérobique (métabolisme bactérien anoxique). Elle a lieu dans les marais et zones humides stagnantes ou dans le système digestif des ruminants, et ceci depuis fort longtemps. Avant même que la vie puisse utiliser l’oxygène pour la respiration, les premiers microbes ont utilisé le gaz carbonique et l’hydrogène pour obtenir de l’énergie (échange d’électrons à l’intérieur d’un couple redox) en rejetant du méthane. Mais il peut également avoir une origine géologique : le volcanisme, par contact de remontées magmatiques avec de la glace de surface ou proche de la surface (CO2 + H2 de l’eau) ; le thermalisme, permettant également la combinaison du carbone du gaz carbonique avec l’hydrogène de l’eau ; la conversion d’oxyde de fer en roches de type serpentine (Mg, Fe, Ni)3Si2O5(OH)4) à partir d’eau, de dioxyde de carbone et de la chaleur interne de la planète (lente dégradation des matières radioactives). D’autres possibilités pourraient être des impacts au sol de glace cométaire (contenant un peu de méthane) et des intrusions de carbone météoritique vaporisées à leur entrée dans l’atmosphère ou tout simplement l’effet de froid de l’hiver austral qui congèle une partie du gaz carbonique et facilite donc la concentration de méthane dans l’atmosphère pendant l’été boréal.

Le problème c’est que les quantités que ces phénomènes pourraient produire ou apporter sur Mars ne correspondent pas aux volumes constatés (Chris Webster qui pilote l’instrument de Curiosity pour cette étude les évalue à trois fois supérieures). Le volcanisme y est très ralenti (les dernières éruptions doivent remonter à une dizaine de millions d’années) et il est donc peu probable que des remontées magmatiques approchent suffisamment les poches de glace souterraines ou superficielles. Mars Odyssey équipé de son spectromètre-imageur « THEMIS » (pour THermal Emission Imaging System, l’instrument le plus approprié), n’a pas encore repéré de points chauds (constants par rapport aux poussées magmatiques) en surface de la planète mais compte tenu de la température de la croûte superficielle de Mars, les manifestations hydrothermales en surface même si elles existent ne devraient pas être assez chaudes (aux températures possibles, la production de méthane sur Terre est très basse). Les impacts cométaires, incontestables, ne devraient pas contribuer à la production pour plus de 2%. De même les impacts météoritiques ou la poussière interplanétaire ne peuvent compter pour plus de 4%. Enfin les phénomènes atmosphériques généraux ne pourrait expliquer la localisation apparente des sources. Dans ces conditions où la géologie semble ne pas pouvoir avoir une action suffisamment puissante, une faible activité biotique souterraine reste une cause possible. On peut exclure le processus biologique en surface (radiations, pression basse, sécheresse, froid) mais pas en sous-sol, à une profondeur permettant l’eau liquide (sous le permafrost).

A noter cependant que la libération de méthane dans l’atmosphère peut aussi être déconnectée de l’époque de sa production. En effet le sol de Mars étant gelé sur une épaisseur non négligeable, le gaz peut avoir été encapsulé dans des sortes de cages de glace (les « clathrates » ou « hydrates de méthane ») il y a très longtemps (échelle de plusieurs millions d’années), une partie de ces « cages » se sublimer chaque année à la saison chaude et le gaz parvenir alors dans l’atmosphère par les pores du sol.

Symétriquement la rapide disparition dans l’atmosphère est difficile à expliquer mais elle pourrait être due à l’action combinée du rayonnement ultra-violet (transformation du CH4 en méthyl, CH3 + H) et à une roche particulièrement réactive en surface (peroxyde d’hydrogène, H2O2) ou à des particules oxydantes en suspension dans l’air (par exemple O2 + méthane => formaldéhyde). Elle pourrait aussi résulter de processus électrochimiques ou triboélectriques (électricité statique) durant les tempêtes de poussière ou le passage de « dust devils » (par exemple le H2O2, provoquerait la transformation du CH4 en dioxyde de carbone, méthanol, formaldéhyde). L’avantage du caractère saisonnier est qu’il permet de mieux voir l’origine des émissions. Elles se centrent au Nord de la planète, sur les zones volcaniques de Tharsis, Elysium, et à l’Est d’Arabia Terra, dans la région du volcan de Syrtis Major (riches en gaz), de Nili Fossae (une région de failles tectoniques et de roches hydratées, phyllosilicates et carbonates) et de Terra Sabae (sous-sol riche en hydrogène, c’est-à-dire en eau).

L’orbiter TGO (« Trace Gas Orbiter ») de l’ESA lancé en Mars 2016 et arrivé dans le domaine de la planète en Octobre 2016, doit atteindre son orbite d’observation en avril 2018 (après un lent ajustement par aérofreinage). Sa sensibilité est extrême (quelques dizaines de pptv -parties par trillion en volume) et il pourra à partir de son orbite faire des mesures aussi précises que celles de Curiosity au sol mais sur toute la surface de la planète. Il est dommage qu’il ne soit pas déjà opérationnel car le 24 janvier Mars a traversé le sillage d’une comète passée extrêmement près de la surface de Mars (moins de 1/10ème de la distance Terre Lune) et que cela aurait permis d’observer l’effet de l’entrée des poussières carbonées vaporisées dans l’atmosphère. Il faudrait aussi pouvoir analyser les atomes de carbone des molécules de méthane martien ; cela permettrait de savoir s’ils comportent une surabondance d’isotope 12 de cet élément puisque c’est celui qui est privilégié par la vie. Encore faudrait-il déposer des capteurs dans une des zones qui semblent les plus productives de méthane. Précisément Nili Fossae semble être la source la plus riche et c’est une des régions candidates pour l’atterrissage du rover Mars-2020 de la NASA. Avec ce rover et TGO nous sommes donc peut-être tout près d’obtenir l’explication recherchée !

Références:

https://www.sciencedirect.com/science/article/pii/S0019103504002222

“Detection of methane in the Martian atmosphere: evidence for life?” par Vladimir Krasnopolski et al. Science direct, Icarus 172 (2004) 537-547; 20/08/2004.

https://www.aanda.org/articles/aa/pdf/2010/04/aa13178-09.pdf

“Mapping the methane on Mars” par S. Fonti et G. Marzo, Astrophysics & Astronomy, A51(2010 DOI:10.1051/0004-6361/200913178, publié début 2010.

https://www.nasa.gov/mission_pages/mars/news/marsmethane.html

“Martian methane reveals the red planet is not a dead planet” 15 01 2009, par Michael Mumma.

http://sci.esa.int/mars-express/45811-methane-on-mars-workshop-2009/?fbodylongid=2134

“Analyzing the consistency of Martian methane observations by investigation of global methane transport” par James A. Holmes et al. in Icarus 257 (2015) 23–32; disponible en ligne 20 April 2015.

Image à la Une : Visualisation d’un panache de méthane observé dans l’atmosphère de Mars au cours de l’été boréal. Crédit: Trent Schindler / NASA

Image ci-dessous; carte des concentrations de méthane sur Mars (première année d’observation). Crédit: NASA/Università del Salento. On voit clairement l’absence de méthane en hiver (hémisphère Nord), la reprise au printemps, la montée en puissance en été et l’abondance relative la plus forte en automne.

L’océan martien gagne en crédibilité et ses dates se précisent

Depuis que la dichotomie crustale martienne a été observée, les Terriens que nous sommes rêvent d’une planète semblable à la nôtre, avec un océan comme les nôtres qui, en l’occurrence, aurait occupé tout le Nord de la planète (« Oceanus Borealis »). Cela est tentant puisque l’on sait qu’il y a eu de l’eau liquide sur Mars, puisque le fond de l’océan présumé est beaucoup plus lisse et d’altitude beaucoup plus basse que les Hautes terres du Sud qui le bordent et puisque l’on observe des traces d’écoulements puissants dans la zone intertropicale, aboutissant aux Basses terres du Nord.

Il est avéré cependant que la surface de ces Terres du Nord est beaucoup plus pauvre en roches hydratées que les Terres du Sud (notamment en argile ou autres phyllosilicates). Par ailleurs les lignes de rivage apparentes sont moins nettes quand on s’en approche et elles varient considérablement en altitude selon de longues ondulations longitudinales (on dit qu’elles ne suivent pas une « surface équipotentielle »). La première impression, de nature géographique, a donc été reléguée pendant un temps dans la catégorie des fausses impressions intuitives mais depuis quelques temps, l’hypothèse de l’Océan global martien « refait surface ».

En effet, on a d’abord observé que la diélectricité était très faible (comparée à celle typique des matériaux volcaniques) dans tout le sous-sol de la région ce qui indique un sol occupé par de l’eau (glace) ou poreux (suite à la disparition par sublimation de la glace). On a ensuite considéré que les différences d’altitude dans la ligne de rivage diffuse pouvaient être dues à des mouvements internes de la planète ayant eu une influence sur son volume en surface (renforcement du socle volcanique de Tharsis, formation de la déchirure de Valles Marineris, volcans divers à la limite de la dichotomie crustale). On a encore jugée que la température de l’eau avait pu être trop froide, la profondeur trop faible et la permanence d’eau liquide trop courte pour que la transformation des roches par l’eau se soit produite, comme sur Terre. On a enfin observé dans des météorites martiennes que la composition isotopique de l’eau, plus précisément son rapport hydrogène / deutérium, était constante dans tous le bassin de l’océan présumé et que cette composition était différente de celle de l’eau atmosphérique et de l’eau du sous-sol profond, semblant indiquer qu’il y avait eu homogénéité d’un très large volume d’eau liquide en surface (autant qu’aujourd’hui dans l’Océan Arctique terrestre) occupant plus ou moins le volume du bassin de l’hémisphère Nord délimité par la dichotomie crustale.

Avec deux autres études dont l’une date de 2016 et l’autre toute récente (19 mars 2018), on a de nouvelles explications, logiques et fortes, sur le caractère diffus, en certains endroits, des lignes de rivage et les fortes variations en altitude de ces mêmes lignes.

Avant de les considérer, il faut au préalable remarquer que :

(1) la ligne de rivage a forcément changé tout au long des quelques 800 millions d’années où l’océan a été possible, même par intermittence. D’ailleurs deux des trois lignes étudiées par les auteurs  et qui correspondent à un océan à deux époques successives de l’Hespérien (entre – 3,7 et – 3,4 milliards), sont en retrait par rapport à la rupture de pente principale de la dichotomie crustale à la hauteur de laquelle se situe la première ligne (“Arabia”), parce que sans doute le volume d’eau disponible sur la planète était déjà réduit par rapport au volume présent à l’origine (au Noachien tardif, de -4,2 à -3,7 milliards).

(2) pour qu’il y ait ligne de rivage, il suffit qu’il y ait fluide. C’est-à-dire que l’océan peut avoir été de la glace plus ou moins fondue, recouvrant éventuellement de l’eau vraiment liquide, mais aussi contenant, mêlés à l’eau, des quantités plus ou moins importantes de matières solides, boue et roches, compte tenu de la violence de l’environnement (volcanisme, astéroïdes et flux cataclysmiques).

D’après les auteurs des deux nouvelles études, ce serait précisément cet environnement violent qui expliquerait l’imprécision des lignes. Ils remarquent en effet (a) des vestiges de flux lobés orientés vers le Sud et sur des distances plus ou moins importantes selon la pente du terrain (de quelques dizaines à plus de cent kilomètres) et (b) des lignes de reflux rapides encombrées de gros rochers.  Ils font le rapprochement entre ces reliefs et les impacts d’astéroïdes, remarquant à l’époque (fin de l’Hespérien, vers -3,4 milliards), la fréquence des cratères d’une trentaine de km de diamètres (espacés de 2 à 3 millions d’années en moyenne), coïncidant avec du volcanisme (épaississement de l’atmosphère et donc possibilité d’eau liquide). Ces traits de reliefs (on pourrait dire de grosses « éclaboussures ») correspondraient selon eux à des « tsunamis », résultant de ces impacts intervenus sur une planète disposant d’un atmosphère non négligeable et dans un milieu aqueux.

Par ailleurs on suppose maintenant de plus en plus que la constitution de la masse du bouclier volcanique de Tharsis a provoqué un « True Polar Wander » (« TPW » ou « dérive des pôles vraie ») c’est-à-dire un basculement en un seul bloc des couches supérieures de la planète par rapport à son axe de rotation. Le volcanisme spectaculaire de Tharsis (trois volcans géants sur un socle gigantesque de 5000 km de diamètre) apparaît en effet comme résultant d’une énorme et exceptionnelle fuite magmatique au travers de la croûte de Mars jusqu’à la surface, provoquée par une longue accumulation de chaleur à l’intérieur et une très grande difficulté à s’échapper du fait de l’épaisseur de la croûte. Tharsis par sa masse, a déséquilibré cette enveloppe extérieure de la planète qui a glissé sur le manteau visqueux (ou les deux sur le noyau liquide) jusqu’à se rééquilibrer après avoir atteint l’équateur. Le déplacement aurait été de l’ordre d’un angle de 20°. Ce déplacement a déformé la croûte d’autant qu’elle était déjà légèrement renflée à l’équateur du fait de la rotation de la planète et que ce renflement a dû se reformer autour du nouvel équateur. Ces déformations conjuguées à celle induite par l’intrusion d’une masse énorme de matière volcanique en surface, a pu provoquer l’ondulation en altitude de la ligne de rivage antérieure que l’on constate aujourd’hui. Par le même coup on peut dater l’Océan martien, d’environ – 4 milliards (avant Tharsis puisque la ligne de rivage la plus ancienne a dû être déformée par Tharsis aux environs de – 3,6 milliards), jusqu’à – 3,4 milliards (après que l’essentiel des flux cataclysmiques provoqués par Tharsis se soient épuisés). Cela sous-entend que, après que l’atmosphère primitive ait disparue (vers – 4 milliards), de nouveaux épisodes d’atmosphère relativement dense se soient reproduits, toujours par volcanisme, ce qui permit à nouveau à l’eau de couler sans se sublimer trop rapidement (marge de liquidité de quelques petites dizaines de degrés et températures fraîches) et donc de remplir à nouveau les Basses Terres du Nord par une vaste étendue liquide ou au moins fluide. Cela sous-entend aussi que ces épisodes de renforcements de densité atmosphérique étroitement liés au volcanisme devinrent exceptionnels à la fin de l’Hespérien / début de l’Amazonien (nettement avant – 3 milliards), mettant ainsi fin aux réapparitions de l’Océan martien.

Petit à petit se dessine ainsi une histoire, assez peu terrienne, qui explique la spécificité de Mars : un climat toujours froid et le plus souvent sec, une atmosphère rapidement dissipée, vers – 4 milliards d’années, et périodiquement faiblement reconstituée par le volcanisme, une eau liquide par intermittence, un océan mais peu d’hydratation de roches. On est bien à la limite de l’habitabilité de surface et peut-être que ces conditions n’ont pas été suffisantes pour l’émergence de la vie, ou juste suffisantes pour quelques tentatives sans lendemain. Dans cette direction, on peut encore avoir des surprises, par exemple découverte de quantités importantes de carbonates résultant du piégeage du CO2 par l’eau de l’Océan primitif (avant Tharsis), dans le fond de cet océan (c’est-à-dire sous le nappage volcanique et les alluvions qui l’encombrent sur plusieurs centaines de mètres) qui signifieraient plus de chaleur et de plus longues périodes d’atmosphère dense. Quoi qu’il en soit, même si Mars n’a jamais été une seconde Terre, elle lui a quand même ressemblé plus que toutes autres planètes que nous connaissons.

Image à la Une : carte de Mars (en projection de Mercator) de l’Astrogeology Science Center (USGS), établie selon les données recueillies par l’instrument Mars Orbiter Laser Altimeter ( MOLA) embarqué par la sonde Mars Global Surveyor (MGS); Crédits: NASA.

NB: La couleur bleue n’indique pas l’eau mais les surfaces situées en dessous du Datum. Les couleurs bleue ou ocre sont plus ou moins intenses selon la profondeur ou l’altitude. Le bloc ocre foncé à l’Ouest est le socle de Tharsis avec ses trois volcans géants. Olympus Mons est juste à gauche de l’ensemble. La tache bleue foncée au Sud Est est le bassin d’Hellas, la région la plus basse de la planète (-8 km par rapport au Datum).

Références :

(a) Mouginot et al.2012. Dielectric map of the Martian northern hemisphere and the nature of plain filling materials.Geophys. Res. Lett. 39, L02202.

(b) Tomohiro Usui et al. Meteoritic evidence for a previously unrecognized hydrogen reservoir on Mars. Earth and Planetary Science Letters 410 (2015) 140-151; Elsevier doi:10.1016/j.epsl.2014.11.022.

(c) Rodriguez, J. A. P. et al. Tsunami waves extensively resurfaced the shorelines of an early Martian ocean. Sci. Rep. 6, 25106; doi: 10.1038/srep25106 (2016).

(d) Robert Citron et al. Timing of oceans on Mars shoreline deformation. Nature, doi:10.1038/nature26144; publié le 19 mars 2018.

TESS va détecter par la méthode des transits les petites planètes de nos voisines stellaires

Entre le 16 avril et fin juin 2018, la NASA doit lancer le satellite TESS (« Transit Exoplanet Survey Satellite ») portant un assemblage de quatre télescopes pour détecter un maximum d’exoplanètes de type terrestre dans le « voisinage » de notre système solaire. L’objectif est de contribuer à améliorer nos connaissances sur une fraction de l’étrange bestiaire planétaire qui nous entoure.

La mission TESS a été conçue par le « Kavli Institute for Astrophysics and Space Research » du MIT avec pour « Principal Investigator » le Dr. George Ricker, astrophysicien. Ses partenaires sont un consortium américain constitué par le Goddard Space Flight Center de la NASA, le Lincoln Laboratory du MIT (centre de recherche du Département fédéral de la Défense), Orbital ATK (spécialiste de la construction de satellites), l’Ames Research Center de la NASA, le Harvard Smithsonian Center for Astrophysics, and le Space Telescope Science Institute (STScI) qui dirigera la recherche faite avec le futur James Webb Space Telescope (« JWST »), successeur de Hubble (et qui lui intégrera la recherche de TESS). Le lancement sera effectué par Space X à partir de Cap Canaveral avec une fusée Falcon 9. La mission primaire durera deux ans (il pourra y avoir extension). L’investissement d’ensemble (hors lancement) est de 337 millions de dollars, ce qui est « modeste » (la mission est classée « SMEX » pour « Small Explorer Mission » c’est-à-dire mission scientifique à coût modéré). TESS est vu comme un successeur de Kepler (lancé en 2009 et maintenant dans l’extension de sa mission, “K2”, jusqu’en 2019), un précurseur du JWST (qui sera lancé l’an prochain) et un complément de WFIRST (qui pourrait être abandonné, à la demande du gouvernement américain).

Image ci-dessous (crédit NASA), insertion de TESS dans le programme d’exploration des exoplanètes:

La méthode utilisée sera, comme avec Kepler, celle de la « détection des transits » c’est-à-dire de la diminution de la luminosité de l’étoile du fait du passage devant elle (c’est-à-dire entre elle et nous) d’une planète (cela donne le diamètre de cette dernière si on combine les données d’occultation avec celles du déplacement radial et la fréquence des transits). Les cibles sont (1) dans une sphère de 300 années-lumière de rayon, les planètes telluriques orbitant quelques 15.000 étoiles sélectionnées sur un potentiel de 200.000, soit de type « naines orange » (classées « K » dans le diagramme de Hertzprung-Russel), soit de type « naines jaunes » jusqu’à la taille du Soleil (classées « G ») ; ainsi que (2) dans un rayon de 100 années-lumière, les planètes telluriques orbitant environ un millier d’étoiles de type naines rouges (classées « M »). L’observation couvrira 85% de la voûte céleste. On peut constater tout de suite une différence essentielle avec Kepler qui, comme un crayon lumineux, explore un tout petit secteur du ciel (0,28%) mais sur une beaucoup plus grande profondeur (3000 années-lumière). Kepler ne peut de ce fait distinguer le transit que d’une population de planètes assez hétérogène (du fait que plus on s’éloigne, plus les planètes doivent être grosses pour, de notre point de vue, avoir un effet perceptible sur la lumière de leur étoile). Kepler est aussi beaucoup plus limité dans sa sensibilité. TESS pourra « traiter » des étoiles beaucoup plus lumineuses (30 à 100 fois plus), gérant donc un différentiel de lumière beaucoup plus important entre la planète et l’étoile (il est moins difficile de noter l’effet d’une même planète sur la lumière d’une naine rouge que sur celle d’une naine jaune).

TESS collectera la lumière avec quatre télescopes, complété chacun par une caméra CCD avec des éléments optiques qui créeront ensemble un champs de vision de 24° par 24° (quatre images juxtaposées en carré). En cas d’intérêt particulier, elles pourront être focalisées sur une seule étoile. L’instrument visera pour chaque hémisphère une succession de 13 bandes de 24°, constituées chacune de 4 carrés de 24° par 24° et couvrant l’ensemble du ciel du pôle à l’écliptique (en fait un peu plus, 96°). Il restera en opération 27 jours sur chaque bande. Kepler est sur une orbite héliocentrique, il suit la Terre sur son orbite, en s’en éloignant lentement. TESS sera positionné sur une orbite terrestre stable, très excentrique (jusqu’à l’orbite lunaire). Cette orbite tout en maintenant le satellite à proximité de la Terre sur la durée, permettra de maximiser la quantité de ciel qu’il pourra imager sans interruption pendant le temps donnée pour l’observation de chaque bande. Cela permettra aussi d’optimiser les conditions de températures et de radiations (en sortant des ceintures de Van Allen).

Image ci-dessous : plan d’opération de TESS (crédit NASA):

Vous remarquerez qu’il y aura chevauchement d’observations pour certaines régions du ciel (au fur et à mesure qu’on s’éloigne de l’écliptique et qu’on va vers les pôles).

Les détections de planète seront transmises aux observatoires terrestres pour examen avec d’autres méthodes pratiquées par ces observatoires, notamment celle des vitesses radiales permettant de connaître la masse des planètes. Elles seront aussi transmises au JWST lorsqu’il entrera en fonction dans un peu plus d’un an, pour l’analyse des atmosphères par spectroscopie. Le Dr. Ricker a très bien défini la mission de TESS. D’après ses propres termes, ce sera un « finder-scope » autant qu’un « télescope ».

L’intérêt de TESS sera de balayer l’ensemble de notre univers proche. Sa limitation viendra du fait qu’il n’utilisera que la méthode des transits. Cela ne permettra pas de voir les planètes des systèmes stellaires dont l’écliptique n’est pas orthogonale à notre visée ou avec un angle s’éloignant trop des 90°. Cela rendra aussi très aléatoire la détection de planètes en zone habitable d’étoiles de type solaire. En effet les planètes de ce type passent moins souvent devant leur étoile, environ une fois par an, car elles doivent en être éloignées d’environ une unité astronomique, comme la Terre, pour bénéficier d’une température permettant l’eau liquide. Par ailleurs, un transit doit être vérifié pour être certain qu’il résulte bien du passage d’une planète (pour Kepler trois transits sont requis) et aussi pour connaitre leur distance à l’étoile (durée de parcours de l’orbite pour un certain rapport de masses). On aura donc de la chance si on les observe passant devant leur étoile juste pendant la courte fenêtre des 27 jours d’observation (avec la réserve que certaines régions du ciel seront observées plus longtemps que d’autres, jusqu’à 351 jours aux pôles, comme expliqué ci-dessus, mais ce ne sera pas suffisant non plus). Et si on les aperçoit, il faudra attendre la fin de la mission primaire pour revenir fixer leur étoile pour essayer de constater d’autres transits de leur part. Les objectifs sur ce point sont d’ailleurs modestes. Les porteurs du projet espèrent observer 5000 transits et identifier 50 planètes de la taille de la Terre (et 500 inférieures à 2 fois la Terre*) sur un total de 20.000 exoplanètes dont 17.000 d’une taille supérieure à Neptune (pour mémoire, à ce jour Kepler a identifié 2342 exoplanètes et en considère 2245 de plus; l’ensemble des télescopes y compris Kepler, 3706). Il faut surtout s’attendre à trouver des planètes jouissant certes de la possibilité d’eau liquide en surface mais orbitant autour de petites étoiles de type naine rouge à une distance très courte les exposant à des forces de marée très forte (rotation synchrone à l’étoile ou « tidal lock ») et à des sursauts radiatifs très impropres au développement d’une forme de vie.

*NB : au-delà de deux fois la Terre, la masse d’une planète rocheuse génère une pression interne, une chaleur et des réactions qui en changent la nature.

Tess apportera donc sa pierre à la connaissance et à la compréhension de notre environnement mais son lancement ne doit pas faire oublier que la réalisation de son complément WFIRST est aujourd’hui menacée. Rappelons que ce dernier, si son abandon n’est pas confirmé, recueillerait, en direct, le rayonnement infrarouge des planètes et permettrait de déceler beaucoup moins difficilement et avec leur spectre propre, les fameuses planètes de type terrestre orbitant des étoiles de type solaire dans leur zone d’habitabilité.

Image à la Une : vue d’artiste du satellite TESS, vous remarquerez les quatre télescopes. Crédit NASA.

lien vers le site de la NASA: http://nasa.gov/tess

Dans sa politique spatiale le Président Trump a tout faux

Selon Robert Zubrin*, fondateur et président de la Mars Society, l’administration du président Trump perpétue l’erreur des administrations précédentes en n’assignant pas un objectif clair à la politique d’exploration spatiale. Il semble en outre que cette politique soit basée sur une mauvaise compréhension du contexte spatial, dans ses difficultés et ses opportunités. Ce faisant elle risque malheureusement de passer à côté de l’avantage considérable que lui offrent les innovations technologiques de SpaceX. Le résultat c’est que les Américains risquent de dépenser en vain pour n’aller nulle part.

Voici la traduction de ce qu’écrivait le Dr. Zubrin le 2 Mars 2018 dans la National Review, revue très lue et très influente dans les milieux conservateurs américains :

Un programme spatial axé sur un objectif?

Le 12 février, l’administration Trump a dévoilé son projet de budget pour la NASA. Alors que le financement total de 19 milliards de dollars n’est pas très différent des niveaux approuvés par les administrations Obama et Bush, ce projet a réussi à porter l’incohérence de la pensée de l’agence spatiale à des niveaux vraiment remarquables.

Un exemple particulièrement frappant d’illogisme est donné par la décision de l’administration d’annuler le télescope d’exploration infrarouge à grand champ (WFIRST) tout en persévérant vers la réalisation d’une station spatiale en orbite lunaire baptisée « Deep Space Gateway ».

WFIRST* est un télescope spatial de 2,4 mètres de diamètre doté de capacités supérieures à celles de Hubble, qu’on aurait pu mettre en orbite pour un budget exceptionnellement bas de 3 milliards de dollars en raison du don à la NASA par le « National Reconnaissance Office », d’un satellite espion excédentaire. Il permettrait des découvertes révolutionnaires d’exoplanètes et pourrait potentiellement révéler la vérité sur la nature de l’énergie sombre supposée être la cause de l’expansion de l’univers, et sur de nombreuses autres interrogations dans le domaine de l’astrophysique. Il a été approuvé et fortement soutenu en tant que priorité absolue par tous les conseils scientifique entourant le gouvernement.

*NdT: voir aussi mon article précédent “WFIRST pourrait nous éclairer sur le mystère de l’énergie sombre

Deep Space Gateway (récemment rebaptisé « Lunar Orbital Platform-Gateway »), quant à lui est un lamentable gâchis qui coûtera plusieurs dizaines de milliards de dollars et ne servira à rien. Nous n’avons pas besoin d’une station en orbite lunaire pour aller sur la Lune, sur Mars ou sur les astéroïdes proches de la Terre. Nous n’en avons besoin pour aller où que ce soit.

En orbite lunaire il n’y a rien à faire, rien à utiliser, rien à explorer. Il est vrai que l’on pourrait faire fonctionner des rovers à la surface de la Lune depuis son orbite mais l’argument selon lequel installer une telle station serait utile pour éliminer le délai de deux secondes nécessaire pour les contrôler depuis la Terre, est absurde. Nous sommes sur le point d’avoir des voitures autonomes sur Terre qui pourront gérer les conditions de circulation à New York et à Los Angeles et il y a beaucoup moins de trafic sur la Lune !

Pourtant, le problème avec Deep Space Gateway est beaucoup plus grave que le gaspillage de décennies en temps et de dizaines de milliards de dollars en bon argent. Le problème le plus profond est la forme de pensée qu’il représente.

Les programmes d’astronomie et d’exploration planétaire robotiques de la NASA ont réalisé des exploits qu’on peut qualifier d’épiques parce qu’ils sont axés sur des objectifs. En revanche, depuis la fin d’Apollo, le programme de vols spatiaux habités de la NASA n’a visé aucun objectif. En conséquence, ses réalisations ont été négligeables.

Si le but est de construire une base lunaire, elle devrait être construite sur la surface de la Lune. C’est là que se trouve la Science, c’est là que se trouvent les matériaux de protection contre les radiations, et c’est là que se trouvent les ressources nécessaires pour fabriquer les ergols propulseurs et autres choses utiles. Le meilleur endroit pour la construire serait à l’un des pôles car il y a dans ces régions de petites zones où la lumière du soleil est accessible tout le temps ainsi que des cratères dans l’obscurité perpétuelle où la glace s’est accumulée. Une telle glace pourrait être électrolysée pour fabriquer des propulseurs à hydrogène-oxygène, pour alimenter les véhicules de retour sur Terre ainsi que des « hoppers » balistiques qui fourniraient à l’équipage de la base un accès pour exploration à la plus grande partie du reste de la Lune. (Ndt : un hopper est un petit transporteur fonctionnant par réaction de gaz chauffés par panneaux solaires mis au point par Robert Zubrin pour usage sur Mars, à partir du CO2 de l’atmosphère).

L’administration Trump dit qu’elle veut retourner sur la Lune mais ses actions ne sont pas compatibles avec cet objectif. En plus de ce projet farfelu en orbite lunaire, son budget affecte 7,5 milliards de dollars au cours des trois prochaines années à la préparation du premier vol du Space Launch System (SLS) alors que nous avons déjà le Falcon Heavy de SpaceX qui peut emporter en orbite 70% de la charge utile du SLS pour un dixième du coût. Les mêmes fonds, s’ils étaient dépensés pour développer des atterrisseurs et des véhicules ascensionnels, pourraient permettre un retour sur la Lune dans quatre ans et des missions humaines sur Mars dans huit ans.

La situation est vraiment ironique. Avec le succès de Falcon Heavy l’Amérique pourrait dès maintenant être positionné sur une base solide pour une véritable percée dans l’exploration spatiale. L’argent disponible est suffisant. Ce qui manque, c’est une direction intelligente. Nous n’irons jamais sur Mars si nous laissons notre programme de vols spatiaux habités avancer au hasard.

La NASA n’est pas allée sur la Lune en incorporant dans son programmes tout ce que les industriels et leurs représentants mettaient en avant comme éléments qui pourraient éventuellement servir. Elle y est allé en prenant fait et cause pour un objectif clair et en agissant en conséquence.

Au lieu de saboter les efforts scientifiques sains et motivés de la NASA, l’administration Trump devrait se concentrer sur une direction pareillement rationnelle, appliquée à un programme de vols spatiaux habités qui reste scandaleusement à la dérive.

Fin de traduction.

lien vers l’article en Anglais: https://www.nationalreview.com/2018/03/nasa-lunar-space-station-unnecessary-space-flight-plans-lack-purpose/

Commentaire :

Robert Zubrin exprime très clairement l’inanité du projet de station spatiale en orbite lunaire. On dirait que le concept sort de la tête de personnes qui ne connaissent rien au sujet traité. Si le projet est exécuté, le seul résultat sera d’avoir une deuxième Station Spatiale Internationale (ISS), à la différence que cette fois ci les astronautes qui l’occuperont seront beaucoup plus exposés au radiations spatiales puisqu’elle sera située hors de la protection du champs magnétique terrestre. L’administration américaine voudrait dégouter le grand public des missions spatiales habitées qu’elle ne s’y prendrait pas autrement. Par ailleurs ignorer les travaux et le succès d’Elon Musk est incompréhensible puisque, en même temps, SpaceX est un fournisseur apprécié de la NASA pour ses ravitaillements de la Station Spatiale et a prouvé avec son Falcon Heavy sa capacité à placer en orbite terrestre la charge utile que le SLS est incapable de lever alors qu’il est en préparation depuis le double de temps. Cette incohérence tend à confirmer que ce qui préoccupe l’administration américaine c’est avant tout de soutenir l’emploi dans l’industrie spatiale quel que soit l’objet auquel cette industrie applique ses efforts (et notamment la mise au point du SLS). C’est assez lamentable.

*NB : Robert Zubrin détient un MS en Aéronautique et Astronautique et un Ph.D en Ingénierie nucléaire (Uni. de Washington). Il a été membre de l’équipe de la société Lockheed Martin (constructeur des fusées Apollo) chargée de développer ses stratégies d’exploration spatiale. Il a été également “senior engineer” chez Martin Marietta Astronautics (successeur de Lockheed Martin) en charge du développement des concepts avancés de missions interplanétaires. Il a fondé la Mars Society en 1998 et a écrit de nombreux ouvrages sur la faisabilité des missions habitées sur Mars (notamment « The Case for Mars » en 1995). Il est aujourd’hui entrepreneur indépendant : président de Pionneer Astronautics, société de recherche et développement dans les technologies aérospatiales et à ce titre fournisseur de la NASA ; président de Pionneer energy, société de recherche et développement dans le pétrole et les ergols de synthèse. A ce titre il a mis au point une technologie écologique innovante de récupération des gaz non traités lors de l’exploitation des gaz de schistes.

Image à la Une: Projet “Lunar Orbital Platform Gateway”, vue d’artiste, crédit Lockheed Martin.

Image ci-dessous: concept ESA d’une base lunaire avec habitat réalisé en impression 3D avec du régolite lunaire (vue d’artiste, credit ESA):

 

 

WFIRST pourrait nous éclairer sur le mystère de l’énergie sombre

Selon la théorie la plus communément admise en cosmologie, mais pas par « tout le monde », la matière « ordinaire » (baryonique) ne constitue que 4,9% de la masse de l’Univers. Se pose dès lors le lancinant problème de la nature et de la localisation de « tout le reste ». On a déduit, sans pouvoir le confirmer par observation, qu’il se compose d’« énergie sombre » (68,3%) et de « matière noire » (26,8%). Le télescope WFIRST de la NASA a été conçu pour nous aider à élucider ce mystère.

L’origine de cette déduction vient de ce que plusieurs faits observés ne concordent pas avec ce qu’ils devraient être en application des théories de la cosmologie classique. Par exemple l’expansion de l’univers, qui semble accélérer ou encore la vitesse de rotation des galaxies, plus rapide en leur périphérie qu’elle devrait l’être. C’est cela qui a conduit les astrophysiciens et les physiciens dans leur immense majorité*, à adhérer à l’hypothèse de l’énergie sombre** dans le premier cas et de la matière noire** dans le second .

**Energie sombre: supposée en 1998 par Huterer et Terner; présente partout, elle induirait une sorte d’antigravité;

**Matière noire: supposée en 1933 par Fred Zwicky puis en 1970 par Vera Rubin; localisée, elle « alourdirait » les galaxies d’une masse invisible.

*Seules quelques voix discordantes dont celle d’André Maeder (voir ci-dessous) s’élèvent contreElles sont très minoritaires, au moins pour l’instant.

Il n’est pas question de « voir » l’énergie sombre ou la matière noire mais d’en constater les effets, avec autant de précision que possible, et sur des objets différents, afin de la comprendre. Pour en démontrer la réalité et en percevoir la nature, les tenants de cette théorie doivent donc utiliser les moyens dont ils disposent c’est-à-dire les ondes électromagnétiques que l’on reçoit et parmi elles celles qui sont les plus pertinentes c’est-à-dire celles qui mettent le mieux en évidence les « anomalies » qu’ils recherchent.

WFIRST (« Wide Field Infrared Survey Telescope », en français « Télescope d’étude infrarouge grand-champ ») a été conçu principalement pour cela. Il s’agit d’un télescope qui capterait les longueurs d’onde de l’infrarouge proche (juste un peu plus longue que celles du spectre visible) jusqu’à 2 µm et qui étudierait plus finement les variations à travers le temps exprimées par ces rayonnements, du taux d’expansion de l’univers. Les télescopes à infrarouge ont une capacité différente des télescopes à lumière visible ou à rayons X puisqu’ils ne voient pas les sources chaudes, les plus énergétiques, mais les sources froides (on devrait dire « moins chaudes »). Ils peuvent nous donner beaucoup plus d’informations que les autres télescopes à ondes plus courtes puisqu’ils repèrent beaucoup mieux la multitude d’objets lointains « ordinaires » qui s’enfuient à grande vitesse de nous (effet Doppler-Fizeau) du fait de l’expansion de l’univers. Par ailleurs la localisation dans l’espace de WFIRST permettrait de ne pas souffrir de l’absorption de ces rayonnements par les gaz et l’humidité atmosphérique. Le grand-champ (100 fois celui de Hubble !) serait d’autant plus utile que l’on ne recherche pas à voir un astre précisément mais plutôt des environnements au travers de ces astres pour les comparer. Pour étudier les effets de l’énergie sombre via le taux d’expansion, ses promoteurs veulent mesurer les « oscillations acoustiques des baryons »* ou la distance de luminosité des supernovæ de type « ia » (à explosions thermonucléaires ≠  des supernovæ à implosions du fait de l’effondrement de leur cœur) dont la luminosité absolue est connue, et étudier les lentilles gravitationnelles faibles, sur la plus grande profondeur possible de l’espace. Selon la distance, les effets de l’énergie sombre doivent avoir varié pour des masses semblables compte tenu de l’accélération de l’expansion sur la durée.

*avant la période dite « de recombinaison », des ondes acoustiques se propageaient dans le plasma primordial. On retrouve les effets de ces ondes étirées par l’inflation cosmique dans la distribution de la matière au sein des amas de galaxies.

WFIRST pourrait certes ne pas confirmer la tendance à l’accélération mais ce n’est pas le plus probable. Alternativement, la confirmation de l’expansion accélérée mais avec des résultats non concluants en ce qui concerne les effet d’une énergie sombre ou d’une matière noire sur la matière baryonique donnerait toutes ses chances à la théorie sur les propriétés du vide développée par André Maeder, publiée en janvier 2017  dans « The Astrophysical Journal ». André Maeder, professeur émérite à l’Université de Genève, ne nie pas la réalité de l’accélération, bien au contraire, mais considère qu’elle devrait être « simplement » une conséquence du vide à grande échelle (dans le cadre duquel les règles de la relativité générale s’appliquent), en prenant pour hypothèse « l’invariance d’échelle du vide », hypothèse selon laquelle l’espace vide a les mêmes propriétés à quelque échelle qu’on le considère. Et dans ses calculs, cette invariance fait apparaître un terme très petit d’accélération de l’expansion qui s’oppose à la force gravitationnelle…Juste ce que l’on recherche ! Toute énergie sombre ou matière noire deviendraient donc inutiles pour expliquer l’accélération. Les personnes intéressées peuvent lire sa démonstration dans l’étude scientifique vers laquelle je donne le lien ci-dessous.

WFIRST, projet du Goddard Space Center de la NASA depuis la revue décennale de 2010 (« Decadal Survey » du « National Research Council » de la « National Academy of Sciences ») a bénéficié de l’offre d’un miroir gratuit de la NRO (« National Reconnaissance Office ») qui n’en a plus l’usage par suite de l’abandon d’un projet de satellite espion pour qui il avait été construit. Le miroir, de type Richtey-Chrétien comme celui de Hubble, est plus grand que celui prévu à l’origine (2,4 mètres, comme celui de Hubble, contre 1,5 mètres) et gratuit. Cela abaisse évidemment fortement le coût de l’ensemble, ramené à 1,7 milliards de dollars (contre 2 milliards pour Hubble, mais en 1990). Il serait doté d’un imageur grand-champ, d’un spectromètre et d’un coronographe (pour occulter les sources lumineuses trop violentes par rapport aux sources froides recherchées). Il aurait une masse de 7,5 tonnes à laquelle il faudrait ajouter trois tonnes d’ergols nécessaires à la circularisation de l’orbite d’observation et aux ajustements de cette orbite durant les six ans de la mission.

WFIRST serait positionné de préférence au point de Lagrange L2, en opposition au Soleil (dans l’ombre perpétuelle de la Terre), où la température est froide et stable et la pollution lumineuse du soleil absente. Alternativement (antérieurement) il aurait pu être positionné en orbite géostationnaire de la Terre.

WFIRST a des objectifs accessoires (mais importants pour justifier la mission vis-à-vis des décideurs), notamment l’observation des exoplanètes en exploitant l’observation des lentilles gravitationnelles faibles (puisque les planètes sont des sources froides et que le télescope disposerait d’un coronographe très innovant par son adaptabilité à la surface stellaire devant être occultée) ; un passage de planète devant l’étoile en premier-plan entraînant une augmentation de la masse de l’ensemble et donc un accroissement de son effet de lentille. C’est intéressant pour les planètes se situant à plus de 0,5 UA de leur étoile car cela comblerait un manque : on observe généralement, par la méthode du transit ou des oscillations radiales, plus facilement les planètes plus proches de leur étoile et avec les coronographes classiques les planètes beaucoup plus lointaines (40 UA) de leur étoile ; or les planètes « habitables » (celles que l’on recherche en priorité) doivent se situer ni trop loin, ni trop près de leur étoile (la température doit permettre l’eau liquide en surface).

Le projet a été validé en février 2016 et le lancement pourrait avoir lieu mi-2020. Malheureusement le dernier budget de la NASA proposé par la nouvelle administration américaine veut y mettre fin car elle a « d’autres priorités ». En fait le gouvernement américain lance la NASA sur le projet ultra-coûteux et a priori totalement inutile mais spectaculaire, de station spatiale en orbite autour de la Lune (« Deep Space Gateway » devenu « Lunar Orbital Platform-Gateway »). Beaucoup de beaux projets risquent d’être sacrifiés à ce « machin » sans aucun intérêt qui n’est que la continuation de l’ISS dans un environnement plus hostile. Il reste un espoir, le refus du Congrès de suivre la proposition du gouvernement.

Image « à la Une » : représentation artistique du télescope WFIRST (crédit NASA, Goddard)

Liens :

“An alternative to the ΛCDM model: the case of scale invariance”, par André Maeder, dans “The Astrophysical Journal”:

http://iopscience.iop.org/article/10.3847/1538-4357/834/2/194/meta

article paru dans Le Temps sur l’étude d’André Maeder:

https://www.letemps.ch/sciences/un-professeur-genevois-remet-question-matiere-noire

Article de Huterer et Terner sur l’énergie sombre:

https://arxiv.org/pdf/0803.0982.pdf

articles de la NASA sur le projet WFIRST:

https://www.nasa.gov/feature/goddard/2017/nasa-s-next-major-telescope-to-see-the-big-picture-of-the-universe

https://wfirst.gsfc.nasa.gov/

PS : Je salue Stephen Hawking avec respect, admiration et émotion. Il a démontré de la façon la plus brillante la domination de l’esprit sur la matière. Il est un exemple pour tous.

Sur le plateau aride de Chajnantor, les antennes d’ALMA sont en fleurs

Les sources froides de rayonnements électromagnétiques spatiales sont maintenant à notre portée sur Terre, grâce à la forêt de télescopes fonctionnant en interférométrie à 5000 m d’altitude sur le plateau de Chajnantor. On ne sait ce qu’il faut admirer le plus, les technologies employées pour mettre en place le dispositif ou la technologie qu’il utilise pour observer l’univers.

ALMA (pour « Atacama Large Millimeter/submillimeter Array ») capte les ondes de longueurs allant de 0,32 à 3,6 mm. Ces ondes se situent entre les infrarouges et les ondes radio. Elles transmettent de l’information sur les objets les plus froids de l’univers, très faiblement visibles ou souvent cachés par des émissions plus chaudes, donc tout ce qui est nuage de gaz et de poussière intersidéraux, astres en formation, ou objets très lointains (premières galaxies, dont le décalage important vers le rouge est dû à la vitesse d’éloignement résultant de la distance).

Malheureusement ces ondes sont difficiles à observer car leur rayonnement est absorbé par la vapeur d’eau contenue dans l’atmosphère terrestre. On a donc recherché pour installer nos capteurs, l’endroit le plus haut (l’atmosphère la moins épaisse) et le plus sec qui pouvait être aménagé sur Terre* et on a choisi le haut-plateau de Chajnantor dans le désert d’Atacama, qui est effectivement extrêmement aride et élevé. L’endroit est heureusement relativement accessible car proche de la ville principale du Nord du Chili, Antofagasta, et du village de San Pedro de Atacama (50 km). Il est aussi proche du Cerro Paranal où sont implantés les Very Large Telescope (« VLT ») de l’ESO (European Southern Observatory).

NB : Mars de ce point de vue constituerait un emplacement idéal pour un futur interféromètre géant, et ce serait une des justifications pour que des hommes aillent s’y installer.

Pour les capteurs, pas question de miroirs donc de télescope à proprement parler puisque les ondes reçues ne sont pas dans le spectre du visible, mais des antennes. Le problème c’est que plus la longueur d’onde est grande (ce qui est le cas quand on s’éloigne des ondes visibles vers les ondes radios) moins la résolution est bonne et plus grande doit être l’antenne. Il faut donc chercher à combiner la lumière de plusieurs capteurs entre eux et c’est pour cela que l’interférométrie s’est vite imposée pour l’étude de cette partie du spectre des ondes électromagnétiques.

Pour ALMA le dispositif choisi est un ensemble gigantesque constitué de soixante-six antennes, soit cinquante, mobiles, de 12 mètres de diamètre, quatre antennes, en formation compacte, du même diamètre et douze antennes de 7 mètres. C’est le plus grand projet astronomique au sol. Les antennes peuvent être utilisées ensemble comme un seul télescope, selon différentes configurations allant de l’équivalent d’un diamètre de 150 m à celui d’un diamètre de 16 km, ce qui permet de considérer le dispositif comme un zoom. Dans la configuration 16 km il y aura une densité d’antennes très faible et donc même si la résolution sera excellente, l’intensité des images sera faible.  Dans l’arrangement le plus compact des antennes (qui donne l’équivalent d’un diamètre d’environ 150 mètres) les résolutions vont de 0,5 secondes à 4,8 secondes d’arc (selon la fréquence des ondes) ; dans l’arrangement le plus étendu (diamètre de 16 km) la résolution va de 20 millisecondes d’arc (“mas”) à 43 mas. A titre de comparaison la résolution d’un miroir de 8,2 mètres du VLT (ondes visibles) est de 50 mas (mais le VLT fonctionne aussi en interférométrie, dans sa gamme d’ondes électromagnétiques). Les signaux reçus par les antennes sous forme analogique, sont convertis en données numériques puis traitées par un superordinateur (le « corrélateur »), un des plus puissants au monde, cerveau du dispositif, couplé à un oscillateur équipé de deux horloges atomiques qu’on peut comparer au cœur du système.

Lancé il y a une vingtaine d’année, l’observatoire a requis des travaux considérables qui ont commencé sur place en 2008. Il fallait concevoir et construire les antennes, les acheminer (elles sont très lourdes -100 tonnes pour les plus grosses – et volumineuses) dans un endroit sans route et créer, outre les infrastructures nécessaires à leur fonctionnement individuel et en formation (apport en énergie, dispositif de commandes, de combinaison des ondes reçues, traitement de l’information), celles qui sont indispensables à la vie. Compte tenu de l’altitude, les astronomes, astrophysiciens, ingénieurs et le personnel (150 personnes en continu) ne séjournent pas sur le plateau mais à 2000 mètres en dessous (et à 30 km de distance) dans une base-vie ultra-moderne, semi-enterrée (pour faciliter la climatisation). La « Résidence », remise à l’administration de l’observatoire en avril 2017, au cœur d’un ensemble technique nommé l’« ALMA operation support facility » (OSF) est dotée de tout le confort moderne, y compris une piscine pour aider à supporter la sécheresse extrême. Elle sera complétée par un centre sportif couvert et également semi-enterré, dont la construction vient de commencer (2 mars 2018). Malgré tout, la réalisation du projet n’a coûté que 1,4 milliards de dollars (c’est aussi le coût de la première phase de l’ELT, également dirigé par l’ESO, en cours de construction au Sud d’Antofagasta).

Comme toujours maintenant, ces gros projets sont des « joint-venture » multinationales faisant appel à des compétences et des contributions mondiales. Le financement, outre l’ESO, a impliqué la NSF (National Science Foundation) aux États-Unis, le Conseil national de recherches du Canada (CNRC), le National Science Council (NSC) et l’Academia Sinica (AS) à Taïwan, et les National Institutes of Natural Sciences (NINS) au Japon. La construction et la mise en service ont été réalisées par le JAO (Observatoire Commun ALMA) émanation de l’ESO, de l’Observatoire national de radio astronomie aux États-Unis (NRAO) et de l’Observatoire national d’astronomie au Japon (NAOJ). Le JAO reste chargé des opérations. La Suisse, membre de l’ESO est très présente. Un des parrains du projet sur le plan conceptuel, est le professeur Georges Meylan, ancien directeur du laboratoire d’astrophysique à l’EPFL. Plusieurs docteurs de l’EPFL ont travaillé avec lui sur le projet et de nouveaux doctorants suisses l’utilisent aujourd’hui (Le Professeur Meylan était le Délégué scientifique Suisse au conseil de l’ESO jusqu’en 2015 et son successeur, Willy Benz, professeur de physique et d’astrophysique à l’Uni de Berne, a été nommé en décembre 2017 Président du board de l’ESO ; il est à ce titre membre du board de l’ALMA).

L’inauguration de l’observatoire a eu lieu en 2013 car il n’était pas nécessaire d’attendre l’implantation de toutes les antennes pour commencer à travailler (simplement l’intensité des images n’était pas à son maximum). L’exploitation a donc commencé et la demande de temps d’observation étant très forte, les promoteurs ont commencé à amortir leur investissement. Nous en sommes maintenant au cinquième cycle (annuel) de recherche. En Novembre 2017 le board de l’ALMA annonçait qu’on avait atteint ce que les astronomes appellent le « steady level » c’est-à-dire une configuration suffisante pour mener toute la gamme d’observations possibles. C’est une nouvelle phase d’exploration de l’univers qui commence, en parallèle avec celles menées par les autres capteurs travaillant dans d’autres longueurs d’onde, comme les VLT voisins ou l’ELT (qui ne doit être achevé qu’en 2025).

D’ores et déjà ALMA a fourni des résultats spectaculaires : images de disques protoplanétaires qui permettent de mieux comprendre l’évolution de ces disques vers la formation de planètes ; observation d’anneaux d’Einstein (autour de lentilles gravitationnelles) avec une précision inégalée ; détection de molécules organiques complexes jamais détectées dans des disques protoplanétaires lointains.

Avec ALMA la « panoplie » d’instruments permettant de voir toujours plus loin et plus clair, se complète et nos découvertes s’étendent tout en nous posant toujours plus de questions passionnantes.

Lien vers le site ALMA de l’ESOhttp://www.eso.org/sci/facilities/alma.html

Image à la Une : représentation du système ALMA, crédit ESO ;

Image ci-dessous : transporteur d’antennes ALMA. Crédit ESO/NAOJ/NRAO