Les ayatollahs du climat s’opposent aux vols habités dans l’Espace ; ne leur cédons pas !

Les extrémistes climatiques mènent actuellement une campagne contre le tourisme spatial. Ils sont parvenus à mettre dans leur camp Philippe Droneau, le « Directeur des publics » de la Cité de l’Espace de Toulouse. Cette campagne est une menace pour la Liberté et le Progrès. Le raisonnement qui la sous-tend est biaisé et donc infondé. C’est grave, d’autant que Philippe Droneau suggère également d’interdire l’accès de l’espace profond au « vulgum pecus ».

Dans son interview par le magazine en ligne Usbek et Rica publié le 23 juin, il fait essentiellement les objections suivantes : (1) Il y a urgence climatique ; développer massivement des vols suborbitaux de loisir n’est pas pertinent en raison de leur coût écologique (libération de dizaines de tonnes de carbone dans la haute atmosphère) et de leur coût éthique ; (2) Il est faux de prétendre que le tourisme pourrait financer les projets privés d’exploration ou autre ; (3) Mars ne pourra être une « planète B ». Même s’il y a un jour une colonie sur Mars, dans 200 ans, ça concernera une centaine d’individus au plus. La priorité, c’est de s’occuper des bientôt 9 milliards de Terriens et de gérer le vaisseau spatial Terre.

Ma première réponse à ces objections est qu’elles sont sans nuance et donc excessives, comme le sont souvent les déclarations des écologistes politiques. Si « beaucoup » de « quoi-que-ce-soit » (la production d’acier par exemple) peut poser un problème environnemental, « un peu » est souvent non seulement acceptable mais souhaitable. Ce sont les quantités ou les doses qui posent problème et non la nature même des activités humaines. En ce qui concerne les vols de fusées affectées au tourisme spatial ou au transport planétaire terrestre il faut bien voir que la population concernée sera peu nombreuse. On parle de prix qui seront ceux d’une super première-classe s’il s’agit d’aller de New-York ou de Londres à Sydney ou de passer un week-end dans l’espace. On peut envisager l’équivalent de 20.000 CHF d’aujourd’hui par personne. Cela veut dire que très peu de monde répondra à l’offre (pour donner une idée, les passagers de première classe sur long courrier représente 0,3% seulement du nombre de passagers d’Air France). Cela veut dire qu’il y aura relativement peu de vols (peut-être un millier par an). Mais cependant ce nombre de vols sera suffisant pour créer une très sérieuse économie d’échelle permettant d’abaisser considérablement le coût unitaire des éléments réutilisables des lanceurs (dont le premier étage) pouvant être affectées aux Starships interplanétaires qui ne partiront sur la Lune que peut être tous les mois en moyenne et pour Mars que tous les 26 mois (compte tenu de la configuration planétaire). Les vols à objectif scientifique vers la Lune et vers Mars (ou autres) en profiteront forcément ; « it’s the economy, stupid ! ».

En ce qui concerne l’impact écologique il faut bien voir qu’un excellent cocktail d’ergols est constitué par de l’hydrogène liquide (LH) brûlant dans de l’oxygène liquide (LOX). C’est ce qui était utilisé pour Ariane V et ce n’est pas polluant (production d’eau !). Toutes les combustions ne sont pas polluantes ! On peut certes supposer que pour les voyages martiens on utilisera plutôt le méthane (CH4) brûlant dans le LOX (puisque la production de méthane pour le vol de retour sera relativement facile sur Mars). Cela produira du CO2 ce qui est aujourd’hui considéré comme inacceptable mais il faut bien voir que les vols vers Mars ne seront pas nombreux et que ces vols ne seront pas la seule source de CO2 dans le monde (cf. les centrales à charbon allemandes). Cette limitation résulte d’abord de ce que les possibilités en sont réduites par les fenêtres de lancement (un mois tous les 26 mois) et aussi de ce que pendant très longtemps les infrastructures martiennes seront trop peu développées pour accueillir des dizaines de vaisseaux partis pendant que ces fenêtres sont ouvertes. Quand les infrastructures seront suffisamment développées les technologies de transport auront évolué. Pour les voyages planétaires (point à point du globe terrestre) on pourra continuer à utiliser la propulsion HL/LOX.

Un autre point à noter est qu’une fusée consomme l’essentiel de ses ergols en altitude relativement basse (contrairement à ce que laisse croire Philippe Droneau). En effet ce qui représente la masse la plus importante d’un vaisseau spatial avant décollage c’est la part des ergols qui va permettre le décollage de la totalité de la masse*, incluant la totalité de ces mêmes ergols, avec une force suffisante pour lui donner une vitesse initiale qui permettra ensuite une accélération toujours plus rapide, tant qu’il y aura du carburant. Plus le vaisseau monte, plus il prend de la vitesse et plus sa masse se réduit. L’essentiel est donc consommé dans les premières dizaines de km d’altitude (grâce à la plus grande partie de la masse du premier étage) et non pas dans la « haute atmosphère » (comparez juste visuellement le volume d’un premier étage avec celui d’un second étage, sans y inclure l’habitat ou la charge utile).

*Pour le “Super-Heavy”+”Starship” de SpaceX (le tout étant appelé précédemment le “BFR”), 4400 tonnes dont 3065 pour le premier étage (Super Heavy) et 1335 pour le second étage (Starship) dont 185 tonnes à vide (ou plutôt “à sec”) avec sa charge utile (100 tonnes). Pour comparaison l’Airbus a380 a une masse de 575 tonnes au décollage et une masse de 277 tonnes à vide.

Ma deuxième réponse est qu’en niant l’intérêt des vols touristiques, Philippe Droneau ne voit pas que non seulement ils vont permettre de réduire le prix unitaire des vols scientifiques effectués avec les mêmes fusées (comme développé plus haut) mais aussi que sur Mars le « vol + séjour » touristique peut aussi permettre de faire tourner une économie locale qui coûterait encore plus cher si elle n’était prévue que pour le séjour de scientifiques. Pourquoi donc refuser l’argent du privé s’il peut aider à développer la base martienne et à faire fonctionner la recherche ?! Cette remarque me semble d’autant plus pertinente que les « touristes » qui, au-delà de l’orbite basse terrestre, viendront passer un séjour nécessairement long sur Mars, 18 mois (imposé par les contraintes synodiques), devraient très souvent y « faire quelque chose » ou y « tenter quelque chose », qui pourrait s’avérer utile et profitable à tous (ils y seront d’autant plus incités qu’ils auront payé très cher ces « vacances »). Le « touriste » pourrait être un cinéaste mais il pourrait être aussi un futur entrepreneur venu tester une idée, un concept, dans un environnement extrême ou il pourrait être un « étudiant-chercheur » de haut niveau voulant bénéficier de l’environnement intellectuel exceptionnel de la communauté martienne (concentration extrêmement forte de personnes à la pointe de chacune des nombreuses technologies nécessaires à la vie sur Mars…et sur Terre). Je trouve que la proposition de Monsieur Droneau de vouloir restreindre l’accès à l’espace à des « spécialistes » est extrêmement élitiste, arrogante et contraire aux intérêts même de la Science. Tout le monde ayant une motivation suffisante et capable de réunir les moyens financiers nécessaires (les siens propres ou ceux de ses sponsors), ce qui va d’ailleurs ensemble, doit pouvoir avoir accès à l’Espace pourvu que son projet ne soit pas nuisible de façon évidente à l’intérêt commun (il devra quand même y avoir un comité ou conseil pour accepter les candidatures, ne serait-ce que pour des raisons de sécurité ou de nombre de « places » limitées).

Ma troisième réponse est que oui Mars pourrait être pour les Terriens une planète-B. Il est évident que seule une infime partie des Terriens pourront s’établir sur Mars. Non pas 100 dans 200 ans mais plutôt 1000 dans 20 ans, contrairement à ce que pense Philippe Droneau, mais de toute façon un nombre très, très inférieur à la croissance annuelle actuelle de la population mondiale. Mais ces quelques personnes pourraient emporter avec elles, conserver et faire fructifier la quintessence de notre civilisation ; ce n’est pas rien ! Cela vaut un effort et même de diffuser quelques tonnes de CO2 supplémentaires dans l’atmosphère terrestre. Dans le cas d’un cataclysme survenant sur la Terre ce serait pour nous tous, ceux qui seraient partis et ceux qui n’auraient pas pu ou voulu partir, une seconde chance (intellectuellement pour les seconds). Dans le cas d’une continuation heureuse de notre civilisation sur Terre, ce serait un enrichissement potentiel, le nouveau milieu accueillant la vie suscitant forcément des innovations profitables également à la vie sur Terre…Tout ceci pourvu évidemment que l’on laisse suffisamment de temps aux nouveaux Martiens pour s’installer et, dans le cas de l’hypothèse catastrophiste, qu’ils aient eu suffisamment de temps pour acquérir une autonomie leur permettant de survivre si la civilisation terrestre est détruite. Ce ne sera pas demain! En attendant, du fait de la stimulation du milieu, la présence d’une colonie humaine sur Mars nous apportera des innovations intéressantes pour tous, Martiens et Terriens, dans le domaine du transport, de la durabilité, du recyclage, de la productivité agricole, du traitement économe de l’environnement, de son contrôle microbien, etc…

Alors dans ce contexte, je ne vois vraiment pas quel est le « coût éthique » auquel fait allusion Philippe Droneau. Je trouve que sa vision de notre futur, de nos besoins et de nos devoirs, est extraordinairement étriquée et conventionnelle. Un vrai scientifique devrait faire confiance à nos capacités d’innovations et d’adaptation ; ce ne semble pas être son cas. C’est fort regrettable pour quelqu’un chargé de la diffusion de la Science auprès du Public.

Image de titre: le premier étage Super-Heavy et son Starship au décollage dans l’atmosphère terrestre; le premier étage va jusqu’aux ailerons (à la base du Starship). crédit SpaceX.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 20

50 ans et depuis, quasiment rien!

Il y aura cinquante ans ce 21 juillet des hommes posaient pour la première fois le pied sur la Lune. Je n’aime pas les célébrations lorsque leurs causes n’ont pas permis les effets qu’on pouvait en espérer et c’est bien hélas ici le cas. En effet qu’avons-nous accompli dans l’Espace en matière de vols habités depuis cet exploit ? Quasiment rien relativement à cette première excursion.

Après avoir atteint la Lune, premier « sommet » possible, la NASA s’est endormie sur ses lauriers en se laissant porter paresseusement par le grand fleuve des dépenses publiques dans les méandres de l’indécision et du manque d’audace, au ras de l’altitude zéro, sans aucune vision autre que celle de profiter de la promenade sans encourir de risque. La deuxième puissance spatiale, l’URSS, a enragé d’avoir perdu mais s’est tue, « encaissant » sans doute le fait que son système politisé à l’excès, totalement rigide, ne lui permettait pas d’être aussi efficace qu’un pays d’esprits libres. La troisième puissance spatiale possible, l’Europe a regardé de haut, méprisante, ces Américains qui jouaient aux personnages de science-fiction à grand renfort de dollars au lieu de faire des choses « utiles » mais de toute façon son programme Europa, successeur de Diamant et précurseur d’Ariane n’aurait pas été, et de loin, « à la hauteur » des capacités de la Saturn V américaine (pas plus qu’Ariane ne l’est devenue d’ailleurs !).

Après l’accomplissement spectaculaire et brillant toujours dans les esprits, du programme Apollo en 1972, la NASA avait le choix. Il s’agissait de continuer à explorer puis de s’installer sur la Lune ou de construire une station spatiale pour réaliser plus tard une « île de l’espace » à la Gerard O’Neill ou encore de partir pour Mars. A la croisée des chemins, en fonction de ses motivations, on peut toujours se tromper et c’est ce qui fut fait surtout si on présume comme la NASA de la réponse sans se préparer au refus de l'”Administration”. D’un côté le Président Nixon n’était pas John Kennedy et de l’autre, la NASA était portée par l’hybris générée par le succès.  Il y avait divergence totale entre un Président qui n’était pas vraiment intéressé par l’Espace puisque les Russes avait été battus dans la course engagée avec le vol de Gagarine le 12 avril 1961 et une institution publique devenue pléthorique en fonctionnaires et en moyens financiers, qui s’imaginait sans doute que les caisses de l’Etat étaient à sa disposition sans qu’il soit vraiment utile de se préoccuper du niveau des dépenses. Nixon choisit donc la Navette (« the Shuttle ») en donnant son feu-vert le 5 janvier 1972, pour « continuer », on ne sait trop vers quoi.

Ce qui a manqué à l’époque c’est la vision et l’audace. La Navette était un compromis qui permettait d’attendre de fixer un objectif puisqu’elle devait être utile pour l’atteindre, quel qu’il soit, et de permettre à la NASA et à ses fournisseurs donc aux Etats où ils étaient installés, de continuer à « tourner » et donc d’alimenter le système en (bons) électeurs. Les présidents, Nixon ou ses successeurs Gérald Ford, Jimmy Carter, Ronald Reagan, ne voyaient pas l’avantage qu’il y aurait eu à « sortir du berceau » pour s’installer durablement sur Mars ou à défaut sur la Lune. En fait les décideurs politiques étaient restés très « Terra-centrés ». Ils ne voyaient l’intérêt de l’Espace qu’en fonction de la Terre en général et de leurs relations avec les autres grands pays du monde, en particulier. Par ailleurs l’horizon d’une administration ou d’un président des Etats-Unis était (et est resté) de 8 ans c’est-à-dire de deux mandats. Le programme Apollo avait montré que c’était un peu juste (discours de John Kennedy le 25 mai 1961, premier atterrissage sur la Lune le 21 juillet 1969) et il n’était pas question pour Nixon en 1969 de se lancer dans l’aventure alors que la guerre du Viêt-Nam battait son plein. En 1972, date de la dernière mission Apollo (A17), il ne lui restait qu’un mandat (qui fut d’ailleurs écourté !).

La Navette dont le vol inaugural eu lieu en avril 1981 a été une voie sans issue (qui a été fermée en juillet 2011) car on a voulu utiliser des technologies qui n’étaient pas adaptées à la réutilisabilité et on a persévéré dans l’erreur (comme peut le faire une administration), à grand coût (notamment pour l’inspection et la remise en état du bouclier thermique après chaque vol). Il était aussi cher d’envoyer une navette dans l’espace (1,5 milliards par vol) que d’y envoyer un lanceur lourd de type Saturn V. Les seuls réussites furent les 5 missions de « STS » (pour « Space transport System ») qui entre décembre 1993 et Mai 2009, permirent de corriger la vue du télescope Hubble (l’« aberration optique » de la périphérie de son miroir primaire) car dans ce cas la Navette servit d’atelier et d’hôtel aux astronautes qui effectuèrent la réparation (notamment Claude Nicollier qui en décembre 1993 put mener à bien les opérations décisives à l’aide du bras robotique, RMS -Remote Manipulator System).

La Station Spatiale Internationale (« ISS ») lancée en 1998 fut tout autant une voie sans issue, une perte de temps et d’argent car on aurait pu expérimenter toutes les techniques de support vie sur la Lune ou sur Mars plutôt que dans l’espace et le fait qu’elle soit positionnée en orbite basse terrestre (LEO) a empêché toute tentative d’expérimenter des mises en gravité artificielle d’habitats par force centrifuge (la Station étant trop près de la Terre…et la plupart des dirigeants de la NASA ne se souciant pas vraiment de cette solution aux problèmes posés par l’apesanteur). Quant aux manœuvres de « docking » on aurait pu aussi les expérimenter dans les assemblages de vaisseaux spatiaux, tout comme leurs ravitaillements en ergols en LEO avant d’aller « quelque part ».  Le projet d’ISS avait été lancé par Ronald Reagan en 1983 mais fut véritablement choisi par le Président Georges H. Bush en 1989 à l’issue de la lamentable étude de 90 jours (« the 90-Day Study on Human Exploration of the Moon and Mars ») dans laquelle la NASA illustra son absence totale de conscience des réalités en proposant un plan d’exploration de Mars chiffré à 450 milliards de dollars (..de l’époque ! soit à peu près 930 milliards de dollars d’aujourd’hui *). Pour le président Bush il n’y avait donc d’issue que vers l’ISS devisée à quelques 100 milliards et un objectif « nouveau » par rapport à la Lune. Cela devint « une excellente idée » en raison de l’implosion de l’URSS puisque ce fut le moyen politique d’associer en 1993 la nouvelle Russie à un programme correspondant à ses capacités techniques, dans la continuation de sa station Mir et par la même occasion de réaliser enfin le projet américain de station Freedom, tout en s’alliant aux Européens de l’ESA et aux Japonais de JAXA. Souvent présenté comme un modèle de coopération internationale, ce fut en réalité une excellente occasion de ronronner ensemble à grand frais (quelques 150 milliards à ce jour !).

*Avec Elon Musk (et son lanceur Super-Heavy + son Starship!) on évalue aujourd’hui un programme d’exploration de Mars (fin de la réalisation du lanceur et construction d’une flotte suivie d’une petite dizaine de campagnes de vols) à environ 60 milliards de dollars.

Et maintenant, 50 ans après, « les joies de l’ISS » épuisées, que va-t-il se passer ? Nous sommes à nouveau à la croisée des chemins et il semble bien que nous allons encore une fois prendre le mauvais, le Lunar Orbital Platform-Gateway, c’est-à-dire une nouvelle ISS qui cette fois tournera autour de la Lune (sur une trajectoire très excentrique). Quel intérêt ? Aucun, si ce n’est continuer à faire travailler les fournisseurs et exposer les astronautes aux radiations solaires et galactiques avec un peu plus d’intensité que sous la protection des ceintures de Van Allen. Si l’on voulait faire plus que l’ISS, pourquoi n’a-t-on pas choisi d’aller à nouveau sur la Lune et de s’y installer ? Quel intérêt présente cette courroie de transmission si ce n’est des complications inutiles, des risques supplémentaires, encore plus d’argent et beaucoup d’inconfort pour mener à bien une mission lunaire ou martienne.

Décidément le chemin vers les astres est long et tortueux ! Heureusement les « privés » montent en puissance. Les Elon Musk, Jeff Bezos et autres n’ont pas la prudence de serpent de l’Administration et ils ont le souci de l’efficacité de leurs dépenses. Ce sont eux qui peuvent sauver l’exploration spatiale. Ce sont les héritiers des pionniers qui en avril 1981 en même temps qu’était lancé la première navette, refusant de se laisser cantonner aux perspectives des petits tours en orbite basse terrestre, s’organisèrent dans le premier lobby pro-Mars, le « Mars Underground », autour de l’astrogéophysicien Chris MacKay, de la biologiste Pénélope Boston, de l’astrogéophysicienne Carole Stocker, de l’ingénieur Tom Meyer, de l’informaticien Steve Welch, rejoints en avril 1990 par David Baker et Robert Zubrin après qu’ils eurent conçu et leur aient présenté leur plan « Mars Direct » (solution astronautique qui souleva leur adhésion enthousiaste). Elon Musk a de même rejoint Robert Zubrin au début des années 2000 lorsqu’il a entrepris sa propre aventure d’ingénieur et de patron d’entreprise astronautique. L’esprit est là, chez ces hommes visionnaires, qui n’hésitent pas à s’impliquer, à s’efforcer de convaincre et à agir. Avec la nomination par Georges W. Bush en 2005 de Michael Griffin comme administrateur de la NASA, le « lobby » est presque parvenu à imposer ses vues (et y est parvenu quand même pour quelques éléments de Mars-Direct comme l’ISRU). C’est aujourd’hui, cinquante ans après le « petit pas pour l’homme » de Neil Armstrong, ce qui nous permet d’espérer qu’un jour la lourde superstructure administrative suivra ou accompagnera notre envol dans l’espace profond et son infinité de possibles que nous avons aujourd’hui la capacité d’affronter et d’utiliser.

NB : cet article consacré au vols habités ne traite pas des progrès considérable effectués depuis cinquante ans dans le domaine de l’exploration robotique et ne nie pas l’intérêt de quelques études menées dans l’ISS sur les conséquences de l’apesanteur pour le corps humain ou divers processus de physiques des matériaux qui se manifestent particulièrement clairement en apesanteur, ni également, et cela me semble plus important, sur l’évolution de la science du support-vie (ECLSS) et ses progrès en matière de recyclage de l’atmosphère, des liquides et du contrôle microbien…Mais ce n’est pas suffisant!

Image de titre : Le premier pas ! crédit NASA.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 09

Avec NEAR la collaboration ESO / Breakthrough Initiatives concrétise son projet de recherche de planètes habitables autour d’Alpha Centauri

Le 11 juin l’ESO1 a publié un article annonçant la fin d’une première session d’observations de 10 jours du système stellaire Alpha Centauri avec son instrument VISIR2 amélioré par NEAR3 qu’elle a développé avec le financement de Breakthrough Watch (Yuri and Julia Millner) dans l’espoir de découvrir une planète de masse égale à la Terre orbitant une de ses deux étoiles à l’intérieur de sa zone habitable.

1European Southern Observatory; 2VLT imager and spectrometer for mid-infrared; 3Near Earths in the AlphaCen Region.

NEAR est un coronographe (masque utilisé à l’origine pour cacher le disque solaire afin d’en étudier l’environnement) adapté à l’infrarouge thermique, qui équipe le quatrième, « UT4 », des quatre grands télescopes de 8 mètres de diamètre de surface utile de collecte du Very Large Telescope « VLT » (Mont Paranal, désert d’Atacama, Chili). Il bénéficie de l’optique adaptative et de son imageur et spectromètre VISIR de ce dernier, qu’il complète. Pour pouvoir collecter et analyser le rayonnement reçu d’une planète de masse terrestre et située en zone habitable, la difficulté est la différence de luminosité entre la planète et son étoile (entre 10-7 et 10-10)* qui en l’occurrence sont séparées de seulement une seconde d’arc. La lumière de l’étoile occulte largement la lumière d’une telle planète et ce d’autant plus que les deux étoiles d’Alpha Centauri sont de type « G » (dans le diagramme de Hertzsprung-Russell qui les classifie OBAFGKM) comme le Soleil et sont beaucoup plus brillantes qu’une naine rouge et notamment qu’Alpha Proxima, petite étoile du même système, très légèrement plus proche de nous, auprès de laquelle on a déjà identifié indirectement (méthode des vitesses radiales) la planète Proxima-b.

*Ce problème de différence de taille et de luminosité entre l’étoile et sa planète explique qu’il est beaucoup plus facile de découvrir des exoplanètes grosses et proches (genre « Jupiter chaud ») de leur étoile que des planètes rocheuses de taille terrestre et qu’il est beaucoup moins difficile d’en trouver orbitant autour de naines rouges que d’étoiles de type solaire, puisque les effets gravitaire ou occultant de ces planètes géantes sur leur étoile (moins grosse et moins lumineuse) sont beaucoup plus marqués (et ceci quelle que soit la méthode appliquée, vitesse radiale, transit, astrométrie et bien sûr, observation directe).

Les solutions proposées par NEAR sont (1) d’occulter l’essentiel du rayonnement de l’étoile par son coronographe et (2) de sélectionner un segment de longueurs d’ondes du spectre des rayonnements électromagnétiques à l’intérieur duquel la différence de luminosité entre la planète et l’étoile soit aussi réduite que possible. Le système qui profite de l’optique adaptative de l’UT4 (« DSM » pour “Deformable Secondary Miror”), comprend (1) un nouveau coronographe à masque de phase* annulaire (Annular Groove Phase Mask, « AGPM ») optimisé pour le segment le plus sensible de la bande « N » (10 µm à 12,5 µm) du spectre électromagnétique (qui bénéficie d’un taux de transmission élevé à l’intérieur de l’atmosphère terrestre) et (2) un nouveau système de découpage (« chopping »), appliquant une théorie du physicien Robert Dicke, pour filtrer le bruit. La bande N a pour deuxième avantage de contenir une longueur d’onde (9,6 µm) qui est celle de l’ozone (O3), un excellent marqueur de la vie telle que nous la connaissons (mais la vie sur la « Terre » d’Alpha Centauri, si elle existe, n’a pas forcément atteint le niveau où elle rejette de l’oxygène dans l’atmosphère de sa planète). Elle exprime enfin fort bien l’émission d’un « corps-noir » compatible avec la pression et la température d’une planète pouvant avoir de l’eau liquide en surface (ce qui est plus intéressant car une planète habitable n’est pas forcément habitée). NB: (1) La collecte d’un rayonnement infrarouge impose l’environnement d’un cryostat; (2) NEAR n’a coûté que 4 millions de dollars.

*un masque de phase utilise un masque transparent pour décaler la phase du rayonnement stellaire afin de créer une interférence auto destructive sur cette source, plutôt qu’un simple disque opaque pour la bloquer. Les lumières voisines (dont la source est décentrée) ne subissent pas l’interférence. Un masque de phase annulaire (AGPM) qui génère un vortex optique, est considéré comme un masque de phase parfait permettant de voir les sources situées au plus près de l’étoile.

 NB: A noter que la première imagerie directe d’une planète en utilisant la coronographie, n’a eu lieu qu’en 2008. Il s’agit de la planète Fomalhaut-b qui se trouve à 119 « UA » (unités astronomiques) de son étoile et a un diamètre égal à celui de Jupiter. L’étoile Fomalhaut est à 25 années-lumière de notre Soleil.

 NB2 : NEAR servira par ailleurs de test à l’instrument METIS (Mid-Infrared ELT Imager and Spectrograph) qui doit être installé sur l’Extremely Large Telescope, « ELT » de l’ESO (il couvrira une partie plus importante du spectre infrarouge).

Alpha Centauri étant à seulement 4,37 années-lumière de distance du cœur du système solaire est évidemment une cible très intéressante puisque c’est le seul système stellaire où l’on peut éventuellement, aujourd’hui, envisager d’envoyer des sondes (il faudrait tout de même 20 ans de voyage à 20% de la vitesse de la lumière, ce qui « fait » 216 millions de km/h !). Un des objectifs de Breakthrough Initiatives dont fait partie Breakthrough Watch est de relever ce défi pour Proxima Centauri qui se trouve presque aussi loin, à 4,22 années-lumière, avec son projet Breakthrough Starshot. Bien que l’on ait découvert une planète rocheuse, un peu plus massive que la Terre (1,3 fois), Proxima-b, orbitant autour de Proxima Centauri dans sa zone habitable, il est cependant peu probable qu’elle puisse abriter la vie. Les naines rouges comme Proxima Centauri ont une activité fortement variable (du fait qu’elles ont juste la masse nécessaire pour être des étoiles) ce qui induit par intermittence des rayonnements extrêmement destructeurs pour leur environnement proche (rayons ultraviolets durs – « c » – ou rayons X). Par ailleurs la proximité de la planète à son étoile (0,1 UA, la seule possibilité pour qu’elle se trouve dans sa zone habitable) génère par force de marée un blocage de sa rotation de telle sorte qu’elle lui présente toujours la même face (ce qui pourrait n’être pas non plus très favorable à l’émergence de la vie). Il n’en serait pas de même pour les planètes en orbite auprès d’Alpha Centauri A ou B puisque ces deux étoiles sont de même type que le soleil (même si elles sont un tout petit peu moins lumineuses) et que donc leur zone habitable doit se trouver à environ une unité astronomique (comme celle de notre Soleil à l’intérieur de laquelle évolue la Terre).

Un problème cependant : les étoiles d’Alpha Centauri sont dans un système double et elles ne sont éloignées l’une de l’autre que d’une courte distance, qui varie, sur une période de 80 ans, entre un périastre de 11,2 UA (distance Soleil / Saturne) et un apoastre de 35,6 UA (distance Soleil / Pluton). La sphère de Hill/Roche (zone d’influence gravitationnelle) de chacune varie donc entre deux distances dont la plus courte est égale à la moitié de la distance du Soleil à Saturne, soit 715 millions de km c’est-à-dire moins que la distance du périhélie de Jupiter au Soleil (740 millions de km). Qu’advient-il dans ces conditions de leur ceinture de Kuiper et de leurs nuages de Oort ? Ils sont probablement communs. Quid de l’interaction de leur population de comètes et d’astéroïdes avec les planètes ? Quid de la formation des planètes entre les deux étoiles ? Cette proximité permet-elle l’accrétion d’une géante gazeuse au-delà des lignes de glace ? Il ne reste pas beaucoup de place ! Pourrait-il y avoir une instabilité forte des planètes situées à la limite des sphères de Hill, jusqu’à les faire passer d’une sphère de Hill à l’autre (comme l’imaginait le physicien Robert Forward dans Le vol de la libellule) ? Quels effets peut avoir cette configuration sur les planètes rocheuses en deçà des lignes de glace ? En fait la cohabitation de deux étoiles dans un même système stellaire assez « serré » peut créer des systèmes planétaires très différents du nôtre et difficiles à imaginer sans les avoir observés…mais cela rend aussi moins probable l’existence de planètes avec les mêmes caractéristiques que la nôtre orbitant autour de l’une ou l’autre étoile.

La campagne d’observations de NEAR est de 100 heures avec autant de temps continu qu’il sera possible (par séquence de 6 heures par nuit compte tenu de l’élévation d’Alpha Centauri dans le ciel) mais qui seront probablement réparties sur une vingtaine de jours, c’est-à-dire le temps nécessaire pour qu’une planète située à 1 UA de l’une des étoiles d’Alpha Centauri parcourt sur son orbite un élément de diffraction (0,3 secondes d’arc dans le ciel). Breakthrough Initiatives mettra les données à la disposition du public immédiatement à la fin de la période d’observations. Nous devrions ainsi « savoir » ce qu’il en est du système planétaire tournant autour des deux autre vrais « soleils » les plus proches du nôtre.

Breakthrough Initiative est un programme d’exploration scientifique et technologique qui s’efforce d’apporter des réponses aux grandes questions que l’on se pose sur la vie dans l’Univers. Il a été fondé en 2015 par Yuri et Julia Milner. Yuri Milner est un physicien qui après des études en Russie puis aux Etats-Unis a fait fortune dans Internet et est devenu investisseur en nouvelles technologies (Facebook, Twitter, WhatsApp, Snapchat, Airbnb, Spotify, Alibaba, etc…) via sa société DST Global. Parmi les « supporters » de Breakthrough Initiatives on peut compter feu Stephen Hawking et Marc Zuckerberg. Breakthrough Initiatives comprend quatre branches : Breakthrough Listen, une sorte de SETI (pas de réponse à ce jour !) ; Breakthrough Message, un concours pour concevoir un message qui puisse être compréhensible par des extraterrestres ; Breakthrough Watch, un programme astronomique dédié au développement de technologies qui pourraient permettre de découvrir la vie ailleurs dans l’univers (NEAR est une application de ce programme) ; Breakthrough Starshot, un programme astronautique dédié à démontrer la faisabilité de l’exploration du  système d’Alpha Centauri par une flotte de micro-voiles propulsées par laser à 20% de la vitesse de la lumière.

NEAR, conçu par l’ESO avec le concours de Breakthrough Watch, a été construit en collaboration avec l’Université d’Uppsala, l’Université de Liège, le CalTech, Kampf Telescope Optics de Munich et le CEA (Saclay) France. Il a recueilli sa première lumière le 21 mai 2019. Il faut bien voir que le type d’observations qu’il permet n’était pas possible jusqu’à présent et évidemment pas il y a dix ans lors de la découverte de la planète Fomalhaut-b. L’astronomie est une science dont la technologie évolue très vite et les ouvertures que cette évolution permet, vont révolutionner dans les années qui viennent la connaissance du monde qui nous entoure.

Liens:

https://breakthroughinitiatives.org/instruments/4

https://www.eso.org/public/usa/teles-instr/paranal-observatory/vlt/vlt-instr/visir/

http://optics.org/news/10/6/15

https://www.eso.org/sci/publications/messenger/archive/no.169-sep17/messenger-no169-16-20.pdf

https://www.universetoday.com/142482/new-instrument-is-searching-for-planets-around-alpha-centauri/

https://orbi.uliege.be/bitstream/2268/32951/1/TFEV20.pdf

Image de titre: NEAR installé sur l’UT4, le télescope étant incliné à basse altitude; crédit ESO/ NEAR Collaboration

Image ci-dessous: détail du coronographe NEAR, de type AGPM montrant les cannelures annulaires de sous longueur d’onde (“subwavelength grating”), dispositif anti-réflexion qui réduit l’image fantôme optique de l’étoile cachée:

 

Image ci-dessous: de la Terre à Alpha Centauri; attention les mesures sur l’axe sont logarithmiques.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 06

La présence furtive de méthane sur Mars continue à intriguer planétologues et exobiologistes

Le 23 juin la NASA a informé le public que le rover Curiosity avait relevé dans le cratère Gale la plus forte émission de méthane jamais constatée sur Mars. Cette information est surprenante et importante mais il ne faut pas en tirer de conclusion hâtive.

Tout d’abord il faut placer cette émission dans un contexte. La proportion de méthane (CH4) constatée a été de 21 « ppbv » (parties par milliard en volume). Les plus fortes émissions précédentes, également mesurées par Curiosity (plus précisément par le « TLS », Tunable Laser Spectrometer, de son laboratoire embarqué « SAM », Sample At Mars) ont été de 7,2 ppbv mais sur la durée, le fond d’émissions est inférieur à 1 ppbv (entre 0,2 et 0,7). Surtout, le maximum enregistré n’est « rien » par rapport aux proportions de méthane présent dans l’atmosphère terrestre (1750 ppbv en moyenne) et cette dernière est beaucoup plus dense (plus de 100 fois) que l’atmosphère martienne. Il faut donc relativiser mais ce n’est pas facile de « garder la tête froide » car le méthane est un gaz au contenu évocateur très fort. Sur Terre il est pour sa plus grande part (plus de 90%) le produit de la vie animale (rejet métabolique résultant de la fermentation des molécules organiques dans le système digestif des animaux et généralement parlant, de l’activité microbienne dans les milieux anoxiques).

L’histoire de la détection du méthane sur Mars est pour le moins déconcertante et défie encore l’entendement. Cela a commencé entre 1999 et 2003 par des observations à partir des télescopes terrestres qui ont indiqué une proportion allant de 20 à 30 ppbv (mais l’observation depuis la Terre est difficile car la signature spectroscopique du méthane se déplace en fonction du déplacement de Mars sur son orbite et parce que les rayonnements reçus par ces télescopes passent par l’atmosphère terrestre elle-même chargée en méthane). Cela a continué en 2009 par la constatation que la présence du gaz dans l’atmosphère suivait un cycle saisonnier (disparaissant en fin d’automne et réapparaissant en fin de printemps) alors qu’il aurait dû se diluer dans l’atmosphère et subsister pendant quelques 340 ans (destruction progressive par le rayonnement ultraviolet). Ensuite on a observé dans le cratère Gale les émissions relativement fortes de fin 2013 (quatre pics atteignant les environs de 7 ppbv) puis on est retombé à des niveaux extrêmement faibles (moins de 1 ppbv). Lorsque l’orbiteur TGO (ExoMars Trace Gas Orbiter) de l’ESA (lancé en Octobre 2016) est devenu opérationnel en avril 2018, il n’a d’ailleurs rien perçu alors qu’il avait été en partie prévu pour la détection des gaz rares et principalement le méthane, au point que certains ont considéré que les premières observations résultaient d’une erreur d’interprétation des données spectrographiques. Puis soudainement on a ce nouveau pic annoncé par la NASA, supérieur à 20 ppbv…littéralement sans lendemain puisque le lundi 24 le taux était retombé à moins de 1 ppbv !

Les causes des émissions de méthane martien ne sont pas connues et cette nouvelle observation ne nous fait pas progresser mais on peut cerner les possibilités à partir de ce qui se passe (ou s’est passé) sur Terre. Ces possibilités sont soit d’ordre géologique soit d’ordre biologique avec pour les deux une variante possible résultant d’un « effet retard ». De toute façon il s’agit de l’union de carbone provenant du gaz carbonique avec de l’hydrogène, donc de « molécules organiques ».

Les causes géologiques peuvent être d’abord la serpentinisation de l’olivine, roche magmatique très ancienne, riche en magnésium et en fer (mafique) et très abondante en surface de Mars depuis l’aube des temps. La transformation de l’olivine en serpentine ((Mg, Fe, Ni)3Si2O5(OH)4) au contact d’eau chaude et sous forte pression, libère des carbonates, de l’hématite (Fe3O4) et de l’hydrogène. A son tour l’hydrogène peut s’allier au gaz carbonique atmosphérique pour former en présence de fer (par exemple de l’hématite) du méthane. A noter que cette dernière réaction est la fameuse « réaction de Sabatier » que Robert Zubrin a recommandé d’utiliser pour produire sur Mars le carburant nécessaire pour faire revenir sur Terre les vaisseaux spatiaux qu’on y enverra. Quoi qu’il en soit du futur de ce gaz, l’abondance d’olivine, de gaz carbonique et de chaleur (dans des régions de failles comme Nili Fossae) pourrait très bien être à l’origine du méthane martien. Ceci dit, à côté de la serpentinisation de l’olivine il y a d’autres causes géologiques possibles mettant en jeu la chaleur du sous-sol, l’hydrogène de l’eau et le gaz carbonique de l’atmosphère. C’est le volcanisme par contact de remontées magmatiques avec de la glace de surface ou proche de la surface ou sa variante, le thermalisme. Marginalement ce pourrait être aussi l’apport de météorites riches en méthane. Toutes ces causes ne sont d’ailleurs pas exclusives.

Pour ce qui est de la cause biologique, on peut toujours, jusqu’à preuve du contraire, penser à une population microbienne en sous-sol de Mars. Elle serait visiblement peu active mais ses rejets métaboliques auraient à l’occasion de mouvements sismiques accès à la surface de la planète.

Le facteur « retard » évoqué plus haut pourrait être vu comme un déblocage de méthane accumulé dans des clathrates. Les clathrates sont de petites capsules de glace d’eau emprisonnant des molécules de gaz, le tout constituant un « hydrate de méthane ». Elles se forment sous basse température, en présence d’eau et sous forte pression. Sur Terre on en constate souvent la présence dans le pergélisol (jusqu’à 1000 mètres de profondeur) et ces sols sont très fréquents en surface de Mars, planète froide. Ils fondent (sur Mars, se subliment) évidemment par exposition à la chaleur. Ce peut être celle du Soleil lors de l’été austral ou encore celle de remontées magmatiques parvenant en dessous de failles s’ouvrant en surface de la planète. Et on a justement repéré dès 2003 les failles de la région de Nili Fossae, en bordure d’Isidis Planitia, comme une des principales sources des émissions de méthane.

Mars 2020 (mission NASA) doit se poser tout près de ces failles. Capter et analyser le méthane dans l’atmosphère de cette région sera probablement plus facile car tout près du sol on devrait pouvoir constater une abondance beaucoup plus forte que dans le cratère Gale. Ce sera aussi passionnant…Pour distinguer l’éventuel origine (biologique ou géologique) du gaz il faudra rechercher le rapport entre les isotopes 13 et 12 des atomes de carbone (13C ou 12C). En effet, comme on l’a constaté depuis longtemps la vie recherche l’économie de masse et privilégie donc les atomes légers (et stables), en l’occurrence l’isotope 12 du carbone (12 neutrons dans le noyau). Il n’y a aucune raison que la vie martienne si elle existe ne suive pas la même « politique de bon sens ». Nous aurons donc une réponse mais peut-être l’aurons-nous sans attendre 2021 car le laboratoire SAM de Curiosity devrait normalement pouvoir effectuer lui aussi des analyses isotopiques.

Il faut à l’occasion de cet article dire que ce n’est pas que l’apparition du méthane qui pose problème mais aussi que sa disparition rapide et constante n’est pas non plus expliquée. Pour le moment aucune raison ne peut être donnée pour cette efficacité. Peut-être les sels de perchlorates, omniprésents, chauffés par le rayonnement solaire oxydent-ils ce gaz en méthanol puis en formaldéhyde ? Peut-être est-ce l’action des champs électriques résultant de l’ionisation du gaz carbonique de l’atmosphère, très sèche, par les frottements des particules de poussière en suspension ?

Pour le moment on constate et on ne peut rien dire sauf que la planète produit bien du méthane et que le mystère qui l’entoure est périodiquement ravivé.

Image de titre : Teal Ridge dans les Clay Bearing Units ; photo du 18 juin, Crédit NASA/JPL-CalTech. Les Clay Bearing Units avaient été repérées depuis l’espace par les orbiteurs martiens. Leur abondance dans le cratère Gale ont en grande partie justifié le choix du site de la mission MSL (Curiosity).

Photo ci-dessous, les différents modes de formation possible du méthane sur Mars. Crédit NASA/JPL-CalTech:

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 06 24

En combinant les lumières des télescopes VLTI*, GRAVITY nous promet des résultats spectaculaires

L’interférométrie contourne la difficulté de la taille des télescopes en combinant la lumière de plusieurs d’entre eux. Appliquée aux Very Large Telescopes (VLT) de l’ESO au Chili, grâce au nouvel instrument, GRAVITY, la méthode permet de restituer l’image que recueillerait un télescope d’un diamètre allant jusqu’à 130 mètres de diamètre avec une perspective ultérieure de 200 mètres (le plus grand télescope, en cours de construction, l’ELT – Extremely Large telescope – a un diamètre de 39 mètres et chacun des 4 VLT, un diamètre de 8 mètres utiles). L’interférométrie est donc promise à un bel avenir. Elle n’a été rendue possible dans le domaine des ondes visibles et du proche infrarouge que grâce aux progrès spectaculaires accomplis dans le domaine des lasers, en optique adaptative, en électronique et en informatique.

*Very Large Telescopes en mode Interférométrique.

Il faut bien voir que GRAVITY (General Relativity Analysis via Vlt InTerferometrY) est en soi une « première ». Il étend à quatre grands télescopes fonctionnant dans le domaine du proche infrarouge (longueur d’ondes entre 2 et 2,4 µm*) une technologie très délicate (surtout pratiquée dans le domaine des ondes radio, plus longues). La difficulté de pratiquer l’interférométrie en astronomie avec ces ondes tient précisément à leurs faibles longueurs et en conséquence (1) aux limitations de la détection « hétérodyne » à large bande (transposition des petites longueurs d’ondes reçues dans des longueurs d’ondes plus grandes) qui impose un bruit fondamental très élevé pour les ondes prises en dessous de 10 – 11 µm et, du fait des turbulences atmosphériques, (2) au faible temps de cohérence (temps pendant lequel l’émission est stable) du front d’ondes pour chaque télescope (phénomène contré par l’envoi du faisceau lumineux sélectionné dans un fibre monomode) et (3) au faible temps de cohérence du front d’ondes entre les télescopes.

*L’observation du trou noir central de la galaxie M87 qui a fait “la une” de la Presse le 10 avril dernier a été faite sur une longueur d’onde de 1,3 mm donc nettement plus longue (domaines des micro-ondes, avant les ondes radio). Le domaine du visible s’étend de 0,4 à 0,8 nm et le domaine des infrarouges va de cette limite de 0,8 nm à 1mm (en recouvrant donc les émissions d’ondes micrométriques comme celles utilisées par GRAVITY). L’intérêt des ondes infrarouges par rapport aux ondes visibles c’est de nous transmettre des données sur les astres dont le rayonnement est relativement froid, comme les planètes.

GRAVITY est un instrument interférométrique de seconde génération pour les VLT. La première génération qui impliquait les instruments VINCI puis MIDI, puis AMBER, ne fonctionnait « que » pour deux ou trois unités de ses deux groupes de quatre télescopes (quatre UT – Unit Telescopes – de 8 mètres et quatre AT – Auxilliary Telescope – de 1,8 mètres). GRAVITY a bien eu ensuite un précurseur à quatre télescopes, PIONIER, mais il ne disposait ni de double-champ (voir ci-dessous), ni d’un-suiveur-de-frange (voir ci-dessous), ni d’une métrologie comme GRAVITY. Quand on a conçu les VLT, l’intention était évidemment d’aller dans cette direction, c’est à dire de faire travailler tous les télescopes ensemble, en interférométrie, bien qu’ils puissent aussi fonctionner seuls. GRAVITY qui a été mis en service en 2016 (« première lumière » à quatre UT – la première lumière avec les AT ayant eu lieu en automne 2015) est un grand pas vers la réalisation de cette intention puisqu’il permet le fonctionnement de quatre télescopes ensemble (les quatre Ut ou les quatre AT1) et sur des objets de luminosité faible comme l’environnement du trou noir central de notre galaxie, Sagittarius A* (« Sgr A* »). Cette cible était son objet premier (d’où l’acronyme GRAVITY pour l’instrument) mais la puissance de résolution du VLTI peut évidemment être appliquée à d’autres sources de luminosité faible, comme les planètes (et il l’a déjà effectivement été).

1Pour le moment il n’y a pas de « recombinateur » (voir plus-bas) à plus de quatre faisceaux mais on pourrait utiliser les quatre AT aussi bien que les quatre UT (cependant la station AT au Nord du site n’est pas en service, ce qui empêche d’atteindre les 200 mètres de base pour l’ensemble du VLTI).

Le principe général est que chaque télescope collecte deux faisceaux d’ondes provenant de deux champs (le double-champ mentionné ci-dessus) qui couvre chacun 2’’ (deux secondes) d’arc dans le cas des UT. Le premier champ contient l’objet scientifique visé avec éventuellement une autre source, non résolue, à l’intérieur du même champ. Dans ce cas cette autre source sert de « référence-de-phase » permettant le contrôle de phase interférométrique de la source scientifique par un « suiveur-de-frange » qui corrige les différences de phase entre les pupilles de l’interféromètre. Le second champ contient un astre choisi pour sa brillance plus forte à l’extérieur du champ de l’objet scientifique mais à proximité (quelques secondes d’arc) ; cet autre « appui » permet le réglage de l’optique adaptative du télescope.

Ceci étant dit, le fonctionnement de GRAVITY est extrêmement complexe. En simplifiant : la lumière collectée par chaque télescope est transmise à un recombinateur (en anglais “BCI” pour Beam Combiner Instrument), laboratoire où elle va être « travaillée », par un jeu de miroirs dans des lignes à retard qui vont permettre de traiter tous les faisceaux d’ondes, provenant de tous les télescopes, exactement au même moment de leur ondulation (« phase »). Avant l’entrée dans les lignes à retard, on va sélectionner avec un « séparateur d’étoiles » le faisceau d’ondes provenant de la source extérieure au champ de la cible scientifique (qu’on nomme « étoile de référence ») choisie pour son signal, voisin, relativement fort, pour corriger en optique adaptative les turbulences subies du fait du passage dans l’atmosphère, par les ondes reçues de la cible scientifique. Ce faisceau est projeté par un séparateur d’étoiles dans l’analyseur de front d’onde infrarouge CIAO (Coudé Infrared Adaptative Optics) qui commande aux miroirs déformables du système MACAO (Multi-Application Curvature Adaptative Optics) les mouvements ultra-rapides nécessaires pour contrer l’effet des turbulences sur les faisceaux d’ondes reçus de la source scientifique et de la source servant de « référence de phase » (à l’intérieur du champ de la cible scientifique). Des rayons laser sensibles à ces mouvements ultra-rapides (métrologie laser) vont intervenir sur le sélecteur d’étoile et sur l’araignée du télescope pour corriger en temps réel les effets des turbulences internes du VLTI. Ainsi corrigées les ondes provenant de la cible scientifique et de la référence de phase passent par les lignes à retard et entrent dans le BCI.

A l’entrée du BCI, le cœur de GRAVITY, un « coupleur à fibres optiques » sépare en deux chacun des faisceaux provenant des deux sources et grâce à un sélecteur de champ, les injecte séparément dans des « fibres monomodes » pour bien les individualiser, l’une science, l’autre suiveur de franges. Un « contrôleur fibré » contrôle la polarisation de l’onde pour lui donner un contraste maximum et corrige la différence de marche entre l’onde provenant de l’objet scientifique et celle provenant de la référence de phase (résultant de leur séparation angulaire dans l’espace). Un recombinateur (puce optique intégrée) intervient ensuite pour créer les interférences des faisceaux projetés et le suiveur de franges alimenté par l’étoile de référence extérieure stabilise l’image sur un miroir. L’onde entre alors dans des spectromètres qui l’analysent.

Le tout baigne dans un cryostat à l’azote liquide dont la température, très précisément contrôlée, varie au niveau des diverses sous-ensembles du BCI afin que la température ne perturbe pas l’expression des ondes. Le cryostat fonctionne même avec des tubes à gaz pulsés pour refroidir les détecteurs à une température plus basse que celle de l’azote liquide, à environ 40 degrés Kelvin. Enfin l’optique est guidée par un système de caméra qui intervient au divers stade de la progression des ondes, dès l’entrée dans le BCI.

A quoi va servir GRAVITY ? A voir avec plus de précisions les objets à luminosité faible, ainsi le trou noir central de notre galaxie* ou encore, en direct, les exoplanètes proches détectées par le principe de la vitesse radiale (influence de la gravité générée par leur masse sur leur étoile au cours de leur trajectoire sur leur orbite), le spectre des atmosphères de ces planètes comme l’a démontré l’article de Sylvestre Lacour et al. publié dans Astronomy & Astrophysics au début de cette année. Le pouvoir de résolution du VLTI équipé de GRAVITY (qui résulte de la superposition des franges d’interférence des 4 UT) est 25 fois supérieur à celui d’un seul des UT qui le composent. En fait GRAVITY est un exhausteur des capacités des télescopes terrestres exploitant sur Terre les ondes du proche infrarouge. On peut rêver de la transposition dans l’espace où les turbulences atmosphériques sont évidemment nulles, de ces merveilleuses machines. Il faudra un jour reprendre le projet de flotte de télescopes DARWIN ou encore construire en surface de la face cachée de la Lune ou sur Mars des installations interférométriques qui elles non plus ne seront pas soumises à ces turbulences. Mais sans attendre (ou plutôt après qu’on aura pu combiner les ondes reçues des huit télescopes) on pourrait travailler sur un successeur au VLTI sur Terre avec une base d’observation équivalente à un télescope optique d’une dizaine de km de diamètre. Ceci nous permettrait de résoudre la surface de ces exoplanètes ; ce n’est pas un rêve mais une possibilité à considérer sérieusement par l’ESO une fois que l’ELT sera achevé**.

*Gravity a déjà obtenu deux résultats majeurs concernant le centre galactique : la mesure du rougissement gravitationnel de l’étoile S2 au passage de son péricentre et la détection de mouvements orbitaux à l’occasion de sursauts lumineux près de la dernière orbite circulaire stable, à trois fois le rayon du trou noir (donc à trois rayons de son « horizon des événements »), ce qui est très proche.

**c’est ce que suggère les auteurs du papier sur la première détection de l’atmosphère d’une exoplanète par interférométrie optique mentionné ci-dessus.

GRAVITY est ce qu’on appelle dans le monde de l’astronomie une « collaboration », disons une association constituée pour un but commun. Elle regroupe l’Institut Max Planck en Allemagne (Physique extraterrestre et Astronomie), le LESIA en France (Observatoire de Paris, CNRS, Uni. Paris Sciences et Lettres, Uni. Paris Diderot), IPAG (CNRS et Uni. Grenoble Alpes), l’Uni. De Cologne, le Centre d’Astrophysique et de Gravitation (Portugal), l’ESO. L’instrument n’a coûté que 8 millions d’euros.

NB : Je remercie pour ses avis précieux, Guy Perrin, astronome au LESIA (Laboratoire d’Etudes Spatiales et d’Instrumentation en Astrophysique), Observatoire de Paris, Université PSL (Paris-Sciences-et-Lettres), directeur adjoint scientifique du CNRS-INSU, responsable du domaine Astronomie et Astrophysique.

Illustration de titre: Image composite du Centre Galactique obtenue à partir d’observations NACO. Pour les observations interférométriques de GRAVITY, l’étoile IRS 16C a été utilisée comme source de référence tandis que la cible scientifique était l’étoile S2. La croix orange indique la position du trou noir supermassif Sgr A*. Crédits : ESO/MPE/S. Gillessen et al. NB : NACO est un instrument situé dans l’UT1 : son objet est l’imagerie dans le proche infrarouge (CONICA) avec optique adaptative (NAOS).

Image ci-dessous : vue partielle de l’observatoire du Mont Paranal de l’ESO (désert d’Atacama, nord du Chili, 2635 mètres). Vous voyez ici les quatre UT. Les quatre AT, plus petits, sont mobiles et permettent de faire varier les dimensions du télescope virtuel:

Image ci-dessous : schéma de traitement des ondes reçues par GRAVITY (éléments en bleuté) publié dans Astonomy & Astrophysics in First Light for Gravity: Phase referencing optical interferometry for the VLTI; DOI 10.1051/0004-6361/201730838, copyright ESO 2017. 

Image ci-dessous, le recombinateur (BCI) élément central de Gravity. Même source que ci-dessus:

Liens :

First light for GRAVITY in Astronomy & Astrophysics : https://www.aanda.org/articles/aa/pdf/2017/06/aa30838-17.pdf

Rougissement de S2 :

https://www.eso.org/public/news/eso1825/

Détection de sursauts en orbite près du bord du trou noir : https://www.eso.org/public/news/eso1835/

http://lesia.obspm.fr/-GRAVITY-.html

http://lesia.obspm.fr/GRAVITY-un-design-complexe.html

https://www.eso.org/public/france/news/eso1905/

https://fr.wikipedia.org/wiki/Interf%C3%A9rom%C3%A9trie

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 06 17

Pour la NASA d’aujourd’hui, le succès n’est pas une option

L’approche par la NASA des vols spatiaux habités met hors de portée l’objectif de l’atterrissage sur la Lune en 2024. Son projet de Lunar Orbital Platform-Gateway est une complication plus qu’inutile, donc une erreur.

Article de Robert Zubrin, ingénieur en astronautique, président-fondateur en 1998 de la première Mars Society, aux Etats-Unis, et président de Pioneer astronautics. Il a été publié dans la National Review le 12 juin 2019. Il est ici traduit et commenté par moi-même.

L’administration Trump a proposé une nouvelle initiative audacieuse, nommée Programme Artemis, qui prévoit d’envoyer des astronautes sur la Lune en 2024 et sur Mars en 2033. Comme l’a précisé Jim Bridenstine, administrateur de la NASA, dans une présentation le 23 mai, ce programme doit comporter quelque 37 lancements d’ici 2028. Ils commenceront en octobre 2020 par le lancement inaugural du SLS (Space Launch System), le nouveau lanceur lourd de l’agence.

Malheureusement le programme tel qu’il est prévu actuellement a très peu de chances de réussir car il semble être conçu d’abord pour servir de mécanisme de distribution de fonds plutôt que pour atteindre des objectifs dans l’espace. On l’a compris très clairement lorsque Bridenstine a déclaré qu’une des conditions de base du programme serait que toutes les missions habitées utilisent le SLS et la capsule d’équipage Orion, qui n’ont encore jamais volé, plutôt que des alternatives beaucoup moins chères qui, elles, ont volé. De plus, avec ses 26 tonnes, l’Orion est si lourd que le SLS ne pourrait pas le transporter sur une orbite lunaire basse avec suffisamment d’ergols pour pouvoir revenir sur Terre. Donc, plutôt que d’utiliser le Dragon de SpaceX (qui avec ses 10 tonnes, offre cependant un espace habitable 50% plus grand que celui de la capsule utilisée par le programme Apollo pour la Lune), une capsule que le SLS ou le Falcon Heavy (déjà opérationnel et beaucoup moins cher) pourraient transporter sans problème (150 millions de dollars contre plus d’un milliard de dollars – pour le SLS – par lancement), la NASA propose de construire une nouvelle station spatiale, nommée Deep Space Gateway (ou plus récemment Lunar Orbital Platform-Gateway), en orbite haute autour de la Lune, en tant que base intermédiaire entre la Terre et la Lune pour Orion. La NASA tente de justifier la Gateway avec des platitudes telles qu’ « elle fournira un centre de commandement», «elle créera de la résilience» ou encore «elle établira une présence stratégique autour de la Lune». Mais cela n’a aucun sens ! En réalité, le fait est qu’une station spatiale en orbite lunaire est un passif et non un actif. On n’en a pas besoin pour assister les vols à destination de la Lune et on n’en a certainement pas besoin, contrairement à ce que prétend la NASA, comme base intermédiaire pour les vols à destination de Mars. Cela coûtera une fortune à construire et une fortune à entretenir et cela imposera de nombreuses contraintes négatives – allant de significatives à sévères – en termes de propulsion et de gestion du temps, à toute mission obligée de s’en servir – comme elles le seront sûrement toutes pour éviter que l’inutilité de Gateway apparaisse évidente au Public.

La NASA a eu raison de choisir le pôle sud de la Lune pour son atterrissage puisque les ressources en glace d’eau qui s’y trouvent pourraient être transformées en carburant/comburant hydrogène/oxygène. Cela pourrait permettre aux véhicules d’excursion lunaire d’explorer la Lune ou de décoller et de revenir directement en orbite terrestre, où ils pourraient être facilement ravitaillés en carburant. Cela rendrait l’ensemble du système de transport pleinement réutilisable donc beaucoup plus performant et économique. Cela libérerait également nos capacités de transport lourd de la partie la plus massive du service logistique lunaire et nous permettrait par ailleurs d’entreprendre plus rapidement des missions vers Mars. Mais placer la base en orbite lunaire plutôt qu’à la surface de la Lune rendrait ces ressources potentielles inutiles, car il faudrait plus d’ergols pour hisser la glace jusqu’à la Gateway, qu’on pourrait en produire à partir de la glace en surface. De plus, comme elle gaspille des milliards de dollars pour des motifs purement politiques, pour la construction de la Gateway et le lancement d’un vol SLS à l’automne 2020 sans aucune charge utile significative, la NASA n’a plus suffisamment d’argent pour financer le développement d’un atterrisseur lunaire – ce qui est réellement nécessaire si on souhaite atterrir sur la Lune. L’agence a donc demandé une augmentation de son financement, ce à quoi la Maison-Blanche a répondu avec un baiser de mort – c’est-à-dire une exigence selon laquelle les fonds doivent provenir d’un budget éducatif (le « Pell Grants ») dont le montant doit être alloué par le pouvoir législatif. Cela garantit le rejet du Congrès puisqu’il est sous contrôle démocrate.

Apparemment, le succès n’étant pas une option, la priorité est d’attribuer le blâme à « quelqu’un ».

L’ingénierie est l’art de rendre l’impossible possible. La bureaucratie est l’art de rendre le possible impossible. En choisissant la bureaucratie plutôt que l’ingénierie, les planificateurs de l’administration américaine ont transformé l’exploration de l’espace par l’homme, de « mission » en « vision ».

La question est fondamentalement la suivante: la NASA aura-t-elle un plan axé sur un objectif ou un plan axé sur l’intérêt de ses fournisseurs? Un plan axé sur des objectifs conduit à dépenser de l’argent pour « faire des choses ». Un plan axé sur des fournisseurs conduit à faire des choses pour dépenser de l’argent. Au cours du demi-siècle suivant la fin du programme lunaire Apollo les programmes d’exploration planétaire robotique ainsi que ceux d’astronomie spatiale de la NASA ont accompli des performances extraordinaires, car ils sont restés axés sur des objectifs. En revanche, le programme NASA de vols habités spatiaux est devenu très vite axé sur l’intérêt de ses fournisseurs et on l’a laissé dériver. Si nous laissons la NASA persister dans ce mode, nous n’atteindrons pas la Lune en 2024 ni Mars en 2033. Mais si nous insistons pour que notre programme spatial dans son ensemble vise des objectifs précis, exploitant pleinement les ressources spatiales pour réduire le nombre de lancements et la révolution spatiale des entreprises pour réduire drastiquement leurs coûts, nous pourrons non seulement atteindre ces objectifs longtemps espérés mais encore les dépasser largement pour véritablement commencer l’histoire de l’humanité en tant qu’espèce multi-planétaire.

Tel est le choix devant nous.

Robert Zubrin

Commentaire de Pierre Brisson :

Robert Zubrin veut corriger le programme d’exploration de l’espace par vols habités de la NASA et il a raison. Il est très décevant de constater que cette magnifique machine qu’est la NASA, dotée d’excellents ingénieurs, d’excellents chercheurs et de (relativement) beaucoup d’argent, persiste à ronronner prudemment en termes de vols habités.

Les raisons sont probablement en grande partie, l’institutionnalisation d’une entreprise qui était aventureuse lors de sa création et qui à force de grossir et de dépendre d’une direction très politique, est devenue une administration comme une autre, c’est-à-dire un organisme qui pense avant tout à sa survie c’est-à-dire qui est devenu « risk-adverse », ce qui est un comble pour une entreprise supposée couvrir l’entièreté du sujet de l’exploration spatiale, c’est-à-dire aussi un organisme inséré dans un tissu économique, social et politique qui la force à soutenir les entreprises locales en les faisant travailler quels que soient les besoins dictés par la finalité qui devrait éclairer la vision de ses dirigeants, l’exploration spatiale, par vols habités aussi bien que robotiques.

Heureusement l’Amérique dans son tréfonds et dans son imaginaire, reste l’Amérique, c’est-à-dire le pays de la Nouvelle Frontière, le pays de l’entreprise, le pays de la liberté et de l’audace. Pour l’exprimer, davantage que son administration qui se fossilise, il y a les entrepreneurs privés, les Elon Musk, les Jeff Bezos et autres, pour lesquels même le ciel n’est pas la limite. Ce sont eux qui en fin de compte vont tout emporter et nous conduire sur la Lune et sur Mars parce qu’ils ont la volonté de le faire et parce qu’ils en ont les moyens financiers.

image à la Une: Orion approchant le Deep Space Gateway, crédit NASA.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 06 14

Le dernier livre de Robert Zubrin, “The Case for Space, how the revolution in spaceflight opens up a future of unlimited possibilities” a été publié chez Prometheus books le 11 juin.

ClearSpace, une entreprise de salut public pour notre cognosphère*

ClearSpace, une startup suisse spin-off du Space Center de l’EPFL**, veut nettoyer l’espace proche qui commence à être sérieusement encombré de vieux satellites hors d’usage et de débris de toutes sortes. C’est un vrai défi mais elle pourrait le relever. C’est aussi un business et il dispose d’un créneau important pour se développer. Nous lui souhaitons plein succès !

*ensemble de la population humaine, consciente, éduquée et communicante, à la surface de la planète

**fondée par Luc Piguet, Muriel Richard-Noca et Catherine Johnson

Le 23 mai 2019, SpaceX a lancé 60 satellites de 227 kg chacun qui doivent être placés sur des orbites situées à environ 550 km d’altitude (la station spatiale internationale évolue entre 350 et 400 km). Ce lancement a été effectué dans le cadre du programme « Starlink » qui a pour objet de permettre l’accès à Internet partout dans le monde. Il en est prévu beaucoup d’autres car Elon Musk veut mettre en place une constellation de 12.000 satellites, qui seront positionnés entre 500 et 1325 km d’une part et 346 et 335 km d’autre part afin de « couvrir » l’ensemble du globe ! L’orbite basse (« LEO ») a été choisie plutôt que l’orbite géostationnaire (36.000 km d’altitude) pour limiter au maximum le temps de latence entre une demande et une réponse (vitesse de la lumière) et c’est ce choix qui impose la multiplicité des satellites (étant plus proches du sol leur couverture est plus réduite).

12.000 c’est vraiment beaucoup et c’est beaucoup trop ! Il y a deux problèmes résultant du nombre : ces satellites peuvent créer des effets parasites gênants pour l’observation du ciel à partir des observatoires terrestres et ce non seulement en termes de lumière visible mais aussi en termes d’ondes radio (non seulement ils réfléchissent mais aussi ils émettent); ils sont d’autre part la source potentielle de collisions et donc d’une multitude de débris futurs qui disparaitront d’autant plus lentement que leur altitude est élevée. En-dessous de 600 km, les orbites sont qualifiées de « self-cleaning » car les objets qui les parcourent sont freinés par une atmosphère de plus en plus dense et s’y consument relativement vite (25 ans, tout de même, au plus haut !). Ceux qui évoluent au-dessus constituent potentiellement une vraie nuisance (qui peut dégénérer en syndrome de Kessler par enchaînement des impacts). Ils ne pourront redescendre pour être consumés dans l’atmosphère dans un délai de temps raisonnable que s’ils disposent d’un système de propulsion qui peut les freiner et d’ergols pour l’alimenter ou bien si l’on va les chercher !

Elon Musk est conscient du problème mais répond « that the chances of collisions happening in space will be small. The space junk thing — we don’t want to trivialize it or not take it seriously, because we certainly do take it seriously — but it’s not crowded up there. It’s extremely sparse ». Il est vrai que la société SpaceX a dû déclarer à la Federal Communications Commission qu’elle avait pris les mesures supposées nécessaires pour éviter les collisions et la production des débris. Mais un expert de l’ESA (Stijn Lemmens, Senior Debris Mitigation analyst) exprime publiquement ses doutes sur la probabilité que ces mesures soient suffisantes. En ce qui concerne la pollution lumineuse Elon Musk suggère de pratiquer plutôt l’astronomie à partir de l’espace. C’est un peu désinvolte !

De plus SpaceX n’est pas la seule société à faire des lancements d’objets en LEO au-dessus de 600 km. Aux satellites de Starlink vont s’ajouter ceux de OneWeb, Telesat, Amazon et d’autres (comme on dit, « the sky is the limit » !). On estime aujourd’hui à 1540 les satellites en fonction dont 1300 en LEO entre 600 et 1100 km. Ce nombre va quadrupler dans les prochaines années. A côté d’eux il y a environ 23.500 objets de plus de 10 cm en orbite (dont 3000 satellites non opérationnels), résultat d’une histoire qui a commencé en 1957 avec Spoutnik (il y a eu depuis lors plus de 5250 lancements et plus de 500 explosions, collisions, destructions en orbite). 18.000 d’entre eux ont été catalogués par le Space Surveillance Network de l’US Air Force (SSN). 75% sont situés en LEO et ce sont les plus dangereux car ils occupent la zone la plus fréquentée et la moins vaste (surface de la Terre 510 millions de km2, surface d’une sphère de même centre mais de rayon augmenté de 600 km : 610 millions de km2, sphère de l’orbite géostationnaire : 22.490 millions de km2). Pour apprécier ces chiffres, il faut bien comprendre qu’un satellite ce n’est pas seulement un point dans le ciel. C’est d’abord une masse parcourant une trajectoire à environ 8 km/s (plus précisément, la vitesse qui permet de conserver son altitude en LEO). Pour aggraver la situation toute collision aboutit à la dispersion des objets dans plusieurs directions (fonction de l’angle d’impact, des vitesses relatives et de la structure des satellites, cf. syndrome de Kessler mentionné ci-dessus). Et certains se moquent totalement de cette dégradation comme le prouvent les destructions de satellites par des missiles à partir du sol, comme l’on fait l’URSS et les Etats-Unis (ils y ont aujourd’hui officiellement renoncé) et la Chine ou l’Inde encore tout récemment (sans excuse ni remord !).

Il est évidemment inenvisageable d’interdire à qui que ce soit de lancer des satellites, l’interdiction ne serait pas respectée puisque l’humanité a besoin de ces équipements et qu’il n’y a pas de gouvernement mondial pouvant imposer une interdiction. D’un autre côté c’est notre intérêt commun à nous tous Terriens de ne pas continuer à polluer l’espace comme on l’aurait fait il y a quelques dizaines d’années quand on n’avait pas pris conscience du danger, réel, d’étouffer notre civilisation sous nos propres débris ou déchets. Ce qui est valable à la surface de la Terre est évidemment valable dans notre espace proche.

Les constructeurs de satellites peuvent y incorporer, avant le lancement, des dispositifs qui permettent leur freinage, la désorbitation et donc la destruction dans la haute atmosphère quand ils le décideront. Mais quid pour ceux qui ne le font pas et pour les autres qui n’ont rien fait ou qui ont voulu faire et n’y sont pas parvenus ? L’électronique d’un satellite est fragile face aux radiations, en plus des risques de collisions…Même si un satellite dispose de tout un système pour le faire revenir sur terre, il peut y avoir des défaillances et donc un risque qu’en dépit de toute bonne volonté, un tel retour soit impossible.

C’est là ou intervient la société ClearSpace qui nous propose une solution indispensable et réaliste. ClearSpace s’est constituée à partir du projet CleanSpace One initié par Muriel Richard-Noca du Centre Spatial de l’EPFL en 2012. Il s’agit d’abord de lancer (en 2024) un satellite expérimental « CleanSpace One » pour aller décrocher le nano satellite SwissCube (lancé en 2009) puis, sur la base de cette expérience, de commercialiser un service de satellites récupérateurs-désorbiteurs qui serait adapté aux divers types de débris à désorbiter.

Le projet CleanSpace One a été conçu en collaboration avec l’université de Bern, la HES-SO et la NTB. Le satellite sera équipé d’un système de rendez-vous « non coopératif » (la cible visée ne participe pas à la manœuvre et sa rotation peut être erratique) et d’un système de capture. Pour le premier il a fallu adapter/développer les technologies nouvelles pour détecter la cible, la rejoindre ; pour le second, les technologies nécessaires pour saisir l’objet (déploiement d’un filet en forme de cône par cinq tubes de carbone), stabiliser le couple, le désorbiter et le diriger vers l’atmosphère terrestre basse. Le choix de la propulsion est important. On parle d’électricité mais ce mode donnera-t-il toute l’agilité nécessaire ?

Comme mentionné ci-dessus, le premier désorbitage va concerner un petit satellite. Le SwissCube est par définition un cubesat, un cube de 10 cm de côté avec des antennes en plus. Les ambitions de ClearSpace sont évidemment de ne pas se contenter de ce format et d’appréhender des cibles allant jusqu’à 300 kg ce qui couvre un pourcentage important des cas à traiter. La plupart des technologies développées aujourd’hui serviront pour la suite et permettront de mieux évaluer les besoins et les possibilités effectives.

Il y a donc incontestablement du travail. Ce travail sera-t-il rémunérateur, suffisamment pour faire vivre et prospérer une société comme ClearSpace ? Evidemment les sociétés desquelles les satellites inactifs, ou leurs débris, proviennent ne vont pas se précipiter pour payer le désorbitage si elles ne l’ont pas prévu ou s’il n’a pas fonctionné. Cependant il y a plusieurs moyens de les y contraindre au-delà de la démarche polie les priant de le faire. En effet presque tous les satellites sont connus, leur nombre n’étant pas encore si extraordinairement élevé et l’histoire des lancements dans l’espace n’étant pas si longue. Le registre du SSN est une bonne base pour effectuer les démarches. On peut ensuite s’appuyer sur les relations internationales pour demander les désorbitages et notamment sur l’United Nations Office for Outer Space Affairs qui devrait normalement pleinement collaborer en faisant appliquer ses « Lignes directrices relatives à la réduction des débris spatiaux du Comité des utilisations pacifiques de l’espace extra-atmosphérique » adoptées en 2007 par les pays membres. Au-delà, il y a le « name-bashing » (ou la crainte qu’il se manifeste) car l’opinion publique a de nos jours une puissance redoutable. Il y a donc matière à espérer mais avant tout il faut qu’un service de désorbitage existe. ClearSpace ayant développé une technologie efficace et complexe aura une avance déterminante sur ses concurrents. Pour ce qui est du prix, ce sera comme toujours quand il s’agit d’une offre formulée sur le marché mondial, la résultante de l’offre et de la demande. L’offre même si elle est au début non concurrencée, le deviendra vite. Il faudra donc aussi conquérir vite une bonne part de marché et donner satisfaction au client par un service efficace.

Alors, la situation est-elle grave ? Non pas encore mais elle risque fort de le devenir bientôt si les constructeurs de satellite ne prennent pas les dispositions nécessaires et si ClearSpace et ses concurrents ne parviennent pas à commercialiser leurs services. Déjà le projet Starlink devrait causer une détérioration notable. A terme les observations astronomiques risquent de souffrir de ces parasites, d’autant que leur focalisation tend à devenir de plus en plus précise, que les événements observés demandent souvent un temps long de collecte de données et que la mise en commun des ressources d’observatoires partout dans le monde (VLBI) vont demander de plus en plus un ciel clair simultanément un peu partout dans le monde (dans le domaine visible mais aussi dans le domaine des ondes radio). Le public doit donc insister pour non seulement avoir une nuit moins polluée par les lumières domestiques et industrielles (ce qui va aussi dans le sens de l’économie de nos ressources énergétiques) mais aussi pour un espace propre et clair (clear & clean). Les bonnes habitudes doivent être prises maintenant pour que tous les nouveaux satellites lancés au-delà de 600 km d’altitude (au-dessus des « self-cleaning-orbits ») soit équipés d’un dispositif de désorbitation et que les projets aussi polluants pour la visibilité des observatoires terrestres que le projet Starlink ne se répètent pas. Quand il s’agit de l’utilisation d’un bien commun (l’espace proche) il faut que les hommes se soumettent à une certaine discipline. S’ils ne le font pas spontanément, une “autorité” finira bien par l’imposer (peut-être tout simplement au moyen de sociétés comme ClearSpace?). Nous devons le faire comprendre à Elon Musk pour qu’il donne lui aussi l’exemple. Nous ne voulons pas nous couper du ciel et de notre fenêtre sur l’espace proche et lointain ; il ne le devrait pas le vouloir non plus !

Image de titre : CleanSpace One sur le point de prendre SwissCube dans son filet. © EPFL, J.Caillet.

NB: cet article a été soumis à la relecture de Luc Piguet et de Jean-Paul Kneib (directeur d’eSpace à l’EPFL).

Liens :

https://actu.epfl.ch/news/une-start-up-se-lance-dans-le-nettoyage-de-l-espac/

https://clearspace.today/

https://www.esa.int/Our_Activities/Space_Safety/Space_Debris

https://gsp.esa.int/article-view/-/wcl/Fd1ZihgaGrwB/10192/end-of-life-disposal-of-satellites

https://www.futura-sciences.com/sciences/actualites/astronautique-cleanspace-muriel-richard-noca-nous-presente-son-satellite-nettoyer-orbite-terrestre-36845/

https://www.skyandtelescope.com/astronomy-news/starlink-space-debris/

https://www.iau.org/news/announcements/detail/ann19035/

https://gizmodo.com/a-history-of-garbage-in-space-1572783046

https://en.wikipedia.org/wiki/Orbital_speed

lire aussi dans Le Temps (publié le 29 mai 2019):

https://www.letemps.ch/sciences/satellites-spacex-vontils-aveugler-astronomes

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 31 05 19

 

Pourquoi le premier village spatial doit être construit sur Mars et non sur la Lune

L’actualité est aujourd’hui la Lune. Notre astre compagnon est la cible aussi bien des Américains que des Européens. Je pense qu’effectivement l’homme y reviendra mais je doute fort qu’il y crée un village, c’est-à-dire un établissement permanent habité de façon permanente.

Au-delà de l’intérêt scientifique qu’on pourra trouver une fois arrivés sur place, les raisons de préférer aller sur la Lune plutôt que sur Mars sont compréhensibles. Constatant la proximité de l’une et l’éloignement de l’autre, on est naturellement conduit à penser qu’il est beaucoup plus facile d’aller sur la première. On a largement tort car il faut consommer autant d’énergie pour un voyage que pour l’autre puisque l’essentiel (environ 90%) est utilisé pour s’affranchir de l’attraction terrestre et la plus grande partie du reste est utilisée pour se freiner afin d’éviter de s’écraser en arrivant à destination (la gravité, toujours!). On a cependant un peu raison dans la mesure où la proximité de la Lune permet d’y accéder ou d’en revenir en trois jours alors qu’il faut au moins six mois pour aller sur Mars et surtout que l’on peut n’y partir que lors de fenêtres de lancement, ouvertes tous les 26 mois, et n’en revenir qu’après 30 mois d’absence alors qu’on peut partir et revenir de la Lune à tout moment de l’année.

Cependant les contraintes qui s’imposent aux séjours de longue durée sur la Lune sont trop fortes pour que l’on s’y installe vraiment puisque précisément on peut en repartir et y revenir facilement. Dit autrement, les raisons de s’y installer durablement plutôt que pour de courtes périodes ne sont pas telles qu’elles justifieraient de surmonter les difficultés que cela représente. En effet quel intérêt y aurait-il à rester sur la Lune 14 jours d’affilée sans lumière du Soleil (durée de la nuit lunaire) et exposé à une température de -150°C (sans compter que les températures de +100°C pendant le jour lunaire poseront aussi un problème énergétique)? Quel intérêt cela aurait-il de vivre longtemps soumis à une force de gravité de 0,16 g, débilitante pour les os ou les muscles* et gênante pour tout déplacement  alors que l’on n’y est pas obligé ? Quel intérêt cela aurait-il de rester exposé sans aucun écran aux radiations solaires (SeP) et galactiques (GCR) ou de vivre enterré pour s’en protéger alors qu’on peut revenir sur Terre quand on le veut (c’est à dire en fait, à la fin du jour lunaire, 15 jours terrestres après être arrivé)? Il y aura certes des missions de géologie ou de mises en place techniques (observatoires sur la face cachée) ou encore des séjours touristiques sur la Lune mais ils pourront être menés ponctuellement, pendant le jour lunaire et avec une installation de support vie fonctionnant par intermittences avec approvisionnement adéquat pour la période. Les géologues, astronomes ou autres scientifiques pourront déposer leurs instruments robotisés y travailler quelques jours et les télécommander ensuite en direct depuis la Terre (la Lune n’est distante que de 380.000 km soit à peine plus d’une seconde lumière !).

*la marche sur la Lune est rendue très difficile par la faible pesanteur et par le centre de gravité placé très haut dans le corps (système de respiration accroché au dos), rendant l’équilibre précaire; la pompe cardiaque fonctionne avec la même force pour des besoins moindres.

Au contraire, les opérations sur Mars seront beaucoup facilitées par une installation permanente. Cela tient à la fois aux conditions d’accès relativement plus difficiles et aux conditions environnementales relativement moins dures. En effet le plus gros obstacle des missions martiennes est qu’on ne peut y commander en direct les robots qu’on y envoie puisque le « time-lag » varie entre 3 et 22 minutes dans un seul sens (6 minutes et 44 minutes pour une impulsion et le retour de cette impulsion sur Terre). Par ailleurs le fait d’être obligé de rester 18 mois sur place avant de pouvoir revenir, implique d’installer toutes les facilités nécessaires pour un séjour de toute façon déjà long. L’exposition aux radiations pendant le voyage, beaucoup plus long que pour aller sur la Lune, alors que les doses de radiations reçues au sol seront moindres (masse de l’atmosphère équivalente à une colonne d’eau de 20 cm), poussera à limiter le nombre de voyages dans une vie (on peut évaluer le maximum à trois ou quatre selon l’âge et le sexe). De plus, ce voyage restera cher non pas tant en argent (même énergie dépensée que pour aller sur Mars), qu’en temps passé (deux fois six mois !). Une fois sur Mars on sera donc incité à y rester aussi longtemps que nécessaire pour y mener à bien l’intégralité d’un programme prévu, sans la ou les coupure(s) d’un (ou plusieurs) aller et retour. Sur le plan environnementale, la durée du jour de 24h39 n’imposera pas les longues périodes d’obscurité et de froid de la nuit lunaire et permettra en particulier des cultures sous serres utilisant en partie plus ou moins grande l’énergie solaire. Une gravité de 0,38g ne sera pas aussi débilitante que celle générée à sa surface par la masse lunaire et la réadaptation sur Terre ne devrait pas être aussi difficile qu’au retour de la Lune pour une même période. Enfin, autant on pourra se contenter d’un confort spartiate pendant une quinzaine de jours, autant ce serait plus difficile pendant 18 mois.

Sur la Lune il n’y aura donc pas un village mais un dépôt d’équipements ou plus exactement une base activée périodiquement, pendant le jour lunaire, en fonction des missions (scientifiques ou techniques) ou des visites touristiques. Ce sera un peu une projection de ce qu’on fait aujourd’hui en Antarctique. Peu de personnes y hivernent et sur la Lune on se contentera aussi d’un service minimum pendant la nuit, pour veiller au bon fonctionnement des équipements des habitats en mode « repos », pour effectuer des dépannages d’urgence sur les équipements scientifiques (en dehors bien sûr de périodes de construction ou d’observation qui peuvent conduire à travailler la nuit). Il ne serait ni rationnel, ni économique de procéder autrement. Sur la Lune il pourra y avoir du personnel affecté à ces trois fonctions, qui feront des séjours assez longs, disons un an, mais compte tenu des problèmes de santé que cela implique et de la facilité relative de revenir sur Terre, il serait étonnant qu’ils soient vraiment plus longs. Enfin sur la Lune les ressources en eau semblent beaucoup moins importantes et facilement accessibles que sur Mars et la poussière plus agressives (érosion nulle puisqu’il n’y a jamais eu ni atmosphère ni eau courante) ; ce ne sont pas des détails pour la logistique. Sur Mars, par contre, il devra y avoir toutes les facilités nécessaires à la vie en autarcie pour un séjour qui ne saurait être inférieur à 18 mois et qui sera souvent du double (deux périodes synodiques).

On doit donc bien parler d’un projet de base lunaire et d’un projet de village martien. Ce n’est pas pareil ! Le risque à craindre en commençant par la Lune c’est que la difficulté de vie sur cet astre ne décourage d’aller un jour sur Mars qui lui sera assimilée à tort.

Image à la Une : Village lunaire (à gauche, crédit ESA) ; village martien (à droite, crédit SpaceX).

Megapower un réacteur nucléaire d’un nouveau type qui nous permettra de vivre sur Mars

Le Los Alamos National Laboratory *(LANL), travaille en partenariat avec la NASA sur « Megapower », un nouveau type de réacteur nucléaire qui convient parfaitement aux besoins énergétiques d’un établissement humain sur Mars.

* Appartient au « Department of Energy » (« DOE ») des Etats-Unis.

Megapower est un réacteur extrêmement robuste, aisément transportable et contrôlable. Il pourrait être utilisé dans tous les endroits difficiles d’accès et ne disposant pas d’infrastructures énergétiques préexistantes. On pense évidemment tout de suite à la Lune ou à Mars. Son principe est le même que le réacteur « KRUSTY » (« Kilopower Reactor Using Sterling Technology », présenté en février 2018 dans ce blog) mais il aura une puissance beaucoup plus élevée (jusqu’à 10 MWe* au lieu de 10 kWe*).

*puissances visées par le LANL .

De l’Uranium 235 (235U) sous une forme « légèrement »* enrichi (« LEU » pour « Low Enriched Uranium », 19,75%*) génère de la chaleur par le phénomène de fission généré par l’impact de neutrons provenant d’autres noyaux préalablement fissionnés (2 à 3 en moyenne par fission). L’effet est renforcé par des réflecteurs (en alumine – Al2O3 – ou oxyde de béryllium -BeO) placés autour du cœur et qui renvoient vers l’intérieur de la masse de ce cœur, les neutrons qui auraient tendance à s’en échapper (ce qui permet aussi d’utiliser ce matériau, LEU). La chaleur est conduite par des fluides caloporteurs (sodium dans le cas de KRUSTY, potassium dans le cas de Megapower) circulant dans des tuyaux caloducs (« heat-pipes », conçus par LANL) au dehors du cœur du réacteur, où elle alimente un moteur (Stirling dans le cas de KRUSTY) ou une turbine à gaz (cycle de Brayton dans le cas de Megapower) qui la convertit en énergie mécanique puis en électricité au moyen d’une génératrice couplée au moteur.

*tout près de la limite de 20% qui qualifie cette catégorie; c’est un enrichissement très nettement élevé néanmoins si l’on considère que le combustible des centrales nucléaires n’est, lui, enrichi qu’à 3-4 % seulement.

L’efficacité de conversion en énergie électrique est d’autant plus grande qu’il existe un différentiel de températures important entre la chaleur produite par le réacteur et la source froide extérieure dans laquelle est rejetée la chaleur résiduelle (2ème Principe de la thermodynamique). Lorsque la demande en énergie est forte le fluide caloporteur retire la chaleur plus vite du cœur, le réacteur commence par se refroidir et le combustible se contracte ce qui tend à faire augmenter le nombre de réactions et in fine à provoquer un plus fort dégagement de chaleur (contre-réaction positive). Inversement lorsque la demande d’énergie est moins forte, la chaleur augmente dans le cœur ce qui conduit le combustible à se dilater et les réactions à diminuer, ce qui permet une auto-régulation et un retour à l’équilibre. C’est la grande originalité et le grand avantage de Megapower qui contrairement aux réacteurs nucléaires traditionnelles, n’a pas besoin d’un système complexe de valves et de pompes pour obtenir un refroidissement à partir de quantités d’eau importantes prélevées dans un fleuve, dans un lac ou dans la mer. Par ailleurs, le réacteur dispose à sa périphérie (avant le bouclier/réflecteur d’alumine) de 12 tambours rotatifs revêtus chacun d’un arc de carbure de bore qui peut être plus ou moins exposé vers le cœur pour freiner la réaction, et de deux barres de carbure de bore que l’on peut insérer facilement au cœur du dispositif (le carbure de bore, B4C, est un puissant absorbeur de neutrons) en cas d’urgence pour faire chuter rapidement le nombre de neutrons et donc les réactions de fission. Enfin, comme dans tout réacteur, un évacuateur de puissance résiduelle (« decay heat exchanger ») intégré entre le cœur et l’échangeur primaire de chaleur avec le moteur/convertisseur, permet de dégager de l’intérieur du cœur tout excès de chaleur.

La structure du Megapower est complexe, pour exploiter le plus efficacement possible la source de chaleur et assurer la bonne maîtrise du dispositif. C’est un monobloc d’acier inoxydable dans laquelle sont installés en hexagone autour d’un vide central lui-même hexagonal, six secteurs de cœur de réacteur couvrant chacun 60° de celui-ci, dans chacun desquels courent un grand nombre de de tubes verticaux (2112) remplis de pastilles de LEU entre lesquels s’insèrent de nombreux tubes verticaux caloporteurs (1224). Comme indiqué ci-dessus, les tubes de LEU ne sortent pas du cœur du réacteur (il comporte à ses extrémités deux blocs réflecteurs); seuls les tubes caloporteurs se prolongent en dehors pour conduire la chaleur jusqu’au dispositif de conversion en électricité, en passant ensuite par l’évacuateur de puissance résiduelle.

Le tout donne un ensemble cylindrique de 4 mètres de long et de 1,5 mètres de diamètre qui devrait peser entre 35 et 45 tonnes (dont 3 tonnes de combustible). Ce n’est ni léger ni tout petit mais un vaisseau spatial du type Starship de SpaceX devrait pouvoir déposer 100 tonnes sur Mars et ni le volume ni le poids de Megapower ne devraient donc poser problème.

Le transport entre la Terre et Mars de tels réacteurs est donc possible. Un village martien d’un millier d’habitants comme il est envisagé d’en établir une vingtaine d’années après le 1er vol habité vers la quatrième planète, pourrait fonctionner avec quatre ou cinq d’entre eux, avec en complément plusieurs réacteurs KRUSTY pour donner de la flexibilité et peut-être équiper quelques sites éloignés de la base et du fait que KRUSTY sera aisément transportable d’un endroit à l’autre. Il ne faut pas oublier qu’il n’y a aucune infrastructure sur Mars et qu’il faudra tout installer et tout construire, y compris des unités d’industrie lourde pour produire acier, verre, aluminium, éthylène, polyéthylène, méthanol, engrais, etc…On aura donc besoin de beaucoup d’énergie dès le « début ». On commencera sans doute par expédier deux réacteurs avec la première mission habitée (redondance minimum nécessaire) puis on expédiera un réacteur lors de chaque fenêtre de tirs (tous les 26 mois). On aura ainsi toujours plus de puissance disponible, en parallèle avec la croissance des possibilités de l’utiliser. Comme pour d’autres produits sophistiqués, il ne peut être question au début de fabriquer ces réacteurs sur Mars. Il faudra en continuer l’importation depuis la Terre pendant la durée nécessaire, pour en augmenter le nombre et renouveler régulièrement ceux qui arriveront en fin de vie car ils ne devraient maintenir leur puissance nominale que sur une dizaine d’années. Progressivement, il faudra s’efforcer de produire sur Mars les éléments les plus massifs ou dont le transport pourrait poser problème. Il faudra s’y appliquer dès le début car pouvoir réduire le transport de volumes et de masses depuis la Terre sera une des premières conditions d’une installation pérenne, compte tenu du coût élevé du transport, des limitations en volume des soutes des vaisseaux spatiaux et de l’espacement des fenêtres de tirs.

On voit bien les avantages de ce type de réacteur pour l’installation de l’homme sur Mars. Le Soleil sera certes également une source d’énergie. Il serait stupide de ne pas en tirer profit mais il est impossible de compter dessus pour satisfaire l’ensemble des besoins. L’irradiance solaire varie de 492 à 715 W/m2 à la distance de l’orbite martienne contre 1321 à 1413 à la distance de l’orbite terrestre, l’efficacité énergétique des panneaux photovoltaïques est (aujourd’hui) au maximum de 40% et bien sûr, les panneaux solaires ne fonctionnent pas la nuit, moins bien si on s’éloigne de l’équateur et plus du tout pendant les tempêtes de poussière ! Donc l’énergie solaire ne pourra être qu’un appoint et, comme il n’y a ni charbon, ni pétrole, ni eau courante, les autres sources possibles d’énergie se réduisent à la géothermie, si l’on trouve des points chauds offrant avec la surface un différentiel de températures intéressant.

LANL espère que ses réacteurs seront prêts dans 5 ans, c’est juste ce qu’il nous faut puisque le premier voyage avec le Starship d’Elon Musk devrait avoir lieu en 2024 ! Il ne reste qu’à souhaiter plein succès aux ingénieurs qui travaillent à résoudre les dernières difficultés techniques levées par l’« INL » (« Idaho National Laboratory ») qui appartient aussi au DOE et qui a été chargé par ce dernier de faire une étude critique du projet.

Image à la Une : Un réacteur Megapower dans son camion de livraison. Cela donne une bonne idée des dimensions. Crédit LANL

Image ci-dessous : volumes principaux d’un Megapower (crédit LANL).

Images ci-dessous : coupe horizontale du réacteur (crédit LANL). On y voit les six segments de cœur du réacteur, en acier inoxydable, traversés par des tubes où sont empilées les pastilles LEU de 235U, entourées par d’autres tubes remplis de potassium, tout autour les 12 tambours de contrôle portant leurs arcs en carbure de bore et au centre la cavité hexagonale dans laquelle peuvent être introduites les barres en carbure de bore. Le cercle jaune extérieur est le bouclier/réflecteur en Alumine.

Image ci-dessous : coupe horizontale de l’un des six segments du cœur du réacteur (crédit LANL). Chaque tube de combustible (“fuel”, couleur pourpre) de LEU est entouré de trois conduites de transport de chaleur (blanc).

Image ci-dessous à gauche: un des six segments du cœur du réacteur (crédit LANL) et, à droite, une coupe verticale de ce segment (crédit LANL).

             

 

Des précisions / corrections ont été introduites après relecture par le Dr Pierre-André Haldi (directeur du Master of Advanced Studies en énergie, à l’EPFL)

Références :

article dans 1663 (la revue du LANL) : https://www.lanl.gov/discover/publications/1663/2019-february/_assets/docs/1663-33-Megapower.pdf

Proposition alternative de l’INL : https://ndiastorage.blob.core.usgovcloudapi.net/ndia/2017/power/Ananth19349.pdf

 

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 05 10

A la recherche d’un cousin de LUCA notre ancêtre ultime

LUCA, notre « Last Universal Common Ancestor »*, a-t-il été unique dans l’Univers ? C’est pour tenter d’obtenir une réponse à cette question que l’exploration attentive et approfondie de Mars est essentielle.

*LUCA a probablement vécu il y a près de 4 milliards d’années.

La Vie sur Terre (la seule que nous connaissons) est apparue dans des conditions que l’on ignore. On peut constater l’inanimé d’une part avec la présence d’éléments plus ou moins élaborés utilisés par la Vie, l’animé d’autre part et, de ce seul fait, la preuve d’un passage d’un état à l’autre, mais non connaître le processus du passage, même si on en suppose les conditions et certaines phases. Le plus grand prodige c’est le résultat, la Vie, c’est-à-dire un processus continu de transformation de la matière par des organismes puisant leur énergie et leurs éléments constituants dans leur environnement, pour se reproduire presque à l’identique mais pas tout à fait ce qui leur permet de s’adapter aux conditions extérieures et donc d’évoluer.

L’expression de la Vie la plus simple et la plus ancienne c’est la cellule autonome procaryote, bactérie ou archée, qui comprend une enveloppe (membrane) qui sépare et protège un intérieur d’un extérieur mais en même temps permet le contact et les échanges, et à l’intérieur les éléments essentiels au fonctionnement et à la reproduction, c’est-à-dire à la continuité de la Vie. La bactérie ou l’archée ne comprennent que les éléments dont elles ont strictement besoin pour satisfaire cette pulsion homéostatique*. Elles se débarrassent des autres. Ce sont des modèles de rationalité et d’économie. Des êtres certes qui n’ont pas la complexité des eucaryotes métazoaires avec tout un jeu d’organes complémentaires ou même celle des eucaryotes unicellulaires avec leur noyau et ses mitochondries, mais des êtres déjà extraordinairement élaborés et ajustés à leur fonction. Il s’agit pour ces procaryotes de se reproduire plus vite que « les autres » pour disposer du terrain et donc des aliments pour se perpétuer et de l’espace pour projeter leurs descendances. L’instrument de base est l’ADN, la matrice et le modèle qu’il faut transmettre à la génération suivante et qui contrôle « tout » c’est-à-dire la production de protéines et le processus de captation d’énergie pour faire fonctionner l’ensemble de la cellule, ainsi que le mécanisme de reproduction.

*cf: “L’ordre étrange des choses” d’Antonio Damasio

LUCA est l’ancêtre dont nous descendons tous. Tous les êtres vivants sur Terre ont en commun un assemblage génétique qui remonte jusqu’à lui. Il est le seul de ses frères ou cousins cellulaires à avoir transmis ses gênes à une descendance, même s’il a pu faire partie d’une communauté pendant sa très courte vie. A partir de lui la Vie a proliféré en se divisant toujours plus, à commencer par l’embranchement bactéries / archées et jusqu’à la diversité extrême des espèces que nous constatons aujourd’hui. Pour comprendre LUCA c’est-à-dire l’assemblage merveilleux dont toute vie découle, il nous faut connaître l’avant LUCA au plus près de LUCA.

Ses prédécesseurs sont des éléments de plus en plus complexes (composition chimique, polymérisation, choix d’un énantiomère) fonctionnant ensemble dans la nature puis à l’intérieur d’une membrane, peut-être des cellules douées d’une capacité reproductive mais évidemment moins performantes que LUCA puisqu’elles n’ont pas laissé de descendance si ce n’est par l’intermédiaire de LUCA. Il s’agit donc de savoir quels ont été les éléments ultimes de la construction et celui qui a déclenché l’étincelle qui a mis en route le moteur qui ne s’est ensuite jamais éteint. Sur Terre, la tâche est très difficile. Les roches les plus anciennes, remontant à l’époque ou l’alchimie de la Vie a produit son chef-d’œuvre, son LUCA, sans doute non avant -4 milliards d’années (-4Ga) et probablement entre -4 et -3,8 Ga, sont extrêmement rares, n’occupant que quelques tout petits km2 au Nord-Ouest de l’Australie ou au Nord du Groenland. L’érosion a été terriblement abrasive, la tectonique des plaques a recyclé presque tout ce qui pouvait l’être, en dépit de la flottabilité des masses continentales au-dessus de la croûte de la planète. La taphonomie (science de la transformation des êtres vivants après leur mort) est très difficile du fait de cette histoire compliquée et à l’extrême (vestiges de plus de 3,5 Ga) les doutes sont forts. Pour tenter de les lever on doit associer l’étude visuelle (morphologie des biomorphes) à l’étude chimique (présence de matière kérogène, abondance de l’isotope 12 du carbone, traces d’activités métaboliques) en prenant en compte l’évolution que la forme ou la composition ont pu subir du fait du temps, en prenant un soin extrême à écarter toute contamination du fait de l’histoire de la roche examinée ou de la manipulation lors de l’examen lui-même, et en affermissant les hypothèses en discutant les indices.

Sur Mars, la situation est très différente car la vie planétologique s’est considérablement ralentie depuis l’époque où la Vie est apparue sur Terre et a pu par analogie commencer sur Mars, puisque les conditions environnementales antérieures des deux planètes étaient très semblables*. La tectonique des plaques s’est arrêtée très tôt, empêchant le recyclage et la transformation des roches de surface, l’érosion aqueuse, forte par intermittence, n’a plus été généralisée et l’érosion éolienne bien que non nulle est évidemment restée faible puisque la densité de l’atmosphère est devenue nettement plus faible. Il y a eu beaucoup de volcanisme mais les laves ont laissé indemnes des millions de km2 de surface. On peut donc supposer que si le processus de Vie était enclenché vers -3,5 Ga et avait donné naissance à un LUCA local, il a pu continuer, en évoluant uniquement à l’occasion de chaque épisode humide, donc au ralenti par rapport à ce qui s’est passé sur Terre et en préservant de ce fait des types plus archaïques (et aussi plus robustes).

*NB: elles n’étaient cependant pas identiques, essentiellement parce que Mars bénéficie d’une irradiance solaire moindre, d’une masse planétaire moindre, probablement de moins d’eau, peut-être aussi d’un mixe atmosphérique un peu différent et enfin parce qu’elle souffre d’une absence de Lune.

Maintenant il y a deux alternatives : soit le processus de Vie a démarré, soit il n’a pas démarré pendant la période favorable des quelques centaines de millions d’années autour de -4Ga. S’il n’a pas démarré, on trouvera un jour jusqu’où l’environnement planétaire martien a conduit l’évolution des éléments organiques prébiotiques (non-biologiques ou presque-biologiques) et, connaissant les particularités de l’environnement martien par rapport à celui de la Terre à cette époque, on comprendra mieux pourquoi il a réussi sur Terre et les difficultés qu’il a dû surmonter pour y apparaître. S’il a démarré sur Mars, soit on trouvera un jour des êtres vivants martiens descendant de cet autre LUCA, soit des fossiles de ces êtres vivants. Dans un cas comme dans l’autre nous aurons des preuves et des indication sur la force adaptative (et éventuellement les limites) de la Vie une fois qu’elle a commencé. Puisque l’érosion a été moins forte sur Mars que sur la Terre, on peut aussi espérer que la taphonomie des objets les plus anciens (remontant à l’hypothétique LUCA martien) soit moins difficile (même si le temps passé et l’irradiation de la surface du sol ont pu évidement induire des évolutions importantes).

Par ailleurs, si la Vie a commencé sur Mars, il sera passionnant de voir avec quels éléments elle s’est constituée. Au tout début de notre Vie terrestre, nous avons deux branches, celle des bactéries et celle des archées. Elles présentent des différences fortes, au niveau des membranes plasmiques et de la paroi cellulaire, dans le mode de réplication de l’ADN ou dans celui de l’expression des gènes. Il n’y a aucune raison pour qu’une Vie martienne ne présente pas des différences aussi fortes ou même plus. Il n’y a aucune raison que la Vie martienne n’utilise pas d’autres acides aminés que les nôtres, que le sucre ou la base azotée de ses nucléotides soient exactement les mêmes, que son mode de respiration conduise aux mêmes échanges d’énergie que sur Terre en passant par l’ATP. Tout ceci sera très important pour comprendre et apprécier le processus vital en général, savoir ce qui est irréductiblement nécessaire et ce qui l’est moins. Cela nous donnera aussi une compréhension plus abstraite de la Vie comme processus d’évolution de la matière.

La recherche biologique est une motivation fondamentale de l’exploration humaine. Cela justifie toutes les dépenses que nous pouvons effectuer pour aller examiner en dehors de la Terre, le sol et le sous-sol de la planète accessible où la répétition de l’événement est le plus probable, c’est à dire Mars. Mais il ne faut pas rêver. Pour que ces dépenses soient vraiment efficaces, le retour de quelques échantillons ne sera pas suffisant, surtout si la Vie n’a pu véritablement s’étendre à l’ensemble de la surface de Mars, ou si elle revêt des formes et une composition inattendues. Il faudra une présence humaine avec tous les équipements d’investigation de pointe dont nous pouvons disposer et beaucoup d’intelligence appliquée au plus près du terrain, sur Mars.

Illustration de titre: microstructures parmi les premières traces incontestables de vie terrestre. In “Microfossils of sulphur-metabolizing cells in 3.4 billion-year-old rocks of Western Australia (Strelley Pool), par David Wacey et al. publié le 21/08/2011 dans Nature Geoscience, DOI:10.1038/NGEO1238

Conférence le 22 mai à 18h00 à l’EPFL (en Anglais) sur le thème ‘Logistic & economic challenges to realize a Martian village”. Accès libre mais inscription demandée.

Pour (re)trouver dans ce blog un article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 05 10