Le rêve de Titan

Le 27 juin la NASA a annoncé qu’elle allait explorer Titan avec un hélicoptère. La sonde porteuse partira en 2026 et atterrira en 2034. J’aurai alors 90 ans ! Que faire sinon déplorer le temps qui passe, rêver et espérer quand même pouvoir contempler émerveillé ces cieux lointains et apprendre encore ?!

Titan n’est pas un « objet » ordinaire. Nous en connaissons assez bien les caractères généraux grâce à la sonde Cassini de la NASA qui pendant 13 ans a permis d’étudier le système de Saturne, dont il fait partie, avant d’être précipitée dans l’enveloppe gazeuse de cette dernière le 15 septembre 2017.

C’est d’abord l’un des deux plus gros satellites des planètes (et de certaines planètes elles-mêmes) du système solaire, 5150 km de diamètre, plus que la Lune (3474 km) ou que Mercure (4875 km) mais moins que Mars (6779 km) et bien sûr que la Terre (12742 km) et légèrement moins que Ganymède (5268 km) le plus gros des satellites de Jupiter. C’est aussi avec la Terre, le seul astre rocheux de notre système, doté d’une atmosphère épaisse (pression au sol 1.47 bars), beaucoup plus que celle de Mars (0,010 bar), mais pas trop (comme celle de Vénus, 93 bars !). C’est encore un astre étrange où les rochers sont en glace d’eau et où dans les fleuves coulent des hydrocarbures qui s’évaporent lentement dans de grands lacs tout au long d’une année de trente ans (29,46), marqué comme la Terre par des saisons puisque l’axe de rotation de Saturne par rapport au plan de l’écliptique est incliné de 26,73° (Terre 23,26°). A noter que c’est cette inclinaison et non celle de Titan sur son orbite qui détermine les saisons puisque la source de chaleur est le Soleil et non Saturne et que l’inclinaison de l’axe de rotation de Titan est seulement de 0,28° sur le plan orbital de Saturne*. Observons le un peu plus en détails :

*cf commentaire du professeur Daniel Pfenniger (UniGe).

Tout d’abord, nous devons prendre en compte la caractéristique structurelle primordiale de tout corps céleste, sa masse. Elle est très faible, 134,5 contre 639 pour Mars, 5972 pour la Terre et 56830 pour Saturne (en milliards de milliards de tonnes – 1,345 à la puissance 23 !) mais quand même le double de celle de la Lune (73,6). Ce rapport entre la taille et la masse de l’astre détermine sa densité et résulte de sa composition particulière, fonction de sa localisation dans le systèmes solaire et dans le sous-système saturnien. Compte tenu de sa formation bien au-delà de la Ligne-de-glace, qui passe au milieu de la Ceinture-d’astéroïdes (entre Mars et Jupiter), il est constitué d’un cœur de silicates hydratés (pas de métal !) enrobé dans de la glace d’eau mêlée d’hydrocarbures mais comme la pression et la chaleur interne jouent, cette glace perpétuellement solide à l’extérieur (sauf éventuel volcanisme) est liquéfiée à l’intérieur au point qu’on pense que grâce à la présence d’ammoniaque (NH40H – qui abaisse le point de congélation), elle a pu constituer un véritable océan planétaire souterrain. Par ailleurs la faible masse a pour conséquence une faible gravité en surface, légèrement inférieure à celle de la Lune (0,135g contre 0,16g). Combinée à la densité de l’atmosphère cela crée la condition idéale pour l’exploration robotique aéroportée (comme nous le verrons plus tard).

Un autre caractère planétologique important est la composition de l’atmosphère. Elle est constituée de 95% à 98,4% d’Azote (Terre 78,09%) et de 5 % à 1,6% d’hydrocarbures dont principalement du méthane (CH4) et un peu moins d’éthane (C2H6); l’hydrogène suit avec 0,1 % et, en plus faibles quantités (« traces »), de toutes sortes de composés: acétylène, propane, mais aussi de CO2 . A la température ambiante, le méthane se trouve aux alentours de son point triple. Il y a donc, en instabilité selon les variations de températures, du méthane gazeux dans l’atmosphère et liquide en surface. Une grande partie du « charme » de titan repose sur le cycle des liquides et des gaz. Il y a, surtout dans la région des pôles, ces lacs de méthane mentionnés plus haut. Ils sont soumis à une forte évaporation qui alimentent l’atmosphère en nuages. Compte tenu de la rotation lente de l’astre sur son axe (15,95 jours) et des faibles changements de températures résultant de l’exposition au Soleil cette atmosphère est en mouvement, parcourue par de faibles vents. Avec l’évolution des nuages, il pleut et il neige sur Titan en grosses gouttes ou en gros flocons qui tombent lentement (gravité et densité de l’atmosphère!) sur un sol déjà enrichi et complexifié au cours des éons ; et des orages se déclenchent, avec de la foudre, donc des éclairs et du tonnerre qui gronde d’autant plus que l’atmosphère dense en transmet bien le bruit. Outre ces décharges électriques, les radiations solaires (Uv) et galactiques (le satellite ne jouit pas de la protection d’une magnétosphère), ajoutent aux facteurs dissociatifs et associatifs des molécules complexes en suspension dans l’air et déjà accumulées au sol.

En dehors des lacs et des pics les plus acérés, le sol est en effet, en raison de ces processus qui durent depuis des milliards d’années, recouvert de matières hétéropolymères, les « tholines », substances visqueuses et collantes, proches de nos goudrons. Elles ressemblent aussi beaucoup aux « résidus récalcitrants » (selon Carl Sagan) obtenus par Miller et Urey au bout de leurs recherches en laboratoire visant à synthétiser les composants de base de la vie par décharges électriques dans une supposée atmosphère terrestre primitive. A noter et c’est important qu’il s’est avérée plus tard que la composition de cette atmosphère reposait sur des hypothèses inexactes, l’atmosphère primitive terrestre contenant probablement beaucoup moins d’hydrogène, beaucoup plus de gaz carbonique et du souffre.

Un phénomène intrigue, l’intermittence de certains lacs. Cela indique évidemment une faible profondeur, une forte évaporation mais aussi peut-être une porosité du sol et quand on rapproche cette possibilité de la présence d’un océan souterrain, on peut envisager des communications entre la surface et l’Océan et donc encore plus de possibilités « biotiques » car l’environnement océanique pourrait permettre aux polymères organiques formés en surface de contourner l’obstacle du très grand froid pour continuer à évoluer dans des conditions plus favorables.

Enfin, comme la Lune, Titan est un satellite en évolution synchrone avec sa planète. C’est-à-dire que tout en tournant sur elle-même, elle lui présente toujours la même face. En effet Saturne verrouille l’exposition de son satellite par force de marée puisqu’elle n’en est distante que de seulement 10 diamètres saturniens (1,22 millions de km) et que sa masse est beaucoup plus importante que celle de Titan. Ceci veut dire que l’autre face n’est jamais exposée vers Saturne. Cela a-t-il des conséquences sur le climat ou les différents flux dans l’atmosphère, dans le sol, dans la structure interne de la planète ? Cela ajoute-t-il à la richesse des processus d’échanges biochimiques en cours ? Le sujet sera probablement étudié un jour.

 

Son atmosphère et la présence de liquide en surface conduisent certains à dire que Titan ressemble à une Terre primitive. C’est peut-être extrapoler sur des éléments insuffisamment analogues (la composition de l’atmosphère) et ignorer d’autres aspects très différents (la température). Le système de Saturne est froid, très froid car il se trouve loin du Soleil, entre 1349 et 1505 millions de km (10 Unités Astronomiques, « UA »), soit entre 9 et 11 UA de la Terre (qui se trouve par définition à une UA du Soleil). Compte tenu de l’éloignement du Soleil, l’irradiance au niveau du système saturnien est très faible (14,9 W/m2 soit 1/100ème de celle de la Terre et 1/50ème de celle de Mars). La luminosité en surface est donc très faible, d’autant qu’il y a des nuages, et la température moyenne est très basse (-180°C) et elle varie très peu. Mais il faut reconnaître que c’est un monde complexe et actif, certainement un incubateur qui a dû pousser la complexification des processus chimiques plus loin que la plupart des autres astres du système solaire.

 

L’exploration de Titan n’est pas facile, à cause de la distance et du temps nécessaire pour l’atteindre et ensuite pour commander les manœuvres des robots (les signaux mettent en moyenne 1h20 dans un seul sens) et à cause de la température, des orages et des étendues liquides (il vaut mieux éviter d’y couler, avant de s’y noyer!). La NASA a choisi la bonne solution puisque l’atmosphère est porteuse : l’hélicoptère, en l’occurrence un quadricoptère ou « quadcopter » comme disent les Américains, dotés de quatre couples de deux rotors (deux couples de chaque côté). L’idée a été lancée en l’an 2000 par le spécialiste de Titan, Ralph Lorenz (« planetary Scientist » au John Hopkins University Applied Physics Laboratory –JHUAPL)…le temps passe et les projets d’exploration mettent toujours longtemps à éclore…quand ils éclosent ! Curieusement le projet est devenue une affaire de famille car si Ralph Lorenz est le Project Scientist (responsable scientifique) de la mission, c’est son épouse Elizabeth Turtle, de la même université, qui en a été nommée la « Principal Investigator » (responsable générale). La mission nommée « Dragonfly » (libellule) sera effectuée dans le cadre du programme « New-Frontier » de la NASA, comme New-Horizons dont la sonde vient de passer à proximité d’Ultima-Thule, le premier objet de la Ceinture de Kuiper observé en détail, Juno qui orbite aujourd’hui autour de Jupiter ou comme Osiris-Rex qui étudie actuellement l’astéroïde Bennu. L’objet de Dragonfly est d’étudier la géologie de surface, la météorologie et leurs interactions (exactement ce qu’on pouvait demander !). Le budget est « raisonnable » (comme doivent l’être ceux des projets « New-Frontier »), un milliard de dollars seulement (hors lancement qui coûtera probablement une centaine de millions de dollars).

Dès le début de la mission le quadcopter mettra à profit la densité de l’atmosphère. Il ne sera pas déposé au sol mais libéré avant l’atterrissage, dans la basse atmosphère (à 1,2 km d’altitude) après une descente freinée par bouclier thermique puis par deux parachutes successifs. Ceci lui permettra la reconnaissance du meilleur site pour se poser et aussi une première observation.  Ensuite l’engin rechargera ses batteries pour pouvoir faire un nouveau vol (il passera plus de temps au sol que dans les airs car outre ce rechargement, il fera des observations du sol et enverra les données collectées vers la Terre). En plus des caméras, il y aura à bord des spectromètres, des capteurs météo, un sismomètre ; des forets fixés sous les patins d’atterrissage permettront de prélever des échantillons qui seront analysés sur place. Une innovation intéressante sera l’installation d’un dispositif de réalité augmentée qui permettra de contrôler périodiquement en trois dimensions l’appareil et son environnement immédiat dans d’excellentes conditions, « comme si on y était ».

Le premier atterrissage aura lieu sur l’équateur (il est toujours plus facile de s’y poser car c’est au-dessus de cette zone qu’arrive naturellement un vaisseau spatial attiré par la force de gravité de l’astre et il n’est pas nécessaire de dépenser d’énergie supplémentaire pour monter en latitude), dans la région de Shangri-La (c’est un champs de dunes comme il y en a beaucoup dans cette région). Ensuite Dragonfly fera de petits vols jusqu’à 8 km de distance et 500 mètres d’altitude ; sur les deux ans et demi que durera la mission il devrait parcourir 175 km. Cela le mènera jusqu’au cratère Selk intéressant par la variété de ses roches notamment parce que l’impact qui l’a généré a permis la libération, et l’action en surface, d’eau liquide. Bien entendu l’énergie utilisée sera nucléaire, sans doute un RTG (radioisotope thermoelectric generator) fonctionnant au plutonium 238 (convertissant en électricité la chaleur résultant de la désintégration radioactive du métal) ou peut-être un réacteur de type Kilopower fonctionnant à l’uranium 235, car à cette distance utiliser l’énergie solaire est impensable, l’irradiance étant beaucoup trop basse.

Alors verrai-je les films que Dragonfly prendra de ce monde étrange ? Quoi qu’il en soit de mon destin, vous les plus jeunes ne manquez pas de vous en rassasiez ! Ce seront des photos crépusculaires comme les rives que j’aborderai ou que j’aurai déjà franchies. Vous contemplerez dans une atmosphère ocre-dorée tirant vers l’orange et sombre, la lueur de Saturne réfléchissant la lumière du Soleil lointain. L’image beigée de la planète géante entourée de ses anneaux évoluera comme sur Terre celle de la Lune en fonction de ses phases. Énorme et immobile dans le ciel, elle dominera les montagnes de glace et se reflétera comme dans nos plans d’eau terrestres, dans quelque plan d’éthane liquide, noir et lisse. « Vous » ne serez pas encore dans vos scaphandres chauffés, les pieds dans vos bottes fourrées pataugeant dans la boue de tholines de ce monde glacial mais si nous sommes déjà parvenus sur Mars, nul doute que vos descendants y accéderont un jour avant d’aller encore plus loin. Ce sera splendide!

Image à la Une: Dragonfly en mouvement au-dessus du sol de Titan. Illustration crédit: John Hopkins APL.

Image ci-dessous: Dragonfly au sol. Le cylindre à l’arrière est le RTG. Crédit: John Hopkins APL.

liens:

https://www.nasa.gov/press-release/nasas-dragonfly-will-fly-around-titan-looking-for-origins-signs-of-life

http://dragonfly.jhuapl.edu/

https://spectrum.ieee.org/automaton/robotics/space-robots/how-to-conquer-titan-with-a-quad-octocopter

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 28

Les ayatollahs du climat s’opposent aux vols habités dans l’Espace ; ne leur cédons pas !

Les extrémistes climatiques mènent actuellement une campagne contre le tourisme spatial. Ils sont parvenus à mettre dans leur camp Philippe Droneau, le « Directeur des publics » de la Cité de l’Espace de Toulouse. Cette campagne est une menace pour la Liberté et le Progrès. Le raisonnement qui la sous-tend est biaisé et donc infondé. C’est grave, d’autant que Philippe Droneau suggère également d’interdire l’accès de l’espace profond au « vulgum pecus ».

Dans son interview par le magazine en ligne Usbek et Rica publié le 23 juin, il fait essentiellement les objections suivantes : (1) Il y a urgence climatique ; développer massivement des vols suborbitaux de loisir n’est pas pertinent en raison de leur coût écologique (libération de dizaines de tonnes de carbone dans la haute atmosphère) et de leur coût éthique ; (2) Il est faux de prétendre que le tourisme pourrait financer les projets privés d’exploration ou autre ; (3) Mars ne pourra être une « planète B ». Même s’il y a un jour une colonie sur Mars, dans 200 ans, ça concernera une centaine d’individus au plus. La priorité, c’est de s’occuper des bientôt 9 milliards de Terriens et de gérer le vaisseau spatial Terre.

Ma première réponse à ces objections est qu’elles sont sans nuance et donc excessives, comme le sont souvent les déclarations des écologistes politiques. Si « beaucoup » de « quoi-que-ce-soit » (la production d’acier par exemple) peut poser un problème environnemental, « un peu » est souvent non seulement acceptable mais souhaitable. Ce sont les quantités ou les doses qui posent problème et non la nature même des activités humaines. En ce qui concerne les vols de fusées affectées au tourisme spatial ou au transport planétaire terrestre il faut bien voir que la population concernée sera peu nombreuse. On parle de prix qui seront ceux d’une super première-classe s’il s’agit d’aller de New-York ou de Londres à Sydney ou de passer un week-end dans l’espace. On peut envisager l’équivalent de 20.000 CHF d’aujourd’hui par personne. Cela veut dire que très peu de monde répondra à l’offre (pour donner une idée, les passagers de première classe sur long courrier représente 0,3% seulement du nombre de passagers d’Air France). Cela veut dire qu’il y aura relativement peu de vols (peut-être un millier par an). Mais cependant ce nombre de vols sera suffisant pour créer une très sérieuse économie d’échelle permettant d’abaisser considérablement le coût unitaire des éléments réutilisables des lanceurs (dont le premier étage) pouvant être affectées aux Starships interplanétaires qui ne partiront sur la Lune que peut être tous les mois en moyenne et pour Mars que tous les 26 mois (compte tenu de la configuration planétaire). Les vols à objectif scientifique vers la Lune et vers Mars (ou autres) en profiteront forcément ; « it’s the economy, stupid ! ».

En ce qui concerne l’impact écologique il faut bien voir qu’un excellent cocktail d’ergols est constitué par de l’hydrogène liquide (LH) brûlant dans de l’oxygène liquide (LOX). C’est ce qui était utilisé pour Ariane V et ce n’est pas polluant (production d’eau !). Toutes les combustions ne sont pas polluantes ! On peut certes supposer que pour les voyages martiens on utilisera plutôt le méthane (CH4) brûlant dans le LOX (puisque la production de méthane pour le vol de retour sera relativement facile sur Mars). Cela produira du CO2 ce qui est aujourd’hui considéré comme inacceptable mais il faut bien voir que les vols vers Mars ne seront pas nombreux et que ces vols ne seront pas la seule source de CO2 dans le monde (cf. les centrales à charbon allemandes). Cette limitation résulte d’abord de ce que les possibilités en sont réduites par les fenêtres de lancement (un mois tous les 26 mois) et aussi de ce que pendant très longtemps les infrastructures martiennes seront trop peu développées pour accueillir des dizaines de vaisseaux partis pendant que ces fenêtres sont ouvertes. Quand les infrastructures seront suffisamment développées les technologies de transport auront évolué. Pour les voyages planétaires (point à point du globe terrestre) on pourra continuer à utiliser la propulsion HL/LOX.

Un autre point à noter est qu’une fusée consomme l’essentiel de ses ergols en altitude relativement basse (contrairement à ce que laisse croire Philippe Droneau). En effet ce qui représente la masse la plus importante d’un vaisseau spatial avant décollage c’est la part des ergols qui va permettre le décollage de la totalité de la masse*, incluant la totalité de ces mêmes ergols, avec une force suffisante pour lui donner une vitesse initiale qui permettra ensuite une accélération toujours plus rapide, tant qu’il y aura du carburant. Plus le vaisseau monte, plus il prend de la vitesse et plus sa masse se réduit. L’essentiel est donc consommé dans les premières dizaines de km d’altitude (grâce à la plus grande partie de la masse du premier étage) et non pas dans la « haute atmosphère » (comparez juste visuellement le volume d’un premier étage avec celui d’un second étage, sans y inclure l’habitat ou la charge utile).

*Pour le “Super-Heavy”+”Starship” de SpaceX (le tout étant appelé précédemment le “BFR”), 4400 tonnes dont 3065 pour le premier étage (Super Heavy) et 1335 pour le second étage (Starship) dont 185 tonnes à vide (ou plutôt “à sec”) avec sa charge utile (100 tonnes). Pour comparaison l’Airbus a380 a une masse de 575 tonnes au décollage et une masse de 277 tonnes à vide.

Ma deuxième réponse est qu’en niant l’intérêt des vols touristiques, Philippe Droneau ne voit pas que non seulement ils vont permettre de réduire le prix unitaire des vols scientifiques effectués avec les mêmes fusées (comme développé plus haut) mais aussi que sur Mars le « vol + séjour » touristique peut aussi permettre de faire tourner une économie locale qui coûterait encore plus cher si elle n’était prévue que pour le séjour de scientifiques. Pourquoi donc refuser l’argent du privé s’il peut aider à développer la base martienne et à faire fonctionner la recherche ?! Cette remarque me semble d’autant plus pertinente que les « touristes » qui, au-delà de l’orbite basse terrestre, viendront passer un séjour nécessairement long sur Mars, 18 mois (imposé par les contraintes synodiques), devraient très souvent y « faire quelque chose » ou y « tenter quelque chose », qui pourrait s’avérer utile et profitable à tous (ils y seront d’autant plus incités qu’ils auront payé très cher ces « vacances »). Le « touriste » pourrait être un cinéaste mais il pourrait être aussi un futur entrepreneur venu tester une idée, un concept, dans un environnement extrême ou il pourrait être un « étudiant-chercheur » de haut niveau voulant bénéficier de l’environnement intellectuel exceptionnel de la communauté martienne (concentration extrêmement forte de personnes à la pointe de chacune des nombreuses technologies nécessaires à la vie sur Mars…et sur Terre). Je trouve que la proposition de Monsieur Droneau de vouloir restreindre l’accès à l’espace à des « spécialistes » est extrêmement élitiste, arrogante et contraire aux intérêts même de la Science. Tout le monde ayant une motivation suffisante et capable de réunir les moyens financiers nécessaires (les siens propres ou ceux de ses sponsors), ce qui va d’ailleurs ensemble, doit pouvoir avoir accès à l’Espace pourvu que son projet ne soit pas nuisible de façon évidente à l’intérêt commun (il devra quand même y avoir un comité ou conseil pour accepter les candidatures, ne serait-ce que pour des raisons de sécurité ou de nombre de “places” limitées).

Ma troisième réponse est que oui Mars pourrait être pour les Terriens une planète-B. Il est évident que seule une infime partie des Terriens pourront s’établir sur Mars. Non pas 100 dans 200 ans mais plutôt 1000 dans 20 ans, contrairement à ce que pense Philippe Droneau, mais de toute façon un nombre très, très inférieur à la croissance annuelle actuelle de la population mondiale. Mais ces quelques personnes pourraient emporter avec elles, conserver et faire fructifier la quintessence de notre civilisation ; ce n’est pas rien ! Cela vaut un effort et même de diffuser quelques tonnes de CO2 supplémentaires dans l’atmosphère terrestre. Dans le cas d’un cataclysme survenant sur la Terre ce serait pour nous tous, ceux qui seraient partis et ceux qui n’auraient pas pu ou voulu partir, une seconde chance (intellectuellement pour les seconds). Dans le cas d’une continuation heureuse de notre civilisation sur Terre, ce serait un enrichissement potentiel, le nouveau milieu accueillant la vie suscitant forcément des innovations profitables également à la vie sur Terre…Tout ceci pourvu évidemment que l’on laisse suffisamment de temps aux nouveaux Martiens pour s’installer et, dans le cas de l’hypothèse catastrophiste, qu’ils aient eu suffisamment de temps pour acquérir une autonomie leur permettant de survivre si la civilisation terrestre est détruite. Ce ne sera pas demain! En attendant, du fait de la stimulation du milieu, la présence d’une colonie humaine sur Mars nous apportera des innovations intéressantes pour tous, Martiens et Terriens, dans le domaine du transport, de la durabilité, du recyclage, de la productivité agricole, du traitement économe de l’environnement, de son contrôle microbien, etc…

Alors dans ce contexte, je ne vois vraiment pas quel est le « coût éthique » auquel fait allusion Philippe Droneau. Je trouve que sa vision de notre futur, de nos besoins et de nos devoirs, est extraordinairement étriquée et conventionnelle. Un vrai scientifique devrait faire confiance à nos capacités d’innovations et d’adaptation ; ce ne semble pas être son cas. C’est fort regrettable pour quelqu’un chargé de la diffusion de la Science auprès du Public.

Image de titre: le premier étage Super-Heavy et son Starship au décollage dans l’atmosphère terrestre; le premier étage va jusqu’aux ailerons (à la base du Starship). crédit SpaceX.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 20

50 ans et depuis, quasiment rien!

Il y aura cinquante ans ce 21 juillet des hommes posaient pour la première fois le pied sur la Lune. Je n’aime pas les célébrations lorsque leurs causes n’ont pas permis les effets qu’on pouvait en espérer et c’est bien hélas ici le cas. En effet qu’avons-nous accompli dans l’Espace en matière de vols habités depuis cet exploit ? Quasiment rien relativement à cette première excursion.

Après avoir atteint la Lune, premier « sommet » possible, la NASA s’est endormie sur ses lauriers en se laissant porter paresseusement par le grand fleuve des dépenses publiques dans les méandres de l’indécision et du manque d’audace, au ras de l’altitude zéro, sans aucune vision autre que celle de profiter de la promenade sans encourir de risque. La deuxième puissance spatiale, l’URSS, a enragé d’avoir perdu mais s’est tue, « encaissant » sans doute le fait que son système politisé à l’excès, totalement rigide, ne lui permettait pas d’être aussi efficace qu’un pays d’esprits libres. La troisième puissance spatiale possible, l’Europe a regardé de haut, méprisante, ces Américains qui jouaient aux personnages de science-fiction à grand renfort de dollars au lieu de faire des choses « utiles » mais de toute façon son programme Europa, successeur de Diamant et précurseur d’Ariane n’aurait pas été, et de loin, « à la hauteur » des capacités de la Saturn V américaine (pas plus qu’Ariane ne l’est devenue d’ailleurs !).

Après l’accomplissement spectaculaire et brillant toujours dans les esprits, du programme Apollo en 1972, la NASA avait le choix. Il s’agissait de continuer à explorer puis de s’installer sur la Lune ou de construire une station spatiale pour réaliser plus tard une « île de l’espace » à la Gerard O’Neill ou encore de partir pour Mars. A la croisée des chemins, en fonction de ses motivations, on peut toujours se tromper et c’est ce qui fut fait surtout si on présume comme la NASA de la réponse sans se préparer au refus de l'”Administration”. D’un côté le Président Nixon n’était pas John Kennedy et de l’autre, la NASA était portée par l’hybris générée par le succès.  Il y avait divergence totale entre un Président qui n’était pas vraiment intéressé par l’Espace puisque les Russes avait été battus dans la course engagée avec le vol de Gagarine le 12 avril 1961 et une institution publique devenue pléthorique en fonctionnaires et en moyens financiers, qui s’imaginait sans doute que les caisses de l’Etat étaient à sa disposition sans qu’il soit vraiment utile de se préoccuper du niveau des dépenses. Nixon choisit donc la Navette (« the Shuttle ») en donnant son feu-vert le 5 janvier 1972, pour « continuer », on ne sait trop vers quoi.

Ce qui a manqué à l’époque c’est la vision et l’audace. La Navette était un compromis qui permettait d’attendre de fixer un objectif puisqu’elle devait être utile pour l’atteindre, quel qu’il soit, et de permettre à la NASA et à ses fournisseurs donc aux Etats où ils étaient installés, de continuer à « tourner » et donc d’alimenter le système en (bons) électeurs. Les présidents, Nixon ou ses successeurs Gérald Ford, Jimmy Carter, Ronald Reagan, ne voyaient pas l’avantage qu’il y aurait eu à « sortir du berceau » pour s’installer durablement sur Mars ou à défaut sur la Lune. En fait les décideurs politiques étaient restés très « Terra-centrés ». Ils ne voyaient l’intérêt de l’Espace qu’en fonction de la Terre en général et de leurs relations avec les autres grands pays du monde, en particulier. Par ailleurs l’horizon d’une administration ou d’un président des Etats-Unis était (et est resté) de 8 ans c’est-à-dire de deux mandats. Le programme Apollo avait montré que c’était un peu juste (discours de John Kennedy le 25 mai 1961, premier atterrissage sur la Lune le 21 juillet 1969) et il n’était pas question pour Nixon en 1969 de se lancer dans l’aventure alors que la guerre du Viêt-Nam battait son plein. En 1972, date de la dernière mission Apollo (A17), il ne lui restait qu’un mandat (qui fut d’ailleurs écourté !).

La Navette dont le vol inaugural eu lieu en avril 1981 a été une voie sans issue (qui a été fermée en juillet 2011) car on a voulu utiliser des technologies qui n’étaient pas adaptées à la réutilisabilité et on a persévéré dans l’erreur (comme peut le faire une administration), à grand coût (notamment pour l’inspection et la remise en état du bouclier thermique après chaque vol). Il était aussi cher d’envoyer une navette dans l’espace (1,5 milliards par vol) que d’y envoyer un lanceur lourd de type Saturn V. Les seuls réussites furent les 5 missions de « STS » (pour « Space transport System ») qui entre décembre 1993 et Mai 2009, permirent de corriger la vue du télescope Hubble (l’« aberration optique » de la périphérie de son miroir primaire) car dans ce cas la Navette servit d’atelier et d’hôtel aux astronautes qui effectuèrent la réparation (notamment Claude Nicollier qui en décembre 1993 put mener à bien les opérations décisives à l’aide du bras robotique, RMS -Remote Manipulator System).

La Station Spatiale Internationale (« ISS ») lancée en 1998 fut tout autant une voie sans issue, une perte de temps et d’argent car on aurait pu expérimenter toutes les techniques de support vie sur la Lune ou sur Mars plutôt que dans l’espace et le fait qu’elle soit positionnée en orbite basse terrestre (LEO) a empêché toute tentative d’expérimenter des mises en gravité artificielle d’habitats par force centrifuge (la Station étant trop près de la Terre…et la plupart des dirigeants de la NASA ne se souciant pas vraiment de cette solution aux problèmes posés par l’apesanteur). Quant aux manœuvres de « docking » on aurait pu aussi les expérimenter dans les assemblages de vaisseaux spatiaux, tout comme leurs ravitaillements en ergols en LEO avant d’aller « quelque part ».  Le projet d’ISS avait été lancé par Ronald Reagan en 1983 mais fut véritablement choisi par le Président Georges H. Bush en 1989 à l’issue de la lamentable étude de 90 jours (« the 90-Day Study on Human Exploration of the Moon and Mars ») dans laquelle la NASA illustra son absence totale de conscience des réalités en proposant un plan d’exploration de Mars chiffré à 450 milliards de dollars (..de l’époque ! soit à peu près 930 milliards de dollars d’aujourd’hui *). Pour le président Bush il n’y avait donc d’issue que vers l’ISS devisée à quelques 100 milliards et un objectif « nouveau » par rapport à la Lune. Cela devint « une excellente idée » en raison de l’implosion de l’URSS puisque ce fut le moyen politique d’associer en 1993 la nouvelle Russie à un programme correspondant à ses capacités techniques, dans la continuation de sa station Mir et par la même occasion de réaliser enfin le projet américain de station Freedom, tout en s’alliant aux Européens de l’ESA et aux Japonais de JAXA. Souvent présenté comme un modèle de coopération internationale, ce fut en réalité une excellente occasion de ronronner ensemble à grand frais (quelques 150 milliards à ce jour !).

*Avec Elon Musk (et son lanceur Super-Heavy + son Starship!) on évalue aujourd’hui un programme d’exploration de Mars (fin de la réalisation du lanceur et construction d’une flotte suivie d’une petite dizaine de campagnes de vols) à environ 60 milliards de dollars.

Et maintenant, 50 ans après, « les joies de l’ISS » épuisées, que va-t-il se passer ? Nous sommes à nouveau à la croisée des chemins et il semble bien que nous allons encore une fois prendre le mauvais, le Lunar Orbital Platform-Gateway, c’est-à-dire une nouvelle ISS qui cette fois tournera autour de la Lune (sur une trajectoire très excentrique). Quel intérêt ? Aucun, si ce n’est continuer à faire travailler les fournisseurs et exposer les astronautes aux radiations solaires et galactiques avec un peu plus d’intensité que sous la protection des ceintures de Van Allen. Si l’on voulait faire plus que l’ISS, pourquoi n’a-t-on pas choisi d’aller à nouveau sur la Lune et de s’y installer ? Quel intérêt présente cette courroie de transmission si ce n’est des complications inutiles, des risques supplémentaires, encore plus d’argent et beaucoup d’inconfort pour mener à bien une mission lunaire ou martienne.

Décidément le chemin vers les astres est long et tortueux ! Heureusement les « privés » montent en puissance. Les Elon Musk, Jeff Bezos et autres n’ont pas la prudence de serpent de l’Administration et ils ont le soucis de l’efficacité de leurs dépenses. Ce sont eux qui peuvent sauver l’exploration spatiale. Ce sont les héritiers des pionniers qui en avril 1981 en même temps qu’était lancé la première navette, refusant de se laisser cantonner aux perspectives des petits tours en orbite basse terrestre, s’organisèrent dans le premier lobby pro-Mars, le « Mars Underground », autour de l’astrogéophysicien Chris MacKay, de la biologiste Pénélope Boston, de l’astrogéophysicienne Carole Stocker, de l’ingénieur Tom Meyer, de l’informaticien Steve Welch, rejoints en avril 1990 par David Baker et Robert Zubrin après qu’ils eurent conçu et leur aient présenté leur plan « Mars Direct » (solution astronautique qui souleva leur adhésion enthousiaste). Elon Musk a de même rejoint Robert Zubrin au début des années 2000 lorsqu’il a entrepris sa propre aventure d’ingénieur et de patron d’entreprise astronautique. L’esprit est là, chez ces hommes visionnaires, qui n’hésitent pas à s’impliquer, à s’efforcer de convaincre et à agir. Avec la nomination par Georges W. Bush en 2005 de Michael Griffin comme administrateur de la NASA, le « lobby » est presque parvenu à imposer ses vues (et y est parvenu quand même pour quelques éléments de Mars-Direct comme l’ISRU). C’est aujourd’hui, cinquante ans après le « petit pas pour l’homme » de Neil Armstrong, ce qui nous permet d’espérer qu’un jour la lourde superstructure administrative suivra ou accompagnera notre envol dans l’espace profond et son infinité de possibles que nous avons aujourd’hui la capacité d’affronter et d’utiliser.

NB : cet article consacré au vols habités ne traite pas des progrès considérable effectués depuis cinquante ans dans le domaine de l’exploration robotique et ne nie pas l’intérêt de quelques études menées dans l’ISS sur les conséquences de l’apesanteur pour le corps humain ou divers processus de physiques des matériaux qui se manifestent particulièrement clairement en apesanteur, ni également, et cela me semble plus important, sur l’évolution de la science du support-vie (ECLSS) et ses progrès en matière de recyclage de l’atmosphère, des liquides et du contrôle microbien…Mais ce n’est pas suffisant!

Image de titre : Le premier pas ! crédit NASA.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 09

Avec NEAR la collaboration ESO / Breakthrough Initiatives concrétise son projet de recherche de planètes habitables autour d’Alpha Centauri

Le 11 juin l’ESO1 a publié un article annonçant la fin d’une première session d’observations de 10 jours du système stellaire Alpha Centauri avec son instrument VISIR2 amélioré par NEAR3 qu’elle a développé avec le financement de Breakthrough Watch (Yuri and Julia Millner) dans l’espoir de découvrir une planète de masse égale à la Terre orbitant une de ses deux étoiles à l’intérieur de sa zone habitable.

1European Southern Observatory; 2VLT imager and spectrometer for mid-infrared; 3Near Earths in the AlphaCen Region.

NEAR est un coronographe (masque utilisé à l’origine pour cacher le disque solaire afin d’en étudier l’environnement) adapté à l’infrarouge thermique, qui équipe le quatrième, « UT4 », des quatre grands télescopes de 8 mètres de diamètre de surface utile de collecte du Very Large Telescope « VLT » (Mont Paranal, désert d’Atacama, Chili). Il bénéficie de l’optique adaptative et de son imageur et spectromètre VISIR de ce dernier, qu’il complète. Pour pouvoir collecter et analyser le rayonnement reçu d’une planète de masse terrestre et située en zone habitable, la difficulté est la différence de luminosité entre la planète et son étoile (entre 10-7 et 10-10)* qui en l’occurrence sont séparées de seulement une seconde d’arc. La lumière de l’étoile occulte largement la lumière d’une telle planète et ce d’autant plus que les deux étoiles d’Alpha Centauri sont de type « G » (dans le diagramme de Hertzsprung-Russell qui les classifie OBAFGKM) comme le Soleil et sont beaucoup plus brillantes qu’une naine rouge et notamment qu’Alpha Proxima, petite étoile du même système, très légèrement plus proche de nous, auprès de laquelle on a déjà identifié indirectement (méthode des vitesses radiales) la planète Proxima-b.

*Ce problème de différence de taille et de luminosité entre l’étoile et sa planète explique qu’il est beaucoup plus facile de découvrir des exoplanètes grosses et proches (genre « Jupiter chaud ») de leur étoile que des planètes rocheuses de taille terrestre et qu’il est beaucoup moins difficile d’en trouver orbitant autour de naines rouges que d’étoiles de type solaire, puisque les effets gravitaire ou occultant de ces planètes géantes sur leur étoile (moins grosse et moins lumineuse) sont beaucoup plus marqués (et ceci quelle que soit la méthode appliquée, vitesse radiale, transit, astrométrie et bien sûr, observation directe).

Les solutions proposées par NEAR sont (1) d’occulter l’essentiel du rayonnement de l’étoile par son coronographe et (2) de sélectionner un segment de longueurs d’ondes du spectre des rayonnements électromagnétiques à l’intérieur duquel la différence de luminosité entre la planète et l’étoile soit aussi réduit que possible. Le système qui profite de l’optique adaptative de l’UT4 (« DSM » pour “Deformable Secondary Miror”), comprend (1) un nouveau coronographe à masque de phase* annulaire (Annular Groove Phase Mask, « AGPM ») optimisé pour le segment le plus sensible de la bande « N » (10 µm à 12,5 µm) du spectre électromagnétique (qui bénéficie d’un taux de transmission élevé à l’intérieur de l’atmosphère terrestre) et (2) un nouveau système de découpage (« chopping »), appliquant une théorie du physicien Robert Dicke, pour filtrer le bruit. La bande N a pour deuxième avantage de contenir une longueur d’onde (9,6 µm) qui est celle de l’ozone (O3), un excellent marqueur de la vie telle que nous la connaissons (mais la vie sur la « Terre » d’Alpha Centauri, si elle existe, n’a pas forcément atteint le niveau où elle rejette de l’oxygène dans l’atmosphère de sa planète). Elle exprime enfin fort bien l’émission d’un “corps-noir” compatible avec la pression et la température d’une planète pouvant avoir de l’eau liquide en surface (ce qui est plus intéressant car une planète habitable n’est pas forcément habitée).  NB: (1) La collecte d’un rayonnement infrarouge impose l’environnement d’un cryostat; (2) NEAR n’a coûté que 4 millions de dollars.

*un masque de phase utilise un masque transparent pour décaler la phase du rayonnement stellaire afin de créer une interférence auto destructive sur cette source, plutôt qu’un simple disque opaque pour la bloquer. Les lumières voisines (dont la source est décentrée) ne subissent pas l’interférence. Un masque de phase annulaire (AGPM) qui génère un vortex optique, est considéré comme un masque de phase parfait permettant de voir les sources situées au plus près de l’étoile.

 NB: A noter que la première imagerie directe d’une planète en utilisant la coronographie, n’a eu lieu qu’en 2008. Il s’agit de la planète Fomalhaut-b qui se trouve à 119 « UA » (unités astronomiques) de son étoile et a un diamètre égal à celui de Jupiter. L’étoile Fomalhaut est à 25 années-lumière de notre Soleil.

 NB2 : NEAR servira par ailleurs de test à l’instrument METIS (Mid-Infrared ELT Imager and Spectrograph) qui doit être installé sur l’Extremely Large Telescope, « ELT » de l’ESO (il couvrira une partie plus importante du spectre infrarouge).

Alpha Centauri étant à seulement 4,37 années-lumière de distance du cœur du système solaire est évidemment une cible très intéressante puisque c’est le seul système stellaire où l’on peut éventuellement, aujourd’hui, envisager d’envoyer des sondes (il faudrait tout de même 20 ans de voyage à 20% de la vitesse de la lumière, ce qui “fait” 216 millions de km/h !). Un des objectifs de Breakthrough Initiatives dont fait partie Breakthrough Watch est de relever ce défi pour Proxima Centauri qui se trouve presque aussi loin, à 4,22 années-lumière, avec son projet Breakthrough Starshot. Bien que l’on ait découvert une planète rocheuse, un peu plus massive que la Terre (1,3 fois), Proxima-b, orbitant autour de Proxima Centauri dans sa zone habitable, il est cependant peu probable qu’elle puisse abriter la vie. Les naines rouges comme Proxima Centauri ont une activité fortement variable (du fait qu’elles ont juste la masse nécessaire pour être des étoiles) ce qui induit par intermittence des rayonnements extrêmement destructeurs pour leur environnement proche (rayons ultraviolets durs – « c » – ou rayons X). Par ailleurs la proximité de la planète à son étoile (0,1 UA, la seule possibilité pour qu’elle se trouve dans sa zone habitable) génère par force de marée un blocage de sa rotation de telle sorte qu’elle lui présente toujours la même face (ce qui pourrait n’être pas non plus très favorable à l’émergence de la vie). Il n’en serait pas de même pour les planètes en orbite auprès d’Alpha Centauri A ou B puisque ces deux étoiles sont de même type que le soleil (même si elles sont un tout petit peu moins lumineuses) et que donc leur zone habitable doit se trouver à environ une unité astronomique (comme celle de notre Soleil à l’intérieur de laquelle évolue la Terre).

Un problème cependant : les étoiles d’Alpha Centauri sont dans un système double et elles ne sont éloignées l’une de l’autre que d’une courte distance, qui varie, sur une période de 80 ans, entre un périastre de 11,2 UA (distance Soleil / Saturne) et un apoastre de 35,6 UA (distance Soleil / Pluton). La sphère de Hill/Roche (zone d’influence gravitationnelle) de chacune varie donc entre deux distances dont la plus courte est égale à la moitié de la distance du Soleil à Saturne, soit 715 millions de km c’est-à-dire moins que la distance du périhélie de Jupiter au Soleil (740 millions de km). Qu’advient-il dans ces conditions de leur ceinture de Kuiper et de leur nuages de Oort ? Ils sont probablement communs. Quid de l’interaction de leur population de comètes et d’astéroïdes avec les planètes ? Quid de la formation des planètes entre les deux étoiles ? Cette proximité permet-elle l’accrétion d’une géante gazeuse au-delà des lignes de glace ? Il ne reste pas beaucoup de place ! Pourrait-il y avoir une instabilité forte des planètes situées à la limite des sphères de Hill, jusqu’à les faire passer d’une sphère de Hill à l’autre (comme l’imaginait le physicien Robert Forward dans Le vol de la libellule) ? Quels effets peut avoir cette configuration sur les planètes rocheuses en deçà des lignes de glace ? En fait la cohabitation de deux étoiles dans un même système stellaire assez « serré » peut créer des systèmes planétaires très différents du nôtre et difficiles à imaginer sans les avoir observés…mais cela rend aussi moins probable l’existence de planètes avec les mêmes caractéristiques que la nôtre orbitant autour de l’une ou l’autre étoile.

La campagne d’observations de NEAR est de 100 heures avec autant de temps continu qu’il sera possible (par séquence de 6 heures par nuit compte tenu de l’élévation d’Alpha Centauri dans le ciel) mais qui seront probablement réparties sur une vingtaine de jours, c’est-à-dire le temps nécessaire pour qu’une planète située à 1 UA de l’une des étoiles d’Alpha Centauri parcourt sur son orbite un élément de diffraction (0,3 secondes d’arc dans le ciel). Breakthrough Initiatives mettra les données à la disposition du public immédiatement à la fin de la période d’observations. Nous devrions ainsi « savoir » avant la fin de l’été de cette année ce qu’il en est du système planétaire tournant autour des deux autre vrais « soleils » les plus proches du nôtre.

Breakthrough Initiative est un programme d’exploration scientifique et technologique qui s’efforce d’apporter des réponses aux grandes questions que l’on se pose sur la vie dans l’Univers. Il a été fondé en 2015 par Yuri et Julia Milner. Yuri Milner est un physicien qui après des études en Russie puis aux Etats-Unis a fait fortune dans Internet et est devenu investisseur en nouvelles technologies (Facebook, Twitter, WhatsApp, Snapchat, Airbnb, Spotify, Alibaba, etc…) via sa société DST Global. Parmi les « supporters » de Breakthrough Initiatives on peut compter feu Stephen Hawking et Marc Zuckerberg. Breakthrough Initiatives comprend quatre branches : Breakthrough Listen, une sorte de SETI (pas de réponse à ce jour !) ; Breakthrough Message, un concours pour concevoir un message qui puisse être compréhensible par des extraterrestres ; Breakthrough Watch, un programme astronomique dédié au développement de technologies qui pourraient permettre de découvrir la vie ailleurs dans l’univers (NEAR est une application de ce programme) ; Breakthrough Starshot, un programme astronautique dédié à démontrer la faisabilité de l’exploration du  système d’Alpha Centauri par une flotte de micro-voiles propulsées par laser à 20% de la vitesse de la lumière.

NEAR, conçu par l’ESO avec le concours de Breakthrough Watch, a été construit en collaboration avec l’Université d’Uppsala, l’Université de Liège, le CalTech et Kampf Telescope Optics de Munich et le CEA (Saclay) France. Il a recueilli sa première lumière le 21 mai 2019. Il faut bien voir que le type d’observations qu’il permet n’était pas possible jusqu’à présent et évidemment pas il y a dix ans lors de la découverte de la planète Fomalhaut-b. L’astronomie est une science dont la technologie évolue très vite et les ouvertures que cette évolution permet, vont révolutionner dans les années qui viennent la connaissance du monde qui nous entoure.

Liens:

https://breakthroughinitiatives.org/instruments/4

https://www.eso.org/public/usa/teles-instr/paranal-observatory/vlt/vlt-instr/visir/

http://optics.org/news/10/6/15

https://www.eso.org/sci/publications/messenger/archive/no.169-sep17/messenger-no169-16-20.pdf

https://www.universetoday.com/142482/new-instrument-is-searching-for-planets-around-alpha-centauri/

https://orbi.uliege.be/bitstream/2268/32951/1/TFEV20.pdf

Image de titre: NEAR installé sur l’UT4, le télescope étant incliné à basse altitude; crédit ESO/ NEAR Collaboration

Image ci-dessous: détail du coronographe NEAR, de type AGPM montrant les cannelures annulaires de sous longueur d’onde (“subwavelength grating”), dispositif anti-réflexion qui réduit l’image fantôme optique de l’étoile cachée:

 

Image ci-dessous: de la Terre à Alpha Centauri; attention les mesures sur l’axe sont logarithmiques.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 06