Quelle stratégie pour l’exploration spatiale ?

Trois fronts sont ouverts : l’astronomie, l’exploration robotique et l’exploration habitée ; et nous devons prendre en compte trois contraintes : notre capacité technologique, nos possibilités biologiques et notre capacité financière (cette dernière n’étant pas la moindre).

Dans toutes les hypothèses nous devons voir et aller, aussi loin qu’il nous est possible. Ce principe est évidemment subjectif et discutable mais il est partagé par beaucoup d’hommes sur Terre. D’autres peuvent se contenter de rechercher le confort matériel, pour eux-mêmes, pour leur proches ou pour l’humanité, ou bien leur épanouissement ici et maintenant sur Terre ; d’autres encore pensent avant tout à leur salut spirituel et peu leur importe sur quel sol ils se trouvent. Je fais partie de ceux qui ont soif de voyages, de lointain, de découvertes, d’aventures et de compréhension scientifique du monde.

Dans cet esprit, moi et mes semblables (du moins je l’espère !) désirons que l’exploration spatiale soit une priorité de nos contemporains (personnes privées ou publiques), que la recherche astronomique développe sa puissance de « vision » vers l’aube de l’Univers (pour mieux comprendre la formation des galaxies et des premières étoiles), vers le centre galactique (pour mieux comprendre le fonctionnement des trous noirs), vers les étoiles voisines (pour tenter de trouver une planète rocheuse dotée d’une atmosphère transformée par la vie, dans sa zone habitable), vers les confins du système solaire et en particulier vers la mystérieuse « Neuvième-Planète » tapie dans les ténèbres sur une orbite extrêmement lointaine et excentrée (pour tout connaître de notre système solaire).

A cette distance on entre dans la zone frontière entre l’astronomie et de l’astronautique puisque, si on découvre cette Neuvième-Planète avec nos télescopes, il faudra évidemment l’étudier (et si possible y aller !) pour savoir quelles sont ses caractéristiques géomorphiques et comment elle s’est formée. La recherche astronautique doit donc, dans le domaine des missions robotiques, continuer à explorer le système solaire plus loin que l’homme ne peut aller aujourd’hui mais aussi en précurseur des missions habitées d’après demain. Il faudra développer sur le plan pratique les technologies déjà imaginées et théorisées qui permettront un accès suffisamment rapide aux endroits les plus éloignés. Ainsi, la propulsion photonique nous permettra de bénéficier d’impulsions longues, donnant une accélération continue qui assez rapidement (dans le domaine d’irradiance forte du système, entre 0,1 UA et 1,5 UA ou à partir de la Terre avec des lasers) générera pour des masses faibles, des vitesses de plusieurs pour cent de celle de la lumière (que l’on conservera, même éloignés de la source de lumière puisque le seul frein dans l’espace du système solaire est la gravité – faible – du soleil). Nous pourrons ainsi, avec peu de masse (pour disposer de suffisamment d’énergie), explorer les systèmes stellaires les plus proches (à l’intérieur d’une sphère d’une dizaine d’années lumières) comme le veulent les promoteurs du projet « Breakthrough Starshot » mais aussi les planètes lointaines de notre système comme la Neuvième-Planète déjà citée.

Pour ce qui est des autres planètes du système solaire (plus proches) on peut toujours recourir aux moteurs à propulsion chimique comme on l’a fait jusqu’à présent ou encore aux moteurs utilisant l’énergie nucléaire (une fois placé en orbite terrestre par propulsion chimique !) ou peut-être un jour à la propulsion électromagnétique (« EmDrive »), encore mal comprise mais prometteuse…si elle s’avère possible. Il faut retourner sur Titan pour analyser son écosystème et voir jusqu’où le processus prébiotique a pu évoluer dans sa complexification. Il faut se poser sur Europa ou Encelade et forer dans la glace pour atteindre l’eau de l’océan sous-jacent. Enfin il faut aller sur Mars au plus vite pour y initier une installation permanente puisque Mars est la seule planète de notre environnement spatial où cette installation permettra à l’homme de vivre continûment en dehors de la Terre.

Ces divers fronts d’exploration s’épauleront les uns les autres. Plus nous enverrons de vaisseaux dans l’espace, moins ils coûteront cher. Pour voir vraiment loin, nous devrons développer l’interférométrie optique et radio dans l’espace, en complément des grands observatoires en réseau que nous développons sur Terre. Des champs de télescopes flottant dans l’espace regardant ensemble et en même temps, la même source lumineuse (ou électromagnétique) et concentrant l’information dans un centre commun à égale distance de tous (ou corrigeant électroniquement les différences de distance, donc de temps). Ces télescopes nous pourrons les placer au point de Lagrange L2 (dans l’ombre de la Terre par rapport au Soleil), puis ailleurs dans l’espace. On peut aussi imaginer faire de l’interférométrie avec des télescopes situés en L2 et en L3 (de l’autre côté du Soleil), déterminant ensemble un gigantesque réceptacle des diverses sources de lumière de l’Univers (d’un diamètre de plus de deux fois la distance de la Terre au soleil).

Nous sommes devenus adultes et nous étouffons dans notre maison d’enfance devenue trop petite. Ne tournons plus en rond dans le jardin. Nous nous sommes suffisamment exercés dans la Station Spatiale Internationale dans laquelle on ne peut même pas tester la gravité artificielle pourtant indispensable pour aller physiquement plus loin ; la Lune, trop proche et déjà vue, doit être sortie du programme ! Il nous faut partir pour aller « ailleurs ».

Image à la Une: Nos plus proches voisines, les étoiles se trouvant dans un rayon de 10 années lumière du Soleil (La Voie Lactée a un rayon de quelques 60.000 années lumière). Ce sont les seules que l’on peut aujourd’hui imaginer pouvoir atteindre par un moyen astronautique. Crédit R. Powell.

Notre Zone Circumstellaire Habitable, réalité et espoir

La Zone Circumstellaire Habitable (« CHZ ») de notre système solaire, définie comme étant la région du système où l’eau d’une planète peut être liquide en surface, pourvu que la température soit supérieure à 0°C, qu’elle dispose d’une atmosphère et que la pression de cette atmosphère le permette (c. à d. qu’elle soit supérieure à 611 pascals, point triple de l’eau), couvre une zone qui commence après Vénus et va jusqu’à Mars. Cela revient en fait à dire que, dans cette CHZ, l’énergie reçue de notre étoile (irradiance) doit être au plus d’environ 2000 W/m2 et au moins d’environ 500 W/m2. (NB : La Terre reçoit en moyenne 1380 W/m2 ; Vénus, 3140 W/m2 ; Mars, 492 W/m2 en hiver austral –le plus froid, et 715 W/m2 en été austral –le plus chaud).  Notre CHZ est donc une enveloppe sphérique autour du soleil dont l’épaisseur est d’environ une petite unité astronomique (« UA », distance de la Terre au Soleil). C’est très peu, comparé à la taille de notre système solaire, considérant que Pluton évolue à une distance d’environ 29 à 39 UA, que la Ceinture de Kuiper se situe entre 30 et 55 UA et le nuage d’Oort (l’élément le plus externe, qui enveloppe tout le système), entre 30.000 et 100.000 UA.

Comme la puissance énergétique varie pour chaque étoile, la distance de la CHZ à l’étoile varie dans chaque système stellaire. Cependant elle ne peut être trop proche (cas de celle de la naine rouge Proxima Centauri) car les planètes qui s’y trouveraient (en l’occurrence “Proxima-b”) seraient trop exposées aux tempêtes radiatives de l’étoile, par nature très instable. Par ailleurs, les planètes situées dans l’environnement des géantes ou supergéantes, bleues ou rouges, pourraient sans doute bénéficier d’eau liquide en surface mais la durée de vie de leur étoile étant d’autant plus courte que l’étoile est massive, on devrait dire qu’elles seraient situées dans une “CHZ temporaire” car la durée d’évolution de la planète serait probablement trop courte pour permettre de donner naissance à la vie (mais pas trop courte pour faciliter une visite d’explorateurs). C’est le cas des éventuelles planètes de Rigel ou de Deneb, deux géantes bleues de notre galaxie qui ont une masse de 17 et de 20 soleils et dont l’espérance de vie est limitée à une centaine de millions d’années. Le plus probable est ainsi que la masse de l’étoile générant une “vraie CHZ“, se situe entre 0,5 et 2 masses solaires (entre la masse de Lacaille 9352 et celle de Sirius).

En ce qui concerne notre système solaire, on envisage aujourd’hui que la CHZ pourrait être étendue au sous-sol de certains satellites glacés des planètes géantes gazeuses, tels qu’Europa (Jupiter),  Encelade (Saturne) ou même Triton (Neptune), dans la mesure où la chaleur interne emmagasinée dans leur masse et générée par les forces de marée de leur planète, serait suffisante pour que cette glace soit liquéfiée sous une croûte plus ou moins épaisse.

Maintenant il faut voir que la présence d’eau liquide ne suffit pas pour qu’il y ait possibilité de vie. L’eau est un médium facilitant les échanges et un composant de la vie telle que nous pouvons la concevoir mais celle-ci est impossible sans les minéraux porteurs d’éléments chimiques indispensables (les fameux C.H.O.N…*) et composants de couples “rédox” (réducteurs /oxydants) permettant un échange d’électrons, dans certaines conditions de températures et de pH (ou plutôt, de différentiel de pH). Il faut donc que cette eau liquide soit en contact avec des minéraux dans ces conditions et il n’est pas évident que dans ces lunes glacées, l’eau liquide soit dans tous les cas en contact avec les minéraux ni que ces conditions (de température et de pH) soient remplies de telle sorte que les échanges aient lieu de manière efficace. Enfin il n’est pas prouvé que le contact direct avec la lumière (et les radiations) du Soleil ne soient une condition nécessaire au démarrage du processus de vie. Rappelons que sur notre Terre, notre LUCA (Last Universal Common Ancestor) vivait il y a quelques 3,8 milliards d’années et que depuis, aucune nouvelle vie étrangère à cette souche, n’est venue le défier. L’émergence de la vie terrestre n’a pas été facile. Elle résulte de conditions très particulières réunies à une époque courte et bien précise de notre histoire. Cette possibilité de CHZ du sous-sol des lunes glacées doit donc être considérée avec encore plus de précaution que celle de savoir si Mars se trouve suffisamment dans la zone d’habitabilité en surface.

* pour Carbone, Hydrogène, Oxygène, Azote

Enfin il faut évoquer le cas particulier de Titan, lune principale de Saturne, le plus gros satellite naturel du système solaire, qui dispose d’une atmosphère épaisse et riche en éléments organiques. De ce fait, il constitue un environnement prébiotique probablement très intéressant mais, compte tenu de la température moyenne de sa surface (-180°C) la complexification de ces molécules vers la vie a malheureusement dû s’arrêter très vite.

Avec ces définitions de GHZ et CHZ on obtient une bonne approximation des régions du ciel intéressantes pour rechercher la vie. Que peut-on en faire pratiquement ? C’est ce que je suggérerai dans mon prochain article.

Image à la Une : diagramme de Hertzprung-Russel: les étoiles sont classées par luminosité en fonction de leur température de surface, donc de leur masse. Le Soleil est une étoile moyenne qui se situe à la jonction du segment des étoiles jaunes et des étoiles blanches de la “séquence principale”. Lacaille 9352 est une des premières étoiles rouges et Sirius une des premières étoiles bleues.  Les fines diagonales délimitent des zones de masse solaire.

Image ci-dessous: Schéma de CHZ en fonction de la masse de l’étoile (crédit Pierre Thomas, Laboratoire de Géologie, ENS, Université de Lyon). En vert la zone habitable de surface, en brun l’extension possible de cette zone dans les océans sous-glaciaires des lunes glacées des Géantes gazeuses. NB: Dans notre système, Vénus est juste à l’extérieur de la zone habitable de surface (à gauche) et Mars sur la limite de cette même zone (à droite).

blog_73_b_schema-zone-habitable-surface-profondeur

La Zone Circumstellaire Habitable, unique foyer de vie possible

Perdu au sein de l’anneau de la Zone Galactique Habitable (« GHZ »), notre Soleil, un centre d’énergie parmi des milliards d’autres, « donne le souffle de vie à toutes ses créations dès le jour de leur naissance » (comme le disait déjà Akhenaton, 1750 ans avant JC). Poussières d’étoiles géantes mortes il y a environ 5 milliards d’années, condensées dans notre planète Terre, nous sommes effectivement les fruits de cette dernière fertilisée par les rayons bienveillants de notre étoile vivante, le Soleil.

Nous sommes donc situés dans cette zone heureuse, à la métallicité satisfaisante, ni trop faible, ni trop forte, à bonne distance d’une étoile de taille moyenne et donc de longue durée de vie, et suffisamment puissante pour nous donner suffisamment d’énergie (quelques 1400 W/m2) à une bonne distance, suffisamment loin pour nous éviter de trop souffrir de ses tempêtes mais suffisamment proches pour en recevoir suffisamment d’énergie tout en étant suffisamment protégés des radiations galactiques. Pour autant il ne faut pas croire que toutes les étoiles que nous voyons dans le ciel et qui partagent leur « résidence » avec nous dans cette GHZ, sont des dispensatrices effectives de vie, ni que toutes les planètes qui orbitent autour de ces soleils sont des terres comme la nôtre.

Les étoiles se distinguent avant tout par leur masse qui détermine essentiellement leur luminosité et aussi la durée de leur vie mais elles se distinguent aussi par la composition de leur matière (outre l’hydrogène et l’hélium largement dominants). Les étoiles les plus massives sont des donneuses de vie puisque c’est en leur sein que se forment les éléments de numéro atomique élevé (« Z », « métalliques ») mais elles vivent d’autant moins longtemps qu’elles sont plus massives. Ce sont aussi des donneuses de mort puisqu’elles achèvent leur courte vie dans une explosion finale extrêmement énergétique (supernova). Une métallicité élevée (celle du Soleil est « moyenne », à 2%) signifie une température moins élevée et une lumière moins forte. Une métallicité trop faible n’est pas favorable à la formation de planète mais il ne faut pas croire qu’une métallicité trop élevée soit plus favorable à la vie. En effet une étude des populations de systèmes extrasolaires, montre que les étoiles à métallicité élevée favorisent l’existence de Jupiter chauds (proches de leur étoile, après migration depuis la zone de leur formation dans le disque protoplanétaire). Or ces planètes géantes ont évidemment balayé toute matière à proximité de leur étoile et notamment dans la zone habitable (Zone Circumstellaire Habitable ou « CHZ »), c’est-à-dire la zone où l’énergie diffusée par l’étoile est suffisamment forte pour que la température permette la présence d’eau liquide en surface.

Maintenant nous ne sommes pas très sûrs de l’identité réelle de notre système solaire. Nous ne doutons pas de sa métallicité mais l’on peut se demander si le confinement de notre Jupiter sur l’orbite relativement lointaine où elle circule aujourd’hui ne résulte pas d’une histoire tout à fait particulière qui a évité que notre propre matière (comme celle de Mars, de Vénus et de Mercure) ne soit accrétée par notre géante gazeuse. En effet, selon la théorie (et la modélisation informatique) d’Alessandro Morbidelli (Observatoire de la Côte d’Azur), nous ne devrions notre salut qu’à l’évolution de Saturne dans le sillage de Jupiter. Au début de l’histoire du système solaire, cette dernière, comme d’autres jupiters chauds, aurait amorcé sa descente vers le Soleil avant même que les planètes telluriques soient formées, et elle aurait effectivement « dévoré » la matière se trouvant dans la zone de ce qui est aujourd’hui la Ceinture d’Astéroïdes, puis commencé à “grignoter” celle qui allait constituer la planète Mars. Mais Saturne qui avait commencé son accrétion plus loin, suivait petit à petit sa grande sœur dans son cheminement vers le Soleil et à un moment donné, elles se trouvèrent dans une configuration particulière (une « résonance ») qui les rendit solidaires en termes de gravité, entre elles-mêmes et vis-à-vis du soleil. Le couple ainsi formé fut contraint, de ce fait même, de rebrousser chemin vers l’extérieur du système. L’inertie de leur mouvement de retour les conduisit au-delà de leurs orbites d’origine. La matière qui occupait ce qui allait devenir les planètes telluriques pu ainsi survivre indépendamment et s’organiser en centres de gravité distincts.

Le plus extraordinaire c’est que ce retour des Géantes vers l’extérieur du Système aurait fait s’éloigner Uranus et Neptune de leurs orbites d’origine et qu’elles auraient à leur tour déstabilisé les milliards de petits corps glacés qui plus tard formeraient la Ceinture de Kuiper. Cette déstabilisation conduisant à la chute vers le Soleil de ces petits corps, aurait permis le retour de l’eau dans la zone des planètes telluriques qui se formaient dans un milieu originellement sec (en deçà de la limite de glace) du fait de la puissance énergétique du jeune Soleil.

Nous en sommes là. Il y a certainement des CHZ autour de nos voisines de type solaire mais il n’y a peut-être pas de planète rocheuse dans ces zones…à moins que des lunes rocheuses du genre Pandora tournent autour de géantes gazeuses de type Polyphème, et que ces lunes connaissent également l’eau liquide en surface parce qu’elles ont été formées au-delà de la limite de glace de leur étoile. La science-fiction s’avérerait alors précurseur de la science dure pour pressentir la Réalité…Mais nous ne connaissons pas suffisamment le système d’Alpha Centauri pour même savoir s’il possède une Polyphème !

Je parlerai la semaine prochaine de la CHZ de notre propre système.

Image à la Une: le Grand Rebroussement de Jupiter et de Saturne (“Grand Tack”) selon la théorie d’Alessandro Morbidelli. Les proto-Jupiter et proto-Saturne descendent vers le Soleil jusqu’à la hauteur de Mars; elles entrent en résonance 3:2 (soit 3 parcours d’orbite par Jupiter pour 2 par Saturne); du fait de cette relation, le couple repart vers l’extérieur du système et chasse Neptune et Uranus très loin dans la future Ceinture de Kuiper (Neptune plus proche de Saturne à l’origine, étant éjectée au delà d’Uranus). Les planétoïdes qui formeront les planètes rocheuses dont la Terre (à la gauche de l’image), sont “sauvés” de l’absorption par Jupiter; la future Mars ne dispose plus que d’une masse très inférieure à celle de la Terre et de Vénus (distances en Unité Astronomique “UA”). Le processus a pu prendre 600.000 ans. Image, crédit Bucky Harris (Back Alley Astonomy), modifiée par Pierre Brisson.

Image ci-dessous: diagramme de Hertzprung -Russel montrant la distribution des étoiles en fonction de leur température de surface (c’est à dire essentiellement de leur masse). La fourchette de 0,5 à 2 masses solaires n’occupe qu’une petite partie du diagramme (les étoiles jaunes et blanches, entre le haut des étoiles rouges et le bas des étoiles bleues; le soleil est au milieu de ce segment).

blog_72_hertsprung-russel_diagram

La Zone Galactique Habitable, anneau-matrice des étoiles porteuses de vie

Au Commencement était l’Hydrogène, l’Hélium et la Gravité qui luttait contre la force énorme de l’Explosion Initiale. Avec le déroulement du Temps, les premières galaxies et les premières étoiles se formèrent. Ce fut le début d’un lent processus de concentration de matière au sein des étoiles, et d’explosions des plus grosses d’entre elles, disséminant à nouveau la matière dans l’univers en expansion continue, mais sous une forme modifiée par ce processus même, la nucléosynthèse. Cela conduisit à la complexifier de plus en plus, génération après générations d’étoiles, en créant de plus en plus en plus d’éléments chimiques lourds.

Plus l’étoile est massive, plus sa puissance de vie et de mort est forte et plus elle contribue à l’alourdissement des éléments qu’elle crée. Ainsi une étoile de type solaire ne mettra en circulation lors de ses explosions périodiques (« novas ») que de l’hélium, du carbone et de l’oxygène ; une étoile massive (plus de 9 masses solaires) lors de son explosion finale (« supernova ») ira beaucoup plus haut dans la « lourdeur » des éléments chimiques, en produisant des métaux, jusqu’au fer et au-delà. Au cours de l’Histoire de l’Univers on est ainsi passé, de l’élément « X » (hydrogène), à l’élément « Y » (hélium) et aux éléments « Z » affectés d’un numéro de plus en plus élevé en fonction du nombre de protons de leur noyau. On dit que la Matière évolue de ce fait vers une « métallicité » de plus en plus forte.

Heureusement nous avons encore « beaucoup de chemin à faire » avant que toute matière soit transformée en fer. Après près de 13,8 milliards d’années de fonctionnement du processus de transformation des éléments, l’hydrogène constitue encore 75% en masse (mais 92% du nombre d’atomes) de l’univers et l’hélium 24%.

Notre propre corps humain, lui, ne comprend plus que 10%, en masse, d’hydrogène (mais 63% en nombre d’atomes car l’hydrogène est largement le composant de l’eau dont nous sommes faits à 65% en masse, et d’autres molécules). Nous sommes donc bien, littéralement, des poussières d’étoiles. Mais il faut ajouter la deuxième remarque que notre vie n’est possible aujourd’hui que parce que la complexité chimique de l’Univers a atteint, dans certaines zones, un niveau minimum qui nous permet de disposer de tous les éléments indispensables à notre existence et à notre fonctionnement (Carbone, Hydrogène, Oxygène, Azote, Phosphore, Calcium, Soufre, Sodium, Potassium, Manganèse, Fer, Chlore, etc…). Le corollaire est que la Vie n’est possible que depuis l’époque où ces éléments existent et là où ils sont devenus suffisamment abondants.

On peut supposer que l’univers est suffisamment homogène et que ce dont il disposait il y a quelques 4,57 milliards d’années lorsque le système solaire s’est formé, il en disposait ailleurs à la même époque et, compte tenu des irrégularités inévitables, probablement “un peu avant” également, mais sans doute “peu avant” (6 milliards d’années ?). Il ne peut donc y avoir eu émergence de la vie « ailleurs » que quelques petits milliards d’années avant d’apparaître dans notre système solaire et ce d’autant plus qu’il faut introduire le bémol qu’au début de la période où la métallicité devint suffisante, il est probable que la fréquence des supernovæ était trop élevée.

Un autre point d’égale importance est la localisation dans la galaxie. Les supernovæ dont les éléments de notre planète et de notre corps proviennent, sont des créatrices et des destructrices. Elles créent des éléments chimiques mais elles détruisent toutes structures d’une complexité supérieure à l’atome (à cause de leurs émissions hyper violentes de rayons cosmiques, de rayons gamma et de rayons x). Elles sont plus fréquentes dans la région centrale des galaxies où la densité d’étoiles est aussi beaucoup plus grande. Par ailleurs, en allant vers le centre de la galaxie, on se rapproche du trou noir central autour duquel « tout » gravite et ce trou noir connaît des phases d’activités forcément très violentes, émettrices de radiations extrêmement puissantes. Il faut donc, pour qu’une étoile puisse jouir de la richesse des éléments chimiques en même temps que d’une certaine stabilité, qu’elle se trouve dans une zone où de la matière a pu s’enrichir par la présence de suffisamment de supernovæ, mais pas trop active pour que les processus lents d’évolution aient pu se dérouler suffisamment longtemps sans accident majeur. C’est précisément là où notre étoile, le Soleil, est née et où nous nous trouvons toujours aujourd’hui (à 28.000 années-lumière du centre galactique). On peut logiquement généraliser la zone à un anneau situé, pour notre galaxie, entre 23000 et 30000 années-lumière (pour mémoire, la Voie Lactée a un rayon de 50 à 60.000 années-lumière), dans le plan galactique, en évitant toutefois le centre des bras spiraux probablement également trop actifs. C’est cet anneau qu’on* a nommé la « Zone Galactique Habitable » (« GHZ » en Anglais), par analogie avec la « Zone Circumstellaire Habitable » (« CHZ » en Anglais) dont on a réalisé l’existence plus tôt.

Mais bien sûr il faut que, à l’intérieur de cette GHZ, le nuage de gaz et de poussières primordial considéré, soit suffisamment dense pour pouvoir se concentrer à l’occasion d’une perturbation, que sa métallicité soit suffisante mais pas trop forte pour que, après la formation de l’étoile, le processus de vie ait quelques chances de s’amorcer. Je vous en parlerai la semaine prochaine !

*Référence : “The Galactic Habitable Zone and the Age Distribution of Complex Life in the Milky Way” par Charles Lineweaver et al. in Science, 2 janvier 2004.

Image à la Une: Galaxie d’Andromède (crédit NASA). Nous ne pouvons pas avoir de vue d’ensemble de notre propre galaxie, la Voie Lactée, mais la Galaxie d’Andromède, sa sœur, lui ressemble beaucoup (et elle est la plus proche, à “seulement” 2,5 millions d’années-lumière). Sur cette image, la GHZ serait, d’après Lineweaver, une bande d’environ 6 kiloparsecs (1kpc = 3,26 années-lumière), située à mi-distance du centre et de la périphérie

Une veste AstroRad pour la vie

La protection contre les radiations est un des problèmes majeurs de l’exploration spatiale par vols habités. Dans ce domaine, de grand progrès sont réalisés actuellement par la joint-venture StemRad Ltd (Israël) / Lockheed Martin Space Systems Cy. (Etats-Unis). Il s’agit de la conception d’une « veste » qui pourrait équiper tout astronaute devant séjourner dans l’espace profond.  Son principe repose d’une part sur la nature des radiations et d’autre part sur les matériaux pouvant faire écran et les besoins ergonomiques des passagers dans un espace forcément réduit. L’étude a été présentée au dernier International Astronautic Congress (IAC) en Septembre 2016.

Les radiations spatiales comprennent un rayonnement de GCR (Galactic Cosmic Rays), constant, et des flux de SeP (Solar energetic Particles), exprimés avec violence lors de SPE (Solar Particle Events) exceptionnels et aléatoires mais pouvant survenir 3 à 4 fois lors de la phase d’activité maximale du soleil au cours de son cycle de 11 ans. Le rayonnement GCR comprend des atomes lourds (au nombre de protons, « Z », élevé) ou des nucléons de ces atomes, animés d’une énergie très forte (500 MeV et parfois beaucoup plus), ils sont isotropes ; les SPE comprennent surtout des protons (hydrogène ionisé) et ils sont moins énergétiques (de 10 à 100 MeV ou un peu plus) mais plus denses et unidirectionnels. Les nucléons de forte énergie franchissent aisément la barrière d’aluminium d’un habitat et cassent les noyaux d’aluminium (et d’autres éléments chimiques de Z élevé) en de multiples radiations secondaires (neutrons, protons, rayons ϒ, rayons α…).

La NASA conseille de limiter l’exposition aux radiations par rapport à un risque de « Radiation Exposure Induced Death » (« REID ») de 3% maximum. Les doses de radiations sont mesurées en millisieverts (« mSv ») et les doses qui constituent les 3% varient en fonction de l’âge et du sexe (les femmes jeunes ou les enfants étant plus vulnérables) et de l’intensité / ou de la durée de l’exposition. En principe le risque de REID de 3% ne serait pas dépassé à l’occasion d’un voyage aller-retour de 400 jours et d’un séjour de 600 jours sur la Planète Rouge pour une femme comme pour un homme, de 40 ans, dans un vaisseau dont la coque en aluminium donne une protection de 20 g/cm2 et au cours de laquelle survient un SPE comme celui de 1972 (fort). On pourrait supporter dans une vie, deux ou trois voyages de ce type sans trop de dommage. A noter qu’on pourrait se trouver au-dessus des 3% pendant un voyage effectué au cours de la partie basse du cycle d’activité du soleil (car la densité des GCR serait plus forte).

Pour mieux se protéger des radiations solaires (les plus dangereuses lors des SPE) , la meilleure solution serait de leur opposer une barrière d’hydrogène (et, contre les GCR, de quelques éléments plus lourds choisis en fonction de leur stabilité) car elles sont freinées par les atomes de cet élément et ne peuvent les dissocier en neutrons ou protons (puisque le noyau d’hydrogène ne comprend qu’un seul proton). Mais comme l’hydrogène est trop volumineux à l’état de gaz et ne peut se conserver à l’état liquide qu’à partir de -252,87°C, on doit recourir à des corps aux molécules stables qui contiennent le plus possible d’hydrogène (ou d’élément à bas Z), et d’abord à l’eau. Pour commencer, on peut positionner toutes les réserves d’eau (et d’aliments) autour du caisson étanche permettant une protection pendant les orages solaires. Cependant si on veut permettre une certaine mobilité aux astronautes pendant des SPE qui peuvent durer plusieurs heures, on peut difficilement envisager de leur faire porter une bouée remplie d’eau. C’est là où intervient StemRad/Lockheed Martin.

La joint-venture (« la JV ») a d’abord travaillé sur le choix du matériau. Le polyéthylène haute densité, (C2H4)n qui contient 14% d’Hydrogène est un bon candidat et on peut lui adjoindre du Bore qui a un numéro atomique (Z) bas et dont l’isotope 10 a une capacité intéressante de capture des neutrons à faible énergie et facilite donc l’arrêt des particules secondaires. A cela la JV propose d’ajouter, en employant la technologie additive (impression 3D), une structure porteuse en éléments atomiques de Z élevé mais qui doivent servir d’ossature, aussi fine que possible, à l’ensemble. Il s’agit là d’équilibrer l’intérêt présenté au niveau atomique/moléculaire  par les éléments de niveau Z bas avec celui présenté au niveau macroscopique par les éléments d’un niveau Z élevé.

Ensuite la JV a cherché à déterminer « quoi » protéger et à partir de quelle surface du corps (angle solide). Pour ce faire, elle a utilisé une imagerie très fine des corps féminin et masculin pour déterminer les organes les plus sensibles sur le plan radiatif et les plus utiles pour lutter contre les effets nocifs (par régénération), en clair les divers centres de formation de cellules souches puisque ce sont ces cellules qui permettent la régénération des tissus irradiés (en supposant qu’il convient de sauvegarder au moins 5% de ces cellules puisqu’on a constaté que cela était suffisant pour récupérer d’une irradiation survenant sur Terre). Il en découle des indications très précises sur ce qui doit bénéficier d’une protection renforcée et les zones de la surface du corps qu’il convient d’équiper d’un écran adapté.

Il est résulté de ce travail une « veste », nommée « AstroRad », qui serait plutôt un « justaucorps » comportant des zones avec protection renforcée (voir image) par exemple le pelvis ou les seins. Un tel dispositif permettrait de réduire de moitié les doses effectives de radiations (d’après les tests effectués en laboratoire, on passerait de 229 mSv à 121 mSv). La JV veut faire embarquer un « fantôme » équipé du justaucorps et de capteurs dans le vol d’Orion prévu en 2018 dans l’environnement lunaire (« Orion-EM1 »).

On voit ainsi que même dans le cas d’un problème important et a priori très difficile à résoudre, l’ingéniosité humaine peut faire des avancées qui changent les perspectives. Equipés d’un tel justaucorps, les astronautes réduiront considérablement leurs risques de cancer aussi bien pendant le voyage que pendant le séjour sur Mars. Dans ce dernier cadre, le poids du justaucorps ne sera pas un inconvénient puisque, bien au contraire, il donnera aux « Martiens » un poids qui les rapprochera (avec leur scaphandre) de celui qu’ils auraient sur Terre, réduisant ainsi les dommages que pourrait leur causer une gravité trop faible sur le long terme.

Image à la Une : prototype de veste AstroRad présenté au congrès IAC (crédit StemRad/Lockheed Martin).

références:

(1) « AstroRad : personal radiation protection utilizing selective shielding for deep space exploration »; IAC-16-A1.4.7; copyright Lockeed Martin Space System Cy & StemRad Ltd, publié par l’IAF (International Astronautical Federation).

(2) www.stemrad.com

NB: StemRad a mis au point et commercialise un dispositif nommé “360 gamma shield”, essentiellement une ceinture protégeant le pelvis, utilisé sur Terre dans les actions où le risque d’exposition aux radiations est élevé (voir sur le site web de Stemrad).

Ci-dessous, image de la veste AstroRad pour femme, avec indication des zones à protéger particulièrement (en rouge) et un exemple de tissu multicouches employé (crédit : StemRad).

blog_70_astrorad_layers_jpg

Les contraintes qui s’imposent à l’astronautique…et quelques mots sur la politique spatiale du Président Trump

L’astronautique ce sont les missions robotiques ou habitées*. On évolue là dans notre environnement « proche », autant dire le système solaire et peut-être un jour quelques étoiles voisines, l’ensemble s’étendant à l’intérieur d’une sphère d’un diamètre de 10 années lumières maximum (100 mille milliards de km) dont nous serions le centre, cette sphère n’étant qu’un point par rapport aux 120.000 années lumières de diamètre de notre galaxie. Pourquoi ce domaine restreint? Parce que nous sommes contraints par la masse que nous devons transporter (et à laquelle nous devons donc appliquer une énergie) pour observer ou pour vivre et pour nous déplacer…sans oublier que compte tenu de l’hostilité et des dimensions de l’espace, nous sommes aussi contraints par nos limites biologiques.

*Les missions habitées répondent au fantasme le plus humain, celui d’aller voir et toucher. C’est ce qu’il y a de plus difficile car il s’agit de transporter notre corps en dehors de l’environnement où (et dont) il est né. On est tenté mais jusqu’où pourra-t-on partir?

La gravité

La gravité est comme le temps ou la vitesse de la lumière, une contrainte dont les missions robotiques ou habitées ne peuvent s’abstraire. S’extraire du puits de gravité terrestre, nous force à limiter drastiquement les masses dont nous pouvons disposer pour l’exploration. Par ailleurs, débarquer sur une super-Terre de masse double de celle de la Terre serait probablement insupportable à long terme pour un être humain. Un exosquelette n’aurait aucun effet sur nos organes ou nos fonctions internes. Le cœur devrait lutter plus que notre physiologie ne nous le permet pour irriguer l’ensemble du corps. En sens inverse une gravité trop faible, par exemple celle de 0,16g sur la Lune, serait catastrophique sur le long terme dans la perspective d’un retour sur Terre car le cœur deviendrait paresseux et les os incapables de nous porter.

En astronomie, les scientifiques connaissent les trous noirs où la gravité tend vers l’infini au point que les masses extrêmes empêchent même les “grains” de lumière (photons) de s’échapper. Mais ils ne peuvent observer ces monstres que par les effets qu’ils causent sur leur voisinage et les quelques éléments qui s’en évaporent (“rayonnement de Hawking”). Intrinsèquement ils nous restent irrémédiablement fermés.

L’énergie

Pas d’astronautique sans énergie, pourvu encore qu’elle soit utilisée à bon escient. L’un des pièges préférés des Erinyes spatiales, c’est le gâchis, l’autre étant la panne, le troisième étant le déséquilibre. Les spécialistes du calcul des trajectoires se sont assez rapidement rendu compte que l’on devait jouer avec les forces de l’espace comme les marins avec les vents ou les courants. Ces forces ce sont la gravité et l’énergie de l’étoile et des planètes du système où l’on se trouve. La gravité c’est un courant puissant que l’on rejoint ou avec lequel on louvoie, la lumière c’est le vent de l’étoile. Si l’on veut aller loin l’idée c’est de s’extraire du puits de gravité planétaire où l’on demeure, avec une force immédiate, grâce aux énergies chimiques ou nucléaires de la planète, puis de naviguer en utilisant ces énergies comme support sur la durée, ou d’appoint lors des manœuvres. L’ennui c’est qu’elles ont une masse et que pour utiliser les forces de l’espace (la gravité d’une planète lorsqu’on passe au plus près, ou les rayons de l’étoile), il faut les voiles et les moteurs adéquats (et éventuellement l’énergie nécessaire à leur fonctionnement), sans oublier les réservoirs et le vaisseau qui emportent le tout…toujours de la masse!

L’énergie chimique ne nous conduira pas bien loin mais elle est indispensable au départ et à l’arrivée du voyage. L’énergie nucléaire est sûrement promise à un bel avenir mais elle s’épuisera elle-aussi avec le temps. Les sondes Voyagers parties dans les années 1970 et qui sont aujourd’hui aux confins du système solaire sont équipées d’un moteur au plutonium qui touche à sa fin de vie; les réserves de plutonium de Curiosity arrivé sur Mars en 2012, seront probablement épuisées en 2020.

L’énergie solaire fonctionne bien si on est proche du soleil, moins bien si on s’en éloigne. Les lasers peuvent la transporter plus loin mais ils consomment eux-mêmes beaucoup d’énergie, d’autant plus qu’ils sont plus puissants. Il faut aussi noter qu’on ne transportera pas ses lasers avec soi (la masse toujours !) et que si on va « quelque part » on aura besoin d’une source d’énergie maîtrisable pour s’arrêter.

Aller trop vite nous expose à d’autres inconvénients, la réduction de la masse utile transportée et la perte du “libre-retour“. En effet la faculté d’éviter la perte corps et bien en cas de défaillance n’existe que si l’orbite parcourue nous reconduit sans consommation d’énergie supplémentaire assez rapidement dans le voisinage terrestre. Une trajectoire suivant un arc d’orbite trop “droit” nous priverait de libre-retour.

Les Radiations

On sait à peu près se protéger des radiations solaires (SeP) même fortes (SPE) mais on n’a pas encore les moyens de se protéger vraiment des radiations galactiques (GCR). Aucun blindage n’est vraiment efficace contre elles compte tenu de la force énergétique des particules lourdes (“Z” élevé) dont elles sont constituées en partie. Pendant les voyages interplanétaires et éventuellement interstellaires, on recevra une dose qui au bout d’un certain temps excédera les capacités d’absorption de notre corps. On peut ainsi difficilement envisager (pour le moment) de voyager plusieurs années dans l’espace interplanétaire (mais on peut envisager d’y voyager plusieurs mois, jusqu’à un refuge planétaire…en tout cas suffisamment pour aller sur Mars).

La biologie

Le corps humain doit être maintenu en (bon!) fonctionnement par un système de support vie adéquat et nous pouvons créer tant bien que mal une bulle plus ou moins auto-régénératrice à l’intérieur de laquelle on pourra se chauffer, respirer et se nourrir, dans des conditions microbiennes acceptables (voir mes billets sur MELiSSA). C’est ce qui nous a permis de commencer à entreprendre des voyages ou des séjours dans l’espace. Mais l’instabilité des systèmes de support vie ou la masse des remèdes chimiques à cette instabilité, imposent une limite aux durées de voyage (un an ?)…jusqu’à un refuge planétaire.

Par ailleurs, enverra-t-on une sonde robotique dans l’espace pour n’en avoir des retombées que dans plusieurs dizaines d’années ? J’en doute compte tenu de la durée de nos vies humaines.

Alors que faire de ces limites ? Il faut les affronter progressivement, en jouer comme l’aurait fait le rusé Ulysse. Il faut s’approcher des obstacles, apprendre à les connaître, aller aussi loin que possible (Mars, d’abord et maintenant !) pour un jour aller encore plus loin ; selon la devise de Star Trek, « to explore strange new worlds…to boldly go where no man has gone before! »

Image à la Une: Un vaisseau ITS d’Elon Musk posé, un jour futur, à la surface d’Encelade, une des lunes de Jupiter.  Crédit SpaceX (présentation faite par Elon Musk au 67ème IAC le 27 septembre 2016 à Guadalajara, Mexique).

NB: si vous êtes intéressé, lisez les articles précédents sur ce même thème des limites: https://blogs.letemps.ch/pierre-brisson/2016/11/02/les-contraintes-a-lexploration-barrieres-incontournables-ou-lignes-dhorizon-23/

PS : Ce qu’on peut dire aujourd’hui de la politique spatiale du Président Trump

Les contraintes posées à l’astronautique sont aussi des contraintes politiques!

Au moment de publier cet article, je prends connaissance de ce qu’on peut savoir du programme d’exploration spatiale de Donald Trump et je suis déçu d’apprendre que son conseiller pour les affaires spatiales, Robert Smith Walker, veut privilégier la Lune par rapport à Mars ou plutôt, vouloir considérer la Lune comme une étape incontournable pour aller ensuite sur Mars. Ce n’est clairement pas ce que je pense nécessaire ni souhaitable.

Cependant, je garde quelque espoir car :

(1) le Président élu semble vouloir dédier la NASA à l’exploration de l’espace profond en transférant les sciences de la Terre depuis l’espace, à une agence existante, « the National Oceanic & Atmospheric Administration », (« NOAA »). Cela peut vouloir indiquer qu’on n’aura plus le mélange des genres qui s’est avéré au détriment de l’exploration de l’espace profond sous l’administration Obama ;

(2) le Président élu veut fixer un but d’exploration du système solaire par vols habités “à la fin du siècle”, qui ne devrait pas “se limiter à Mars” (là, je suis d’accord sur “exploration habitée” et sur l'”objectif Mars” mais inquiet sur le reste car les termes sont trop vagues et une échéance indéfinie ne peut constituer un « incentive » !);

(3) un de ses conseillers (dans un domaine autre que le spatial) est Newt Gingritch qui, lorsqu’il était président de la Chambre des Représentants, dans les années 1990, était un fort soutien du projet « Mars Direct » de Robert Zubrin. On peut espérer qu’il ait gardé ses idées d’alors, même si Robert Zubrin a pris parti contre Donald Trump lors de cette élection;

(4) le Président élu semble vouloir que les opérations sur l’orbite basse terrestre soient laissées au secteur privé et que les partenaires publics et privés de la NASA soient invités à participer davantage aux opérations et au financement de la Station Spatial International. Ceci devrait libérer la NASA d’une partie de ses charges concernant cette Station au profit de l’exploration de l’espace profond (et permettre aux entreprises privées porteuses de projets martiens, comme celles d’Elon Musk et de Jeff Bezos de gagner de l’argent dans le domaine spatial).

Reste la présence dans l’environnement du nouveau président de fondamentalistes religieux (créationnistes!) qui pourraient évidemment jouer un rôle négatif. 

Pour résumer, je ne pense pas que cette nouvelle Administration soit la meilleure qu’on puisse souhaiter, pour l’exploration spatiale, mais le souci de Donald Trump « to make America great again » devrait l’amener, dans ce domaine comme dans d’autres, à ne pas se laisser ravir la vedette par d’autres pays (notamment la Chine).  

Espace, Temps, Vitesse

Je parlerai aujourd’hui des problèmes posés par l’immensité de l’Univers, le temps que l’on ne peut que mesurer, la vitesse qui est limitée absolument par celle de la lumière. Ils constituent aujourd’hui des lignes d’horizons infranchissables dans le domaine de l’astronautique et aussi dans celui de l’astronomie. Ils n’en laissent pas moins ouvertes des perspectives de développement infinies.

Cet article fait suite à celui publié le 13 octobre sur “les contraintes à l’exploration, barrières incontournables ou lignes d’horizon.

L’immensité de l’Univers.

C’est la donnée qui pose l’obstacle le plus formidable à l’astronautique, peut-être celle qui commande tous les autres. Comme on l’a vu récemment à l’occasion des discussions sur l’exoplanète Proxima-b, les dimensions de l’Univers nous écrasent. Il faudrait parcourir 45.000 milliards de km (la lumière le fait en 4,3 années seulement) pour atteindre le système de Proxima Centauri, étoile la plus proche du Soleil, auquel appartient Proxima-b, et Pluton n’évolue qu’à une distance de 6 à 9 milliards de km. Par ailleurs, la Voie Lactée a un diamètre de 100.000 années-lumière ; la Galaxie d’Andromède, sa plus proche voisine, est située à 2,5 millions d’années-lumière et l’origine de l’univers, qui est de ce fait le point le plus lointain dont nous pouvons recevoir un message, se trouve à 13,8 milliards d’années-lumière. Ces chiffres donnent le vertige en regard de nos faibles moyens et de la courte durée de nos vies.

L’astronomie s’en accommode évidemment beaucoup mieux que l’astronautique même si elle cherche à voir de plus en plus précisément de plus en plus loin, en valorisant de mieux en mieux le moindre photon de lumière recueilli dans des télescopes ou réseaux de télescopes de plus en plus puissants. Hubble distingue individuellement des astres de magnitude apparente 30 et JWST verra encore plus loin. Mais ces télescopes sont loin d’avoir la rapidité de celui de Gaïa (ESA) pour les cartographier. La mission en cours de ce dernier, situé au point de Lagrange terrestre « L2 », montre cependant la limite (actuelle) de l’exercice. Son télescope a une puissance de discernement de quelques millièmes de secondes d’arc, et bientôt de quelques millionièmes de secondes d’arc (on pourrait voir un tabouret et bientôt une pièce de monnaie sur la Lune). C’est un instrument formidable même s’il est moins puissant que Hubble puisqu’il ne discerne les astres “que” jusqu’à la magnitude 20. Cependant, après trois ans d’opération, il n’a pu mesurer « à plat » la position « que » d’un milliards d’étoiles et « en 3D », de 2 million d’étoiles (en attendant 10). C’est très peu sur les 100 milliards que compte notre galaxie et sa vision ne porte que sur environ un petit quart de cette galaxie. Comme souvent en science, il faudra donc extrapoler à partir de l’échantillon obtenu. Mais cet échantillon est bien supérieur à la « collecte » précédente, les 114.000 étoiles de la mission Hipparcos terminée en 1997 et heureusement il nous permet de voir loin, jusqu’au centre galactique.

Le Temps.

C’est la seconde contrainte qui domine l’astronautique. Nous venons de nous éveiller au monde et ne disposons déjà, peut-être, que de peu de temps avant une catastrophe telle que nous devions chercher refuge « ailleurs ». L’homme est né il y a quelques petits millions d’années, juste ce qu’il a fallu à la lumière pour nous parvenir de la Galaxie d’Andromède, la plus proche voisine ! A la plus grande vitesse imaginable, celle que nous procurerait la lumière des rayons lasers gonflant une voile spatiale comme veulent en construire les promoteurs du projet Breakthrough Starshot (soutenu par Stephen Hawking), il faudrait vingt ans pour rejoindre Proxima Centauri mais, à la vitesse que procurerait une propulsion chimique classique, il en faudrait 20.000 !

Pour l’astronomie le temps constitue aussi un obstacle incontournable puisque la vitesse de la lumière (ou des ondes électromagnétiques dans leur ensemble), l’unique messager de nos informations, est limitée et ne nous permet donc de voir que dans notre passé.

La vitesse.

En astronautique, tout espoir de vitesse générée par l’énergie que nous pouvons activer est comme chacun sait, limité par celle de la lumière. Ses 300.000 km / seconde sont infranchissables et pour l’atteindre notre vaisseau devrait avoir une masse nulle. Le projet Breakthrough Starshot  nous fait espérer une vitesse égale à 20% de celle de la lumière (pour des « nano-masses » !). Mais à 60.000 km/s, l’impact de la moindre poussière pourrait avoir des effets terribles sur la coque de notre vaisseau ou notre voile spatiale. Par ailleurs, à partir de 10% de la vitesse de la lumière, l’effet relativiste résultant du différentiel de vitesse entre les personnes restées sur Terre et les voyageurs deviendrait notable, le temps s’écoulant plus lentement pour ces derniers. On voit les problèmes que cela poserait au retour !

En astronomie les problèmes sont différents puisqu’il n’est pas question d’« aller vers ». Cependant la vitesse impose aussi un obstacle. Du fait de l’expansion de l’univers, les éléments qui le composent s’éloignent les uns des autres à une vitesse d’autant plus grande qu’ils sont plus lointains…jusqu’à atteindre la vitesse de la lumière. Et puis, comme dit plus haut, il y a la finitude de la vitesse de la lumière qui nous interdit de voir l’état de nos voisins dans le même temps que nous (Antarès, l’étoile géante rouge la plus « proche », a peut-être déjà explosé en supernova et nous ne le savons pas encore car la lumière que nous recevons d’elle aujourd’hui en est partie il y a 600 ans). D’un autre côté la vitesse nous renseigne aussi sur la distance (une tendance vers le rouge exprime par effet Doppler une vitesse d’éloignement d’autant plus grande que la lumière reçue est lointaine). Ce « défaut » nous est donc indispensable pour connaître l’univers.

Ces contraintes cependant ne nous empêchent ni de progresser dans la Connaissance (l’analyse des effets Doppler), ni d’envisager de « sortir de notre berceau » (il y a peut-être une vraie seconde Terre dans la sphère des 10 années-lumière dont nous sommes le centre, et plein d’autres endroits où nous pourrons “poser les bottes” de nos scaphandres). Dans ce qui nous est accessible, tant reste encore à découvrir ! La semaine prochaine je vous parlerai des autres problèmes qui, à la différence de ceux-ci, ne concernent que l’astronautique.

Image à la Une : le champ ultra-profond de Hubble (« ultra deep field ») tel que visible en juin 2014 après 841 images prises entre 2003 et 2012 dans toutes les longueurs d’onde captables par le télescope (de l’ultraviolet à l’infrarouge). Le télescope visait une toute petite région de la galaxie du Fourneau (visible dans notre hémisphère Sud) à travers un trou sans étoile de notre environnement. La lumière a pris plus de 13 milliards d’années pour nous parvenir de ces astres. Crédit image : NASA, ESA, H.Teplitz et M. Rafelski (IPAC / CalTech), A. Koekomoer (STScl), R. Windhorst (Arizona State University et Z. Levay (STScl).

On to Mars !…avec Elon Musk, Robert Zubrin et compagnie

Ce 21 octobre, dans un article publié par The New Atlantis, Robert Zubrin, fondateur de la Mars Society aux Etats-Unis, a fait une revue critique du projet ITS qu’Elon Musk a présenté le 27 septembre à l’IAC. Ces critiques doivent être vues comme des corrections et des améliorations plutôt que des rejets. La réflexion astronautique qu’on pourrait dire « off » (par rapport aux agences spatiales) n’a jamais paru aussi sérieuse et porteuse d’avenir.

Rappelons d’abord que le projet d’Elon Musk consiste à construire des vaisseaux spatiaux tout à fait révolutionnaires par leur puissance (capacité d’emporter jusqu’à 550 tonnes en orbite basse terrestre -« LEO »- alors que nous n’en sommes qu’à une cinquantaine avec les autres lanceurs lourds). Ces vaisseaux doivent permettre de déposer 100 personnes ou 100 tonnes à la surface de Mars à l’issue d’un voyage particulièrement court par rapport à ce que l’on imaginait pouvoir faire jusqu’à aujourd’hui (une centaine de jours au lieu de 180 jours). Le vaisseau, nommé ITS (pour Interplanetary Transport System), comporte deux parties, un énorme lanceur de plus de 71,5 mètres de haut, équipé de 42 moteurs surpuissants, délivrant une poussée de 13.000 tonnes, pour arracher une masse  de 10.500 tonnes à la gravité terrestre jusqu’à l’orbite terrestre et un vaisseau comprenant, outre l’habitat des passagers, un deuxième étage de propulsion intégré, permettant d’injecter le vaisseau dans une orbite interplanétaire jusqu’à Mars. L’ensemble, de 240 tonnes à sec (sans carburant, dont 150 tonnes pour le vaisseau-habitat), doit être descendu en surface de Mars par rétropropulsion.

La critique principale de Robert Zubrin à ce projet est qu’il faut éviter de déposer sur Mars une masse importante qu’on n’a pas l’intention de laisser. Il est vrai que l’astronautique consiste à utiliser le minimum d’énergie pour transporter le maximum de masse (y compris la réserve d’énergie et le moteur) le plus loin possible compte tenu de la contrainte très forte que constituent les puits de gravité planétaires. Robert Zubrin propose donc de séparer le compartiment habité du deuxième étage de l’ITS et le segment propulseur de ce deuxième étage, juste après que ce dernier ait donné l’impulsion pour aller de l’orbite de parking terrestre jusqu’à Mars (en conservant tout de même un système de rétropropulsion « modeste » permettant au vaisseau habité de se poser sur Mars). Cela permettrait d’alléger la masse à déposer sur Mars (70 tonnes ?) tout en libérant le segment propulseur, réutilisable (selon l’apport majeur fait par Elon Musk à l’astronautique). Ce segment pourrait, au cours de la même fenêtre de tir, être utilisé plusieurs fois (une dizaine ?) pour injecter d’autres vaisseaux habités vers Mars.

NB: compte tenu de la mécanique céleste, un départ vers Mars n’est possible que tous les 26 mois et le retour vers la Terre ne peut intervenir que 30 mois après le départ (voyage aller de 6 mois, séjour de 18 mois en surface, voyage retour de 6 mois). Tout objet parti sur Mars ne pourra donc revenir sur Terre que 30 mois après.

Cette idée très novatrice mais tout à fait logique car déduite de la réutilisabilité, présente tout de même une difficulté, c’est que le vaisseau serait capable d’atterrir sur Mars mais probablement pas d’en repartir. Robert Zubrin n’y voit pas de désavantage, car il pense judicieux de l’utiliser comme un habitat sur Mars où l’alternative coûteuse et difficile au début, serait de créer de tels habitats et de les viabiliser. Il ajoute que l’étage « rétropropulsif modeste » pourrait être récupéré et adapté à une petite cabine emportant les candidats au retour sur Terre. Cela suppose quand même que les candidats au retour soient beaucoup moins nombreux que ceux qui arrivent sur Mars et je pense qu’au début de la « colonisation » ce ne sera pas du tout évident. Il faudrait voir quel nombre de passagers sans autres équipements et vivres que celles nécessaires à survivre pendant le vol retour, serait compatible avec la poussée du système « rétropropulsif modeste ».* voir PS ci-dessous.

On pourrait aussi concevoir un système mixte, d’une part des vaisseaux envoyés sur Mars pour y rester (donc vaisseaux sans segment propulsif complémentaire complet) et celui des vaisseaux capables de faire l’aller et retour (avec segment propulsif complémentaire complet). Cela permettrait d’utiliser à plein la formule proposée par Robert Zubrin (de réutilisation du second étage du lanceur) et d’obtenir quand même des économies d’échelles importantes. Il faudrait donc concevoir une variante de l’ITS correspondant à cette proposition, ce qui n’exclurait pas qu’on utilise également des lanceurs plus petits (50 tonnes en LEO).

Les autres propositions de Robert Zubrin sont pleines de bon sens. Il s’agit notamment de ne pas opter pour les voyages rapides (115 jours ou moins). Les raisons qui font préférer un voyage de durée « normale » (de 6 mois) sont que (1) plus on dépense d’énergie moins on transporte de masse et le but est quand même d’en transporter le plus possible, (2) en allant trop vite, on décrit dans l’espace l’arc d’une ellipse dont l’apogée est beaucoup trop éloigné (très au-delà de Mars) et empêche une trajectoire de libre retour (retour sur Terre sans utilisation d’énergie complémentaire et dans un temps raisonnable, en cas d’impossibilité de se poser sur Mars).

Elon Musk a ainsi « réveillé » la discussion sur la technologie des voyages spatiaux en faisant monter une marche de plus vers la faisabilité du projet Mars. Nul doute que d’autres critiques seront formulées. Pierre-André Haldi, vice-président de la Mars society Switzerland et spécialiste de l’énergie (systèmes énergétiques, analyse et gestion des risques -industriels et naturels) y travaille dans son domaine. Mais on est entrée dans un processus itératif qui, sur la base de la réutilisabilité « muskienne », doit conduire à un système de transport relativement bon marché qui rendra très bientôt le voyage vraiment possible, tant financièrement que techniquement.

Liens vers l’article de Robert Zubrin publié dans The New Atlantis : http://www.thenewatlantis.com/publications/colonizing-mars

Image à la Une : Vaisseau spatial d’Elon Musk, partie du système ITS devant aller jusqu’à la surface de Mars. Il fait 49,5 mètres de long et son diamètre maximum est de 17 mètres ; il pourrait transporter 300 tonnes en version passagers (soit 100 personnes) et 450 tonnes en version cargo. Il serait équipé de neuf moteurs Raptor et de réservoirs pouvant contenir 1950 à 2500 (cargo) tonnes de carburant/comburant (méthane/oxygène). Robert Zubrin propose de séparer la partie habitat (22 mètres) de la partie réservoirs/système de propulsion (à remplacer par un dispositif beaucoup plus petit permettant simplement de se poser sur Mars (donc au total le vaisseau-habitat ferait une trentaine de mètres).   

PS: Selon Robert Zubrin que j’ai contacté à ce sujet, on pourrait renvoyer sur Terre une soixantaine de tonnes soit une trentaine de personnes (par segmentation du gros vaisseau prévu par Elon Musk). Cela semble suffisant puisque (1) au début de la colonisation il faudra envoyer plus d’équipements que de personnes et ensuite (2), lorsque la colonisation pourra se faire sereinement avec une base déjà bien installée, on peut concevoir que plus de gens veuillent rester sur Mars qu’en repartir. De toutes façons la solution mixte que j’évoque devrait être étudiée.

L’orbiteur TGO de l’ESA a été capturé par la planète Mars et va rejoindre progressivement son orbite d’observation

Six mois après son lancement, le 14 mars 2016, les contrôleurs de l’orbiteur TGO (pour Trace Gas Orbiter) de l’ESA, viennent de parvenir à faire capturer leur vaisseau par la force de gravité de la planète Mars. Il se trouve maintenant sur une orbite très elliptique (298 à 95.856 km) qui lui permettra de se freiner petit à petit, jusqu’à se stabiliser, dans un an, sur une orbite située à 400 km au dessus de la planète (équivalent de l’altitude de la Station Spatiale Internationale). A peu près en même temps le petit atterrisseur qui voyageait avec le TGO, nommé “Schiaparelli”, et qui a été libéré de son porteur le 16 octobre, devait se poser en surface de Mars, tout près du rover Opportunity (sur le sol de Mars depuis le 25 janvier 2004). Des photos des derniers km de descente de Schiaparelli ont dû être prises par Opportunity; un beau spectacle…dont on ne connait pas encore la fin car ce 19 octobre au soir (22h30) on n’a toujours aucun contact (voir post scriptum ci-dessous).

Le TGO n’est pas la première mission consacrée à l’étude de l’atmosphère de Mars. L’orbiteur MAVEN de la NASA (“Mars Atmosphere and Volatile EvolutioN”), lancé en Novembre 2013 et placé en orbite le 21 septembre 2014, vient de “fêter” sa première année d’observations et a obtenu en juillet une “rallonge” pour les années 2017 et 2018. L’objet de MAVEN est d’examiner l’interface entre l’atmosphère martienne et l’espace, en bref les pertes d’atmosphère, quantitatives et qualitatives.  L’objet de TGO est d’analyser le contenu fin de l’atmosphère, les gaz “à l’état de traces” qui composent chacun moins de 1% de l’atmosphère et parmi ceux-ci, le méthane que l’on a vu apparaître puis disparaître sur les écrans des instruments d’analyse.

TGO emporte quatre instruments essentiels à son bord: NOMAD (Nadir and Occultation for Mars Discovery), un spectromètre qui peut analyser le spectre de la lumière solaire au travers de l’atmosphère dans la gamme de rayonnement électromagnétique qui va de l’ultraviolet à l’infrarouge; ACS (Atmospheric Chemistry Suite), un jeu de trois autres spectromètres, actifs dans l’infrarouge, qui est spécialisé dans la recherche d’eau, de méthane et d’une série de composants mineurs, avec une aptitude particulière à l’observation des processus photochimiques; CaSSIS (Colour And Stereo Surface Imaging System), un instrument suisse (Université de Berne et EPFL -eSpace) qui caractérisera les sites en surface qui auront été identifiés comme sources potentielles de ces gaz (par sublimation, volcanisme, érosion, etc…); FREND (Fine Resolution Epithemial Neutron Detector) enfin, un détecteur de neutrons qui permettra l’établissement d’une carte des zones riches en hydrogène (donc en eau!).

Il est évidemment passionnant de pouvoir espérer obtenir des données qui clarifieront enfin le problème soulevé en 2003 par l’observation de très faibles traces de méthane dans l’atmosphère de Mars. Ces observations effectuées à la limite de sensibilité des instruments (à partir de la Terre et de Mars Global Surveyor, satellite tournant autour de Mars) étaient étranges puisqu’elles semblaient montrer que ce gaz qui apparaissait lors des saisons chaudes, disparaissaient avec le retour du froid…alors que dans l’atmosphère terrestre, le méthane perdure quelques 300 ans. Ensuite, le Rover Curiosity, équipé d’un capteur beaucoup plus sensible (spectrogramme TLS du laboratoire SAM) a fait retomber l’enthousiasme tout en accroissant le mystère: pratiquement pas de méthane dans l’air du Cratère Gale, puis quelques pics d’un peu plus d’une dizaine de parties par milliard (ce qui n’est quand même pas beaucoup) et plus rien. Il ne faut pas rêver; sur Terre le méthane est produit à 90% par la vie animale et à 10% par l’activité géologique (surtout la serpentinisation de l’olivine en présence d’eau) mais sur Mars l’origine est très certainement géologique. Pourquoi d’ailleurs le méthane serait-il le rejet métabolique d’êtres vivants martiens…dont nous ne savons même pas quelles molécules chimiques le métabolisme exploiterait? Quoi qu’il en soit l’observation du méthane sur Mars serait la preuve d’une “activité” dans le sous-sol de la planète ce qui serait déjà très intéressant.

Souhaitons donc bonne santé au TGO après son insertion en orbite et ne regrettons pas trop l’échec, à cette heure possible, de l’atterrisseur Schiaparelli car il n’a emporté pratiquement aucun instrument scientifique à son bord. S’il s’est écrasé trop brutalement sur Mars, cela voudra dire que décidément ni les Européens, ni leurs partenaires Russes ne sont très “doués” en astronautique et que la surface de Mars reste pour l’instant une “terre” américaine. Du point de vue de l’Humanité, ce n’est pas trop grave d’autant que, du fait des appels d’offres qui sont faits par la NASA lors du lancement de chaque grande mission interplanétaire, les équipes scientifiques européennes sont toujours présentes. Mais ce serait quand même dommage car l’échec de ce test d’EDL (Entry, Descent, Landing) retarderait la mission ExoMars 2020 dans le cadre de laquelle l’ESA projette de déposer un rover équipé d’une suite d’instruments dédiés à la recherche de la vie (étude du sous-sol par forage à deux mètres, en dessous de la zone probablement trop irradiée du sous-sol immédiat).

Image à la Une: Schiaparelli vient de se détacher de TGO, le 16 Octobre 2016. Crédit:  ESA/ATG medialab

Post Scriptum (jeudi 20 octobre 2016 à 16h45):

Exactement un jour après l’atterrissage manqué de Schiaparelli (le 19 octobre à 16h45) voici ce que l’on peut dire:

Deux anomalies sont survenues dans la dernière phase de descente avant l’atterrissage et pourraient être la cause de l’échec de « l’écrasement en douceur » qui était prévu:

Le parachute du module se serait éjecté une quinzaine de secondes trop tôt et les propulseurs n’auraient fonctionné que trois ou quatre secondes au lieu des 30 prévues. La perte de signal est ensuite intervenue 50 secondes avant le temps prévu. On peut en déduire aisément que la vitesse à l’atterrissage était beaucoup trop rapide et que Schiaparelli a été totalement détruit.
On ne peut que regretter ces défaillances mais il faut espérer que suffisamment de leçons utiles pourront en être tirées pour la suite, c’est à dire la préparation de l’EDL (Entry Descent landing) de la mission lourde en surface qui, jusqu’à présent, était prévue pour 2020.
Toute la communauté scientifique compte sur les observations que doivent faire du sous-sol les instruments Pasteur embarqués sur le futur rover de l’ESA et l’administration de l’ESA ne doit pas négliger la préparation de son EDL, avec de sérieuses marges de sécurité. Cependant, au delà de la capacité technologique de l’ESA, une difficulté importante se pose: il manquerait encore quelques 300 millions d’euros pour boucler le financement de cette “suite”!

Post scriptum 2 (Vendredi 21 octobre 20h00):

Une photo du site d’atterrissage de Schiaparelli a été prise par la sonde américaine MRO de la NASA. Michel Denis, directeur des opérations en vol de la mission ExoMars a commenté cette photo dans les termes suivants: “L’image de la Nasa permet de voir une tache blanche, cohérente avec la taille du parachute. Environ deux kilomètres plus loin, il y a une tache noire, aux contours moins nets. C’est certainement le point d’impact de Schiaparelli. Elle est plus grande que si Schiaparelli était en un seul morceau. Il s’est donc cassé“. Thierry Blancquaert, responsable de l’atterrisseur à l’ESA, a ajouté que “les réservoirs de carburant du module, qui n’étaient pas vidés, pourraient avoir explosé au moment de l’impact”.

Il reste à exploiter les informations que Schiaparelli a pu envoyer pendant sa descente (6 minutes dans l’atmosphère). Elles permettront de retracer les premières séquences (échauffement du bouclier thermique, déploiement du parachute, ignition des rétrofusées, portance de l’atmosphère) qui seront certainement utiles.

 

Les contraintes à l’exploration, barrières incontournables ou lignes d’horizon ? (1/3)

Nous sommes des poussières d’étoiles, des fruits de la Terre et du Soleil, des êtres de chair et de sang produits d’une évolution biochimique prodigieuse déroulée tout au long de 4,567 milliards d’années sur une planète bien particulière, rocheuse, où l’eau – fait rare – est abondante et liquide, orbitant autour d’une étoile moyenne née quelques petits millions d’années avant elle, à la périphérie d’une galaxie spirale ordinaire parmi les innombrables qui peuplent un univers vieux de 13,6 milliards d’années.

Depuis quelques siècles nous nous éveillons à la conscience de ce monde, en ouvrant les yeux de la Science tout autour de nous pour comprendre. Nous observons, nous réfléchissons. Depuis quelques dizaines d’années notre puissance d’observation et de réflexion a été considérablement augmentée par nos découvertes en informatique, par la création d’observatoires de plus en plus puissants et de lanceurs de plus en plus performants, par les mises en réseau d’ordinateurs de plus en plus rapides, par les constructions intellectuelles remarquables résultant d’échanges quasi immédiats entre scientifiques spécialistes.

Notre capacité de progresser n’est évidemment pas épuisée même si, comme souvent au cours de notre histoire, nous semblons contraints à l’intérieur de limites dont certaines paraissent des obstacles infranchissables. En effet des problèmes sérieux nous sont posés par des données physiques ou chimiques dont nous n’avons pas la maîtrise. Ce sont l’immensité de l’Univers, le temps que l’on ne peut que mesurer, la vitesse qui est absolument limitée, la gravité inhérente à toute masse, les radiations dont on ne peut parfaitement se protéger, l’énergie produite ou captée qui est épuisable, la biologie dont les équilibres sont si complexes et si fragiles. Comme vous avez pu ou comme vous pourrez le constater en lisant ces lignes, les problèmes sont redoutables et d’une manière ou d’une autre intrinsèquement liés. Les anciens dieux grecs auraient confié la protection de leurs solutions à la garde d’Erynies assistées d’un sphinx pour déchirer de leurs griffes les aventureux imprudents. Beaucoup se sont affrontés à ces terribles gardiennes ; quelques-uns de nos contemporains les ont fait reculer.

On peut considérer nos limites selon deux points de vue, celui de l’astronomie ou celui de l’astronautique, la première n’impliquant pas le transport de masse (donc de besoin en énergie) que la seconde impose. La première est passive (on reçoit les ondes), la seconde est active (on va vers les astres). Si on ouvre le « tiroir » de l’astronautique on peut encore se placer du point de vue des missions robotiques ou des missions habitées, les premières n’impliquant pas toutes les complexités (et les précautions !) requises par le transport d’êtres humains. Selon ces points de vue les obstacles sont évidemment à des distances différentes et l’astronomie ouvre la voie à l’astronautique tandis que les missions robotiques ouvrent la voie aux missions habitées.

Il est impossible aujourd’hui de dire que les contraintes que ces problèmes non résolus ou apparemment insolubles imposent ne sont pas des barrières fixes incontournables ou des lignes d’horizons mais le « terrain de jeu » ou la « marge de progression » qu’elles nous laissent sont suffisamment vastes. Nous n’avons pas épuisé nos capacités technologiques théoriques. En astronomie nous pouvons déjà envisager des champs de télescopes interférométriques en réseaux dans l’espace.  En astronautique, le projet « Breakthrough Starshot » soutenu par Stephen Hawking, pour envoyer des sondes explorer les étoiles voisines, nous ouvre à nouveau des perspectives extraordinaires. Pour aller toujours plus loin, notre espoir reste entier ; les limites ont été et seront toujours repoussées grâce aux progrès que nous ferons à l’aide de notre intelligence et de nos astuces (nous ne devons pas oublier que nous sommes les enfants d’Héraclès, de Prométhée et d’Ulysse). Evidemment cela est plus vrai dans certains domaines (biologie ou propulsion) que dans d’autres (le temps, la gravité) où actuellement il semble que l’on ne puisse rien faire. Mais laissons notre esprit imaginer et construire ; osons l’audace et considérons nos limites, aussi formidables qu’elles soient, non comme des barrières fixes incontournables mais comme des lignes d’horizons. Nous ne les franchirons peut-être pas davantage mais nous pourrons espérer aller aussi loin que nous le voudrons et que notre capacité d’imagination technologique nous le permettra.

Image à la Une : Image du Fond diffus micro-onde de l’Univers (crédit CEA):

En utilisant les dernières données des satellites Planck et WMAP, le Laboratoire CosmoStat du CEA-IRFU a fourni en janvier 2014 l’image la plus complète et la plus précise du fond diffus micro-onde de l’Univers (“CMB” pour “Cosmic Microwave Background”). Ce rayonnement peut être considéré comme la première lumière de l’Univers, après que les photons ont pu se dégager du plasma primordial du fait de l’expansion, 380.000 ans après le Big Bang. La nouvelle carte du fond diffus ici présentée, a été construite grâce à une nouvelle méthode de séparation de ses composants appelée LGMCA, particulièrement bien adaptée à la séparation des avant-plans galactiques qui brouillent l’image de fond (sur les premières photos l’image du CMB était barrée par celle de notre Voie Lactée).

Suite de cet article: “espace, temps, vitesse”.