Mais que feront donc les hommes sur Mars ?

L’hostilité du milieu et l’absence totale d’infrastructures justifieront l’emploi de multiples machines qui devront permettre de TOUT construire/créer/produire/stocker/recycler. L’éloignement ne permettra pas un approvisionnement constant depuis la Terre (les livraisons ne pourront avoir lieu que tous les 26 mois, en fonction de la position respective des deux astres) et de toute façon les masses transportables seront extrêmement limitées pour des raisons énergétiques et financières (actuellement 20 tonnes par lancement avec le SLS de la NASA en préparation et, avec l’ITS d’Elon Musk, une centaine de tonnes). On ne fera donc venir de la Terre que ce qu’il est strictement impossible de produire sur Mars. Heureusement, cependant, les colons disposeront sur place de quasiment toutes les matières premières requises pour créer/produire les infrastructures et les commodités dont ils auront besoin. Ils auront également accès, par les ondes, à toutes les connaissances accumulées et à toutes les réflexions possibles de l’humanité sur les situations nouvelles qu’ils affronteront.

Les colons devront prendre en compte ces contraintes et ces avantages, et leur établissement sur la planète ne pourra se faire que progressivement en fonction des progrès réalisés dans la construction des infrastructures et la production des premières commodités (atmosphère, eau, nourriture, énergie) puis leur recyclage. La composition de la population et sa croissance seront donc fonction des besoins analysés pour la réalisation de ces infrastructures, la production de ces premières commodités, les contacts avec la Terre ; elles évolueront en fonction des réalisations effectives. Dans l’ordre (avec des chevauchements !), il faudra survivre, vivre, explorer, construire, enfin produire (intellectuellement) pour exporter (c’est-à-dire payer les importations) et pour s’épanouir. Cela implique la présence sur Mars de spécialistes dans toutes sortes de métiers (base d’une université martienne). A noter que Mars souffrira pendant longtemps d’une insuffisance (« shortage ») de population (coût des transports depuis la Terre et difficultés de la vie sur Mars) et que les travaux physiques à l’extérieur des bulles de vie seront à effectuer dans un environnement très dur. Il y aura donc une robotisation maximum de toute activité et les humains seront pour beaucoup des « slashers », c’est-à-dire que la même personne aura souvent plusieurs activités, surtout au début quand certaines spécialités ne seront pas pratiquées tous les jours (chirurgie) compte tenu du petit nombre de personnes présentes.

Dès leur arrivée sur Mars les premiers colons, qui vivront dans des habitats importés de la Terre, devront produire et recycler les commodités (énergie, eau, air respirable, aliments), et parallèlement étudier les conditions d’extraction des ressources nécessaires à la construction des différents éléments de la base, situées à proximité et identifiées au préalable par les satellites qui orbitent en permanence autour de Mars. Il faudra ensuite transformer ces matières premières en produits semi-finis puis en divers équipements plus ou moins sophistiqués. Il s’agit de partir de zéro pour aller au sommet de ce que peut réaliser le génie manufacturier de l’homme. Ce n’est pas rien et cela exigera les compétences les plus fines, les plus complètes et les plus opérationnelles. Les premiers Martiens seront donc des ingénieurs en énergie (fonctionnement du RTG ou des panneaux solaires) ou en chimie, des agronomes spécialistes des cultures sous serre et hors-sol, des géologues, des spécialistes du forage et de l’extraction minière, des biologistes pour s’assurer de l’innocuité des matériaux martiens (la présence d’éventuels facteurs pathogènes), des pilotes de drones/dirigeables explorant pour eux à distance et prélevant des échantillons, des pilotes de rovers pressurisés pour aller sur le lieu des gisements identifiés, des bricoleurs pour assembler et réparer tout ce qui est démonté, cassé ou grippé, des spécialistes des télécommunications et de la robotique, des informaticiens, des électriciens, des plombiers, des opérateurs d’imprimantes 3D, des spécialistes de l’air conditionné, des nutritionnistes pour utiliser au mieux les ressources alimentaires rares, des microbiologistes pour contrôler les populations microbiennes, des médecins (un médecin généraliste, un chirurgien, un orthopédiste, un oncologue, un ophtalmologue, un dentiste protésiste, un pharmacien anesthésiste), quelques infirmières, des spécialistes du recyclage qui superviseront la collecte des déchets, le nettoyage et le fonctionnement des équipements de recyclage, de telle sorte que rien de produit par l’homme ne puisse se perdre et que tout puisse être réutilisé, des spécialistes de la propulsion pour veiller au bon fonctionnement des véhicules de retour sur Terre.

Dans une seconde phase, qui viendra très vite se superposer à la première (dès l’arrivée de la seconde mission), on commencera à construire des abris pressurisées et viabilisés, avec des ressources martiennes. Il faudra des mineurs pour extraire les matériaux des gisements précédemment identifiés, des opérateurs de véhicules de chantier, des chimistes pour évaluer les propriétés des matériaux, des spécialistes de physique des matériaux pour évaluer leur résistance aux conditions extérieures et leurs variations selon ces conditions, des spécialistes du travail des métaux, ou de la production de plastique, ou de verre, des ingénieurs de travaux publics, des architectes pour construire en toute sécurité des habitats soumis à des différentiels de pression extrêmes et prévoir une utilisation aussi intelligente que possible d’un espace habitable rare ; des maçons, des cuisiniers, des couturières et des tailleurs, des logisticiens et gestionnaires de stocks, des chercheurs intéressés par le milieu martien, planétologues, climatologues, exobiologistes, une équipe de cinéastes et journalistes pour rendre compte de l’avancement de la construction de la base et des recherches et faire rêver les Terriens.

Enfin, plus tard, des banquiers, assureurs et toute personne qui pourra s’offrir le voyage et qui pensera pouvoir en tirer profit pour lui-même et pour les autres. De toute façon, la société martienne sera une société du travail et de la responsabilité, les oisifs (touristes, rêveurs divers ?) seront les bienvenus, s’ils ont les moyens financiers, vérifiés (cautionnés ?), d’y séjourner…et puis un jour il y aura des enfants, qu’il faudra prendre en charge et éduquer. Ils seront dans un environnement propice.

Image à la Une : des géologues après collecte d’échantillons de roches, admirent une mini tornade (dust-devil) qui passe entre leur rover et la base : illustration Philippe Bouchet (Manchu) / Association Planète Mars

Outre l’eau et l’atmosphère, Mars dispose des mêmes matières premières que la Terre

Mars a été formée dans la même région du système solaire que la Terre, à partir des mêmes gaz et des mêmes poussières contenant les mêmes éléments chimiques qui devinrent les mêmes roches. Les deux planètes se sont accrétées de la même manière, l’essentiel du fer et des métaux sidérophiles migrant jusqu’au centre de la sphère pour y former un noyau, les roches plus légères (silicates) surnageant dans le manteau et se refroidissant en croûte. Cette croûte fut ensuite, au cours du Grand Bombardement Tardif (LHB), inondée par les averses cométaires venues d’au-delà de la limite des glaces, ces astres apportant également avec eux les métaux plus ou moins lourds qui vinrent se ficher dans la croûte, et des gaz (notamment CO2) pour enrichir en éléments légers l’atmosphère formée dès le début par dégazage interne. Sous cette atmosphère relativement épaisse (plusieurs dizaines de millibars), la température a été suffisamment chaude à cause de la proximité du soleil et de la chaleur interne de la planète (accrétion et désintégration des métaux radioactifs), pour que l’eau soit liquide et hydrate les roches pendant des dizaines de millions d’années tandis que la différence de température entre le manteau et l’extérieur de la croûte provoque un volcanisme intense rejetant périodiquement des quantités énormes de matières transformées par la pression et de gaz, notamment du soufre. Les ruissellements et ce volcanisme ont dû provoquer comme sur Terre les mêmes concentrations de minerais.

On trouvera donc sur Mars toutes les matières premières nécessaires à une industrie locale sauf (1) le charbon et le pétrole, puisqu’il semble bien que la vie, même si elle a pu émerger, n’a pas connu le développement luxuriant qu’elle a connu sur Terre ; (2) le calcaire, car il semble que les océans martiens n’aient pas été suffisamment liquides et pérennes pour que leur eau absorbe le CO2 de l’atmosphère et que son carbone précipite en masse en carbonate de calcium. Est-ce grave ? Pas vraiment. On pourra contourner la difficulté.

Mais avant tout, l’homme sur Mars devra disposer d’énergie. Les sources locales existent et leur développement devra être une priorité. Il n’y aura pas de dépôts carbonés fossiles à brûler, ni d’hydroélectricité, ni d’éolienne (l’atmosphère est trop peu dense malgré le vent) mais il y aura de l’énergie solaire, de l’énergie nucléaire, des piles à combustibles au méthanol et de l’énergie géothermique. Cela devrait suffire. L’énergie solaire fonctionnera tous les jours sauf quand il y aura des tempêtes de poussière, car autrement le ciel est clair et l’irradiance, bien que moitié de celle de la Terre, n’est quand même pas négligeable (entre 492 et 715 W/m2). Pour l’énergie nucléaire, on trouvera les minerais de métaux radioactifs. Pour les piles à combustible, on obtiendra facilement le méthane à partir du gaz carbonique de l’atmosphère et de l’hydrogène de la glace d’eau. Pour l’énergie géothermique, on creusera des puits profonds et on exploitera le différentiel de chaleur existant entre la surface et le sous-sol. Cette énergie sera le levier qui permettra de créer un monde nouveau à l’image de la Terre, une seconde Terre.

On pourra fertiliser la terre stérile de Mars avec les ressources martiennes. On trouvera de l’azote dans l’atmosphère (2%) pour, avec du méthane (provenant du CO2 et de l’hydrogène de l’eau), faire de l’ammoniac et à partir de l’ammoniac, un grand nombre de fertilisants : des nitrates, de l’urée, des engrais azotés. En ajoutant du phosphore et du soufre martiens aux ions ammonium, on obtiendra du phosphate d’ammonium et des superphosphates. Une fois le processus de culture amorcé, la nitrification du sol sera aussi l’œuvre des plantes, en symbiose avec des bactéries capables de fixer l’azote. Et ne vous inquiétez pas pour les bactéries, c’est ce qui sera le moins difficile à importer de la Terre. Evidemment la terre ne pourra pas être cultivée à l’air libre. Comme toutes les autres formes de vie, les cultures devront être protégées sous des dômes construits par l’homme. Mais ne vous inquiétez pas davantage, ces dômes seront de plus en plus vastes, de plus en plus transparents et de plus en plus beaux.

En mouillant et en séchant le sol martien, riche en sels (sulfates de magnésium, chlorure de sodium) et en argiles, on fera du « duricrete », matériau de résistance analogue au béton mais plus susceptible de fracture, défaut qui pourra être corrigé en ajoutant des fibres dans le mélange.

On n’en restera pas à ces matériaux, importants pour la construction, les tarmacs des astroports ou les routes mais lourds et peu maniables. Avec l’hydrogène et le carbone du monoxyde de carbone (notez bien qu’ils sont absents de la Lune), on obtiendra de l’éthylène, base de la production de presque tous les plastiques, polyéthylène, polypropylène, polycarbonate, résines de polyester, et au-delà de toutes sortes de matériaux de construction, de tissus, lubrifiants, isolants, outils divers, emballages, récipients.

Avec l’argile (absent de la Lune) on fera de la céramique, avec la silice, du verre, avec les métaux, notamment le fer (abondant), le cuivre, l’aluminium, tous les produits métalliques que vous pouvez imaginer et tous les alliages dont on peut rêver.

Il ne reste plus qu’à vouloir et à faire !

Image à la Une: Une mine de cuivre au Chili…ou sur Mars?

Non! Il n’est pas inéluctable que les premiers colons martiens meurent après 68 jours.

En 2014, au 65ème International Astronautical Congress (IAC), un groupe d’étudiants du MIT conduit par Sydney Do, doctorant du département d’aéronautique et d’astronautique, a présenté son analyse de la faisabilité d’un établissement humain sur Mars en utilisant les technologies d’aujourd’hui. Pour effectuer cette analyse les étudiants se sont placés dans l’optique des promoteurs du projet « Mars One »* et ils ont considéré plusieurs des éléments importants du support vie (« ECLSS ») dont pourraient bénéficier les colons dans ce contexte particulier. Ces éléments sont principalement la disposition d’une atmosphère respirable et de pièces de rechange suffisantes dans le cadre d’une population régulièrement croissante. Chacun est développé selon des hypothèses conformes au plan de Mars One et l’un des développements, sur des hypothèses très restrictives et peu probables concernant l’atmosphère, conduit les étudiants à conclure que les colons mourraient 68 jours après avoir débarqué sur Mars. C’est une conclusion qui n’a absolument aucun risque de se vérifier dans la réalité car il suffira de ne pas appliquer ces hypothèses extrêmes (et donc absurdes).

*Mars One prévoit un établissement permanent sur Mars avec des vols dont la population croissante à chaque fenêtre de lancement, ne disposerait pas de possibilité de retour sur Terre, parce que ce serait beaucoup moins coûteux. J’ai discuté de ce projet et des principes de la “colonisation” à la RTS le 6 mars (voir ci-dessous).

Il faut reprendre le développement pour bien comprendre : (1) la composition de l’atmosphère peut-être connue mais elle ne peut être régulée selon cette composition (on ne peut enlever de l’oxygène sans enlever en même temps de l’azote). En cas de déséquilibre il faut donc en évacuer un pourcentage global jusqu’à ce que la quantité d’oxygène revienne dans des limites acceptables (26 à 28%) par rapport à une atmosphère à 0,7 bars, puis rajouter de l’azote pour revenir effectivement à 0,7 bars. (2) L’oxygène des habitats provient exclusivement des plantes comestibles cultivées, dès l’arrivée sur Mars, en cohabitation avec les êtres humains ; leur production (d’oxygène) est variable dans le temps selon le cycle de la plante ; la quantité produite est particulièrement élevée lorsque la plante arrive à maturité ; cette maturité intervient 30 jours après plantation pour les laitues et 62 jours pour le blé ; ceci conduit donc à des déséquilibres successifs. (3) l’azote est importé de Terre et les réserves s’épuisent au bout de 66 jours du fait des rééquilibrages successifs nécessaires pour faire face aux déséquilibres successifs. (4) Après cela, soit les corrections continuent mais elles ont pour effet de réduire la pression atmosphérique globale pour maintenir un ratio oxygène / azote acceptable ce qui très rapidement  conduit à l’hypoxie, soit le système d’équilibrage est arrêté mais le risque d’incendie devient extrême.

Ces hypothèses extrêmes sont évidemment très peu réalistes par rapport à ce que serait une vraie mission habitée sur Mars (indépendamment du projet de Mars One, irréaliste sous bien des aspects). Les auteurs de l’étude le reconnaissent d’ailleurs volontiers car ils font eux-mêmes des hypothèses alternatives. Ce qui est dommage c’est que la plupart des médias se soient arrêtés à ces préliminaires et aux intentions « farfelues » de Mars One. En effet la solution est bien évidemment l’extraction sur Mars de l’eau et des gaz nécessaires à la vie, à partir de la glace d’eau et de l’atmosphère martiennes. Il n’est plus nécessaire de démontrer la présence de la glace d’eau (H2 + O2) un peu partout à la surface de Mars y compris aux latitudes moyennes et outre le CO2, qui implique aussi l’O2, l’atmosphère martienne contient aussi de faibles quantités d’azote (2%). C’est d’ailleurs parce que Mars possède cette eau et ces gaz, qu’envisager de s’y établir est plus intéressant que de le faire sur n’importe lequel des autres astres aujourd’hui accessibles à l’homme. Par ailleurs pour éviter d’avoir à purger l’atmosphère de l’habitat en fonction des poussées de production d’oxygène par les plantes, il suffit de cultiver les plantes dans un local séparé de l’habitat, de stocker l’oxygène et d’alimenter régulièrement l’habitat en fonction des besoins. On sait aussi extraire l’oxygène de l’atmosphère de CO2 avec l’apport d’un tout petit peu d’hydrogène (une partie pour dix-huit selon la réaction de Sabatier, fin du XIXème siècle).

Une autre critique des étudiants est que le niveau de TRL (Technology Readyness Level) pour plusieurs des technologies nécessaires au fonctionnement du support vie n’est pas suffisamment élevé. Certes et cela est dû au fait qu’on a fait très peu de tests préparant à l’établissement de l’homme sur Mars. Cependant il faut bien voir que les technologies requises et considérées dans cette étude ne sont pas extraordinairement sophistiquées et il n’y a peu de doute que le moment venu le TRL convenable puisse être obtenu facilement. Nous proposons de chercher à l’atteindre dès maintenant.

Par ailleurs, les étudiants considèrent que dans le cadre d’une population croissante et étant donné qu’il n’y a pas d’industrie sur Mars, le besoin de pièces détachées pour les équipements permettant le fonctionnement et la survie de la colonie, épuiserait rapidement la capacité totale de lancement dont on disposerait à partir de la Terre. L’objection n’est pas fausse mais revient à supposer qu’on ignorerait ce problème en envoyant plus de gens sur Mars que ne permettrait la gestion des pièces de rechange. C’est quelque chose que Mars One semblent vouloir faire mais que nous voulons, nous, Mars Society, éviter, en anticipant et en refusant d’envoyer dès maintenant des gens sans possibilité de retour. Il semble par ailleurs évident que (1) les colons devront au plus tôt démarrer la production sur Mars de tous les produits semi-finis simples puis de plus en plus complexes à partir des matières premières martiennes, et que (2) les imprimantes 3D devraient nous permettre de fabriquer de plus en plus de produits sophistiqués en utilisant des matières premières locales.

Les gens de Mars One veulent aller sur Mars « n’importe comment », nous voulons y aller raisonnablement. Nous souhaitons le TRL suffisant et ne voulons entreprendre que ce qu’il est possible d’entreprendre. En d’autres termes, ce n’est pas parce que les gens de Mars One veulent aller sur Mars sans beaucoup réfléchir et que les étudiants du MIT critiquent leur projet sur des présupposés excessivement rigoureux, qu’il nous faut y renoncer. Il ne faut pas désespérer, les premiers hommes qui iront sur Mars pourront y survivre plus de 68 jours; ils n’iront pas dans le cadre de Mars One et ils disposeront d’un ticket de retour.

Référence: IAC-14-A5.2.7 “An independent assessment of the technical feasibility of the Mars One mission plan” par Sydney Do et al. (y compris Olivier de Weck, diplomé de l’ETHZ et professeur au MIT). Lien : http://www.sciencedirect.com/science/article/pii/S0094576515004294

Image à la Une : l’établissement de Mars One, vue d’artiste (crédit Mars One). NB les premiers colons sont supposés être arrivés en 2023 et on se prépare pour l’arrivée de ceux de 2025.

P.S: Mars Society Switzerland à la Radio

J’ai été invité à participer le 6 mars à l’émission “Versus-Penser” sur la RTS “Espace 2” au cours de laquelle j’ai discuté avec les journalistes Sarah Dirren et Francesco Biamonte des grands principes de la “colonisation”. Il y a été bien sûr question de Mars One (brièvement) mais surtout des motivations et des grands principes de cette “sortie de l’homme de son berceau”. Vous pouvez écouter l’émission en cliquant sur le lien ci-dessous.  En la réécoutant moi-même j’ai eu deux regrets:

(1) avoir fait la (grosse) erreur de présenter la mission TGO comme une mission NASA alors que c’est bien évidemment une mission ESA (plus précisément ESA/Roscosmos) mais le raisonnement qui a introduit ce malheureux “exemple” reste bon: les missions d’explorations sont véritablement multinationales, même si elles sont décidées et organisées par un leader.  D’ailleurs les Etats-Unis sont “pays participant” des suites d’instruments FREND et NOMAD (deux des quatre groupes d’instruments embarqués) de cette mission européo-russe. On peut extrapoler que les missions habitées futures vers Mars seront construites sur les mêmes principes avec un leader (agence ou peut-être consortium privé) et les meilleurs compétences, où qu’elles soient dans le monde.

(2) ne pas avoir mentionné le contrôle microbiologique de l’habitat, à côté de l’apesanteur et du risque radiatif, comme étant un des problèmes majeurs des missions spatiales habitées (j’aurais également dit que ce risque était quand même maîtrisable pour une mission de type martien, compte tenu d’une durée de vol relativement limitée).

J’espère que les auditeurs voudront bien m’excuser, d’autant que je pense que la discussion a mis en évidence des points de vue originaux et donc intéressants ! Lien vers l’émission: https://www.rts.ch/play/radio/versus-penser/audio/versus-penser-objectif-mars?id=8401320

SpaceX, leader du spatial privé accélère le retour des missions habitées au long cours

La Lune « ce n’est pas mon truc », ce n’est pas non plus celui d’Elon Musk (propriétaire de SpaceX) ni des autres « Martiens ». Cependant l’annonce faite par SpaceX le 27 février d’un vol circumlunaire privé pour la fin 2018, est pour nous une excellente nouvelle ! En effet ce vol va permettre la reprise de l’exploration par vols habités de l’espace profond proche (Lune) et lointain (Mars). Après 45 ans de vols à seulement 400 km autour de la Terre (dernière mission lunaire, Apollo XVII, en décembre 1972), ce n’est pas trop tôt !

Ce qui est remarquable c’est que SpaceX ait accepté de relever le défi et que des personnes privées aient osé le lancer alors qu’aucun lanceur n’est encore prêt (le « Falcon 9 », lanceur de SpaceX est opérationnel mais beaucoup moins puissant que le « Falcon Heavy » nécessaire) et qu’aucune capsule n’ait encore été testée pour les vols habités (Dragon, capsule de SpaceX n’a effectué jusqu’à présent que des vols cargos jusqu’à l’ISS). On retrouve ainsi l’esprit d’aventure de John Fitzgerald Kennedy : entreprendre à la limite de ses possibilités et en accepter les risques. Mais ces personnes privées et Elon Musk ont raison car tout est « presque prêt » et donc possible. Voyons un peu plus les détails.

Le lanceur d’abord : le Falcon Heavy qui peut placer en LEO (orbite basse terrestre, d’où il s’élancera vers la Lune) 54 tonnes au lieu des 22,8 tonnes du Falcon 9, est « dans les cartons ». Ses moteurs sont testés (il s’agit des mêmes Merlin que ceux du Falcon 9, en service), la seule différence étant qu’ils sont trois fois plus nombreux (27) et qu’ils seront regroupés en trois ensembles de 9 (ce qui pose quand même un sérieux problème de « tuyauterie »). Le premier vol est prévu cet été.

La capsule ensuite : Dragon peut rapporter sur Terre 3 tonnes dans 11 m3. C’est donc ce dont disposeront les voyageurs (qui doivent revenir sur Terre !). Pour quelques jours et deux personnes (plus éventuellement un pilote mais ce n’est pas certain) c’est acceptable. Dragon devait transporter des astronautes jusqu’à l’ISS au printemps 2018. On ne fait donc qu’accélérer le processus (le plus difficile pour un lanceur étant de s’arracher à la gravité terrestre puis de revenir sur Terre), le vol vers l’ISS devenant un vol d’essai pour le tour autour de la Lune.

Quel est l’intérêt de ce vol circumlunaire ?

La réponse est facile : en tant que tel, aucun. Le fait de survoler la Lune suppose seulement de soulever une masse plus lourde au départ de la Terre (capsule + module de service + second étage pour quitter l’orbite terrestre) et c’est ce que doit permettre l’impulsion du Falcon Heavy par rapport à celle du Falcon 9. En tant que test des équipements, l’intérêt est par contre énorme car il permettra d’atteindre de nombreux « TRL » (Technology Readyness Level), essentiels pour aller plus loin. Ce sera excellent pour tester le lanceur (1er et 2nd étage) ; excellent pour tester le retour de la capsule à la surface de la Terre (problème crucial de la rentrée atmosphérique), excellent pour tester les équipements de support vie (« ECLSS » pour Environmental Control & Life Support System) même s’il ne doivent être opérationnels que sur une période de courte durée (une semaine).

On n’est en effet pas encore sur Mars, ni même sur la Lune, car pour les missions lunaires ou martiennes le plus difficile (après le départ de / et le retour sur Terre), sera de se poser en douceur sur l’astre (freinage) et d’en repartir en s’extrayant du puits gravitationnel que constitue la planète Mars ou la Lune. De plus, à la différence de la mission lunaire la durée de la mission martienne posera aussi problème en raison de sa longueur (2 fois 6 mois de voyage et 18 mois de séjour) alors que l’on peut aller sur la Lune (ou en revenir) en trois ou quatre jour seulement et cela à tout moment dans l’année (N.B : le voyage lunaire ne suppose de parcourir que quelques 400.000 km au lieu de 600 million de km). La durée posera non tellement un problème de nourriture (on peut emporter la masse nécessaire) mais surtout celui d’un recyclage fiable de l’atmosphère et de l’eau (pas de réapprovisionnement possible, au moins pendant les deux fois six mois de voyage) et de contrôle bactériologique du microbiome de l’habitat. Enfin pendant les missions martiennes le risque d’irradiation sera plus grand, non parce que les astronautes ne pourront pas être exposés à une éventuelle tempête solaire pendant une mission lunaire mais parce que ces missions martiennes seront plus longues et que l’exposition aux rayons cosmiques, « GCR », sera plus longue.

En fait, l’intérêt de ce vol circumlunaire sera surtout de lancer la mode des voyages privés et donc, on peut l’espérer, d’enrichir SpaceX. Comme le but d’Elon Musk est de coloniser Mars et qu’il a besoin de beaucoup d’argent pour ce faire, ces vols privés vont « apporter de l’eau à son moulin » en plus de ses autres entreprises (desserte de l’ISS, lancement de divers satellites en orbites terrestres, ou encore ventes de voitures Tesla).

Quid de la NASA ? On peut penser que sa direction aussi bien que ses employés vont être “piqués au vif” et vont vouloir faire aussi bien. L’émulation dans ce domaine comme dans d’autres a toujours été positive (c’est la concurrence avec les Russes qui a permis le programme Apollo). Elle est presque dans la même situation que SpaceX avec son lanceur SLS (70 tonnes en LEO) et sa capsule Orion (presque prêts!) mais c’est une grosse administration ; son fonctionnement est beaucoup plus lourd (et coûteux !) que celui de SpaceX et ses décisions politiques beaucoup plus lentes. Un point d’interrogation, le Président Trump qui semble un pragmatique, veut réduire les dépenses publiques et déteste les administrations et les grosses structures. Ne va-t-il pas profiter de l’essor de SpaceX pour réduire les ambitions de la NASA dans le domaine des vols habités dans l’espace profond (et réduire son budget) ? C’est bien possible. Mais si les privés prennent le relais, ce n’est pas grave, le principal c’est d’aller plus loin, « to boldly go where no man has gone before » comme disait le texte introductif de Star Trek.

Image à la Une: capsule Dragon (habitat et module (“trunk”) de service à l’arrière (crédit SpaceX)

Image ci-dessous: lanceur Falcon Heavy: vous remarquerez ses trois corps, chacun doté d’une propulsion de 9 moteurs Merlin (crédit SpaceX).

L’espoir de vie porté par les planètes de l’étoile Trappist-1 est extrêmement ténu

Le 22 février, la NASA a choisi comme à son habitude de dramatiser sa communication pour faire l’annonce d’un fait qui n’en méritait pas tant. Les « nouvelles Terres » découvertes ne sont pour l’instant que des planètes rocheuses d’une taille comparable à la Terre et elles orbitent autour d’une étoile peu lumineuse qu’on devrait autant comparer à Jupiter qu’au Soleil.

Certes la découverte n’est pas inintéressante puisqu’il était jusqu’à présent impossible d’identifier des exoplanètes aussi petites. La raison en était la trop grande luminosité des étoiles de type Soleil observées et la trop faible occultation causée par le passage (« transit ») de ces astres relativement minuscules entre l’étoile et nous-mêmes. La nouvelle approche qui consiste à viser les étoiles à faible luminosité a donc porté ses fruits et l’on a maintenant confirmation que ces petits astres sont communs (ce dont on pouvait quand même se douter). Un autre aspect intéressant de cette découverte, mais il est particulier au système Trappist-1, c’est que la proximité des sept planètes entre elles induit des relations de résonnances qui, combinées au fait qu’elles soient nombreuses et que leur année soit très courte (quelques jours terrestres seulement), augmentent fortement les fréquences d’interactions et a permis beaucoup de déductions en particulier sur les masses et les densités.

Sur le fond, le fait que ces planètes soient rocheuses à une telle distance de leur étoile n’est pas surprenant car l’astre émet comme tout autre un vent stellaire qui au cours du temps arrache forcément, à cette distance, les matières les plus ténues que sont les gaz atmosphériques. Que leur densité soit telle que leur teneur en eau puisse être élevée, est plus intéressant car cela, d’après les résonances qui les lient, pourrait témoigner d’une formation au-delà de la limite des glaces puis d’un rapprochement à l’étoile (par accrétion de la matière du disque protoplanétaire plus proche de l’astre). Que cette eau puisse être liquide sur trois d’entre elles (Trappist-1 « e », « f » et « g ») se déduit logiquement de leur distance qui permettrait la température adéquate, dans la mesure cependant où il subsisterait une atmosphère suffisamment dense pour en éviter la sublimation (>611 pascals).

De là à dire que ces planètes sont habitées ou même habitables, il y a un grand pas qu’il serait très prématuré de franchir.

Les facteurs contraires à cet espoir ne sont en effet pas nuls. L’étoile est une « pauvre petite » naine rouge, si petite en termes de masse (84 fois la masse de Jupiter* mais seulement 8% de la masse du Soleil) qu’elle génère juste assez d’énergie (0,05% de celle du Soleil) pour qu’on ne la classe pas dans la catégorie des naines brunes (qui ont une masse allant de 13 à 75 Jupiter – « Mj » – et qui de ce fait n’ont pu allumer le processus de fusion de leur hydrogène en hélium). Les conséquences « ne sont pas terribles » pour faciliter la vie. En effet, cette faible énergie implique que lors de sa naissance l’étoile a dû connaitre de très fortes irrégularités de fonctionnement (comme un moteur de faible puissance nourri par un fuel peu homogène du fait d’une pression insuffisante). Ces irrégularités ont dû se calmer avec le temps mais la faible distance à laquelle se trouvent les planètes situées en zone « habitable » (quelques 5% de la distance de la Terre au Soleil, soit moins de 10 millions de km (Mercure se trouve à environ 50 millions de km du Soleil !), les a exposé au début et les expose toujours quoique moins fréquemment, à recevoir de plein fouet les projections de radiations et de matières dues au fonctionnement (c’est-à-dire à la vie) de l’étoile. Ces projections sont d’autant plus destructrices que les planètes, trop proches, sont bloquées dans leur rotation par l’effet de marée gravitationnelle généré par l’étoile ; elles lui présentent donc toujours la même face (exposée en permanence à la rudesse du « jour »), l’autre restant dans l’obscurité et le froid d’une nuit éternelle, un peu adouci, éventuellement, par une atmosphère.

Cette situation a deux conséquences, pour une éventuelle activité biotique locale et pour une éventuelle visite humaine.

Pour ce qui est de l’activité biotique locale, on ne peut conjecturer trop loin puisqu’on ne sait si les planètes de la “zone habitable” possèdent une atmosphère et de l’eau mais qu’on sait que l’environnement radiatif est très hostile. Par ailleurs, envisager qu’il suffirait de roches, d’énergie et d’eau liquide pour engendrer la vie est aller un peu (en fait beaucoup trop !) vite pour un phénomène si complexe dont on n’a qu’un seul exemple à ce jour. Pour ce qui est d’une éventuelle visite humaine, on ne peut pour l’instant la considérer sérieusement puisque le système Trappist-1 étant situé à 40 années-lumière, il faudrait parcourir quelques 400.000 milliards de km pour l’atteindre ! C’est dix fois plus que pour rejoindre Proxima Centauri (4 années-lumière). Si on parvenait à propulser une voile solaire à la vitesse de 20% de celle de la lumière (220 millions de km/h) comme veulent le faire les promoteurs du projet Breakthrough Starshot pour aller jusqu’à Proxima Centauri, il faudrait 200 ans de voyage ! Autant oublier. Par contre on pourra bientôt voir plus avec les télescopes de dernière génération, notamment le JWST (NASA) qui sera envoyé dans l’espace (point de Lagrange 2) en 2018, pour remplacer Hubble. Enfin « voir » n’est pas vraiment le mot car les planètes sont trop proches de leur étoile mais on pourra détecter si elles possèdent une atmosphère, de l’eau et connaître leur température.

NB :

Premières données recueillies par le télescope belge TRAPPIST (pour TRAnsiting Planets and PlanetesImals Small Telescope, acronyme un peu « forcé » !), réflecteur de 60 cm situé à l’observatoire de La Silla (Chili) qui a fait les premières observations ; complément effectué par plusieurs télescopes dont le télescope spatial Spitzer (NASA) qui exploite le rayonnement infrarouge particulièrement porteur d’informations des objets froids.

Découvreur : Michaël Gillon (astronome de l’Uni. De Liège).

*Du fait de la contraction de la matière causée par la force gravitationnelle, le diamètre de l’étoile Trappist-1 n’est cependant que très légèrement supérieur à celui de Jupiter (163.000 km contre 140.000 km).

Document de référence : « Seven temperate terrestrial planets around the nearby ultracool dwarf star Trappist-1 », M. Gillon et al. in Nature, Feb. 23rd 2017 (doi :10.1038/nature21360 ; Macmillan Publishers Limited, part of Springer Nature).

Le sujet a été traité par ailleurs par Fabien Goubet dans le journal Le Temps daté du 23 février 2017 (page 10) sous le titre “En quête de la vie sur sept mondes”.

PS (25 février) : Je ne veux pas dans cet article déprécier la recherche menée par de brillants astronomes dans le monde entier et qui aboutit à un très beau résultat, l’identification d’une chaîne de planètes de taille terrestre à 40 années lumières de « chez nous », dans la zone habitable d’une étoile (zone définie seulement par sa température). Mais je veux critiquer la communication de la NASA qui joue sur la facilité et le spectaculaire pour ne pas dire le démagogique. Les observations et les déductions réalisées par les astronomes sont suffisamment remarquables, pour ne pas se sentir obligé « d’en rajouter » en parlant d’une vie hypothétique qu’il est bien prématuré d’envisager.

Image à la Une:

Image d’artiste de la vue qu’aurait un observateur à la surface de l’une des planètes du système de TRAPPIST-1. Crédit Image: ESO/M. Kornmesser/spaceengine.org.

Image ci-dessous : Ce qu’on a « vu » des planètes ; observations photométriques de Spitzer. La quantité de lumière diminue quand une planète passe devant l’étoile. Vous noterez qu’elle passe plus ou moins vite selon qu’elle est proche ou lointaine. Beaucoup d’autres conclusions peuvent être tirées de ces observations. La planète “h” est mal connue car elle n’a parcouru qu’une seule orbite pendant la période de l’étude. Graphe inclu dans le document de recherche mentionné ci-dessus.

Ce n’est pas l’eau qui manquera aux astronautes lorsqu’ils arriveront sur Mars !

Un dépôt récent, de plusieurs milliers de km3 de glace d’eau, a été identifié en dehors des pôles, dans l’Ouest d’Utopia Planitia. C’est ce que conclut un document de recherche publiée il y a peu (29 septembre) par Cassie Stuurman (Institute of Geophysics, University of Texas) et al. dans les Geophysical Research Letters,  sur la base de données recueillies par SHARAD, le radar embarqué par Mars Reconnaissance Orbiter qui tourne autour de Mars depuis 2006 et qui sonde son sous-sol immédiat.

Il en ressort que, sur les bords de cette « planitia », à des latitudes moyennes (40° à 50° de latitude Nord) dans les Basses Terre du Nord au contact des Hautes Terres du Sud (au Nord-Est de la région de Nili Fossae), se trouve un énorme inlandsis de glace d’eau, fragmenté, dont le volume est estimé à au moins 8.400 km3 et au plus à 14.300 km3 (le lac de Genève ne fait que 89 km3). Il s’étend sur 375.000 km2 et il a une épaisseur moyenne de 80 à 100 mètres, allant jusqu’à 170 mètres, sous une couche de régolite très fine puisqu’elle ne devrait pas dépasser un à deux mètres. Il ne s’agit pas d’eau pure ; elle est mélangée à de la poussière de laves volcaniques, mais la teneur en eau est élevée (de 50 à 85%). C’est considérable !

L’attention des chercheurs avait été attirée par un relief de mesas (tables surmontant un relief plus ancien), dans un paysage périglaciaire caractéristique comportant notamment des craquelures polygonales, des dépressions festonnées ou des cratères entourés de coulées de boue. Orienté sur cette zone, le radar SHARAD a identifié une diélectricité élevée (moyenne ɛ=2.8 +/- 0.8) du sol dans les mesas, jusqu’à un réflecteur sous-jacent correspondant au socle plus ancien sur lequel elles ont été déposées. La diélectricité est de plus en plus forte en s’enfonçant vers le socle. L’interprétation est que le matériau traversé jusqu’au socle, après une fine couche de poussière, ne peut être que de la glace d’eau (ɛ =3.6) légèrement poreuse, ou un dépôt lithique fortement poreux, ou encore un mélange de glace d’eau, de poussière et d’espaces poreux (ɛ =2). Le plus vraisemblable est que ce soit 30% de matériaux lithiques, 50 à 85 % glace d’eau et 15 à 50 % d’espaces poreux (vides). La glace d’eau étant plus importante vers le fond des mesas (et au contact du socle) et les espaces poreux vides, vers le haut.

La profondeur du réflecteur a été estimée par rapport au socle ancien visible entre les mesas (cf photo ci-dessous). Il est plus clair que les mesas et cratérisé, alors que la surface des mesas ne l’est pratiquement pas ce qui implique qu’elles ont été formées pendant l’Amazonien tardif (de 100.000 à quelques centaines de milliers d’années). A la surface des mesas on constate d’abondants signes de déflations (effondrements) du terrain. C’est l’indication que la glace superficielle a été sublimée plutôt qu’elle n’a coulé (il n’y a pas de traces d’écoulement) et qu’elle était plutôt pure puisqu’il reste peu de débris laissée par la sublimation (on ne peut exclure cependant que ces débris aient été emportés par le vent).

Ces réservoirs de glace d’eau sont, en surface, d’aspect similaire au « Latitude Dependent Mantle » (« LDM ») de glace qui recouvre la planète sur quelques décimètres sous le régolithe à diverses latitudes moyennes. Ils devraient donc remonter à la même époque (autrement ils se seraient totalement sublimés). Ils en diffèrent cependant par leur épaisseur. Les deux doivent avoir été déposés à l’occasion du dernier des changements d’obliquité (inclinaison de l’axe de rotation de la planète sur son plan orbital) qui interviennent, pour Mars, par cycles d’environ 120.000 ans et qui force la fonte des glaces polaires. En effet Mars à la différence de la Terre ne possède pas de gros satellite naturel comme la Lune, suffisant pour la stabiliser. Le phénomène qui résulte de l’influence des autres planètes sur son plan orbital et de la précession causée par le différentiel de force gravitationnelle du soleil s’exerçant sur la planète selon sa latitude, se produit lorsque l’inclinaison dépasse 30° (nous sommes actuellement à 25,1° et l’axe se redresse) ; elle varie de 14,9° à 35,5°. A noter que cette glace d’eau quasi atmosphérique (différente de celle qui reste dans le sous-sol profond) ne disparaît pas pour autant aux périodes « sèches » ; elle change simplement de place (plus ou moins concentrée aux pôles).

Alors, quelle peut être la cause de l’existence de ces mesas épaisses ? On ne la connaît pas encore mais elles doivent résulter d’un concours de circonstances, probablement un événement volcanique important survenu lors d’une obliquité forte. L’atmosphère épaissie par les rejets de gaz aurait facilité les précipitations de pluie ou de neige qui dans cette zone auraient pénétré un amoncellement de cendres fraîches où elles auraient ensuite gelé.

Ce genre de raisonnement est typique de l’étude géologique ou planétologique. On a des faits et on construit des hypothèses (ou, quand on peut, des modélisations) pour les expliquer. Les meilleures explications reçoivent ensuite confirmation par d’autres faits.

Les chercheurs estiment que l’inlandsis pourrait être plus étendu que les 375.000 km2 clairement identifiés car le même type de relief se prolonge sur une surface de quelques 1.000.000 de km2. Mais pour le moment la généralisation ne peut être confirmée puisque SHARAD n’a pas examiné la totalité de la zone et que, d’après les tendances observées, la teneur en eau semble s’appauvrir en allant vers l’Est.

Le radar SHARAD (SHallow RADar) a été fourni à la NASA par l’ASI, l’agence spatiale italienne (comme toujours ces missions sont internationales sous un leadership national) ; les opérations sont conduites par l’Université de La Sapienza, à Rome. Il pénètre les premières centaines de mètres du sol, jusqu’à 1 km (en fonction de la nature du sol).

Plusieurs conséquences sont à tirer de cette découverte :

(1) Les Basses Terres du Nord confirment leur vocation à être le réceptacle principal des eaux martiennes du fait de leur altitude basse (gravité et atmosphère plus épaisse);

(2) Les astronautes n’auront vraiment pas de difficulté à se procurer de l’eau sur Mars ;

(3) l’eau martienne accessible pourra faire l’objet de multiples utilisations, son hydrogène et son oxygène pourront servir, par réaction de Sabatier, à produire du méthane brûlant dans l’oxygène pour propulser les véhicules. L’oxygène pourra aussi servir à réapprovisionner les réserves atmosphériques des bases habitées (même recyclé l’oxygène des bases subira des pertes).

(4) Il peut y avoir un peu d’eau liquide sous la glace, ce qui, comme chacun sait, favorise les échanges biologiques. Cette eau n’a pu être biologiquement active que si le sol était déjà ensemencé par la vie mais au cas où des spores auraient été laissées par la glaciation précédente, elles auraient pu être réactivées (on évalue la capacité de survie des bactéries terrestres sous forme de spores, à plusieurs millions d’années).

Pierre Brisson

Source : Geophysical Research Letters, ‘SHARAD detection and characterization of subsurface ice deposits in Utopia Planitia, Mars” doi:10.1002/2016GL070138, publié le 29 septembre 2016.

Image à la une : exemple de thermokarst (sol riche en glace d’eau desséché en surface) observé au sol de Mars par la caméra HiRISE, à bord de Mars Reconnaissance Orbiter (NASA) . Vous noterez les lignes de dessiccation et l’effondrement du sol là où une grande quantité d’eau souterraine s’est sublimée.

Image ci-dessous : carte de la zone explorée, crédit image NASA/JPL-CalTech/Univ. de Rome/ASI/PSI (22/11/16). Les barres violettes montrent la profondeur des dépôts riches en glace telle qu’observés par SHARAD. Plus la couleur est foncée plus l’épaisseur est importante (variation de 170 à 10 mètres):

Image ci-dessous (crédit image NASA/JPL-CalTech/Univ. de Rome/ASI/PSI):

morphologie des surfaces explorées. On distingue bien le sol ancien (en clair) sur lequel se sont formées les mesas riches en glace (plus foncées):

Retour sur la Terre…et vers Mars

Après les incursions des semaines précédentes dans les immensités astronomiques extérieures à notre propre système stellaire, retournons dans notre environnement proche, celui de notre soleil nourricier. Nous voyons bien le confort qu’il nous offre (étoile de taille moyenne et de vie longue, née après les turbulences des origines et située dans l’anneau habitable de notre galaxie) et les événements extraordinaires qui ont permis dans sa zone habitable l’émergence de la vie : (1) rebroussement de Jupiter; (2) hydratation des planètes du système intérieur par la projection par Saturne repoussée par Jupiter, d’Uranus et de Neptune dans le réservoir de glace de la Ceinture de Kuiper; (3) stabilisation de notre planète et génération de marées importantes par une Lune relativement énorme; (4) déclenchement et maintien d’une dynamo interne génératrice d’une magnétosphère protectrice; (5) hydratation du manteau suffisante pour que sa ductilité permette l’amorce puis la perpétuation d’une tectonique des plaques favorisant la complexification des roches, l’entretien d’un volcanisme régénérateur continu de l’atmosphère et un bouillonnement chaud et nourricier au niveau des dorsales océaniques.

Nous habitons une planète extraordinaire dans un système stellaire improbable et sur cette planète une histoire également improbable a permis à une certaine époque, dans des conditions de températures et de pH particulières, compte tenu d’une longue évolution géologique et prébiotique préalable, qui ont aujourd’hui disparu, l’émergence d’un phénomène matériel autoreproductible tout à fait particulier que l’on appelle la Vie. Il a fallu ensuite toute une série d’évènements accidentels pour que cette vie évoluant selon des lois lui permettant l’adaptation à son environnement changeant, conduisent à l’apparition d’êtres conscients du monde et d’eux-mêmes, capables d’agir physiquement sur ce monde, de se déplacer pour s’organiser et entreprendre ensemble, de communiquer et de transmettre, que l’on appelle les hommes.

En sommes-nous bien conscients ? Nous rendons nous bien compte de la chance que nous avons, de la merveille que représentent notre corps et notre esprit issus de cette évolution erratique et imprévisible ? A regarder les trésors créés par nos civilisations depuis le début de l’histoire humaine on peut en tirer une réponse plutôt positive mais à regarder les horreurs également produites périodiquement par nos disputes et nos passions, en particulier pour des systèmes d’explications du monde irrationnels et insensés, on peut en douter. En fait depuis toujours le bien et le mal s’équilibrent à peu près. Et aujourd’hui les menaces de destructions totales sont de plus en plus grandes compte tenu du développement de nos technologies au service du mal comme du bien et compte tenu aussi du simple développement de la vie. Comment en effet anticiper sereinement qu’une dizaine de milliards d’hommes habitent un jour ce monde déjà intensément exploité sinon pillé ? On voit déjà les effets de cette surpopulation et de cette suractivité sur la pollution des eaux et de l’atmosphère, et sur le climat. Dans quel état sera l’Afrique lorsqu’elle sera peuplée de deux milliards d’êtres humains ? Que sera devenue la grande forêt tropicale ? Et les girafes ? Faudra-t-il que tout aille encore beaucoup plus mal avant que nous devenions raisonnables ? Trop tard ?

Notre responsabilité à nous les hommes qui vivons aujourd’hui, est de ne pas baisser les bras. Il faut défendre nos acquis, il faut lutter contre le mal, il faut refuser les tendances et les pressions des porteurs des ignorances et des superstitions qui veulent les faire triompher au prix de la mort des autres, ou de ceux qui tout simplement se moquent de tout et qui pensent et disent « après nous le déluge ». Ce monde est autant le nôtre que le leur et nous ne devons pas les laisser le détruire ni les laisser embrumer les esprits qui s’éveillent. Il faut éduquer sans relâche, sans respect humain inutile et injustifié, faire progresser nos capacités technologiques pour vivre mieux en consommant moins les ressources rares dont nous disposons, et contrôler l’explosion démographique.

Maintenant il est possible que, malgré nos efforts, la brutalité et la bêtise soient victorieuses, définitivement ou temporairement mais pour plusieurs siècles. Nous avons l’expérience des âges sombres. Les Romains déjà nous ont montré à la fin du IVème siècle, que la tolérance ou la faiblesse, le doute dans ses propres valeurs, pouvaient conduire à la « compréhension », puis à la compromission, à la soumission, au renoncement et à l’abandon. Soyons intransigeants, « ne nous laissons pas faire », gardons la maîtrise de notre destin. Maintenant, si un jour tout s’avère perdu, et que nous nous retrouvions dans le contexte dans lequel se déroule le très beau film Interstellar de Christopher Nolan (2014) où l’on voit si bien la Terre finalement épuisée par l’homme, nous serions heureux de disposer d’une sortie, un espoir, une possibilité de survie, une arche de Noé pour certains d’entre nous. Cette possibilité, c’est Mars puisque malgré toute la dureté de son environnement et les défis technologiques qu’elle pose, cette planète est quand même la seule « Terre » de rechange qui s’offre à nous aujourd’hui.

Mars se trouve à portée de nos lanceurs et son aménagement à la portée de notre technologie. Il faudra longtemps avant qu’une éventuelle implantation humaine y devienne autonome mais il n’y a aucune autre alternative aujourd’hui disponible pour tenter cette bouture qui pourrait sauver les merveilles qu’a créées notre esprit. Alors, pourquoi ne décidons nous pas d’entreprendre une première implantation qui pourrait prospérer ? Il y a urgence ; nous le devons à nos « frères humains qui après nous vivront » (selon la belle expression de François Villon).

Image à la Une : photo extraite du film Interstellar de Christopher Nolan. L’actrice Jessica Chastain face à la catastrophe climatique.

Image ci-dessous : Mars, Crater Gale, sol 631, 16 Mai 2014, vue vers le rempart extérieur du cratère. Crédit image : NASA/JPL-CalTech/MSSS

Combien ça coûte ?

En voyant fleurir les projets de télescopes de nouvelle génération, beaucoup plus puissants que les précédents, l’on peut à juste titre se demander « combien ça coute ». La réponse est « pas aussi cher que ce que vous pouvez penser ».

Le premier des quatre VLT de l’ ESO* du Cerro Paranal (désert de l’Atacama), a couté 345 million de dollars (en 1998 i.e. 500 M d’aujourd’hui). L’E-ELT (ESO) du Cerro Amazones (Atacama), dont la construction a débuté en 2014 et dont la première lumière est attendue en 2024 devrait coûter 1,08 milliards d’euros (en 2012 i.e. 1,13 aujourd’hui). Le radiotélescope ALMA (NRAO, Etats-Unis ; ESO ; NRCC, Canada ; NAOJ, Japon ; ASIAA, Taiwan ; République du Chili) dont le réseau de 66 antennes de 12 et 7 mètres de diamètre se déploie actuellement sur le plateau de Chajnantor (Atacama), doit couter 1,4 milliards de dollars ; c’est le plus cher des systèmes d’observation à la surface de la Terre. Dans l’espace, le JWST (NASA + ESA*) qui doit remplacer Hubble devait coûter 1,6 milliards et coûtera finalement 8,8 milliards ; c’est le plus cher des systèmes d’observations opérant dans l’espace.

*NB : La Suisse est membre de l’ESO (European Southern Observatory) comme de l’ESA (European Space Agency).

On peut comparer ces coûts à ceux de la mission d’exploration robotique MSL (« Curiosity ») chiffrés à 2,5 milliards de dollars ou à ceux d’une mission habitée sur Mars, probablement une cinquantaine de milliards de dollars (à dépenser sur une douzaine d’années), ou au budget 2016 de la NASA, 19 milliards de dollars (0,5% des dépenses publiques de l’Etat fédéral américain), et à celui de l’ESA, 5 milliards d’euros. On peut aussi les rapprocher du prix du plus gros porteur d’Airbus, l’A380, qui est proposé, « sur catalogue », à 428 millions (l’équivalent d’un VLT).

Les dépassements successifs du budget du JWST ont fortement déplu aux décideurs politiques et trouver des financements pour les autres télescopes n’a jamais été chose facile. Mais au-delà du montant total, il faut bien voir que la réalisation (donc la dépense) s’étale sur une longue période, souvent une dizaine d’années (conception du télescope, préparation du terrain, conception et réalisation des instruments, construction – 4 ans pour l’E-ELT -).

Ensuite, pour tous ces actifs, l’amortissement se fait sur une durée longue. Il est difficile de prévoir l’obsolescence mais le temps d’utilisation des grands télescopes des années 1990 est encore l’objet d’une forte demande. Les constructeurs de l’E-ELT visent une durée de vie de trente ans minimum. Le JWST et les autres télescopes spatiaux ont une durée de vie plus courte car on doit les alimenter avant leur lancement avec l’énergie nécessaire à leur fonctionnement et, pour certaines longueurs d’ondes, un liquide de refroidissement, mais leur durée de vie est quand même assez longue. Ainsi le JWST emportera la quantité d’énergie et de liquide de refroidissement nécessaires pour fonctionner pendant 10 ans.

Il faut donc voir ces grands télescopes comme des investissements qui certes coûtent cher mais qui représentent des montants acceptables dans notre système économique, d’autant qu’ils génèrent des revenus et offrent des retombées non directement chiffrables mais importantes. En effet, les propriétaires louent le temps d’utilisation très cher (en fonction de la demande qu’en expriment les universités, laboratoires ou centres de recherche). Les prix demandés peuvent couvrir une bonne partie des frais de fonctionnement et l’amortissement des équipements. La recherche nécessaire pour obtenir une optique satisfaisante, ou pour obtenir une informatique performante pour faire fonctionner les instruments peuvent aussi avoir des retombées dans d’autres domaines. Enfin les pays hébergeurs, comme le Chili ou Hawaï reçoivent du fait de ces installations, des paiements effectués pour la construction (infrastructure, transport) et pour l’hébergement des ingénieurs et des scientifiques. Ils peuvent aussi en profiter pour dynamiser leur propre activité scientifique y compris dans l’enseignement universitaire et créer pour leur propre population scientifique une intégration dans les cercles de recherche mondiaux les plus prestigieux et les plus productifs. Des régions totalement inhospitalières deviennent aussi des centres de ressources économiques, sans compter l’image de modernité qui peut aussi être exploitée pour d’éventuelle retombées touristiques.

Ces considérations économiques pourront peut-être adoucir les critiques de ceux qui pensent que toutes dépenses autres que celles ayant un objectif médical ou social, constituent un divertissement inacceptable. Il ne faut évidemment pas se faire d’illusions, l’humanité comprendra toujours une partie de sceptiques, de blasés, d’aveugles volontaires et de sectaires hostiles par principe. Le plus important étant que suffisamment d’hommes sur Terre soient convaincus du bien-fondé de cette recherche pour qu’elle continue. Pour cela il faut en parler.

Image à la Une : télescope JWST (image crédit NASA). Sous le télescope proprement dit avec son miroir segmenté de béryllium, on voit les feuilles du grand radiateur permettant de dissiper l’énergie thermique. La plateforme du télescope est située en dessous du radiateur (du côté éclairé).

L’Interférométrie, exhausteur des ondes électromagnétiques

La taille des télescopes est limitée par toutes sortes de contraintes alors que nous avons besoin de réceptacles d’ondes de plus en plus grands pour voir de plus en plus loin. L’interférométrie donne une réponse à ce problème en permettant de créer un réceptacle virtuel dont la taille est égale à la distance entre ses éléments constituants les plus éloignés.

Pour expliquer l’interférométrie (théorisée par Hippolyte Fizeau en 1850 puis Antoine Labeyrie en 1970), on pourrait dire que les ondes reçues en même temps par un miroir donnent l’image de l’objet qui les émet même si une partie du miroir est cachée. En fait la résolution sera la même que si le miroir a la dimension de la distance entre ses éléments extrêmes, la différence étant que la quantité de lumière étant moins grande, l’image sera moins nette. On peut étendre le raisonnement à deux ou plusieurs miroirs (ou antennes) regardant la même source lumineuse (ou ondes électromagnétiques en général) comme si ces différents miroirs ou antennes étaient des points d’un plus grand réceptacle. La difficulté posée par ce système de collecte qu’on pourrait dire « segmenté » ou ponctuel est de coordonner la réception des ondes (lumineuses ou autres) pour qu’elles soient « vues » en même temps (ou comme dise les astronomes, pour annuler leur « différence de marche »). C’est justement ce que permet l’informatique et c’est ce qui a permis de construire depuis peu des télescopes travaillant en interférométrie puis des réseaux de télescopes interférométriques (ce qu’Antoine Labeyrie nomme des « hypertélescopes »), de plus en plus grands, dans les domaines optique aussi bien que millimétriques et radio. Les réalisations les plus remarquables (et les plus récentes) sont le VLTI et l’ALMA.

En optique le « VLTI » (« Very Large Telescope Interferometer ») de l’ESO, est composé des quatre miroirs de VLT de 8,20 mètres et de leurs quatre “petits” télescopes mobiles auxiliaires de 1,8 mètres, situés au sommet du Cerro Paranal, à 2635 mètres d’altitude dans les Andes du Nord du Chili. Combiner leurs lumières lui permet d’obtenir la résolution qu’aurait un télescope de 140 à 200 mètres de diamètre (selon la position des petits télescopes auxiliaires). L’hypertélescope fonctionne avec une optique dont le réglage est extrêmement délicat, la lumière de chaque télescope passant dans des « lignes à retard » pour compenser la différence de chemin que les ondes lumineuses parties en même temps de la même source, doivent parcourir pour atteindre chacun des télescopes. La précision est de l’ordre du milliardième de mètre.

En ondes radio, « ALMA » (« Atacama Large Millimeter/submillimeter Array ») est composé de 66 antennes de haute précision situées sur le plateau de Chajnantor, à 5000 mètres d’altitude, également dans le Nord du Chili. Il est le fruit d’une collaboration mondiale (ESO, NSF –Etats-Unis, NINS – Japon, NRC – Canada, NSC et ASIAA –Taïwan, KASI -Corée). C’est le plus grand projet astronomique en cours de réalisation. Les ondes radio présentent une difficulté particulière par rapport aux ondes visibles, c’est que plus la longueur d’onde est grande moins la résolution est bonne et plus grande doit être l’antenne (une antenne ALMA de 12 mètres aura une résolution de 20 secondes d’arc tandis qu’un miroir de VLT de 8,2 mètres – ondes visibles – aura une résolution de 50 millisecondes d’arc). C’est sans doute pour cela que l’interférométrie s’est vite imposée pour l’étude de cette partie du spectre des ondes électromagnétiques. Dans le cas d’ALMA les distances extrêmes entre les antennes, pourront varier entre 150 mètres et 16 km. Au mieux, on pourra donc jouir de l’équivalent d’une antenne de 16 km (mais dans cette configuration, il y aura une densité d’antennes très faible et donc même si la résolution sera excellente, l’intensité des images sera faible).

l’« EHT » (« Event Horizon Telescope ») auquel travaillent Shepherd Doeleman et son équipe, veut pousser encore plus loin la logique du système, en utilisant plusieurs dispositifs interférométriques ensemble sur la même longueur d’onde (1,3 mm): le South Pole Telescope, ALMA, le Large Millimeter Telescope (Mexique), le Submillimeter Telescope du Mont Graham (Arizona), le James Clerk Maxwell Telescope, le Submillimeter Array (les deux à Hawaï) et l’antenne de 30 mètres de la Sierra Nevada (Espagne), le cœur du système étant constitué par ALMA. Plus les antennes seront nombreuses plus les images gagneront en netteté. Les données seront enregistrées sur chaque site puis recombinées par un supercalculateur, donnant des images que pourraient recueillir un radiotélescope de 11.000 km de diamètre (résolution d’une vingtaine de microsecondes d’arc (µas)).

Le but est de voir (indirectement par les effets qu’il cause) le trou noir de notre galaxie, Sagitarius A* (« SgrA* ») autour duquel elle tourne et qui est situé à 27.000 années-lumière. Le rayonnement de 1,3 mm permet de presque percer le rayonnement radio de SgrA* qui devient transparent à lui-même à partir de 1 mm (on espère ensuite passer de 1,3 à 0,8 mm).

On voit bien avec l’interférométrie les progrès énormes que va pouvoir faire l’astronomie. Au-delà de l’EHT, la perspective est évidemment de placer des flottes de télescopes ou d’antennes en orbite autour du Soleil. Cela viendra !

Image à la Une : le sommet du Mont Paranal avec son VLTI (crédit : ESO).

Image ci-dessous : Quelques unes des antennes d’ALMA (crédit ESO).

Les télescopes spatiaux pour observer tout ce que nous ne pouvons voir à partir de la Terre

La Terre est sélectivement protégée des rayonnements électromagnétiques spatiaux par le champs magnétique terrestre (ce qui génère les Ceintures de Van Allen) et par son atmosphère. Cette protection a permis à la vie d’éclore et de prospérer à sa surface mais elle gêne aussi l’arrivée jusqu’à nous d’une bonne partie des informations sur l’univers portées par ces rayonnements. La possibilité qui nous est offerte aujourd’hui de pouvoir aller dans l’espace, nous affranchit de cette limitation et des pollutions induites par l’activité de l’homme…et nous en profitons.

Tout rayonnement est porteur d’informations sur son émetteur que ce soit les rayons gammas, de longueurs d’onde extrêmement courtes, à un bout du spectre, aux ondes radioélectriques très longues, à l’autre bout, et à la lumière visibles, entre les deux. Certains de ces rayonnements sont piégés par le champ magnétique de la Terre dans ce qu’on appelle les Ceintures de Van Allen. Les molécules de l’atmosphère terrestre en bloquent d’autres et finalement nous ne recevons au sol qu’un peu d’ultraviolet (A et B mais pas de C), le rayonnement visible, une grande partie des infrarouges et une partie du rayonnement radio le moins long (voir « image à la Une »). Par ailleurs l’atmosphère, par sa matière même aussi bien que ses mouvements internes, introduit des perturbations (turbulences) dans le cheminement des photons reçues. Ces perturbations ont empêché les progrès dans la capacité de résolution des télescopes optiques, jusqu’à l’invention et la mise en pratique de l’optique adaptative (le prototype “COME-ON”, réalisé sous l’impulsion de l’astrophysicien français Pierre Léna, date de la fin des années 1980 mais la technologie n’à vraiment été utilisée qu’à partir de la fin des années 1990).

Les astronomes qui rêvaient des télescopes spatiaux dès 1946 avec Lyman Spitzer (Yale), ont donc réagi avec enthousiasme à l’avènement de l’ère spatiale. Depuis les années 1970 une cinquantaine de télescopes ont été lancés. Ils couvrent quasiment la totalité du spectre électromagnétique, ils sont de plus en plus puissants et de plus en plus sophistiqués en raison notamment des conditions à remplir pour pouvoir observer les longueurs d’ondes les plus extrêmes ou simplement pour gagner en puissance de pénétration dans l’espace.

Dans le segment visible et infrarouge du spectre, on connait Hubble mais on va bientôt disposer du James Webb Space Telescope (« JWST ») réalisation de la NASA, de l’ESA et de l’ASC (Canada), qui va être lancé pour le remplacer en Octobre 2018. Son miroir primaire (segmenté) aura un diamètre de 6,5 mètres, contre 2,4 mètres pour Hubble. Il sera 100 fois plus puissant et il orbitera autour du Soleil au point de Lagrange 2 (protégé du Soleil par la Terre, et des deux astres par un énorme bouclier thermique). Dans le domaine de l’infrarouge il ira beaucoup plus loin que Hubble (ondes de 25 µm au lieu de 2,5 µm). La possibilité de traiter ce rayonnement est essentiel pour un télescope qui doit étudier les objets les plus lointains dont le déplacement vers le rouge (« redshift ») est très important. A noter que l’on a commencé à parler d’un successeur au JWST, « ATLAST » (« Advanced Technology Large Aperture Space Telescope ») qui aurait un miroir primaire segmenté de 16 mètres ! Cependant ce n’est encore qu’un concept. Les décideurs américains un peu échaudés par les dépassements de budget répétés du JWST, attendront pour se lancer sur cette nouvelle piste. En parallèle à ces géants, « Gaïa » (ESA), positionné en L2, cartographie le ciel et « Képler » (NASA), dans le sillage de la Terre, recherche les exoplanètes aussi petites que possible de notre environnement.

Mais c’est surtout dans le domaine des rayonnements qui n’arrivent pas jusqu’à la surface de la Terre que l’accès à l’espace rend et va rendre les plus grands services. A noter que les télescopes qui les recueillent ont souvent une orbite très excentrique pour sortir des Ceintures de Van Allen et donc bénéficier d’un espace sans « écran » en même temps que d’une période d’observation non occultée par la Terre, plus longue. Par ailleurs ils ont une durée de vie limitée car ils ont non seulement besoin d’énergie pour fonctionner mais aussi, pour mieux isoler les radiations à très courtes longueurs d’onde, d’un liquide de refroidissement (hélium liquide). On peut distinguer plusieurs catégories :

Les collecteurs de rayons Gamma (longueurs d’ondes les plus petites donc les plus énergétiques). Parmi eux « Fermi » (NASA) traque ce qu’on appelle les « GRB » (« sursauts de rayons gamma) provoqués par les effondrements d’étoiles géantes, ou les trous noirs eux-mêmes dans leur activité dévoreuse de matière ou, indirectement, les phénomènes liés à la probable « matière-noire ».

Les collecteurs de rayons X. Parmi eux, deux télescopes de la NASA, « Chandra » et plus récemment « NuSTAR », et un de l’ESA, « XMM-Newton ». Comme Fermi, ils “chassent” les phénomènes les plus violents. Ils sont très longs car, compte tenu de leurs faibles longueurs d’onde, ils doivent capter les rayonnements en lumière rasante pour les identifier. En fait, au sens strict, ces instruments (comme d’ailleurs les antennes pour ondes radio) ne sont pas des télescopes car ils ne disposent pas d’optique mais plutôt des capteurs.

Pour les rayonnements ultraviolets, on a « GALEX » de la NASA (mission terminée en 2013 mais données toujours en cours d’exploitation). De l’autre côté du visible, en infrarouge, on a « Hershel » (ESA) et « Spitzer » (NASA). Hershel a la particularité de se trouver au point de Lagrange L2 et d’avoir le plus grand miroir dédié au rayonnement infrarouge (3,5 mètres). Plus loin, vers les grandes longueurs d’onde (ondes radio), on a « Planck » (ESA) dont la mission s’est terminée en 2013 et qui traquait les détails du rayonnement primordial, et « Spektr R » (Russe) qui est doté d’une très grande antenne de 10 mètres de diamètre et doit être utilisé dans des dispositifs interférométriques avec des radiotélescopes au sol.

Enfin, tout au bout du spectre, la nouvelle découverte des ondes gravitationnelles (expérience LIGO) a suscité le projet « eLISA » de l’ESA (« Evolved Laser Interferometer Space Antenna ») qui devrait être réalisé à la suite de la mission du satellite LISA Pathfinder lancé en décembre 2015.

Il faut bien voir que ces différentes longueurs d’ondes permettent soit de surmonter (traverser) des obstacles (nuages de poussière ou rayonnements parasites dans d’autres longueurs d’onde), soit d’observer des objets différents soit de mieux les caractériser en fonction précisément des longueurs d’ondes dans lesquelles s’expriment leur activité. Bien entendu les missions en surface de la Lune (face cachée), ou de Mars devront permettre d’y construire un jour des télescopes à grandes surfaces collectrices qui agiront sans doute en complément des autres télescopes dans l’univers (avantage d’un ciel pur et d’une gravité beaucoup plus faible).

Image à la Une : graphe de l’opacité atmosphérique en fonction de la longueur d’onde (crédit ESA/Hubble (F. Granato). La hauteur de la surface brune représente l’opacité de l’atmosphère pour une longueur d’onde donnée. Les fenêtres principales sont les longueurs d’onde du visible et des ondes radios entre 1 mm et 10 mètres.

Image ci-dessous : liste des télescopes spatiaux en fonction des longueurs d’onde qu’ils couvrent (crédit : NASA Goddard Space Flight Center):