SpaceX, leader du spatial privé accélère le retour des missions habitées au long cours

La Lune « ce n’est pas mon truc », ce n’est pas non plus celui d’Elon Musk (propriétaire de SpaceX) ni des autres « Martiens ». Cependant l’annonce faite par SpaceX le 27 février d’un vol circumlunaire privé pour la fin 2018, est pour nous une excellente nouvelle ! En effet ce vol va permettre la reprise de l’exploration par vols habités de l’espace profond proche (Lune) et lointain (Mars). Après 45 ans de vols à seulement 400 km autour de la Terre (dernière mission lunaire, Apollo XVII, en décembre 1972), ce n’est pas trop tôt !

Ce qui est remarquable c’est que SpaceX ait accepté de relever le défi et que des personnes privées aient osé le lancer alors qu’aucun lanceur n’est encore prêt (le « Falcon 9 », lanceur de SpaceX est opérationnel mais beaucoup moins puissant que le « Falcon Heavy » nécessaire) et qu’aucune capsule n’ait encore été testée pour les vols habités (Dragon, capsule de SpaceX n’a effectué jusqu’à présent que des vols cargos jusqu’à l’ISS). On retrouve ainsi l’esprit d’aventure de John Fitzgerald Kennedy : entreprendre à la limite de ses possibilités et en accepter les risques. Mais ces personnes privées et Elon Musk ont raison car tout est « presque prêt » et donc possible. Voyons un peu plus les détails.

Le lanceur d’abord : le Falcon Heavy qui peut placer en LEO (orbite basse terrestre, d’où il s’élancera vers la Lune) 54 tonnes au lieu des 22,8 tonnes du Falcon 9, est « dans les cartons ». Ses moteurs sont testés (il s’agit des mêmes Merlin que ceux du Falcon 9, en service), la seule différence étant qu’ils sont trois fois plus nombreux (27) et qu’ils seront regroupés en trois ensembles de 9 (ce qui pose quand même un sérieux problème de « tuyauterie »). Le premier vol est prévu cet été.

La capsule ensuite : Dragon peut rapporter sur Terre 3 tonnes dans 11 m3. C’est donc ce dont disposeront les voyageurs (qui doivent revenir sur Terre !). Pour quelques jours et deux personnes (plus éventuellement un pilote mais ce n’est pas certain) c’est acceptable. Dragon devait transporter des astronautes jusqu’à l’ISS au printemps 2018. On ne fait donc qu’accélérer le processus (le plus difficile pour un lanceur étant de s’arracher à la gravité terrestre puis de revenir sur Terre), le vol vers l’ISS devenant un vol d’essai pour le tour autour de la Lune.

Quel est l’intérêt de ce vol circumlunaire ?

La réponse est facile : en tant que tel, aucun. Le fait de survoler la Lune suppose seulement de soulever une masse plus lourde au départ de la Terre (capsule + module de service + second étage pour quitter l’orbite terrestre) et c’est ce que doit permettre l’impulsion du Falcon Heavy par rapport à celle du Falcon 9. En tant que test des équipements, l’intérêt est par contre énorme car il permettra d’atteindre de nombreux « TRL » (Technology Readyness Level), essentiels pour aller plus loin. Ce sera excellent pour tester le lanceur (1er et 2nd étage) ; excellent pour tester le retour de la capsule à la surface de la Terre (problème crucial de la rentrée atmosphérique), excellent pour tester les équipements de support vie (« ECLSS » pour Environmental Control & Life Support System) même s’ils ne doivent être opérationnels que sur une période de courte durée (une semaine).

On n’est en effet pas encore sur Mars, ni même sur la Lune, car pour les missions lunaires ou martiennes le plus difficile (après le départ de / et le retour sur Terre), sera de se poser en douceur sur l’astre (freinage) et d’en repartir en s’extrayant du puits gravitationnel que constitue la planète Mars ou la Lune. De plus, à la différence de la mission lunaire la durée de la mission martienne posera aussi problème en raison de sa longueur (2 fois 6 mois de voyage et 18 mois de séjour) alors que l’on peut aller sur la Lune (ou en revenir) en trois ou quatre jours seulement et cela à tout moment dans l’année (N.B : le voyage lunaire ne suppose de parcourir que quelques 400.000 km au lieu de 600 millions de km). La durée posera non tellement un problème de nourriture (on peut emporter la masse nécessaire) mais surtout celui d’un recyclage fiable de l’atmosphère et de l’eau (pas de réapprovisionnement possible, au moins pendant les deux fois six mois de voyage) et de contrôle bactériologique du microbiome de l’habitat. Enfin pendant les missions martiennes le risque d’irradiation sera plus grand, non parce que les astronautes ne pourront pas être exposés à une éventuelle tempête solaire pendant une mission lunaire mais parce que ces missions martiennes seront plus longues et que l’exposition aux rayons cosmiques, « GCR », sera plus longue.

En fait, l’intérêt de ce vol circumlunaire sera surtout de lancer la mode des voyages privés et donc, on peut l’espérer, d’enrichir SpaceX. Comme le but d’Elon Musk est de coloniser Mars et qu’il a besoin de beaucoup d’argent pour ce faire, ces vols privés vont « apporter de l’eau à son moulin » en plus de ses autres entreprises (desserte de l’ISS, lancement de divers satellites en orbites terrestres, ou encore ventes de voitures Tesla).

Quid de la NASA ? On peut penser que sa direction aussi bien que ses employés vont être “piqués au vif” et vont vouloir faire aussi bien. L’émulation dans ce domaine comme dans d’autres a toujours été positive (c’est la concurrence avec les Russes qui a permis le programme Apollo). Elle est presque dans la même situation que SpaceX avec son lanceur SLS (70 tonnes en LEO) et sa capsule Orion (presque prêts!) mais c’est une grosse administration ; son fonctionnement est beaucoup plus lourd (et coûteux !) que celui de SpaceX et ses décisions politiques beaucoup plus lentes. Un point d’interrogation, le Président Trump qui semble un pragmatique, veut réduire les dépenses publiques et déteste les administrations et les grosses structures. Ne va-t-il pas profiter de l’essor de SpaceX pour réduire les ambitions de la NASA dans le domaine des vols habités dans l’espace profond (et réduire son budget) ? C’est bien possible. Mais si les privés prennent le relais, ce n’est pas grave, le principal c’est d’aller plus loin, « to boldly go where no man has gone before » comme disait le texte introductif de Star Trek.

Image à la Une: capsule Dragon (habitat et module (“trunk”) de service à l’arrière (crédit SpaceX)

Image ci-dessous: lanceur Falcon Heavy: vous remarquerez ses trois corps, chacun doté d’une propulsion de 9 moteurs Merlin (crédit SpaceX).

L’espoir de vie porté par les planètes de l’étoile Trappist-1 est extrêmement ténu

Le 22 février, la NASA a choisi comme à son habitude de dramatiser sa communication pour faire l’annonce d’un fait qui n’en méritait pas tant. Les « nouvelles Terres » découvertes ne sont pour l’instant que des planètes rocheuses d’une taille comparable à la Terre et elles orbitent autour d’une étoile peu lumineuse qu’on devrait autant comparer à Jupiter qu’au Soleil.

Certes la découverte n’est pas inintéressante puisqu’il était jusqu’à présent impossible d’identifier des exoplanètes aussi petites. La raison en était la trop grande luminosité des étoiles de type Soleil observées et la trop faible occultation causée par le passage (« transit ») de ces astres relativement minuscules entre l’étoile et nous-mêmes. La nouvelle approche qui consiste à viser les étoiles à faible luminosité a donc porté ses fruits et l’on a maintenant confirmation que ces petits astres sont communs (ce dont on pouvait quand même se douter). Un autre aspect intéressant de cette découverte, mais il est particulier au système Trappist-1, c’est que la proximité des sept planètes entre elles induit des relations de résonnances qui, combinées au fait qu’elles soient nombreuses et que leur année soit très courte (quelques jours terrestres seulement), augmentent fortement les fréquences d’interactions et a permis beaucoup de déductions en particulier sur les masses et les densités.

Sur le fond, le fait que ces planètes soient rocheuses à une telle distance de leur étoile n’est pas surprenant car l’astre émet comme tout autre un vent stellaire qui au cours du temps arrache forcément, à cette distance, les matières les plus ténues que sont les gaz atmosphériques. Que leur densité soit telle que leur teneur en eau puisse être élevée, est plus intéressant car cela, d’après les résonances qui les lient, pourrait témoigner d’une formation au-delà de la limite des glaces puis d’un rapprochement à l’étoile (par accrétion de la matière du disque protoplanétaire plus proche de l’astre). Que cette eau puisse être liquide sur trois d’entre elles (Trappist-1 « e », « f » et « g ») se déduit logiquement de leur distance qui permettrait la température adéquate, dans la mesure cependant où il subsisterait une atmosphère suffisamment dense pour en éviter la sublimation (>611 pascals).

De là à dire que ces planètes sont habitées ou même habitables, il y a un grand pas qu’il serait très prématuré de franchir.

Les facteurs contraires à cet espoir ne sont en effet pas nuls. L’étoile est une « pauvre petite » naine rouge, si petite en termes de masse (84 fois la masse de Jupiter* mais seulement 8% de la masse du Soleil) qu’elle génère juste assez d’énergie (0,05% de celle du Soleil) pour qu’on ne la classe pas dans la catégorie des naines brunes (qui ont une masse allant de 13 à 75 Jupiter – « Mj » – et qui de ce fait n’ont pu allumer le processus de fusion de leur hydrogène en hélium). Les conséquences « ne sont pas terribles » pour faciliter la vie. En effet, cette faible énergie implique que lors de sa naissance l’étoile a dû connaitre de très fortes irrégularités de fonctionnement (comme un moteur de faible puissance nourri par un fuel peu homogène du fait d’une pression insuffisante). Ces irrégularités ont dû se calmer avec le temps mais la faible distance à laquelle se trouvent les planètes situées en zone « habitable » (quelques 5% de la distance de la Terre au Soleil, soit moins de 10 millions de km (Mercure se trouve à environ 50 millions de km du Soleil !), les a exposées au début et les expose toujours quoique moins fréquemment, à recevoir de plein fouet les projections de radiations et de matières dues au fonctionnement (c’est-à-dire à la vie) de l’étoile. Ces projections sont d’autant plus destructrices que les planètes, trop proches, sont bloquées dans leur rotation par l’effet de marée gravitationnelle généré par l’étoile ; elles lui présentent donc toujours la même face (exposée en permanence à la rudesse du « jour »), l’autre restant dans l’obscurité et le froid d’une nuit éternelle, un peu adouci, éventuellement, par une atmosphère.

Cette situation a deux conséquences, pour une éventuelle activité biotique locale et pour une éventuelle visite humaine (pas tout de suite!).

Pour ce qui est de l’activité biotique locale, on ne peut conjecturer trop loin puisqu’on ne sait si les planètes de la “zone habitable” possèdent une atmosphère et de l’eau mais qu’on sait que l’environnement radiatif est très hostile. Par ailleurs, envisager qu’il suffirait de roches, d’énergie et d’eau liquide pour engendrer la vie est aller un peu (en fait beaucoup trop !) vite pour un phénomène si complexe dont on n’a qu’un seul exemple à ce jour. Pour ce qui est d’une éventuelle visite humaine, on ne peut pour l’instant la considérer sérieusement puisque le système Trappist-1 étant situé à 40 années-lumière, il faudrait parcourir quelques 400.000 milliards de km pour l’atteindre ! C’est dix fois plus que pour rejoindre Proxima Centauri (4 années-lumière). Si on parvenait à propulser une voile solaire à la vitesse de 20% de celle de la lumière (220 millions de km/h) comme veulent le faire les promoteurs du projet Breakthrough Starshot pour aller jusqu’à Proxima Centauri, il faudrait 200 ans de voyage pour aller jusqu’à Trappist-1 ! Autant oublier. Par contre on pourra bientôt voir plus avec les télescopes de dernière génération, notamment le JWST (NASA) qui sera envoyé dans l’espace (point de Lagrange 2) en 2018, pour remplacer Hubble. Enfin « voir » n’est pas vraiment le mot car les planètes sont trop proches de leur étoile mais on pourra détecter si elles possèdent une atmosphère, de l’eau et connaître leur température.

NB :

Premières données recueillies par le télescope belge TRAPPIST (pour TRAnsiting Planets and PlanetesImals Small Telescope, acronyme un peu « forcé » !), réflecteur de 60 cm situé à l’observatoire de La Silla (Chili) qui a fait les premières observations ; complément effectué par plusieurs télescopes dont le télescope spatial Spitzer (NASA) qui exploite le rayonnement infrarouge particulièrement porteur d’informations des objets froids.

Découvreur : Michaël Gillon (astronome de l’Uni. De Liège).

*Du fait de la contraction de la matière causée par la force gravitationnelle plus forte, le diamètre de l’étoile Trappist-1 n’est cependant que très légèrement supérieur à celui de Jupiter (163.000 km contre 140.000 km).

Document de référence : « Seven temperate terrestrial planets around the nearby ultracool dwarf star Trappist-1 », M. Gillon et al. in Nature, Feb. 23rd 2017 (doi :10.1038/nature21360 ; Macmillan Publishers Limited, part of Springer Nature).

Le sujet a été traité par ailleurs par Fabien Goubet dans le journal Le Temps daté du 23 février 2017 (page 10) sous le titre “En quête de la vie sur sept mondes”.

PS (25 février) : Je ne veux pas dans cet article déprécier la recherche menée par de brillants astronomes dans le monde entier et qui aboutit à un très beau résultat, l’identification d’une chaîne de planètes de taille terrestre à 40 années lumières de « chez nous », dans la zone habitable d’une étoile (zone définie seulement par sa température). Mais je veux critiquer la communication de la NASA qui joue sur la facilité et le spectaculaire pour ne pas dire la démagogie. Les observations et les déductions réalisées par les astronomes sont suffisamment remarquables, pour ne pas se sentir obligé « d’en rajouter » en parlant d’une vie hypothétique qu’il est bien prématuré d’envisager.

Image à la Une:

Image d’artiste de la vue qu’aurait un observateur à la surface de l’une des planètes du système de TRAPPIST-1. Crédit Image: ESO/M. Kornmesser/spaceengine.org.

Image ci-dessous : Ce qu’on a « vu » des planètes ; observations photométriques de Spitzer. La quantité de lumière diminue quand une planète passe devant l’étoile. Vous noterez qu’elle passe plus ou moins vite selon qu’elle est proche ou lointaine. Beaucoup d’autres conclusions peuvent être tirées de ces observations. La planète “h” est mal connue car elle n’a parcouru qu’une seule orbite pendant la période de l’étude. Graphe inclus dans le document de recherche mentionné ci-dessus.

Ce n’est pas l’eau qui manquera aux astronautes lorsqu’ils arriveront sur Mars !

Un dépôt récent, de plusieurs milliers de km3 de glace d’eau, a été identifié en dehors des pôles, dans l’Ouest d’Utopia Planitia. C’est ce que conclut un document de recherche publiée il y a peu (29 septembre) par Cassie Stuurman (Institute of Geophysics, University of Texas) et al. dans les Geophysical Research Letters,  sur la base de données recueillies par SHARAD, le radar embarqué par Mars Reconnaissance Orbiter qui tourne autour de Mars depuis 2006 et qui sonde son sous-sol immédiat.

Il en ressort que, sur les bords de cette « planitia », à des latitudes moyennes (40° à 50° de latitude Nord) dans les Basses Terre du Nord au contact des Hautes Terres du Sud (au Nord-Est de la région de Nili Fossae), se trouve un énorme inlandsis de glace d’eau, fragmenté, dont le volume est estimé à au moins 8.400 km3 et au plus à 14.300 km3 (le lac de Genève ne fait que 89 km3). Il s’étend sur 375.000 km2 et il a une épaisseur moyenne de 80 à 100 mètres, allant jusqu’à 170 mètres, sous une couche de régolite très fine puisqu’elle ne devrait pas dépasser un à deux mètres. Il ne s’agit pas d’eau pure ; elle est mélangée à de la poussière de laves volcaniques, mais la teneur en eau est élevée (de 50 à 85%). C’est considérable !

L’attention des chercheurs avait été attirée par un relief de mesas (tables surmontant un relief plus ancien), dans un paysage périglaciaire caractéristique comportant notamment des craquelures polygonales, des dépressions festonnées ou des cratères entourés de coulées de boue. Orienté sur cette zone, le radar SHARAD a identifié une diélectricité élevée (moyenne ɛ=2.8 +/- 0.8) du sol dans les mesas, jusqu’à un réflecteur sous-jacent correspondant au socle plus ancien sur lequel elles ont été déposées. La diélectricité est de plus en plus forte en s’enfonçant vers le socle. L’interprétation est que le matériau traversé jusqu’au socle, après une fine couche de poussière, ne peut être que de la glace d’eau (ɛ =3.6) légèrement poreuse, ou un dépôt lithique fortement poreux, ou encore un mélange de glace d’eau, de poussière et d’espaces poreux (ɛ =2). Le plus vraisemblable est que ce soit 30% de matériaux lithiques, 50 à 85 % glace d’eau et 15 à 50 % d’espaces poreux (vides). La glace d’eau étant plus importante vers le fond des mesas (et au contact du socle) et les espaces poreux vides, vers le haut.

La profondeur du réflecteur a été estimée par rapport au socle ancien visible entre les mesas (cf photo ci-dessous). Il est plus clair que les mesas et cratérisé, alors que la surface des mesas ne l’est pratiquement pas ce qui implique qu’elles ont été formées pendant l’Amazonien tardif (de 100.000 à quelques centaines de milliers d’années). A la surface des mesas on constate d’abondants signes de déflations (effondrements) du terrain. C’est l’indication que la glace superficielle a été sublimée plutôt qu’elle n’a coulé (il n’y a pas de traces d’écoulement) et qu’elle était plutôt pure puisqu’il reste peu de débris laissée par la sublimation (on ne peut exclure cependant que ces débris aient été emportés par le vent).

Ces réservoirs de glace d’eau sont, en surface, d’aspect similaire au « Latitude Dependent Mantle » (« LDM ») de glace qui recouvre la planète sur quelques décimètres sous le régolithe à diverses latitudes moyennes. Ils devraient donc remonter à la même époque (autrement ils se seraient totalement sublimés). Ils en diffèrent cependant par leur épaisseur. Les deux doivent avoir été déposés à l’occasion du dernier des changements d’obliquité (inclinaison de l’axe de rotation de la planète sur son plan orbital) qui interviennent, pour Mars, par cycles d’environ 120.000 ans et qui force la fonte des glaces polaires. En effet Mars à la différence de la Terre ne possède pas de gros satellite naturel comme la Lune, suffisant pour la stabiliser. Le phénomène qui résulte de l’influence des autres planètes sur son plan orbital et de la précession causée par le différentiel de force gravitationnelle du soleil s’exerçant sur la planète selon sa latitude, se produit lorsque l’inclinaison dépasse 30° (nous sommes actuellement à 25,1° et l’axe se redresse) ; elle varie de 14,9° à 35,5°. A noter que cette glace d’eau quasi atmosphérique (différente de celle qui reste dans le sous-sol profond) ne disparaît pas pour autant aux périodes « sèches » ; elle change simplement de place (plus ou moins concentrée aux pôles).

Alors, quelle peut être la cause de l’existence de ces mesas épaisses ? On ne la connaît pas encore mais elles doivent résulter d’un concours de circonstances, probablement un événement volcanique important survenu lors d’une obliquité forte. L’atmosphère épaissie par les rejets de gaz aurait facilité les précipitations de pluie ou de neige qui dans cette zone auraient pénétré un amoncellement de cendres fraîches où elles auraient ensuite gelé.

Ce genre de raisonnement est typique de l’étude géologique ou planétologique. On a des faits et on construit des hypothèses (ou, quand on peut, des modélisations) pour les expliquer. Les meilleures explications reçoivent ensuite confirmation par d’autres faits.

Les chercheurs estiment que l’inlandsis pourrait être plus étendu que les 375.000 km2 clairement identifiés car le même type de relief se prolonge sur une surface de quelques 1.000.000 de km2. Mais pour le moment la généralisation ne peut être confirmée puisque SHARAD n’a pas examiné la totalité de la zone et que, d’après les tendances observées, la teneur en eau semble s’appauvrir en allant vers l’Est.

Le radar SHARAD (SHallow RADar) a été fourni à la NASA par l’ASI, l’agence spatiale italienne (comme toujours ces missions sont internationales sous un leadership national) ; les opérations sont conduites par l’Université de La Sapienza, à Rome. Il pénètre les premières centaines de mètres du sol, jusqu’à 1 km (en fonction de la nature du sol).

Plusieurs conséquences sont à tirer de cette découverte :

(1) Les Basses Terres du Nord confirment leur vocation à être le réceptacle principal des eaux martiennes du fait de leur altitude basse (gravité et atmosphère plus épaisse);

(2) Les astronautes n’auront vraiment pas de difficulté à se procurer de l’eau sur Mars ;

(3) l’eau martienne accessible pourra faire l’objet de multiples utilisations, son hydrogène et son oxygène pourront servir, par réaction de Sabatier, à produire du méthane brûlant dans l’oxygène pour propulser les véhicules. L’oxygène pourra aussi servir à réapprovisionner les réserves atmosphériques des bases habitées (même recyclé l’oxygène des bases subira des pertes).

(4) Il peut y avoir un peu d’eau liquide sous la glace, ce qui, comme chacun sait, favorise les échanges biologiques. Cette eau n’a pu être biologiquement active que si le sol était déjà ensemencé par la vie mais au cas où des spores auraient été laissées par la glaciation précédente, elles auraient pu être réactivées (on évalue la capacité de survie des bactéries terrestres sous forme de spores, à plusieurs millions d’années).

Pierre Brisson

Source : Geophysical Research Letters, ‘SHARAD detection and characterization of subsurface ice deposits in Utopia Planitia, Mars” doi:10.1002/2016GL070138, publié le 29 septembre 2016.

Image à la une : exemple de thermokarst (sol riche en glace d’eau desséché en surface) observé au sol de Mars par la caméra HiRISE, à bord de Mars Reconnaissance Orbiter (NASA) . Vous noterez les lignes de dessiccation et l’effondrement du sol là où une grande quantité d’eau souterraine s’est sublimée.

Image ci-dessous : carte de la zone explorée, crédit image NASA/JPL-CalTech/Univ. de Rome/ASI/PSI (22/11/16). Les barres violettes montrent la profondeur des dépôts riches en glace telle qu’observés par SHARAD. Plus la couleur est foncée plus l’épaisseur est importante (variation de 170 à 10 mètres):

Image ci-dessous (crédit image NASA/JPL-CalTech/Univ. de Rome/ASI/PSI):

morphologie des surfaces explorées. On distingue bien le sol ancien (en clair) sur lequel se sont formées les mesas riches en glace (plus foncées):

Retour sur la Terre…et vers Mars

Après les incursions des semaines précédentes dans les immensités astronomiques extérieures à notre propre système stellaire, retournons dans notre environnement proche, celui de notre soleil nourricier. Nous voyons bien le confort qu’il nous offre (étoile de taille moyenne et de vie longue, née après les turbulences des origines et située dans l’anneau habitable de notre galaxie) et les événements extraordinaires qui ont permis dans sa zone habitable l’émergence de la vie : (1) rebroussement de Jupiter; (2) hydratation des planètes du système intérieur par la projection par Saturne repoussée par Jupiter, d’Uranus et de Neptune dans le réservoir de glace de la Ceinture de Kuiper; (3) stabilisation de notre planète et génération de marées importantes par une Lune relativement énorme; (4) déclenchement et maintien d’une dynamo interne génératrice d’une magnétosphère protectrice; (5) hydratation du manteau suffisante pour que sa ductilité permette l’amorce puis la perpétuation d’une tectonique des plaques favorisant la complexification des roches, l’entretien d’un volcanisme régénérateur continu de l’atmosphère et un bouillonnement chaud et nourricier au niveau des dorsales océaniques.

Nous habitons une planète extraordinaire dans un système stellaire improbable et sur cette planète une histoire également improbable a permis à une certaine époque, dans des conditions de températures et de pH particulières, compte tenu d’une longue évolution géologique et prébiotique préalable, qui ont aujourd’hui disparu, l’émergence d’un phénomène matériel autoreproductible tout à fait particulier que l’on appelle la Vie. Il a fallu ensuite toute une série d’évènements accidentels pour que cette vie évoluant selon des lois lui permettant l’adaptation à son environnement changeant, conduisent à l’apparition d’êtres conscients du monde et d’eux-mêmes, capables d’agir physiquement sur ce monde, de se déplacer pour s’organiser et entreprendre ensemble, de communiquer et de transmettre, que l’on appelle les hommes.

En sommes-nous bien conscients ? Nous rendons nous bien compte de la chance que nous avons, de la merveille que représentent notre corps et notre esprit issus de cette évolution erratique et imprévisible ? A regarder les trésors créés par nos civilisations depuis le début de l’histoire humaine on peut en tirer une réponse plutôt positive mais à regarder les horreurs également produites périodiquement par nos disputes et nos passions, en particulier pour des systèmes d’explications du monde irrationnels et insensés, on peut en douter. En fait depuis toujours le bien et le mal s’équilibrent à peu près. Et aujourd’hui les menaces de destructions totales sont de plus en plus grandes compte tenu du développement de nos technologies au service du mal comme du bien et compte tenu aussi du simple développement de la vie. Comment en effet anticiper sereinement qu’une dizaine de milliards d’hommes habite un jour ce monde déjà intensément exploité sinon pillé ? On voit déjà les effets de cette surpopulation et de cette suractivité sur la pollution des eaux et de l’atmosphère, et sur le climat. Dans quel état sera l’Afrique lorsqu’elle sera peuplée de deux milliards d’êtres humains ? Que sera devenue la grande forêt tropicale ? Et les girafes ? Faudra-t-il que tout aille encore beaucoup plus mal avant que nous devenions raisonnables ? Trop tard ?

Notre responsabilité à nous les hommes qui vivons aujourd’hui, est de ne pas baisser les bras. Il faut défendre nos acquis, il faut lutter contre le mal, il faut refuser les tendances et les pressions des porteurs des ignorances et des superstitions qui veulent les faire triompher au prix de la mort des autres, ou de ceux qui tout simplement se moquent de tout et qui pensent et disent « après nous le déluge ». Ce monde est autant le nôtre que le leur et nous ne devons pas les laisser le détruire ni les laisser embrumer les esprits qui s’éveillent. Il faut éduquer sans relâche, sans respect humain inutile et injustifié, faire progresser nos capacités technologiques pour vivre mieux en consommant moins les ressources rares dont nous disposons, et contrôler l’explosion démographique.

Maintenant il est possible que, malgré nos efforts, la brutalité et la bêtise soient victorieuses, définitivement ou temporairement mais pour plusieurs siècles. Nous avons l’expérience des âges sombres. Les Romains déjà nous ont montré à la fin du IVème siècle, que la tolérance ou la faiblesse, le doute dans ses propres valeurs, pouvaient conduire à la « compréhension », puis à la compromission, à la soumission, au renoncement et à l’abandon. Soyons intransigeants, « ne nous laissons pas faire », gardons la maîtrise de notre destin. Maintenant, si un jour tout s’avère perdu, et que nous nous retrouvions dans le contexte dans lequel se déroule le très beau film Interstellar de Christopher Nolan (2014) où l’on voit si bien la Terre finalement épuisée par l’homme, nous serions heureux de disposer d’une sortie, un espoir, une possibilité de survie, une arche de Noé pour certains d’entre nous. Cette possibilité, c’est Mars puisque malgré toute la dureté de son environnement et les défis technologiques qu’elle pose, cette planète est quand même la seule « Terre » de rechange qui s’offre à nous aujourd’hui.

Mars se trouve à portée de nos lanceurs et son aménagement à la portée de notre technologie. Il faudra longtemps avant qu’une éventuelle implantation humaine y devienne autonome mais il n’y a aucune autre alternative aujourd’hui disponible pour tenter cette bouture qui pourrait sauver les merveilles qu’a créées notre esprit. Alors, pourquoi ne décidons nous pas d’entreprendre une première implantation qui pourrait prospérer ? Il y a urgence ; nous le devons à nos « frères humains qui après nous vivront » (selon la belle expression de François Villon).

Image à la Une : photo extraite du film Interstellar de Christopher Nolan. L’actrice Jessica Chastain face à la catastrophe climatique.

Image ci-dessous : Mars, Crater Gale, sol 631, 16 Mai 2014, vue vers le rempart extérieur du cratère. Crédit image : NASA/JPL-CalTech/MSSS

Combien ça coûte ?

En voyant fleurir les projets de télescopes de nouvelle génération, beaucoup plus puissants que les précédents, l’on peut à juste titre se demander « combien ça coute ». La réponse est « pas aussi cher que ce que vous pouvez penser ».

Le premier des quatre VLT de l’ ESO* du Cerro Paranal (désert de l’Atacama), a couté 345 million de dollars (en 1998 i.e. 500 M d’aujourd’hui). L’E-ELT (ESO) du Cerro Amazones (Atacama), dont la construction a débuté en 2014 et dont la première lumière est attendue en 2024 devrait coûter 1,08 milliards d’euros (en 2012 i.e. 1,13 aujourd’hui). Le radiotélescope ALMA (NRAO, Etats-Unis ; ESO ; NRCC, Canada ; NAOJ, Japon ; ASIAA, Taiwan ; République du Chili) dont le réseau de 66 antennes de 12 et 7 mètres de diamètre se déploie actuellement sur le plateau de Chajnantor (Atacama), doit couter 1,4 milliards de dollars ; c’est le plus cher des systèmes d’observation à la surface de la Terre. Dans l’espace, le JWST (NASA + ESA*) qui doit remplacer Hubble devait coûter 1,6 milliards et coûtera finalement 8,8 milliards ; c’est le plus cher des systèmes d’observations opérant dans l’espace.

*NB : La Suisse est membre de l’ESO (European Southern Observatory) comme de l’ESA (European Space Agency).

On peut comparer ces coûts à ceux de la mission d’exploration robotique MSL (« Curiosity ») chiffrés à 2,5 milliards de dollars ou à ceux d’une mission habitée sur Mars, probablement une cinquantaine de milliards de dollars (à dépenser sur une douzaine d’années), ou au budget 2016 de la NASA, 19 milliards de dollars (0,5% des dépenses publiques de l’Etat fédéral américain), et à celui de l’ESA, 5 milliards d’euros. On peut aussi les rapprocher du prix du plus gros porteur d’Airbus, l’A380, qui est proposé, « sur catalogue », à 428 millions (l’équivalent d’un VLT).

Les dépassements successifs du budget du JWST ont fortement déplu aux décideurs politiques et trouver des financements pour les autres télescopes n’a jamais été chose facile. Mais au-delà du montant total, il faut bien voir que la réalisation (donc la dépense) s’étale sur une longue période, souvent une dizaine d’années (conception du télescope, préparation du terrain, conception et réalisation des instruments, construction – 4 ans pour l’E-ELT -).

Ensuite, pour tous ces actifs, l’amortissement se fait sur une durée longue. Il est difficile de prévoir l’obsolescence mais le temps d’utilisation des grands télescopes des années 1990 est encore l’objet d’une forte demande. Les constructeurs de l’E-ELT visent une durée de vie de trente ans, minimum. Le JWST et les autres télescopes spatiaux ont une durée de vie plus courte car on doit les alimenter avant leur lancement avec l’énergie nécessaire à leur fonctionnement et, pour certaines longueurs d’ondes, un liquide de refroidissement, mais leur durée de vie est quand même assez longue. Ainsi le JWST emportera la quantité d’énergie et de liquide de refroidissement nécessaires pour fonctionner pendant 10 ans.

Il faut donc voir ces grands télescopes comme des investissements qui certes coûtent cher mais qui représentent des montants acceptables dans notre système économique, d’autant qu’ils génèrent des revenus et offrent des retombées non directement chiffrables mais importantes. En effet, les propriétaires louent le temps d’utilisation très cher (en fonction de la demande qu’en expriment les universités, laboratoires ou centres de recherche). Les prix demandés peuvent couvrir une bonne partie des frais de fonctionnement et l’amortissement des équipements. La recherche nécessaire pour obtenir une optique satisfaisante, ou pour obtenir une informatique performante pour faire fonctionner les instruments peuvent aussi avoir des retombées dans d’autres domaines. Enfin les pays hébergeurs, comme le Chili ou Hawaï reçoivent du fait de ces installations, des paiements effectués pour la construction (infrastructure, transport) et pour l’hébergement des ingénieurs et des scientifiques. Ils peuvent aussi en profiter pour dynamiser leur propre activité scientifique y compris dans l’enseignement universitaire et créer pour leur propre population scientifique une intégration dans les cercles de recherche mondiaux les plus prestigieux et les plus productifs. Des régions totalement inhospitalières deviennent aussi des centres de ressources économiques, sans compter l’image de modernité qui peut aussi être exploitée pour d’éventuelle retombées touristiques.

Ces considérations économiques pourront peut-être adoucir les critiques de ceux qui pensent que toutes dépenses autres que celles ayant un objectif médical ou social, constituent un divertissement inacceptable. Il ne faut évidemment pas se faire d’illusions, l’humanité comprendra toujours une partie de sceptiques, de blasés, d’aveugles volontaires et de sectaires hostiles par principe. Le plus important étant que suffisamment d’hommes sur Terre soient convaincus du bien-fondé de cette recherche pour qu’elle continue. Pour cela il faut en parler.

Image à la Une : télescope JWST (image crédit NASA). Sous le télescope proprement dit avec son miroir segmenté de béryllium, on voit les feuilles du grand radiateur permettant de dissiper l’énergie thermique. La plateforme du télescope est située en dessous du radiateur (du côté éclairé).

L’Interférométrie, exhausteur des ondes électromagnétiques

La taille des télescopes est limitée par toutes sortes de contraintes alors que nous avons besoin de réceptacles d’ondes de plus en plus grands pour voir de plus en plus loin. L’interférométrie donne une réponse à ce problème en permettant de créer un réceptacle virtuel dont la taille est égale à la distance entre ses éléments constituants les plus éloignés.

Pour expliquer l’interférométrie (théorisée par Hippolyte Fizeau en 1850 puis Antoine Labeyrie en 1970), on pourrait dire que les ondes reçues en même temps par un miroir donnent l’image de l’objet qui les émet même si une partie du miroir est cachée. En fait la résolution sera la même que si le miroir a la dimension de la distance entre ses éléments extrêmes, la différence étant que la quantité de lumière étant moins grande, l’image sera moins nette. On peut étendre le raisonnement à deux ou plusieurs miroirs (ou antennes) regardant la même source lumineuse (ou ondes électromagnétiques en général) comme si ces différents miroirs ou antennes étaient des points d’un plus grand réceptacle. La difficulté posée par ce système de collecte qu’on pourrait dire « segmenté » ou ponctuel est de coordonner la réception des ondes (lumineuses ou autres) pour qu’elles soient « vues » en même temps (ou comme dise les astronomes, pour annuler leur « différence de marche »). C’est justement ce que permet l’informatique et c’est ce qui a permis de construire depuis peu des télescopes travaillant en interférométrie puis des réseaux de télescopes interférométriques (ce qu’Antoine Labeyrie nomme des « hypertélescopes »), de plus en plus grands, dans les domaines optiques aussi bien que millimétriques et radio. Les réalisations les plus remarquables (et les plus récentes) sont le VLTI et l’ALMA.

En optique le « VLTI » (« Very Large Telescope Interferometer ») de l’ESO, est composé des quatre miroirs de VLT de 8,20 mètres et de leurs quatre « petits » télescopes mobiles auxiliaires de 1,8 mètres, situés au sommet du Cerro Paranal, à 2635 mètres d’altitude dans les Andes du Nord du Chili. Combiner leurs lumières lui permet d’obtenir la résolution qu’aurait un télescope de 140 à 200 mètres de diamètre (selon la position des petits télescopes auxiliaires). L’hypertélescope fonctionne avec une optique dont le réglage est extrêmement délicat, la lumière de chaque télescope passant dans des « lignes à retard » pour compenser la différence de chemin que les ondes lumineuses parties en même temps de la même source, doivent parcourir pour atteindre chacun des télescopes. La précision est de l’ordre du milliardième de mètre.

En ondes radio, « ALMA » (« Atacama Large Millimeter/submillimeter Array ») est composé de 66 antennes de haute précision situées sur le plateau de Chajnantor, à 5000 mètres d’altitude, également dans le Nord du Chili. Il est le fruit d’une collaboration mondiale (ESO, NSF –Etats-Unis, NINS – Japon, NRC – Canada, NSC et ASIAA –Taïwan, KASI -Corée). C’est l’un des plus grands projets astronomiques en cours de réalisation (à côté du SKA et de l’EHT). Les ondes radio présentent une difficulté particulière par rapport aux ondes visibles, c’est que plus la longueur d’onde est grande moins la résolution est bonne et plus grande doit être l’antenne (une antenne ALMA de 12 mètres aura une résolution de 20 secondes d’arc tandis qu’un miroir de VLT de 8,2 mètres – ondes visibles – aura une résolution de 50 millisecondes d’arc). C’est sans doute pour cela que l’interférométrie s’est vite imposée pour l’étude de cette partie du spectre des ondes électromagnétiques. Dans le cas d’ALMA les distances extrêmes entre les antennes, pourront varier entre 150 mètres et 16 km. Au mieux, on pourra donc jouir de l’équivalent d’une antenne de 16 km (mais dans cette configuration, il y aura une densité d’antennes très faible et donc même si la résolution sera excellente, l’intensité des images sera faible).

l’« EHT » (« Event Horizon Telescope ») auquel travaillent Shepherd Doeleman et son équipe, veut pousser encore plus loin la logique du système, en utilisant plusieurs dispositifs interférométriques ensemble sur la même longueur d’onde (1,3 mm): le South Pole Telescope, ALMA, le Large Millimeter Telescope (Mexique), le Submillimeter Telescope du Mont Graham (Arizona), le James Clerk Maxwell Telescope, le Submillimeter Array (les deux à Hawaï) et l’antenne de 30 mètres de la Sierra Nevada (Espagne), le cœur du système étant constitué par ALMA. Plus les antennes seront nombreuses plus les images gagneront en netteté. Les données seront enregistrées sur chaque site puis recombinées par un supercalculateur, donnant des images que pourraient recueillir un radiotélescope de 11.000 km de diamètre (résolution d’une vingtaine de microsecondes d’arc (µas)).

Le but est de voir (indirectement par les effets qu’il cause) le trou noir de notre galaxie, Sagitarius A* (« SgrA* ») autour duquel elle tourne et qui est situé à 27.000 années-lumière. Le rayonnement de 1,3 mm permet de presque percer le rayonnement radio de SgrA* qui devient transparent à lui-même à partir de 1 mm (on espère ensuite passer de 1,3 à 0,8 mm).

On voit bien avec l’interférométrie les progrès énormes que va pouvoir faire l’astronomie. Au-delà de l’EHT, la perspective est évidemment de placer des flottes de télescopes ou d’antennes en orbite autour du Soleil. Cela viendra !

Image à la Une : le sommet du Mont Paranal avec son VLTI (crédit : ESO).

Image ci-dessous : Quelques unes des antennes d’ALMA (crédit ESO).