Dans sa politique spatiale le Président Trump a tout faux

Selon Robert Zubrin*, fondateur et président de la Mars Society, l’administration du président Trump perpétue l’erreur des administrations précédentes en n’assignant pas un objectif clair à la politique d’exploration spatiale. Il semble en outre que cette politique soit basée sur une mauvaise compréhension du contexte spatial, dans ses difficultés et ses opportunités. Ce faisant elle risque malheureusement de passer à côté de l’avantage considérable que lui offrent les innovations technologiques de SpaceX. Le résultat c’est que les Américains risquent de dépenser en vain pour n’aller nulle part.

Voici la traduction de ce qu’écrivait le Dr. Zubrin le 2 Mars 2018 dans la National Review, revue très lue et très influente dans les milieux conservateurs américains :

Un programme spatial axé sur un objectif?

Le 12 février, l’administration Trump a dévoilé son projet de budget pour la NASA. Alors que le financement total de 19 milliards de dollars n’est pas très différent des niveaux approuvés par les administrations Obama et Bush, ce projet a réussi à porter l’incohérence de la pensée de l’agence spatiale à des niveaux vraiment remarquables.

Un exemple particulièrement frappant d’illogisme est donné par la décision de l’administration d’annuler le télescope d’exploration infrarouge à grand champ (WFIRST) tout en persévérant vers la réalisation d’une station spatiale en orbite lunaire baptisée « Deep Space Gateway ».

WFIRST* est un télescope spatial de 2,4 mètres de diamètre doté de capacités supérieures à celles de Hubble, qu’on aurait pu mettre en orbite pour un budget exceptionnellement bas de 3 milliards de dollars en raison du don à la NASA par le « National Reconnaissance Office », d’un satellite espion excédentaire. Il permettrait des découvertes révolutionnaires d’exoplanètes et pourrait potentiellement révéler la vérité sur la nature de l’énergie sombre supposée être la cause de l’expansion de l’univers, et sur de nombreuses autres interrogations dans le domaine de l’astrophysique. Il a été approuvé et fortement soutenu en tant que priorité absolue par tous les conseillers scientifiques entourant le gouvernement.

*NdT: voir aussi mon article précédent “WFIRST pourrait nous éclairer sur le mystère de l’énergie sombre

Deep Space Gateway (récemment rebaptisé « Lunar Orbital Platform-Gateway »), quant à lui est un lamentable gâchis qui coûtera plusieurs dizaines de milliards de dollars et ne servira à rien. Nous n’avons pas besoin d’une station en orbite lunaire pour aller sur la Lune, sur Mars ou sur les astéroïdes proches de la Terre. Nous n’en avons besoin pour aller où que ce soit.

En orbite lunaire il n’y a rien à faire, rien à utiliser, rien à explorer. Il est vrai que l’on pourrait faire fonctionner des rovers à la surface de la Lune depuis son orbite mais l’argument selon lequel installer une telle station serait utile pour éliminer le délai de deux secondes nécessaires pour les contrôler depuis la Terre, est absurde. Nous sommes sur le point d’avoir des voitures autonomes sur Terre qui pourront gérer les conditions de circulation à New York et à Los Angeles et il y a beaucoup moins de trafic sur la Lune !

Pourtant, le problème avec Deep Space Gateway est beaucoup plus grave que le gaspillage de décennies en temps et de dizaines de milliards de dollars en bon argent. Le problème le plus profond est la forme de pensée qu’il représente.

Les programmes d’astronomie et d’exploration planétaire robotiques de la NASA ont réalisé des exploits qu’on peut qualifier d’épiques parce qu’ils sont axés sur des objectifs. En revanche, depuis la fin d’Apollo, le programme de vols spatiaux habités de la NASA n’a visé aucun objectif. En conséquence, ses réalisations ont été négligeables.

Si le but est de construire une base lunaire, elle devrait être construite sur la surface de la Lune. C’est là que se trouve la Science, c’est là que se trouvent les matériaux de protection contre les radiations, et c’est là que se trouvent les ressources nécessaires pour fabriquer les ergols propulseurs et autres choses utiles. Le meilleur endroit pour la construire serait à l’un des pôles car il y a dans ces régions de petites zones où la lumière du soleil est accessible tout le temps ainsi que des cratères dans l’obscurité perpétuelle où la glace s’est accumulée. Une telle glace pourrait être électrolysée pour fabriquer des propulseurs à hydrogène-oxygène, pour alimenter les véhicules de retour sur Terre ainsi que des « hoppers » balistiques qui fourniraient à l’équipage de la base un accès pour exploration à la plus grande partie du reste de la Lune. (Ndt : un hopper est un petit transporteur fonctionnant par réaction de gaz chauffés par panneaux solaires mis au point par Robert Zubrin pour usage sur Mars, à partir du CO2 de l’atmosphère).

L’administration Trump dit qu’elle veut retourner sur la Lune mais ses actions ne sont pas compatibles avec cet objectif. En plus de ce projet farfelu en orbite lunaire, son budget affecte 7,5 milliards de dollars au cours des trois prochaines années à la préparation du premier vol du Space Launch System (SLS) alors que nous avons déjà le Falcon Heavy de SpaceX qui peut emporter en orbite 70% de la charge utile du SLS pour un dixième du coût. Les mêmes fonds, s’ils étaient dépensés pour développer des atterrisseurs et des véhicules ascensionnels, pourraient permettre un retour sur la Lune dans quatre ans et des missions humaines sur Mars dans huit ans.

La situation est vraiment ironique. Avec le succès de Falcon Heavy l’Amérique pourrait dès maintenant être positionné sur une base solide pour une véritable percée dans l’exploration spatiale. L’argent disponible est suffisant. Ce qui manque, c’est une direction intelligente. Nous n’irons jamais sur Mars si nous laissons notre programme de vols spatiaux habités avancer au hasard.

La NASA n’est pas allée sur la Lune en incorporant dans son programme tout ce que les industriels et leurs représentants mettaient en avant comme éléments qui pourraient éventuellement servir. Elle y est allée en prenant fait et cause pour un objectif clair et en agissant en conséquence.

Au lieu de saboter les efforts scientifiques sains et motivés de la NASA, l’administration Trump devrait se concentrer sur une direction pareillement rationnelle, appliquée à un programme de vols spatiaux habités qui reste scandaleusement à la dérive.

Fin de traduction.

lien vers l’article en Anglais: https://www.nationalreview.com/2018/03/nasa-lunar-space-station-unnecessary-space-flight-plans-lack-purpose/

Commentaire :

Robert Zubrin exprime très clairement l’inanité du projet de station spatiale en orbite lunaire. On dirait que le concept sort de la tête de personnes qui ne connaissent rien au sujet traité. Si le projet est exécuté, le seul résultat sera d’avoir une deuxième Station Spatiale Internationale (ISS), à la différence que cette fois ci les astronautes qui l’occuperont seront beaucoup plus exposés aux radiations spatiales puisqu’elle sera située hors de la protection du champ magnétique terrestre. L’administration américaine voudrait dégoûter le grand public des missions spatiales habitées qu’elle ne s’y prendrait pas autrement. Par ailleurs ignorer les travaux et le succès d’Elon Musk est incompréhensible puisque, en même temps, SpaceX est un fournisseur apprécié de la NASA pour ses ravitaillements de la Station Spatiale et a prouvé avec son Falcon Heavy sa capacité à placer en orbite terrestre la charge utile que le SLS est incapable de lever alors qu’il est en préparation depuis le double de temps. Cette incohérence tend à confirmer que ce qui préoccupe l’administration américaine c’est avant tout de soutenir l’emploi dans l’industrie spatiale quel que soit l’objet auquel cette industrie applique ses efforts (et notamment la mise au point du SLS). C’est assez lamentable.

*NB : Robert Zubrin détient un MS en Aéronautique et Astronautique et un Ph.D en Ingénierie nucléaire (Uni. de Washington). Il a été membre de l’équipe de la société Lockheed Martin (constructeur des fusées Apollo) chargée de développer ses stratégies d’exploration spatiale. Il a été également “senior engineer” chez Martin Marietta Astronautics (successeur de Lockheed Martin) en charge du développement des concepts avancés de missions interplanétaires. Il a fondé la Mars Society en 1998 et a écrit de nombreux ouvrages sur la faisabilité des missions habitées sur Mars (notamment « The Case for Mars » en 1995). Il est aujourd’hui entrepreneur indépendant : président de Pionneer Astronautics, société de recherche et développement dans les technologies aérospatiales et à ce titre fournisseur de la NASA ; président de Pionneer energy, société de recherche et développement dans le pétrole et les ergols de synthèse. A ce titre il a mis au point une technologie écologique innovante de récupération des gaz non traités lors de l’exploitation des gaz de schistes.

Image à la Une: Projet “Lunar Orbital Platform Gateway”, vue d’artiste, crédit Lockheed Martin.

Image ci-dessous: concept ESA d’une base lunaire avec habitat réalisé en impression 3D avec du régolite lunaire (vue d’artiste, credit ESA):

 

 

WFIRST pourrait nous éclairer sur le mystère de l’énergie sombre

Selon la théorie la plus communément admise en cosmologie, mais pas par « tout le monde », la matière « ordinaire » (baryonique) ne constitue que 4,9% de la masse de l’Univers. Se pose dès lors le lancinant problème de la nature et de la localisation de « tout le reste ». On a déduit, sans pouvoir le confirmer par observation, qu’il se compose d’« énergie sombre » (68,3%) et de « matière noire » (26,8%). Le télescope WFIRST de la NASA a été conçu pour nous aider à élucider ce mystère.

L’origine de cette déduction vient de ce que plusieurs faits observés ne concordent pas avec ce qu’ils devraient être en application des théories de la cosmologie classique. Par exemple l’expansion de l’univers, qui semble accélérer ou encore la vitesse de rotation des galaxies, plus rapide en leur périphérie qu’elle devrait l’être. C’est cela qui a conduit les astrophysiciens et les physiciens dans leur immense majorité*, à adhérer à l’hypothèse de l’énergie sombre** dans le premier cas et de la matière noire** dans le second.

**Energie sombre: supposée en 1998 par Huterer et Terner; présente partout, elle induirait une sorte d’antigravité;

**Matière noire: supposée en 1933 par Fred Zwicky puis en 1970 par Vera Rubin; localisée, elle « alourdirait » les galaxies d’une masse invisible.

*Seules quelques voix discordantes dont celle d’André Maeder (voir ci-dessous) s’élèvent contreElles sont très minoritaires, au moins pour l’instant.

Il n’est pas question de « voir » l’énergie sombre ou la matière noire mais d’en constater les effets, avec autant de précision que possible, et sur des objets différents, afin de la comprendre. Pour en démontrer la réalité et en percevoir la nature, les tenants de cette théorie doivent donc utiliser les moyens dont ils disposent c’est-à-dire les ondes électromagnétiques que l’on reçoit et parmi elles celles qui sont les plus pertinentes c’est-à-dire celles qui mettent le mieux en évidence les « anomalies » qu’ils recherchent.

WFIRST (« Wide Field Infrared Survey Telescope », en français « Télescope d’étude infrarouge grand-champ ») a été conçu principalement pour cela. Il s’agit d’un télescope qui capterait les longueurs d’onde de l’infrarouge proche (juste un peu plus longue que celles du spectre visible) jusqu’à 2 µm et qui étudierait plus finement les variations à travers le temps exprimées par ces rayonnements, du taux d’expansion de l’univers. Les télescopes à infrarouge ont une capacité différente des télescopes à lumière visible ou à rayons X puisqu’ils ne voient pas les sources chaudes, les plus énergétiques, mais les sources froides (on devrait dire « moins chaudes »). Ils peuvent nous donner beaucoup plus d’informations que les autres télescopes à ondes plus courtes puisqu’ils repèrent beaucoup mieux la multitude d’objets lointains « ordinaires » qui s’enfuient à grande vitesse de nous (effet Doppler-Fizeau) du fait de l’expansion de l’univers. Par ailleurs la localisation dans l’espace de WFIRST permettrait de ne pas souffrir de l’absorption de ces rayonnements par les gaz et l’humidité atmosphérique. Le grand-champ (100 fois celui de Hubble !) serait d’autant plus utile que l’on ne recherche pas à voir un astre précisément mais plutôt des environnements au travers de ces astres pour les comparer. Pour étudier les effets de l’énergie sombre via le taux d’expansion, ses promoteurs veulent mesurer les « oscillations acoustiques des baryons »* ou la distance de luminosité des supernovæ de type « 1a » (à explosions thermonucléaires ≠  des supernovæ à implosions du fait de l’effondrement de leur cœur) dont la luminosité absolue est connue, et étudier les lentilles gravitationnelles faibles, sur la plus grande profondeur possible de l’espace. Selon la distance, les effets de l’énergie sombre doivent avoir varié pour des masses semblables compte tenu de l’accélération de l’expansion sur la durée.

*avant la période dite « de recombinaison », des ondes acoustiques se propageaient dans le plasma primordial. On retrouve les effets de ces ondes étirées par l’inflation cosmique dans la distribution de la matière au sein des amas de galaxies.

WFIRST pourrait certes ne pas confirmer la tendance à l’accélération mais ce n’est pas le plus probable. Alternativement, la confirmation de l’expansion accélérée mais avec des résultats non concluants en ce qui concerne les effets d’une énergie sombre ou d’une matière noire sur la matière baryonique donnerait toutes ses chances à la théorie sur les propriétés du vide développée par André Maeder, publiée en janvier 2017 dans « The Astrophysical Journal ». André Maeder, professeur émérite à l’Université de Genève, ne nie pas la réalité de l’accélération, bien au contraire, mais considère qu’elle devrait être « simplement » une conséquence du vide à grande échelle (dans le cadre duquel les règles de la relativité générale s’appliquent), en prenant pour hypothèse « l’invariance d’échelle du vide », hypothèse selon laquelle l’espace vide a les mêmes propriétés à quelque échelle qu’on le considère. Et dans ses calculs, cette invariance fait apparaître un terme très petit d’accélération de l’expansion qui s’oppose à la force gravitationnelle…Juste ce que l’on recherche ! Toute énergie sombre ou matière noire deviendraient donc inutiles pour expliquer l’accélération. Les personnes intéressées peuvent lire sa démonstration dans l’étude scientifique vers laquelle je donne le lien ci-dessous.

WFIRST, projet du Goddard Space Center de la NASA depuis la revue décennale de 2010 (« Decadal Survey » du « National Research Council » de la « National Academy of Sciences ») a bénéficié de l’offre d’un miroir gratuit de la NRO (« National Reconnaissance Office ») qui n’en a plus l’usage par suite de l’abandon d’un projet de satellite espion pour qui il avait été construit. Le miroir, de type Richtey-Chrétien comme celui de Hubble, est plus grand que celui prévu à l’origine (2,4 mètres, comme celui de Hubble, contre 1,5 mètres) et gratuit. Cela abaisse évidemment fortement le coût de l’ensemble, ramené à 1,7 milliards de dollars (contre 2 milliards pour Hubble, mais en 1990). Il serait doté d’un imageur grand-champ, d’un spectromètre et d’un coronographe (pour occulter les sources lumineuses trop violentes par rapport aux sources froides recherchées). Il aurait une masse de 7,5 tonnes à laquelle il faudrait ajouter trois tonnes d’ergols nécessaires à la circularisation de l’orbite d’observation et aux ajustements de cette orbite durant les six ans de la mission.

WFIRST serait positionné de préférence au point de Lagrange L2, en opposition au Soleil (dans l’ombre perpétuelle de la Terre), où la température est froide et stable et la pollution lumineuse du soleil absente. Alternativement (antérieurement) il aurait pu être positionné en orbite géostationnaire de la Terre.

WFIRST a des objectifs accessoires (mais importants pour justifier la mission vis-à-vis des décideurs), notamment l’observation des exoplanètes en exploitant l’observation des lentilles gravitationnelles faibles (puisque les planètes sont des sources froides et que le télescope disposerait d’un coronographe très innovant par son adaptabilité à la surface stellaire devant être occultée) ; un passage de planète devant l’étoile en premier-plan entraînant une augmentation de la masse de l’ensemble et donc un accroissement de son effet de lentille. C’est intéressant pour les planètes se situant à plus de 0,5 UA de leur étoile car cela comblerait un manque : on observe généralement, par la méthode du transit ou des oscillations radiales, plus facilement les planètes plus proches de leur étoile et avec les coronographes classiques les planètes beaucoup plus lointaines (40 UA) de leur étoile ; or les planètes « habitables » (celles que l’on recherche en priorité) doivent se situer ni trop loin, ni trop près de leur étoile (la température doit permettre l’eau liquide en surface).

Le projet a été validé en février 2016 et le lancement pourrait avoir lieu mi-2020. Malheureusement le dernier budget de la NASA proposé par la nouvelle administration américaine veut y mettre fin car elle a « d’autres priorités ». En fait le gouvernement américain lance la NASA sur le projet ultra-coûteux et a priori totalement inutile mais spectaculaire, de station spatiale en orbite autour de la Lune (« Deep Space Gateway » devenu « Lunar Orbital Platform-Gateway »). Beaucoup de beaux projets risquent d’être sacrifiés à ce « machin » sans aucun intérêt qui n’est que la continuation de l’ISS dans un environnement plus hostile. Il reste un espoir, le refus du Congrès de suivre la proposition du gouvernement.

NB : Après de nombreuses vicissitudes (y compris à cause des retards et des augmentations de coût du JWST, successeur de Hubble), la NASA a finalement accepté d’aller de l’avant et décidé, en Mars 2020, d’allouer un budget de 3,3 milliards pour le projet. Ce montant permettra la réalisation du télescope, son lancement (en 2025) et 5 ans de fonctionnement.

Illustration de titre : représentation artistique du télescope WFIRST (crédit NASA, Goddard)

Liens :

“An alternative to the ΛCDM model: the case of scale invariance”, par André Maeder, dans “The Astrophysical Journal”:

http://iopscience.iop.org/article/10.3847/1538-4357/834/2/194/meta

article paru dans Le Temps sur l’étude d’André Maeder :

https://www.letemps.ch/sciences/un-professeur-genevois-remet-question-matiere-noire

Article de Huterer et Terner sur l’énergie sombre:

https://arxiv.org/pdf/0803.0982.pdf

articles de la NASA sur le projet WFIRST:

https://www.nasa.gov/feature/goddard/2017/nasa-s-next-major-telescope-to-see-the-big-picture-of-the-universe

https://wfirst.gsfc.nasa.gov/

PS : Je salue Stephen Hawking avec respect, admiration et émotion. Il a démontré de la façon la plus brillante la domination de l’esprit sur la matière. Il est un exemple pour tous.

Sur le plateau aride de Chajnantor, les antennes d’ALMA sont en fleurs

Les sources froides de rayonnements électromagnétiques spatiales sont maintenant à notre portée sur Terre, grâce à la forêt de télescopes fonctionnant en interférométrie à 5000 m d’altitude sur le plateau de Chajnantor. On ne sait ce qu’il faut admirer le plus, les technologies employées pour mettre en place le dispositif ou la technologie qu’il utilise pour observer l’univers.

ALMA (pour « Atacama Large Millimeter/submillimeter Array ») capte les ondes de longueurs allant de 0,32 à 3,6 mm. Ces ondes se situent entre les infrarouges et les ondes radio. Elles transmettent de l’information sur les objets les plus froids de l’univers, très faiblement visibles ou souvent cachés par des émissions plus chaudes, donc tout ce qui est nuage de gaz et de poussière intersidéraux, astres en formation, ou objets très lointains (premières galaxies, dont le décalage important vers le rouge est dû à la vitesse d’éloignement résultant de la distance).

Malheureusement ces ondes sont difficiles à observer car leur rayonnement est absorbé par la vapeur d’eau contenue dans l’atmosphère terrestre. On a donc recherché pour installer nos capteurs, l’endroit le plus haut (l’atmosphère la moins épaisse) et le plus sec qui pouvait être aménagé sur Terre* et on a choisi le haut-plateau de Chajnantor dans le désert d’Atacama, qui est effectivement extrêmement aride et élevé. L’endroit est heureusement relativement accessible car proche de la ville principale du Nord du Chili, Antofagasta, et du village de San Pedro de Atacama (50 km). Il est aussi proche du Cerro Paranal où sont implantés les Very Large Telescope (« VLT ») de l’ESO (European Southern Observatory).

NB : Mars de ce point de vue constituerait un emplacement idéal pour un futur interféromètre géant, et ce serait une des justifications pour que des hommes aillent s’y installer.

Pour les capteurs, pas question de miroirs donc de télescope à proprement parler puisque les ondes reçues ne sont pas dans le spectre du visible, mais des antennes. Le problème c’est que plus la longueur d’onde est grande (ce qui est le cas quand on s’éloigne des ondes visibles vers les ondes radios) moins la résolution est bonne et plus grande doit être l’antenne. Il faut donc chercher à combiner la lumière de plusieurs capteurs entre eux et c’est pour cela que l’interférométrie s’est vite imposée pour l’étude de cette partie du spectre des ondes électromagnétiques.

Pour ALMA le dispositif choisi est un ensemble gigantesque constitué de soixante-six antennes, soit cinquante, mobiles, de 12 mètres de diamètre, quatre antennes, en formation compacte, du même diamètre et douze antennes de 7 mètres. C’est la plus grande installation astronomique réalisée au sol (à part SKA qui est actuellement en cours). Les antennes peuvent être utilisées ensemble comme un seul télescope, selon différentes configurations allant de l’équivalent d’un diamètre de 150 m à celui d’un diamètre de 16 km, ce qui permet de considérer le dispositif comme un zoom. Dans la configuration 16 km il y aura une densité d’antennes très faible et donc même si la résolution sera excellente, l’intensité des images sera faible.  Dans l’arrangement le plus compact des antennes (qui donne l’équivalent d’un diamètre d’environ 150 mètres) les résolutions vont de 0,5 secondes à 4,8 secondes d’arc (selon la fréquence des ondes) ; dans l’arrangement le plus étendu (diamètre de 16 km) la résolution va de 20 millisecondes d’arc (« mas ») à 43 mas. A titre de comparaison la résolution d’un miroir de 8,2 mètres du VLT (ondes visibles) est de 50 mas (mais le VLT fonctionne aussi en interférométrie, dans sa gamme d’ondes électromagnétiques). Les signaux reçus par les antennes sous forme analogique, sont convertis en données numériques puis traitées par un superordinateur (le « corrélateur »), un des plus puissants au monde, cerveau du dispositif, couplé à un oscillateur équipé de deux horloges atomiques qu’on peut comparer, au cœur du système.

Lancé il y a une vingtaine d’année, l’observatoire a requis des travaux considérables qui ont commencé sur place en 2008. Il fallait concevoir et construire les antennes, les acheminer (elles sont très lourdes -100 tonnes pour les plus grosses – et volumineuses) dans un endroit sans route et créer, outre les infrastructures nécessaires à leur fonctionnement individuel et en formation (apport en énergie, dispositif de commandes, de combinaison des ondes reçues, traitement de l’information), celles qui sont indispensables à la vie. Compte tenu de l’altitude, les astronomes, astrophysiciens, ingénieurs et le personnel (150 personnes en continu) ne séjournent pas sur le plateau mais à 2000 mètres en dessous (et à 30 km de distance) dans une base-vie ultra-moderne, semi-enterrée (pour faciliter la climatisation). La « Résidence », remise à l’administration de l’observatoire en avril 2017, au cœur d’un ensemble technique nommé l’« ALMA operation support facility » (OSF) est dotée de tout le confort moderne, y compris une piscine pour aider à supporter la sécheresse extrême. Elle sera complétée par un centre sportif couvert et également semi-enterré, dont la construction vient de commencer (2 mars 2018). Malgré tout, la réalisation du projet n’a coûté que 1,4 milliards de dollars (c’est aussi le coût de la première phase de l’ELT, également dirigé par l’ESO, en cours de construction au Sud d’Antofagasta).

Comme toujours maintenant, ces gros projets sont des « joint-venture » multinationales faisant appel à des compétences et des contributions mondiales. Le financement, outre l’ESO, a impliqué la NSF (National Science Foundation) aux États-Unis, le Conseil national de recherches du Canada (CNRC), le National Science Council (NSC) et l’Academia Sinica (AS) à Taïwan, et les National Institutes of Natural Sciences (NINS) au Japon. La construction et la mise en service ont été réalisées par le JAO (Observatoire Commun ALMA) émanation de l’ESO, de l’Observatoire national de radio astronomie aux États-Unis (NRAO) et de l’Observatoire national d’astronomie au Japon (NAOJ). Le JAO reste chargé des opérations. La Suisse, membre de l’ESO est très présente. Un des parrains du projet sur le plan conceptuel, est le professeur Georges Meylan, ancien directeur du laboratoire d’astrophysique à l’EPFL. Plusieurs docteurs de l’EPFL ont travaillé avec lui sur le projet et de nouveaux doctorants suisses l’utilisent aujourd’hui (Le Professeur Meylan était le Délégué scientifique Suisse au conseil de l’ESO jusqu’en 2015 et son successeur, Willy Benz, professeur de physique et d’astrophysique à l’Uni de Berne, a été nommé en décembre 2017 Président du board de l’ESO ; il est à ce titre membre du board de l’ALMA).

L’inauguration de l’observatoire a eu lieu en 2013 car il n’était pas nécessaire d’attendre l’implantation de toutes les antennes pour commencer à travailler (simplement l’intensité des images n’était pas à son maximum). L’exploitation a donc commencé et la demande de temps d’observation étant très forte, les promoteurs ont commencé à amortir leur investissement. Nous en sommes maintenant au cinquième cycle (annuel) de recherche. En Novembre 2017 le board de l’ALMA annonçait qu’on avait atteint ce que les astronomes appellent le « steady level » c’est-à-dire une configuration suffisante pour mener toute la gamme d’observations possibles. C’est une nouvelle phase d’exploration de l’univers qui commence, en parallèle avec celles menées par les autres capteurs travaillant dans d’autres longueurs d’onde, comme les VLT voisins ou l’ELT (qui ne doit être achevé qu’en 2025).

D’ores et déjà ALMA a fourni des résultats spectaculaires : images de disques protoplanétaires qui permettent de mieux comprendre l’évolution de ces disques vers la formation de planètes ; observation d’anneaux d’Einstein (autour de lentilles gravitationnelles) avec une précision inégalée ; détection de molécules organiques complexes jamais détectées dans des disques protoplanétaires lointains.

Avec ALMA la « panoplie » d’instruments permettant de voir toujours plus loin et plus clair, se complète et nos découvertes s’étendent tout en nous posant toujours plus de questions passionnantes.

Lien vers le site ALMA de l’ESOhttp://www.eso.org/sci/facilities/alma.html

Image à la Une : représentation du système ALMA, crédit ESO ;

Image ci-dessous : transporteur d’antennes ALMA. Crédit ESO/NAOJ/NRAO

MUSE affine la perception que nous avons de l’Univers lointain

L’instrument MUSE de l’ESO vient d’observer le champ ultra profond de Hubble (« HUDF ») et il a confirmé sa capacité extraordinaire de discernement ainsi que la rapidité avec laquelle il peut la mettre en œuvre. Il porte notre regard plus précisément que jamais vers les premières galaxies.

Le HUDF (Hubble Ultra Deep Field) qui se trouve dans la constellation du Fourneau et a été photographié (on pourrait dire « découvert ») de septembre 2003 à janvier 2004 par le télescope spatial Hubble, est observable de la Terre à partir de l’hémisphère Sud et notamment par les grands observatoires situés dans le Nord du Chili dont le VLT (Very Large Telescope array) de l’ESO (European Southern Observatory). Ce « coin » de ciel extrêmement petit (il couvre 2,5 minutes d’arc soit 1/30 millionième de la surface du ciel) a été choisi parce qu’il était particulièrement vide c’est-à-dire qu’il permettait de voir extrêmement loin au travers d’un minimum d’obstacles dans un environnement bien sombre (sans pollution lumineuse). Le HUDF se distingue des deux HDF (Hubble Deep Field), précédemment observés à partir de l’hémisphère Nord (« N ») dans la constellation de la Grande Ourse en 1995 et à partir de l’hémisphère Sud (« S ») dans la constellation du Toucan en 1996. En regardant dans les HDF on n’a pu atteindre « que » 12,7 milliards d’années-lumière d’éloignement. En regardant dans l’HUDF en utilisant la puissance du VLT et les « améliorations » détaillées ci-dessous, on peut atteindre la distance prodigieuse de 13,4 milliards d’années (l’âge de l’univers est estimé à 13,8 milliards) et on parvient à la limite de ce qu’il est possible de voir en lumière visible. En effet plus on regarde loin, plus la lumière nous arrive rougie du fait de l’effet Dopler-Fizeau car les ondes électromagnétiques émises sont distendues par la vitesse d’éloignement du fait de l’expansion de l’Univers. Cette vitesse est d’autant plus grande que la source est lointaine et, à ces distances, la vitesse approche celle de la lumière. Plus éloignées, dans l’infra-rouge, elles ne sont plus à strictement parler « visible » mais on peut les observer par des instruments spécifiques capables de les capter.

MUSE (Multi Unit Spectroscopic Explorer) vient d’observer, en Novembre 2017 (voir * communiqué ESO ci-dessous), l’HUDF à partir de la plateforme Nasmyth de l’unité (« UT ») 4 du VLT. En service depuis 2014, il avait déjà été utilisé pour étudier le HDF-S. Ce qu’il apporte c’est une vision différenciée simultanée de chaque point de lumière. On obtient ainsi non seulement une image mais aussi une vitesse d’éloignement, le sens du mouvement et encore un spectre donnant la composition chimique du point observé, en résumé une véritable carte physico-chimique du ciel en 3D. On peut même distinguer plusieurs objets qui apparaissaient fusionnés car leur lumière avait en réalité des sources différentes et ces différences peuvent désormais apparaitre instantanément. MUSE est aussi particulièrement sensible à la longueur d’onde de l’hydrogène (dite ligne « Lyman-alpha ») qui est celle des astres primordiaux (avant « la production » d’éléments plus lourds par l’explosion des plus grosses étoiles, l’Univers ne comprenait que des éléments légers, de l’hydrogène surtout et un peu d’hélium). On voit donc les lumières d’astres qui n’apparaissaient pas sur les photos précédentes (jusqu’à une luminosité 100 fois plus faible). On a pu aussi remarquer que les galaxies les plus anciennes étaient entourées d’un halo de gaz d’hydrogène ce qui ouvre des pistes de recherche sur les flux de gaz vers et hors des galaxies pendant cette période critique de formation. A noter que ce qui est applicable aux galaxies très lointaines l’est aussi pour les astres plus proches dont on peut percevoir davantage de caractéristiques, notamment leur rotation qui est un élément d’analyse très important (on peut en déduire leur masse).

Avant MUSE les observations de chaque source lumineuse devaient être faites séparément pour être caractérisées (et on devait choisir de le faire) ; avec MUSE on obtient une vue simultanée des sources lumineuses et de leurs spectres (on parle de « spectroscopie intégrale de champs ») et on peut donc directement voir leurs rapports. Outre les évaluations relatives des objets, l’avantage est la rapidité. Le premier champ profond cartographié (HDF-S) l’a été en 27 heures au lieu des centaines précédemment nécessaires. Dans ce champ MUSE distingue 90.000 pixels et pour chacun d’entre eux, il peut encore distinguer entre 4000 longueurs d’onde (montrant chaque pixel « dans les différentes couleurs » de son spectre).

L’instrument comporte 24 spectrographes fonctionnant simultanément et refroidis à l’azote liquide à -130°C (pour la stabilité de l’image). Il vient récemment (août 2017) de bénéficier d’une amélioration dite « AOF » (pour « Adaptative Optics Facility upgrade ») qui compense l’effet de flou causé par l’atmosphère terrestre, même à l’altitude de 2635 mètres où est situé le VLT, et donne une image beaucoup plus nette. L’AOF calcule 1000 fois par seconde les corrections qui sont immédiatement appliquées pour changer la forme du miroir secondaire (déformable) pour prendre en compte les turbulences atmosphériques perçues jusqu’à 1 km au-dessus du télescope, ce qui couvre la majorité de ces turbulences (d’autres améliorations sont prévues).

MUSE est le fruit d’un consortium piloté par le Centre de recherche en astrophysique de Lyon (CRAL – CNRS/Université Claude Bernard-Lyon 1/ENS-Lyon). Le Consortium, où la Suisse est représentée, est dirigé par l’astrophysicien Roland Bacon du CNRS/CRAL. Il comprend l’ESO, le Leiden Observatory (NOVA – Pays-Bas), l’Institut de recherche en astrophysique et planétologie (IRAP – INSU-CNRS/Université Paul Sabatier ; Observatoire Midi-Pyrénées), l’Institut für Astrophysik (Georg-August University of Göttingen – Allemagne), l’Institute for Astronomy à l’ETH, Zurich et l’Astrophysikalisches Institut Potsdam (Allemagne).

En astronomie, comme en astronautique, nous sommes en pleine phase de progrès technologique et les avancées possibles dans la connaissance de notre Univers sont considérables. Cela devrait passionner et attirer bien des jeunes à la tête bien faite et à la recherche d’aventures.

Liens :

Communiqué ESO du 29 Nov. 2017 (*) : https://www.eso.org/public/news/eso1738/

Numéro spécial d’Astronomy & Astrophysics (dont papier introductif en accès libre): https://www.aanda.org/component/toc/?task=topic&id=868

Contribution ETH Zürich : https://www.phys.ethz.ch/carollo/research/vlt-muse.html

documentaire réalisé par le CNRS sur la conception et la réalisation de MUSE. A voir absolument (et à diffuser largement!) pour bien comprendre l’enthousiasme justifié des chercheurs: http://videotheque.cnrs.fr/visio=6300

Image à la Une :

HUDF dans les longueurs d’onde allant de l’ultra-violet au proche infra-rouge. Crédit: ESO/MUSE équipe HUDF

Images ci-dessous, crédit ESO/MUSE équipe HUDF :

Instrument MUSE, partie « avant », vers le miroir:

Instrument MUSE, partie « arrière », vers les opérateurs (NB: vous pouvez remarquer le nom de l’ETF sur le panneau de coordination du haut de l’appareil):

Exoplanètes, des chercheurs de l’ETHZ veulent resusciter le projet DARWIN. Soutenons les!

En 2007 le projet DARWIN d’observation des exoplanètes de taille terrestre par un groupe de télescopes spatiaux interférométriques était abandonné par son promoteur, l’ESA. Aujourd’hui des chercheurs de l’ETH de Zürich mettent en évidence l’intérêt qu’aurait la reprise d’un projet comparable, compte tenu des observations accumulées par la mission Kepler.

Le positionnement de DARWIN dans l’espace était justifié pour pouvoir utiliser des longueurs d’ondes dans l’infra-rouge moyen (« MIR » pour « Mid-InfraRed ») difficilement accessibles ou non accessibles (selon la longueur d’onde) à partir du sol en raison de l’écran atmosphérique terrestre alors que c’est précisément dans ces longueurs d’onde que les exoplanètes réfléchissent le plus de rayonnements électromagnétiques. Le recours à cette gamme de longueurs d’onde facilite ainsi leur observation directe. Il est d’autant plus utile que, dans ce cadre, la différence d’intensité entre le rayonnement d’une étoile et celui de ses planètes est moins importante de plusieurs ordres de grandeurs.

Le choix de l’interférométrie a pour objet de permettre la combinaison des rayonnements reçus d’une même source par plusieurs petits télescopes en formation (dans le cas de DARWIN, minimum trois, maximum neuf, selon les différentes phases de l’évolution du projet), afin de restituer la capacité de discernement spatial qu’aurait un seul grand télescope de dimensions égales aux distances qui séparent les petits télescopes (même si l’intensité lumineuse de l’image qui en résulte est beaucoup plus faible). L’interférométrie a un autre avantage, celui de permettre de dissocier le rayonnement reçu de l’étoile de ceux reçus de ses planètes en annulant (technique du « nulling ») celui de l’étoile et donc de pouvoir observer les planètes, de luminosité beaucoup plus faible que l’étoile.

L’observation directe permet d’obtenir des informations différentes de celles que procurent la méthode des transits ou celle des vitesses radiales; ceci les rend complémentaires. La première (« la directe ») présente, sous certaines conditions, beaucoup d’avantages par rapport aux secondes. Celle du transit est d’autant plus difficile à pratiquer que la planète est éloignée de son étoile (et ne permet de bien identifier que les grosses planètes orbitant très près, et souvent, d’étoiles peu lumineuses, notamment celles qu’on appelle les « Jupiters chauds ») ; celle de la vitesse radiale est d’autant plus difficile à pratiquer que la masse relative de la planète par rapport à l’étoile est faible. Les méthodes de transit et de vitesse radiale s’appliquent donc assez mal (ou « moins bien ») que l’observation directe, à la recherche d’exoplanètes de type terrestre qui sont de petites planètes qui orbitent autour d’étoiles moyennes comme le Soleil (catégorie « G ») et qui passent moins fréquemment (une fois par an ou moins) devant leur étoile si elles se trouvent dans la zone habitable de celle-ci.

Le projet DARWIN était donc très séduisant. Finalement il fut abandonné pour des raisons techniques et scientifique. La raison technique principale était la difficulté de satisfaire au besoin de précision nécessaire pour le réglage des distances des télescopes entre eux (chacun flottant dans l’espace) et avec le centre commun de collecte des rayonnements (flottant également dans l’espace, au centre de la formation). En effet la tolérance de précision du contrôle est de quelques micromètres pour les distances entre les télescopes et de seulement un nanomètre entre chaque télescope et le collecteur commun des rayonnements (dans lequel se trouve aussi l’interféromètre, des spectromètres et un centre de communication). On avait, de plus, pour occulter la lumière du Soleil, choisi de mettre le système en service au point de Lagrange Terre / Soleil « L2 » qui est en opposition par rapport à notre étoile, mais ce point est un lieu d’équilibre instable qui implique de temps en temps de petits ajustements de position des appareils qui s’y trouvent. Enfin la température des télescopes devait être réduite à 40 Kelvin (pour distinguer les ondes thermiques que sont les MIR), ce qui est une température très basse et donc difficile à maintenir (il faut les alimenter en liquide cryogénique). Sur le plan scientifique, on avait encore, en 2007, identifié peu d’exoplanètes et aucune « petite » planète d’une taille proche de celle de la Terre ; la rentabilité potentielle de l’investissement avait donc été estimée trop basse.

Les résultats abondants de la mission KEPLER de la NASA changent cet environnement et ce raisonnement. On a identifié maintenant plus de 3700 exoplanètes avec certitude et au moins autant de candidates, et KEPLER a permis de constater que la probabilité de planètes de taille terrestre (entre 0,5 et 2 rayons de notre Terre) était élevée. De ces constatations, les chercheurs de l’ETHZ susmentionnés, MM Jens Kammerer et Sascha Quanz** ont pu établir des statistiques (en utilisant la méthode dite de Montecarlo) qui laissent entrevoir la possibilité de quelques 315 planètes d’une taille allant de 0,5 à 6* rayons terrestres orbitant 326 étoiles dans un rayons d’observation de 20 parsecs (65,23* années-lumière). Parmi celles-ci 72 seraient de catégorie G (les plus nombreuses 121, sont des naines rouges, de catégorie « M »).

*NB : il est intéressant de cibler un éventail de tailles de planètes plus ouvert que celui des planètes de taille terrestre, à fin de comparaisons et de compréhension des systèmes stellaires dans lesquels elles peuvent évoluer. La sphère explorée de 65 années-lumière de rayon est très petite par rapport à notre galaxie qui fait 100.000 années-lumière de diamètre mais il faut voir que les planètes étant des miroirs de leur étoile (rayonnements réfléchis) dont le disque est très petit, on ne peut aller beaucoup plus loin.

La recherche pourrait se faire sur 2 à 3 ans et elle utiliserait les longueurs d’ondes MIR de 5,6 / 10 et 15 µm. Les chercheurs estiment que 85 des planètes recherchées pourraient se situer dans la zone habitable de leur étoile. Elles deviendraient alors les cibles d’une seconde phase de l’exploration (sur la même durée que la première) qui serait l’analyse par spectrométrie du rayonnement qu’elles réfléchissent, afin de nous renseigner sur la composition de leur atmosphère.

Les chercheurs sont tout à fait conscients que la recherche d’exoplanètes peut continuer à se faire à partir d’autres instruments, notamment ceux des projets HabEx et LUVOIR de la NASA qui utiliseraient de grands télescopes spatiaux dans les longueurs d’onde allant du proche infrarouge à l’ultraviolet. Ce que j’appellerais « DARWIN revisité », tel qu’ici suggéré, n’est qu’une des options mais une option qui mérite sérieusement d’être reconsidérée car la rentabilité d’un système travaillant dans l’infra-rouge moyen, le plus adapté à la captation du rayonnement réfléchi que nous envoient les exoplanètes et combinant les lumières de plusieurs télescopes, serait la meilleure (c’est-à-dire celle qui nous permettrait d’identifier et de caractériser le plus précisément le plus grand nombre de planètes). Le grand public tout comme la communauté scientifique, doit soutenir ce projet.

Image à la Une : représentation du système de télescopes interférométriques du projet DARWIN de l’ESA. Crédit Université de Liège. Les molécules évoquent l’aspect spectrographie du projet.

**Jens Kammerer et Sascha Quanz sont membres de « PlanetS – Origine, évolution et caractérisation des planètes», l’un des 36 « PRN » (Pôles de Recherche Nationaux) lancés depuis 2001 par le « FNR » (Fonds National de la Recherche Scientifique suisse). PlanetS a été créé par le FNR en Juin 2014. Il est dirigé par le Professeur Willy Benz (Université de Berne). Il réunit des chercheurs des Universités de Berne, Genève et Zurich ainsi que les EPF de Zurich et Lausanne. Il est structuré en « projets de recherche ». Le sous-projet du Dr. Quanz est celui de la « Détection et caractérisation des exoplanètes » à l’intérieur du projet « Disques et Planètes ».

Communication du 27/09/2017 de Mme Barbara Vonarburg, journaliste scientifique, chargée de communication à l’Université de Berne:

http://nccr-planets.ch/fr/blog/2017/09/27/remake-dune-mission-spatiale-annulee/

Etude scientifique: “Simulating the exoplanet yield of a space-based mid-infrared interferometer based on Kepler statistics” par Jens Kammerer et Sascha P. Quanz, in Astronomy & Astrophysics; Oct 19th 2017:

file:///H:/Capsule%20nouvelle%202018%2001%2017/Darwin%20la%20suite/Arwin%20sequel%201707.06820.pdf

 

KRUSTY offre à Elon Musk une vraie chance de transformer son essai

Malgré l’appréhension qu’elle suscite a priori, l’énergie nucléaire semble devoir être le meilleur support au développement d’un établissement humain sur Mars. La NASA travaille en partenariat avec le DOE* pour une solution de réacteur efficace, fiable et transportable. Des progrès considérables sont en cours.

*Département Fédéral de l’Energie des Etats-Unis

Après avoir interrompu les premières réalisations de réacteurs nucléaires pour l’espace il y a une cinquantaine d’années suite à la prise de conscience de la dangerosité de l’utilisation des matières radioactives (confirmée en 1979 par l’accident de la centrale de Three Mile Island), la NASA (Glen Research Center) a recommencé à les étudier en 2006, dans un esprit soucieux de l’environnement et visant la simplicité dans le cadre de technologies éprouvées et maîtrisables. Elle a publié cette année-là une étude sur les réacteurs de petites puissances utilisables en surface planétaire pour y produire de l’électricité en couplant ces réacteurs à des moteurs Stirling. En 2010 une évaluation technologique faite lors d’un « Planetary Science Decadal Survey » a constaté ou plutôt confirmé que les réacteurs à fission pouvaient offrir une alternative préférable sur tous les plans aux générateurs thermoélectriques à radio-isotopes (« RTG ») et a posé les bases du projet « Kilopower ». Dans la lancée, la NASA (Glen Research Center et Marshal Space Flight Center) et le DOE (National Nuclear Security administration et plusieurs laboratoires dont le célèbre Los Alamos National Laboratory) constituèrent un partenariat chargé de travailler sur la faisabilité puis la conception des réacteurs avec deux objectifs, d’une part la propulsion hors environnement planétaire et d’autre part la production d’énergie nécessaire à la vie en surface. En Septembre 2012 le concept Kilopower a franchi avec succès son test de faisabilité (« proof of concept ») et le Partenariat a jeté les bases du sous-projet KRUSTY (pour « Kilowatt Reactor Using Stirling TechnologY ») pour la production d’énergie en surface planétaire, laissant de côté (pour le moment ?) le sous-projet concernant la propulsion interplanétaire. KRUSTY a ensuite (à partir de 2015) passé avec succès d’autres tests, sans matière radioactive mais avec un cœur métallique non radioactif chauffé, puis avec de l’uranium appauvri (Novembre 2017). Une réunion tenue le 18 janvier 2018 a fait le point pour la suite. Ce sera le test à froid des composants du réacteur avec son cœur d’uranium enrichi (235U) en place. Enfin la démonstration « grandeur réelle » (avec réaction lancée) aura lieu fin mars 2018. Le TLR (Technology Readyness Level) visé est supérieur à 5 (sur 9). L’affaire devient sérieuse !

A noter que l’utilisation des matières radioactives dans l’exploration spatiale n’a cependant pas cessé durant ces dernières décennies (27 missions, de Viking dans les années 1970 à Curiosity aujourd’hui, y ont eu recours) mais qu’elle l’a toujours été selon le processus du « générateur » RTG, plus simple que le « réacteur » et utilisant une source radioactive extrêmement instable (d’où son intérêt mais aussi sa dangerosité), le plutonium 238, « 238Pu », (demi-vie de 87,7 ans et masse critique de 10 kg seulement). Mais cette source se fait rare car on le produit très lentement (actuellement 400 g par an pour un stock mondial de 18 kg) et qu’on hésite beaucoup à le faire par crainte de dissémination dans l’atmosphère en cas d’échec du lancement. Enfin, l’efficacité du générateur est faible. Ainsi, dans le cas de Curiosity, la chaleur générée par ses 4,8 kg d’oxyde de 238Pu est de 2 kWt mais la puissance électrique récupérée n’est que de 110 We (celle d’une bonne lampe électrique domestique !). Aucun système basé sur le principe du RTG n’a donné de puissance supérieur à 290 We et c’est bien là le problème car une mission habitée sur Mars requerra évidemment beaucoup plus. On estime le besoin à quelques 40 kWe pour une base abritant 4 personnes actives*. Pour mémoire la « génération » d’électricité par le RTG consiste à transformer en cette forme d’énergie la chaleur provenant de la dégradation spontanée et continue de la matière radioactive; la chaleur est captée par des thermocouples fixés sur le cœur du réacteur, la source froide étant constituée par l’environnement extérieur renforcé par des radiateurs évacuant la chaleur dans l’atmosphère et (dans le cas de Curiosity ou d’autres sondes spatiales) de capteurs branchés à une tuyauterie allant réchauffer divers centres stratégiques de l’équipement.

*Etant donné qu’une maison en Europe occidentale équipée en « tout électrique » fonctionne avec des puissances de l’ordre de 15 kWe, on peut s’étonner de cette puissance modique visée. On suppose que les équipements prévus et leur utilisation seront extrêmement bien gérés compte tenu du besoin constant d’y recourir et des conditions environnementales extrêmement dures.

Le réacteur nucléaire repose sur un tout autre principe. Il s’agit de déclencher une réaction de fission par impacts de neutrons, cette réaction produisant de la chaleur, à partir d’un matériau certes radioactif mais pas nécessairement aussi instable que le 238Pu et qui peut (doit donc !) être contrôlée ou pilotée à l’intérieur d’une structure sophistiquée comprenant une source radioactive (le cœur), un réflecteur de neutrons, un déclencheur/interrupteur, un bouclier, une liaison avec un générateur d’électricité et un radiateur. On a choisi pour cœur de Kilopower, de l’Uranium 235 (235U), élément habituel des réacteurs nucléaires, dont la « demi-vie » est très longue (700 millions d’années) mais qui a un « excès de masse » important (favorable à la fission). Sa réaction de fission peut être spontanée mais seulement si la quantité de matière atteint son niveau de « masse critique » (48 kg) ; autrement elle doit être provoquée, ce que précisément l’on veut pour KRUSTY afin de mieux le maîtriser. Ce cœur sera un cylindre d’un alliage de 235U et de molybdène (7%). Puisqu’il ne comportera au maximum que 43 kg d’235U (en dessous de la masse critique), il sera relativement peu actif tant que la réaction de fission ne sera pas initiée (c’est un « détail » important pour la traversée de l’atmosphère). Mais cette quantité de matière radioactive sera suffisante pour fournir, compte tenu de la présence du réflecteur, une puissance thermique de 40 kWt et in fine (après transmission de la chaleur – entre 800 et 650°C – aux convertisseurs Stirling et utilisation de ces convertisseurs) une puissance électrique de 10 kWe. L’alliage avec le Molybdene est choisi pour ses qualités stabilisatrices ; il élimine les problèmes de changement de phase, de température de fusion trop basse, et améliore la résistance au fluage à haute température. Le réflecteur sera comme souvent, en oxyde de béryllium. Il a la fonction très importante de permettre d’abaisser la masse critique et donc de permettre la réaction de fission (sans lui rien ne peut se passer). On peut ne le mettre en position qu’après l’arrivée sur le sol de Mars et il est de plus modulaire (disques) ce qui fait qu’il peut être plus ou moins actif. Le dispositif est complété par un déclencheur, comme souvent une barrette de carbure de bore, élément absorbeur de neutrons, située au centre du cœur au départ mais que l’on peut bouger pour désinhiber la réaction ou au contraire l’interrompre.

Le réacteur ainsi complété va alimenter en chaleur via des tubulures contenant du sodium à l’état gazeux, un certain nombre de convertisseurs en électricité de type Stirling (extrémité chaude et extrémité froide avec circulation d’un piston en fonction du chauffage puis du refroidissement d’un gaz) équipés d’un radiateur (renforçant la source froide) s’ouvrant en ombrelle de 20 m2, au-dessus des convertisseurs. Il est bien sûr protégé par un bouclier antiradiations (en tungstène et hydrure de lithium).

Image ci-dessus : magnifique parapluie ouvert de KRUSTY, crédit NASA, hauteur 3.00 m

Le système effectue une conversion de chaleur en électricité beaucoup plus efficace que le RTG (de l’ordre de 10 fois plus de puissance électrique pour la même masse). La masse du réacteur produisant 40 kWt (toute une gamme allant de 4 à 40 est prévue) sera, pour le réacteur y compris le cœur, le réflecteur et les tubes au sodium, 235 kg ; la masse du bouclier, 547 kg, la masse du reste (convertisseurs Stirling et radiateur), 763 kg. Au total pour le système entier on devrait avoir une masse de 1544 kg ce qui donne pour l’ensemble une puissance spécifique de 6,5 W/kg*. Pour comparaison la masse du RTG de Curiosity est de 45 kg (mais ne donne une puissance électrique que de 0,1 kW). Pour atteindre les 40 kWe estimés nécessaire à la première base martienne, on aura donc besoin de 4 unités KRUSTY de 10 kWe. C’est effectivement la quantité que l’on peut envisager exporter sans problème de la Terre dans « nos » fusées de type Falcon Heavy (ou mieux BFR).

*c’est le meilleur rapport que l’on puisse obtenir. Le KRUSTY de 1 kWe de puissance ne pouvant avoir une puissance spécifique que de 2,5 W/kg et le KRUSTY de plus de 10 kWe impliquant une masse critique de 235U trop importante.

Il n’a pas été facile de mettre au point ce petit réacteur car jusqu’à présent on n’avait envisagé que de gros formats (minimum 40 kWe de puissance) qui supposaient des technologies différentes (et plus de risques). Une des idées nouvelles est le système de transmission de la chaleur du réacteur aux convertisseurs à l’aide de tube de sodium (et non pas d’eau, par exemple) passant à l’intérieur même du cœur. La géométrie du système est également très intéressante car elle permet un haut coefficient de réactivité de température négative qui favorise l’auto-régulation (la réaction en chaîne diminue lorsque la température monte). En résumé l’ensemble des dispositions prises permet de réduire considérablement le risque de radiations lors du lancement tout en permettant une excellente puissance spécifique sur place.

Mais pourquoi s’intéresser à l’énergie nucléaire plutôt qu’à d’autres sources d’énergie ?

L’avantage est évidemment que le réacteur peut fonctionner jour et nuit alors que le Soleil ne donne de l’énergie que durant le jour, et en l’absence de tempête de poussière. La durée de vie de plus de 10 ans permet d’envisager une utilisation sereine pendant plusieurs séjours sur Mars (rappelons qu’il sera d’environ 18 mois en raison de l’évolution des positions respectives des planètes). La masse également est nettement plus faible que celle des panneaux solaires capables de mettre à disposition la même puissance électrique (d’autant qu’avec le temps les panneaux peuvent se couvrir de poussière). Ceci dit, par prudence et pour disposer d’un maximum de flexibilité, une base martienne jouera probablement sur toute la gamme des sources d’énergie possibles dont le solaire sous ses divers aspects (des progrès dans le taux de conversion de la lumière en électricité sont toujours possibles), le chimique méthane/oxygène, permettant notamment la pile à combustible au méthanol, et si possible le géothermique. La suite de Kilopower devrait être un « Megapower » fournissant une puissance de 2 MWe. Il reste à étudier mais on entrevoit que le « Mega-Krusty » qui devrait en résulter, permettrait la viabilisation et le fonctionnement d’une colonie importante.

Comme souvent les avancées technologiques se nourrissent l’une l’autre. Grâce aux fusées Falcon Heavy puis BFR (propulsion chimique) et à la volonté d’Elon Musk, on pourra aller sur Mars, et grâce à KRUSTY puis à MegaPower on pourra y vivre et y produire et transformer. Il faut bien voir que cette amélioration des possibilités de générer de l’électricité en surface ouvre de vraies perspectives d’installation humaine sur Mars. Les seuls « bémols » sont que pendant longtemps il faudra encore importer les réacteurs de la Terre…et surtout que, vis-à-vis des préjugés, il faudra oser le principe même du nucléaire.

Image à la Une : Environnement énergétique d’une future base martienne, composé de plusieurs unités de KRUSTY.

Image ci-dessous : Schéma KRUSTY, “en toute simplicité” (crédit NASA):

Liens :

“NASA’s Kilopower Reactor Development and the Path to Higher Power Missions” par Marc A. Gibson, ingénieur en chef de la NASA pour le projet Kilopower, et al. 04 février 2018

“Kilopower, NASA’s Small Fission Power System for Science and Human Exploration” par Marc Gibson,  Propulsion and Energy Forum, Cleveland, Juillet 2014 DOI: 10.2514/6.2014-3458.

https://beyondnerva.wordpress.com/2017/11/19/krusty-first-of-a-new-breed-of-reactors-kilopower-part-ii/

Blog “Beyond Nerva” 19 Nov. 2017.

Les premiers hommes sur Mars puiseront leurs matières premières dans la poussière

Mars n’a pas d’eau liquide en surface mais elle a de la poussière et du sable, ce sont des éléments meubles, homogènes et riches qui lui sont, sous ces aspects, équivalents. Il faudra en tirer parti. Sur l’image “à la une” vous voyez au premier plan une étendue de couleur gris-foncé et en arrière-plan, beaucoup plus haut dans la montagne, des masses de couleur beige-clair. La première est une dune de sable basaltique comme on en a observée beaucoup dans la région, les secondes sont des accumulations de poussière agglomérée.

Il y a une première différence entre le sable et la poussière, c’est la taille des grains qui les composent (typiquement sur Mars plus de 50 µm pour le sable et moins de 30 µm pour la poussière, avec abondance aux environs du micromètre). Le grain de sable est plus lourd que le grain de poussière (c’est cela, en rapport avec sa taille, qui l’en distingue). En raison de la faible force du vent résultant de la faible densité de l’atmosphère (pression moyenne au sol martien, 611 pascals), le grain de sable est peu mobile. La caractéristique principale du grain de poussière est au contraire d’être très mobile puisque très léger. Il peut rester en suspension quasi indéfiniment dans l’atmosphère ou bien être transporté autour du globe par les vents les plus forts. Il résulte soit de la décomposition de certaines roches de surface au grain très fin, soit de la saltation des grains de sable eux-mêmes.

Bien sûr en géologie tout évolue avec le temps et la consistance des accumulations de poussière, comme de sable, a changé depuis leur formation et continue à changer. Certaines dunes continuent à bouger, d’autres se sont stabilisées et durcies (diagénèse). La poussière après avoir volé a pu s’accumuler et s’incruster puis elle-aussi durcir (diagénèse). Une grande partie reste mobile, flotte dans l’atmosphère lui donnant sa couleur ocre-rougeâtre, une autre, un peu plus lourde, recouvre le sol, une autre encore qui n’a pu être soulevée depuis très longtemps ou qui est toujours soumise aux mêmes pressions (vents unidirectionnels) s’est tassée et s’est transformée en roche sans doute friable (du moins en surface) comme le lœss chinois. C’est cette dernière variété qui enrobe le pic qui probablement se trouve au centre du Cratère Gale et constitue l’armature du Mont Sharp.

Outre le degré de mobilité, il y a une seconde différence entre le sable et la poussière mais elle en résulte, c’est la composition chimique. En effet la poussière étant globale, elle a été homogénéisée. On retrouvera une composition à peu près identique partout et surtout une très grande richesse en variété d’éléments chimiques car elle reflète l’ensemble de la composition chimique de la surface martienne (ou plus exactement des roches accessibles à l’érosion éolienne au cours des 3,5 milliards d’années pendant lesquels elle a été dominante). Les différentes sondes posées sur le sol de Mars l’ont constaté comme le montre le graphe ci-dessous établi sur la base des observations faites sur des échantillons de sol par les laboratoires mobiles Spirit, Opportunity puis Curiosity, à des endroits très différents de la planète.

Photo PIA16572: “Inspecting Soils Across Mars” 03 12 2012; Crédit image: NASA/JPL-Caltech/University of Guelph; Les niveaux de dioxyde de silicium et des oxydes de fer ont été divisées par 10; Les niveaux de nickel, zinc et brome ont été multipliés par 100

Le sable, lui, résulte de l’érosion locale ; il est donc de ce fait, essentiellement local et reflète la géologie du lieu. Ceci dit les différences sont assez peu marquées du fait de l’absence de tectonique des plaques qui sur Terre mélange et renouvelle les minéraux par métamorphisme. Plus de la moitié du socle rocheux de la surface de Mars est constituée d’éléments magmatiques primordiaux (« mafiques », roches silicatées contenant beaucoup de manganèse et de fer, et « ultramafiques ») alors que la surface des plaines du Nord de Mars a été recouverte d’épanchements volcaniques « tardifs » riches en soufre (hespérien surtout et un peu début amazonien) très liquides.

On pourra trouver « autre chose » car l’eau a beaucoup hydraté certains sites pendant quelques petites centaines de millions d’années (jusqu’à -3,6 milliards d’années environ) et le volcanisme a pu sélectionner les minéraux. Les deux ont provoqué ou facilité des réactions chimiques avec les éléments (contenus dans l’atmosphère et dans le sol) entrant en contact avec eux. L’hydratation a produit des argiles (phyllosilicates) et sans doute des filons (concentrations) de minéraux y compris de métaux. Le volcanisme a produit des sulfates et concentré certains métaux.

L’homme sur Mars pourra en tirer profit comme sur Terre. Il pourrait certes exploiter le sous-sol de Mars en creusant des mines mais cela impliquerait des infrastructures lourdes, difficiles à importer ou alternativement à créer sur place et de toute façon à exploiter. Il sera sans doute préférable, du moins au début de son installation, que tout simplement il ramasse le sable ou la poussière de surface (sol) et en extraie les minéraux dont il aura besoin, notamment le fer et les métaux sidérophiles, la silice (pour le verre) et les sulfates.

La collecte pourrait se faire par pelles mécaniques robotisées opérant sur sites repérés pour leur abondance et pour leur proximité de la base (à combiner avec la proximité des gisements de glace d’eau !), ou au niveau des filtres des aspirateurs d’atmosphère qui alimenteront des concentrateurs en liaison avec les installations de transformation du CO2 en méthane et oxygène. Comme ces filtres devront constamment être nettoyés, le produit du nettoyage pourrait facilement être traité d’autant qu’il pourrait y avoir plusieurs filtres aux mailles de plus en plus serrées (les poussières pourraient être libérées par vibrations périodiques des filtres placés au-dessus de bacs circulants). Pour le traitement (la fonte et la purification des éléments) on peut imaginer des fours solaires alimentés par de grandes surfaces réfléchissantes (comme le four solaire d’Odeillo dans les Pyrénées). Ce four dont vous voyez une image ci-dessous, permet de parvenir très vite à des températures très élevées (à Odeillo, 3500 ° C). L’utilisation de ces ressources pour produire du verre ou des structures en fer / acier, sera essentielle et s’imposera très vite compte tenu de la masse qu’ils représentent et dont l’importation depuis la Terre serait fort coûteuse et donc très limitée.

Référence :

“Chemical, mineralogical, and physical properties of Martian dust and soil” par D.W. Ming et R.W. Morris, Astronautical Research and Exploration Science Division, NASA JSC (LPI contribution n°1966, 2017).

Image à la Une: le Mont Sharp (Cratère Gale) vu le 25 septembre 2015, photo NASA (avec éclairage terrestre restitué, « white balanced »). La « tache » foncée au premier plan est une partie du champ de dunes nommé « Bagnold ». Crédit NASA/JPL-CalTech/MSSS 

Image ci-dessous : principe du four solaire d’Odeillo:

 

Elon Musk did it !

Mardi 6 février 2018 à 21h45, comme prévu, le Falcon Heavy de Space X a fait un départ de la Terre (presque) « sans faute ». La réussite de ce test qui était moins qu’évidente, prouve que l’audace d’Elon Musk est fondée sur le sérieux d’une maîtrise technologique sans faille. Les concurrents, dont l’ESA, toujours très critique, ne peuvent que se rendre à l’évidence, ils sont largement distancés et le public qui veut l’aventure martienne peut maintenant raisonnablement espérer.

La plus belle photo de cet exploit est sans doute celle capturée à l’écran et placée en « image à la Une », qui montre le retour simultané des deux « side-boosters » (fusées latérales) du « core-booster » (fusée centrale) sur le site de lancement des fusées Saturn V du programme Apollo, à Cap Canaveral. Un problème technique sur la barge en mer où devait se poser le core-booster a empêché de voir ce troisième élément de propulsion se re-poser* mais cela n’entame en rien la satisfaction du succès. La récupération des lanceurs « marche » et le vaisseau spatial est en route vers l’orbite martienne avec à son bord la voiture personnelle d’Elon Musk car, compte tenu des risques d’échec (évalués par lui-même à 50/50) il n’a pas voulu vendre la montée en orbite à qui que ce soit.

*On a appris plus tard que cet élément avait “raté”  la barge d’une centaine de mètres et avait donc sombré dans l’océan.

Au-delà de ce côté spectaculaire, ce qui était le plus risqué dans ce test et qui n’avait jamais été tenté, était de faire fonctionner ensemble les 27 moteurs (« merlin ») du 1er étage. 27 moteurs en l’occurrence c’est trois fois neuf, c’est-à-dire trois lanceurs de la génération précédente, Falcon 9, fonctionnant côte à côte. Et ce n’est pas une simple addition mais un problème de coordination des combustions, de plomberie pour une alimentation régulière, de maîtrise des vibrations et de maîtrise des forces de propulsion (imaginez les attaches des boosters latéraux au booster central et le moment où les deux boosters latéraux doivent se désolidariser du booster central !).

Falcon Heavy qui pèse au départ 1400 tonnes, pourra, avec une poussée de 2500 tonnes, mettre 64 tonnes en orbite basse terrestre (LEO). C’est trois fois la capacité de lancement d’Ariane V de l’ESA (20 tonnes) et plus de deux fois la fusée la plus puissante jusqu’à aujourd’hui, celle de l’armée américaine, Delta IV Heavy (28,8 tonnes), c’est moitié moins que celle de Saturn V, la fusée du programme Apollo qui a permis l’aventure lunaire (dernier vol en 1973 !). Mais maintenant qu’Elon Musk a réussi son lancement de Falcon Heavy, il va s’attaquer au BFR (big Falcon Rocket) qui pourra largement concurrencer Saturn V.

Franchement, les opérations commerciales ne nécessitent pas une telle capacité de lancement. C’est un peu pour cela que la capacité de la fusée Ariane n’a pas augmenté avec Ariane VI par rapport à Ariane V, l’Europe (ESA) préférant pouvoir lancer souvent pour répondre rapidement à la demande des clients, plutôt que gros et lourd. Ceci dit il y a de temps en temps des lancements lourds et de toute façon SpaceX continuera à produire le Falcon 9 qui du fait de la modularité de sa conception, n’est qu’une fraction de Falcon Heavy et utilise les mêmes moteurs. La différence, et elle est de taille, c’est que l’exploration par vols habités était impossible sans lanceurs lourds et l’on sait que tout ce que fait Elon Musk, il le fait en perspective d’aller un jour sur Mars, aussitôt que possible (vol d’essai en 2022 et vol réel en 2024).

L’aventure des vols habités vers Mars a bel et bien commencé ce soir, que le gouvernement américain le veuille ou non, que le projet SLS de la NASA qui traîne depuis des années aboutisse ou non* et que les Européens y restent indifférents ou non (après tout, Mars comme le Canada jadis, ce n’est pour « l’establishment » européens que « quelques arpents de glace »). Bravo Elon!

*Robert Zubrin, fondateur de la Mars Society, rapporte qu’il y a sept ans la Commission Augustine qui préparait le programme spatial de l’administration Obama avait dit que le programme de son prédécesseur (pour aller sur la Lune) devait être annulé (ce qu’il fut!) parce que le développement du lanceur lourd nécessiterait 12 ans et coûterait 36 milliards de dollars! 

Image à la Une: retour sur Terre des deux booster latéraux de Falcon Heavy (crédit SpaceX)

Image ci-dessous: Les 27 moteurs Merlin de Falcon Heavy (crédit SpaceX)

Dernières nouvelles, le 8 février :

Le corps central du lanceur s’est écrasé à la surface de l’océan à 500 km/h. La dernière mise à feu, pour le freinage final, n’a pas fonctionné. Il y a quelques dégâts sur la barge d’atterrissage qui se trouvait à seulement environ 300 mètres.

Starman, le passager de la décapotable Tesla rouge cerise d’Elon Musk, est parti pour l’orbite martienne après la seconde mise à feu du second étage. En fait il ira beaucoup plus loin, presque jusqu’à l’orbite de Cérès au centre de la Ceinture d’astéroïdes. Il redescendra ensuite en dessous de l’orbite terrestre.

Sur son site, SpaceX annonce non seulement la capacité de placement de masse en LEO (64 tonnes) mais également la capacité de dépose en surface de Mars (16,8 tonnes). Avec une telle masse et plusieurs lancements, on peut déjà envisager une mission habitée sur Mars. Si vous voulez expédier votre propre voiture sur Mars…en payant le transport, je suis certain qu’Elon Musk sera ravi de vous offrir ses services (mais vous pouvez aussi financer l’envoi d’objets plus intéressants, par exemple quelques rovers d’exploration chargés d’instruments d’observation et d’analyse).

 

Les défis auxquels l’homme est confronté doivent l’attirer plutôt que le décourager

Nous sommes des poussières d’étoiles, des fruits de la Terre et du Soleil, des êtres de chair et de sang produits d’une évolution biochimique prodigieuse déroulée tout au long de 4,567 milliards d’années sur une planète bien particulière, rocheuse, où l’eau – fait rare – est abondante et liquide, orbitant autour d’une étoile de masse moyenne née quelques petits millions d’années avant elle, à la périphérie d’une galaxie spirale ordinaire parmi les innombrables qui peuplent un univers vieux de 13,8 milliards d’années.

Depuis quelques siècles nous nous éveillons à la conscience de ce monde, en ouvrant les yeux de la Science tout autour de nous pour comprendre. Nous observons, nous réfléchissons. Nous sommes peut-être uniques, les seules entités douées d’intelligence et de capacités créatrices dans cette galaxie sinon dans l’univers tout entier et nous devons en tirer un devoir moral. Depuis quelques dizaines d’années notre puissance d’observation et de réflexion a été considérablement augmentée par nos découvertes en informatique, par la création d’observatoires de plus en plus puissants et de lanceurs de plus en plus performants, par l’utilisation d’instruments de plus en plus extraordinaires comme les chromatographes, les spectromètres, les lasers, les microscopes à force atomique (entre autres !), par les mises en réseau d’ordinateurs de plus en plus rapides et par les constructions intellectuelles remarquables fondées sur les données rassemblées par ces instruments, résultant d’échanges quasi immédiats entre scientifiques du monde entier.

De ce fait nous progressons.

Nous semblons cependant contraints à l’intérieur de limites dont certaines paraissent des obstacles infranchissables. Des problèmes nous sont posés par des données physiques ou chimiques dont nous n’avons pas ou dont nous avons peu la maîtrise. Ce sont l’immensité de l’Univers, le temps que l’on ne peut que mesurer, la vitesse de communication / réception qui est absolument limitée par celle de la lumière, la gravité inhérente à toute masse, les radiations dont on ne peut parfaitement se protéger, l’énergie produite ou captée qui est épuisable, la biologie dont les (des)équilibres sont si complexes et si fragiles qu’il faut sans cesse les restaurer et qui, in fine, limitent notre durée de vie. Ces problèmes sont redoutables et souvent, d’une manière ou d’une autre, intrinsèquement liés.

Les conséquences sont différentes pour les deux domaines qui nous intéressent ici, l’astronomie et l’astronautique, la première n’impliquant pas le transport de masse (donc de besoin en énergie) que la seconde impose. Si on ouvre la fenêtre du domaine de l’astronautique on peut encore se placer du point de vue des missions robotiques ou des missions habitées, les premières n’impliquant pas toutes les complexités (et les précautions !) requises par le transport d’êtres humains. Selon ces points de vue les obstacles sont évidemment à des distances différentes et l’astronomie ouvre la voie à l’astronautique tandis que les missions robotiques ouvrent la voie aux missions habitées.

Pour avancer, l’homme louvoie. Il utilise ce qu’il peut comme il peut. Par son travail il se hisse d’abord jusqu’au niveau des connaissances acquises par ses pairs puis, grâce à l’effervescence de « ses petites cellules grises » et parfois la chance, il ajoute une idée, il fait un rapprochement, il réussit une expérience et fait pousser un peu plus la magnifique fleur de corail de nos capacités humaines.

Aujourd’hui il est donc probable que certains des murs qui nous entourent vont reculer encore, comme reculent les lignes d’horizon quand on croit s’en approcher. Et de ce fait, le « terrain de jeu » ou la « marge de progression » qu’ils nous laissent aujourd’hui et dans lesquelles nous pouvons nous exprimer, est de plus en plus vaste. Nous n’avons pas épuisé la mise en pratique de nos capacités technologiques théoriques et nous n’avons pas encore imaginé les nouvelles possibilités qui au-delà, un jour, s’ouvriront à nous. Mais pour avancer, il ne faut pas faiblir. En astronomie nous ne devons pas renoncer aux champs de télescopes interférométriques en réseaux dans l’espace même si pour le moment le projet Darwin a été annulé.  En astronautique, le projet « Breakthrough Starshot » soutenu par Stephen Hawking, pour envoyer des sondes explorer les étoiles voisines, nous ouvre des perspectives extraordinaires ; soutenons le ! Dans les années qui viennent (« l’immédiat ») nous ne devons pas faire défaut à Elon Musk pour son projet martien même s’il présente quelques faiblesses car il est le plus crédible et le seul qui puisse vraiment nous ouvrir la chance d’un établissement humain sur Mars, première étape de la création d’une civilisation multiplanétaire dans le cadre de laquelle l’homme ne serait plus dépendant d’une seul Terre.

Laissons notre esprit rêver pour projeter et construire en utilisant notre raison. Du mythe de Dédale et d’Icare, on ne retient d’ordinaire que la chute de ce dernier qui s’était approché de trop près du Soleil et on oublie la prouesse de Dédale qui réussit à fuir le Minotaure grâce à son ingéniosité. N’ayons pas peur ; osons l’audace. Cela n’empêche pas d’évaluer les risques qu’on prend pour pouvoir les prendre. Nous ne devons ni nous sous-estimer, ni nous sur-estimer comme nous ne devons ni sous estimer, ni sur-estimer les défis auxquels nous sommes confrontés. Dédale avait mis son fils en garde. 

Image à la Une : La fuite du Labyrinthe. Dédale réussit son vol car il a évalué correctement la puissance de ses ailes et ne les a pas sollicitées au-delà de leurs capacités.

Gravité, énergie, biologie, défis à l’astronautique

L’astronautique ce sont les missions robotiques ou habitées dans l’Espace. On ne peut envisager les mener que dans notre environnement « proche », autant dire le système solaire et peut-être un jour quelques étoiles voisines, l’ensemble s’étendant à l’intérieur d’une sphère d’un rayon d’environ 10 années-lumière, maximum * (100 mille milliards de km), dont nous serions le centre, cette sphère n’étant qu’un point par rapport aux 100.000 années-lumière de diamètre de notre galaxie.

*ma proposition mais ce n’est qu’un ordre d’idée. Le rayon pourrait n’être que de 7 ou 8 années-lumière.

Pourquoi ce domaine restreint? Parce que nous sommes contraints par la masse (soumise à la gravité et occupant un volume) que nous devons transporter (et à laquelle nous devons donc appliquer une énergie) pour observer ou pour vivre et pour nous déplacer…sans oublier que, compte tenu de l’hostilité et des dimensions de l’espace, nous sommes aussi contraints par nos capacités biologiques.

*Les missions habitées répondent à une pulsion humaine, celle d’aller voir et toucher mais aussi au besoin d’efficacité, un homme étant beaucoup plus réactif qu’une machine et capable d’initiatives. Le transport d’un corps humain vivant et opérationnel est ce qu’il y a de plus difficile dans l’exploration car il s’agit d’extraire ce corps de l’environnement où (et dont) il est né tout en en conservant les fonctions vitales essentielles. 

(1) La gravité

La gravité est une contrainte dont les missions robotiques ou habitées ne peuvent s’abstraire puisqu’on habite toujours sur une planète (avant d’habiter une éventuelle « île de l’espace » à la Gerard O’Neill). Devoir s’extraire du puits de gravité terrestre nous force à limiter drastiquement les masses dont nous pouvons disposer pour l’exploration. Par ailleurs, vivre sur une super-Terre de masse double (par exemple) de celle de la Terre serait probablement insupportable à long terme pour un être humain. Un exosquelette n’aurait aucun effet sur nos organes ou nos fonctions internes. Le cœur devrait lutter plus que notre physiologie ne nous le permet pour irriguer l’ensemble du corps. En sens inverse une gravité trop faible, par exemple celle de 0,16g sur la Lune, pourrait être catastrophique, sur le long terme, dans la perspective d’un retour sur Terre. Plus précisément un séjour long sur la Lune serait sans doute très dommageable pour la santé indépendamment des exercices qu’on pourrait faire pour conserver sa force musculaire et osseuse, compte tenu de la surpression du sang dans le cerveau qui résulterait de la faible gravité locale (dans la mesure où le cœur même affaibli continuerait à y propulser le sang plus que nécessaire). On peut évidemment se poser la question de savoir si la gravité martienne de 0,38g serait suffisante pour le bon fonctionnement, sur le long terme, de nos organes internes lorsque nous nous serions installés sur cette planète. Pour le moment nous n’avons pas de réponse mais il semble évident que le problème serait moins grave que sur la Lune.

(2) L’énergie

Pas d’astronautique sans énergie, pour vaincre la gravité et procurer la vitesse nécessaire au franchissement de distances considérables. L’ennui c’est qu’à la source d’énergie correspond le plus souvent (sauf l’énergie solaire ou la gravité des astres approchés) une masse et des réservoirs pour les contenir, toujours des moteurs ou des dispositifs pour les utiliser. Le deuxième problème c’est que la source d’énergie s’épuise en échange de l’énergie cinétique qu’elle libère (sauf encore l’énergie solaire et la gravité des astres approchés) et que les moteurs qui les utilisent s’usent en fonctionnant. Elle est donc limitée en masse, en volume et en durée d’utilisation et cette limite est une contrainte incontournable, qui peut être aggravée par le gâchis ou par la panne.

Pour préciser, on peut distinguer entre les énergies consommables (chimique et nucléaire) et les énergies utilisables (solaire et gravité) mais elles ne sont pas ou peu remplaçables. Du fait de contraintes propres à chacune, les choix s’imposent inévitablement.

L’énergie chimique ne nous conduira pas bien loin (mais sûrement jusqu’à Mars) à cause du volume énorme des ergols qu’il faut bruler mais elle est indispensable au décollage, à l’injection sur orbite interplanétaire et à l’atterrissage sur une planète (si elle est rocheuse !) du fait de sa capacité à libérer une poussée considérable très rapidement (on parle d’Isp – impulsion spécifique – élevée), sans polluer au point que pourrait le faire une explosion atomique.

L’énergie nucléaire est sûrement promise à un bel avenir mais elle s’épuise elle aussi avec le temps. Les sondes Voyagers parties dans les années 1970 et qui sont aujourd’hui aux confins du système solaire sont équipées d’un moteur au plutonium qui touche à sa fin de vie; les réserves de plutonium de Curiosity arrivé sur Mars en 2012, seront épuisées en 2020. En tout cas elle ne peut être utilisée dans l’atmosphère des planètes et ne peut donc servir qu’au fonctionnement des vaisseaux et au corrections de trajectoires pendant les vols interplanétaires.

L’énergie photonique fonctionne bien si l’on est proche du soleil (ou d’une autre étoile !), moins bien si on s’en éloigne. Cette énergie ne peut être utilisée pour décoller de la Terre, à cause cette fois de sa très faible Isp, mais seulement à partir de l’orbite de parking. Comme son Isp est très faible elle s’éloignera très lentement de cette orbite. On attendra que l’accélération continue ait suffisamment augmenté sa vitesse pour venir charger le vaisseau (surtout les passagers qui ne supporteraient pas de rester longtemps dans le piège à radiations que constituent les champs magnétiques qui enveloppent la Terre dans sa coque, générant la fameuse Ceinture de Van Allen). Les lasers peuvent donner une impulsion initiale très forte mais ils consomment eux-mêmes beaucoup d’énergie, d’autant plus qu’ils sont plus puissants. Il faut aussi noter qu’on ne transportera pas ses lasers avec soi (la masse toujours !) et que si on va « quelque part » on aura besoin d’une source d’énergie sur place pour freiner et éventuellement arrêter le vaisseau.

La gravité des astres approchés est une autre source d’énergie. Elle a été utilisée notamment pour le programme Voyager qui a profité de la position exceptionnelle des planètes lors de la mission pour utiliser l’effet d’accélération (« de fronde ») qui se manifeste lorsqu’on « tombe » vers elles, pour aller de l’une à l’autre, jusqu’à Neptune avant de continuer leur route vers l’extérieur du système solaire. Elle est évidemment limitée par la distance minimum à laquelle on peut approcher l’astre en fonction de la vitesse lors de l’approche, et aussi par la gravité même de l’astre approché.

(3) La biologie

Les Radiations

On sait à peu près se protéger des radiations solaires (SeP) même fortes (SPE dont les CME) parce qu’on peut assez bien bloquer le rayonnement des protons qui les constituent en quasi-totalité mais on n’a pas encore les moyens de se protéger vraiment des radiations galactiques dures (HZE). Aucun blindage n’est vraiment efficace contre elles compte tenu de la force énergétique des particules lourdes (numéro atomique “Z” élevé) dont elles sont constituées en petite partie (2%). Pendant les voyages interplanétaires et éventuellement interstellaires, on recevra une dose qui au bout d’un certain temps excédera les capacités d’absorption de notre corps. On peut ainsi difficilement envisager (pour le moment) de voyager plusieurs années dans l’espace interplanétaire (mais on peut envisager d’y voyager plusieurs mois, jusqu’à un refuge…par exemple la surface de la planète Mars).

Le contrôle environnemental

Le corps humain doit être maintenu en (bon!) fonctionnement par un système de support vie adéquat et nous pouvons créer tant bien que mal une bulle plus ou moins auto-régénératrice à l’intérieur de laquelle on pourra se chauffer, respirer et se nourrir, dans des conditions microbiennes acceptables (voir mes billets sur MELiSSA). C’est ce qui nous a permis de commencer à entreprendre des voyages ou des séjours dans l’espace. Mais l’instabilité des systèmes de support vie ou la masse des remèdes chimiques qui seraient nécessaires pour contrer cette instabilité, imposent une limite aux durées de voyage (un an ?)…jusqu’à un refuge planétaire.

Par ailleurs, enverra-t-on une sonde robotique dans l’espace pour n’en avoir des retombées que dans plusieurs dizaines d’années ? J’en doute, compte tenu de la durée de nos vies humaines.

Alors que faire de ces limites ? On voit bien qu’elles ne se manifestent que lorsqu’on les approche. Il faut donc les approcher au plus près, progressivement, apprendre à les connaître, si possible en jouer comme l’aurait fait le rusé Ulysse, pour aller aussi loin que possible, Mars, d’abord et maintenant ! Le but est d’aller un jour encore plus loin, toujours plus loin, et pouvoir dire encore longtemps comme dans l’ouverture des épisodes de Star Trek, « to boldly go where no man has gone before! »

Image à la Une: Un vaisseau ITS d’Elon Musk posé, un jour futur, à la surface d’Encelade, une des lunes de Jupiter. Crédit SpaceX (présentation faite par Elon Musk au 67ème IAC le 27 septembre 2016 à Guadalajara, Mexique).