La sonde Parker de la NASA observe la fournaise solaire à une distance jamais approchée

Le 1er septembre, la sonde Parker (« Parker Solar Probe », «PSP») approchera du Soleil à une distance jamais atteinte* par aucun instrument actif d’observation construit par l’homme. Ce n’est pas seulement un exploit technique, c’est aussi la promesse d’une avancée capitale de nos connaissances dans un domaine scientifique essentiel à notre survie et à notre action dans l’univers.

*voir en fin d’article l’illustration présentant les orbites prévues et l’abaissement progressif du périhélie.

La NASA a lancé la sonde le 12 août 2018, en présence de l’homme dont elle porte le nom, Eugene Parker, astrophysicien, spécialiste du Soleil. C’est la première fois qu’elle donne à une de ses sondes ou satellites le nom d’une personne encore vivante (Eugene Parker est né en 1927). C’est un magnifique hommage à une personne exceptionnelle car Eugene Parker a été un pionnier et, comme souvent, assez mal reçu par ses pairs (il n’a été publié que grâce à l’intervention de Subrahmanyan Chandrasekhar!). La raison de cet hommage est que c’est au milieu des années 1950 qu’Eugene Parker a en effet déduit de ses recherches théoriques, dénigrées à l’époque, l’existence d’un « vent solaire », d’une magnétosphère propre à l’astre et de sa forme (devenue « spirale de Parker »). Plus tard, en 1987, il a proposé une explication, acceptée largement aujourd’hui, de l’origine de la couronne solaire, les nano-éruptions (« nanoflares »).

Les objectifs scientifiques de la mission actuelle sont donc, naturellement, de vérifier la théorie et d’aller plus loin. Il s’agit plus précisément de :

-déterminer la structure et l’évolution des champs magnétiques à l’origine de la projection des particules du vent solaire (un plasma constitué de protons c’est-à-dire de noyaux d’hydrogène ionisés, et d’électrons) ;

-tracer les flux d’énergies provenant de la chromosphère pour comprendre le réchauffement de la couronne jusqu’à plusieurs millions de degrés alors que la température de surface évolue entre 4000 et 6000°K ;

-déterminer le processus à l’origine de l’accélération dans la couronne du transport des particules du vent solaire (NB : il passe dans l’environnement terrestre à une vitesse de 500 km/s) ;

-d’étudier autant que possible une étoile assez banale, relativement peu massive et située au milieu de la séquence principale de Hertzsprung-Russell, le Soleil étant la seule que l’on puisse approcher d’aussi près.

Pour atteindre ces objectifs, la sonde Parker dont le coordinateur de réalisation, opérateur de mission et utilisateur principal des données est le John Hopkins University Applied Physics Laboratory (responsable scientifique Arik Posner), a embarqué quatre « suites » d’instruments nommées SWEAP, ISIS, WISPR, FIELDS. Voyons leurs fonctions :

SWEAP (Solar Wind Electrons Alphas and Protons Investigation) aura pour but de compter les différents éléments du vent solaire et de mesurer leurs propriétés (vitesse, densité, température). L’instrument est en deux parties, complémentaires, la Solar Probe Cup, « SPC », un collecteur placé dans le cône tronqué derrière le bouclier thermique et le Solar Probe Analyser, « SPAN », placé dans la partie haute du cylindre de la sonde. Il a été développé par l’Université du Michigan avec le concours du Smithonian Astrophysical Observatory (Cambridge, Mass.) et de l’Université de Californie, Berkeley.

ISIS (Integrated Science Investigation of the Sun) observera les électrons, protons et ions lourds accélérés à des énergies élevées (10 KeV à 100 MeV) dans l’atmosphère coronale et les mettra en rapport avec le vent solaire et les structures coronales. L’instrument se trouve dans la partie haute du cylindre de la sonde, avant SWEAP-SPAN. Il a été développé principalement par l’Université Princeton.

WISPR (Wide Field Imagers for Solar Probe) est un groupe de télescopes qui prendront des photos de la couronne solaire et de la naissance de l’héliosphère pour capter tout événement, structure, dépôt, impact à l’approche et au passage de la sonde. L’instrument se trouve dans le bas du cylindre de la sonde, après SWEAP-SPC. Il a été développé par le Naval Research Laboratory.

FIELDS (Fields Experiment) effectuera des mesures directes des champs et ondes électriques et magnétiques, des flux de Poynting (qui indiquent la direction de propagation des ondes électromagnétiques), de la densité du plasma et des fluctuations de densité. L’instrument qui comprend plusieurs type de magnétomètres, se trouve sur la perche dans la queue de la sonde. Il a été développé par l’Université de Berkeley.

Compte tenu de ce qu’elle doit approcher au plus près de la Couronne, la difficulté majeure de la mission est de protéger efficacement la sonde de la chaleur. La Couronne à une forme variable en fonction des changements largement imprévisibles dans la configuration des lignes de champ magnétique. Elle peut s’étendre au-delà d’une dizaine de rayons solaires (Mercure évolue à 88 rayons solaires en moyenne) et sa température peut monter jusqu’à plusieurs millions de degrés (mais attention, la densité du plasma au contact serait très faible et donc l’effet chaleur réduit). Or la sonde Parker prévoit plusieurs passages au périhélie à 9,86 rayons solaires seulement. On a donc prévu une protection thermique extraordinaire, la « TPS » (Thermal Protection System). C’est un bouclier de 11,43cm d’épaisseur et 2,3 mètres de diamètre (permettant d’éviter que les émissions solaires atteignent directement les instruments et les équipements embarqués, sauf lors des prise de données) constitué de mousse de carbone enveloppée dans un composite carbone-carbone et recouvert, côté Soleil, d’une couche d’alumine. La sonde est aussi équipée d’un liquide refroidissant (de l’eau sous pression !). Cela permet de maintenir les instruments et les équipements à l’intérieur de la sonde à une température maximum de seulement 29°C lorsque la face vers le Soleil est portée à 1400°K (1126°C). Ses concepteurs ont prévu que la sonde puisse résister à des températures de 1650°C. Bien sûr il faut espérer éviter qu’elle se trouve prise dans les éjections d’une éruption solaire assez dense (une “CME” pour “Coronal Mass Ejection”) mais une partie de la solution est aussi la réduction du temps de passage dans l’enfer (la durée maximum de « séjour » à moins de 0,3 UA est de 110 heures). Par ailleurs l’architecture de vol est prévu pour que le bouclier fasse constamment face au disque solaire (les variations d’orientation doivent être inférieures à un degré) et en dessous de 0,1 UA (un tiers de la distance de Mercure au Soleil qui est à 88 rayons solaires du Soleil) les organes de prise de données sont exposés au minimum avec possibilité de les abriter à l’intérieur de la sonde lorsqu’ils ne sont pas utilisés. Les deux panneaux solaires, d’une surface totale de 1,55 m2 (la lumière est la source d’énergie de la sonde), sont rétractables et placés dans l’ombre du bouclier à l’approche du Soleil.

La mission a été prévue en fonction de ces exigences d’approche autant que possible et de protection autant que nécessaire. La maturation a été longue comme la plupart des missions spatiales. Elle a été prise en considération dès 1958 par le National Research Council mais elle n’est devenue une priorité forte qu’en 2003, pour être logée dans le programme « Living with a Star » de la NASA (la “star” c’est évidemment notre Soleil!). La première version, « Polar Solar Probe » en 2004 prévoyait de descendre jusqu’à 4 rayons solaires ; elle fut abandonnée car estimée trop chère (devisée à 1,1 milliards de dollars, hors lancement). Outre son ambition concernant l’approche, l’intérêt était d’observer la région des pôles du Soleil, ce qui aurait donné un point de vue utile du champs magnétique. Le nouveau projet, l’actuelle mission PSP, a été étudiée à partir de 2008. Cette fois-ci les chiffres ont été jugés plus acceptables et ils ont été effectivement acceptés, en 2014 : 750 millions plus 530 millions pour les études préliminaires, le lancement et la gestion opérationnelle. A noter, ce qui est rare, que la mission est quasi exclusivement américaine.

Le principe est de faire décrire à la sonde des orbites en ellipses dans le plan de l’écliptique, allant de l’orbite de Vénus à la face opposée du Soleil, en les resserrant progressivement en utilisant la planète Vénus pour la freiner (sept survols) et pour qu’elle puisse ainsi descendre plus profondément vers le Soleil. Au total, entre 2018 et 2025 la sonde doit décrire 24 ellipses tendant vers 88 jours chacune (seuls les dernières, plus courtes) et les 24 périhélies (passage au plus près du Soleil) doivent s’effectuer à moins de 0,17 UA (25 millions de km) de ce dernier dont 3 passages à 0,045 UA soit 9,68 rayons solaires ou 6,16 millions de km seulement. Il fera chaud ! Outre la chaleur un second problème est la vitesse de la sonde qu’il faut combiner avec la force d’attraction solaire. La sonde est arrivée à grande vitesse dans l’environnement de Vénus (nécessaire pour rejoindre la planète). Le second étage du lanceur Delta IV Heavy utilisé à cet effet est particulièrement puissant puisqu’il a donné au vaisseau spatial de 685 kg une vitesse de 12,4 km/s en plus de la vitesse de libération de 11,2 km/s. Le passage au périhélie est moins rapide (195 km/s au lieu de 308 km/s) pour la sonde Parker que pour la PSP ce qui permet de collecter plus de données (celles-ci sont bien entendu stockées dans la région du périhélie et diffusées vers la Terre – « science data downlink periods » – dès que la sonde se trouve dans un environnement sûr en allant vers son aphélie). Au cours du freinage la sonde devient plus sensible à l’attraction solaire (force de 274 m/s2 contre 9,8 m/s2 pour la Terre) et s’en approche. Le pilotage astronautique est très délicat ! Il s’agit de céder un peu de vitesse mais pas trop. Si l’on ralentissait trop à l’aphélie, la sonde serait capturée par le Soleil au périhélie et disparaîtrait corps et bien dans la fournaise.

Il y aura rapidement une suite ou si l’on préfère, un complément, aux observations de la sonde Parker puisque l’ESA doit lancer en 2020 la sonde Solar Orbiter. Celle-ci aura une orbite polaire mais s’approchera moins du Soleil, seulement à 55 rayons solaires. On déjeune avec le diable avec une très longue cuillère et on avance vers la table avec prudence ! Le passage au périhélie de la sonde Parker le 1er septembre sera le troisième, à 35 rayons solaires. Les 21 autres passages se feront de plus en plus près.

Illustration de titre : la sonde Parker à l’approche du Soleil (vue d’artiste) : crédit NASA/John Hopkins APL/Steve Gribben. Vous remarquerez les panneaux solaires mobiles sur le côté ; les antennes qui partent du bord du bouclier et la perche à l’arrière qui porte un magnétomètre.

illustration ci-dessous: les orbites de la sonde Parker. Vous remarquerez qu’elles se resserrent petit à petit, entre l’orbite de Vénus et le côté opposé du Soleil. Le troisième périhélie (1er septembre 2019) sera comme les deux premiers à 35 rayons solaires, les périhélies 4 et 5 seront à 27 Rs, les 6 et 7 à 20 Rs, les 8 et 9 à 15 Rs, les 10 à 16 à 11 ou 12 Rs, les 17 à 21 à 10 et les trois derniers, en-dessous de 10.

Illustration ci-dessous : orientation de la sonde et évolution du déploiement des panneaux solaires au cours de chaque orbite; crédit NASA /JHUAPL. Vous remarquerez que le bouclier thermique est toujours orienté vers le Soleil:

liens:

JHUAPL: http://parkersolarprobe.jhuapl.edu/index.php#the-mission

NASA (Goddard SFC): https://www.nasa.gov/content/goddard/parker-solar-probe

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 08 13

Le Soleil, source de vie mais père terrible qu’on connaît encore mal!

Oh Soleil, toi qui depuis toujours nous entraînes dans ta course autour du Centre de la Voie-Lactée, qui nous réchauffes de tes rayons, qui fais chatoyer notre monde dans la multitude des couleurs du spectre lumineux que tu as créé, qui donnes la vie en communiquant ton énergie à tout organisme qui recueille ta lumière, sois ici remercié de tous tes bienfaits !

Ces paroles propitiatoires prononcées, il faut bien dire que le Soleil est aussi pour la Terre, pour les hommes et pour la vie, une puissance redoutable et fantasque. Voyons les chiffres et tout d’abord celui de la masse qui comme vous le savez, gouverne tout en ce monde : 1989,1*1024 tonnes (1,9 milliards de milliards de milliards de tonnes) pour le Soleil, comparé à la Terre 0,006*1024 tonnes (6000 milliards de milliards de tonnes) et à Jupiter 1,9*1024 tonnes. Vue autrement, la masse du Soleil représente 98,854% de la masse totale du système solaire, ce qui en laisse très peu pour tout le reste y compris les géantes Jupiter, Saturne et Uranus sans parler des poussières que sont les planètes telluriques dont la Terre. Du fait des lois de la gravité, la masse détermine la pression et la chaleur interne. C’est cela qui a allumé le « réacteur à fusion nucléaire » du Soleil qui fonctionne depuis 4,5682 milliards d’années (avec 4,543 milliards d’années la Terre est juste un peu plus jeune, ce qui est normal puisqu’elle résulte de la contraction du nuage protoplanétaire au centre duquel le Soleil s’est formé). Par la pression et la chaleur, le réacteur convertit l’hydrogène qui constitue à 74% notre étoile, en hélium qui aujourd’hui en représente déjà 24% (les 2% restant étant faits de toute la gamme des autres éléments chimiques). Chaque seconde, 627 millions de tonnes d’hydrogène sont ainsi convertis en 622,7 millions de tonnes d’hélium ionisé (« particules alpha »), la différence de 4,3 millions de tonnes étant rayonnée sous forme d’énergie (photons lumineux et d’autres longueurs d’onde du spectre électromagnétique) à l’extérieur de l’astre et donc en partie vers nous. C’est dans le cœur que se passent les réactions (toujours pression + chaleur) et c’est de là que proviennent ces 4,3 millions de tonnes/s. Pour le moment les « réserves » d’hydrogène sont telles que le Soleil est en équilibre hydrostatique, on dit qu’il est en « phase linéaire », mais du fait des dissipations de masse, le cœur se contracte petit à petit, de ce fait les réactions deviennent plus intenses et la luminosité croît (7% par milliard d’années). C’est ainsi depuis 4 milliards d’années mais cela ne va pas durer « toujours », quoique nous ayons quand même un peu de temps devant nous. Ce n’est que dans un peu plus de 5 milliards d’années (le Soleil aura alors 9 milliards d’années) que les ressources en hydrogène du cœur s’étant épuisées, l’équilibre hydrostatique ne sera plus assuré et la phase linéaire prendra fin. Le milliard d’années suivant sera très éprouvant pour l’humanité si elle subsiste sous une forme quelconque sur notre planète (c’est peu probable mais on peut rêver !). En effet le cœur du Soleil s’étant totalement converti en hélium et de ce fait très sensiblement contracté, la pression interne aura considérablement augmenté et le processus de conversion s’étendra aux couches moins profondes d’hydrogène. Au-dessus, les couches superficielles moins « tenues » par la pression, se dilateront toujours davantage sous l’effet de la chaleur et le soleil enflera lentement pendant environ 500 millions d’années puis de plus en plus vite pendant les 500 millions d’années suivantes. Il sera alors devenu une géante rouge, d’un diamètre cent fois supérieur au diamètre actuel et d’une luminosité 2000 fois supérieure. A cette époque son enveloppe externe aura avalé corps et bien Mercure et Vénus et notre pauvre planète sera depuis longtemps totalement desséchée et grillée. Mais pour tout vous dire, déjà dans moins d’un seul milliard d’années la Terre sera probablement devenue inhabitable à cause d’une part de la hausse de la température moyenne et d’autre part de la fixation du gaz carbonique atmosphérique. Le Soleil aura ainsi repris tout ce qu’il nous aura donné, quelles que soient les prières que nous lui aurons adressées.

Pour le moment, en phase-linéaire, quelle est la structure du Soleil ? En remontant du centre vers l’espace (le rayon du Soleil, « Rs », fait 696.000 km contre 6.370 pour la Terre), on distingue six régions : (1) le noyau (0,25 Rs) où Vulcain active la fusion dans sa forge (15 millions de degrés Kelvin ou Celsius) ; (2) la zone radiative (0.25 à 0.7 Rs) où s’expriment les photons libérés par la fusion (la température passe de 7.000.000 à 2.000.000°C); (3) la tachocline (0.7 à 0.8 Rs), zone tampon fluide, transition entre la zone à rotation uniforme et zone à rotation différenciée selon la latitude, source probable du champs magnétique ; (4) la zone convective (de 0.8 Rs à la surface), d’une température allant de 2.000.000 à 6400°C, parcourue par des vagues de convection allant des pôles vers l’équateur et de la profondeur vers la surface. Elle génère sous la surface, des « supergranulations » (30.000 km de diamètre environ) qui évacuent la chaleur vers les granulations de surface et les « racines » des « spicules » (jets de matière de 500 km de diamètre allant jusqu’à 10.000 km d’altitude) guidées par les flux magnétiques. D’après les observations de la sonde SoHO (ESA), les « CME » (éjections de masse coronale) proviendraient aussi de la surface de cette région (donc de dessous la photosphère); (5) la  photosphère (500 km d’épaisseur), la température, en moyenne de 6000°C y décroit inversement à la profondeur. C’est la surface à laquelle nos instruments d’observations peuvent accéder (à distance!) et l’on y voit les granules mentionnées plus haut, d’une taille de 1000 à 3000 km, surface des supergranulations, entre ces granules, des tubes de flux magnétiques et à l’occasion une « facule » (zone brillante) ou une « tâche solaire » (zone sombre et « froide », à moins de 4000°C) qui peut mesurer de quelques milliers à plusieurs centaines de milliers de km et durer de quelques heures à quelques semaines; enfin (6) l’atmosphère que l’on subdivise en trois zones : la chromosphère, la couronne et l’héliosphère. Curieusement la chromosphère (quelques 1500 km d’épaisseur, de 500 à 2000 km d’altitude) que l’on aperçoit comme un anneau rougeâtre très fin lors des éclipses totales, commence par des températures relativement peu chaudes (4100°C) mais elle monte ensuite jusqu’aux environs de 20.000°K/C. Examinée avec un filtre, on peut y voir des « plages » (zones chaudes) contrepartie des facules photosphériques, des « fibrilles et « filaments, résultat d’une activité magnétique intense. Ensuite, dans une « zone de transition » assez chaotique d’environ 200 km vers la couronne, la température monte très rapidement jusqu’au million de degrés. La couronne est beaucoup plus chaude que la zone de transition, de 1 à 2 millions °C en moyenne jusqu’à 8 à 20 millions °C. Visuellement c’est la magnifique chevelure de l’astre, que l’on voit ébouriffée et énorme, lors des éclipses totales. C’est le lieu d’ouvertures des lignes de champ magnétique vers l’espace déterminant la magnétosphère solaire, et le lieu des projections d’énergie et de matière. Les lignes de champ entraînent en effet l’hydrogène de la surface solaire qu’elles ionisent en protons et électrons (1 millions de tonnes par seconde). C’est le point de départ de ce qu’on appelle le vent solaire. La couronne peut s’étendre jusqu’à une vingtaine de rayons solaires (0,1 unités astronomiques) mais elle fluctue beaucoup. Elle se poursuit par l’héliosphère, domaine du vent solaire, qui s’étend jusqu’aux confins de notre système solaire, à l’héliopause, onde de choc devançant sa course autour de la galaxie, à 230 km/s, déterminée par la confrontation de la vitesse du vent solaire protégé par la magnétosphère, avec le milieu interstellaire. Seuls les photons (et Voyager 1!) passent (a passé) l’héliopause et ce sont eux qui sont nos messagers auprès des autres étoiles.

Au-delà de sa structure, pour le moment stable, il faut voir le Soleil et son environnement dans son fonctionnement, comme un milieu dynamique. Il y a des règles ou des lois mais dans leur cadre, tout est mouvement et tout évolue! Outre son attraction par force de gravité dont le rayon s’étend bien au-delà de Pluton puisqu’elle commande à la Ceinture de Kuiper et aux Nuages de Oort, l’activité du Soleil fondée sur la fusion nucléaire se manifeste comme on l’a vu par ses lignes de champs magnétiques et ses émissions de flux photoniques (résultant de la conversion des 4,3 millions de tonnes/s mentionnées ci-dessus) et de matière (le million de tonnes/s également déjà mentionné), l’ensemble étant en interaction. Les photons ce sont les rayonnements lumineux, les ultra-violets et le rayonnement infra-rouge, la matière ce sont les particules, (« SeP », Solar energetic Particle), qui constituent le vent solaire. Les émissions solaires constituent un fond continu. Les flux de photons (irradiance) montrent une très faible variation (moyenne 1360 W/m2 au niveau de l’orbite terrestre) mais les flux de particules sont aussi rythmées par des cycles, le plus court et le plus connu étant de onze ans (en 2019 nous sommes en bas de cycle). Les projections violentes, à la périphérie des tâches solaires, s’annoncent par la floraison de ces dernières. On a ensuite des accès qui peuvent donner des tempêtes solaires s’ils sont suffisamment forts et parfois des éjections de masse coronale (CME, voir plus haut). A l’intérieur de l’héliosphère, les particules ionisées sont projetées hors du Soleil radialement à partir de sa surface mais la rotation du Soleil sur lui-même (la moyenne de celle des différentes bandes, fonction des latitudes, est de 27 jours) provoque une torsade en spirale du champ magnétique. Cette forme curieuse (voir illustration de titre) est appelée, « nappe de courant héliosphérique » ou « spirale de Parker » du nom de l’astrophysicien américain Eugène Parker qui l’avait prédite dans les années 1950. Elle s’étend jusqu’aux environs de l’orbite de Jupiter. Donc si on peut dire que les émissions sont directionnelles (elles suivent les lignes de force du champ magnétique), leur trajectoire est difficile à prévoir, ce qui aggrave leur danger pour les voyages interplanétaires. De plus si ces éruptions se manifestent autour du pic d’activité de onze ans, ce n’est pas toujours le cas ! A noter enfin que plus le Soleil est actif, plus les rayonnements et les particules qu’il éjecte font écran aux rayonnements galactiques (GCR) dont certains éléments sont extrêmement énergétiques (2% sont des noyaux d’atomes lourds – HZE – très accélérés). Quand on se promènera dans l’espace profond, il faudra donc choisir entre moins de risque de tempête solaire mais une dose de radiations GCR élevée et une dose plus faible de GCR mais un plus grand risque de tempête solaire. Pas facile !

Beaucoup de questions se posent. Les variations de températures s’expliquent mal, notamment leur remontée très forte dans la chromosphère. Et puis on voudrait mieux connaître le fonctionnement des cycles solaires qui présentent des irrégularités sensibles d’intensité. C’est important non seulement pour les voyages interplanétaires mais aussi pour les activités terrestres (l’éruption solaire de 1989 a causé de sérieux dégâts et à l’époque moderne on n’en a pas encore vécu d’aussi grave que celle de 1859 où il n’y avait ni satellites ni beaucoup de télécommunications, à part le télégraphe). On observe à distance le Soleil compte tenu de sa température et de sa force de gravité (plus on s’approche, plus la satellisation suppose une vitesse élevée pour ne pas chuter dans le Soleil puisque sa vitesse de libération est de 617 km/s contre 11,2 pour la Terre). On a envoyé quelques sondes, l’avant dernière SoHO (en activité jusqu’en 2020) orbite en halo autour du point de Lagrange L1, entre la Terre et le Soleil, la dernière Parker (NASA), lancée en 2018, doit s’approcher beaucoup plus près, jusqu’à presque “toucher” la Couronne. Elle a été équipée de dispositifs de protection remarquables. Je vous en parlerai la semaine prochaine.

Illustration de titre: spirale de Parker (domaine public). La planète la plus extérieure est Jupiter.

image ci-dessous: une tache solaire. On y voit bien la tache proprement dite, les bords très actifs sur le plan magnétique et les granules ordinaires de la surface solaire:

image ci-dessous, paysage solaire, à la surface de la photosphère:

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 08 08

Horizons lointains. Variations sur le thème des dimensions de l’Univers

Le regard tourné vers la voûte céleste, l’homme s’est toujours émerveillé et interrogé. Attiré mais aussi effrayé ou frustré par ce qu’il pressentait être, bien plus que l’Océan, la véritable immensité, il a plusieurs fois donné ses réponses sans accepter son incapacité à comprendre, en peuplant de divinités cet espace surhumain. Quelques philosophes grecs comme Aristarque de Samos ou Aristote ont cependant tenté des explications rationnelles. Certaines étaient plutôt bonnes, d’autres franchement mauvaises mais comme par manque de données d’observation il n’y avait pas d’arbitrage possible, ce sont les plus timides et les moins imaginatifs de ces penseurs qui imposèrent leurs vues. Je pense évidemment à Aristote et à tout le mal qu’il a fait à la science astronomique au travers de l’Eglise jusqu’après Galilée. Depuis quelques siècles l’esprit scientifique fondé solidement sur l’observation, l’esprit critique et la démonstration, s’est heureusement affermi et, assisté par un développement technologique extraordinaire, il apporte des éléments de plus en plus sérieux pour comprendre. Cependant si nous savons toujours plus nous ignorons encore beaucoup !

Faisons l’état des lieux, sans prétendre être exhaustif (ce serait difficile sur un tel sujet et dans un article de blog) !

NB : J’ai voulu dans cet article reprendre et prolonger les commentaires de Christophe de Reyff, physicien, ancien responsable de l’énergie à l’Office Fédéral de l’Energie (OFEN), à propos de mon article sur le projet LISA (ondes gravitationnelles).

Dès la première approche, les dimensions de l’Univers posent problème. On sait maintenant qu’il a commencé comme d’autres peut-être et peut-être à l’occasion d’une fluctuation quantique dans un vide qui n’était pas si vide, comme un volume extraordinairement massif et dense, évoluant dès l’origine en expansion à partir de l’infiniment petit, il y a 13,8 milliards d’années (13,799 +/-0,021). La lumière ou plutôt les divers signaux « messagers » provenant de ce moment ont mis cette durée à nous parvenir à la vitesse de…la lumière. Mais si l’on voulait revenir vers notre source (en en ayant bien sûr le temps) à cette même vitesse, constante universelle par définition immuable et intangible, il nous faudrait 42 milliards d’années*. L’explication étant que l’espace n’est pas resté inchangé depuis les origines mais qu’il s’est dilaté, dit autrement, qu’il y a eu « expansion ».

Toute la difficulté pour appréhender le sujet vient de cette immensité, de la limitation imposée par la vitesse de la lumière, du coefficient d’expansion et de la stabilité ou des variations de ce coefficient (accélération).

Alors si on regarde autour de nous, jusqu’où voit-on ? La bonne nouvelle c’est que compte tenu de la vitesse de la lumière on peut encore voir ou entendre nos origines (il vaudrait mieux dire « les percevoir » car les « messagers » ne sont pas que lumineux, ils occupent tout le spectre électromagnétique, et ils ne sont pas qu’électromagnétiques puisque les ondes gravitationnels, les neutrinos et les rayons cosmiques particulaires sont aussi porteurs d’informations). En effet la distance n’est pas telle que compte tenu de l’expansion nous nous éloignions actuellement des premiers signaux à une vitesse supérieure à celle de la lumière. En fait la limite au-delà de laquelle la fuite d’expansion serait supérieure à celle de la lumière et donc au-delà de laquelle aucun signal ne pourrait nous parvenir est actuellement de 14,45 milliards d’années, l’« horizon des photons » qui délimite la « surface de Hubble ». Nous pouvons donc encore voir aussi loin que nécessaire (même théoriquement plus loin) bien que très difficilement en raison du très fort décalage vers le rouge (effet Doppler-Fizeau résultant de la vitesse croissante d’éloignement en fonction de la distance) les premiers jaillissements de la lumière (visibles sur la « carte » qu’on appelle le fond diffus cosmologique ou la « surface de dernière diffusion » ou « Cosmic Microwave Background ») qui ont eu lieu il y a 13,8 milliards d’année moins 380.000 ans. Il faut en effet tenir compte de ce que suivant le Big-bang et jusqu’à la « recombinaison » (association des électrons avec les protons) qui eut lieu à cette époque, la lumière ne s’était pas encore dégagée de la matière. Mais on pourrait aller au-delà de cette barrière de 380.000 ans, vers le Big-bang, en exploitant les données fournies par les émissions de neutrinos et d’ondes gravitationnelles qui ont pu s’exprimer avant, ou en étudiant davantage la surface de dernière diffusion dont les irrégularités (« anisotropies ») expriment bien évidemment ce qui s’est passé « avant ».

Mais que voit-on ? Il est bien connu et compris que nous ne voyons que dans le passé puisque la vitesse de la lumière ne peut nous transmettre d’information que sur ce qui existait quand elle a été émise. Nous sommes donc de ce point de vue au sommet d’une sphère*, notre regard (ou plutôt notre regard avec l’aide de nos instruments d’observations) nous permettant de voir tout autour de nous des objets de plus en plus anciens au fur et à mesure qu’ils sont plus lointains. Nous ne pourrons jamais connaître directement notre univers contemporain, c’est frustrant mais c’est ainsi. Nous ne pouvons que le déduire en appliquant et en extrapolant sur les principes d’homogénéité et d’isotropie constatés pour l’univers lointain. Une étoile géante rouge voisine comme Antarès ou Bételgeuse (situées toutes deux à environ 500 années-lumière) deviendra un jour une supernova mais nous ne le saurons que lorsque nous aurons reçu le rayonnement nous en informant, 500 ans après qu’il ait été émis. Nous sommes donc forcément au centre de notre univers observable, constatant tout autour de nous un horizon limité par la surface de dernière diffusion et, plus en profondeur, par certaines sources d’émission de neutrinos et certaines sources d’émission d’ondes gravitationnelles. Cet horizon est différent de notre « horizon cosmologique » qui est la limite, « buttant » sur le Big-bang il y a 13,8 milliards d’années-lumière, au-delà de laquelle aucun signal ne pourrait être reçu et différent de l’« horizon de Hubble » (également appelé « horizon des photons ») qui est la distance à laquelle la vitesse des photons qui nous atteignent aujourd’hui venant de ces sources dépasserait la vitesse de la lumière, soit 14,45 milliards d’années-lumière. Un jour, l’expansion de l’univers se poursuivant, la vitesse d’éloignement de la totalité des astres qui nous entourent aura été accélérée jusqu’à dépasser la vitesse de la lumière et notre horizon sera devenu intégralement noir au-delà de la masse de matière retenue dans notre galaxie par son trou noir central et des galaxies voisines qui lui sont dépendantes. Notre horizon des photons (qui se sera dilaté jusqu’à atteindre 17,41 milliards d’années-lumière) nous empêchera de voir jusqu’à notre horizon cosmologique (qui se sera dilaté beaucoup plus vite). Mais ce sera dans très, très, longtemps, l’échéance dépendant non seulement de l’expansion mais aussi de l’accélération de l’expansion de notre univers.

On discute beaucoup de ces deux phénomènes. Voyons d’abord l’expansion. On parle de la « constante » (et on a tort) de Hubble (« H ») qui est la vitesse d’éloignement des astres qui nous entourent divisée par la distance qui nous sépare, le problème pour l’apprécier étant la définition de la distance (la vitesse donnée par le déplacement vers le rouge par effet Doppler-Fizeau est moins difficile à évaluer). On a obtenu plusieurs résultats pour ce paramètre, en fonction de l’instrument utilisé et des données prises en compte mais on approche sans doute d’un bon chiffre. Une méthode de calcul (à l’aide du télescope Planck, successeur de COBE puis de WMAP) repose sur une extrapolation des variations de températures constatées dans les anisotropies apparaissant à la surface du fonds diffus cosmologique. Une deuxième, présentée par l’Université Carnegie, utilise les Céphéides (dont la luminosité régulière est depuis longtemps considérée comme un bon indicateur des distances). Une troisième, imaginée et mise en œuvre par la collaboration H0LICOW en 2017, utilise les lentilles gravitationnelles. Une quatrième présentée tout récemment (2019) par la même université Carnegie, utilise les pics d’éclat des étoiles géantes rouges comme des standards de luminosité en combinant ces données avec celles de la luminosité de certaines supernovæ (type SN1a). La méthode Planck donne 66,93 +/- 0,62 km/s/Mpc, celle de Carnegie « 1 », 74 km/s/Mpc, celle de la collaboration H0LICOW 71,9 +/- 2,7 km/s/Mpc et celle de Carnegie « 2 », 69.8 km/s/Mpc. LISA qui doit collecter les ondes gravitationnelles dans les années 2030 devrait apporter sa contribution avec une grande précision. On affine donc et on finira sans doute par se mettre d’accord…mais la vraie difficulté vient de ce que cette « constante » ne l’est qu’à une époque donnée, ce qui fait qu’elle n’est plus une constante comme on le pensait mais qu’elle n’est que la valeur actuelle, H0, du « paramètre » H de Hubble.

S’il y a variation de la « constante » c’est qu’il y a eu accélération ou décélération de l’expansion. Qu’en est-il ? On sait déjà que l’expansion n’a pas été constante au tout début de l’univers, bien avant les 380.000 ans mentionnés plus haut, pendant la période dite d’« inflation » (entre 10-35 et 10-32 secondes suivant le Big-bang). Pour la suite, il semble qu’elle ait commencé à accélérer il y a 6 ou 7 milliards d’années et que cela va continuer. Pour mieux comprendre cette réalité actuelle et cette perspective, il faut ouvrir un autre « tiroir » c’est-à-dire considérer d’une part l’effet de masse qui freine l’expansion, via le « paramètre de densité », que l’on symbolise par «  » (Oméga), et d’autre part le coefficient qui l’accélère, qu’on appelle « constante cosmologique » et qu’on symbolise par « Λ » (Lambda).

Le premier, Ω, exprime la totalité de la matière dans l’univers, toute la matière y compris la fameuse « matière noire » (évaluée grâce aux observations du télescope Planck comme constituant 25,8% des composants de l’univers)! Il nous donne la courbure de l’espace-temps (certains comme le Professeur Luminet, disent que c’est cette courbure qui lui donne son dynamisme). Si Ω >1 la courbure de l’espace est sphérique (elle se referme sur elle-même), on va vers une contraction de l’univers, il est donc fini ; si Ω <1 la courbure est hyperbolique et on va vers un univers infini. D’après les études actuelles il est très légèrement positif avec Ω =1,11 +/-0,13, ce qui n’est malgré tout pas très concluant puisque les 0,13 mettent la conséquence dans la marge d’erreur.

Le second, Λ, coefficient d’accélération (“constante cosmologique“), compense cette force de contraction, on pourrait dire qu’il ouvre l’univers vers une expansion accélérée. Imaginé par Albert Einstein pour équilibrer ses calculs, il l’avait tout de suite rejeté mais on le reprend aujourd’hui car avec nos moyens d’observations, il « fait sens ». Il est extrêmement faible mais non nul et positif (1,1056 x 10-52 m-2). Certains disent qu’il pourrait exprimer la toujours hypothétique « énergie sombre » (évaluée par Planck à 72,8% des composants de l’univers). Le résultat de cette accélération entretenue par la constante cosmologique est que le paramètre de Hubble (H) décroit. Cependant la conséquence du caractère de constante du coefficient Λ c’est qu’il existe une valeur minimale à H qui donc s’arrêtera de décroître. La sphère de l’univers observable sera alors égale à la sphère de l’univers cosmologique (mais la quantité d’objets dans l’univers observable continuera de décroître puisque petit à petit ils en sortiront du fait qu’ils seront à une distance telle que leur lumière ne pourra plus nous rejoindre). Savoir si l’accélération continuera toujours reste un mystère tant que l’on ne connaît pas la nature de l’énergie sombre (ce n’est toujours qu’une hypothèse).

Comme notre possibilité de voir est limitée par la vitesse de la lumière, il est très difficile de savoir quelle forme a l’univers. Autrement dit, il est très difficile d’apprécier jusqu’à quel point notre perception est altérée par la structure de l’espace-temps. Dans notre environnement (on pourrait dire « à l’intérieur ») on se le représente assez bien comme une sorte d’éponge très mousseuse, les fibres de matières s’agglomérant autour de sortes de nodosités qui sont les régions où la matière est la plus dense et la force de gravité, la plus puissante, s’étirant autour de vastes cellules « vides » ou vidées par la force d’attraction des concentrations de matière voisines (« cosmic voids »). A plus grande échelle on en est encore aux supputations. Ce qu’on sait, c’est que l’univers est fini ne serait-ce que parce qu’il a eu un début et aussi parce qu’ Ω semble >1! Mais s’il est fini il est peut-être sans bord (« illimité ») ce que l’on sait possible depuis le développement des géométries non-euclidiennes. C’est la théorie de Jean-Pierre Luminet (voir lien vers sa conférence, ci-dessous). Comme volume, il privilégie l’espace sphérique dodécaédrique de Poincaré, figure compliquée qui introduit marginalement la possibilité de mirage topologique qui nous présenterait des images fantômes de la réalité (l’univers physique, jusqu’à l’« horizon des particules » d’aujourd’hui – 42 milliards d’années-lumière* – étant légèrement plus petit que l’univers observable contemporanéisé -53 milliards d’années-lumière). Reste à le démontrer en trouvant des images différentes d’une même source. Difficile à obtenir compte tenu de ce que les rayonnements qui nous parviendraient de cette même source par deux ou plusieurs chemins différents, auraient des âges différents et présenteraient donc des images différentes de cette même source ! On fait cependant de grands progrès en ce sens en y travaillant sur le CMB (voir article de l’Observatoire de Paris – obspm – ci-dessous).

Liens :

https://carnegiescience.edu/news/new-measurement-universes-expansion-rate-stuck-middle

https://www.youtube.com/watch?v=pjWSZWtr1Lw

https://www.obspm.fr/l-espace-dodecaedrique-de.html

https://fr.wikipedia.org/wiki/Surface_de_derni%C3%A8re_diffusion

https://arxiv.org/abs/astro-ph/0310253

Image de titre : Représentation de l’Univers en expansion accélérée. Crédit NASA/WMAP

Image ci-dessous: représentation de la structure de l’univers d’après les données collectées par le télescope Planck. Les distances ont été corrigées en appliquant le paramètre H0. Crédit: Max Planck Institute for Astrophysics, Millennium Simulation Project:

image ci-dessous: carte du CMB (Cosmic Microwave Background) c’est à dire de la “Surface de Dernière Diffusion” ou “Fonds Diffus Cosmologique”. Crédit: NASA/WMAP Science Team.

Image ci-dessous : visualisation de l’espace dans la topologie PDS (Poincaré Dodecaedric Space): crédit Observatoire de Paris. On voit clairement que cela “brouille les pistes”. Notez bien qu’au niveau du fond diffus cosmologique les mirages topologiques ne seraient quand même que marginaux.

Paradoxe:

Lorsque nous regardons à partir de notre situation aujourd’hui vers le lointain le plus éloigné possible nous parvenons jusqu’au CMB (13,8-0,38 G al) que l’on peut assimiler à un point (40 millions d’années-lumière de diamètre). Lorsque nous pivotons de 180° pour regarder aussi loin que possible dans la direction opposée, notre perception parvient jusqu’au même point, le CMB, du fait de la courbure de l’espace imposée par le temps via la vitesse de la lumière. Notre univers d’observation est donc strictement contraint par ce volume en forme de cône surmonté d’une demi-sphère (pour simplifier!). La droite allant jusqu’au CMB est le rayon d’un sphère mais le second rayon qui en serait la prolongation pour constituer un diamètre, est du point de vue observationnel replié sur le premier.

Si nous considérons l’espace contemporain qui nous savons existe mais que nous ne pouvons voir du fait de la finitude de la vitesse de la lumière, sachant que la distance au CMB est aujourd’hui de 42 G al du fait de l’accélération de l’expansion de l’univers, nous pouvons maintenant considérer la réalité d’une surface (volume mis à plat) dont 42 G al serait le rayon et qui aurait un diamètre de 84 G al.

NB: Cet article a été soumis à la relecture du Professeur Luminet.  Il en a approuvé le contenu en précisant que ce blog “contribue à une diffusion de la culture scientifique de qualité”.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 08 01 

Le rêve de Titan

Le 27 juin la NASA a annoncé qu’elle allait explorer Titan avec un hélicoptère. La sonde porteuse partira en 2026 et atterrira en 2034. J’aurai alors 90 ans ! Que faire sinon déplorer le temps qui passe, rêver et espérer quand même pouvoir contempler émerveillé ces cieux lointains et apprendre encore ?!

Titan n’est pas un « objet » ordinaire. Nous en connaissons assez bien les caractères généraux grâce à la sonde Cassini de la NASA qui pendant 13 ans a permis d’étudier le système de Saturne, dont il fait partie, avant d’être précipitée dans l’enveloppe gazeuse de cette dernière le 15 septembre 2017.

C’est d’abord l’un des deux plus gros satellites des planètes (et de certaines planètes elles-mêmes) du système solaire, 5150 km de diamètre, plus que la Lune (3474 km) ou que Mercure (4875 km) mais moins que Mars (6779 km) et bien sûr que la Terre (12742 km) et légèrement moins que Ganymède (5268 km) le plus gros des satellites de Jupiter. C’est aussi avec la Terre, le seul astre rocheux de notre système, doté d’une atmosphère épaisse (pression au sol 1.47 bars), beaucoup plus que celle de Mars (0,010 bar), mais pas trop (comme celle de Vénus, 93 bars !). C’est encore un astre étrange où les rochers sont en glace d’eau et où dans les fleuves coulent des hydrocarbures qui s’évaporent lentement dans de grands lacs tout au long d’une année de trente ans (29,46), marqué comme la Terre par des saisons puisque l’axe de rotation de Saturne par rapport au plan de l’écliptique est incliné de 26,73° (Terre 23,26°). A noter que c’est cette inclinaison et non celle de Titan sur son orbite qui détermine les saisons puisque la source de chaleur est le Soleil et non Saturne et que l’inclinaison de l’axe de rotation de Titan est seulement de 0,28° sur le plan orbital de Saturne*. Observons le un peu plus en détails :

*cf commentaire du professeur Daniel Pfenniger (UniGe).

Tout d’abord, nous devons prendre en compte la caractéristique structurelle primordiale de tout corps céleste, sa masse. Elle est très faible, 134,5 contre 639 pour Mars, 5972 pour la Terre et 56830 pour Saturne (en milliards de milliards de tonnes – 1,345 à la puissance 23 !) mais quand même le double de celle de la Lune (73,6). Ce rapport entre la taille et la masse de l’astre détermine sa densité et résulte de sa composition particulière, fonction de sa localisation dans le systèmes solaire et dans le sous-système saturnien. Compte tenu de sa formation bien au-delà de la Ligne-de-glace, qui passe au milieu de la Ceinture-d’astéroïdes (entre Mars et Jupiter), il est constitué d’un cœur de silicates hydratés (pas de métal !) enrobé dans de la glace d’eau mêlée d’hydrocarbures mais comme la pression et la chaleur interne jouent, cette glace perpétuellement solide à l’extérieur (sauf éventuel volcanisme) est liquéfiée à l’intérieur au point qu’on pense que grâce à la présence d’ammoniaque (NH40H – qui abaisse le point de congélation), elle a pu constituer un véritable océan planétaire souterrain. Par ailleurs la faible masse a pour conséquence une faible gravité en surface, légèrement inférieure à celle de la Lune (0,135g contre 0,16g). Combinée à la densité de l’atmosphère cela crée la condition idéale pour l’exploration robotique aéroportée (comme nous le verrons plus tard).

Un autre caractère planétologique important est la composition de l’atmosphère. Elle est constituée de 95% à 98,4% d’Azote (Terre 78,09%) et de 5 % à 1,6% d’hydrocarbures dont principalement du méthane (CH4) et un peu moins d’éthane (C2H6); l’hydrogène suit avec 0,1 % et, en plus faibles quantités (« traces »), de toutes sortes de composés: acétylène, propane, mais aussi de CO2 . A la température ambiante, le méthane se trouve aux alentours de son point triple. Il y a donc, en instabilité selon les variations de températures, du méthane gazeux dans l’atmosphère et liquide en surface. Une grande partie du « charme » de titan repose sur le cycle des liquides et des gaz. Il y a, surtout dans la région des pôles, ces lacs de méthane mentionnés plus haut. Ils sont soumis à une forte évaporation qui alimentent l’atmosphère en nuages. Compte tenu de la rotation lente de l’astre sur son axe (15,95 jours) et des faibles changements de températures résultant de l’exposition au Soleil cette atmosphère est en mouvement, parcourue par de faibles vents. Avec l’évolution des nuages, il pleut et il neige sur Titan en grosses gouttes ou en gros flocons qui tombent lentement (gravité et densité de l’atmosphère!) sur un sol déjà enrichi et complexifié au cours des éons ; et des orages se déclenchent, avec de la foudre, donc des éclairs et du tonnerre qui gronde d’autant plus que l’atmosphère dense en transmet bien le bruit. Outre ces décharges électriques, les radiations solaires (Uv) et galactiques (le satellite ne jouit pas de la protection d’une magnétosphère), ajoutent aux facteurs dissociatifs et associatifs des molécules complexes en suspension dans l’air et déjà accumulées au sol.

En dehors des lacs et des pics les plus acérés, le sol est en effet, en raison de ces processus qui durent depuis des milliards d’années, recouvert de matières hétéropolymères, les « tholines », substances visqueuses et collantes, proches de nos goudrons. Elles ressemblent aussi beaucoup aux « résidus récalcitrants » (selon Carl Sagan) obtenus par Miller et Urey au bout de leurs recherches en laboratoire visant à synthétiser les composants de base de la vie par décharges électriques dans une supposée atmosphère terrestre primitive. A noter et c’est important qu’il s’est avérée plus tard que la composition de cette atmosphère reposait sur des hypothèses inexactes, l’atmosphère primitive terrestre contenant probablement beaucoup moins d’hydrogène, beaucoup plus de gaz carbonique et du souffre.

Un phénomène intrigue, l’intermittence de certains lacs. Cela indique évidemment une faible profondeur, une forte évaporation mais aussi peut-être une porosité du sol et quand on rapproche cette possibilité de la présence d’un océan souterrain, on peut envisager des communications entre la surface et l’Océan et donc encore plus de possibilités « biotiques » car l’environnement océanique pourrait permettre aux polymères organiques formés en surface de contourner l’obstacle du très grand froid pour continuer à évoluer dans des conditions plus favorables.

Enfin, comme la Lune, Titan est un satellite en évolution synchrone avec sa planète. C’est-à-dire que tout en tournant sur elle-même, elle lui présente toujours la même face. En effet Saturne verrouille l’exposition de son satellite par force de marée puisqu’elle n’en est distante que de seulement 10 diamètres saturniens (1,22 millions de km) et que sa masse est beaucoup plus importante que celle de Titan. Ceci veut dire que l’autre face n’est jamais exposée vers Saturne. Cela a-t-il des conséquences sur le climat ou les différents flux dans l’atmosphère, dans le sol, dans la structure interne de la planète ? Cela ajoute-t-il à la richesse des processus d’échanges biochimiques en cours ? Le sujet sera probablement étudié un jour.

 

Son atmosphère et la présence de liquide en surface conduisent certains à dire que Titan ressemble à une Terre primitive. C’est peut-être extrapoler sur des éléments insuffisamment analogues (la composition de l’atmosphère) et ignorer d’autres aspects très différents (la température). Le système de Saturne est froid, très froid car il se trouve loin du Soleil, entre 1349 et 1505 millions de km (10 Unités Astronomiques, « UA »), soit entre 9 et 11 UA de la Terre (qui se trouve par définition à une UA du Soleil). Compte tenu de l’éloignement du Soleil, l’irradiance au niveau du système saturnien est très faible (14,9 W/m2 soit 1/100ème de celle de la Terre et 1/50ème de celle de Mars). La luminosité en surface est donc très faible, d’autant qu’il y a des nuages, et la température moyenne est très basse (-180°C) et elle varie très peu. Mais il faut reconnaître que c’est un monde complexe et actif, certainement un incubateur qui a dû pousser la complexification des processus chimiques plus loin que la plupart des autres astres du système solaire.

 

L’exploration de Titan n’est pas facile, à cause de la distance et du temps nécessaire pour l’atteindre et ensuite pour commander les manœuvres des robots (les signaux mettent en moyenne 1h20 dans un seul sens) et à cause de la température, des orages et des étendues liquides (il vaut mieux éviter d’y couler, avant de s’y noyer!). La NASA a choisi la bonne solution puisque l’atmosphère est porteuse : l’hélicoptère, en l’occurrence un quadricoptère ou « quadcopter » comme disent les Américains, dotés de quatre couples de deux rotors (deux couples de chaque côté). L’idée a été lancée en l’an 2000 par le spécialiste de Titan, Ralph Lorenz (« planetary Scientist » au John Hopkins University Applied Physics Laboratory –JHUAPL)…le temps passe et les projets d’exploration mettent toujours longtemps à éclore…quand ils éclosent ! Curieusement le projet est devenue une affaire de famille car si Ralph Lorenz est le Project Scientist (responsable scientifique) de la mission, c’est son épouse Elizabeth Turtle, de la même université, qui en a été nommée la « Principal Investigator » (responsable générale). La mission nommée « Dragonfly » (libellule) sera effectuée dans le cadre du programme « New-Frontier » de la NASA, comme New-Horizons dont la sonde vient de passer à proximité d’Ultima-Thule, le premier objet de la Ceinture de Kuiper observé en détail, Juno qui orbite aujourd’hui autour de Jupiter ou comme Osiris-Rex qui étudie actuellement l’astéroïde Bennu. L’objet de Dragonfly est d’étudier la géologie de surface, la météorologie et leurs interactions (exactement ce qu’on pouvait demander !). Le budget est « raisonnable » (comme doivent l’être ceux des projets « New-Frontier »), un milliard de dollars seulement (hors lancement qui coûtera probablement une centaine de millions de dollars).

Dès le début de la mission le quadcopter mettra à profit la densité de l’atmosphère. Il ne sera pas déposé au sol mais libéré avant l’atterrissage, dans la basse atmosphère (à 1,2 km d’altitude) après une descente freinée par bouclier thermique puis par deux parachutes successifs. Ceci lui permettra la reconnaissance du meilleur site pour se poser et aussi une première observation.  Ensuite l’engin rechargera ses batteries pour pouvoir faire un nouveau vol (il passera plus de temps au sol que dans les airs car outre ce rechargement, il fera des observations du sol et enverra les données collectées vers la Terre). En plus des caméras, il y aura à bord des spectromètres, des capteurs météo, un sismomètre ; des forets fixés sous les patins d’atterrissage permettront de prélever des échantillons qui seront analysés sur place. Une innovation intéressante sera l’installation d’un dispositif de réalité augmentée qui permettra de contrôler périodiquement en trois dimensions l’appareil et son environnement immédiat dans d’excellentes conditions, « comme si on y était ».

Le premier atterrissage aura lieu sur l’équateur (il est toujours plus facile de s’y poser car c’est au-dessus de cette zone qu’arrive naturellement un vaisseau spatial attiré par la force de gravité de l’astre et il n’est pas nécessaire de dépenser d’énergie supplémentaire pour monter en latitude), dans la région de Shangri-La (c’est un champs de dunes comme il y en a beaucoup dans cette région). Ensuite Dragonfly fera de petits vols jusqu’à 8 km de distance et 500 mètres d’altitude ; sur les deux ans et demi que durera la mission il devrait parcourir 175 km. Cela le mènera jusqu’au cratère Selk intéressant par la variété de ses roches notamment parce que l’impact qui l’a généré a permis la libération, et l’action en surface, d’eau liquide. Bien entendu l’énergie utilisée sera nucléaire, sans doute un RTG (radioisotope thermoelectric generator) fonctionnant au plutonium 238 (convertissant en électricité la chaleur résultant de la désintégration radioactive du métal) ou peut-être un réacteur de type Kilopower fonctionnant à l’uranium 235, car à cette distance utiliser l’énergie solaire est impensable, l’irradiance étant beaucoup trop basse.

Alors verrai-je les films que Dragonfly prendra de ce monde étrange ? Quoi qu’il en soit de mon destin, vous les plus jeunes ne manquez pas de vous en rassasiez ! Ce seront des photos crépusculaires comme les rives que j’aborderai ou que j’aurai déjà franchies. Vous contemplerez dans une atmosphère ocre-dorée tirant vers l’orange et sombre, la lueur de Saturne réfléchissant la lumière du Soleil lointain. L’image beigée de la planète géante entourée de ses anneaux évoluera comme sur Terre celle de la Lune en fonction de ses phases. Énorme et immobile dans le ciel, elle dominera les montagnes de glace et se reflétera comme dans nos plans d’eau terrestres, dans quelque plan d’éthane liquide, noir et lisse. « Vous » ne serez pas encore dans vos scaphandres chauffés, les pieds dans vos bottes fourrées pataugeant dans la boue de tholines de ce monde glacial mais si nous sommes déjà parvenus sur Mars, nul doute que vos descendants y accéderont un jour avant d’aller encore plus loin. Ce sera splendide!

Image à la Une: Dragonfly en mouvement au-dessus du sol de Titan. Illustration crédit: John Hopkins APL.

Image ci-dessous: Dragonfly au sol. Le cylindre à l’arrière est le RTG. Crédit: John Hopkins APL.

liens:

https://www.nasa.gov/press-release/nasas-dragonfly-will-fly-around-titan-looking-for-origins-signs-of-life

http://dragonfly.jhuapl.edu/

https://spectrum.ieee.org/automaton/robotics/space-robots/how-to-conquer-titan-with-a-quad-octocopter

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 28

Les ayatollahs du climat s’opposent aux vols habités dans l’Espace ; ne leur cédons pas !

Les extrémistes climatiques mènent actuellement une campagne contre le tourisme spatial. Ils sont parvenus à mettre dans leur camp Philippe Droneau, le « Directeur des publics » de la Cité de l’Espace de Toulouse. Cette campagne est une menace pour la Liberté et le Progrès. Le raisonnement qui la sous-tend est biaisé et donc infondé. C’est grave, d’autant que Philippe Droneau suggère également d’interdire l’accès de l’espace profond au « vulgum pecus ».

Dans son interview par le magazine en ligne Usbek et Rica publié le 23 juin, il fait essentiellement les objections suivantes : (1) Il y a urgence climatique ; développer massivement des vols suborbitaux de loisir n’est pas pertinent en raison de leur coût écologique (libération de dizaines de tonnes de carbone dans la haute atmosphère) et de leur coût éthique ; (2) Il est faux de prétendre que le tourisme pourrait financer les projets privés d’exploration ou autre ; (3) Mars ne pourra être une « planète B ». Même s’il y a un jour une colonie sur Mars, dans 200 ans, ça concernera une centaine d’individus au plus. La priorité, c’est de s’occuper des bientôt 9 milliards de Terriens et de gérer le vaisseau spatial Terre.

Ma première réponse à ces objections est qu’elles sont sans nuance et donc excessives, comme le sont souvent les déclarations des écologistes politiques. Si « beaucoup » de « quoi-que-ce-soit » (la production d’acier par exemple) peut poser un problème environnemental, « un peu » est souvent non seulement acceptable mais souhaitable. Ce sont les quantités ou les doses qui posent problème et non la nature même des activités humaines. En ce qui concerne les vols de fusées affectées au tourisme spatial ou au transport planétaire terrestre il faut bien voir que la population concernée sera peu nombreuse. On parle de prix qui seront ceux d’une super première-classe s’il s’agit d’aller de New-York ou de Londres à Sydney ou de passer un week-end dans l’espace. On peut envisager l’équivalent de 20.000 CHF d’aujourd’hui par personne. Cela veut dire que très peu de monde répondra à l’offre (pour donner une idée, les passagers de première classe sur long courrier représente 0,3% seulement du nombre de passagers d’Air France). Cela veut dire qu’il y aura relativement peu de vols (peut-être un millier par an). Mais cependant ce nombre de vols sera suffisant pour créer une très sérieuse économie d’échelle permettant d’abaisser considérablement le coût unitaire des éléments réutilisables des lanceurs (dont le premier étage) pouvant être affectées aux Starships interplanétaires qui ne partiront sur la Lune que peut être tous les mois en moyenne et pour Mars que tous les 26 mois (compte tenu de la configuration planétaire). Les vols à objectif scientifique vers la Lune et vers Mars (ou autres) en profiteront forcément ; « it’s the economy, stupid ! ».

En ce qui concerne l’impact écologique il faut bien voir qu’un excellent cocktail d’ergols est constitué par de l’hydrogène liquide (LH) brûlant dans de l’oxygène liquide (LOX). C’est ce qui était utilisé pour Ariane V et ce n’est pas polluant (production d’eau !). Toutes les combustions ne sont pas polluantes ! On peut certes supposer que pour les voyages martiens on utilisera plutôt le méthane (CH4) brûlant dans le LOX (puisque la production de méthane pour le vol de retour sera relativement facile sur Mars). Cela produira du CO2 ce qui est aujourd’hui considéré comme inacceptable mais il faut bien voir que les vols vers Mars ne seront pas nombreux et que ces vols ne seront pas la seule source de CO2 dans le monde (cf. les centrales à charbon allemandes). Cette limitation résulte d’abord de ce que les possibilités en sont réduites par les fenêtres de lancement (un mois tous les 26 mois) et aussi de ce que pendant très longtemps les infrastructures martiennes seront trop peu développées pour accueillir des dizaines de vaisseaux partis pendant que ces fenêtres sont ouvertes. Quand les infrastructures seront suffisamment développées les technologies de transport auront évolué. Pour les voyages planétaires (point à point du globe terrestre) on pourra continuer à utiliser la propulsion HL/LOX.

Un autre point à noter est qu’une fusée consomme l’essentiel de ses ergols en altitude relativement basse (contrairement à ce que laisse croire Philippe Droneau). En effet ce qui représente la masse la plus importante d’un vaisseau spatial avant décollage c’est la part des ergols qui va permettre le décollage de la totalité de la masse*, incluant la totalité de ces mêmes ergols, avec une force suffisante pour lui donner une vitesse initiale qui permettra ensuite une accélération toujours plus rapide, tant qu’il y aura du carburant. Plus le vaisseau monte, plus il prend de la vitesse et plus sa masse se réduit. L’essentiel est donc consommé dans les premières dizaines de km d’altitude (grâce à la plus grande partie de la masse du premier étage) et non pas dans la « haute atmosphère » (comparez juste visuellement le volume d’un premier étage avec celui d’un second étage, sans y inclure l’habitat ou la charge utile).

*Pour le “Super-Heavy”+”Starship” de SpaceX (le tout étant appelé précédemment le “BFR”), 4400 tonnes dont 3065 pour le premier étage (Super Heavy) et 1335 pour le second étage (Starship) dont 185 tonnes à vide (ou plutôt “à sec”) avec sa charge utile (100 tonnes). Pour comparaison l’Airbus a380 a une masse de 575 tonnes au décollage et une masse de 277 tonnes à vide.

Ma deuxième réponse est qu’en niant l’intérêt des vols touristiques, Philippe Droneau ne voit pas que non seulement ils vont permettre de réduire le prix unitaire des vols scientifiques effectués avec les mêmes fusées (comme développé plus haut) mais aussi que sur Mars le « vol + séjour » touristique peut aussi permettre de faire tourner une économie locale qui coûterait encore plus cher si elle n’était prévue que pour le séjour de scientifiques. Pourquoi donc refuser l’argent du privé s’il peut aider à développer la base martienne et à faire fonctionner la recherche ?! Cette remarque me semble d’autant plus pertinente que les « touristes » qui, au-delà de l’orbite basse terrestre, viendront passer un séjour nécessairement long sur Mars, 18 mois (imposé par les contraintes synodiques), devraient très souvent y « faire quelque chose » ou y « tenter quelque chose », qui pourrait s’avérer utile et profitable à tous (ils y seront d’autant plus incités qu’ils auront payé très cher ces « vacances »). Le « touriste » pourrait être un cinéaste mais il pourrait être aussi un futur entrepreneur venu tester une idée, un concept, dans un environnement extrême ou il pourrait être un « étudiant-chercheur » de haut niveau voulant bénéficier de l’environnement intellectuel exceptionnel de la communauté martienne (concentration extrêmement forte de personnes à la pointe de chacune des nombreuses technologies nécessaires à la vie sur Mars…et sur Terre). Je trouve que la proposition de Monsieur Droneau de vouloir restreindre l’accès à l’espace à des « spécialistes » est extrêmement élitiste, arrogante et contraire aux intérêts même de la Science. Tout le monde ayant une motivation suffisante et capable de réunir les moyens financiers nécessaires (les siens propres ou ceux de ses sponsors), ce qui va d’ailleurs ensemble, doit pouvoir avoir accès à l’Espace pourvu que son projet ne soit pas nuisible de façon évidente à l’intérêt commun (il devra quand même y avoir un comité ou conseil pour accepter les candidatures, ne serait-ce que pour des raisons de sécurité ou de nombre de “places” limitées).

Ma troisième réponse est que oui Mars pourrait être pour les Terriens une planète-B. Il est évident que seule une infime partie des Terriens pourront s’établir sur Mars. Non pas 100 dans 200 ans mais plutôt 1000 dans 20 ans, contrairement à ce que pense Philippe Droneau, mais de toute façon un nombre très, très inférieur à la croissance annuelle actuelle de la population mondiale. Mais ces quelques personnes pourraient emporter avec elles, conserver et faire fructifier la quintessence de notre civilisation ; ce n’est pas rien ! Cela vaut un effort et même de diffuser quelques tonnes de CO2 supplémentaires dans l’atmosphère terrestre. Dans le cas d’un cataclysme survenant sur la Terre ce serait pour nous tous, ceux qui seraient partis et ceux qui n’auraient pas pu ou voulu partir, une seconde chance (intellectuellement pour les seconds). Dans le cas d’une continuation heureuse de notre civilisation sur Terre, ce serait un enrichissement potentiel, le nouveau milieu accueillant la vie suscitant forcément des innovations profitables également à la vie sur Terre…Tout ceci pourvu évidemment que l’on laisse suffisamment de temps aux nouveaux Martiens pour s’installer et, dans le cas de l’hypothèse catastrophiste, qu’ils aient eu suffisamment de temps pour acquérir une autonomie leur permettant de survivre si la civilisation terrestre est détruite. Ce ne sera pas demain! En attendant, du fait de la stimulation du milieu, la présence d’une colonie humaine sur Mars nous apportera des innovations intéressantes pour tous, Martiens et Terriens, dans le domaine du transport, de la durabilité, du recyclage, de la productivité agricole, du traitement économe de l’environnement, de son contrôle microbien, etc…

Alors dans ce contexte, je ne vois vraiment pas quel est le « coût éthique » auquel fait allusion Philippe Droneau. Je trouve que sa vision de notre futur, de nos besoins et de nos devoirs, est extraordinairement étriquée et conventionnelle. Un vrai scientifique devrait faire confiance à nos capacités d’innovations et d’adaptation ; ce ne semble pas être son cas. C’est fort regrettable pour quelqu’un chargé de la diffusion de la Science auprès du Public.

Image de titre: le premier étage Super-Heavy et son Starship au décollage dans l’atmosphère terrestre; le premier étage va jusqu’aux ailerons (à la base du Starship). crédit SpaceX.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 20

50 ans et depuis, quasiment rien!

Il y aura cinquante ans ce 21 juillet des hommes posaient pour la première fois le pied sur la Lune. Je n’aime pas les célébrations lorsque leurs causes n’ont pas permis les effets qu’on pouvait en espérer et c’est bien hélas ici le cas. En effet qu’avons-nous accompli dans l’Espace en matière de vols habités depuis cet exploit ? Quasiment rien relativement à cette première excursion.

Après avoir atteint la Lune, premier « sommet » possible, la NASA s’est endormie sur ses lauriers en se laissant porter paresseusement par le grand fleuve des dépenses publiques dans les méandres de l’indécision et du manque d’audace, au ras de l’altitude zéro, sans aucune vision autre que celle de profiter de la promenade sans encourir de risque. La deuxième puissance spatiale, l’URSS, a enragé d’avoir perdu mais s’est tue, « encaissant » sans doute le fait que son système politisé à l’excès, totalement rigide, ne lui permettait pas d’être aussi efficace qu’un pays d’esprits libres. La troisième puissance spatiale possible, l’Europe a regardé de haut, méprisante, ces Américains qui jouaient aux personnages de science-fiction à grand renfort de dollars au lieu de faire des choses « utiles » mais de toute façon son programme Europa, successeur de Diamant et précurseur d’Ariane n’aurait pas été, et de loin, « à la hauteur » des capacités de la Saturn V américaine (pas plus qu’Ariane ne l’est devenue d’ailleurs !).

Après l’accomplissement spectaculaire et brillant toujours dans les esprits, du programme Apollo en 1972, la NASA avait le choix. Il s’agissait de continuer à explorer puis de s’installer sur la Lune ou de construire une station spatiale pour réaliser plus tard une « île de l’espace » à la Gerard O’Neill ou encore de partir pour Mars. A la croisée des chemins, en fonction de ses motivations, on peut toujours se tromper et c’est ce qui fut fait surtout si on présume comme la NASA de la réponse sans se préparer au refus de l'”Administration”. D’un côté le Président Nixon n’était pas John Kennedy et de l’autre, la NASA était portée par l’hybris générée par le succès.  Il y avait divergence totale entre un Président qui n’était pas vraiment intéressé par l’Espace puisque les Russes avait été battus dans la course engagée avec le vol de Gagarine le 12 avril 1961 et une institution publique devenue pléthorique en fonctionnaires et en moyens financiers, qui s’imaginait sans doute que les caisses de l’Etat étaient à sa disposition sans qu’il soit vraiment utile de se préoccuper du niveau des dépenses. Nixon choisit donc la Navette (« the Shuttle ») en donnant son feu-vert le 5 janvier 1972, pour « continuer », on ne sait trop vers quoi.

Ce qui a manqué à l’époque c’est la vision et l’audace. La Navette était un compromis qui permettait d’attendre de fixer un objectif puisqu’elle devait être utile pour l’atteindre, quel qu’il soit, et de permettre à la NASA et à ses fournisseurs donc aux Etats où ils étaient installés, de continuer à « tourner » et donc d’alimenter le système en (bons) électeurs. Les présidents, Nixon ou ses successeurs Gérald Ford, Jimmy Carter, Ronald Reagan, ne voyaient pas l’avantage qu’il y aurait eu à « sortir du berceau » pour s’installer durablement sur Mars ou à défaut sur la Lune. En fait les décideurs politiques étaient restés très « Terra-centrés ». Ils ne voyaient l’intérêt de l’Espace qu’en fonction de la Terre en général et de leurs relations avec les autres grands pays du monde, en particulier. Par ailleurs l’horizon d’une administration ou d’un président des Etats-Unis était (et est resté) de 8 ans c’est-à-dire de deux mandats. Le programme Apollo avait montré que c’était un peu juste (discours de John Kennedy le 25 mai 1961, premier atterrissage sur la Lune le 21 juillet 1969) et il n’était pas question pour Nixon en 1969 de se lancer dans l’aventure alors que la guerre du Viêt-Nam battait son plein. En 1972, date de la dernière mission Apollo (A17), il ne lui restait qu’un mandat (qui fut d’ailleurs écourté !).

La Navette dont le vol inaugural eu lieu en avril 1981 a été une voie sans issue (qui a été fermée en juillet 2011) car on a voulu utiliser des technologies qui n’étaient pas adaptées à la réutilisabilité et on a persévéré dans l’erreur (comme peut le faire une administration), à grand coût (notamment pour l’inspection et la remise en état du bouclier thermique après chaque vol). Il était aussi cher d’envoyer une navette dans l’espace (1,5 milliards par vol) que d’y envoyer un lanceur lourd de type Saturn V. Les seuls réussites furent les 5 missions de « STS » (pour « Space transport System ») qui entre décembre 1993 et Mai 2009, permirent de corriger la vue du télescope Hubble (l’« aberration optique » de la périphérie de son miroir primaire) car dans ce cas la Navette servit d’atelier et d’hôtel aux astronautes qui effectuèrent la réparation (notamment Claude Nicollier qui en décembre 1993 put mener à bien les opérations décisives à l’aide du bras robotique, RMS -Remote Manipulator System).

La Station Spatiale Internationale (« ISS ») lancée en 1998 fut tout autant une voie sans issue, une perte de temps et d’argent car on aurait pu expérimenter toutes les techniques de support vie sur la Lune ou sur Mars plutôt que dans l’espace et le fait qu’elle soit positionnée en orbite basse terrestre (LEO) a empêché toute tentative d’expérimenter des mises en gravité artificielle d’habitats par force centrifuge (la Station étant trop près de la Terre…et la plupart des dirigeants de la NASA ne se souciant pas vraiment de cette solution aux problèmes posés par l’apesanteur). Quant aux manœuvres de « docking » on aurait pu aussi les expérimenter dans les assemblages de vaisseaux spatiaux, tout comme leurs ravitaillements en ergols en LEO avant d’aller « quelque part ».  Le projet d’ISS avait été lancé par Ronald Reagan en 1983 mais fut véritablement choisi par le Président Georges H. Bush en 1989 à l’issue de la lamentable étude de 90 jours (« the 90-Day Study on Human Exploration of the Moon and Mars ») dans laquelle la NASA illustra son absence totale de conscience des réalités en proposant un plan d’exploration de Mars chiffré à 450 milliards de dollars (..de l’époque ! soit à peu près 930 milliards de dollars d’aujourd’hui *). Pour le président Bush il n’y avait donc d’issue que vers l’ISS devisée à quelques 100 milliards et un objectif « nouveau » par rapport à la Lune. Cela devint « une excellente idée » en raison de l’implosion de l’URSS puisque ce fut le moyen politique d’associer en 1993 la nouvelle Russie à un programme correspondant à ses capacités techniques, dans la continuation de sa station Mir et par la même occasion de réaliser enfin le projet américain de station Freedom, tout en s’alliant aux Européens de l’ESA et aux Japonais de JAXA. Souvent présenté comme un modèle de coopération internationale, ce fut en réalité une excellente occasion de ronronner ensemble à grand frais (quelques 150 milliards à ce jour !).

*Avec Elon Musk (et son lanceur Super-Heavy + son Starship!) on évalue aujourd’hui un programme d’exploration de Mars (fin de la réalisation du lanceur et construction d’une flotte suivie d’une petite dizaine de campagnes de vols) à environ 60 milliards de dollars.

Et maintenant, 50 ans après, « les joies de l’ISS » épuisées, que va-t-il se passer ? Nous sommes à nouveau à la croisée des chemins et il semble bien que nous allons encore une fois prendre le mauvais, le Lunar Orbital Platform-Gateway, c’est-à-dire une nouvelle ISS qui cette fois tournera autour de la Lune (sur une trajectoire très excentrique). Quel intérêt ? Aucun, si ce n’est continuer à faire travailler les fournisseurs et exposer les astronautes aux radiations solaires et galactiques avec un peu plus d’intensité que sous la protection des ceintures de Van Allen. Si l’on voulait faire plus que l’ISS, pourquoi n’a-t-on pas choisi d’aller à nouveau sur la Lune et de s’y installer ? Quel intérêt présente cette courroie de transmission si ce n’est des complications inutiles, des risques supplémentaires, encore plus d’argent et beaucoup d’inconfort pour mener à bien une mission lunaire ou martienne.

Décidément le chemin vers les astres est long et tortueux ! Heureusement les « privés » montent en puissance. Les Elon Musk, Jeff Bezos et autres n’ont pas la prudence de serpent de l’Administration et ils ont le soucis de l’efficacité de leurs dépenses. Ce sont eux qui peuvent sauver l’exploration spatiale. Ce sont les héritiers des pionniers qui en avril 1981 en même temps qu’était lancé la première navette, refusant de se laisser cantonner aux perspectives des petits tours en orbite basse terrestre, s’organisèrent dans le premier lobby pro-Mars, le « Mars Underground », autour de l’astrogéophysicien Chris MacKay, de la biologiste Pénélope Boston, de l’astrogéophysicienne Carole Stocker, de l’ingénieur Tom Meyer, de l’informaticien Steve Welch, rejoints en avril 1990 par David Baker et Robert Zubrin après qu’ils eurent conçu et leur aient présenté leur plan « Mars Direct » (solution astronautique qui souleva leur adhésion enthousiaste). Elon Musk a de même rejoint Robert Zubrin au début des années 2000 lorsqu’il a entrepris sa propre aventure d’ingénieur et de patron d’entreprise astronautique. L’esprit est là, chez ces hommes visionnaires, qui n’hésitent pas à s’impliquer, à s’efforcer de convaincre et à agir. Avec la nomination par Georges W. Bush en 2005 de Michael Griffin comme administrateur de la NASA, le « lobby » est presque parvenu à imposer ses vues (et y est parvenu quand même pour quelques éléments de Mars-Direct comme l’ISRU). C’est aujourd’hui, cinquante ans après le « petit pas pour l’homme » de Neil Armstrong, ce qui nous permet d’espérer qu’un jour la lourde superstructure administrative suivra ou accompagnera notre envol dans l’espace profond et son infinité de possibles que nous avons aujourd’hui la capacité d’affronter et d’utiliser.

NB : cet article consacré au vols habités ne traite pas des progrès considérable effectués depuis cinquante ans dans le domaine de l’exploration robotique et ne nie pas l’intérêt de quelques études menées dans l’ISS sur les conséquences de l’apesanteur pour le corps humain ou divers processus de physiques des matériaux qui se manifestent particulièrement clairement en apesanteur, ni également, et cela me semble plus important, sur l’évolution de la science du support-vie (ECLSS) et ses progrès en matière de recyclage de l’atmosphère, des liquides et du contrôle microbien…Mais ce n’est pas suffisant!

Image de titre : Le premier pas ! crédit NASA.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 09

Avec NEAR la collaboration ESO / Breakthrough Initiatives concrétise son projet de recherche de planètes habitables autour d’Alpha Centauri

Le 11 juin l’ESO1 a publié un article annonçant la fin d’une première session d’observations de 10 jours du système stellaire Alpha Centauri avec son instrument VISIR2 amélioré par NEAR3 qu’elle a développé avec le financement de Breakthrough Watch (Yuri and Julia Millner) dans l’espoir de découvrir une planète de masse égale à la Terre orbitant une de ses deux étoiles à l’intérieur de sa zone habitable.

1European Southern Observatory; 2VLT imager and spectrometer for mid-infrared; 3Near Earths in the AlphaCen Region.

NEAR est un coronographe (masque utilisé à l’origine pour cacher le disque solaire afin d’en étudier l’environnement) adapté à l’infrarouge thermique, qui équipe le quatrième, « UT4 », des quatre grands télescopes de 8 mètres de diamètre de surface utile de collecte du Very Large Telescope « VLT » (Mont Paranal, désert d’Atacama, Chili). Il bénéficie de l’optique adaptative et de son imageur et spectromètre VISIR de ce dernier, qu’il complète. Pour pouvoir collecter et analyser le rayonnement reçu d’une planète de masse terrestre et située en zone habitable, la difficulté est la différence de luminosité entre la planète et son étoile (entre 10-7 et 10-10)* qui en l’occurrence sont séparées de seulement une seconde d’arc. La lumière de l’étoile occulte largement la lumière d’une telle planète et ce d’autant plus que les deux étoiles d’Alpha Centauri sont de type « G » (dans le diagramme de Hertzsprung-Russell qui les classifie OBAFGKM) comme le Soleil et sont beaucoup plus brillantes qu’une naine rouge et notamment qu’Alpha Proxima, petite étoile du même système, très légèrement plus proche de nous, auprès de laquelle on a déjà identifié indirectement (méthode des vitesses radiales) la planète Proxima-b.

*Ce problème de différence de taille et de luminosité entre l’étoile et sa planète explique qu’il est beaucoup plus facile de découvrir des exoplanètes grosses et proches (genre « Jupiter chaud ») de leur étoile que des planètes rocheuses de taille terrestre et qu’il est beaucoup moins difficile d’en trouver orbitant autour de naines rouges que d’étoiles de type solaire, puisque les effets gravitaire ou occultant de ces planètes géantes sur leur étoile (moins grosse et moins lumineuse) sont beaucoup plus marqués (et ceci quelle que soit la méthode appliquée, vitesse radiale, transit, astrométrie et bien sûr, observation directe).

Les solutions proposées par NEAR sont (1) d’occulter l’essentiel du rayonnement de l’étoile par son coronographe et (2) de sélectionner un segment de longueurs d’ondes du spectre des rayonnements électromagnétiques à l’intérieur duquel la différence de luminosité entre la planète et l’étoile soit aussi réduit que possible. Le système qui profite de l’optique adaptative de l’UT4 (« DSM » pour “Deformable Secondary Miror”), comprend (1) un nouveau coronographe à masque de phase* annulaire (Annular Groove Phase Mask, « AGPM ») optimisé pour le segment le plus sensible de la bande « N » (10 µm à 12,5 µm) du spectre électromagnétique (qui bénéficie d’un taux de transmission élevé à l’intérieur de l’atmosphère terrestre) et (2) un nouveau système de découpage (« chopping »), appliquant une théorie du physicien Robert Dicke, pour filtrer le bruit. La bande N a pour deuxième avantage de contenir une longueur d’onde (9,6 µm) qui est celle de l’ozone (O3), un excellent marqueur de la vie telle que nous la connaissons (mais la vie sur la « Terre » d’Alpha Centauri, si elle existe, n’a pas forcément atteint le niveau où elle rejette de l’oxygène dans l’atmosphère de sa planète). Elle exprime enfin fort bien l’émission d’un “corps-noir” compatible avec la pression et la température d’une planète pouvant avoir de l’eau liquide en surface (ce qui est plus intéressant car une planète habitable n’est pas forcément habitée).  NB: (1) La collecte d’un rayonnement infrarouge impose l’environnement d’un cryostat; (2) NEAR n’a coûté que 4 millions de dollars.

*un masque de phase utilise un masque transparent pour décaler la phase du rayonnement stellaire afin de créer une interférence auto destructive sur cette source, plutôt qu’un simple disque opaque pour la bloquer. Les lumières voisines (dont la source est décentrée) ne subissent pas l’interférence. Un masque de phase annulaire (AGPM) qui génère un vortex optique, est considéré comme un masque de phase parfait permettant de voir les sources situées au plus près de l’étoile.

 NB: A noter que la première imagerie directe d’une planète en utilisant la coronographie, n’a eu lieu qu’en 2008. Il s’agit de la planète Fomalhaut-b qui se trouve à 119 « UA » (unités astronomiques) de son étoile et a un diamètre égal à celui de Jupiter. L’étoile Fomalhaut est à 25 années-lumière de notre Soleil.

 NB2 : NEAR servira par ailleurs de test à l’instrument METIS (Mid-Infrared ELT Imager and Spectrograph) qui doit être installé sur l’Extremely Large Telescope, « ELT » de l’ESO (il couvrira une partie plus importante du spectre infrarouge).

Alpha Centauri étant à seulement 4,37 années-lumière de distance du cœur du système solaire est évidemment une cible très intéressante puisque c’est le seul système stellaire où l’on peut éventuellement, aujourd’hui, envisager d’envoyer des sondes (il faudrait tout de même 20 ans de voyage à 20% de la vitesse de la lumière, ce qui “fait” 216 millions de km/h !). Un des objectifs de Breakthrough Initiatives dont fait partie Breakthrough Watch est de relever ce défi pour Proxima Centauri qui se trouve presque aussi loin, à 4,22 années-lumière, avec son projet Breakthrough Starshot. Bien que l’on ait découvert une planète rocheuse, un peu plus massive que la Terre (1,3 fois), Proxima-b, orbitant autour de Proxima Centauri dans sa zone habitable, il est cependant peu probable qu’elle puisse abriter la vie. Les naines rouges comme Proxima Centauri ont une activité fortement variable (du fait qu’elles ont juste la masse nécessaire pour être des étoiles) ce qui induit par intermittence des rayonnements extrêmement destructeurs pour leur environnement proche (rayons ultraviolets durs – « c » – ou rayons X). Par ailleurs la proximité de la planète à son étoile (0,1 UA, la seule possibilité pour qu’elle se trouve dans sa zone habitable) génère par force de marée un blocage de sa rotation de telle sorte qu’elle lui présente toujours la même face (ce qui pourrait n’être pas non plus très favorable à l’émergence de la vie). Il n’en serait pas de même pour les planètes en orbite auprès d’Alpha Centauri A ou B puisque ces deux étoiles sont de même type que le soleil (même si elles sont un tout petit peu moins lumineuses) et que donc leur zone habitable doit se trouver à environ une unité astronomique (comme celle de notre Soleil à l’intérieur de laquelle évolue la Terre).

Un problème cependant : les étoiles d’Alpha Centauri sont dans un système double et elles ne sont éloignées l’une de l’autre que d’une courte distance, qui varie, sur une période de 80 ans, entre un périastre de 11,2 UA (distance Soleil / Saturne) et un apoastre de 35,6 UA (distance Soleil / Pluton). La sphère de Hill/Roche (zone d’influence gravitationnelle) de chacune varie donc entre deux distances dont la plus courte est égale à la moitié de la distance du Soleil à Saturne, soit 715 millions de km c’est-à-dire moins que la distance du périhélie de Jupiter au Soleil (740 millions de km). Qu’advient-il dans ces conditions de leur ceinture de Kuiper et de leur nuages de Oort ? Ils sont probablement communs. Quid de l’interaction de leur population de comètes et d’astéroïdes avec les planètes ? Quid de la formation des planètes entre les deux étoiles ? Cette proximité permet-elle l’accrétion d’une géante gazeuse au-delà des lignes de glace ? Il ne reste pas beaucoup de place ! Pourrait-il y avoir une instabilité forte des planètes situées à la limite des sphères de Hill, jusqu’à les faire passer d’une sphère de Hill à l’autre (comme l’imaginait le physicien Robert Forward dans Le vol de la libellule) ? Quels effets peut avoir cette configuration sur les planètes rocheuses en deçà des lignes de glace ? En fait la cohabitation de deux étoiles dans un même système stellaire assez « serré » peut créer des systèmes planétaires très différents du nôtre et difficiles à imaginer sans les avoir observés…mais cela rend aussi moins probable l’existence de planètes avec les mêmes caractéristiques que la nôtre orbitant autour de l’une ou l’autre étoile.

La campagne d’observations de NEAR est de 100 heures avec autant de temps continu qu’il sera possible (par séquence de 6 heures par nuit compte tenu de l’élévation d’Alpha Centauri dans le ciel) mais qui seront probablement réparties sur une vingtaine de jours, c’est-à-dire le temps nécessaire pour qu’une planète située à 1 UA de l’une des étoiles d’Alpha Centauri parcourt sur son orbite un élément de diffraction (0,3 secondes d’arc dans le ciel). Breakthrough Initiatives mettra les données à la disposition du public immédiatement à la fin de la période d’observations. Nous devrions ainsi « savoir » avant la fin de l’été de cette année ce qu’il en est du système planétaire tournant autour des deux autre vrais « soleils » les plus proches du nôtre.

Breakthrough Initiative est un programme d’exploration scientifique et technologique qui s’efforce d’apporter des réponses aux grandes questions que l’on se pose sur la vie dans l’Univers. Il a été fondé en 2015 par Yuri et Julia Milner. Yuri Milner est un physicien qui après des études en Russie puis aux Etats-Unis a fait fortune dans Internet et est devenu investisseur en nouvelles technologies (Facebook, Twitter, WhatsApp, Snapchat, Airbnb, Spotify, Alibaba, etc…) via sa société DST Global. Parmi les « supporters » de Breakthrough Initiatives on peut compter feu Stephen Hawking et Marc Zuckerberg. Breakthrough Initiatives comprend quatre branches : Breakthrough Listen, une sorte de SETI (pas de réponse à ce jour !) ; Breakthrough Message, un concours pour concevoir un message qui puisse être compréhensible par des extraterrestres ; Breakthrough Watch, un programme astronomique dédié au développement de technologies qui pourraient permettre de découvrir la vie ailleurs dans l’univers (NEAR est une application de ce programme) ; Breakthrough Starshot, un programme astronautique dédié à démontrer la faisabilité de l’exploration du  système d’Alpha Centauri par une flotte de micro-voiles propulsées par laser à 20% de la vitesse de la lumière.

NEAR, conçu par l’ESO avec le concours de Breakthrough Watch, a été construit en collaboration avec l’Université d’Uppsala, l’Université de Liège, le CalTech et Kampf Telescope Optics de Munich et le CEA (Saclay) France. Il a recueilli sa première lumière le 21 mai 2019. Il faut bien voir que le type d’observations qu’il permet n’était pas possible jusqu’à présent et évidemment pas il y a dix ans lors de la découverte de la planète Fomalhaut-b. L’astronomie est une science dont la technologie évolue très vite et les ouvertures que cette évolution permet, vont révolutionner dans les années qui viennent la connaissance du monde qui nous entoure.

Liens:

https://breakthroughinitiatives.org/instruments/4

https://www.eso.org/public/usa/teles-instr/paranal-observatory/vlt/vlt-instr/visir/

http://optics.org/news/10/6/15

https://www.eso.org/sci/publications/messenger/archive/no.169-sep17/messenger-no169-16-20.pdf

https://www.universetoday.com/142482/new-instrument-is-searching-for-planets-around-alpha-centauri/

https://orbi.uliege.be/bitstream/2268/32951/1/TFEV20.pdf

Image de titre: NEAR installé sur l’UT4, le télescope étant incliné à basse altitude; crédit ESO/ NEAR Collaboration

Image ci-dessous: détail du coronographe NEAR, de type AGPM montrant les cannelures annulaires de sous longueur d’onde (“subwavelength grating”), dispositif anti-réflexion qui réduit l’image fantôme optique de l’étoile cachée:

 

Image ci-dessous: de la Terre à Alpha Centauri; attention les mesures sur l’axe sont logarithmiques.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 07 06

La présence furtive de méthane sur Mars continue à intriguer planétologues et exobiologistes

Le 23 juin la NASA a informé le public que le rover Curiosity avait relevé dans le cratère Gale la plus forte émission de méthane jamais constatée sur Mars. Cette information est surprenante et importante mais il ne faut pas en tirer de conclusion hâtive.

Tout d’abord il faut placer cette émission dans un contexte. La proportion de méthane (CH4) constatée a été de 21 « ppbv » (parties par milliard en volume). Les plus fortes émissions précédentes, également mesurées par Curiosity (plus précisément par le « TLS », Tunable Laser Spectrometer, de son laboratoire embarqué « SAM », Sample At Mars) ont été de 7,2 ppbv mais sur la durée, le fond d’émissions est inférieur à 1 ppbv (entre 0,2 et 0,7). Surtout, le maximum enregistré n’est « rien » par rapport aux proportions de méthane présent dans l’atmosphère terrestre (1750 ppbv en moyenne) et cette dernière est beaucoup plus dense (plus de 100 fois) que l’atmosphère martienne. Il faut donc relativiser mais ce n’est pas facile de « garder la tête froide » car le méthane est un gaz au contenu évocateur très fort. Sur Terre il est pour sa plus grande part (plus de 90%) le produit de la vie animale (rejet métabolique résultant de la fermentation des molécules organiques dans le système digestif des animaux et généralement parlant, de l’activité microbienne dans les milieux anoxiques).

L’histoire de la détection du méthane sur Mars est pour le moins déconcertante et défie encore l’entendement. Cela a commencé entre 1999 et 2003 par des observations à partir des télescopes terrestres qui ont indiqué une proportion allant de 20 à 30 ppbv (mais l’observation depuis la Terre est difficile car la signature spectroscopique du méthane se déplace en fonction du déplacement de Mars sur son orbite et parce que les rayonnements reçus par ces télescopes passent par l’atmosphère terrestre elle-même chargée en méthane). Cela a continué en 2009 par la constatation que la présence du gaz dans l’atmosphère suivait un cycle saisonnier (disparaissant en fin d’automne et réapparaissant en fin de printemps) alors qu’il aurait dû se diluer dans l’atmosphère et subsister pendant quelques 340 ans (destruction progressive par le rayonnement ultraviolet). Ensuite on a observé dans le cratère Gale les émissions relativement fortes de fin 2013 (quatre pics atteignant les environs de 7 ppbv) puis on est retombé à des niveaux extrêmement faibles (moins de 1 ppbv). Lorsque l’orbiteur TGO (ExoMars Trace Gas Orbiter) de l’ESA (lancé en Octobre 2016) est devenu opérationnel en avril 2018, il n’a d’ailleurs rien perçu alors qu’il avait été en partie prévu pour la détection des gaz rares et principalement le méthane, au point que certains ont considéré que les premières observations résultaient d’une erreur d’interprétation des données spectrographiques. Puis soudainement on a ce nouveau pic annoncé par la NASA, supérieur à 20 ppbv…littéralement sans lendemain puisque le lundi 24 le taux était retombé à moins de 1 ppbv !

Les causes des émissions de méthane martien ne sont pas connues et cette nouvelle observation ne nous fait pas progresser mais on peut cerner les possibilités à partir de ce qui se passe (ou s’est passé) sur Terre. Ces possibilités sont soit d’ordre géologique soit d’ordre biologique avec pour les deux une variante possible résultant d’un « effet retard ». De toute façon il s’agit de l’union de carbone provenant du gaz carbonique avec de l’hydrogène, donc de « molécules organiques ».

Les causes géologiques peuvent être d’abord la serpentinisation de l’olivine, roche magmatique très ancienne, riche en magnésium et en fer (mafique) et très abondante en surface de Mars depuis l’aube des temps. La transformation de l’olivine en serpentine ((Mg, Fe, Ni)3Si2O5(OH)4) au contact d’eau chaude et sous forte pression, libère des carbonates, de l’hématite (Fe3O4) et de l’hydrogène. A son tour l’hydrogène peut s’allier au gaz carbonique atmosphérique pour former en présence de fer (par exemple de l’hématite) du méthane. A noter que cette dernière réaction est la fameuse « réaction de Sabatier » que Robert Zubrin a recommandé d’utiliser pour produire sur Mars le carburant nécessaire pour faire revenir sur Terre les vaisseaux spatiaux qu’on y enverra. Quoi qu’il en soit du futur de ce gaz, l’abondance d’olivine, de gaz carbonique et de chaleur (dans des régions de failles comme Nili Fossae) pourrait très bien être à l’origine du méthane martien. Ceci dit, à côté de la serpentinisation de l’olivine il y a d’autres causes géologiques possibles mettant en jeu la chaleur du sous-sol, l’hydrogène de l’eau et le gaz carbonique de l’atmosphère. C’est le volcanisme par contact de remontées magmatiques avec de la glace de surface ou proche de la surface ou sa variante, le thermalisme. Marginalement ce pourrait être aussi l’apport de météorites riches en méthane. Toutes ces causes ne sont d’ailleurs pas exclusives.

Pour ce qui est de la cause biologique, on peut toujours, jusqu’à preuve du contraire, penser à une population microbienne en sous-sol de Mars. Elle serait visiblement peu active mais ses rejets métaboliques auraient à l’occasion de mouvements sismiques accès à la surface de la planète.

Le facteur « retard » évoqué plus haut pourrait être vu comme un déblocage de méthane accumulé dans des clathrates. Les clathrates sont de petites capsules de glace d’eau emprisonnant des molécules de gaz, le tout constituant un « hydrate de méthane ». Elles se forment sous basse température, en présence d’eau et sous forte pression. Sur Terre on en constate souvent la présence dans le pergélisol (jusqu’à 1000 mètres de profondeur) et ces sols sont très fréquents en surface de Mars, planète froide. Ils fondent (sur Mars, se subliment) évidemment par exposition à la chaleur. Ce peut être celle du Soleil lors de l’été austral ou encore celle de remontées magmatiques parvenant en dessous de failles s’ouvrant en surface de la planète. Et on a justement repéré dès 2003 les failles de la région de Nili Fossae, en bordure d’Isidis Planitia, comme une des principales sources des émissions de méthane.

Mars 2020 (mission NASA) doit se poser tout près de ces failles. Capter et analyser le méthane dans l’atmosphère de cette région sera probablement plus facile car tout près du sol on devrait pouvoir constater une abondance beaucoup plus forte que dans le cratère Gale. Ce sera aussi passionnant…Pour distinguer l’éventuel origine (biologique ou géologique) du gaz il faudra rechercher le rapport entre les isotopes 13 et 12 des atomes de carbone (13C ou 12C). En effet, comme on l’a constaté depuis longtemps la vie recherche l’économie de masse et privilégie donc les atomes légers (et stables), en l’occurrence l’isotope 12 du carbone (12 neutrons dans le noyau). Il n’y a aucune raison que la vie martienne si elle existe ne suive pas la même « politique de bon sens ». Nous aurons donc une réponse mais peut-être l’aurons-nous sans attendre 2021 car le laboratoire SAM de Curiosity devrait normalement pouvoir effectuer lui aussi des analyses isotopiques.

Il faut à l’occasion de cet article dire que ce n’est pas que l’apparition du méthane qui pose problème mais aussi que sa disparition rapide et constante n’est pas non plus expliquée. Pour le moment aucune raison ne peut être donnée pour cette efficacité. Peut-être les sels de perchlorates, omniprésents, chauffés par le rayonnement solaire oxydent-ils ce gaz en méthanol puis en formaldéhyde ? Peut-être est-ce l’action des champs électriques résultant de l’ionisation du gaz carbonique de l’atmosphère, très sèche, par les frottements des particules de poussière en suspension ?

Pour le moment on constate et on ne peut rien dire sauf que la planète produit bien du méthane et que le mystère qui l’entoure est périodiquement ravivé.

Image de titre : Teal Ridge dans les Clay Bearing Units ; photo du 18 juin, Crédit NASA/JPL-CalTech. Les Clay Bearing Units avaient été repérées depuis l’espace par les orbiteurs martiens. Leur abondance dans le cratère Gale ont en grande partie justifié le choix du site de la mission MSL (Curiosity).

Photo ci-dessous, les différents modes de formation possible du méthane sur Mars. Crédit NASA/JPL-CalTech:

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 06 24

En combinant les lumières des télescopes VLTI*, GRAVITY nous promet des résultats spectaculaires

L’interférométrie contourne la difficulté de la taille des télescopes en combinant la lumière de plusieurs d’entre eux. Appliquée aux Very Large Telescopes (VLT) de l’ESO au Chili, grâce au nouvel instrument, GRAVITY, la méthode permet de restituer l’image que recueillerait un télescope d’un diamètre allant jusqu’à 130 mètres de diamètre avec une perspective ultérieure de 200 mètres (le plus grand télescope, en cours de construction, l’ELT – Extremely Large telescope – a un diamètre de 39 mètres et chacun des 4 VLT, un diamètre de 8 mètres utiles). L’interférométrie est donc promise à un bel avenir. Elle n’a été rendue possible dans le domaine des ondes visibles et du proche infrarouge que grâce aux progrès spectaculaires accomplis dans le domaine des lasers, en optique adaptative, en électronique et en informatique.

*Very Large Telescopes en mode Interférométrique.

Il faut bien voir que GRAVITY (General Relativity Analysis via Vlt InTerferometrY) est en soi une « première ». Il étend à quatre grands télescopes fonctionnant dans le domaine du proche infrarouge (longueur d’ondes entre 2 et 2,4 µm*) une technologie très délicate (surtout pratiquée dans le domaine des ondes radio, plus longues). La difficulté de pratiquer l’interférométrie en astronomie avec ces ondes tient précisément à leurs faibles longueurs et en conséquence (1) aux limitations de la détection « hétérodyne » à large bande (transposition des petites longueurs d’ondes reçues dans des longueurs d’ondes plus grandes) qui impose un bruit fondamental très élevé pour les ondes prises en dessous de 10 – 11 µm et, du fait des turbulences atmosphériques, (2) au faible temps de cohérence (temps pendant lequel l’émission est stable) du front d’ondes pour chaque télescope (phénomène contré par l’envoi du faisceau lumineux sélectionné dans un fibre monomode) et (3) au faible temps de cohérence du front d’ondes entre les télescopes.

*L’observation du trou noir central de la galaxie M87 qui a fait “la une” de la Presse le 10 avril dernier a été faite sur une longueur d’onde de 1,3 mm donc nettement plus longue (domaines des micro-ondes, avant les ondes radio). Le domaine du visible s’étend de 0,4 à 0,8 nm et le domaine des infrarouges va de cette limite de 0,8 nm à 1mm (en recouvrant donc les émissions d’ondes micrométriques comme celles utilisées par GRAVITY). L’intérêt des ondes infrarouges par rapport aux ondes visibles c’est de nous transmettre des données sur les astres dont le rayonnement est relativement froid, comme les planètes.

GRAVITY est un instrument interférométrique de seconde génération pour les VLT. La première génération qui impliquait les instruments VINCI puis MIDI, puis AMBER, ne fonctionnait « que » pour deux ou trois unités de ses deux groupes de quatre télescopes (quatre UT – Unit Telescopes – de 8 mètres et quatre AT – Auxilliary Telescope – de 1,8 mètres). GRAVITY a bien eu ensuite un précurseur à quatre télescopes, PIONIER, mais il ne disposait ni de double-champ (voir ci-dessous), ni d’un-suiveur-de-frange (voir ci-dessous), ni d’une métrologie comme GRAVITY. Quand on a conçu les VLT, l’intention était évidemment d’aller dans cette direction, c’est à dire de faire travailler tous les télescopes ensemble, en interférométrie, bien qu’ils puissent aussi fonctionner seuls. GRAVITY qui a été mis en service en 2016 (« première lumière » à quatre UT – la première lumière avec les AT ayant eu lieu en automne 2015) est un grand pas vers la réalisation de cette intention puisqu’il permet le fonctionnement de quatre télescopes ensemble (les quatre Ut ou les quatre AT1) et sur des objets de luminosité faible comme l’environnement du trou noir central de notre galaxie, Sagittarius A* (« Sgr A* »). Cette cible était son objet premier (d’où l’acronyme GRAVITY pour l’instrument) mais la puissance de résolution du VLTI peut évidemment être appliquée à d’autres sources de luminosité faible, comme les planètes (et il l’a déjà effectivement été).

1Pour le moment il n’y a pas de “recombinateur” (voir plus-bas) à plus de quatre faisceaux mais on pourrait utiliser les quatre AT aussi bien que les quatre UT (cependant la station AT au Nord du site n’est pas en service, ce qui empêche d’atteindre les 200 mètres de base pour l’ensemble du VLTI).

Le principe général est que chaque télescope collecte deux faisceaux d’ondes provenant de deux champs (le double-champ mentionné ci-dessus) qui couvre chacun 2’’ (deux secondes) d’arc dans le cas des UT. Le premier champ contient l’objet scientifique visé avec éventuellement une autre source, non résolue, à l’intérieur du même champ. Dans ce cas cette autre source sert de « référence-de-phase » permettant le contrôle de phase interférométrique de la source scientifique par un « suiveur-de-frange » qui corrige les différences de phase entre les pupilles de l’interféromètre. Le second champ contient un astre choisi pour sa brillance plus forte à l’extérieur du champ de l’objet scientifique mais à proximité (quelques secondes d’arc) ; cet autre « appui » permet le réglage de l’optique adaptative du télescope.

Ceci étant dit, le fonctionnement de GRAVITY est extrêmement complexe. En simplifiant : la lumière collectée par chaque télescope est transmise à un recombinateur (en anglais “BCI” pour Beam Combiner Instrument), laboratoire où elle va être « travaillée », par un jeux de miroirs dans des lignes à retard qui vont permettre de traiter tous les faisceaux d’ondes, provenant de tous les télescopes, exactement au même moment de leur ondulation (« phase »). Avant l’entrée dans les lignes à retard, on va sélectionner avec un « séparateur d’étoiles » le faisceau d’ondes provenant de la source extérieure au champ de la cible scientifique (qu’on nomme « étoile de référence ») choisie pour son signal, voisin, relativement fort, pour corriger en optique adaptative les turbulences subies du fait du passage dans l’atmosphère, par les ondes reçues de la cible scientifique. Ce faisceau est projeté par un séparateur d’étoiles dans l’analyseur de front d’onde infrarouge CIAO (Coudé Infrared Adaptative Optics) qui commande aux miroirs déformables du système MACAO (Multi-Application Curvature Adaptative Optics) les mouvements ultra-rapides nécessaires pour contrer l’effet des turbulences sur les faisceaux d’ondes reçus de la source scientifique et de la source servant de « référence de phase » (à l’intérieur du champ de la cible scientifique). Des rayons laser sensibles à ces mouvements ultra-rapides (métrologie laser) vont intervenir sur le sélecteur d’étoile et sur l’araignée du télescope pour corriger en temps réel les effets des turbulences internes du VLTI. Ainsi corrigées les ondes provenant de la cible scientifique et de la référence de phase passent par les lignes à retard et entrent dans le BCI.

A l’entrée du BCI, le cœur de GRAVITY, un « coupleur à fibres optiques » sépare en deux chacun des faisceaux provenant des deux sources et grâce à un sélecteur de champ, les injecte séparément dans des « fibres monomodes » pour bien les individualiser, l’une science, l’autre suiveur de franges. Un « contrôleur fibré » contrôle la polarisation de l’onde pour lui donner un contraste maximum et corrige la différence de marche entre l’onde provenant de l’objet scientifique et celle provenant de la référence de phase (résultant de leur séparation angulaire dans l’espace). Un recombinateur (puce optique intégrée) intervient ensuite pour créer les interférences des faisceaux projetés et le suiveur de franges alimenté par l’étoile de référence extérieure stabilise l’image sur un miroir. L’onde entre alors dans des spectromètres qui l’analysent.

Le tout baigne dans un cryostat à l’azote liquide dont la température, très précisément contrôlée, varie au niveau des diverses sous-ensembles du BCI afin que la température ne perturbe pas l’expression des ondes. Le cryostat fonctionne même avec des tubes à gaz pulsés pour refroidir les détecteurs à une température plus basse que celle de l’azote liquide, à environ 40 degrés Kelvin. Enfin l’optique est guidée par un système de caméra qui intervient au divers stade de la progression des ondes, dès l’entrée dans le BCI.

A quoi va servir GRAVITY ? A voir avec plus de précisions les objets à luminosité faible, ainsi le trou noir central de notre galaxie* ou encore, en direct, les exoplanètes proches détectées par le principe de la vitesse radiale (influence de la gravité générée par leur masse sur leur étoile au cours de leur trajectoire sur leur orbite), le spectre des atmosphères de ces planètes comme l’a démontré l’article de Sylvestre Lacour et al. publié dans Astronomy & Astrophysics au début de cette année. Le pouvoir de résolution du VLTI équipé de GRAVITY (qui résulte de la superposition des franges d’interférence des 4 UT) est 25 fois supérieur à celui d’un seul des UT qui le composent. En fait GRAVITY est un exhausteur des capacités des télescopes terrestres exploitant sur Terre les ondes du proche infrarouge. On peut rêver de la transposition dans l’espace où les turbulences atmosphériques sont évidemment nulles, de ces merveilleuses machines. Il faudra un jour reprendre le projet de flotte de télescopes DARWIN ou encore construire en surface de la face cachée de la Lune ou sur Mars des installations interférométriques qui elles non plus ne seront pas soumises à ces turbulences. Mais sans attendre (ou plutôt après qu’on aura pu combiner les ondes reçues des huit télescopes) on pourrait travailler sur un successeur au VLTI sur Terre avec une base d’observation équivalente à un télescope optique d’une dizaine de km de diamètre. Ceci nous permettrait de résoudre la surface de ces exoplanètes ; ce n’est pas un rêve mais une possibilité à considérer sérieusement par l’ESO une fois que l’ELT sera achevé**.

*Gravity a déjà obtenu deux résultats majeurs concernant le centre galactique : la mesure du rougissement gravitationnel de l’étoile S2 au passage de son péricentre et la détection de mouvements orbitaux à l’occasion de sursauts lumineux près de la dernière orbite circulaire stable, à trois fois le rayon du trou noir (donc à trois rayons de son « horizon des événements »), ce qui est très proche.

**c’est ce que suggère les auteurs du papier sur la première détection de l’atmosphère d’une exoplanète par interférométrie optique mentionné ci-dessus.

GRAVITY est ce qu’on appelle dans le monde de l’astronomie une « collaboration », disons une association constituée pour un but commun. Elle regroupe l’Institut Max Planck en Allemagne (Physique extraterrestre et Astronomie), le LESIA en France (Observatoire de Paris, CNRS, Uni. Paris Sciences et Lettres, Uni. Paris Diderot), IPAG (CNRS et Uni. Grenoble Alpes), l’Uni. De Cologne, le Centre d’Astrophysique et de Gravitation (Portugal), l’ESO. L’instrument n’a coûté que 8 millions d’euros.

NB : Je remercie pour ses avis précieux, Guy Perrin, astronome au LESIA (Laboratoire d’Etudes Spatiales et d’Instrumentation en Astrophysique), Observatoire de Paris, Université PSL (Paris-Sciences-et-Lettres), directeur adjoint scientifique du CNRS-INSU, responsable du domaine Astronomie et Astrophysique.

Illustration de titre: Image composite du Centre Galactique obtenue à partir d’observations NACO. Pour les observations interférométriques de GRAVITY, l’étoile IRS 16C a été utilisée comme source de référence tandis que la cible scientifique était l’étoile S2. La croix orange indique la position du trou noir supermassif Sgr A*. Crédits : ESO/MPE/S. Gillessen et al. NB : NACO est un instrument situé dans l’UT1 : son objet est l’imagerie dans le proche infrarouge (CONICA) avec optique adaptative (NAOS).

Image ci-dessous : vue partielle de l’observatoire du Mont Paranal de l’ESO (désert d’Atacama, nord du Chili, 2635 mètres). Vous voyez ici les quatre UT. Les quatres AT, plus petits, sont mobiles et permettent de faire varier les dimensions du télescope virtuel:

Image ci-dessous : schéma de traitement des ondes reçues par GRAVITY (éléments en bleuté) publié dans Astonomy & Astrophysics in First Light for Gravity: Phase referencing optical interferometry for the VLTI; DOI 10.1051/0004-6361/201730838, copyright ESO 2017. 

Image ci-dessous, le recombinateur (BCI) élément central de Gravity. Même source que ci-dessus:

Liens :

First light for GRAVITY in Astronomy & Astrophysics : https://www.aanda.org/articles/aa/pdf/2017/06/aa30838-17.pdf

Rougissement de S2 :

https://www.eso.org/public/news/eso1825/

Détection de sursauts en orbite près du bord du trou noir : https://www.eso.org/public/news/eso1835/

http://lesia.obspm.fr/-GRAVITY-.html

http://lesia.obspm.fr/GRAVITY-un-design-complexe.html

https://www.eso.org/public/france/news/eso1905/

https://fr.wikipedia.org/wiki/Interf%C3%A9rom%C3%A9trie

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 06 17

Pour la NASA d’aujourd’hui, le succès n’est pas une option

L’approche par la NASA des vols spatiaux habités met hors de portée l’objectif de l’atterrissage sur la Lune en 2024. Son projet de Lunar Orbital Platform-Gateway est une complication plus qu’inutile, donc une erreur.

Article de Robert Zubrin, ingénieur en astronautique, président-fondateur en 1998 de la première Mars Society, aux Etats-Unis, et président de Pioneer astronautics. Il a été publié dans la National Review le 12 juin 2019. Il est ici traduit et commenté par moi-même.

L’administration Trump a proposé une nouvelle initiative audacieuse, nommée Programme Artemis, qui prévoit d’envoyer des astronautes sur la Lune en 2024 et sur Mars en 2033. Comme l’a précisé Jim Bridenstine, administrateur de la NASA, dans une présentation le 23 mai, ce programme doit comporter quelque 37 lancements d’ici 2028. Ils commenceront en octobre 2020 par le lancement inaugural du SLS (Space Launch System), le nouveau lanceur lourd de l’agence.

Malheureusement le programme tel qu’il est prévu actuellement a très peu de chances de réussir car il semble être conçu d’abord pour servir de mécanisme de distribution de fonds plutôt que pour atteindre des objectifs dans l’espace. On l’a compris très clairement lorsque Bridenstine a déclaré qu’une des conditions de base du programme serait que toutes les missions habitées utilisent le SLS et la capsule d’équipage Orion, qui n’ont encore jamais volé, plutôt que des alternatives beaucoup moins chères qui, elles, ont volé. De plus, avec ses 26 tonnes, l’Orion est si lourd que le SLS ne pourrait pas le transporter sur une orbite lunaire basse avec suffisamment d’ergols pour pouvoir revenir sur Terre. Donc, plutôt que d’utiliser le Dragon de SpaceX (qui avec ses 10 tonnes, offre cependant un espace habitable 50% plus grand que celui de la capsule utilisée par le programme Apollo pour la Lune), une capsule que le SLS ou le Falcon Heavy (déjà opérationnel et beaucoup moins cher) pourraient transporter sans problème (150 millions de dollars contre plus d’un milliard de dollars – pour le SLS – par lancement), la NASA propose de construire une nouvelle station spatiale, nommée Deep Space Gateway (ou plus récemment Lunar Orbital Platform-Gateway), en orbite haute autour de la Lune, en tant que base intermédiaire entre la Terre et la Lune pour Orion. La NASA tente de justifier la Gateway avec des platitudes telles qu’ « elle fournira un centre de commandement», «elle créera de la résilience» ou encore «elle établira une présence stratégique autour de la Lune». Mais cela n’a aucun sens ! En réalité, le fait est qu’une station spatiale en orbite lunaire est un passif et non un actif. On n’en a pas besoin pour assister les vols à destination de la Lune et on n’en a certainement pas besoin, contrairement à ce que prétend la NASA, comme base intermédiaire pour les vols à destination de Mars. Cela coûtera une fortune à construire et une fortune à entretenir et cela imposera de nombreuses contraintes négatives – allant de significatives à sévères – en terme de propulsion et de gestion du temps, à toute mission obligée de s’en servir – comme elles le seront sûrement toutes pour éviter que l’inutilité de Gateway apparaisse évidente au Public.

La NASA a eu raison de choisir le pôle sud de la Lune pour son atterrissage puisque les ressources en glace d’eau qui s’y trouvent pourraient être transformées en carburant/comburant hydrogène/oxygène. Cela pourrait permettre aux véhicules d’excursion lunaire d’explorer la Lune ou de décoller et de revenir directement en orbite terrestre, où ils pourraient être facilement ravitaillés en carburant. Cela rendrait l’ensemble du système de transport pleinement réutilisable donc beaucoup plus performant et économique. Cela libérerait également nos capacités de transport lourd de la partie la plus massive du service logistique lunaire et nous permettrait par ailleurs d’entreprendre plus rapidement des missions vers Mars. Mais placer la base en orbite lunaire plutôt qu’à la surface de la Lune rendrait ces ressources potentielles inutiles, car il faudrait plus d’ergols pour hisser la glace jusqu’à la Gateway, qu’on pourrait en produire à partir de la glace en surface. De plus, comme elle gaspille des milliards de dollars pour des motifs purement politiques, pour la construction de la Gateway et le lancement d’un vol SLS à l’automne 2020 sans aucune charge utile significative, la NASA n’a plus suffisamment d’argent pour financer le développement d’un atterrisseur lunaire – ce qui est réellement nécessaire si on souhaite atterrir sur la Lune. L’agence a donc demandé une augmentation de ses financements, ce à quoi la Maison-Blanche a répondu avec un baiser de mort – c’est-à-dire une exigence selon laquelle les fonds doivent provenir d’un budget éducatif (le « Pell Grants ») dont le montant doit être alloué par le pouvoir législatif. Cela garantit le rejet du Congrès puisqu’il est sous contrôle démocrate.

Apparemment, le succès n’étant pas une option, la priorité est d’attribuer le blâme à « quelqu’un ».

L’ingénierie est l’art de rendre l’impossible possible. La bureaucratie est l’art de rendre le possible impossible. En choisissant la bureaucratie plutôt que l’ingénierie, les planificateurs de l’administration américaine ont transformé l’exploration de l’espace par l’homme, de « mission » en « vision ».

La question est fondamentalement la suivante: la NASA aura-t-elle un plan axé sur un objectif ou un plan axé sur l’intérêt de ses fournisseurs? Un plan axé sur des objectifs conduit à dépenser de l’argent pour « faire des choses ». Un plan axé sur des fournisseurs conduit à faire des choses pour dépenser de l’argent. Au cours du demi-siècle suivant la fin du programme lunaire Apollo les programmes d’exploration planétaire robotique ainsi que ceux d’astronomie spatiale de la NASA ont accompli des performances extraordinaires, car ils sont restés axés sur des objectifs. En revanche, le programme NASA de vols habités spatiaux est devenu très vite axé sur l’intérêt de ses fournisseurs et on l’a laissé dériver. Si nous laissons la NASA persister dans ce mode, nous n’atteindrons pas la Lune en 2024 ni Mars en 2033. Mais si nous insistons pour que notre programme spatial dans son ensemble vise des objectifs précis, exploitant pleinement les ressources spatiales pour réduire le nombre de lancements et la révolution spatiale des entreprises pour réduire drastiquement leurs coûts, nous pourrons non seulement atteindre ces objectifs longtemps espérés mais encore les dépasser largement pour véritablement commencer l’histoire de l’humanité en tant qu’espèce multi-planétaire.

Tel est le choix devant nous.

Robert Zubrin

Commentaire de Pierre Brisson :

Robert Zubrin veut corriger le programme d’exploration de l’espace par vols habités de la NASA et il a raison. Il est très décevant de constater que cette magnifique machine qu’est la NASA, dotée d’excellents ingénieurs, d’excellents chercheurs et de (relativement) beaucoup d’argent, persiste à ronronner prudemment en termes de vols habités.

Les raisons sont probablement en grande partie, l’institutionnalisation d’une entreprise qui était aventureuse lors de sa création et qui à force de grossir et de dépendre d’une direction très politique, est devenue une administration comme une autre, c’est-à-dire un organisme qui pense avant tout à sa survie c’est-à-dire qui est devenu « risk-adverse », ce qui est un comble pour une entreprise supposée couvrir l’entièreté du sujet de l’exploration spatiale, c’est-à-dire aussi un organisme inséré dans un tissu économique, social et politique qui la force à soutenir les entreprises locales en les faisant travailler quels que soient les besoins dictés par la finalité qui devrait éclairer la vision de ses dirigeants, l’exploration spatiale, par vols habités aussi bien que robotiques.

Heureusement l’Amérique dans son tréfonds et dans son imaginaire, reste l’Amérique, c’est-à-dire le pays de la Nouvelle Frontière, le pays de l’entreprise, le pays de la liberté et de l’audace. Pour l’exprimer, davantage que son administration qui se fossilise, il y a les entrepreneurs privés, les Elon Musk, les Jeff Bezos et autres, pour lesquels même le ciel n’est pas la limite. Ce sont eux qui en fin de compte vont tout emporter et nous conduire sur la Lune et sur Mars parce qu’ils ont la volonté de le faire et parce qu’ils en ont les moyens financiers.

image à la Une: Orion approchant le Deep Space Gateway, crédit NASA.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 06 14

Le dernier livre de Robert Zubrin, “The Case for Space, how the revolution in spaceflight opens up a future of unlimited possibilities” a été publié chez Prometheus books le 11 juin.