Les quasars, des trous-noirs « dinosaures » en train de dévorer leur galaxie

Les quasars, « quasi-stars »* ressemblent à des étoiles mais ce ne sont pas des étoiles, un peu comme la reine des abeilles n’est pas l’essaim mais son cœur, avec d’autant plus d’« animation » qu’on l’approche. Les quasars sont « tout simplement » des galaxies dans une forme primitive, une organisation quasi-révolue de la matière dans l’espace. Ils n’existent plus qu’exceptionnellement dans notre environnement « proche » mais nous pouvons toujours en admirer les lumières puissantes venues de la très lointaine époque où ils étaient abondants, du fait de cette puissance même et du fait que lorsque nous regardons loin nous regardons aussi dans la profondeur du temps.

*Plus précisément « QUAsi Stellar Astronomical Radiosource ».

Les quasars sont les sources les plus lumineuses de l’Univers. Leurs jets de gaz expulsés orthogonalement et de part et d’autre de leur disque d’accrétion (voir plus loin), atteignent des vitesses relativistes (proches de celle de la lumière). Ils émettent des radiations dans toute la gamme des longueurs d’ondes (avec un fort décalage vers le rouge parce qu’ils sont très lointains), des ondes radio, aux rayons gamma en passant par les infrarouges, la lumière visible, les ultraviolets, les rayons X. Dans les ondes visibles ils ont une luminosité de l’ordre de 1040 W (bien au-delà de la « limite d’Eddington » qui est un seuil d’équilibre) mais c’est dans le domaine des ondes radio qu’ils ont d’abord été remarqués. Ils se distinguent des autres événements violents comme les novæ ou les supernovæ en ce qu’ils ne sont pas ponctuels, des explosions, mais des phénomènes d’une certaine durée.

Dans les années 1950 on se posait des questions sur l’origine d’émissions radios très fortes dont on ne parvenait pas à observer la correspondance en ondes visibles. En 1962 Cyril Hazard de l’Université de Sydney, réussit par une utilisation astucieuse du radiotélescope de Parkes, en Australie, avec l’aide de son directeur John Bolton, à percevoir pour la première fois (dans la constellation de la Vierge) la source lumineuse d’un de ces phénomènes. On le nomma « quasar » (avec l’identifiant « 3C273 », désormais une référence), du fait de son apparence stellaire tout en ayant conscience que « quelque chose n’allait pas » pour le classer dans cette catégorie. Le diamètre angulaire de l’objet bien qu’hyper-lumineux était en effet extrêmement petit, quelques jours-lumière seulement, mais beaucoup plus gros qu’une étoile « normale ». La progression vers la compréhension du phénomène fut lente car il est toujours difficile de changer ses paradigmes face à « quelque chose » de nouveau.

Le premier « éclairage » fut donné par Maarten Schmidt de l’Observatoire du Mont Palomar à qui Cyril Hazard avait communiqué les caractéristiques de sa découverte. Marteen Schmidt comprit que le spectre de la lumière reçue était celui de la raie de l’hydrogène bien qu’elle soit fortement décalée vers le rouge (le « redshift » était de 0,158). Cela indiquait une forte vitesse d’éloignement donc une distance très grande (2,44 milliards d’années-lumière, à comparer aux 13,7 du « fond diffus cosmologique », « CMB »), à laquelle on n’avait pas l’habitude d’observer quoi que ce soit (rappelez-vous que « la toile de fond » de l’Univers, le CMB cité ci-dessus, n’a été observée qu’en 1964). Compte tenu de sa luminosité apparente (12,9) on constata que la source devait émettre autant de lumière (magnitude absolue -26,7) que plusieurs centaines de galaxies comme notre Voie-lactée.

Il fallut ensuite comprendre ce qui pouvait être à l’origine de cette énorme puissance. On apprit beaucoup par le nombre des observations (nous avons aujourd’hui un catalogue de plus de 100.000 quasars) qui permit des comparaisons et des généralisations. D’abord on constata que si les quasars étaient très anciens, ils n’étaient pas présents au tout début de l’Univers observable (métallicité faible mais non nulle de leur spectre). Leur nombre était très important il y a 10 à 9 milliards d’années puis il diminua très rapidement. Il n’y en a pratiquement plus aujourd’hui. Plus précisément il n’y en a plus qu’un seul pour un million de galaxies dans un rayon d’un milliard d’années-lumière alors qu’ils étaient un pour mille il y a 10 à 9 milliards d’années. Par ailleurs il apparut que ces objets avaient une très forte variabilité. Ils peuvent être durables (plus que toute période d’observation à ce jour) mais leur activité peut aussi varier fortement sur des périodes très courtes (quelques jours ou même quelques heures), leur seul point commun étant en fin de compte leur puissance d’émission dans leur faible taille.

L’explication la plus logique qui fut progressivement apportée (dans les années 1980), est que les quasars sont des trous noirs supermassifs dans des galaxies très denses ou plutôt dont les masses de matière proches du centre (c’est-à-dire celles qui peuvent être déstabilisées par la force gravitationnelle du centre) sont très denses. On les identifie maintenant aux plus actifs des « noyaux actifs de galaxie » (ou « AGN » pour « Active Galaxy Nucleus »). Leur « activité » viendrait d’une concentration de matière autour du trou noir telle que ce dernier y pourrait trouver, sur la durée, une « nourriture » plus qu’abondante. Le gaz serait, sous influence gravitationnelle du trou, accéléré à une vitesse voisine de celle de la lumière, créant d’intenses champs magnétiques et un rayonnement colossal. Au CalTech, Donald Lynden-Bell a calculé qu’un trou noir supermassif pouvait convertir en radiations jusqu’à 40% de la masse de matière aspirée. Le phénomène est cumulatif ; l’absorption de matière gonfle la masse du trou noir et lui permet d’attirer par gravité, davantage de masse dans un disque d’accrétion qui tourne de plus en plus vite autour de son centre, comme de l’eau dans un évier. Maintenant tous les AGN peuvent ne pas avoir une « activité » suffisante pour s’exprimer en quasar. On en distingue de plusieurs types selon ce critère : radiogalaxies, galaxies de Seyfert, blasars, magnetars. Il y a aussi des AGN relativement « tranquilles » (« radio-quiet »). Pour qu’un AGN devienne quasar, il faut un trou noir supermassif (force d’attraction du trou et vitesse du disque d’accrétion) et beaucoup de matière absorbable à proximité du trou. La quantité de matière se mesure en masses solaires et on estime qu’il faut que le trou-noir consomme au moins une étoile de type solaire par jour pour apparaître comme un quasar. C’est la matière de ce disque d’accrétion, chauffée par la rotation rapide causée par sa chute sur le trou, les fusions d’étoiles et leur déchirement lorsqu’elles sont sur le point d’être absorbées, qui seraient la source des radiations dégagées dans le faisceau (le « jet ») émis de part et d’autre du plan du disque d’accrétion. La partie active du noyau a une taille égale à la durée des variations d’intensité du quasar (la lumière ayant une vitesse limitée) et on constate qu’il n’excède pas quelques semaines lumières. Ces dimensions sont cependant énormes comparées à notre système solaire (les sondes Voyagers qui sont sorties récemment de l’héliosphère ne sont qu’à environ 18 heures-lumière mais l’étoile la plus proche est à 4,3 années-lumière).

Cette explication permet de comprendre aussi pourquoi les quasars étaient plus nombreux autrefois. La densité de l’Univers, plus contracté (dans lequel l’expansion n’avait pas atteint les effets constatés dans l’Univers d’aujourd’hui), facilitait les collisions de galaxies, donc les concentrations. Par ailleurs la matière de certains des nuages de gaz qui s’étaient condensés et qui avaient « allumé » leurs étoiles se trouvaient encore à proximité de leur centre (un peu comme la matière dans un système planétaire avant que l’étoile ait « nettoyé » par ses radiations l’espace dans son environnement immédiat).

On en est venu à penser que beaucoup de galaxies ont été des quasars à une période initiale de leur vie. Compte tenu du nombre de galaxies, du nombre de trous-noirs selon les différentes époques et de l’importance de la matière non-absorbée par les trous noirs, on estime que la « phase quasar » d’une galaxie massive pourrait durer en moyenne une dizaine de millions d’années et pas plus de 100 millions d’années.

C’est la réflexion tout autant que l’observation qui a permis la compréhension du phénomène et cela « interpelle » concernant les capacités de l’intelligence artificielle. En effet l’IA repose sur l’utilisation des données. Plus de données permet une analyse plus fine d’un phénomène. Ainsi dans le cas présent, on peut comparer les résultats, constituer des catégories de rayonnements et des catégories de sources de ces rayonnements, remarquer grâce à l’accumulation des données que le phénomène a eu lieu statistiquement beaucoup plus fréquemment il y a 10 et 9 milliards d’années que récemment. Mais c’est tout. L’image des quasars est trop petite pour être résolue par nos télescopes. Concevoir que les quasars ne sont pas des étoiles mais de la matière stellaire dans un disque d’accrétion autour d’un trou noir supermassif, requière de « penser en dehors de la boîte ». Le robot doté d’une IA ne le fait pas, il permet à l’homme de le faire.

Au-delà de savoir qu’ils existent, les quasars présentent beaucoup d’intérêt pour la connaissance de l’Univers. Ils sont comme des balises dans l’espace profond ou comme des jalons dans l’obscurité pour remonter toujours plus loin. De par leur masse, ils peuvent servir de loupes gravitationnelles à des objets encore plus distants. Récemment, grâce à l’instrument MUSE installé sur le VLT, on a constaté que les plus anciens d’entre eux permettaient d’éclairer les masses sombres des premières galaxies ou plutôt des protogalaxies qui n’avaient pas encore formé d’étoiles, à la sortie des « âges sombres ». Dans le passé, ils ont pu être de forts éléments perturbateurs de leur environnement, donc de concentration de nuages de gaz, et de création d’étoiles (comme les supernovæ aujourd’hui). Dans le monde d’aujourd’hui on comprend que les trous-noirs centraux supermassifs, comme celui de notre Voie-lactée, ont probablement dans leur prime jeunesse, été des AGN et peut-être des quasars. Si c’est le cas, peut-être est-ce le cas de toutes les galaxies spirales. Enfin on peut penser que la diminution de leur nombre au fil de l’Histoire, vient confirmer l’accélération de l’expansion de l’Univers (moins de fusions de galaxies aujourd’hui).

Liens et références :

https://www.pourlascience.fr/sd/astronomie/les-quasars-trous-noirs-en-action-1183.php

https://fr.wikipedia.org/wiki/Quasar

https://www.physicsandastronomy.pitt.edu/cyril-hazard

Ciel et espace n°568, décembre 19 / janvier 20 : « On a vu les premières galaxies », par Guillaume Langin

https://en.wikipedia.org/wiki/Active_galactic_nucleus

https://www.futura-sciences.com/sciences/actualites/astronomie-record-hubble-decouvre-quasar-brillant-comme-600000-milliards-soleils-43162/

Illustration de titre: un quasar primordial, crédit Wolfram Freudling et al. (STECF), ESO, ESA, NASA

Image ci-dessous: structure d’un AGN: credit: CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=46857319


Pour retrouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 02 01

Les étoiles à neutrons, des astres étranges aboutissement d’un processus nécessaire à la vie

Les « étoiles à neutrons » sont des astres étranges qui se situent de par leur masse volumique, entre les plus denses des étoiles, les « naines-blanches », et les « trous-noirs ». Elles sont assez nombreuses dans notre voisinage spatial mais très petites et, bien après en avoir fait la théorie, nous n’en n’avons réalisé la présence que lorsque l’on a compris que les pulsars étaient un de leurs modes d’expressions.

Comme les naines blanches, les étoiles à neutrons sont l’aboutissement de la vie de leur étoile génitrice, les différences sont la masse d’origine de cette génitrice et de son noyau résiduel après explosion en nébuleuse planétaire ou en supernova. Une naine jaune, comme le Soleil, (de 0,7 à 7 masses solaires), va produire une naine-blanche (en fait son noyau), durable, de moins de 1,44 masses solaires (« limite de Chandrasekhar »), composé des éléments lourds (des « métaux », jusqu’au carbone) générés par nucléosynthèse avant la dissémination de ses couches externes dans l’espace et qui va ensuite très lentement se refroidir. La limite de Chandrasekhar théorisée en 1930 par le jeune (il avait 20 ans !) Subrahmanyan Chandrasekhar, plus tard appelé « Chandra », est la masse maximale au-delà de laquelle la « pression de dégénérescence » des électrons ne peut plus contrer la force de gravité au sein du noyau d’une étoile. Ainsi une étoile de 8 masses solaires et plus, va générer un noyau dense de 1,44 masses solaires et plus, qui va entraîner son « effondrement gravitationnel » et la poursuite du processus de transformation au-delà de la structure de naine blanche (cette continuation fut catégoriquement rejetée par Arthur Eddington, l’un des plus grands astrophysiciens de l’époque, lorsque Chandra la lui suggéra* !). L’aboutissement de ce processus est l’étoile à neutrons (Chandra n’était pas allé jusque-là). Mais, au-delà d’un noyau de plus de 3,2 masses solaires (correspondant à une masse initiale de 15 masses solaires), on peut s’acheminer vers un trou noir (il existe quand même des étoiles à neutrons de masse supérieure à cette « limite »).

*Ce qui devrait toujours inciter à beaucoup de prudence avant de rejeter les hypothèses « marginales » !

En fin de vie, l’étoile massive, de masse supérieure à 7 masses solaires, va fusionner le carbone de son cœur, en néon, magnésium, silicium, puis le silicium en fer et au-delà, jusqu’à l’uranium. Lorsque le cœur est converti en fer pour une masse atteignant 1,44 masses solaires, il s’effondre sur lui-même en matière neutronique (résultant de l’absorption des électrons par les protons) la force gravitationnelle n’étant plus compensée par quelque énergie contraire que ce soit. Les couches externes de l’étoile s’effondrent à leur tour vers le cœur, créant une onde de choc. L’onde de choc rebondit vers l’extérieur emportant toute la matière des couches externes sur son passage et de plus en plus vite puisque ces couches sont de moins en moins denses vers la surface. La matière chauffée à de très hautes températures par le choc, est dispersée dans l’espace à des vitesses énormes (plusieurs milliers de km/s). C’est la supernova.

Il reste au centre un cœur et ce cœur c’est l’étoile à neutrons. Ce n’est plus une étoile à proprement parler parce qu’elle ne se comporte plus comme un réacteur à fusion nucléaire ; l’étoile à neutrons poursuit son évolution au niveau non pas de l’atome mais à celui des composants de l’atome. Elle se présente comme une sphère de 20 à 40 km de diamètre (correspondant aux limites de masse de 1,44 à 3,2 !), d’une densité extrême avec une masse volumique de « quelques » 1000 milliards de tonnes par cm3. Sa structure est constituée de 4 couches autour d’un centre dont la composition est probable mais qui reste mystérieuse :

Une « atmosphère » de quelques cm à un mètre…mais qui ne l’est certainement pas au sens ordinaire (on pourrait plutôt dire « écume »). Il s’agit simplement de matière fluide, assemblage d’atomes, d’ions et d’électrons.

Une « croûte externe ». C’est la même matière, cristalline, que celle d’une naine blanche (composée de noyaux atomiques ionisés et d’électrons). Dans cette couche, avec l’augmentation de la densité, les protons fusionnent avec les électrons pour donner des neutrons.

Une « croûte interne ». Quand la densité franchit un seuil de 4,3 × 1011 g/cm−3 (« point de fuite neutronique »), les noyaux atomiques deviennent trop riches en neutrons (provenant de la fusion de protons avec des électrons) et ces derniers s’en échappent pour former un fluide. On a un mélange de noyaux atomique lourds (riches en neutrons), de neutrons et d’un peu d’électrons.

Un « noyau externe ». Quand la densité franchit un seuil de 1,7 × 1014 g/cm−3, les noyaux atomiques achèvent de se désintégrer. Cela donne un mélange de fluides de neutrons, protons et électrons, ces deux derniers types de particules étant nettement moins représentés que les neutrons.

Un « noyau interne ». Quand la densité franchit un seuil de 3 × 1015 g/cm−3, les neutrons se désintègrent ce qui implique que ce noyau interne, ou ce cœur, soit constitué d’un plasma fait de composants plus ou moins exotiques, logiquement divers quarks et gluons…mais on ne sait pas vraiment.

L’étoile à neutrons a conservé le moment cinétique de son étoile génitrice et compte tenu de sa taille, elle tourne sur elle-même à des vitesses considérables, plusieurs dizaines de rotations par seconde, parfois beaucoup plus (pulsars millisecondes) et génère un puissant champ magnétique (jusqu’à 1011 teslas pour les pulsars de type « magnétar »).

L’« invention » conceptuelle de ces astres par le physicien soviétique Lev Davidovitch Landau en 1932 (spécialiste des états condensés de la matière) a été contemporaine de la découverte du neutron, en 1932 (seulement ! Il est toujours étonnant que des découvertes aussi fondamentales soient aussi récentes) par le physicien britannique James Chadwick (prix Nobel 1935). Mais ce n’est qu’en 1967 qu’on observa la première étoile à neutrons, elle se présentait sous forme de pulsar. On la nomma, après coup, « PSR B1919+21 ». Jocelyn Bell (astrophysicienne britannique) auteure de la découverte était alors doctorante et selon les mœurs de l’époque…c’est son directeur de thèse qui, en 1974, obtiendra le prix Nobel pour sa découverte, sans aucune mention de son ancienne élève ! Il fallait évidemment faire le rapprochement entre pulsar et étoile à neutrons, ce que Jocelyn Bell ne fit pas mais c’est quand même sa découverte de cet astre et la reconnaissance de ses particularités de pulsar qui permirent ensuite son identification en tant qu’étoile à neutrons. Le rapprochement ne se fit vraiment que l’année suivante, en 1968, avec la découverte du pulsar du centre de la Nébuleuse du Crabe. Cette dernière, résultant de la supernova survenue en 1054 et commentée abondamment par les astronomes chinois de l’époque (et accessoirement d’autres astronomes de pays alors moins « civilisés » dans le monde) est célèbre…et magnifique (cf. illustration de titre) ! A noter que 90% des quelques 3000 étoiles à neutrons identifiées à ce jour l’ont été du fait de leur expression de pulsar, les autres l’étant presque toutes du fait de leurs émissions de rayons X et gamma. Il est évidemment beaucoup plus difficile d’identifier (sauf par leur émission thermique) les étoiles à neutrons isolées (sans matière « utilisable »* à proximité pour alimenter le pulsar) mais quelques-unes l’ont quand même été.

*NB : C’est la propulsion dans l’espace, à partir du pôle magnétique et dans l’axe magnétique de l’étoile, de radiations émises par l’astre lui-même et/ou de matière environnante (le plus souvent celle de l’étoile compagne) attirée par sa force gravitationnelle puis expulsée puissamment, qui crée le jet qui permet d’identifier le pulsar, la pulsation venant de la rotation de l’étoile selon un axe différent de son axe magnétique (c’est évidemment le plus souvent le cas). Le faisceau d’émissions décrit un cône du fait de cette rotation.

En dehors de leur caractère spectaculaire, les étoiles à neutrons ne sont pas pour nous (égoïstement !) des astres négligeables. Ce sont les événements cataclysmiques qui les ont formées, encore plus que le processus formateur des naines blanches, qui nous ont apporté les éléments lourds dont nous sommes faits. Sans « métaux » (qui ne comprennent pas que des métaux au sens ordinaires mais tous les éléments au-delà de l’hélium), point de vie (outre l’hydrogène, notre corps contient de l’oxygène, de l’azote, du carbone, du phosphate, du souffre, mais aussi du zinc, du cuivre, du fer, de l’or, etc..)! Les étoiles massives sont leurs creusets et les supernovas le facteur de leurs dispersions dans l’univers*. Du fait de leur vitesse d’expansion les nuages de matière dont elles sont constituées vont se mêler aux autres nuages de matières primitives (hydrogène, hélium) ou plus récentes (donc enrichis) et les enrichissent encore plus d’éléments plus lourds. Par leur souffle, elles densifient ces nuages et, dans certains cas, suffisamment pour amorcer une contraction gravitationnelle autour d’un centre et donc la formation de nouvelles étoiles accompagnées de leurs planètes.

*NB : Certaines supernovas, les « supernovas thermonucléaires », résultent de la fusion d’une naine blanche avec son étoile compagne (les étoiles binaires sont très nombreuses dans l’espace et les déstabilisations par accrétion de masses sont fréquentes). La limite de Chandrasekhar est immédiatement atteinte et toute la matière de l’astre compagnon, y compris celle de son cœur, qui ne s’est pas encore densifiée autant que celle de la naine blanche, est répandue immédiatement dans l’espace…cause supplémentaire d’enrichissement du milieu interstellaire.

C’est pour cela que la vie ne pouvait être enfantée par l’Univers avant le déroulement d’une certaine histoire. Il est donc vain de la chercher dans des observations de l’Univers très lointain, c’est-à-dire très ancien, comme certains fantaisistes l’imaginent. La vie est un phénomène inscrit dans l’Histoire et qui ne peut être qu’actuel. C’est parce qu’il est lié à des astres massifs à vie courte que l’enrichissement de l’Univers en métaux est devenu suffisant peu de temps avant que le nuage interstellaire dont notre Soleil est issu se contracte. Cela sous-entend symétriquement que l’Univers futur changera puisqu’il contiendra de plus en plus de métal. De ce fait, certaines zones des galaxies qui ne l’était pas deviendront peut-être habitables selon ce critère, d’autres (comme la nôtre) ne le seront plus ou donneront l’occasion de nouvelles combinaisons organiques à d’autres formes de vie en devenir.

Image de titre : la Nébuleuse du Crabe vue par Hubble. En son centre est tapie une étoile à neutrons. Crédit NASA.

Image ci-dessous : autre étoile à neutrons / pulsar (photos Chandra et WISE), crédit NASA : PSR B1509-58. Découvert en 1982 dans la constellation Circinus, ce pulsar date de l’an 300 après JC. Plusieurs types de radiations provenant de la même source (des rayons X aux ondes lumineuses) sont ici figurés, avec des couleurs différentes.

Image ci-dessous: coupe d’une étoile à neutrons. CC BY-SA 4.0 par Wattcle-Own work. Wikipedia commons.

Lecture : Dragon’s Egg de Robert Forward (décédé en 2002). L’auteur, physicien spécialiste de la gravitation, ayant notamment travaillé sur la recherche des ondes gravitationnelles, était aussi un (bon) écrivain de science-fiction. Dans Dragon’s Egg, publié en 1980, il imagine avec beaucoup de compétences et d’imagination ce que pourrait être la vie à la surface d’une étoile à neutrons. Il était né en 1930 à Geneva, Etat de New-York !

liens:

https://fr.wikipedia.org/wiki/%C3%89toile_%C3%A0_neutrons

https://www.jpl.nasa.gov/news/news.php?feature=6715

https://www.nasa.gov/mission_pages/chandra/news/astronomers-spot-distant-and-lonely-neutron-star.html

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 29

Conférence sur Mars le 12 février à Neuchâtel

Mars, les dernières observations de l’instrument CaSSIS et les motivations de la Mars Society.

J’ai organisé avec la Société Neuchâteloise de Sciences Naturelles (SNSN) une soirée martienne le 12 février à 20h00 au Musée d’Histoire Naturelle de Neuchâtel (MHNN). Elle consistera en une présentation, avec commentaires, par Antoine Pommerol, chercheur à l’Uni Berne, des dernières images de la planète, prises par l’instrument CaSSIS (Colour and Stereo Surface Imaging System) embarqué sur l’orbiteur TGO (Trace Gas Orbiter) de l’ESA. Ce sera l’occasion de faire le point sur nos connaissances de la planète Mars. Je compléterai par un court exposé sur les motivations de la Mars Society.

Le programme ExoMars de l’Agence Spatiale Européenne cherche à comprendre l’habitabilité ancienne et actuelle de Mars et l’éventuelle apparition de la vie. Il comprend deux parties. La première, « en l’air », est menée avec le TGO, lancé en 2016 (par l’agence russe Roscosmos) et qui est devenu scientifiquement opérationnel en avril 2018 (voyage de 9 mois suivi d’une longue circularisation de l’orbite par aérofreinage). La seconde étape, « au sol », sera menée avec l’atterrisseur qui avec son rover Rosalind Franklin, doit partir de la Terre en juillet prochain.

À bord du TGO qui circule à 400 km d’altitude (la même altitude que l’ISS autour de la Terre), le système d’imagerie CaSSIS développé par l’Université de Berne, a déjà obtenu plusieurs milliers d’images de la surface à haute résolution (4,6 mètres/pixel) et de grande qualité (vues stéréoscopiques et très grand nombre de nuances de couleurs qui permet de bien distinguer les différences de relief et de minéralogie ainsi que les nuages ou la glace). La caméra est montée sur un cardan avec un degré de liberté qui permet de maintenir son axe optique perpendiculaire à la surface mais la plus grande nouveauté qu’apporte l’instrument est son mécanisme de rotation qui permet de faire pivoter la caméra de 180°. Jusqu’à présent les photos du sol n’étaient prises qu’à la verticale et les vues « inclinées » étaient déduites de ces photos grâce aux altimètres embarqués. Combiné à sa forte résolution (dépassée seulement par la caméra HiRISE de l’orbiteur MRO), cela permet à CaSSIS de réaliser des photos en relief d’une résolution verticale de seulement 5 mètres. Ces images doivent permettre de préciser les nombreux mécanismes géologiques qui ont contribué, et dont certains contribuent toujours, à façonner la surface de Mars. Plus précisément, puisque cela répond à la justification de la mission ExoMars, elles sont utilisées pour rechercher et identifier les sources mais aussi les puits d’absorption potentiels des gaz libérés dans l’atmosphère martienne et détectés par les instruments également embarqués sur TGO, que sont les spectromètres infrarouges et ultraviolet NOMAD (Nadir and Occultation for MArs Discovery) et ACS (Atmospheric Chemistry Suite). Elles permettent de ce fait d’étudier aussi les processus dynamiques à l’œuvre à la surface de Mars – sublimation, érosion, volcanisme – susceptibles d’être à l’origine de la libération de ces gaz.

L’orbite de TGO est inclinée de 74° par rapport à l’équateur, ce qui permet d’observer presque la totalité de la surface de la planète (sauf bien sûr au-dessus des latitudes 74° Nord et Sud).

Le Dr Pommerol est “Co-Investigator” pour l’instrument CaSSIS au sein du Département « Space Research & Planetary Sciences » de l’Institut de Physique de l’Université de Berne. Il est docteur en planétologie, diplômé en 2009 de l’Université de Grenoble, et travaille actuellement dans l’équipe du Professeur Nicolas Thomas (chef de l’Institut et “Principal Investigator” de CaSSIS). Sa thèse portait sur l’ « étude expérimentale des signatures spectrales de minéraux hydratés et implications pour l’interprétation des données OMEGA/MEx* de la surface martienne ».

*embarqué à bord de Mars Express, orbiteur de l’ESA toujours en fonction autour de Mars.

Je parlerai quant à moi des motivations de la Mars Society.

Nous soutenons sans réserve la recherche robotique du Dr Pommerol, de l’Université de Berne et de l’ESA, puisque nous encourageons les scientifiques à parvenir à une connaissance aussi parfaite que possible de cet autre monde qu’est la planète Mars.

Ce dernier nous intéresse pour pouvoir mieux comprendre ce que sont les planètes autres que la Terre situées dans un contexte spatial assez semblable (ressemblances et différences). Mars a certes une masse plus faible (0,107) que la Terre, elle est située juste à la limite de notre zone d’habitabilité de notre système solaire et elle ne génère plus de magnétosphère depuis bien longtemps. Mais l’irradiance au niveau de son orbite est encore assez élevée (un peu moins de la moitié de celle existant au niveau de l’orbite terrestre), c’est une planète tellurique et elle a bénéficié pendant la première partie de son histoire géologique, d’une atmosphère épaisse et d’une abondance d’eau liquide comparable à celle de la Terre.

Elle nous intéresse aussi comme base possible d’un établissement humain. Cet établissement pourrait mener au sol une recherche géologique et planétologique beaucoup plus efficace que les robots que nous avons envoyés jusqu’à présent puisque des robots commandés en direct à partir de cet établissement n’importe où à la surface de la planète, pourraient agir et réagir en temps réel, ce qui est impossible aujourd’hui compte tenu de la vitesse de la lumière et de la distance entre les deux planètes (de 56 à 400 millions de km).

Par ailleurs nous pensons que l’humanité aurait tout à gagner d’un établissement en dehors de de la Terre. Cet établissement pourrait tester toutes sortes de technologies adaptées aux environnements extrêmes et ces technologies pourraient ensuite être transposées sur Terre pour moins dépenser d’énergie ou mieux recycler nos ressources rares. Cet établissement serait aussi une nouvelle bouture pour l’humanité « en dehors de son berceau » et, dans la mesure où il gagnerait de plus en plus d’autonomie en utilisant les ressources locales (comparables à celles de la Terre), il pourrait nous offrir un jour en tant qu’espèce, la possibilité d’échapper aux vicissitudes de notre évolution sur Terre. Ceci n’est pas négligeable dans la période très difficile qui s’annonce en raison de l’explosion démographique toujours en cours et qui va peser très lourdement sur nos ressources et donc sur nos relations sociales et politiques.

Illustration de titre :

Photo du cratère Korolev, empli de glace permanente. Crédit : ESA/Roscosmos/CaSSIS/UniBE. Korolev est un cratère de 81 km de diamètre situé à 73° de Latitude Nord dont la particularité est d’être rempli de glace d’eau sur toute sa surface et sur une profondeur atteignant 1,8 km au centre (résolution de 5,08 mètres).

Image ci-dessous :

Relief riche en couches stratifiées dans le chasme Juventae (un peu au Nord du centre de Valles Marineris). Crédit : ESA/Roscosmos/CaSSIS/UniBE

Photo de l’instrument CaSSIS avant sa mise à bord du TGO (Crédit : ESA/Roscosmos/CaSSIS/UniBE):

Liens :

Interview du Professeur N. Thomas sur le site de l’ESA,:

https://exploration.esa.int/web/mars/-/56788-an-interview-with-nicolas-thomas-principal-investigator-of-cassis

SNSN : http://www.unine.ch/snsn

Antoine Pommerol :

https://www.space.unibe.ch/about_us/personen/dr_pommerol_antoine/index_eng.html

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 29

Des étoiles naines de toutes les couleurs

Notre Soleil est une étoile assez banale, du type dénommé « naine jaune », à ne pas confondre avec « naine brune», « naine rouge » ou même « naine blanche », quoi qu’il soit précisément destiné à entrer dans cette dernière catégorie, avant de devenir beaucoup plus tard une toujours hypothétique « naine noire ». Mais ne vous inquiétez pas, nous ne serons plus là pour le voir car la transformation en naine blanche n’arrivera que dans plus de 6 milliards d’années et de toute façon, la Terre sera devenue inhabitable bien plus tôt et de surcroît l’espèce humaine telle que nous la connaissons aura disparu depuis très longtemps, du simple fait de l’évolution darwinienne.

Le « diagramme de Hertzprung-Russel » établi au début du XXème siècle par le Danois Ejnar Hertzprung et l’Américain Henry Norris Russel classe les étoiles selon leur « luminosité absolue » en fonction de leur température de surface et indirectement de leur masse. En effet plus une étoile est massive, plus son éclat est fort (et plus sa vie est brève) et inversement. Chacune d’entre elles peut passer au cours de sa vie par plusieurs positions sur ce diagramme en fonction de sa masse initiale qui détermine son évolution. Ainsi le Soleil qui est actuellement dans la « séquence principale » du diagramme est une naine jaune (luminosité « 1 » !) puis elle deviendra une géante rouge avant de devenir une naine blanche. La séquence principale des naines jaunes est située en dessous de deux groupes, un ensemble de « géantes », comprenant les géantes proprement dit, les sous-géantes, les géantes lumineuses, et le groupe des supergéantes ; et elle est située au-dessus des « naines-blanches ». Les « naines rouges » sont situées à l’extrémité « froide » de la séquence principale. Les « naines brunes » constituent un groupe à part.

Il faut voir qu’une étoile est une sorte de réacteur à fusion nucléaire, allumé par la simple pression interne résultant de sa masse concentrée par la gravité, à partir du moment où la densité du nuage de gaz et de poussière précurseur est suffisante pour déclencher sa concentration gravitationnelle. Le matériel initial est l’hydrogène, matière de base de l’Univers, qu’il s’agit de convertir, par nucléosynthèse, en élément plus lourd, le deutérium d’abord (mais c’est encore de l’hydrogène), l’hélium ensuite, et plus ou moins de « métaux » enfin (pas seulement de métaux au sens ordinaire mais tous les éléments plus lourds que les trois précités), en fonction de la puissance de la « machine » c’est-à-dire de sa masse. Plus la masse est importante plus on descendra dans le tableau de Mendeleïev vers le fer. Au-delà de la transformation « normale » de la matière stellaire, on dépassera le stade du fer lors de la séquence explosive de l’évolution stellaire (nova ou supernova), si elle a lieu, ce qui dépendra encore une fois de la masse de l’étoile.

La moins « puissante » des naines, la brune (la noire est une forme extrême que j’évoquerai plus tard), a une masse allant d’environ 13 à 75 fois celle de Jupiter (soit 0,07 masses solaires). C’est un objet hybride, plus chaud qu’une étoile mais pas suffisamment massif pour que sa densité interne permette une nucléosynthèse, si ce n’est marginalement celle de l’hydrogène en deutérium (hydrogène lourd). Le résultat de cette non-transformation interne est une très grande stabilité. Son histoire se résume à une lente contraction gravitationnelle et à un lent refroidissement (d’environ 2500 à environ 200 K). Il y a une infinité de naines brunes dans l’espace mais comme leur rayonnement est très faible, elles sont difficiles à observer, plus difficiles encore que le sont les exoplanètes dont le rayonnement interfère avec celui d’étoiles de masse supérieure. Il ne faut pas confondre ces naines-brunes, quasi-étoiles, avec les planètes orphelines ou errantes, c’est-à-dire ne dépendant pas d’une étoile. Ces dernières seraient par définition plus petites (en fait de toutes tailles inférieures à 13 masses joviennes, autrement ce seraient des naines brunes). On peut penser qu’elles ont fait partie à l’origine d’un système stellaire mais qu’elles en ont été éjectées (comme l’hypothétique cinquième planète de notre système solaire, entre Saturne et Neptune, peut-être éjectée par le retour de Saturne accompagnatrice de Jupiter dans son « grand tack », plus loin vers l’extérieur que leur lieu de naissance).

Les étoiles naines plus lumineuses que les brunes, les rouges, sont extrêmement communes dans l’Univers. Notre plus proche voisine Proxima Centauris est l’une d’entre elles et la plupart des exoplanètes observées à ce jour dépendent d’elles (leurs planètes sont relativement plus facilement observables qu’autour d’étoiles plus lumineuses ou massives car elles orbitent plus près d’elles et, pour une masse planétaire égale, leur contraste de luminosité ainsi que l’oscillation autour de leur centre de gravité commun sont relativement plus importants). Les naines rouges sont de véritables étoiles. Leur masse varie de 0,07 à 0,7 masses solaires ; leur température monte à quelques 4000 K et leur luminosité n’excède pas 10% d’une étoile de type solaire (elles émettent dans le rouge du spectre lumineux – elles rougeoient – et dans l’infrarouge). Leur nucléosynthèse (hydrogène vers hélium) est très lente et leur masse est entièrement convective c’est-à-dire que l’hélium résultant de la nucléosynthèse ne peut se concentrer au centre de gravité et que l’intérieur des astres reste donc homogène. Cette lenteur et le brassage permanent de la matière de l’étoile permettent aux réserves d’hélium de durer très longtemps et l’homogénéité est un facteur de stabilité. Leur longévité serait donc extraordinairement longue, plusieurs centaines de milliards d’années (NB : notre Univers n’a jailli du Big-bang qu’il n’y a que 13.8 milliards d’années) ; on n’a donc pas encore pu observer une fin de cycle pour ce type d’étoiles (épuisement de l’hélium). Cependant le fait qu’elles contiennent quelques éléments lourds (des « métaux ») impliquent qu’elles ne sont pas des étoiles primordiales (de première génération).

Les naines jaunes sont particulièrement intéressantes puisque notre Soleil est l’une d’entre elles. Au-delà de notre système, la plus proche est Alpha Centauri A. Elle se trouve à 4,5 années-lumière (notre galaxie, la Voie Lactée, fait plus de 100.000 années-lumière de diamètre) et il n’est pas impensable de pouvoir l’atteindre physiquement et d’abord avec nos robots (une vingtaine d’années seraient nécessaires selon les promoteurs du projet Breakthrough Starshot).

Leur masse varie entre 0,7 et 1,2 masses solaires. Elles pratiquent elle-aussi la nucléosynthèse mais de façon plus active que les naines rouges. La transformation de l’hydrogène en l’hélium se fait à partir du centre, comme chez les naines brunes ou rouges mais l’hélium se concentre au centre et évolue, par couche, vers la périphérie. Leur température de surface varie de 5000 à 6000°C mais au centre elle peut atteindre une quinzaine de millions de degrés. Elles ont une espérance de vie de l’ordre de 10 milliards d’années. Lorsque la réserve d’hélium de leur cœur est épuisée (le Soleil contient 74% d’hydrogène, 24% d’hélium et 2% de « métaux »), la fusion se propage dans les couches plus superficielles (la zone radiative puis la zone de convection) qui se dilatent de plus en plus du fait de la température et du fait qu’elles ne sont pas contraintes avec la même intensité par la gravité que le centre. Les naines se gonflent alors démesurément en géantes rouges. Le Soleil englobera ainsi Mercure, Vénus puis sans doute la Terre. A la fin de la phase de géante rouge, la température aura atteint une centaine de millions de Kelvin ce qui déclenchera le « flash de l’hélium », une réaction de fusion extrêmement rapide (quelques secondes) qui donnera du carbone et un peu d’oxygène. Ensuite, après quelques vicissitudes, les géantes rouges devenues très instables projettent leurs couches externes dans l’espace en une « nébuleuse planétaire » (notre système solaire, engagé dans son « nuage interstellaire local » traverse peut-être actuellement les vestiges d’une ancienne nébuleuse de quelques 30 années-lumière de diamètre…depuis quelques dizaines de milliers d’années et peut-être encore dix ou 20 mille ans, seulement un instant au regard des séquences de temps de l’Univers !). Après cette éjection, elles ne sont plus assez massives pour poursuivre leur nucléosynthèse au-delà du carbone, vers le néon, le sodium ou le magnésium. Il ne reste plus que leur cœur de carbone, très chaud (jusqu’à 100.000 K) et dense qui s’effondre sur lui-même en une « matière électronique dégénérée », devenant une naine blanche qui perdra peu à peu sa chaleur, très lentement car la sphère étant toute petite (ce qui restera du Soleil n’aura plus que le diamètre de la Terre) sa surface radiative sera très réduite. Un jour elle pourrait théoriquement devenir une « naine noire » dont la température serait celle de son environnement et dont plus aucune radiation ne sortirait. Mais ce dernier état reste hypothétique car l’Univers n’est pas encore assez vieux pour qu’une seule naine blanche ait atteint ce stade.

Comme évoqué plus haut, le Soleil aura bien avant le stade de géante rouge, dans « seulement » quelques 500 millions d’années, éradiqué toute vie de la surface de la Terre. En effet ses radiations et sa température vont augmenter continûment du seul fait de son « fonctionnement » interne et la hausse des températures va augmenter continûment l’évapotranspiration : l’atmosphère comprendra de plus en plus de vapeur d’eau et cette vapeur d’eau absorbera de plus en plus de gaz carbonique. Les plantes manqueront de ce gaz qui permet leur photosynthèse. Les espèces végétales terrestres puis marines disparaîtront progressivement…ainsi que les animaux qui s’en nourrissent. 500 millions d’années c’est beaucoup puisque par symétrie dans le temps on remonterait dans le passé jusqu’à l’époque cambrienne, au début de l’éon phanérozoïque (celui de la vie animale) qui a commencé il y a 541 millions d’années et puisque la divergence entre homme et singe n’est survenue qu’il y a environ 7,5 millions d’années. Il faut bien voir que sur cette durée mais déjà sûrement dans une dizaine de millions d’années, l’homme et son environnement auront profondément changé de par la simple évolution darwinienne. Dans 500 millions d’années d’une manière ou d’une autre, nous ne serons donc plus là. Nous aurons passé le flambeau à une autre ou plutôt à plusieurs autres espèces et on ne peut qu’espérer qu’au moins l’une d’entre elles aura conservé et fait prospérer l’Intelligence et la Sensibilité.

Les naines blanches sont donc « notre » futur, par succession de formes de vie en devenir au delà de la nôtre. Il est catastrophique mais il est très lointain. Nos éléments constitutifs, au niveau de l’atome, résultant de notre désintégration, que le Soleil aura engloutis, seront traités comme le reste de la matière absorbée et expulsés vers l’espace dans une nébuleuse planétaire et un jour peut-être, par suite de quelque phénomène de nouvelle concentration de matière, seront intégrés à un autre système planétaire. Si notre étoile était plus massive l’aventure ne s’arrêterait pas là. En effet pour les étoiles qui dépassent les 8 masses solaires, la naine blanche aurait une masse supérieure à 1,4 masse solaire (« masse de Chandrasekhar ») et l’équilibre entre la gravité et les forces de pression serait impossible ce qui conduirait le cœur à une explosion en supernova et à un surcroît d’enrichissement en métaux de cette matière disséminée dans l’espace.

En attendant nous avons beaucoup de belles choses à accomplir pour nous accomplir nous-mêmes. L’une d’elles est la recherche urgente et avide de connaissance et de compréhension de l’Univers autant que nous le permettent nos progrès technologiques et entre autres, la recherche ailleurs que dans notre système solaire de traces d’une autre vie ou plutôt, d’une évolution vers la vie, pour au moins mieux comprendre ce phénomène à ce point extraordinaire qu’il est probablement unique, du moins dans sa forme la plus développée que nous incarnons. La tâche est difficile car la complication supplémentaire à celles déjà évoquées dans ce blog est que toute étoile, même accompagnée de planète(s) dans sa zone habitable, n’est pas forcément un centre dispensateur de conditions suffisantes à la vie. Les géantes ont une vie trop courte, les naines brunes sont trop froides et les naines-rouges ont une zone habitable trop proche. Reste les naines jaunes d’un certain âge (pour avoir permis le lent développement que nous avons-nous-mêmes connus) nées dans un univers déjà riche en métaux (ce qui exclut les deux tiers de l’histoire de l’Univers), pas trop proche du centre galactique (trop de perturbations et de radiations) et pas trop loin non plus (un minimum est requis pour disposer d’une bonne métallicité)…De telles étoiles « ne courent pas les rues » !

Illustration de titre :  Tablizer traduit par Kokin — Traduction de l’image sous licence GFDL issue de la wikipedia anglophone

Illustration ci-dessous : le diagramme de Hertzprung Russel (créé par Richard Powell, avec sa permission pour une diffusion sur Wikipédia).

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 24

Comme l’infiniment petit, l’infiniment grand est constitué surtout de vide mais il est tout autant structuré

Plus on considère l’Univers à grande échelle plus il ressemble à l’infiniment petit, du vide structuré très finement par la matière. On ne s’en est rendu compte que récemment puisque, étant nous-mêmes noyés à l’intérieur de l’objet observé, nous n’avions pas le recul nécessaire pour l’appréhender sans déformation. Pour comparaison, nous voyons les arbres et non la forêt. Il a fallu que nous disposions des outils modernes que constituent les grands télescopes terrestres de dernière génération, comme le VLT et sa MUSE*, et les télescopes spatiaux, comme le télescope Hubble (avec son « Cosmic Origins Spectrograph »), pour observer suffisamment de galaxies et de nuages de gaz et en déduire, compte tenu des emplacements, des distances et des vitesses de déplacement, et grâce à la puissance de calculs de nos ordinateurs pour annuler les distorsions de perspectives, une image de ce que devrait être en réalité le tissu de l’univers.

VLT est le Very Large Telescope de l’ESO, situé au Cerro Paranal, Atacama, Chili. MUSE est le Multi Unit Spectrometer Explorer, un spectromètre 3D grand champ qui équipe le VLT depuis 2014.

La matière visible est regroupée en galaxies. Il y en a peut-être 200 milliards dans l’univers observable. Mais ces galaxies ne sont que les points où la matière primordiale s’est reconcentrée après que le Big-bang l’ait projetée avec violence dans ce qu’on appelle l’expansion de l’Univers. Au début des « âges sombres », mettons pendant les 250 premiers millions d’années de l’histoire de notre Univers (même si ces âges ont duré quelques 400 millions d’années), la matière atomisée était diluée, sans étoiles et sans galaxies mais quand même avec des régions de plus fortes et de moindres densités. Ce brouillard général était constitué de beaucoup d’atomes d’hydrogène et d’un peu d’atomes d’hélium. A la « surface de dernière diffusion », 380.000 ans après le Big-bang, lorsque la lumière fut libérée de la matière par l’expansion qui elle-même avait permis aux protons de récupérer des électrons, il y avait déjà des irrégularités de densité, provoquées par les « oscillations acoustiques des baryons » et ce sont ces irrégularités qui plus tard donneront les premières galaxies. Au tout début, en devenir, elles étaient d’énormes nuages sombres car sans étoiles puis, petit à petit, la gravité jouant son rôle, les premières concentrations se firent, des quasars se formant autour de quelques trous noirs primordiaux et les premières étoiles apparurent. Le mouvement d’expansion générale et de concentration locale se poursuivit et se poursuit encore mais le grand nuage originel ne se résorba pas et ne se résorbera jamais complètement. En fait, il subsiste partout où la densité n’a pas été suffisante pour engendrer un effondrement gravitationnel et, en s’étirant, partout entre les galaxies et les amas de galaxies en formant comme des ponts ou, vu de très loin, des feuilles minces puis des filaments.

On a une image du résultat, le « Two Degree Field Galaxy Redshift Survey » (ou « 2dF Galaxy Redshift Survey » ou « 2dFGRS ») publiée en juin 2003 (Steve Maddox et John Peacock) après collecte de données sur 1500 degrés carrés de la voûte céleste, par l’AAO (télescope Anglo-Australien équipé d’un instrument « 2dF » capable de produire des clichés de 2 degrés carrés). Ce qui frappe le plus quand on regarde aujourd’hui cette « structure à grande échelle de l’Univers », grâce à nos « merveilleuses machines », au-delà de l’homogénéité et de l’isotropie , c’est le vide. Il constitue 90 % du volume de l’Univers et il est « partout » entre les amas de galaxies qui apparaissent comme des renflements le long de fibres constituant une mousse très légère. Ce vide, dit « lacunaire » car il est constitué d’une infinité de cavités gigantesques (jusqu’à plusieurs dizaines de millions d’années-lumière), est vraiment très vide, au tel point que notre vide « local », entre les planètes du système solaire, à un moindre degré entre les étoiles de notre galaxie, à un moindre degré entre les galaxies de notre groupe local et à un moindre degré encore entre les galaxies de notre amas de galaxie, parait presque comme un « plein ». Déjà le vide intergalactique est 100.000 fois plus vide que le vide interstellaire à l’intérieur de notre galaxie.

Les filaments nuageux liant les galaxies, le « milieu intergalactique », sont de plus en plus intéressants aux yeux des astrophysiciens car ils représentent une part importante de la totalité de la matière baryonique (variable en fonction de l’éloignement donc de l’ancienneté). Les particules ténues dont ils sont constitués sont des atomes d’hydrogène neutre -75% -, d’un peu d’hélium -24%- et d’un tout petit peu d’autres éléments (les “métaux”). Ils ont une température froide à la différence des nuages résultant de supernovae ou ceux de la couronne galactique (qui orbitent autour des galaxies), et peuvent être animées d’une grande vitesse (plusieurs centaines de km par seconde). Ils constituent des liaisons entre les formes concentrées de la matière et leurs intersections pourraient être des lieux privilégiés pour les concentrations et donc la formation de galaxies. Quoi qu’il en soit, ils sont une source d’alimentation en matière des galaxies, comme un fleuve qui coule vers l’une ou l’autre, en fonction des vitesses initiales et des forces gravitationnelles. On les observe indirectement par plusieurs types de radiations: la lumière visible provenant de sources puissantes, comme les quasars, qui les traverse et se transforme à leur passage en UV (absorption Lyman-alpha), ou les particules lourdes très énergétiques (UHECP- Ultra High Energy Cosmic Particles) déviées dans leurs trajectoires. Mais on les observe aussi, directement, par leurs émissions radio dans la fameuse raie à 21 cm du spectre électromagnétique.

Les nodosités sont le résultat de la gravité qui tend à faire fusionner les galaxies et en tout cas les regroupe en amas et en superamas aux formes étirées. Avec quelques 100.000 autres galaxies, notre Voie Lactée fait partie du super-amas « Laniakea » (« ciel immense » en langue hawaïenne) dont le super-amas de la Vierge n’est qu’un segment (on s’en est rendu compte en 2014). Leurs formes, prolongées par les filaments nuageux qui les enveloppent et les prolongent, ont un peu l’apparence de structures nerveuses, les nodosités gonflant par endroits les structures fibreuses. Mais ces fibres et ces nodosités ne sont pas stables. Ils sont soumis comme le reste de la matière à l’expansion de l’Univers, à l’accélération de cette expansion et, en sens contrariant, à la gravité qui s’exerce à partir de concentrations multiples de matière qui ne jouent pas toutes dans la même direction. Notre voisine la Galaxie d’Andromède se rapproche de nous à quelques 120 km/s (il lui faudra quand même plusieurs milliards d’années pour qu’elle fusionne avec notre Voie Lactée) mais toutes les deux et notre groupe local sont entraînés vers l’amas de la Vierge (au centre de notre super-amas de la Vierge) à une vitesse comparable.

Cette dernière remarque me donne l’occasion d’insister sur le fait que tout cet Univers qui nous entoure, qui semble figé et immuable, est animé de mouvements sans fin (mais pas du tout désordonnés car selon des lois déchiffrables par l’astrophysique) et qu’il est en transformation constante (« notre » super-amas de la Vierge pourra un jour ne plus faire partie de Laniakea). Nous sommes partie d’une Histoire et emportée par elle à une vitesse énorme mais dans une danse très lente compte tenu des distances, Histoire dont la succession des instants apparemment identiques peut nous faire penser que rien ne change alors que ce n’est absolument pas le cas. C’est une question d’échelle de distances et de temps. A la surface de notre petite planète, aveuglés le jour par la lumière de notre Soleil, nous ne pourrions en avoir conscience que lorsque la nuit nous ouvre sa fenêtre mais notre vie est trop courte pour que nous remarquions quelque changement que ce soit sur la voûte céleste, sauf de temps en temps un météore et plus rarement une supernova, et d’ailleurs, compte tenu de la durée de cette vie éphémère, ces amples mouvements n’ont pratiquement aucune incidence sensible sur nous. Ce qui est le plus prodigieux c’est que grâce à nos astronomes et nos astrophysiciens nous puissions en avoir aujourd’hui conscience !

Laniakea: Crédit images: R.Brent Tully (U. Hawaï) et al., SDivision DP, CEA/Saclay

Illustration de titre :

Simulation numérique de la structure à grande échelle calculée et représentée par l’équipe du projet IllustrisTNG. L’image montre une tranche de l’Univers d’environ 1,2 milliards d’années-lumière, l’intensité de chaque région représente sa densité de matière et la couleur la température moyenne du gaz qui la baigne. Crédit : TNG Coopération.

Image ci-dessous : résultat (« final data release » du 30 juin 2003) de la 2dFGRS. Comme on peut le constater la simulation ressemble énormément à la réalité. Crédit 2dFGRS.

Liens :

https://www.tng-project.org/

http://magnum.anu.edu.au/~TDFgg/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 12

Mars, de la glace d’eau facilement accessible dans une région vivable

On sait depuis longtemps qu’il y a de la glace d’eau sur Mars. Ce que l’on apprend avec une nouvelle étude, dirigée par Sylvain Piqueux (CalTech) et publiée dans les « Geophysical Research Letters » en décembre 2019, c’est qu’il existe une vaste région de l’hémisphère Nord au climat acceptable, où cette eau est abondante et serait très facilement accessible.

L’eau sur Mars n’existe pratiquement pas à l’état liquide en raison de la pression atmosphérique très basse, 6 millibars en moyenne, sur la journée et l’année, à l’altitude moyenne (« Datum ») qui correspond par ailleurs à la ligne de la dichotomie crustale qui sépare de façon très contrastée les hautes terres du Sud (jusqu’à 3 ou 4 km au-dessus du Datum), des basses  terres du Nord (4 à 5 km en dessous du Datum en moyenne). Cette pression est aussi celle du point triple de l’eau (611 Pa) c’est-à-dire le point du diagramme de phase de l’eau pure où peuvent coexister ses phases liquides, solides et gazeuses. A cette pression la glace d’eau pure a tendance à se sublimer c’est-à-dire à passer directement de la phase solide à la phase gazeuse lorsque la température monte au-dessus de 0°C. Ceci dit la pression en dessous de cette altitude moyenne monte au-dessus de 6 millibars et dans ces conditions, compte tenu des très fortes dénivellations à la surface de Mars, on peut trouver un peu d’eau liquide dans les basses terres du Nord ou dans le Bassin d’Hellas au Sud (région la plus basse de Mars à – 8 km du Datum en moyenne, pression de 11 millibars maximum) mais les possibilités sont très limitées. Au mieux, dans ces régions privilégiées, elle bout à quelques tout petits degrés au-dessus de 0°C (2° ou 3°C ?) et elle gèle un peu en dessous de 0°C (-10 à -15°C ?) grâce à une très forte salinité (perchlorates). Le résultat de la sublimation quasi générale de l’eau de surface qui tendrait à évoluer en phase liquide à un moment ou un autre de la journée et /ou de l’année, est que Mars est partout aride, les endroits les plus humides étant comparables aux endroits les plus secs du Désert d’Atacama.

Cependant on a pu observer la présence de glace d’eau un peu partout en surface de Mars. D’abord, même depuis la Terre, les deux calottes polaires (glace d’eau au Pôle Nord et au Pôle Sud, glace d’eau et glace carbonique en surface) offrent leurs surfaces réfléchissantes à tout observateur disposant d’un télescope de puissance moyenne. Dans les latitudes élevées, la sonde PHOENIX nous a aussi montré que là où elle s’était posée (68° Nord) la glace était immédiatement accessible (elle a été découverte sous quelques cm de régolithe sous la sonde, dégagée par la force de la rétropropulsion lors de l’atterrissage et la pelle de l’engin l’a mise à jour un peu plus loin, sans effort). Ensuite, avec les radars embarqués sur plusieurs orbiteurs (notamment MARSIS de Mars Express, de l’ESA, puis SHARAD – Shalow Radar – à bord de MRO – Mars Reconnaissance Orbiter, de la NASA, qui fonctionne à plus hautes fréquences) on a découvert plusieurs banquises enterrées, même en zone intertropicale (Medusa Fossae), et, en latitudes moyennes de l’hémisphère Nord, entre 40 et 50°, dans l’Ouest d’Utopia Planitia (près d’Isidis Planitia), une vaste région (quelques 375.000 km2) de buttes (« mesas ») à forte teneur en eau. En janvier 2018, une étude a mis en évidence l’existence de véritables falaises de glace a des latitudes assez élevées (55°) dans l’hémisphère Sud. Par ailleurs, de petits cratères d’impact créés aux altitudes moyennes dans les basses terres du Nord montrent, à l’occasion, de petites surfaces blanches qui disparaissent dans un temps relativement court ; il s’agit incontestablement de glace d’eau proche de la surface et qui se sublime une fois découverte, plus ou moins vite en fonction de l’importance du volume. Enfin l’analyse radar de SHARAD a révélé une diélectricité très faible se renforçant en profondeur, dans toute la région des basses terres du Nord (zone de basse altitude occupant environ 40% de l’hémisphère Nord et réceptacle probable d’un ancien Océan), ce qui indique la présence d’eau actuelle ou ancienne (porosité du sol après sublimation).

Il y a donc beaucoup de glace d’eau sur Mars mais ce qui intéresse ceux qui y préparent l’installation de l’homme (en particulier certaines équipes de la NASA), ce sont les latitudes basses et moyennes de l’hémisphère Nord car ce n’est qu’à ces latitudes que l’on peut envisager d’utiliser le rayonnement solaire pour obtenir de l’énergie (ne serait-ce que complémentaire à l’énergie nucléaire) et éviter des hivers trop rudes et longs (sur une année de 630 jours, ils le sont aux latitudes élevées, surtout dans l’hémisphère Sud compte tenu de l’excentricité de l’orbite de la planète !). C’est dans l’hémisphère Nord également que l’on trouve les conditions les plus favorables pour l’atterrissage (vastes plaines lisses et plates d’altitudes basses à proximité de l’équateur et en latitude moyenne, qui impliquent plus de temps disponible pour le freinage, moins de risques de déstabilisation lors du contact au sol, moins de consommation d’énergie car moindre déviation de la trajectoire « naturelle » du vaisseau, qui se place au-dessus de l’équateur par attraction « naturelle » de la planète).

L’étude de Sylvain Piqueux porte précisément sur ce type de « gisements » des latitudes moyennes de l’hémisphère Nord, qui sont cachés ou qui n’apparaissent qu’en cas d’impacts. Le chercheur a eu l’idée d’utiliser les données de température du sol, collectées par deux instruments embarqués à bord de l’orbiteur 2001 Mars Odyssey, le radiomètre infrarouge MCS (Mars Climate Sounder) et l’imageur THEMIS (Thermal Emission Imaging System) fonctionnant dans le visible et également dans l’infrarouge. Les données ont été accumulées sur une très longue période (plus de 13 ans) et donnent une bonne définition (précision de 3 ppd pour MCS et de 100 mètres par pixel pour THEMIS). La glace d’eau ayant une inertie thermique notablement haute comparée à celle du régolithe martien, l’intérêt est que ces données de température du sol indiquent clairement sa présence. Comme écrit dans l’étude, « la glace présente dans le sol influe de façon mesurable sur les tendances saisonnières de la température de surface et la profondeur de la couche d’eau s’exprime dans l’ampleur de l’effet ». En été la glace d’eau absorbe l’énergie du soleil et les températures du sol qui en contient sont donc plus basses que celles du sol qui n’en contient pas. En automne/hiver c’est le contraire, la chaleur est restituée et le sol qui contient de la glace d’eau est moins froid que celui qui n’en contient pas. La réactivité ou plutôt la différence de réactivité du sol est d’autant plus nette que la glace est proche du sol et qu’elle est abondante. Bien entendu le système ne peut fonctionner qu’à une latitude suffisante pour que les différences de température entre les saisons puissent être sensibles (au moins 35°).

Selon ce principe le chercheur a pu dresser avec les données recueillies à deux saisons opposées sur la durée des treize années, une carte de l’hémisphère Nord montrant les zones où ce phénomène se manifestait le mieux. Il en est ressorti une région particulièrement « riche » qui descend jusqu’à 35° de latitude Nord dans le Sud d’Arcadia Planitia, entre les volcans Alba Patera et Elysium Mons. La glace d’eau y est abondante très près de la surface (à partir de seulement 3 cm). Comme le dit l’auteur (et comme la NASA l’a remarqué) cette région est particulièrement intéressante car dans ces conditions la glace pourrait être facilement extraite pour tous les besoins d’une implantation humaine et cela se combine avec un sol lisse et plat à basse altitude permettant un atterrissage moins difficile qu’ailleurs. Notez bien que cela ne veut pas dire que l’on ne pourrait pas extraire de la glace d’eau ailleurs à la surface de Mars. Cela veut simplement dire que dans cette région, cela serait particulièrement facile.

Les esprits chagrins doivent s’inquiéter car je n’ai pas encore évoqué la protection planétaire ! Je le fais maintenant pour dire que j’espère que l’objection que les tenants de cette protection pourraient formuler ne sera pas retenue et que je pense qu’elle ne le sera pas. Je considère que la réglementation qui veut tenir l’homme éloigné de l’eau martienne est en contradiction totale avec nos intérêts qui sont d’une part de rechercher sur une autre planète une évolution vers la vie (et on ne trouvera d’éventuelles traces ou manifestations pré-biotiques récentes donc plus facilement observables, que dans les régions les plus humides) et d’autre part de pouvoir subvenir à nos besoins vitaux en eau sans avoir à l’importer de la Terre. Cette réglementation ne résistera pas aux nécessités qui s’imposeront dès que nos vaisseaux spatiaux seront en mesure d’atterrir sur Mars.

Illustration de titre :

Arcadia Planitia, entre les volcans Elysium Mons à gauche et Alba Patera à droite (au Nord de Tharsis). La ligne de latitude 35°N passe au Nord du premier et au Sud du second. Notez, un peu plus au Sud, Olympus Mons et le bloc de Tharsis avec ses trois volcans alignés. L’endroit serait un excellent site d’atterrissage en raison de cet environnement volcanique et aussi des tunnels, parfois effondrés, résultant d’anciens cheminements d’eau souterrains plus au Sud. Crédit : Google Mars.

Image ci-dessous:

Exemple d’épaisseur relative de couche de glace d’eau à gauche et d’inertie thermique du régolithe de surface (TI*, à droite). Carte établie à partir de données recueillies par THEMIS, à l’Ouest d’Arcadia Planitia où plusieurs cratères exposant de la glace occasionnelle on été observés. « deep » signifie environ 1 mètre (mais pas plus); « shallow », quelques dizaines de cm. Crédit: Sylvain Piqueux, THEMIS, MCT et Geophysical Research Letter.

Références :

“Widespread shallow water ice on Mars at high latitudes and mid latitudes” par Sylvain Piqueux et al. in Geophysical Research Letters, doi.org/2019GL083947.

Liens: https://agupubs.onlinelibrary.wiley.com/doi/pdf/10.1029/2019GL083947

Autres liens :

https://www.space.com/mars-water-ice-map.html?utm_source=notification

https://www.space.com/42786-where-is-water-on-mars.html

https://www.nasa.gov/feature/jpl/nasas-treasure-map-for-water-ice-on-mars

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 09

2020, une année de départ vers Mars pour une volée de nouveaux robots d’exploration

Comme tous les 26 mois, cycle imposé par la mécanique céleste, les Terriens vont envoyer vers Mars une nouvelle « volée » de robots explorateurs. Ils partiront entre le 17 juillet et le 5 août et arriveront quelques 9 mois plus tard dans le voisinage de Mars. Cette fois ci les missions sont originaires des Etats-Unis, des pays membres de l’ESA avec un lanceur russe, de la Chine et des Emirats Arabes Unis avec un lanceur japonais.

Toutes n’ont pas les mêmes chances de succès, c’est-à-dire de mise en orbite autour de Mars et surtout d’atterrissage à sa surface. En réalité seuls les Etats-Unis ont démontré leur capacité aussi bien à la mise en orbite qu’à la descente en surface, c’est-à-dire à effectuer avec succès la difficile succession de manœuvres de l’« EDL » (« Entry, Descent, Landing ») et il a quand même fallu un peu de temps pour effectuer cette démonstration. C’est pour cela que les statistiques sur expériences passées qui prétendent prouver les faibles chances d’atterrir avec succès sur Mars sans se référer à l’identité du lanceur ni à la période de lancement, n’ont aucun sens, et elles en ont d’autant moins si on prend en compte toute la série des tentatives. Tous pays du monde confondus, il y a eu 54 lancements pour Mars depuis 1960 dont 11 pour « flyby » et « assistance gravitationnelle » (survols simples et survols pour aller plus loin que Mars), 25 pour mise en orbite et 18 pour atterrissage. Les Américains ont effectué 23 lancements, ils ont échoué 5 fois mais la dernière fois c’était il y a très longtemps, en 1999, avec Mars Polar Lander, et sur les 5, ils n’ont échoué qu’une seule fois à se poser (le même Mars Polar Lander). Il n’y a eu aucun autre échec depuis cette date (10 lancements réussis en série). Les Russes par contre ont effectué 22 lancements, ils ont échoué 19 fois et n’ont réussi que 3 opérations dont un flyby, une seule mise en orbite (pour la mission MarsExpress de l’ESA, en utilisant leur lanceur Soyouz) et aucun atterrissage. Les Européens n’ont réussi, seuls (avec leur lanceur Ariane 5G+), qu’une opération, la mise en orbite de la première partie de la mission ExoMars (Trace Gas Orbiter) en 2016 tandis que la partie atterrissage (Schiaparelli) a échoué. L’autre opération, Mars Express, a (comme dit plus haut) été réalisée avec un lanceur russe. Le Japon a tenté et échoué une fois, l’Inde a tenté et réussi un fois (mise en orbite de Mangalyaan). Enfin on ne peut compter dans les mêmes statistiques les tentatives des années 1960 et celles d’aujourd’hui. Les technologies ont évolué et les Américains ont appris très vite à faire ce qu’ils ne savaient pas faire, pour la bonne raison qu’ils n’avaient pas essayé !

Toutes les missions 2020 n’ont pas le même potentiel scientifique.

Les Emirats Arabes Unis, avec la « Hope Mars Mission », envoie un « démonstrateur technologique », c’est-à-dire qu’ils veulent montrer qu’ils sont capables de participer à une mission pour aller jusqu’à l’orbite de Mars et y déployer des instruments scientifiques. Il s’agit « simplement » d’envoyer, de placer et d’utiliser un orbiteur (satellite) ; pas question de tenter de descendre au sol pour une première mission. Officiellement Hope (ou « al-Amal ») va étudier l’atmosphère et le climat au sol avec deux spectromètres, l’un opérant dans l’infrarouge pour mesurer la variabilité de la thermosphère et les pertes d’hydrogène et d’oxygène, l’autre dans l’ultraviolet pour étudier, dans l’atmosphère moyenne et basse, les températures, la vapeur d’eau et les variations de teneur en poussière. Le lanceur, japonais, H-IIA de Mitsubishi est un lanceur fiable qui a propulsé de nombreuses missions dont quelques-unes dans l’espace profond. L’opération, mineure sur le plan scientifique, a donc de bonnes chances de succès.

La Chine veut lancer un orbiteur et un atterrisseur « Mars Global Remote Sensing Orbiter and Small Rover », mission plutôt connue comme « Huoxing-1 » ou « HX-1 ». C’est aussi une première puisque jusqu’à présent ce pays n’a lancé que vers la Lune. Au-delà de la démonstration ingénieuriale et politique, l’objet sera la recherche de traces passées ou présentes de vie et l’« évaluation de la surface et de l’environnement de la planète », expression plutôt vague qui annonce un travail de cartographie géologique. La mission devrait aussi préparer un retour d’échantillons sur Terre. Bien sûr le vecteur sera chinois, une fusée « Long March 5 » ou « Changzheng 5 » ou « CZ-5 » ; lanceur lourd dont le « track-record » est extrêmement faible ; seulement une seule opération menée à bien sur trois tentées, le placement d’un satellite sur une orbite géostationnaire. On peut donc craindre un échec.

Les deux missions les plus sérieuses sont les missions européennes et américaines. La mission européenne ExoMars qui doit déposer au sol le rover Rosalind Franklin est évidemment la moins certaine puisqu’elle suppose le succès d’une technique d’atterrissage jamais maîtrisée par l’ESA et c’est d’autant plus inquiétant que ce n’est pas faute d’avoir essayé : le test qui devait être mené avec l’atterrisseur Schiaparelli en 2016 (avec la première partie de la mission ExoMars) a échoué.

Les équipements du rover qui doit être déposé sur Mars sont ambitieux et j’aimerais vraiment qu’ils puissent fonctionner car la mission est passionnante et très bien préparée sur le plan scientifique. Il s’agit aussi de rechercher la vie, passée ou présente. A noter à ce propos que la britannique Rosalind Franklin, docteure en physico-chimie décédée en 1958, a participé « de manière déterminante » à la découverte de la structure de l’ADN (ce qui n’a pas empêché ses collègues masculins de l’« oublier » lorsqu’en 1962 ils ont reçu le prix Nobel pour cette découverte !). Le rover disposera d’un foret et de neuf instruments d’analyse. Le foret doit pouvoir atteindre une profondeur de 2 mètres. A ce niveau, les radiations spatiales sont fortement atténuées et il peut y avoir plus d’humidité (provenant de glace d’eau chargée en sels et non sublimée du fait de la protection du sol) donc évidemment de la vie (si elle existe !) ou des traces d’évolution vers la vie (« prébiotiques ») ce qui à mon avis est plus vraisemblable. Les échantillons prélevés par le foret seront examinés à l’intérieur du rover par divers dispositifs embarqués. Toutes les opérations du rover seront photographiées avec des caméras d’une précision inégalées pour donner le contexte et permettre de voir les échantillons prélevés avant de les traiter à l’intérieur du rover. Les instruments sont très cohérents et complets pour leur objectif : PanCam (Panoramic Camera), deux caméras grand angle (les yeux du rover) et une caméra à haute résolution, avec téléobjectif, pour l’appréhension et la cartographie digitale du terrain (les trois sont situées dans la « tête », au bout du mât du rover) ; ISEM (Infrared Spectrometer for ExoMars) pour évaluer à distance la composition minéralogique des cibles identifiées via PanCam (situé également dans la tête du rover) ; WISDOM (Water Ice and Subsurface Deposit Observation on Mars), un radar pour caractériser la stratigraphie dans l’environnement immédiat du rover ; WISDOM sera utilisé avec ADRON-RM, un détecteur de neutrons, pour donner des informations sur le contenu en eau (hydrogène) du sous-sol et orientera donc le choix des forages pour collecte d’échantillons ; Ma_MISS (Mars Multispectral Imager for Subsurface Studies), un spectromètre situé à l’intérieur du foret et qui va étudier la minéralogie environnante en éclairant la paroi du forage au fur et à mesure de la descente (c’est lui qui va faire la première étude des échantillons potentiels, avant prélèvement et transmission au laboratoire embarqué) ; CLUPI (Close Up Imager)*, une caméra pour acquérir des images en couleurs, à haute résolution, des cibles approchées, des rejets de forage et des échantillons prélevés (comme la caméra CASSiS de l’orbiteur TGO, « CLUPI » pourra utiliser plusieurs angles d’inclinaisons successifs, restituant au mieux les volumes et permettant de mieux interpréter ce qu’on voit) ; MicrOmega, un spectromètre imageur infrarouge (résolution de 20 x 20 µm par pixel) qui va étudier la minéralogie des échantillons prélevés ; RSL, un spectromètre laser Raman qui doit étudier les roches à distance ; il va en dire la composition minéralogique et identifier les composants organiques ; MOMA (Mars Organic Molecule Analyser), un chromatographe en phase gazeuse (il y en a un aussi dans le laboratoire embarqué SAM de Curiosity) ; il examinera les éventuels biomarqueurs qu’il pourrait trouver, pour répondre aux questions relatives à l’origine, l’évolution et la distribution de la vie sur Mars.

* petit salut « en passant » à mon ami Jean-Luc Josset et son équipe du Space Exploration Institute – Space-X – de Neuchâtel, qui l’ont conçue ainsi que la caméra grand angle de PanCam. Jean-Luc Josset est PI de CLUPI et co-PI de PanCam.

Le rover Mars 2020 de la NASA est, à mon avis, relativement moins intéressant. Il est la suite de Curiosity et a pour objet de rechercher aussi les traces de vie passée (Curiosity cherchait à savoir si Mars avait été habitable, ce qui n’est pas la même chose), de préparer un futur retour d’échantillons et de préparer la venue de l’homme sur Mars. Il comprend 7 instruments qui sont pour plusieurs d’entre eux des améliorations de ceux qui équipent aujourd’hui Curiosity. Le Mastcam-Z est une caméra panoramique et stéréoscopique avec une forte capacité de zoom. Ce sera les yeux du rover et elle aura un rôle à jouer dans l’identification minéralogique. MEDA (Mars Environmental Dynamics Analyzer) est un ensemble de capteurs qui donneront toutes indications sur le temps qu’il fait (y compris le contenu en poussière de l’atmosphère et la taille des particules). MOXIE (Mars Oxygen ISRU Experiment) est un instrument qui doit tester la possibilité de produire de l’Oxygène à partir de du dioxyde de carbone de l’atmosphère martienne (une des recommandations faites par Robert Zubrin dans les années 1990). PIXL (Planetary Instrument for X-Ray Lithochemistry) est un spectromètre à fluorescence de rayons X avec un imageur à haute résolution pour déterminer la composition des roches de surface. Le but est de permettre une analyse chimique plus fine que précédemment. RIMFAX (Radar Imager for Mars’ Subsurface Experiment) est un radar qui doit permettre de déterminer la structure géologique du sol à l’échelle du centimètre (jusqu’à une profondeur d’une dizaine de mètres). SHERLOC (Scanning Habitable Environments with Raman & Luminescence of Organics & Chemicals) est un spectromètre qui doit déterminer la minéralogie à petite échelle et détecter les composés organiques. SuperCam est une sorte de ChemCam (embarquée sur Curiosity) améliorée. L’instrument pourra détecter à distance la présence de composés organiques dans le régolithe ou les roches.

En plus de ces instruments, le rover disposera, comme son prédécesseur, d’un bras robotique avec un foret capable de prélever des échantillons qui seront soit analysés sur place, soit préservés dans une « cache » en attendant une mission de retour d’échantillons fin des années 20 ou début des années 30 (c’est loin et c’est vraiment frustrant !). Les prélèvements resteront très superficiels (le foret prévu n’est pas celui de Rosalind Franklin !). Enfin la mission débarquera un petit hélicoptère pour tester la possibilité d’utiliser ce type de véhicule dans les explorations futures. C’est intéressant car il est vrai que l’exploration martienne souffre de devoir se faire avec un rover qui roule sur un sol par définition non préparé à la circulation des véhicules à roues. On a vu que Spirit est mort d’avoir pénétré dans des sables mouvants et que les roues de Curiosity ont très vite été très abimées et qu’il ne peut aller « partout ». Il est impossible d’aller observer/analyser un site intéressant même à quelques mètres s’il est inaccessible au rover et hors de portée de sa ChemCam. Ceci dit ce premier hélicoptère n’aura qu’une autonomie très limitée et n’embarquera qu’une caméra. Espérons qu’il vole!

Ces missions vont s’ajouter à celles qui sont encore en cours. D’abord les orbiteur de l’ESA, ExoMars-TGO, « en pleine forme » (fin de mission prévue en 2022), et Mars Express qui continuera ses observations jusqu’à fin 2020 ; puis les orbiteurs de la NASA, MRO, le Mars-Reconnaissance-Orbiter avec sa camera HiRISE qui nous donne toujours des photos d’une précision extraordinaire (résolution jusqu’à 0,3 mètre par pixel) et qui a été prolongé, le vieux 2001-Mars-Odyssey qui a suffisamment d’énergie pour fonctionner jusqu’en 2025 et MAVEN qui a terminé sa mission mais communique encore, sans oublier en orbite le démonstrateur Mangalyiaan de l’Inde, et au sol le rover Curiosity au sol ainsi que la sonde InSight qui continue à faire de la sismographie. MRO, Mars Odyssey, MAVEN et MarsExpress serviront de relais aux nouveaux rovers pour les télécommunications vers la Terre.

L’exploration de Mars continue donc. Le thème de la vie est vraiment ce qui caractérise la génération des missions 2020. Nous pouvons espérer de nouvelles informations passionnantes et de toute façon une meilleure connaissance de cette planète, la plus semblable à la Terre et la seule sur laquelle on puisse envisager d’aller physiquement avec les technologies d’aujourd’hui et où j’espère on finira par aller un jour pas trop éloigné. La lente progression qu’a entrepris la NASA vers cet objectif (années 2040 ?) pourrait être, heureusement, accélérée par Elon Musk qui veut mener une première expédition habitée en 2024 (mais si cette date était reculée à 2026, ce ne serait pas trop grave). Espérons qu’il pourra finaliser son lanceur SuperHeavy et son vaisseau Starship et que les tenants de la protection planétaire ne lui mettront pas des bâtons dans les roues en empêchant son décollage ou plutôt son atterrissage sur Mars ! En attendant je vous souhaite, chers lecteurs, un bon début d’année.

Illustration : lancement par un Atlas 5-541 (développé par ULA pour l’armée de l’air américaine depuis 1997) le 26 novembre 2011 de la mission MSL (Curiosity). Crédit ULA (United Launch Alliance = Boeing et Lockheed Martin). Le lancement de Mars-2020 utilisera aussi un Atlas 5-541.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 12 21

Les trous-noirs, monstres destructeurs avec lesquels il nous faut vivre

Les trous-noirs sont des monstres redoutables dont nous sommes en principe aujourd’hui éloignés mais qui sont une des composantes essentielles de l’Univers, proche ou lointain. Avec les astéroïdes, les supernovæ, les radiations spatiales, le froid ou la chaleur extrêmes, le vide, l’apesanteur, ils font partis des dangers présents dans l’Espace que nous apprenons à connaître et où nous nous aventurons aujourd’hui. Leur particularité est que si un jour nous approchons trop près l’un d’entre eux, nous serions irrémédiablement absorbés et, entraînés vers sa « singularité », finalement déchirés et détruits jusqu’aux plus infimes composants de notre matière. La vie sur Terre bénéficie d’un environnement bien doux, confortable et relativement stable. Nous le voyons comme tel car nous sommes les produits de cet environnement, façonnés par lui avec sa propre matière par une très longue Histoire, et que notre vie est très courte à l’échelle des événements qui la ponctuent. Mais nous sommes également dans l’Espace et la Terre ne nous protège que si nous y restons ou si nous pouvons y rester et si elle-même n’est pas en danger. C’est notre mère mais elle est également vulnérable et nous-mêmes à travers elle. Elle aussi est emportée par l’Histoire et celle-ci ne s’arrête pas aujourd’hui. Elle continuera, avec ou sans nous, en fonction de nos actions sur elle (nous avons tendance ces jours à nous faire un peu trop remarquer !) et de son évolution propre ou de celle de son propre environnement : chute d’astéroïde géocroiseur géant (pas tout de suite mais loin d’être exclue) ou pluie d’astéroïdes provoquée par le rapprochement d’une étoile voisine perturbant le nuage de Oort de notre système solaire (non dans le proche avenir mais irrémédiablement « un jour » !), supernova d’une étoile voisine nous inondant de ses radiations mortelles (il y a quelques possibilités), épuisement du Soleil lorsqu’il aura brûlé une quantité suffisante de son hydrogène (nous sommes tranquilles pour quelques 500 millions d’années), rencontre avec un « petit » trou noir « primordial » (peu probable mais pas impossible quand même).

Mais qu’est-ce qu’un trou noir ?

On a pressenti dès le XVIIIème siècle (après Newton et avec l’astronome britannique John Michell en 1783 puis Pierre-Simon de Laplace en 1796) que des astres pourraient exister dont la force d’attraction serait telle que même la lumière ne pourrait s’en échapper (leur vitesse de libération atteignant celle de la lumière). Mais ce n’est qu’après Albert Einstein, puis Karl Schwarzschild (définissant son fameux « rayon »), qu’avec Robert Oppenheimer en 1939, on formalisera l’« objet » qui ne sera observé, indirectement, la première fois qu’en 1971 (« Cygnus X-1 » avec le télescope Uhuru de la NASA – lancé dans l’espace depuis Mombasa).

Parler de trou noir, c’est encore parler de masse et donc de gravité car un trou noir est un objet céleste si compact que l’intensité du champ gravitationnel qui en résulte, empêche toute forme de matière ou de rayonnement de s’en échapper (il « ralentit » même le Temps). C’est pour cela qu’on ne peut l’observer directement mais seulement par les effets qu’il a sur son environnement. Cet environnement ce peut être d’abord de la matière, qu’il triture et déchire (produisant des émissions de rayons X ou gamma en plus des émissions en d’autres longueurs d’onde du spectre électromagnétique ou encore des émissions de neutrinos et même d’ondes gravitationnelles s’il fusionne avec un autre trou noir ou absorbe une étoile à neutrons)…pourvu qu’il y en ait à proximité. Cet environnement c’est aussi les ondes lumineuses provenant des sources qui peuvent se trouver derrière lui en alignement avec nous, et qu’il va rapprocher visuellement et déformer (effets de loupe et de déviation). Cette force extrême s’exerce à partir d’un centre dit « singularité gravitationnelle », vers l’extérieur jusqu’à son « rayon des événements » dit aussi « de Schwarzschild » qui délimite tout autour de la singularité un volume sphérique dont la surface est dite « horizon des événements » mais il ne faudrait pas s’en approcher au-delà de la dernière orbite stable qui l’entoure, que l’on nomme « ISCO » (« Innermost Stable Circular Orbit »). Sur cette orbite qui se situe à 3 fois le rayon de Schwarzschild du trou noir, toute perturbation même infinitésimale conduirait irrémédiablement quelque objet que ce soit, à l’horizon des événements. Mais de toute façon, à cette distance, la vitesse de libération est pratiquement déjà inatteignable (> 122.000 km/s). Ce qui est surprenant sinon paradoxal, c’est que l’on pourrait franchir cet horizon vers l’intérieur sans s’en apercevoir sauf à vouloir repartir vers l’extérieur, car la densité (qui n’est pas la « compacité ») ne change pas brutalement lors du passage. Simplement lorsque l’on passe, « la barrière se referme ». Ce qui continue par contre c’est l’attraction vers le centre, la singularité. En fait c’est là où se cache vraiment le trou noir, on pourrait dire « sa tanière », car c’est là où la gravité (et la force d’attraction qui va avec) tend vers l’infini. Ceci implique que si la masse du trou noir est immense, la densité au niveau de l’horizon des événements sera encore faible. Pour « M87 » premier trou noir qui a été « vu », le 10 avril 2019 par l’Event Horizon Telescope, la masse est de 6,5 milliards de soleils, le rayon de 19 milliards de km (deux fois la distance du Soleil à Pluton) mais la densité de seulement 0,44 kg/m3 (44% de la densité de l’air) ! En fait la densité du trou noir (sa masse volumique) décroît avec sa masse (et donc sa taille) et si la densité pour les trous noirs massifs « normaux », comme Sgr A* au centre de notre galaxie reste très forte (9,5×105 kg/m3), et elle l’est a fortiori pour les petits trous noirs, un trou noir de la taille de l’Univers, aurait la densité…de l’Univers ce qui pourrait donner à penser que peut-être nous nous trouverions à l’intérieur d’un trou noir. Mais ce n’est probablement pas le cas car ce trou noir ne recevrait aucune matière de l’extérieur (seul moyen pour un trou noir de prendre de l’ampleur ou de connaître une « expansion ») et il serait empli d’une multitude de singularités (les autres trous noirs). Alors, réflexion subsidiaire, notre Univers serait-il un parmi d’autres, subissant les forces diverses (attraction / répulsion) de ses voisins ? C’est un autre sujet.

Comment parvenir à cette concentration de matière ?

Il est possible que de petits trous noirs provenant du Big-Bang, dits « primordiaux », se « baladent dans la nature ». Ils pourraient résulter selon Stephen Hawking et Bernard Carr, de l’effondrement gravitationnel lors de l’inflation cosmique de petites surdensités de l’Univers primordial. On ne sait pas où ils pourraient se trouver et ils ne sont donc encore que théoriques mais on dit de plus en plus que l’hypothétique « Planète-neuf » (la neuvième) de notre système solaire pourrait être l’un d’entre eux (peut-être parce qu’on n’arrive pas à la voir alors que « quelque chose » a une influence gravitationnelle forte au-delà de l’orbite de Pluton sur plusieurs planètes naines évoluant dans la ceinture de Kuiper).

Mais les trous noirs qu’on pourrait qualifier de « communs » ont une masse très importante et leur concentration résulte précisément de cette masse. Ils sont de deux types, les trous noirs « stellaires » et les trous noirs « supermassifs ». Les premiers (au moins trois masses solaires mais en principe pas plus d’une vingtaine) résultent de l’effondrement de grosses étoiles (au moins dix masses solaires à l’origine, avant supernova et éjection des couches extérieures de l’étoile) après qu’elles aient achevé la combustion interne de leurs éléments légers. Les seconds qui ont peut-être la même origine, résultent de l’accrétion d’énormément de matière (leur masse va de quelques millions à quelques milliards de masses solaires) dans la région la plus dense de leur galaxie, son cœur. Les premiers ne peuvent provenir que d’étoiles géantes, les masses autrement ne pourraient se contracter autant que nécessaire et on aurait des naines blanches ou des étoiles à neutrons. Mais les étoiles à neutrons peuvent elles aussi devenir des trous noirs en accrétant de la matière ou en fusionnant avec une autre étoile à neutrons. Les trous noirs supermassifs sont au cœur des galaxies spirales comme le Soleil est au cœur de notre système solaire. Provenant d’un effondrement ils sont obligatoirement en rotation et ils entraînent par force de gravité leur galaxie autour d’eux. Ils « tiennent » leur galaxie et se nourrissent de ses étoiles proches, devenant de ce fait encore plus puissants et entraînant davantage d’étoiles et de matière à fusionner avec eux, pourvu bien sûr qu’elles soient à portée de leur force d’attraction, qui s’accroît avec leur masse. Le nôtre, “Sgr A*”, a une masse de 4,15 millions de masses solaires. A noter que les classifications sont faites pour connaître des exceptions et il y en a évidemment aussi dans le cas présent. Ainsi on s’est étonné tout récemment (27 novembre 2019) de découvrir un trou noir stellaire (« LB-1 ») de 70 masses solaires dans un des bras spiraux de notre galaxie, à quelques 15.000 années-lumière de « chez nous ». Mais je m’étonne que l’on s’étonne puisqu’il n’y a pas de seuil de masse entre 20 et 70, et même beaucoup plus, au-delà duquel on assisterait à la création d’un autre phénomène.

Nous sommes à 25.000 années-lumière de notre centre galactique donc de son trou noir central (la Voie-Lactée a un diamètre d’environ 100.000 années-lumière). C’est notre cœur mais il est noir et il nous est hostile. Il n’est pas certain qu’il nous absorbe un jour (outre son appétit d’ogre cela dépendra sans doute de l’accélération ou de la décélération de l’expansion de l’Univers) mais son voisinage est quand même effrayant.

NB : je ne parle pas ici de tous les effets possibles des trous noirs car je voulais insister sur le danger qu’ils présentent. Mais en agissant sur la matière, le trou noir agit aussi sur le temps et comme il agit sur la lumière, il peut servir de lentille gravitationnelle, sorte de loupe qui rapproche de nous les rayonnements les plus lointains ; les astronomes sont ravis de pouvoir s’en servir ! 

Remerciements à Monsieur Christophe de Reyff pour ses suggestions et conseils.

Illustration de titre : approche du trou noir Sgr A* (Sagittarius A*) de notre galaxie, crédit ESO/S.Gillessen et MPE, Marc Schartmann (2011). Cette illustration montre les trajectoires des divers astres qui orbitent au plus près de notre trou noir supermassif et le comportement d’un nuage de gaz en train de tomber vers le trou. Récemment on a observé une étoile accélérée à une vitesse prodigieuse à proximité de ce trou noir (>1000 km/s alors que le Soleil orbite le centre galactique à 240 km/s). Le couple qu’elle formait avec une autre étoile tombait dans le trou en fonction de la masse qu’elles constituaient ensemble. L’autre étoile s’y est proprement perdue ce qui a permis à la première de s’échapper avec une vitesse accrue, bien supérieure à ce que lui aurait donné sa seule masse propre si elle y avait été attirée sans sa compagne.

Image ci-dessous : Sgr A* vu par le télescope à rayons X, Chandra, crédit : NASA/Penn State/G.Garmire et al.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 12 21

BONNE ANNÉE A TOUS!

Noël et notre place dans le Cosmos

Aujourd’hui, notre pâle-petit-point-bleu passe le solstice d’hiver dans sa course autour de son étoile et les hommes se préparent à fêter Noël, la naissance, comme ils le font depuis 2000 ans au cœur de l’hiver de l’hémisphère Nord de cette petite planète apparemment comme les autres. C’est le moment, comme les étoiles nous y invitent avec plus d’insistance que le reste de l’année par leur longue présence, de penser à l’infini, à la place dans l’Univers que nous-mêmes, êtres vivants fragiles et fugaces mais conscients, occupons, aux interactions de la science avec nos interrogations et aux réponses plus ou moins fondées, physiques ou métaphysiques, que certains proposent et d’autres affirment.

Tout d’abord constatons la parfaite adaptation ou conformité du cycle du christianisme à ce cycle cosmique qui nous domine. Dans ces nuits les plus longues et les plus froides de l’année nous sommes réchauffés et réconfortés par l’intimité du foyer et la vie qui symboliquement y commence ou qui plutôt y recommence, puisque c’est le cas tous les ans, porteuse de l’espérance qui elle-même nous fait vivre et entreprendre. La suite du cycle sera rythmée par Pâques à l’équinoxe de Printemps, le triomphe de la vie sur la mort ; la gloire et l’épanouissement de la Saint-Jean au solstice d’été ; la douce amertume du souvenir de la Toussaint à l’équinoxe d’Automne ; les quatre étapes, espacées d’un quart d’année les unes des autres, étant en parfaite harmonie avec l’évolution de la Nature. Le Christianisme est ainsi l’héritier de toute une chaîne de religions, explications métaphysiques qui ont marqué notre histoire depuis que nous avons compris la grandeur de ces passages, puisque totalement hors de nôtre contrôle, comme en témoignent les monuments les plus anciens comme Stonehenge en Grande Bretagne qui permettaient de célébrer l’un ou plusieurs de ces moments particuliers de communication unilatérale avec le Cosmos.

Aujourd’hui avec les connaissances que nous avons acquises, aussi bien sur l’évolution conduisant de la matière à la vie, que des forces agissant dans l’Univers, on peut se poser la question des « autres », qui comme nous pourraient fêter leur Noël, sur une autre Terre sous d’autres cieux. Cela fait maintenant des dizaines d’années que l’on scrute le ciel, avec beaucoup d’attention et de passion, à la recherche d’un message. Le programme SETI remonte à 1960 avec l’astronome Frank Drake de l’Université Cornell qui chercha à capter des émissions provenant de Tau Ceti ou d’Epsilon Eridani dans les longueurs d’onde du spectre électromagnétique proches du « trou de l’hydrogène ». Comme vous le savez sans doute on n’a toujours rien trouvé, malgré les progrès considérables des moyens d’observation et l’affinement des méthodes de recherche. Ce n’est pas très encourageant mais l’enjeu est tel que les gens qui se sont investis dans cette recherche ne se découragent pas et qu’ils trouvent toujours des supports, y compris bien sûr financiers, pour continuer.

Ce silence veut quand même dire certaines choses et pour le moins que les civilisations extra-terrestres ne sont pas fréquentes. On peut imaginer de nombreuses raisons pour l’expliquer. Premièrement la vie si elle a surgi quelque part ailleurs, n’a pu commencer que relativement récemment, il y a quelques cinq milliards d’années. En effet au début de l’Univers et peut-être jusqu’à la naissance du Soleil, sa métallicité, c’est-à-dire sa richesse en éléments chimiques différents, était peut-être trop faible, les étoiles n’ayant pas eu suffisamment de temps pour les produire par nucléosynthèse à partir de l’hydrogène et de l’hélium primordiaux. Deuxièmement, si les étoiles sont innombrables, elles ne sont pas toutes propices à un développement comparable à ce qui s’est passé sur Terre. Elles peuvent être situées en dehors de la zone habitable galactique, c’est-à-dire trop près du trou-noir central, là où la proximité des autres étoiles les exposent à des phénomènes violents trop fréquents, ou trop loin, à la périphérie de la galaxie, là où « rien ne se passe », où les échanges de matière et de gaz sont trop peu nombreux et où la fréquence des supernovæ est insuffisante pour fournir les éléments nécessaires à la vie. Troisièmement, seules les étoiles de type solaire, diffusant une énergie régulière sur une longue période, pourraient permettre la lente éclosion du phénomène (songeons que nous sommes apparus sur Terre il n’y a qu’une seule seconde par rapport à une journée de 24h00 dans laquelle se serait déroulée toute l’évolution depuis la naissance du Soleil). Dans cette hypothèse, les géantes jaunes aussi bien que les naines rouges ne seraient pas qualifiées, les premières ayant une vie trop courte, les secondes limitant leur zone habitable à une proximité trop grande et donc trop dangereuse et instable. Quatrièmement, les planètes rocheuses sont relativement peu fréquentes dans la zone habitable d’étoiles de type solaire, la tendance étant plus généralement à la formation de Jupiter chauds ayant absorbé toute matière jusqu’à proximité de leur étoile. Cinquièmement, les étoiles simples sont relativement rares et les étoiles doubles gênent la formation de systèmes comprenant toute une gamme de planètes, les plus grosses, gazeuses offrant une protection aux planètes rocheuses plus proches et les nuages d’astéroïdes lointains pouvant être perturbés par la proximité des étoiles sœurs. Sixièmement, les planètes rocheuses disposant de suffisamment d’eau liquide, un peu mais pas trop, sont, elles aussi, probablement rares, la juste quantité d’eau dont bénéficie la Terre étant largement due au « Grand-tack » de Jupiter c’est-à-dire à sa descente vers le Soleil puis à son retour vers l’espace profond, plus loin que son point d’origine, sous l’influence de Saturne, au début de la formation du système solaire. Septièmement, la présence d’un astre compagnon aussi gros, relativement, que la Lune, est exceptionnel. C’est lui qui exerce une force de marée importante sur l’océan, générant une alternance d’humidification puis d’assèchement dans de larges zones de balancement des marées, et maintenant active une puissante tectonique des plaques qui renouvelle les roches et l’atmosphère et probablement notre magnétosphère. Huitièmement, il est toujours impossible de prouver qu’il y a automatisme conduisant la matière organique inerte aux formes les plus primitives de vie comme nos bactéries et nos archées. Neuvièmement, il est toujours impossible de prouver qu’il y a automatisme conduisant des formes les plus primitives de vie aux eucaryotes capables d’utiliser l’oxygène comme énergie, ce qui ensuite a conduit « chez nous » aux métazoaires dont nous sommes issus. Dixièmement, il n’y a aucune raison qu’une histoire biologique différente permette de dégager, grâce à quelques accidents (la fameuse météorite de Chicxulub par exemple), un créneau parmi les autres formes de vie, permettant le développement d’êtres comparables à nos mammifères. Onzièmement, le développement de formes de vie correspondant à celle de nos primates à partir des premiers mammifères n’était pas inscrite dans un quelconque livre du destin. Douzièmement, il en est de même pour l’apparition chez ces primates d’êtres comparables à l’homme. Treizièmement le développement chez cet « homme » de technologies comparables à celles que nous avons développées et qui pourraient nous permettre de communiquer avec d’éventuelles autres espèces situées ailleurs dans l’espace résulte d’un très long cheminement de recherches, d’expérimentations et de hasards. Quatorzièmement la survivance d’une population de niveau technologique élevée sur une période suffisamment longue pour entrer en contact avec d’autres est plus que problématique compte tenu des risques d’autodestruction qui croissent avec le progrès. Quinzièmement, la distance et le temps peuvent rendre impossible toute communication sauf à atteindre un niveau de développement qui pour nous relève encore de la science-fiction.

Je pourrais ajouter quelques « complications », quelques étapes, quelques points où des divergences se sont produites alors que rien ne permet de dire qu’elles étaient inévitables et que de toute façon les conséquences auraient été les mêmes si elles s’étaient produites avant ou après. Tout ceci pour dire qu’il ne peut y avoir quelque automatisme que ce soit, que nous sommes le produit d’une histoire très particulière qui ne peut sans doute pas être répétée et que nous sommes probablement uniques.

Alors Noël dans tout cela ? Si nous sommes seuls dans l’Univers, nos perspectives sont différentes que si nous sommes une espèce consciente et communicante parmi d’autres. Nous sommes des poussières infimes sur notre pâle-petit-point-bleu mais en même temps nous sommes un joyau précieux puisque unique. Cela nous donne un devoir dans le cadre de cette histoire merveilleuse qui a conduit jusqu’à nous, vis-à-vis de tout l’Univers désert et silencieux qui nous entoure et vis-à-vis de toutes les générations de vie qui nous ont précédé sur Terre. Nous devons continuer et transmettre et nous devons considérer la vie humaine pour ce qu’elle est, l’aboutissement actuel d’un phénomène évolutif extraordinaire que nous devons admirer, respecter et dont nous devons prendre soin en continuant à l’accompagner (ce qui ne veut pas dire que nous devons accepter béatement la prolifération désordonnée conduisant à l’asphyxie ; ce qui ne veut pas dire non plus que nous ne devions pas respecter notre environnement et les autres formes de vie).

Ainsi que le rapporte ses biographes, les évangélistes, l’enfant Christ a remis l’humain au centre du jeu cosmique en insistant sur la nécessité du renouveau constant pour la continuité. Lui aussi est venu dans un temps, ni trop tôt ni trop tard, où il était lui-même nécessaire et compréhensible et il me semble toujours actuel, dans une église ou en dehors de toute église. Il nous a montré le chemin pour nous encourager, nous ses frères, tout en nous laissant libres, à vivre ensemble dans la droiture et le respect des autres, dans l’amélioration constante et sans cesse renouvelée de nous-mêmes et de la société. De ce fait ce chemin est celui du progrès autant que nous pouvons le suivre et aujourd’hui, nous le découvrons maintenant du fait de nos connaissances acquises, celui des autres planètes et des étoiles qui nous appellent et auxquelles nous pouvons aujourd’hui répondre. Les rois mages suivaient une lumière qui leur indiquait la direction de la crèche où commençait la vie nouvelle. Nous restons libres de ne pas répondre à la nouvelle invitation des étoiles présentée par l’état présent de notre technologie mais ce serait plus que dommage car cela conduirait à notre dépérissement et sans nul doute à notre mort. Continuons donc, dans le souvenir, l’espérance et l’allégresse. Joyeux Noël !

Illustration de titre : comète de Halley, une des candidates pour l’étoile de l’Epiphanie. Photographie de W. Liller (1986). Crédit Nasa/W. Liller/NSSDC’s photo gallery.

 

ClearSpace, start-up suisse romande, devient via ADRIOS une entreprise européenne indispensable

Ça s’est décidé lors de la dernière conférence ministérielle de l’ESA (« Space 19+ »), la start-up ClearSpace issue de l’EPFL* va diriger un consortium européen chargé d’appliquer le programme ADRIOS (« Active Debris Removal / In-Orbit Servicing ») pour entreprendre le nettoyage de l’orbite basse terrestre de ses satellites devenus non-opérationnels donc inutiles et de ses débris de satellites. Elle sera dotée d’un budget initial de 86 millions d’euros de fonds publics apportés par huit pays membres et devra rechercher un complément auprès de sponsors ou d’investisseurs privés pour atteindre la centaine de millions d’euros nécessaires pour initier ce programme.

*Pour les lecteurs non connaisseurs de la Suisse, je précise que l’EPFL, Ecole Polytechnique Fédérale de Lausanne, est l’université implantée en terres francophones qui jouit de la meilleure appréciation au monde (18ème au classement QS). Elle est orientée sur l’ingénierie mais pas seulement. Selon sa propre présentation « ses trois missions sont l’éducation, la recherche et l’innovation. L’EPFL  forme des scientifiques, ingénieurs, architectes, et encourage le transfert de technologie vers l’économie et la société civile ». Il me semble approprié de le rappeler dans ce contexte.

Rappelons tout d’abord le problème que l’ESA vient de demander à ADRIOS de traiter :

Depuis le début de l’ère spatial, qui est quand même récent, on a envoyé plusieurs milliers de satellites dans l’espace. Jusqu’à une altitude d’environ 600 km (la station spatiale internationale évolue à environ 450 km) les débris redescendent en moins de 25 ans (ce qui n’est pas rien tout de même !) dans une atmosphère suffisamment épaisse où ils sont brûlés par frottement avec l’air environnant. Mais plus on s’élève, plus le désorbitage « naturel » (on dit « self-cleaning ») est lent et plus la pollution est forte. Et l’on envoie des satellites à toutes les altitudes (on parle ici de l’orbite basse terrestre, « LEO », non de l’espace plus lointain qui par ses dimensions ne peut évidemment souffrir du même fléau), surtout autour de cette moyenne, en fonction des besoins d’observations de la Terre et de communications tout autour du globe (on a intérêt à être au plus près de la Terre pour réduire au maximum les petits décalages de temps dus à la vitesse de la lumière mais il faut être placé suffisamment haut pour ne pas redescendre trop vite). Plus le temps passe plus cette pollution s’aggrave, par le nombre de lancements effectués et par les inévitables collisions qui créent et multiplient les débris vers l’infini (phénomène décrit par ce qu’on a nommé le « syndrome de Kessler »). A des vitesses de l’ordre de 28.000 km/h on imagine les risques que cela crée pour toute nouvelle mission ou toute mission encore opérationnelle et vitale pour le fonctionnement de nos activités terrestres. Par ailleurs les satellites et débris prennent la lumière beaucoup plus longtemps chaque nuit que les objets restés sur Terre et gênent considérablement les observations de nos astronomes opérant avec des télescopes situés à la surface terrestre, d’autant que les observations portent souvent sur des événements extrêmement brefs ou sur des sources dont le rayonnement jusqu’à nous est extrêmement faible.

Certes, depuis plusieurs années maintenant, les satellites comportent presque tous (mais pas tous !) un système de désorbitation qui consiste à les freiner en fin de mission pour les faire chuter dans une atmosphère plus dense, mais ils doivent pour cela avoir conservé les ergols nécessaires et le moteur doit fonctionner ce qui n’est malheureusement pas toujours le cas…et il faut aussi prendre en compte les pannes ou les impacts, bref l’ensemble des mises hors service non prévus.

Le résultat c’est que nous avons « en l’air » (en orbite basse terrestre) quelques 3.000 satellites hors d’usage et 2.000 satellites en service mais certains des satellites hors d’usage ont perdu pour une raison ou une autre leur intégrité et nous avons en réalité quelques 34.000 débris d’une taille d’au moins 10 cm, qui se déplacent de façon erratique et incontrôlable à des vitesses énormes. Plus on attend pour agir, plus les collisions se produisent et plus le nombre de débris augmente. On voit bien les conséquences que cela peut avoir et le problème ne va pas s’arranger tout seul puisque certaines sociétés commencent à lancer des « constellations » de satellites (menant une même mission de concert) dans certains cas des centaines ou même dans le cas du programme Starlink d’Elon Musk, des milliers (12.000 prévus, 122 lancés à ce jour et 1.600 pour une première tranche à 550 km, d’autres iront jusqu’à 1325 km). Si cela continue on se retrouvera tous bloqués sur Terre par nos déchets et l’exploration spatiale deviendra impossible sans compter qu’on ne pourra plus utiliser l’espace pour nos activités terrestres. Les lanceurs ou opérateurs de satellites et les compagnies qui les assurent semblent heureusement de plus en plus conscients du problème.

La réponse apportée par ClearSpace et l’ESA :

Pour qu’une solution à un tel problème existe il faut une technologie convaincante, un client qui paye et un fournisseur qui puisse procurer le service demandé. L’ESA, l’un des plus gros lanceurs de satellites, a pris l’initiative en lançant un appel d’offres international pour traiter ses propres épaves et débris et la meilleure proposition reçue a été celle de ClearSpace ce qui est absolument remarquable compte tenu du fait que ClearSpace n’est à ce jour qu’une start-up. Elle a su convaincre parce que son projet a semblé à l’ESA être le plus adapté à la résolution du problème sur le plan technique et parce que le « backing » de l’EPFL et le choix des 13 membres de son consortium (dont les principaux « intégrateurs » du spatial européen) lui a donné une très bonne crédibilité. ClearSpace, dirigée par Luc Piguet, diplômé de l’EPFL et affilié à son département eSpace, Centre Spatial de l’EPFL, a été constituée à partir du projet CleanSpace One initié par Muriel Richard de ce même Centre Spatial, en 2012. Il s’agissait d’abord de lancer (en 2024) un satellite expérimental « CleanSpace One » pour aller décrocher le nano satellite SwissCube (lancé par l’EPFL en 2009) puis, sur la base de cette expérience, de commercialiser un service de satellites récupérateurs-désorbiteurs qui serait adapté aux divers types de débris à traiter. Avec la mission ADRIOS il s’agit maintenant d’aller « décrocher » en 2025 le second étage (plus précisément un adaptateur de satellites secondaires), « VESPA » (« Vega Secondary Payload Adapter »), d’un lanceur envoyé par l’ESA dans l’espace en 2014 et qui se trouve entre 800 et 660 km d’altitude (taille de 1,80 x 2,00 mètres et masse de 120 Kg). Pour ce faire, ClearSpace, après avoir finalisé les détails de son offre avant Mars 2020 et le contour de son consortium, va envoyer un nouveau lanceur à proximité de cette épave et va la récupérer avec un petit satellite désorbiteur disposant d’un moteur d’approche (processus très délicat car l’épave est par définition non équipée pour être manœuvrée), d’un dispositif de saisie (filet, pince à deux ou plusieurs branches, bras robotique) et d’un dispositif de freinage.

La suite :

Cette première mission sera logiquement suivie par beaucoup d’autres et pourra porter sur plusieurs objets à la fois. Au-delà de la technologie très élaborée sur le plan de l’ingénierie (conception et réalisation), il faudra que la start-up se transforme en entreprise ce qui est un défi important car il lui faudra non seulement animer le consortium réuni pour obtenir ce premier marché mais aussi disposer constamment des réseaux des fournisseurs les plus qualifiés, coordonner leur travail et faire évoluer l’ensemble en fonction des retombées d’expérience sur le « terrain », changer de taille en fonction des nouveaux marchés tout en restant innovante et performante. Dans le cas présent cette adaptabilité sera clef car on peut imaginer que les concurrents, européens ou étrangers, ne vont pas manquer. Ce qui est très positif c’est que Luc Piguet semble très conscient des difficultés et qu’il est prêt à les affronter, en mettant l’accent sur la nécessité d’être à l’écoute des membres de son équipe, choisis chacun pour ses connaissances et ses compétences, et de les diriger comme un véritable chef d’orchestre. On peut espérer aussi que les bonnes relations avec l’ESA seront confirmées (l’opération VESPA sera évidemment capitale) et heureusement la demande va sûrement être de plus en plus forte compte tenu des problèmes croissants de pollution et compte tenu du développement dans l’« Opinion » d’un environnement psychologique très porteur pour que les entreprises assument leurs responsabilités écologiques.

Le financement :

Le désorbitage du « morceau » de Vega va avant tout être une démonstration de capacité technologique mais il va aussi coûter cher car le satellite désorbiteur, son lancement dans l’espace puis son guidage et son pilotage sont des « premières ». Ce qu’il faut envisager pour la suite ce sont des productions en série, une pluralité de lancements et le développement d’une pratique professionnelle qui feront baisser les coûts unitaires des opérations de récupération. Mais pour aller plus loin, il faut aussi envisager que les services de ClearSpace soient financés par des compagnies d’assurance dont les primes seront payées par les opérateurs ou les lanceurs de satellites. C’est le seul moyen de ramener le prix de ces services à un niveau raisonnable pour tous ceux qui auront eu la malchance de créer sans le vouloir une nouvelle épave. Ceux qui par négligence ne se seront pas assurés devront assumer d’être contraints de payer tout seuls une mission de récupération spécifique, sous la menace de la très forte réprobation des « autres » , professionnels de l’espace ou simples Terriens écologiquement conscients, et cela continuera à leur coûter cher même si ce sera moins que les premières missions.

A priori être actionnaire de ClearSpace ne sera pas un mauvais placement. Les investisseurs sont les bienvenus. Longue vie à la nouvelle entreprise !

Illustration de titre : schéma de la capture de VESPA (crédit ClearSpace)

Illustration ci-dessous : les satellites et débris en orbite autour de la Terre (évidemment ces débris ne sont pas à l’échelle par rapport à la Terre…mais comme vous le voyez ils sont très nombreux) : http://stuffin.space/

Autres liens :

file:///F:/ADRIOS/Press%20release%20ClearSpace_ESA-Fr.pdf

https://actu.epfl.ch/news/une-start-up-de-l-epfl-conduira-une-mission-pour-n/

https://www.esa.int/Safety_Security/Clean_Space/ESA_commissions_world_s_first_space_debris_removal

https://www.lesechos.fr/industrie-services/air-defense/leurope-lance-sa-premiere-mission-de-nettoyage-de-lespace-1155064

J’ai traité le sujet de ClearSpace dans mon article de blog du 08 juin 2019 :

https://blogs.letemps.ch/pierre-brisson/2019/06/08/clearspace-une-entreprise-de-salut-public-pour-notre-cognosphere/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 12 13