Des étoiles naines de toutes les couleurs

Notre Soleil est une étoile assez banale, du type dénommé « naine jaune », à ne pas confondre avec « naine brune», « naine rouge » ou même « naine blanche », quoi qu’il soit précisément destiné à entrer dans cette dernière catégorie, avant de devenir beaucoup plus tard une toujours hypothétique « naine noire ». Mais ne vous inquiétez pas, nous ne serons plus là pour le voir car la transformation en naine blanche n’arrivera que dans plus de 6 milliards d’années et de toute façon, la Terre sera devenue inhabitable bien plus tôt et de surcroît l’espèce humaine telle que nous la connaissons aura disparu depuis très longtemps, du simple fait de l’évolution darwinienne.

Le « diagramme de Hertzprung-Russel » établi au début du XXème siècle par le Danois Ejnar Hertzprung et l’Américain Henry Norris Russel classe les étoiles selon leur « luminosité absolue » en fonction de leur température de surface et indirectement de leur masse. En effet plus une étoile est massive, plus son éclat est fort (et plus sa vie est brève) et inversement. Chacune d’entre elles peut passer au cours de sa vie par plusieurs positions sur ce diagramme en fonction de sa masse initiale qui détermine son évolution. Ainsi le Soleil qui est actuellement dans la « séquence principale » du diagramme est une naine jaune (luminosité « 1 » !) puis elle deviendra une géante rouge avant de devenir une naine blanche. La séquence principale des naines jaunes est située en dessous de deux groupes, un ensemble de « géantes », comprenant les géantes proprement dit, les sous-géantes, les géantes lumineuses, et le groupe des supergéantes ; et elle est située au-dessus des « naines-blanches ». Les « naines rouges » sont situées à l’extrémité « froide » de la séquence principale. Les « naines brunes » constituent un groupe à part.

Il faut voir qu’une étoile est une sorte de réacteur à fusion nucléaire, allumé par la simple pression interne résultant de sa masse concentrée par la gravité, à partir du moment où la densité du nuage de gaz et de poussière précurseur est suffisante pour déclencher sa concentration gravitationnelle. Le matériel initial est l’hydrogène, matière de base de l’Univers, qu’il s’agit de convertir, par nucléosynthèse, en élément plus lourd, le deutérium d’abord (mais c’est encore de l’hydrogène), l’hélium ensuite, et plus ou moins de « métaux » enfin (pas seulement de métaux au sens ordinaire mais tous les éléments plus lourds que les trois précités), en fonction de la puissance de la « machine » c’est-à-dire de sa masse. Plus la masse est importante plus on descendra dans le tableau de Mendeleïev vers le fer. Au-delà de la transformation « normale » de la matière stellaire, on dépassera le stade du fer lors de la séquence explosive de l’évolution stellaire (nova ou supernova), si elle a lieu, ce qui dépendra encore une fois de la masse de l’étoile.

La moins « puissante » des naines, la brune (la noire est une forme extrême que j’évoquerai plus tard), a une masse allant d’environ 13 à 75 fois celle de Jupiter (soit 0,07 masses solaires). C’est un objet hybride, plus chaud qu’une étoile mais pas suffisamment massif pour que sa densité interne permette une nucléosynthèse, si ce n’est marginalement celle de l’hydrogène en deutérium (hydrogène lourd). Le résultat de cette non-transformation interne est une très grande stabilité. Son histoire se résume à une lente contraction gravitationnelle et à un lent refroidissement (d’environ 2500 à environ 200 K). Il y a une infinité de naines brunes dans l’espace mais comme leur rayonnement est très faible, elles sont difficiles à observer, plus difficiles encore que le sont les exoplanètes dont le rayonnement interfère avec celui d’étoiles de masse supérieure. Ils ne faut pas confondre ces naines-brunes, quasi-étoiles, avec les planètes orphelines ou errantes, c’est-à-dire ne dépendant pas d’une étoile. Ces dernières seraient par définition plus petites (en fait de toutes tailles inférieures à 13 masses joviennes, autrement ce seraient des naines brunes). On peut penser qu’elles ont fait partie à l’origine d’un système stellaire mais qu’elles en ont été éjectées (comme l’hypothétique cinquième planète de notre système solaire, entre Saturne et Neptune, peut-être éjectée par le retour de Saturne accompagnatrice de Jupiter dans son « grand tack », plus loin vers l’extérieur que leur lieu de naissance).

Les étoiles naines plus lumineuse que les brunes, les rouges, sont extrêmement communes dans l’Univers. Notre plus proche voisine Proxima Centauris est l’une d’entre elles et la plupart des exoplanètes observées à ce jour dépendent d’elles (leurs planètes sont relativement plus facilement observables qu’autour d’étoiles plus lumineuses ou massives car elles orbitent plus près d’elles et, pour une masse planétaire égale, leur contraste de luminosité ainsi que l’oscillation autour de leur centre de gravité commun sont relativement plus importants). Les naines rouges sont de véritables étoiles. Leur masse varie de 0,07 à 0,7 masses solaires ; leur température monte à quelques 4000 K et leur luminosité n’excède pas 10% d’une étoile de type solaire (elles émettent dans le rouge du spectre lumineux – elles rougeoient – et dans l’infrarouge). Leur nucléosynthèse (hydrogène vers hélium) est très lente et leur masse est entièrement convective c’est-à-dire que l’hélium résultant de la nucléosynthèse ne peut se concentrer au centre de gravité et que l’intérieur des astres reste donc homogène. Cette lenteur et le brassage permanent de la matière de l’étoile permettent aux réserves d’hélium de durer très longtemps et l’homogénéité est un facteur de stabilité. Leur longévité serait donc extraordinairement longue, plusieurs centaines de milliards d’années ( NB : notre Univers n’a jailli du Big-bang qu’il n’y a que 13.8 milliards d’années) ; on n’a donc pas encore pu observer une fin de cycle pour ce type d’étoiles (épuisement de l’hélium). Cependant le fait qu’elles contiennent quelques éléments lourds (des « métaux ») impliquent qu’elles ne sont pas des étoiles primordiales (de première génération).

Les naines jaunes sont particulièrement intéressantes puisque notre Soleil est l’une d’entre elles. Au-delà de notre système, la plus proche est Alpha Centauri A. Elle se trouve à 4,5 années-lumière (notre galaxie, la Voie Lactée, fait plus de 100.000 années-lumière de diamètre) et il n’est pas impensable de pouvoir l’atteindre physiquement et d’abord avec nos robots (une vingtaine d’années seraient nécessaires selon les promoteurs du projet Breakthrough Starshot).

Leur masse varie entre 0,7 et 1,2 masses solaires. Elles pratiquent elle-aussi la nucléosynthèse mais de façon plus active que les naines rouges. La transformation de l’hydrogène en l’hélium se fait à partir du centre, comme chez les naines brunes mais l’hélium se concentre au centre et évolue, par couche, vers la périphérie. Leur température de surface varie de 5000 à 6000°C mais au centre elle peut atteindre une quinzaine de millions de degrés. Elles ont une espérance de vie de l’ordre de 10 milliards d’années. Lorsque la réserve d’hélium de leur cœur est épuisée (le Soleil contient 74% d’hydrogène, 24% d’hélium et 2% de « métaux »), la fusion se propage dans les couches plus superficielles (la zone radiative puis la zone de convection) qui se dilatent de plus en plus du fait de la température et du fait qu’elles ne sont pas contraintes avec la même intensité par la gravité que le centre. Les naines se gonflent alors démesurément en géantes rouges. Le Soleil englobera ainsi Mercure, Vénus puis sans doute la Terre. A la fin de la phase de géante rouge, la température aura atteint une centaine de millions de Kelvin ce qui déclenchera le « flash de l’hélium », une réaction de fusion extrêmement rapide (quelques secondes) qui donnera du carbone et un peu d’oxygène. Ensuite, après quelques vicissitudes, les géantes rouges devenues très instables projettent leurs couches externes dans l’espace en une « nébuleuse planétaire » (notre système solaire, engagé dans son « nuage interstellaire local » traverse peut-être actuellement les vestiges d’une ancienne nébuleuse de quelques 30 années-lumière de diamètre…depuis quelques dizaines de milliers d’années et peut-être encore dix ou 20 mille ans, seulement un instant au regard des séquences de temps de l’Univers !). Après cette éjection, elles ne sont plus assez massives pour poursuivre leur nucléosynthèse au-delà du carbone, vers le néon, le sodium ou le magnésium. Il ne reste plus que leur cœur de carbone, très chaud (jusqu’à 100.000 K) et dense qui s’effondre sur lui-même en une « matière électronique dégénérée », devenant une naine blanche qui perdra peu à peu sa chaleur, très lentement car la sphère étant toute petite (ce qui restera du Soleil n’aura plus que le diamètre de la Terre) sa surface radiative sera très réduite. Un jour elle pourrait théoriquement devenir une « naine noire » dont la température serait celle de son environnement et dont plus aucune radiation ne sortirait. Mais ce dernier état reste hypothétique car l’univers n’est pas encore assez vieux pour qu’une seule naine blanche ait atteint ce stade.

Comme évoqué plus haut, le Soleil aura bien avant le stade de géante rouge, dans « seulement » quelques 500 millions d’années, éradiqué toute vie de la surface de la Terre. En effet ses radiations et sa température vont augmenter continûment du seul fait de son « fonctionnement » interne et la hausse des températures va augmenter continûment l’évapotranspiration : l’atmosphère comprendra de plus en plus de vapeur d’eau et cette vapeur d’eau absorbera de plus en plus de gaz carbonique. Les plantes manqueront de ce gaz qui permet leur photosynthèse. Les espèces végétales terrestres puis marines disparaîtront progressivement…ainsi que les animaux qui s’en nourrissent. 500 millions d’années c’est beaucoup puisque par symétrie dans le temps on remonterait dans le passé jusqu’à l’époque cambrienne, au début de l’éon phanérozoïque (celui de la vie animale) qui a commencé il y a 541 millions d’années et puisque la divergence entre homme et singe n’est survenue qu’il y a environ 7,5 millions d’années. Il faut bien voir que sur cette durée mais déjà sûrement dans une dizaine de millions d’années, l’homme et son environnement auront profondément changé de par la simple évolution darwinienne. Dans 500 millions d’années d’une manière ou d’une autre, nous ne serons donc plus là. Nous aurons passé le flambeau à une autre ou plutôt à plusieurs autres espèces et on ne peut qu’espérer qu’au moins l’une d’entre elles aura conservé et fait prospérer l’Intelligence et la Sensibilité.

Les naines blanches sont donc « notre » futur, par succession de formes de vie en devenir au delà de la nôtre. Il est catastrophique mais il est très lointain. Nos éléments constitutifs, au niveau de l’atome, résultant de notre désintégration, que le Soleil aura engloutis, seront traités comme le reste de la matière absorbée et expulsés vers l’espace dans une nébuleuse planétaire et un jour peut-être, par suite de quelque phénomène de nouvelle concentration de matière, seront intégrés à un autre système planétaire. Si notre étoile était plus massive l’aventure ne s’arrêterait pas là. En effet pour les étoiles qui dépassent les 8 masses solaires, la naine blanche aurait une masse supérieure à 1,4 masse solaire (“masse de Chandrasekhar”) et l’équilibre entre la gravité et les forces de pression serait impossible ce qui conduirait le cœur à une explosion en supernova et à un surcroît d’enrichissement en métaux de cette matière disséminée dans l’espace.

En attendant nous avons beaucoup de belles choses à accomplir pour nous accomplir nous-mêmes. L’une d’elles est la recherche urgente et avide de connaissance et de compréhension de l’Univers autant que nous le permettent nos progrès technologiques et entre autres, la recherche ailleurs que dans notre système solaire de traces d’une autre vie ou plutôt, d’une évolution vers la vie, pour au moins mieux comprendre ce phénomène à ce point extraordinaire qu’il est probablement unique, du moins dans sa forme la plus développée que nous incarnons. La tâche est difficile car la complication supplémentaire à celles déjà évoquées dans ce blog est que toute étoile, même accompagnée de planète(s) dans sa zone habitable, n’est pas forcément un centre dispensateur de conditions suffisantes à la vie. Les géantes ont une vie trop courte, les naines brunes sont trop froides et les naines-rouges ont une zone habitable trop proche. Reste les naines jaunes d’un certain âge (pour avoir permis le lent développement que nous avons-nous-mêmes connus) nées dans un univers déjà riche en métaux (ce qui exclut les deux tiers de l’histoire de l’Univers), pas trop proche du centre galactique (trop de perturbations et de radiations) et pas trop loin non plus (un minimum est requis pour disposer d’une bonne métallicité)…De telles étoiles « ne courent pas les rues » !

Illustration de titre :  Tablizer traduit par Kokin — Traduction de l’image sous licence GFDL issue de la wikipedia anglophone

Illustration ci-dessous : le diagramme de Hertzprung Russel (créé par Richard Powell, avec sa permission pour une diffusion sur Wikipédia).

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 24

Comme l’infiniment petit, l’infiniment grand est constitué surtout de vide mais il est tout autant structuré

Plus on considère l’Univers à grande échelle plus il ressemble à l’infiniment petit, du vide structuré très finement par la matière. On ne s’en est rendu compte que récemment puisque, étant nous-mêmes noyés à l’intérieur de l’objet observé, nous n’avions pas le recul nécessaire pour l’appréhender sans déformation. Pour comparaison, nous voyons les arbres et non la forêt. Il a fallu que nous disposions des outils modernes que constituent les grands télescopes terrestres de dernière génération, comme le VLT et sa MUSE*, et les télescopes spatiaux, comme le télescope Hubble (avec son « Cosmic Origins Spectrograph »), pour observer suffisamment de galaxies et de nuages de gaz et en déduire, compte tenu des emplacements, des distances et des vitesses de déplacement, et grâce à la puissance de calculs de nos ordinateurs pour annuler les distorsions de perspectives, une image de ce que devrait être en réalité le tissu de l’univers.

VLT est le Very Large Telescope de l’ESO, situé au Cerro Paranal, Atacama, Chili. MUSE est le Multi Unit Spectrometer Explorer, un spectromètre 3D grand champ qui équipe le VLT depuis 2014.

La matière visible est regroupée en galaxies. Il y en a peut-être 200 milliards dans l’univers observable. Mais ces galaxies ne sont que les points où la matière primordiale s’est reconcentrée après que le Big-bang l’ait projetée avec violence dans ce qu’on appelle l’expansion de l’Univers. Au début des « âges sombres », mettons pendant les 250 premiers millions d’années de l’histoire de notre Univers (même si ces âges ont duré quelques 400 millions d’annees), la matière atomisée était diluée, sans étoiles et sans galaxies mais quand même avec des régions de plus fortes et de moindres densités. Ce brouillard général était constitué de beaucoup d’atomes d’hydrogène et d’un peu d’atomes d’hélium. A la « surface de dernière diffusion », 380.000 ans après le Big-bang, lorsque la lumière fut libérée de la matière par l’expansion qui elle-même avait permis aux protons de récupérer des électrons, il y avait déjà des irrégularités de densité, provoquées par les « oscillations acoustiques des baryons » et ce sont ces irrégularités qui plus tard donneront les premières galaxies. Au tout début, en devenir, elles étaient d’énormes nuages sombres car sans étoiles puis, petit à petit, la gravité jouant son rôle, les premières concentrations se firent, des quasars se formant autour de quelques trous noirs primordiaux et les premières étoiles apparurent. Le mouvement d’expansion générale et de concentration locale se poursuivit et se poursuit encore mais le grand nuage originel ne se résorba pas et ne se résorbera jamais complètement. En fait, il subsiste partout où la densité n’a pas été suffisante pour engendrer un effondrement gravitationnel et, en s’étirant, partout entre les galaxies et les amas de galaxies en formant comme des ponts ou, vu de très loin, des feuilles minces puis des filaments.

On a une image du résultat, le « Two Degree Field Galaxy Redshift Survey » (ou « 2dF Galaxy Redshift Survey » ou « 2dFGRS ») publiée en juin 2003 (Steve Maddox et John Peacock) après collecte de données sur 1500 degrés carrés de la voûte céleste, par l’AAO (télescope Anglo-Australien équipé d’un instrument « 2dF » capable de produire des clichés de 2 degrés carrés). Ce qui frappe le plus quand on regarde aujourd’hui cette « structure à grande échelle de l’Univers », grâce à nos « merveilleuses machines », au-delà de l’homogénéité et de l’isotropie , c’est le vide. Il constitue 90 % du volume de l’Univers et il est « partout » entre les amas de galaxies qui apparaissent comme des renflements le long de fibres constituant une mousse très légère. Ce vide, dit « lacunaire » car il est constitué d’une infinité de cavités gigantesques (jusqu’à plusieurs dizaines de millions d’années-lumière), est vraiment très vide, au tel point que notre vide « local », entre les planètes du système solaire, à un moindre degré entre les étoiles de notre galaxie, à un moindre degré entre les galaxies de notre groupe local et à un moindre degré encore entre les galaxies de notre amas de galaxie, parait presque comme un « plein ». Déjà le vide intergalactique est 100.000 fois plus vide que le vide interstellaire à l’intérieur de notre galaxie.

Les filaments nuageux liant les galaxies, le « milieu intergalactique », sont de plus en plus intéressants aux yeux des astrophysiciens car ils représentent une part importante de la totalité de la matière baryonique (variable en fonction de l’éloignement donc de l’ancienneté). Les particules ténues dont ils sont constitués sont des atomes d’hydrogène neutre (et d’un peu d’helium). Ils ont une température froide à la différence des nuages résultant de supernovae ou ceux de la couronne galactique (qui orbitent autour des galaxies), et peuvent être animées d’une grande vitesse (plusieurs centaines de km par seconde). Ils constituent des liaisons entre les formes concentrées de la matière et leurs intersections pourraient être des lieux privilégiés pour les concentrations et donc la formation de galaxies. Quoi qu’il en soit, ils sont une source d’alimentation en matière des galaxies, comme un fleuve qui coule vers l’une ou l’autre, en fonction des vitesses initiales et des forces gravitationnelles. On les observe indirectement par plusieurs types de radiations: la lumière visible provenant de sources puissantes, comme les quasars, qui les traverse et se transforme à leur passage en UV (absorption Lyman-alpha), ou les particules lourdes très énergétiques (UHECP- Ultra High Energy Cosmic Particles) déviées dans leurs trajectoires. Mais on les observe aussi, directement, par leurs émissions radio dans la fameuse raie à 21 cm du spectre électromagnétique.

Les nodosités sont le résultat de la gravité qui tend à faire fusionner les galaxies et en tout cas les regroupe en amas et en superamas aux formes étirées. Avec quelques 100.000 autres galaxies, notre Voie Lactée fait partie du super-amas « Laniakea » (« ciel immense » en langue hawaïenne) dont le super-amas de la Vierge n’est qu’un segment (on s’en est rendu compte en 2014). Leurs formes, prolongées par les filaments nuageux qui les enveloppent et les prolongent, ont un peu l’apparence de structures nerveuses, les nodosités gonflant par endroits les structures fibreuses. Mais ces fibres et ces nodosités ne sont pas stables. Ils sont soumis comme le reste de la matière à l’expansion de l’Univers, à l’accélération de cette expansion et, en sens contrariant, à la gravité qui s’exerce à partir de concentrations multiples de matière qui ne jouent pas toutes dans la même direction. Notre voisine la Galaxie d’Andromède se rapproche de nous à quelques 120 km/s (il lui faudra quand même plusieurs milliards d’années pour qu’elle fusionne avec notre Voie Lactée) mais toutes les deux et notre groupe local sont entraînés vers l’amas de la Vierge (au centre de notre super-amas de la Vierge) à une vitesse comparable.

Cette dernière remarque me donne l’occasion d’insister sur le fait que tout cet Univers qui nous entoure, qui semble figé et immuable, est animé de mouvements sans fin (mais pas du tout désordonnés car selon des lois déchiffrables par l’astrophysique) et qu’il est en transformation constante (« notre » super-amas de la Vierge pourra un jour ne plus faire partie de Laniakea). Nous sommes partie d’une Histoire et emportée par elle à une vitesse énorme mais dans une danse très lente compte tenu des distances, Histoire dont la succession des instants apparemment identiques peut nous faire penser que rien ne change alors que ce n’est absolument pas le cas. C’est une question d’échelle de distances et de temps. A la surface de notre petite planète, aveuglés le jour par la lumière de notre Soleil, nous ne pourrions en avoir conscience que lorsque la nuit nous ouvre sa fenêtre mais notre vie est trop courte pour que nous remarquions quelque changement que ce soit sur la voûte céleste, sauf de temps en temps un météore et plus rarement une supernova, et d’ailleurs, compte tenu de la durée de cette vie éphémère, ces amples mouvements n’ont pratiquement aucune incidence sensible sur nous. Ce qui est le plus prodigieux c’est que grâce à nos astronomes et nos astrophysiciens nous puissions en avoir aujourd’hui conscience !

Laniakea: Crédit images: R.Brent Tully (U. Hawaï) et al., SDivision DP, CEA/Saclay

Illustration de titre :

Simulation numérique de la structure à grande échelle calculée et représentée par l’équipe du projet IllustrisTNG. L’image montre une tranche de l’Univers d’environ 1,2 milliards d’années-lumière, l’intensité de chaque région représente sa densité de matière et la couleur la température moyenne du gaz qui la baigne. Crédit : TNG Coopération.

Image ci-dessous : résultat (« final data release » du 30 juin 2003) de la 2dFGRS. Comme on peut le constater la simulation ressemble énormément à la réalité. Crédit 2dFGRS.

Liens :

https://www.tng-project.org/

http://magnum.anu.edu.au/~TDFgg/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 12

Mars, de la glace d’eau facilement accessible dans une région vivable

On sait depuis longtemps qu’il y a de la glace d’eau sur Mars. Ce que l’on apprend avec une nouvelle étude, dirigée par Sylvain Piqueux (CalTech) et publiée dans les « Geophysical Research Letters » en décembre 2019, c’est qu’il existe une vaste région de l’hémisphère Nord au climat acceptable, où cette eau est abondante et serait très facilement accessible.

L’eau sur Mars n’existe pratiquement pas à l’état liquide en raison de la pression atmosphérique très basse, 6 millibars en moyenne, sur la journée et l’année, à l’altitude moyenne (« Datum ») qui correspond par ailleurs à la ligne de la dichotomie crustale qui sépare de façon très contrastée les hautes terres du Sud (jusqu’à 3 ou 4 km au-dessus du Datum), des basses  terres du Nord (4 à 5 km en dessous du Datum en moyenne). Cette pression est aussi celle du point triple de l’eau (611 Pa) c’est-à-dire le point du diagramme de phase de l’eau pure où peuvent coexister ses phases liquides, solides et gazeuses. A cette pression la glace d’eau pure a tendance à se sublimer c’est-à-dire à passer directement de la phase solide à la phase gazeuse lorsque la température monte au-dessus de 0°C. Ceci dit la pression en dessous de cette altitude moyenne monte au-dessus de 6 millibars et dans ces conditions, compte tenu des très fortes dénivellations à la surface de Mars, on peut trouver un peu d’eau liquide dans les basses terres du Nord ou dans le Bassin d’Hellas au Sud (région la plus basse de Mars à – 8 km du Datum en moyenne, pression de 11 millibars maximum) mais les possibilités sont très limitées. Au mieux, dans ces régions privilégiées, elle bout à quelques tout petits degrés au-dessus de 0°C (2° ou 3°C ?) et elle gèle un peu en dessous de 0°C (-10 à -15°C ?) grâce à une très forte salinité (perchlorates). Le résultat de la sublimation quasi générale de l’eau de surface qui tendrait à évoluer en phase liquide à un moment ou un autre de la journée et /ou de l’année, est que Mars est partout aride, les endroits les plus humides étant comparables aux endroits les plus secs du Désert d’Atacama.

Cependant on a pu observer la présence de glace d’eau un peu partout en surface de Mars. D’abord, même depuis la Terre, les deux calottes polaires (glace d’eau au Pôle Nord et au Pôle Sud, glace d’eau et glace carbonique en surface) offrent leurs surfaces réfléchissantes à tout observateur disposant d’un télescope de puissance moyenne. Dans les latitudes élevées, la sonde PHOENIX nous a aussi montré que là où elle s’était posée (68° Nord) la glace était immédiatement accessible (elle a été découverte sous quelques cm de régolithe sous la sonde, dégagée par la force de la rétropropulsion lors de l’atterrissage et la pelle de l’engin l’a mise à jour un peu plus loin, sans effort). Ensuite, avec les radars embarqués sur plusieurs orbiteurs (notamment MARSIS de Mars Express, de l’ESA, puis SHARAD – Shalow Radar – à bord de MRO – Mars Reconnaissance Orbiter, de la NASA, qui fonctionne à plus hautes fréquences) on a découvert plusieurs banquises enterrées, même en zone intertropicale (Medusa Fossae), et, en latitudes moyennes de l’hémisphère Nord, entre 40 et 50°, dans l’Ouest d’Utopia Planitia (près d’Isidis Planitia), une vaste région (quelques 375.000 km2) de buttes (« mesas ») à forte teneur en eau. En janvier 2018, une étude a mis en évidence l’existence de véritables falaises de glace a des latitudes assez élevées (55°) dans l’hémisphère Sud. Par ailleurs, de petits cratères d’impact créés aux altitudes moyennes dans les basses terres du Nord montrent, à l’occasion, de petites surfaces blanches qui disparaissent dans un temps relativement court ; il s’agit incontestablement de glace d’eau proche de la surface et qui se sublime une fois découverte, plus ou moins vite en fonction de l’importance du volume. Enfin l’analyse radar de SHARAD a révélé une diélectricité très faible se renforçant en profondeur, dans toute la région des basses terres du Nord (zone de basse altitude occupant environ 40% de l’hémisphère Nord et réceptacle probable d’un ancien Océan), ce qui indique la présence d’eau actuelle ou ancienne (porosité du sol après sublimation).

Il y a donc beaucoup de glace d’eau sur Mars mais ce qui intéresse ceux qui y préparent l’installation de l’homme (en particulier certaines équipes de la NASA), ce sont les latitudes basses et moyennes de l’hémisphère Nord car ce n’est qu’à ces latitudes que l’on peut envisager d’utiliser le rayonnement solaire pour obtenir de l’énergie (ne serait-ce que complémentaire à l’énergie nucléaire) et éviter des hivers trop rudes et longs (sur une année de 630 jours, ils le sont aux latitudes élevées, surtout dans l’hémisphère Sud compte tenu de l’excentricité de l’orbite de la planète !). C’est dans l’hémisphère Nord également que l’on trouve les conditions les plus favorables pour l’atterrissage (vastes plaines lisses et plates d’altitudes basses à proximité de l’équateur et en latitude moyenne, qui impliquent plus de temps disponible pour le freinage, moins de risques de déstabilisation lors du contact au sol, moins de consommation d’énergie car moindre déviation de la trajectoire « naturelle » du vaisseau, qui se place au-dessus de l’équateur par attraction « naturelle » de la planète).

L’étude de Sylvain Piqueux porte précisément sur ce type de « gisements » des latitudes moyennes de l’hémisphère Nord, qui sont cachés ou qui n’apparaissent qu’en cas d’impacts. Le chercheur a eu l’idée d’utiliser les données de température du sol, collectées par deux instruments embarqués à bord de l’orbiteur 2001 Mars Odyssey, le radiomètre infrarouge MCS (Mars Climate Sounder) et l’imageur THEMIS (Thermal Emission Imaging System) fonctionnant dans le visible et également dans l’infrarouge. Les données ont été accumulées sur une très longue période (plus de 13 ans) et donnent une bonne définition (précision de 3 ppd pour MCS et de 100 mètres par pixel pour THEMIS). La glace d’eau ayant une inertie thermique notablement haute comparée à celle du régolithe martien, l’intérêt est que ces données de température du sol indiquent clairement sa présence. Comme écrit dans l’étude, « la glace présente dans le sol influe de façon mesurable sur les tendances saisonnières de la température de surface et la profondeur de la couche d’eau s’exprime dans l’ampleur de l’effet ». En été la glace d’eau absorbe l’énergie du soleil et les températures du sol qui en contient sont donc plus basses que celles du sol qui n’en contient pas. En automne/hiver c’est le contraire, la chaleur est restituée et le sol qui contient de la glace d’eau est moins froid que celui qui n’en contient pas. La réactivité ou plutôt la différence de réactivité du sol est d’autant plus nette que la glace est proche du sol et qu’elle est abondante. Bien entendu le système ne peut fonctionner qu’à une latitude suffisante pour que les différences de température entre les saisons puissent être sensibles (au moins 35°).

Selon ce principe le chercheur a pu dresser avec les données recueillies à deux saisons opposées sur la durée des treize années, une carte de l’hémisphère Nord montrant les zones où ce phénomène se manifestait le mieux. Il en est ressorti une région particulièrement « riche » qui descend jusqu’à 35° de latitude Nord dans le Sud d’Arcadia Planitia, entre les volcans Alba Patera et Elysium Mons. La glace d’eau y est abondante très près de la surface (à partir de seulement 3 cm). Comme le dit l’auteur (et comme la NASA l’a remarqué) cette région est particulièrement intéressante car dans ces conditions la glace pourrait être facilement extraite pour tous les besoins d’une implantation humaine et cela se combine avec un sol lisse et plat à basse altitude permettant un atterrissage moins difficile qu’ailleurs. Notez bien que cela ne veut pas dire que l’on ne pourrait pas extraire de la glace d’eau ailleurs à la surface de Mars. Cela veut simplement dire que dans cette région, cela serait particulièrement facile.

Les esprits chagrins doivent s’inquiéter car je n’ai pas encore évoqué la protection planétaire ! Je le fais maintenant pour dire que j’espère que l’objection que les tenants de cette protection pourrait formuler ne sera pas retenue et que je pense qu’elle ne le sera pas. Je considère que la réglementation qui veut tenir l’homme éloigné de l’eau martienne est en contradiction totale avec nos intérêts qui sont d’une part de rechercher sur une autre planète une évolution vers la vie (et on ne trouvera d’éventuelles traces ou manifestations pré-biotiques récentes donc plus facilement observables, que dans les régions les plus humides) et d’autre part de pouvoir subvenir à nos besoins vitaux en eau sans avoir à l’importer de la Terre. Cette réglementation ne résistera pas aux nécessités qui s’imposeront dès que nos vaisseaux spatiaux seront en mesure d’atterrir sur Mars.

Illustration de titre :

Arcadia Planitia, entre les volcans Elysium Mons à gauche et Alba Patera à droite (au Nord de Tharsis). La ligne de latitude 35°N passe au Nord du premier et au Sud du second. Notez, un peu plus au Sud, Olympus Mons et le bloc de Tharsis avec ses trois volcans alignés. L’endroit serait un excellent site d’atterrissage en raison de cet environnement volcanique et aussi des tunnels, parfois effondrés, résultant d’anciens cheminements d’eau souterrains plus au Sud. Crédit : Google Mars.

Image ci-dessous:

Exemple d’épaisseur relative de couche de glace d’eau à gauche et d’inertie thermique du régolithe de surface (TI*, à droite). Carte établie à partir de données recueillies par THEMIS, à l’Ouest d’Arcadia Planitia où plusieurs cratères exposant de la glace occasionnelle on été observés. « deep » signifie environ 1 mètre (mais pas plus); « shallow », quelques dizaines de cm. Crédit: Sylvain Piqueux, THEMIS, MCT et Geophysical Research Letter.

Références :

“Widespread shallow water ice on Mars at high latitudes and mid latitudes” par Sylvain Piqueux et al. in Geophysical Research Letters, doi.org/2019GL083947.

Liens: https://agupubs.onlinelibrary.wiley.com/doi/pdf/10.1029/2019GL083947

Autres liens :

https://www.space.com/mars-water-ice-map.html?utm_source=notification

https://www.space.com/42786-where-is-water-on-mars.html

https://www.nasa.gov/feature/jpl/nasas-treasure-map-for-water-ice-on-mars

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 20 01 09

2020, une année de départ vers Mars pour une volée de nouveaux robots d’exploration

Comme tous les 26 mois, cycle imposé par la mécanique céleste, les Terriens vont envoyer vers Mars une nouvelle « volée » de robots explorateurs. Ils partiront entre le 17 juillet et le 5 août et arriveront quelques 9 mois plus tard dans le voisinage de Mars. Cette fois ci les missions sont originaires des Etats-Unis, des pays membres de l’ESA avec un lanceur russe, de la Chine et des Emirats Arabes Unis avec un lanceur japonais.

Toutes n’ont pas les mêmes chances de succès, c’est-à-dire de mise en orbite autour de Mars et surtout d’atterrissage à sa surface. En réalité seuls les Etats-Unis ont démontré leur capacité aussi bien à la mise en orbite qu’à la descente en surface, c’est-à-dire à effectuer avec succès la difficile succession de manœuvres de l’« EDL » (« Entry, Descent, Landing ») et il a quand même fallu un peu de temps pour effectuer cette démonstration. C’est pour cela que les statistiques sur expériences passées qui prétendent prouver les faibles chances d’atterrir avec succès sur Mars sans se référer à l’identité du lanceur ni à la période de lancement, n’ont aucun sens, et elles en ont d’autant moins si on prend en compte toute la série des tentatives. Tous pays du monde confondus, il y a eu 54 lancements pour Mars depuis 1960 dont 11 pour « flyby » et « assistance gravitationnelle » (survols simples et survols pour aller plus loin que Mars), 25 pour mise en orbite et 18 pour atterrissage. Les Américains ont effectué 23 lancements, ils ont échoué 5 fois mais la dernière c’était il y a très longtemps, en 1999, avec Mars Polar Lander et sur les 5, ils n’ont échoué qu’une seule fois à se poser (le même Mars Polar Lander). Il n’y a eu aucun autre échec depuis cette date (10 lancements réussis en série). Les Russes par contre ont effectué 22 lancements, ils ont échoué 19 fois et n’ont réussi que 3 opérations dont un flyby, une seule mise en orbite (pour la mission MarsExpress de l’ESA, en utilisant leur lanceur Soyouz) et aucun atterrissage. Les Européens n’ont réussi, seuls (avec leur lanceur Ariane 5G+), qu’une opération, la mise en orbite de la première partie de la mission ExoMars (Trace Gas Orbiter) en 2016 tandis que la partie atterrissage (Schiaparelli) a échoué. L’autre opération, Mars Express, a (comme dit plus haut) été réalisée avec un lanceur russe. Le Japon a tenté et échoué une fois, l’Inde a tenté et réussi un fois (mise en orbite de Mangalyaan). Enfin on ne peut compter dans les mêmes statistiques les tentatives des années 1960 et celles d’aujourd’hui. Les technologies ont évolué et les Américains ont appris très vite à faire ce qu’ils ne savaient pas faire, pour la bonne raison qu’ils n’avaient pas essayé !

Toutes les missions 2020 n’ont pas le même potentiel scientifique.

Les Emirats Arabes Unis, avec la « Hope Mars Mission », envoie un « démonstrateur technologique », c’est-à-dire qu’ils veulent montrer qu’ils sont capables de participer à une mission pour aller jusqu’à l’orbite de Mars et y déployer des instruments scientifiques. Il s’agit « simplement » d’envoyer, de placer et d’utiliser un orbiteur (satellite) ; pas question de tenter de descendre au sol pour une première mission. Officiellement Hope (ou « al-Amal ») va étudier l’atmosphère et le climat au sol avec deux spectromètres, l’un opérant dans l’infrarouge pour mesurer la variabilité de la thermosphère et les pertes d’hydrogène et d’oxygène, l’autre dans l’ultraviolet pour étudier, dans l’atmosphère moyenne et basse, les températures, la vapeur d’eau et les variations de teneur en poussière. Le lanceur japonais, H-IIA de Mitsubishi est un lanceur fiable qui a propulsé de nombreuses missions dont quelques-unes dans l’espace profond. L’opération, mineure sur le plan scientifique, a donc de bonnes chances de succès.

La Chine veut lancer un orbiteur et un atterrisseur « Mars Global Remote Sensing Orbiter and Small Rover », mission plutôt connue comme « Huoxing-1 » ou « HX-1 ». C’est aussi une première puisque jusqu’à présent ce pays n’a lancé que vers la Lune. Au-delà de la démonstration ingénieuriale et politique, l’objet sera la recherche de traces passées ou présentes de vie et l’« évaluation de la surface et de l’environnement de la planète », expression plutôt vague qui annonce un travail de cartographie géologique. La mission devrait aussi préparer un retour d’échantillons sur Terre. Bien sûr le vecteur sera chinois, une fusée « Long March 5 » ou « Changzheng 5 » ou « CZ-5 » ; lanceur lourd dont le « track-record » est extrêmement faible ; seulement une seule opération menée à bien sur trois tentées, le placement d’un satellite sur une orbite géostationnaire. On peut donc craindre un échec.

Les deux missions les plus sérieuses sont les missions européennes et américaines. La mission européenne ExoMars qui doit déposer au sol le rover Rosalind Franklin est évidemment la moins certaine puisqu’elle suppose le succès d’une technique d’atterrissage jamais maîtrisée par l’ESA et c’est d’autant plus inquiétant que ce n’est pas faute d’avoir essayé : le test qui devait être mené avec l’atterrisseur Schiaparelli en 2016 (avec la première partie de la mission ExoMars) a échoué.

Les équipements du rover qui doit être déposé sur Mars sont ambitieux et j’aimerais vraiment qu’ils puissent fonctionner car la mission est passionnante et très bien préparée sur le plan scientifique. Il s’agit aussi de rechercher la vie, passée ou présente. A noter à ce propos que la britannique Rosalind Franklin, docteure en physico-chimie décédée en 1958, a participé « de manière déterminante » à la découverte de la structure de l’ADN (ce qui n’a pas empêché ses collègues masculins de l’« oublier » lorsqu’en 1962 ils ont reçu le prix Nobel pour cette découverte !). Le rover disposera d’un foret et de neuf instruments d’analyse. Le foret doit pouvoir atteindre une profondeur de 2 mètres. A ce niveau, les radiations spatiales sont fortement atténuées et il peut y avoir plus d’humidité (provenant de glace d’eau chargée en sels et non sublimée du fait de la protection du sol) donc évidemment de la vie (si elle existe !) ou des traces d’évolution vers la vie (« prébiotiques ») ce qui à mon avis est plus vraisemblable. Les échantillons prélevés par le foret seront examinés à l’intérieur du rover par divers dispositifs embarqués. Toutes les opérations du rover seront photographiées avec des caméras d’une précision inégalées pour donner le contexte et permettre de voir les échantillons prélevés avant de les traiter à l’intérieur du rover. Les instruments sont très cohérents et complets pour leur objectif : PanCam (Panoramic Camera), deux caméras grand angle (les yeux du rover) et une caméra à haute résolution, avec téléobjectif, pour l’appréhension et la cartographie digitale du terrain (les trois sont situées dans la « tête », au bout du mât du rover) ; ISEM (Infrared Spectrometer for ExoMars) pour évaluer à distance la composition minéralogique des cibles identifiées via PanCam (situé également dans la tête du rover) ; WISDOM (Water Ice and Subsurface Deposit Observation on Mars), un radar pour caractériser la stratigraphie dans l’environnement immédiat du rover ; WISDOM sera utilisé avec ADRON-RM, un détecteur de neutrons, pour donner des informations sur le contenu en eau (hydrogène) du sous-sol et orientera donc le choix des forages pour collecte d’échantillons ; Ma_MISS (Mars Multispectral Imager for Subsurface Studies), un spectromètre situé à l’intérieur du foret et qui va étudier la minéralogie environnante en éclairant la paroi du forage au fur et à mesure de la descente (c’est lui qui va faire la première étude des échantillons potentiels, avant prélèvement et transmission au laboratoire embarqué) ; CLUPI (Close Up Imager)*, une caméra pour acquérir des images en couleurs, à haute résolution, des cibles approchées, des rejets de forage et des échantillons prélevés (comme la caméra CASSiS de l’orbiteur TGO, « CLUPI » pourra utiliser plusieurs angles d’inclinaisons successifs, restituant au mieux les volumes et permettant de mieux interpréter ce qu’on voit) ; MicrOmega, un spectromètre imageur infrarouge (résolution de 20 x 20 µm par pixel) qui va étudier la minéralogie des échantillons prélevés ; RSL, un spectromètre laser Raman qui doit étudier les roches à distance ; il va en dire la composition minéralogique et identifier les composants organiques ; MOMA (Mars Organic Molecule Analyser), un chromatographe en phase gazeuse (il y en a un aussi dans le laboratoire embarqué SAM de Curiosity) ; il examinera les éventuels biomarqueurs qu’il pourrait trouver, pour répondre aux questions relatives à l’origine, l’évolution et la distribution de la vie sur Mars.

* petit salut « en passant » à mon ami Jean-Luc Josset et son équipe du Space Exploration Institute – Space-X – de Neuchâtel, qui l’ont conçue ainsi que la caméra grand angle de PanCam. Jean-Luc Josset est PI de CLUPI et co-PI de PanCam.

Le rover Mars 2020 de la NASA est, à mon avis, relativement moins intéressant. Il est la suite de Curiosity et a pour objet de rechercher aussi les traces de vie passée (Curiosity cherchait à savoir si Mars avait été habitable, ce qui n’est pas la même chose), de préparer un futur retour d’échantillons et de préparer la venue de l’homme sur Mars. Il comprend 7 instruments qui sont pour plusieurs d’entre eux des améliorations de ceux qui équipent aujourd’hui Curiosity. Le Mastcam-Z est une caméra panoramique et stéréoscopique avec une forte capacité de zoom. Ce sera les yeux du rover et elle aura un rôle à jouer dans l’identification minéralogique. MEDA (Mars Environmental Dynamics Analyzer) est un ensemble de capteurs qui donneront toutes indications sur le temps qu’il fait (y compris le contenu en poussière de l’atmosphère et la taille des particules). MOXIE (Mars Oxygen ISRU Experiment) est un instrument qui doit tester la possibilité de produire de l’Oxygène à partir de du dioxyde de carbone de l’atmosphère martienne (une des recommandations faite par Robert Zubrin dans les années 1990). PIXL (Planetary Instrument for X-Ray Lithochemistry) est un spectromètre à fluorescence de rayons X avec un imageur à haute résolution pour déterminer la composition des roches de surface. Le but est de permettre une analyse chimique plus fine que précédemment. RIMFAX (Radar Imager for Mars’ Subsurface Experiment) est un radar qui doit permettre de déterminer la structure géologique du sol à l’échelle du centimètre (jusqu’à une profondeur d’une dizaine de mètres). SHERLOC (Scanning Habitable Environments with Raman & Luminescence of Organics & Chemicals) est un spectromètre qui doit déterminer la minéralogie à petite échelle et détecter les composés organiques. SuperCam est une sorte de ChemCam (embarquée sur Curiosity) améliorée. L’instrument pourra détecter à distance la présence de composés organiques dans le régolithe ou les roches.

En plus de ces instruments, le rover disposera, comme son prédécesseur, d’un bras robotique avec un foret capable de prélever des échantillons qui seront soit analysés sur place, soit préservés dans une « cache » en attendant une mission de retour d’échantillons fin des années 20 ou début des années 30 (c’est loin et c’est vraiment frustrant !). Les prélèvements resteront très superficiels (le foret prévu n’est pas celui de Rosalind Franklin !). Enfin la mission débarquera un petit hélicoptère pour tester la possibilité d’utiliser ce type de véhicule dans les explorations futures. C’est intéressant car il est vrai que l’exploration martienne souffre de devoir se faire avec un rover qui roule sur un sol par définition non préparé à la circulation des véhicules à roues. On a vu que Spirit est mort d’avoir pénétré dans des sables mouvants et que les roues de Curiosity ont très vite été très abimées et qu’il ne peut aller « partout ». Il est impossible d’aller observer/analyser un site intéressant même à quelques mètres s’il est inaccessible au rover et hors de portée de sa ChemCam. Ceci dit ce premier hélicoptère n’aura qu’une autonomie très limitée et n’embarquera qu’une caméra. Espérons qu’il vole!

Ces missions vont s’ajouter à celles qui sont encore en cours. D’abord les orbiteur de l’ESA, ExoMars-TGO, « en pleine forme » (fin de mission prévue en 2022), et Mars Express qui continuera ses observations jusqu’à fin 2020 ; puis les orbiteurs de la NASA, MRO, le Mars-Reconnaissance-Orbiter avec sa camera HiRISE qui nous donne toujours des photos d’une précision extraordinaire (résolution jusqu’à 0,3 mètre par pixel) et qui a été prolongé, le vieux 2001-Mars-Odyssey qui a suffisamment d’énergie pour fonctionner jusqu’en 2025 et MAVEN qui a terminé sa mission mais communique encore, sans oublier en orbite le démonstrateur Mangalyiaan de l’Inde, et au sol le rover Curiosity au sol ainsi que la sonde InSight qui continue à faire de la sismographie. MRO, Mars Odyssey, MAVEN et MarsExpress serviront de relais aux nouveaux rovers pour les télécommunications vers la Terre

L’exploration de Mars continue donc. Le thème de la vie est vraiment ce qui caractérise la génération des missions 2020. Nous pouvons espérer de nouvelles informations passionnantes et de toute façon une meilleure connaissance de cette planète, la plus semblable à la Terre et la seule sur laquelle on puisse envisager d’aller physiquement avec les technologies d’aujourd’hui et où j’espère on finira par aller un jour pas trop éloigné. La lente progression qu’a entrepris la NASA vers cet objectif (années 2040 ?) pourrait être, heureusement, accélérée par Elon Musk qui veut mener une première expédition habitée en 2024 (mais si cette date était reculée à 2026, ce ne serait pas trop grave). Espérons qu’il pourra finaliser son lanceur SuperHeavy et son vaisseau Starship et que les tenants de la protection planétaire ne lui mettront pas des bâtons dans les roues en empêchant son décollage ou plutôt son atterrissage sur Mars ! En attendant je vous souhaite, chers lecteurs, un bon début d’année.

Illustration : lancement par un Atlas 5-541 (développé par ULA pour l’armée de l’air américaine depuis 1997) le 26 novembre 2011 de la mission MSL (Curiosity). Crédit ULA (United Launch Alliance = Boeing et Lockheed Martin). Le lancement de Mars-2020 utilisera aussi un Atlas 5-541.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 12 21

Les trous-noirs, monstres destructeurs avec lesquels il nous faut vivre

Les trous-noirs sont des monstres redoutables dont nous sommes en principe aujourd’hui éloignés mais qui sont une des composantes essentielles de l’Univers, proche ou lointain. Avec les astéroïdes, les supernovæ, les radiations spatiales, le froid ou la chaleur extrêmes, le vide, l’apesanteur, ils font partis des dangers présents dans l’Espace que nous apprenons à connaître et où nous nous aventurons aujourd’hui. Leur particularité est que si un jour nous approchons trop près l’un d’entre eux, nous serions irrémédiablement absorbés et, entraînés vers sa « singularité », finalement déchirés et détruits jusqu’aux plus infimes composants de notre matière. La vie sur Terre bénéficie d’un environnement bien doux, confortable et relativement stable. Nous le voyons comme tel car nous sommes les produits de cet environnement, façonnés par lui avec sa propre matière par une très longue Histoire, et que notre vie est très courte à l’échelle des événements qui la ponctuent. Mais nous sommes également dans l’Espace et la Terre ne nous protège que si nous y restons ou si nous pouvons y rester et si elle-même n’est pas en danger. C’est notre mère mais elle est également vulnérable et nous-mêmes à travers elle. Elle aussi est emportée par l’Histoire et celle-ci ne s’arrête pas aujourd’hui. Elle continuera, avec ou sans nous, en fonction de nos actions sur elle (nous avons tendance ces jours à nous faire un peu trop remarquer !) et de son évolution propre ou de celle de son propre environnement : chute d’astéroïde géocroiseur géant (pas tout de suite mais loin d’être exclue) ou pluie d’astéroïdes provoquée par le rapprochement d’une étoile voisine perturbant le nuage de Oort de notre système solaire (non dans le proche avenir mais irrémédiablement « un jour » !), supernova d’une étoile voisine nous inondant de ses radiations mortelles (il y a quelques possibilités), épuisement du Soleil lorsqu’il aura brûlé une quantité suffisante de son hydrogène (nous sommes tranquilles pour quelques 500 millions d’années), rencontre avec un « petit » trou noir « primordial » (peu probable mais pas impossible quand même).

Mais qu’est-ce qu’un trou noir ?

On a pressenti dès le XVIIIème siècle (après Newton et avec l’astronome britannique John Michell en 1783 puis Pierre-Simon de Laplace en 1796) que des astres pourraient exister dont la force d’attraction serait telle que même la lumière ne pourrait s’en échapper (leur vitesse de libération atteignant celle de la lumière). Mais ce n’est qu’après Albert Einstein, puis Karl Schwarzschild (définissant son fameux « rayon »), qu’avec Robert Oppenheimer en 1939, on formalisera l’« objet » qui ne sera observé, indirectement, la première fois qu’en 1971 (« Cygnus X-1 » avec le télescope Uhuru de la NASA – lancé dans l’espace depuis Mombasa).

Parler de trou noir, c’est encore parler de masse et donc de gravité car un trou noir est un objet céleste si compact que l’intensité du champ gravitationnel qui en résulte, empêche toute forme de matière ou de rayonnement de s’en échapper (il « ralentit » même le Temps). C’est pour cela qu’on ne peut l’observer directement mais seulement par les effets qu’il a sur son environnement. Cet environnement ce peut être d’abord de la matière, qu’il triture et déchire (produisant des émissions de rayons X ou gamma en plus des émissions en d’autres longueurs d’onde du spectre électromagnétique ou encore des émissions de neutrinos et même d’ondes gravitationnelles s’il fusionne avec un autre trou noir ou absorbe une étoile à neutrons)…pourvu qu’il y en ait à proximité. Cet environnement c’est aussi les ondes lumineuses provenant des sources qui peuvent se trouver derrière lui en alignement avec nous, et qu’il va rapprocher visuellement et déformer (effets de loupe et de déviation). Cette force extrême s’exerce à partir d’un centre dit « singularité gravitationnelle », vers l’extérieur jusqu’à son « rayon des événements » dit aussi « de Schwarzschild » qui délimite tout autour de la singularité un volume sphérique dont la surface est dite « horizon des événements » mais il ne faudrait pas s’en approcher au-delà de la dernière orbite stable qui l’entoure, que l’on nomme « ISCO » (« Innermost Stable Circular Orbit »). Sur cette orbite qui se situe à 3 fois le rayon de Schwarzschild du trou noir, toute perturbation même infinitésimale conduirait irrémédiablement quelque objet que ce soit, à l’horizon des événements. Mais de toute façon, à cette distance, la vitesse de libération est pratiquement déjà inatteignable (> 122.000 km/s). Ce qui est surprenant sinon paradoxal, c’est que l’on pourrait franchir cet horizon vers l’intérieur sans s’en apercevoir sauf à vouloir repartir vers l’extérieur, car la densité (qui n’est pas la « compacité ») ne change pas brutalement lors du passage. Simplement lorsque l’on passe, « la barrière se referme ». Ce qui continue par contre c’est l’attraction vers le centre, la singularité. En fait c’est là où se cache vraiment le trou noir, on pourrait dire « sa tanière », car c’est là où la gravité (et la force d’attraction qui va avec) tend vers l’infini. Ceci implique que si la masse du trou noir est immense, la densité au niveau de l’horizon des événements sera encore faible. Pour « M87 » premier trou noir qui a été « vu », le 10 avril 2019 par l’Event Horizon Telescope, la masse est de 6,5 milliards de soleils, le rayon de 19 milliards de km (deux fois la distance du Soleil à Pluton) mais la densité de seulement 0,44 kg/m3 (44% de la densité de l’air) ! En fait la densité du trou noir (sa masse volumique) décroît avec sa masse (et donc sa taille) et si la densité pour les trous noirs massifs « normaux », comme Sgr A* au centre de notre galaxie reste très forte (9,5×105 kg/m3), et elle l’est a fortiori pour les petits trous noirs, un trou noir de la taille de l’Univers, aurait la densité…de l’Univers ce qui pourrait donner à penser que peut-être nous nous trouverions à l’intérieur d’un trou noir. Mais ce n’est probablement pas le cas car ce trou noir ne recevrait aucune matière de l’extérieur (seul moyen pour un trou noir de prendre de l’ampleur ou de connaître une « expansion ») et il serait empli d’une multitude de singularités (les autres trous noirs). Alors, réflexion subsidiaire, notre Univers serait-il un parmi d’autres, subissant les forces diverses (attraction / répulsion) de ses voisins ? C’est un autre sujet.

Comment parvenir à cette concentration de matière ?

Il est possible que de petits trous noirs provenant du Big-Bang, dits « primordiaux », se « baladent dans la nature ». Ils pourraient résulter selon Stephen Hawking et Bernard Carr, de l’effondrement gravitationnel lors de l’inflation cosmique de petites surdensités de l’Univers primordial. On ne sait pas où ils pourraient se trouver et ils ne sont donc encore que théoriques mais on dit de plus en plus que l’hypothétique « Planète-neuf » (la neuvième) de notre système solaire pourrait être l’un d’entre eux (peut-être parce qu’on n’arrive pas à la voir alors que « quelque chose » a une influence gravitationnelle forte au-delà de l’orbite de Pluton sur plusieurs planètes naines évoluant dans la ceinture de Kuiper).

Mais les trous noirs qu’on pourrait qualifier de « communs » ont une masse très importante et leur concentration résulte précisément de cette masse. Ils sont de deux types, les trous noirs « stellaires » et les trous noirs « supermassifs ». Les premiers (au moins trois masses solaires mais en principe pas plus d’une vingtaine) résultent de l’effondrement de grosses étoiles (au moins dix masses solaires à l’origine, avant supernova et éjection des couches extérieures de l’étoile) après qu’elles aient achevé la combustion interne de leurs éléments légers. Les seconds qui ont peut-être la même origine, résultent de l’accrétion d’énormément de matière (leur masse va de quelques millions à quelques milliards de masses solaires) dans la région la plus dense de leur galaxie, son cœur. Les premiers ne peuvent provenir que d’étoiles géantes, les masses autrement ne pourraient se contracter autant que nécessaire et on aurait des naines blanches ou des étoiles à neutrons. Mais les étoiles à neutrons peuvent elles aussi devenir des trous noirs en accrétant de la matière ou en fusionnant avec une autre étoile à neutrons. Les trous noirs supermassifs sont au cœur des galaxies spirales comme le Soleil est au cœur de notre système solaire. Provenant d’un effondrement ils sont obligatoirement en rotation et ils entraînent par force de gravité leur galaxie autour d’eux. Ils « tiennent » leur galaxie et se nourrissent de ses étoiles proches, devenant de ce fait encore plus puissants et entraînant davantage d’étoiles et de matière à fusionner avec eux, pourvu bien sûr qu’elles soient à portée de leur force d’attraction, qui s’accroît avec leur masse. Le nôtre, “Sgr A*”, a une masse de 4,15 millions de masses solaires. A noter que les classifications sont faites pour connaître des exceptions et il y en a évidemment aussi dans le cas présent. Ainsi on s’est étonné tout récemment (27 novembre 2019) de découvrir un trou noir stellaire (« LB-1 ») de 70 masses solaires dans un des bras spiraux de notre galaxie, à quelques 15.000 années-lumière de « chez nous ». Mais je m’étonne que l’on s’étonne puisqu’il n’y a pas de seuil de masse entre 20 et 70, et même beaucoup plus, au-delà duquel on assisterait à la création d’un autre phénomène.

Nous sommes à 25.000 années-lumière de notre centre galactique donc de son trou noir central (la Voie-Lactée a un diamètre d’environ 100.000 années-lumière). C’est notre cœur mais il est noir et il nous est hostile. Il n’est pas certain qu’il nous absorbe un jour (outre son appétit d’ogre cela dépendra sans doute de l’accélération ou de la décélération de l’expansion de l’Univers) mais son voisinage est quand même effrayant.

NB : je ne parle pas ici de tous les effets possibles des trous noirs car je voulais insister sur le danger qu’ils présentent. Mais en agissant sur la matière, le trou noir agit aussi sur le temps et comme il agit sur la lumière, il peut servir de lentille gravitationnelle, sorte de loupe qui rapproche de nous les rayonnements les plus lointains ; les astronomes sont ravis de pouvoir s’en servir ! 

Remerciements à Monsieur Christophe de Reyff pour ses suggestions et conseils.

Illustration de titre : approche du trou noir Sgr A* (Sagittarius A*) de notre galaxie, crédit ESO/S.Gillessen et MPE, Marc Schartmann (2011). Cette illustration montre les trajectoires des divers astres qui orbitent au plus près de notre trou noir supermassif et le comportement d’un nuage de gaz en train de tomber vers le trou. Récemment on a observé une étoile accélérée à une vitesse prodigieuse à proximité de ce trou noir (>1000 km/s alors que le Soleil orbite le centre galactique à 240 km/s). Le couple qu’elle formait avec une autre étoile tombait dans le trou en fonction de la masse qu’elles constituaient ensemble. L’autre étoile s’y est proprement perdue ce qui a permis à la première de s’échapper avec une vitesse accrue, bien supérieure à ce que lui aurait donné sa seule masse propre si elle y avait été attirée sans sa compagne.

Image ci-dessous : Sgr A* vu par le télescope à rayons X, Chandra, crédit : NASA/Penn State/G.Garmire et al.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 12 21

BONNE ANNÉE A TOUS!

Noël et notre place dans le Cosmos

Aujourd’hui, notre pâle-petit-point-bleu passe le solstice d’hiver dans sa course autour de son étoile et les hommes se préparent à fêter Noël, la naissance, comme ils le font depuis 2000 ans au cœur de l’hiver de l’hémisphère Nord de cette petite planète apparemment comme les autres. C’est le moment, comme les étoiles nous y invitent avec plus d’insistance que le reste de l’année par leur longue présence, de penser à l’infini, à la place dans l’Univers que nous-mêmes, êtres vivants fragiles et fugaces mais conscients, occupons, aux interactions de la science avec nos interrogations et aux réponses plus ou moins fondées, physiques ou métaphysiques, que certains proposent et d’autres affirment.

Tout d’abord constatons la parfaite adaptation ou conformité du cycle du christianisme à ce cycle cosmique qui nous domine. Dans ces nuits les plus longues et les plus froides de l’année nous sommes réchauffés et réconfortés par l’intimité du foyer et la vie qui symboliquement y commence ou qui plutôt y recommence, puisque c’est le cas tous les ans, porteuse de l’espérance qui elle-même nous fait vivre et entreprendre. La suite du cycle sera rythmée par Pâques à l’équinoxe de Printemps, le triomphe de la vie sur la mort ; la gloire et l’épanouissement de la Saint-Jean au solstice d’été ; la douce amertume du souvenir de la Toussaint à l’équinoxe d’Automne ; les quatre étapes, espacées d’un quart d’année les unes des autres, étant en parfaite harmonie avec l’évolution de la Nature. Le Christianisme est ainsi l’héritier de toute une chaîne de religions, explications métaphysiques qui ont marqué notre histoire depuis que nous avons compris la grandeur de ces passages, puisque totalement hors de nôtre contrôle, comme en témoignent les monuments les plus anciens comme Stonehenge en Grande Bretagne qui permettaient de célébrer l’un ou plusieurs de ces moments particuliers de communication unilatérale avec le Cosmos.

Aujourd’hui avec les connaissances que nous avons acquises, aussi bien sur l’évolution conduisant de la matière à la vie, que des forces agissant dans l’Univers, on peut se poser la question des « autres », qui comme nous pourraient fêter leur Noël, sur une autre Terre sous d’autres cieux. Cela fait maintenant des dizaines d’années que l’on scrute le ciel, avec beaucoup d’attention et de passion, à la recherche d’un message. Le programme SETI remonte à 1960 avec l’astronome Frank Drake de l’Université Cornell qui chercha à capter des émissions provenant de Tau Ceti ou d’Epsilon Eridani dans les longueurs d’onde du spectre électromagnétique proches du « trou de l’hydrogène ». Comme vous le savez sans doute on n’a toujours rien trouvé, malgré les progrès considérables des moyens d’observation et l’affinement des méthodes de recherche. Ce n’est pas très encourageant mais l’enjeu est tel que les gens qui se sont investis dans cette recherche ne se découragent pas et qu’ils trouvent toujours des supports, y compris bien sûr financiers, pour continuer.

Ce silence veut quand même dire certaines choses et pour le moins que les civilisations extra-terrestres ne sont pas fréquentes. On peut imaginer de nombreuses raisons pour l’expliquer. Premièrement la vie si elle a surgi quelque part ailleurs, n’a pu commencé que relativement récemment, il y a quelques cinq milliards d’années. En effet au début de l’Univers et peut-être jusqu’à la naissance du Soleil, sa métallicité, c’est-à-dire sa richesse en éléments chimiques différents, était peut-être trop faible, les étoiles n’ayant pas eu suffisamment de temps pour les produire par nucléosynthèse à partir de l’hydrogène et de l’hélium primordiaux. Deuxièmement, si les étoiles sont innombrables, elles ne sont pas toutes propices à un développement comparable à ce qui s’est passé sur Terre. Elles peuvent être situées en dehors de la zone habitable galactique, c’est-à-dire trop près du trou-noir central, là où la proximité des autres étoiles les exposent à des phénomènes violents trop fréquents, ou trop loin, à la périphérie de la galaxie, là où « rien ne se passe », où les échanges de matière et de gaz sont trop peu nombreux et où la fréquence des supernovæ est insuffisante pour fournir les éléments nécessaires à la vie. Troisièmement, seules les étoiles de type solaire, diffusant une énergie régulière sur une longue période, pourraient permettre la lente éclosion du phénomène (songeons que nous sommes apparus sur Terre il n’y a qu’une seule seconde par rapport à une journée de 24h00 dans laquelle se serait déroulée toute l’évolution depuis la naissance du Soleil). Dans cette hypothèse, les géantes jaunes aussi bien que les naines rouges ne seraient pas qualifiées, les premières ayant une vie trop courte, les secondes limitant leur zone habitable à une proximité trop grande et donc trop dangereuse et instable. Quatrièmement, les planètes rocheuses sont relativement peu fréquentes dans la zone habitable d’étoiles de type solaire, la tendance étant plus généralement à la formation de Jupiter chauds ayant absorbé toute matière jusqu’à proximité de leur étoile. Cinquièmement, les étoiles simples sont relativement rares et les étoiles doubles gênent la formation de systèmes comprenant toute une gamme de planètes, les plus grosses, gazeuses offrant une protection aux planètes rocheuses plus proches et les nuages d’astéroïdes lointains pouvant être perturbés par la proximité des étoiles sœurs. Sixièmement, les planètes rocheuses disposant de suffisamment d’eau liquide, un peu mais pas trop, sont elles aussi probablement rares, la juste quantité d’eau dont bénéficie la Terre étant largement due au « grand-tack » de Jupiter c’est-à-dire à sa descente vers le Soleil puis à son retour vers l’espace profond, plus loin que son point d’origine, sous l’influence de Saturne, au début de la formation du système solaire. Septièmement, la présence d’un astre compagnon aussi gros, relativement, que la Lune, est exceptionnel. C’est lui qui exerce une force de marée importante sur l’océan, générant une alternance d’humidification puis d’assèchement dans de larges zones de balancement des marées, et maintenant active une puissante tectonique des plaques qui renouvelle les roches et l’atmosphère et probablement notre magnétosphère. Huitièmement, il est toujours impossible de prouver qu’il y a automatisme conduisant la matière organique inerte aux formes les plus primitives de vie comme nos bactéries et nos archées. Neuvièmement, il est toujours impossible de prouver qu’il y a automatisme conduisant des formes les plus primitives de vie aux eucaryotes capables d’utiliser l’oxygène comme énergie, ce qui ensuite a conduit « chez nous » aux métazoaires dont nous sommes issus. Dixièmement, il n’y a aucune raison qu’une histoire biologique différente permette de dégager, grâce à quelques accidents (le fameux météorite de Chicxulub par exemple), un créneau parmi les autres formes de vie, permettant le développement d’êtres comparables à nos mammifères. Onzièmement, le développement de formes de vie correspondant à celle de nos primates à partir des premiers mammifères n’était pas inscrite dans un quelconque livre du destin. Douzièmement, il en est de même pour l’apparition chez ces primates d’êtres comparables à l’homme. Treizièmement le développement chez cet « homme » de technologies comparables à celles que nous avons développées et qui pourraient nous permettre de communiquer avec d’éventuelles autres espèces situées ailleurs dans l’espace résulte d’un très long cheminement de recherches, d’expérimentations et de hasards. Quatorzièmement la survivance d’une population de niveau technologique élevée sur une période suffisamment longue pour entrer en contact avec d’autres est plus que problématique compte tenu des risques d’autodestruction qui croissent avec le progrès. Quinzièmement, la distance et le temps peuvent rendre impossible toute communication sauf à atteindre un niveau de développement qui pour nous relève encore de la science-fiction.

Je pourrais ajouter quelques « complications », quelques étapes, quelques points où des divergences se sont produites alors que rien ne permet de dire qu’elles étaient inévitables et que de toute façon les conséquences auraient été les mêmes si elles s’étaient produites avant ou après. Tout ceci pour dire qu’il ne peut y avoir quelque automatisme que ce soit, que nous sommes le produit d’une histoire très particulière qui ne peut sans doute pas être répétée et que nous sommes probablement uniques.

Alors Noël dans tout cela ? Si nous sommes seuls dans l’Univers, nos perspectives sont différentes que si nous sommes une espèce consciente et communicante parmi d’autres. Nous sommes des poussières infimes sur notre pâle-petit-point-bleu mais en même temps nous sommes un joyau précieux puisque unique. Cela nous donne un devoir dans le cadre de cette histoire merveilleuse qui a conduit jusqu’à nous, vis-à-vis de tout l’Univers désert et silencieux qui nous entoure et vis-à-vis de toutes les générations de vie qui nous ont précédé sur Terre. Nous devons continuer et transmettre et nous devons considérer la vie humaine pour ce qu’elle est, l’aboutissement actuel d’un phénomène évolutif extraordinaire que nous devons admirer, respecter et dont nous devons prendre soin en continuant à l’accompagner (ce qui ne veut pas dire que nous devons accepter béatement la prolifération désordonnée conduisant à l’asphyxie ; ce qui ne veut pas dire non plus que nous ne devions pas respecter notre environnement et les autres formes de vie). Ainsi que le rapporte ses biographes, les évangélistes, l’enfant Christ a remis l’humain au centre du jeu cosmique en insistant sur la nécessité du renouveau constant pour la continuité. Lui aussi est venu dans un temps, ni trop tôt ni trop tard, où il était lui-même nécessaire et compréhensible et il me semble toujours actuel, dans une église ou en dehors de toute église. Il nous a montré le chemin pour nous encourager, nous ses frères, tout en nous laissant libres, à vivre ensemble dans la droiture et le respect des autres, dans l’amélioration constante et sans cesse renouvelée de nous-mêmes et de la société. De ce fait ce chemin est celui du progrès autant que nous pouvons le suivre et aujourd’hui, nous le découvrons maintenant du fait de nos connaissances acquises, celui des autres planètes et des étoiles qui nous appellent et auxquelles nous pouvons aujourd’hui répondre. Les rois mages suivaient une lumière qui leur indiquait la direction de la crèche où commençait la vie nouvelle. Nous restons libres de ne pas répondre à la nouvelle invitation des étoiles présentée par l’état présent de notre technologie mais ce serait plus que dommage car cela conduirait à notre dépérissement et sans nul doute à notre mort. Continuons donc, dans le souvenir, l’espérance et l’allégresse. Joyeux Noël !

Illustration de titre : comète de Halley, une des candidates pour l’étoile de l’Epiphanie. Photographie de W. Liller (1986). Crédit Nasa/W. Liller/NSSDC’s photo gallery.

 

ClearSpace, start-up suisse romande, devient via ADRIOS une entreprise européenne indispensable

Ça s’est décidé lors de la dernière conférence ministérielle de l’ESA (« Space 19+ »), la start-up ClearSpace issue de l’EPFL* va diriger un consortium européen chargé d’appliquer le programme ADRIOS (« Active Debris Removal / In-Orbit Servicing ») pour entreprendre le nettoyage de l’orbite basse terrestre de ses satellites devenus non-opérationnels donc inutiles et de ses débris de satellites. Elle sera dotée d’un budget initial de 86 millions d’euros de fonds publics apportés par huit pays membres et devra rechercher un complément auprès de sponsors ou d’investisseurs privés pour atteindre la centaine de millions d’euros nécessaires pour initier ce programme.

*Pour les lecteurs non connaisseurs de la Suisse, je précise que l’EPFL, Ecole Polytechnique Fédérale de Lausanne, est l’université implantée en terres francophones qui jouit de la meilleure appréciation au monde (18ème au classement QS). Elle est orientée sur l’ingénierie mais pas seulement. Selon sa propre présentation « ses trois missions sont l’éducation, la recherche et l’innovation. L’EPFL  forme des scientifiques, ingénieurs, architectes, et encourage le transfert de technologie vers l’économie et la société civile ». Il me semble approprié de le rappeler dans ce contexte.

Rappelons tout d’abord le problème que l’ESA vient de demander à ADRIOS de traiter :

Depuis le début de l’ère spatial, qui est quand même récent, on a envoyé plusieurs milliers de satellites dans l’espace. Jusqu’à une altitude d’environ 600 km (la station spatiale internationale évolue à environ 450 km) les débris redescendent en moins de 25 ans (ce qui n’est pas rien tout de même !) dans une atmosphère suffisamment épaisse où ils sont brûlés par frottement avec l’air environnant. Mais plus on s’élève, plus le désorbitage « naturel » (on dit « self-cleaning ») est lent et plus la pollution est forte. Et l’on envoie des satellites à toutes les altitudes (on parle ici de l’orbite basse terrestre, « LEO », non de l’espace plus lointain qui par ses dimensions ne peut évidemment souffrir du même fléau), surtout autour de cette moyenne, en fonction des besoins d’observations de la Terre et de communications tout autour du globe (on a intérêt à être au plus près de la Terre pour réduire au maximum les petits décalages de temps dus à la vitesse de la lumière mais il faut être placé suffisamment haut pour ne pas redescendre trop vite). Plus le temps passe plus cette pollution s’aggrave, par le nombre de lancements effectués et par les inévitables collisions qui créent et multiplient les débris vers l’infini (phénomène décrit par ce qu’on a nommé le « syndrome de Kessler »). A des vitesses de l’ordre de 28.000 km/h on imagine les risques que cela crée pour toute nouvelle mission ou toute mission encore opérationnelle et vitale pour le fonctionnement de nos activités terrestres. Par ailleurs les satellites et débris prennent la lumière beaucoup plus longtemps chaque nuit que les objets restés sur Terre et gênent considérablement les observations de nos astronomes opérant avec des télescopes situés à la surface terrestre, d’autant que les observations portent souvent sur des événements extrêmement brefs ou sur des sources dont le rayonnement jusqu’à nous est extrêmement faible.

Certes, depuis plusieurs années maintenant, les satellites comportent presque tous (mais pas tous !) un système de désorbitation qui consiste à les freiner en fin de mission pour les faire chuter dans une atmosphère plus dense, mais ils doivent pour cela avoir conservé les ergols nécessaires et le moteur doit fonctionner ce qui n’est malheureusement pas toujours le cas…et il faut aussi prendre en compte les pannes ou les impacts, bref l’ensemble des mises hors service non prévus.

Le résultat c’est que nous avons « en l’air » (en orbite basse terrestre) quelques 3.000 satellites hors d’usage et 2.000 satellites en service mais certains des satellites hors d’usage ont perdu pour une raison ou une autre leur intégrité et nous avons en réalité quelques 34.000 débris d’une taille d’au moins 10 cm, qui se déplacent de façon erratique et incontrôlable à des vitesses énormes. Plus on attend pour agir, plus les collisions se produisent et plus le nombre de débris augmente. On voit bien les conséquences que cela peut avoir et le problème ne va pas s’arranger tout seul puisque certaines sociétés commencent à lancer des « constellations » de satellites (menant une même mission de concert) dans certains cas des centaines ou même dans le cas du programme Starlink d’Elon Musk, des milliers (12.000 prévus, 122 lancés à ce jour et 1.600 pour une première tranche à 550 km, d’autres iront jusqu’à 1325 km). Si cela continue on se retrouvera tous bloqués sur Terre par nos déchets et l’exploration spatiale deviendra impossible sans compter qu’on ne pourra plus utiliser l’espace pour nos activités terrestres. Les lanceurs ou opérateurs de satellites et les compagnies qui les assurent semblent heureusement de plus en plus conscients du problème.

La réponse apportée par ClearSpace et l’ESA :

Pour qu’une solution à un tel problème existe il faut une technologie convaincante, un client qui paye et un fournisseur qui puisse procurer le service demandé. L’ESA, l’un des plus gros lanceurs de satellites, a pris l’initiative en lançant un appel d’offres international pour traiter ses propres épaves et débris et la meilleure proposition reçue a été celle de ClearSpace ce qui est absolument remarquable compte tenu du fait que ClearSpace n’est à ce jour qu’une start-up. Elle a su convaincre parce que son projet a semblé à l’ESA être le plus adapté à la résolution du problème sur le plan technique et parce que le « backing » de l’EPFL et le choix des 13 membres de son consortium (dont les principaux « intégrateurs » du spatial européen) lui a donné une très bonne crédibilité. ClearSpace, dirigée par Luc Piguet, diplômé de l’EPFL et affilié à son département eSpace, Centre Spatial de l’EPFL, a été constituée à partir du projet CleanSpace One initié par Muriel Richard de ce même Centre Spatial, en 2012. Il s’agissait d’abord de lancer (en 2024) un satellite expérimental « CleanSpace One » pour aller décrocher le nano satellite SwissCube (lancé par l’EPFL en 2009) puis, sur la base de cette expérience, de commercialiser un service de satellites récupérateurs-désorbiteurs qui serait adapté aux divers types de débris à traiter. Avec la mission ADRIOS il s’agit maintenant d’aller « décrocher » en 2025 le second étage (plus précisément un adaptateur de satellites secondaires), « VESPA » (« Vega Secondary Payload Adapter »), d’un lanceur envoyé par l’ESA dans l’espace en 2014 et qui se trouve entre 800 et 660 km d’altitude (taille de 1,80 x 2,00 mètres et masse de 120 Kg). Pour ce faire, ClearSpace, après avoir finalisé les détails de son offre avant Mars 2020 et le contour de son consortium, va envoyer un nouveau lanceur à proximité de cette épave et va la récupérer avec un petit satellite désorbiteur disposant d’un moteur d’approche (processus très délicat car l’épave est par définition non équipée pour être manœuvrée), d’un dispositif de saisie (filet, pince à deux ou plusieurs branches, bras robotique) et d’un dispositif de freinage.

La suite :

Cette première mission sera logiquement suivie par beaucoup d’autres et pourra porter sur plusieurs objets à la fois. Au-delà de la technologie très élaborée sur le plan de l’ingénierie (conception et réalisation), il faudra que la start-up se transforme en entreprise ce qui est un défi important car il lui faudra non seulement animer le consortium réuni pour obtenir ce premier marché mais aussi disposer constamment des réseaux des fournisseurs les plus qualifiés, coordonner leur travail et faire évoluer l’ensemble en fonction des retombées d’expérience sur le « terrain », changer de taille en fonction des nouveaux marchés tout en restant innovante et performante. Dans le cas présent cette adaptabilité sera clef car on peut imaginer que les concurrents, européens ou étrangers, ne vont pas manquer. Ce qui est très positif c’est que Luc Piguet semble très conscient des difficultés et qu’il est prêt à les affronter, en mettant l’accent sur la nécessité d’être à l’écoute des membres de son équipe, choisis chacun pour ses connaissances et ses compétences, et de les diriger comme un véritable chef d’orchestre. On peut espérer aussi que les bonnes relations avec l’ESA seront confirmées (l’opération VESPA sera évidemment capitale) et heureusement la demande va sûrement être de plus en plus forte compte tenu des problèmes croissants de pollution et compte tenu du développement dans l’« Opinion » d’un environnement psychologique très porteur pour que les entreprises assument leurs responsabilités écologiques.

Le financement :

Le désorbitage du « morceau » de Vega va avant tout être une démonstration de capacité technologique mais il va aussi coûter cher car le satellite désorbiteur, son lancement dans l’espace puis son guidage et son pilotage sont des « premières ». Ce qu’il faut envisager pour la suite ce sont des productions en série, une pluralité de lancements et le développement d’une pratique professionnelle qui feront baisser les coûts unitaires des opérations de récupération. Mais pour aller plus loin, il faut aussi envisager que les services de ClearSpace soient financés par des compagnies d’assurance dont les primes seront payées par les opérateurs ou les lanceurs de satellites. C’est le seul moyen de ramener le prix de ces services à un niveau raisonnable pour tous ceux qui auront eu la malchance de créer sans le vouloir une nouvelle épave. Ceux qui par négligence ne se seront pas assurés devront assumer d’être contraints de payer tout seuls une mission de récupération spécifique, sous la menace de la très forte réprobation des « autres » , professionnels de l’espace ou simples Terriens écologiquement conscients, et cela continuera à leur coûter cher même si ce sera moins que les premières missions.

A priori être actionnaire de ClearSpace ne sera pas un mauvais placement. Les investisseurs sont les bienvenus. Longue vie à la nouvelle entreprise !

Illustration de titre : schéma de la capture de VESPA (crédit ClearSpace)

Illustration ci-dessous : les satellites et débris en orbite autour de la Terre (évidemment ces débris ne sont pas à l’échelle par rapport à la Terre…mais comme vous le voyez ils sont très nombreux) : http://stuffin.space/

Autres liens :

file:///F:/ADRIOS/Press%20release%20ClearSpace_ESA-Fr.pdf

https://actu.epfl.ch/news/une-start-up-de-l-epfl-conduira-une-mission-pour-n/

https://www.esa.int/Safety_Security/Clean_Space/ESA_commissions_world_s_first_space_debris_removal

https://www.lesechos.fr/industrie-services/air-defense/leurope-lance-sa-premiere-mission-de-nettoyage-de-lespace-1155064

J’ai traité le sujet de ClearSpace dans mon article de blog du 08 juin 2019 :

https://blogs.letemps.ch/pierre-brisson/2019/06/08/clearspace-une-entreprise-de-salut-public-pour-notre-cognosphere/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 12 13

 

Pour rendre possible la vie sur Mars, Interstellar Lab va nous apprendre à mieux vivre sur Terre

Une start-up franco-américaine, « Interstellar Lab », a entrepris, sous la conduite de sa fondatrice Barbara Belvisi, de réaliser le premier des rêves de la Mars Society, la réalisation sur Terre d’un établissement humain préfigurant et donc préparant les futurs établissements humains sur Mars. Par la même occasion elle veut démontrer que ces établissements seront très utiles pour l’évolution sur Terre vers des villes économes et autonomes sur le plan écologique car sur Mars elles devront par nécessité fonctionner en boucles bio-régénératives fermées avec un minimum de ressources (difficiles à importer et/ou à produire sur place). Et ce qui me rend, en tant qu’économiste, la start-up encore plus sympathique, c’est qu’elle a compris que pour devenir autonome et perdurer, elle devait rechercher et contrôler un flux de ressources commerciales. Par extraordinaire (mais c’est sans doute simplement la logique imposée par les contraintes résultant du contexte), ces ressources sont les mêmes que celles que j’avais envisagées de mon côté pour les futures communautés martiennes.

Avant de s’investir et d’investir dans le « New Space », Barbara Belvisi avait co-fondé « Hardware Club », un fonds de capital-risque spécialisé dans l’électronique et la robotique et elle avait contribué aux lancements de l’incubateur « The Family » et du « Hello Tomorrow Challenge », un évènement dédié aux « deep-tech ». Elle n’est donc pas novice en matière de technologies et de « business » et c’est important pour ce qu’elle entreprend maintenant avec une petite équipe de 7 personnes dont plusieurs ingénieurs. Le projet d’Interstellar Lab, baptisé « EBIOS » (pour « Experimental BIOregenerative Station »), consiste à construire en Californie, sur 70.000 m2 dans le désert des Mojaves (à 4 heures en voiture du centre de Los Angeles), un petit « village » constitué d’habitats et de serres, permettant à une centaine de personnes de vivre dans une autonomie maximum en recyclant ou régénérant par des processus « bio » tout ce qui peut l’être, à l’intérieur de structures d’un type que l’on pourrait construire sur la Lune ou sur Mars (cf illustration de titre). Pour le moment on ne recyclera pas l’atmosphère (ce n’est pas une priorité sur Terre !) mais on recyclera l’eau en utilisant les plantes, on recyclera également les matières organiques, autant que possible les matières non-organiques et on tentera dans tous les domaines de vivre avec les ressources locales en produisant son énergie (solaire bien sûr !), son alimentation (végétale) à l’issue de boucles bio-régénératives, et en construisant les habitats ou les dômes de vie commune grâce à l’impression 3D. C’est exactement ce qu’on devra faire sur Mars où l’on aura toujours une barrière énorme au transport de masses et de volumes, la capacité d’emport de nos fusées étant limitée et le coût de leur utilisation restant forcément élevé. Le transport n’est en effet nulle part gratuit et il coûtera toujours cher entre les planètes (production et entretien des infrastructures de l’astroport, des lanceurs et des vaisseaux spatiaux, des ergols ; contrôle et remise en état des lanceurs et vaisseaux spatiaux après usage et avant réutilisation ; entretien de l’aménagement intérieur des cabines et espaces communs ; formation et rémunération des personnels affectés au pilotage et aux services pendant le voyage et ce d’autant que personne ne pourra probablement effectuer plus qu’un petit nombre de voyages – 3 ou 4 – en raison des doses de radiations accumulées).

Le concept d’Interstellar Lab est de mettre à disposition une base de recherche sur les systèmes bio-régénératifs et de vie au sein de systèmes fermés (« ECLSS » pour « Environmental Control & Life Support System ») aussi réaliste que possible et, en même temps, de générer des ressources d’une part en hébergeant les scientifiques intéressés par les recherches susmentionnées et d’autre part en louant des résidences à l’intérieur d’EBIOS à toute personne intéressée par l’expérience de la vie dans cet endroit étrange (entre 3000 et 6000 dollars la semaine). Barbara Belvisi a visé juste en choisissant l’emplacement du premier village près de Los Angeles, ville dont la population est importante, les revenus moyens élevés et l’intérêt pour le spatial, très fort. Par ailleurs Los Angeles est un des centres de la NASA et Interstellar Lab compte dans son conseil d’administration, le Dr. Greg Autry, une forte personnalité, qui a été membre du dernier Space Review Team et a servi de liaison entre la NASA et l’exécutif sous cette administration. Il est particulièrement intéressé par l’entrepreneuriat et l’économie « New Space » (qu’il enseigne à l’Université de Southern California). En dehors de l’intérêt pour la préparation à la vie sur Mars, on voit clairement ce que le projet EBIOS peut apporter à la vie sur Terre : l’apprentissage d’une activité normale avec un impact écologique minimum (donc réduit par rapport à aujourd’hui), la démonstration que l’on peut vivre dans les endroits a priori les plus hostiles (les habitants des pays en voie de désertification ou des pays ou la pollution est très forte, apprécieront) et aussi que la remédiation à la détérioration de l’environnement par la technologie n’est pas un vain concept en dépit des doutes clairement affichés par les écologistes extrémistes partisans de la décroissance.

Comme dit précédemment, ce que j’apprécie le plus dans ce projet EBIOS et qui le distingue vraiment (en mieux !) des simulations de la Mars Society c’est que Barbara Belvisi a compris l’intérêt sinon la nécessité de le mener comme une entreprise commerciale. Elle ne cherche pas à le développer et le faire vivre sur des dons privés ou des subventions publiques à fonds perdus, sentant bien que sur ces bases il ne pourrait être durable. Elle veut en faire une entreprise rentable (et je pense que c’est aussi probablement l’esprit des premiers sponsors), c’est-à-dire faire en sorte que son offre fasse l’objet d’une demande solvable suffisante pour dégager une marge positive. Elle l’initie bien sûr avec des sponsors mais ceux-ci sont aussi des investisseurs qui n’espèrent pas seulement une valorisation de leur image mais une aide à leur propre « business ». Ensemble ils veulent gagner de l’argent pour en tirer des bénéfices et pouvoir, outre l’agrément personnel qu’ils pourront en tirer, les réinvestir pour développer le projet et le reproduire ailleurs dans le monde en l’améliorant de plus en plus. Ce principe « basique » d’économie est le meilleur gage de pérennité. Illustrant cet état d’esprit il est intéressant de noter que le principal sponsor d’Interstellar Lab, Bruno Maisonnier, est lui aussi un entrepreneur qui a su réussir aussi bien sur le plan de son concept, en le concrétisant de manière très satisfaisante, que sur le plan financier en le revendant un très bon prix et qui pourra utiliser EBIOS pour son intérêt propre. Rappelons qu’il est le créateur d’Aldébaran, cette société qui a conçu les petits robots humanoïdes qu’Arnaud Montebourg a pris dans ses bras et que le monde entier a pu admirer, et qui a été assez rapidement vendu au japonais Softbank (faute de pouvoir être développé sur capital français). Bruno Maisonnier veut maintenant donner le maximum d’intelligence (artificielle bien sûr) à ses robots et le projet EBIOS « tombe bien » car un des problèmes de Mars (ou de la Lune) sera la faible population et l’étendue des tâches à accomplir avec le maximum d’autonomie, donc l’environnement idéal pour les robots qu’il pourrait concevoir. Sa coopération avec Barbara Belvisi qui lui offrira un remarquable espace d’expérimentation et de démonstration, semble a priori devoir être « gagnante-gagnante ».

Il existe déjà des expériences de vie écologiquement autonomes préfigurant les villes que l’on pourrait construire « sur d’autres astres sous d’autres cieux » mais aucune ne semble avoir choisi la voie du réalisme comme veut le faire Interstellar Lab. « Biosphere-2 » avec son projet totalement fermé était trop ambitieux, surtout à son époque (1991-1993 et 1994). De son côté la Mars Society ne recherche que des « utilisateurs » (et non des « clients ») désireux de faire des simulations plus ou moins scientifiques et se prive de l’attrait touristique donc commercial que présentent ses habitats. Ce qui caractérise EBIOS c’est son approche « bottom-up » (ou comme Barbara Belvisi le dit, « from the ground-up ») et ouverte au commerce. Il ne s’agit pas de chercher à réaliser tout de suite le but qu’on envisage mais uniquement ce qu’il est possible de faire aujourd’hui sans oublier l’objectif qui est celui des vrais habitats martiens (ou lunaires). Biosphere-2 a échoué parce qu’il était impossible de contrôler un habitat aussi complexe que celui que ses promoteurs avait envisagé; les bases de simulation de la Mars Society végètent parce que les candidats aux simulations sont insuffisants par rapport aux coûts de fonctionnement générés par chacune. Il en résulte que leur confort est spartiate, ce qui n’est pas grave, mais aussi, que leur réalisme est moindre que celui qu’envisage Interstellar Lab par rapport aux habitats spatiaux futurs et les moyens de recherche devraient être en fin de compte beaucoup plus limités. Cela n’exclut pas pour Interstellar Lab d’avoir l’intention d’adopter des règles très « avancées » vers le futur quand il est possible de le faire. Ainsi dès le début, les plus grandes précautions (segmentations des espaces de vie, de culture, de travail) seront prises afin d’éviter les contaminations microbiennes car ces contaminations dans un milieu écologique clos donc de petit volume, présentent un risque de ce type extrêmement élevé puisqu’il ne peut y avoir l’effet tampon (diffuseur de ce risque) qu’offre les grands volumes (comme la biosphère terrestre par exemple) et les déséquilibres sont extrêmement difficiles à maîtriser ou piloter si on les laisse se développer.

Cette première implantation devrait coûter un maximum de 30 million de dollars. Barbara Belvisi les obtiendra mais si vous voulez participer vous-même au projet, n’hésitez pas à la contacter, ce ne sera certainement pas « à fonds perdus ». Après il y aura d’autres village, le suivant en Floride mais aussi dans d’autres environnements tout aussi extrêmes que le désert des Mojaves pourvu qu’ils soient également facilement accessibles aux touristes. Comme il en est prévu aussi en Europe, pourquoi ne serait-ce pas en Suisse, en haute montagne, pour remplacer certains refuges, nos « cabanes » comme on dit, vieillissants ou insuffisants en capacité ou en équipements, où les problématiques concernent l’approvisionnement, les déchets et le recyclage, et bientôt la réadaptation à de nouvelles formes de tourisme compte tenu de la fonte des glaces ?

Illustration de titre: EBIOS dans le désert des Mojaves, vue d’artiste (crédit Interstellar Lab).

Liens:

http://interstellarlab.earth/about

https://www.usinenouvelle.com/editorial/l-industrie-c-est-fou-la-start-up-francaise-interstellar-lab-developpe-vraiment-des-villages-autonomes-pour-la-terre-et-l-espace.N905729

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 28

Une énergie sombre omniprésente domine-t-elle notre Univers?

Depuis Alexandre Friedman en 1922/24 on a réalisé que l’Univers non seulement n’était pas statique comme le croyait Albert Einstein mais qu’il est en expansion et, depuis 1988 avec le « Supernova Cosmology Project » dirigé par Saul Perlmutter et l’équipe « High-Z supernovae search » dirigée par Adam Riess, que non seulement il est en expansion mais que cette expansion apparemment s’accélère.

La cause de l’interrogation

L’expansion de l’Univers est maintenant une réalité qu’aucun astrophysicien ne conteste. On la constate par le décalage vers le rouge (effet Doppler-Fizeau) observé dans le spectre des galaxies de l’Univers observable et qui est d’autant plus important que les galaxies sont lointaines. Le problème est qu’après cette première constatation que l’on a formalisée en lui affectant une grandeur que l’on a crû être une « constante », la « constante de Hubble » (« H »), on s’est aperçu qu’elle n’était que la valeur actuelle (environ 70km/s/Mpc), « H0 », d’un simple paramètre, la possibilité de variation de ce paramètre résultant de la contradiction entre d’une part une force de contraction tenant à la masse de l’Univers subissant l’effet de la gravité, exprimé par le « paramètre de densité » (que l’on symbolise par «  » (Oméga), et d’autre part une force répulsive dont on ne peut encore que constater l’effet. La totalité de la matière, noire ou visible, et la force de gravité qu’elle implique, ne suffit donc pas à ralentir l’expansion (bien au contraire) ! Cette force répulsive que faute de mieux on appelle « énergie sombre » car on ne peut en identifier la nature, semble dominer l’Univers depuis 6 à 7 milliards d’années (sur 13,8 milliards). C’est à cette époque qu’elle commence à se traduire par une accélération générale de l’expansion, mais elle était sans aucun doute à l’œuvre dès l’Origine, c’est à dire le Big-bang, ou même, selon certains, peut-être avant ; il est en effet difficilement concevable qu’elle ait pu être créée ex-nihilo ensuite.

La force répulsive est déjà potentiellement présente dans l’équation de champ modifiée d’Albert Einstein (Gαβ = 8πTαβ + Λgαβ), par son coefficient « Λ » (lambda), qu’il avait lui-même appelé la « constante cosmologique » (mais il n’est plus certain aujourd’hui qu’elle soit constante !). Il faut dès à présent noter qu’il avait ajouté ce coefficient (cette « verrue » dira-t-il plus tard) à sa formule de base pour un objet différent de la prise en compte de la possibilité de variation de l’expansion. Il voulait simplement exprimer que pour lui l’Univers était statique (et sa constante cosmologique corrigeait exactement l’effet de la gravité). Les observations ultérieures et notamment celles du télescope spatial Planck ont montré que Λ pouvait avoir une valeur de 1,1056 × 10−52 m−2…avec une marge d’erreur. La valeur est très faible mais très légèrement positive et il faut bien voir que l’échelle est la plus grande qu’on puisse imaginer et donc que l’accélération est réelle, qu’elle représente du fait de l’immensité à laquelle elle s’applique, l’élément le plus important de la « densité de l’énergie totale de l’Univers » (72,8%) et par conséquent qu’elle implique dans le futur lointain la dispersion de la Matière. A noter que le coefficient Λ affectant comme le coefficient le paramètre de Hubble, est repris dans le modèle cosmologique « ΛCDM » (Lambda Cold Dark Matter) considéré aujourd’hui comme le « modèle standard du Big-bang » (qui met à jour le raisonnement d’Einstein). Mais on ne sait toujours pas ce qui peut bien provoquer cette accélération !

Les réponses possibles

Les cosmologistes ont fait beaucoup d’efforts pour trouver une explication à l’accélération. En gros on peut dire que la quasi-totalité (« A ») de leurs propositions recourent à des forces, des champs ou des particules que permettent sur le papier la science physique mais qu’on n’arrive pas à prouver / détecter et qu’une seule proposition (« B »), celle d’André Maeder, utilise la physique telle qu’elle est. Parmi les premières, certaines (1 et 2 ci-dessous) gardent la théorie de la Relativité Générale en y introduisant des « degrés de liberté » (variables aléatoires qui ne peuvent être déterminées ou fixées par une équation), d’autres (3 et 4 ci-dessous) la modifient. Voyons les dans l’ordre de leur éloignement progressif du modèle standard :

1) introduction de nouveaux champs physiques ou de nouvelles particules qui n’interagissent ni avec la matière baryonique, ni avec la matière noire, ni avec les photons. Les modèles de cette catégorie comprennent notamment la « quintessence » (Jim Peebles), une cinquième forme d’énergie active à chaque point de l’espace (à côté de la matière baryonique, de la matière noire, des neutrinos et des photons).

2) introduction de nouveaux champs très faibles qui peuvent être couplés avec les seuls photons et qui expliquent l’atténuation de la lumière par la distance (par une oscillation photons/« axions »…les axions étant des particules théoriques, de type boson, n’ayant pas de charge électrique et une très faible masse).

3) introduction de nouveaux champs, fortement couplés à ceux du modèle standard de la Relativité Générale. Ce couplage fort implique de modifier les équations de la Relativité Générale et/ou de changer les valeurs de certaines constantes fondamentales pour décrire les effets de la gravitation.

4) introduction de modifications drastiques à la théorie de la Relativité Générale avec plusieurs types de « gravitons » (bosons de masse nulle, particules théoriques porteuses de la force de gravité). Les modèles incluent les modèles « branaires » avec dimensions supplémentaires ou la « multigravité ».

Toutes ces hypothèses supposent beaucoup d’inconnues et ne sont pas (encore) testables puisqu’on n’a découvert / observé aucune des particules ou champs dont l’existence supposée est indispensable à leur vérification.

Dans ces conditions la proposition (« B ») d’André Maeder (Université de Genève) exposée en 2017 dite « invariance d’échelle du vide » qui suppose qu’aux grandes échelles cosmologiques, niveau où la théorie de Relativité Générale peut être appliquée, le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction, présente l’avantage de la simplicité et d’une sorte de « retour aux sources » (les premiers travaux d’Albert Einstein). Selon ce modèle, l’accélération de l’expansion de l’Univers serait possible sans que l’énergie sombre ou la matière noire soient nécessaires et avec une « constante cosmologique » Λ liée uniquement aux propriétés d’invariance du vide spatial, via un facteur d’échelle « λ » de ce vide . Cette hypothèse fait en effet apparaître logiquement, on pourrait dire « naturellement » (c’est le terme employé par André Maeder),  un terme très petit et variable d’accélération et ce « terme » est particulièrement significatif aux faibles densités. Or l’accélération est en effet, dans les observations, un terme très petit et c’est dans ces environnements de faibles densités (périphérie des galaxies spirales par exemple) qu’elle semble la plus évidente. Les premiers tests du modèle corroborent les observations : application de ses principes au calcul des distances par rapport aux décalage vers le rouge, à l’estimation de la magnitude par rapport aux redshifts, à l’estimation du coefficient de densité par rapport aux observations par le télescope Planck des fluctuations du CMB (Fonds diffus cosmologique), à l’estimation de la valeur actuelle du paramètre de Hubble (coefficient H0), et autres.

Dans tous les cas il y aurait bien expansion et, du moins actuellement accélération de l’expansion, ce sont des faits d’observation mais il n’y aurait pas obligatoirement d’énergie sombre et s’il y a énergie sombre, ce qui est de moins en moins probable, on ne sait toujours pas ce qu’elle serait. L’accélération de l’expansion de l’Univers reste un problème majeur pour la compréhension de notre Univers puisque d’elle ou de son contraire résultera (dans plusieurs dizaines de milliards d’années, tout de même !) la Destruction (Big Crunch ou Big Rip) ou l’Eternité (par le chemin de crêtes…mais on ne sera jamais certain de pouvoir y rester !). C’est un sujet difficile que je n’aborde, sans l’approfondir, que pour mettre en évidence son incontournable présence !

Illustration de titre: illustration schématique de l’expansion de l’Univers et de son accélération (évasement). Design Alex Mittelmann

Lien (Le Temps, 22 Nov. 2017) :

https://www.letemps.ch/sciences/un-professeur-genevois-remet-question-matiere-noire

lien UniGe:

https://www.unige.ch/communication/communiques/2017/cdp211117/

lien vers l’étude d’André Maeder:

file:///F:/energie%20sombre/Maeder_2017_ApJ_834_194.pdf

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

L’énigme de la matière noire

Ce que nous voyons dans le ciel avec nos yeux mais aussi, jusqu’à présent, avec nos instruments d’observation les plus sophistiqués, pourrait n’être que « la partie visible de l’iceberg » de la « densité d’énergie totale » de l’Univers observable, dit autrement, de la totalité des composants de l’Univers observable, matière et énergie comprises. La matière commune dite « baryonique » ne constituerait en effet selon le « modèle standard de la cosmologie », que quelques 4,9 % de cette « densité », dont les 100% comprendraient, outre la totalité de cette matière baryonique, la totalité des photons, la totalité des neutrinos, ainsi que la « matière noire » et l’« énergie sombre » (les neutrinos pouvant cependant faire partie de la matière noire). Les deux derniers composants constitueraient l’essentiel de cette même densité (26,8% pour le premier et 68,3% pour le second)…mais ils restent hypothétiques. La réalité nous force à constater leurs effets gravitationnels sans pouvoir les observer directement et il est très frustrant de constater l’invraisemblance intuitive que le premier, la matière noire, exprime alors que nous avons fait des progrès énormes en astronomie ces dernières décennies. Le second, l’énergie sombre, tout aussi mystérieuse mais qui est de toute façon moins « visible » (elle se manifeste dans le temps et dans les vitesses de récession exprimées sur les spectres des émissions électromagnétiques) et qui est une sorte d’antigravité, constitue une autre énigme qui ne sera traitée qu’accessoirement dans cet article…même si, peut-être, elle est intrinsèquement liée à la matière noire autant qu’à la matière baryonique.

Le constat

L’idée qu’il « manque quelque chose » s’est insinué dans les raisonnements depuis 1933 grâce à l’honnêteté et au courage de l’astronome suisse Fritz Zwicky (diplômé de l’ETHZ, enseignant au CalTech) qui avait observé une discordance entre la « masse dynamique » (dispersion des vitesses affectant les masses et résultant de la gravitation) et la « masse lumineuse » (estimation de la masse résultant de la quantité de lumière émise constatée) d’un groupe de galaxies dans un amas, la première étant beaucoup plus élevée que la seconde. Depuis cette époque ce « manque » a été observé mainte fois avec des équipement beaucoup plus performants (on pouvait douter de la précision des données recueillies à l’époque de Fritz Zwicky) et dans d’autres contextes. Une des façons de le percevoir est de porter attention à la vitesse de rotation des étoiles autour des cœurs de galaxie spirales par examen de leurs spectres de rayonnements électromagnétiques. D’après la troisième loi de Kepler, plus on s’éloigne du centre de gravité d’une galaxie, plus la vitesse des étoiles devraient décroître (cf ce qui se passe dans notre système solaire pour les planètes). Or, comme l’a constaté l’astronome Vera Rubin dans les années 1970 sur la base des spectres de la galaxie d’Andromède, la vitesse de rotation des étoiles (notée sur des « courbes de révolution ») en périphérie du centre est quasiment la même que celles des étoiles qui sont proches du centre, tout comme si la galaxie était beaucoup plus étendue en masse et en volume que sa simple partie visible, et la différence n’est pas marginale (de l’ordre de 95%!). Cette observation fut confirmée dès que l’on put, en 1999 avec le télescope spatial Subaru, observer les galaxies sur les longueurs d’ondes de l’infrarouge, hors de l’atmosphère terrestre (ce rayonnement permettant d’observer bien davantage de sources que les seules étoiles visibles). De même la vitesse d’expansion de l’univers est compatible avec une certaine masse de 30% de la densité critique et sans la matière noire cette masse serait évidemment insuffisante (sans prendre en compte l’accélération qui s’exprime depuis 6 à 7 milliards d’années et qui, elle, devrait résulter de l’« énergie sombre »).

De quoi cette matière noire pourrait-elle être constituée ?

Selon les théories, elle pourrait être chaude (rapide) ou froide (lente) en fonction de la nature des particules qui la constituent. Dans le premier cas, le neutrino serait un bon candidat et l’univers se serait formé à partir de grandes masses qui se seraient ensuite fragmentées. Dans le second cas, des particules lourdes comme les « WIMP » (« Weakly Interactive Massive Particles ») auraient provoqué ou contribué à provoquer/amplifier les anisotropies du plasma primitif (jusqu’à la Recombinaison) et l’Univers se seraient développé à partir de petites masses qui se seraient agglomérées ensuite et qui continuent encore aujourd’hui à le faire (plutôt la tendance dans la théorie d’aujourd’hui).

Pour dire les choses autrement, on a d’abord pensé « tout bêtement » (avant de passer à autre chose) que la matière noire pourrait être de la matière baryonique inobservable car difficilement visible avec nos instruments d’observation. Les nuages de gaz (hydrogène) enveloppant de nombreuses galaxies et s’étirant entre elles auraient pu être un bon candidat mais, autour des galaxies, leur vitesse et leur température semblent être plutôt la preuve de l’attraction de la masse de ces galaxies renforcée par la matière noire. Les objets périphériques massifs et très denses (MACHO pour « Massive Compact Halo Objects ») également du fait de leur petitesse apparente, tels qu’étoiles à neutrons, naines blanches, naines brunes, ou trous noirs, pourraient aussi être des candidats puisqu’ils sont difficiles à détecter et qu’ils contribuent évidemment à beaucoup de matière, dans l’ensemble. Cependant l’hypothèse étoiles à neutrons et naines blanches impliquent que ces étoiles auraient été autrefois « vivantes » et que donc le ciel ancien (ou lointain) aurait été plus brillant que le ciel contemporain (ou voisin), ce qui n’est pas le cas. Quant aux naines brunes (étoiles avortées ou quasi-étoiles), on n’a pu, jusqu’à présent, constater d’occultations suffisantes permettant de démontrer qu’elles atteignent une abondance suffisante. Les hypothétiques trous noirs périphériques constituent une piste également abandonnée car ils ne présentent pas les perturbations de leur environnement qu’ils devraient provoquer.

Les WIMP sont toutes sortes de particules lourdes « non-baryoniques » interagissant très faiblement avec la matière. Ce sont, après éliminations des autres possibilités, les meilleurs candidats à la matière noire (ceux qui « restent »). On les envisage en extrapolant le principe de « supersymétrie » du modèle standard de la physique des particules, chaque boson étant associé à un fermion (ces fermions ont des propriétés identiques, notamment de masse, aux bosons mais avec un spin différent de ½). A noter que les WHIMP ne sont pas des éléments d’antimatière qui seraient aussi des baryons (on sait que la matière et l’antimatière interagissent extrêmement facilement et vigoureusement). Les neutrinos pourraient être aussi une partie de l’explication ; contrairement au WIMP on connaît maintenant leur existence et leur omniprésence mais non pas leur abondance.

Identifier l’invisible

Depuis des décennies on s’efforce d’en savoir plus et d’abord en tentant de faire interagir, même très marginalement, la matière visible avec la matière noire (WIMP et/ou neutrinos). On a cherché et on cherche encore partout ces interactions, soit dans les accélérateurs de particules (notamment dans le plus puissant, le LHC – Grand Collisionneur de Hadrons), soit dans de multiples installations souterraines (pour éliminer le maximum de rayonnements « parasites » c’est-à-dire tous ceux qui interfèrent facilement avec la matière): CDMS (Cryogenic Dark Mater Search), XENON dark matter research project, WARP (WIMP ARgon Program), EDELWEISS (Expérience pour DEtecter Les WIMP En SItes Souterrains), CRESST (Cryogenic Rare Event Search with Superconducting Thermometers), EURECA (European Underground Rare Event Calorimeter Array) ou LUX (Large Underground Xenon experiment), soit sous la glace (IceCube, en Antarctique) ou dans l’espace (le spectromètre AMS, conçu par UniGe et qui est posé sur la Station Spatiale Internationale). La multiplicité des expériences marquent à la fois l’intérêt et sans doute la frustration des scientifiques, pensant « tenir quelque chose » mais incapables de le prouver car…les résultats sont toujours nuls ou, si l’on veut rester optimistes, repoussent toujours plus loin la « section efficace » de la matière noire (celle qui interagirait avec la matière). Un nouveau satellite, « Euclid » doit être lancé en 2022 par l’ESA pour tenter la détection. La conception de la charge utile est réalisée par Airbus et Thalès sous la direction du « consortium Euclid », constitué d’un grand nombre de laboratoires européens (une centaine dans 16 pays, ce qui témoigne de l’intérêt !) qui assureront aussi l’exploitation des données. Il doit rechercher les effets de l’énergie sombre mais, relativement à la matière noire, son principe est d’étudier, en « s’appuyant » sur la gravité, seule force, apparemment, qui ait un effet sur les deux types de matière, les effets de lentilles gravitationnelles faibles. La méthode consiste à mesurer la déformation de la forme des galaxies sous l’effet de la lentille gravitationnelle des matières visible et noire présentes entre la Terre et ces galaxies. Le degré de distorsion doit permettre de déduire comment se répartit la matière noire, en soustrayant l’effet de la matière observable, et observée.

Compte tenu des « résultats » décevants (à ce jour !), l’explication du mystère viendra-t-elle de théories alternatives ? La théorie MOND (Modification Of the Newtonian Dynamic) de Mordehai Milgrom propose une version modifiée des lois de la gravité (grande ou faible accélération selon que la masse est importante ou non). L’Univers de Dirac-Milne propose l’existence d’antigravité liée à l’antimatière (les particules d’antimatière, de masse négative, auraient une force de répulsion gravitationnelle). De son côté André Maeder (Université de Genève) propose l’hypothèse de l’« invariance de l’échelle du vide », autrement dit que le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction. Il remarque que cette hypothèse de départ de n’a pas été prise en compte dans la théorie du Big bang or le vide joue un rôle primordial dans les équations d’Einstein (il intervient dans la définition de la constante cosmologique). Appliqué aux observations astronomiques, il montre que son modèle prédit l’accélération de l’expansion de l’Univers sans qu’aucune particule ni énergie noire ne soient nécessaires. Si la moisson des données d’Euclid n’est pas concluante ou si l’une de ces théories alternatives prévaut auprès de la communauté des astrophysiciens dans les tests répétés fait pour les démontrer, on abandonnerait les WIMP qui apparaitraient alors comme un mirage; sinon toute une nouvelle physique passerait du champ théorique au champ observable. C’est ainsi que progresse la Science.

NB : cet article, très général, ne prétend pas épuiser le sujet de la matière noire mais seulement le mettre en évidence pour faire prendre conscience de la difficulté de la recherche (par définition on ne sait jamais ce qu’on va trouver). Il faut, sur la base des connaissances existantes, émettre des hypothèses pour résoudre les questions que posent la réalité des choses et sans relâche et en toute honnêteté, tester ces hypothèses avec les moyens forcément limités et le plus souvent indirectes dont on dispose.

Image de titre :

Une possibilité de représentation de l’énergie noire (que l’on n’a toujours pas vue*). Etant donné que l’on n’est toujours pas certain de l’existence de la matière noire, j’ai ajouté un point d’interrogation. *NB: les nuages d’hydrogène présents sur la photo, ici probablement le reste d’une supernova, ne seraient pas suffisants pour rendre compte de la totalité de la matière noire. Crédit de la photo (sans point d’interrogation !) : NASA, ESA, M. J. Jee and H. Ford et al. (Johns Hopkins Univ.)

Liens : 

https://www.futura-sciences.com/sciences/definitions/physique-matiere-sombre-46/

https://fr.wikipedia.org/wiki/Euclid_(t%C3%A9lescope_spatial)

https://www.unige.ch/communication/communiques/2017/cdp211117/

https://www.nasa.gov/multimedia/imagegallery/image_feature_827.html

Image ci-dessous:

Les observations des courbes de révolution des étoiles autour du centre de leur galaxie montrent qu’elles tournent trop vite si l’on se base sur la loi de la gravitation de Newton ou sur la masse déduite de la luminosité des galaxies. © Gianfranco Bertone.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05