Les mondes lointains de la Ceinture de Kuiper et des Nuages de Oort nous donnent une idée des dimensions de l’Univers

Bien au-delà de la Ceinture-d’astéroïdes qui délimite le système solaire interne et encore au-delà de l’orbite de Neptune où s’arrête le « royaume » de nos huit planètes, s’étendent les régions très lointaines de la Ceinture de Kuiper et des Nuages de Oort. C’est dans ces confins que je voudrais vous conduire aujourd’hui.

La Ceinture de Kuiper, imaginée en 1940 par Kenneth Edgeworth et théorisée en 1951 par Gerard Kuiper, est le tore d’astres assez hétérogènes mais d’une manière générale glacés qui existaient dans la nébuleuse primitive lorsque le processus d’accrétion planétaire s’est amorcé autour du jeune Soleil mais qui ont été « chamboulés » très vite par la progression de Neptune, suivie par Uranus, vers l’extérieur du système sous la pression gravitationnelle de Jupiter et de Saturne. Elle se trouve entre Neptune (à 30 unités astronomique, « UA »*) et le Nuage de Oort (« intérieur », de 2000 à 5000 UA ; « extérieur », de 10.000 UA à « plus de » 100.000 UA). A noter que Proxima-Centauri, notre plus proche voisine, se trouve à 4,244 années-lumière, soit 270.000 UA. Dans le cadre du « Grand-Tack » (« Grand-rebroussement »**), l’astrophysicien Alessandro Morbidelli et ses collègues ont montré que Neptune qui se trouvait lors de sa formation entre Saturne et Uranus, aurait été éjectée au-delà de cette dernière par la pression gravitationnelle de Saturne. La perturbation résultant de cette intrusion dans ce qui allait devenir la Ceinture de Kuiper fut aussi grave pour cette dernière que celle qui intervint dans la Ceinture d’Astéroïdes un peu plus tôt quand Jupiter y fit irruption peu après qu’elle eut commencé à se former. Les astéroïdes qui s’y trouvaient dans un processus d’accrétion très lent (froid, faible vitesse de rotation autour du Soleil et faibles masses) se trouvèrent dans leur majorité, soit expulsés vers l’extérieur (Nuage intérieur de Oort) soit propulsés vers le centre du système, en passant par les orbites des planètes inférieures, soit tout simplement absorbés par la planète géante.

*une UA est égale à la distance moyenne Terre/Soleil soit 150 millions de km.

**terme qui doit parler aux Neuchâtelois qui prennent le train entre Neuchâtel et La Chaux-de-fonds !

Les astres de la Ceinture de Kuiper, nommés communément « KBO » (pour « Kuiper Belt Object ») sont donc soit de petits astéroïdes dont l’évolution n’a pu être trop poussée, soit des planétoïdes plus importants qui se trouvaient en formation dans la partie la plus interne de la Ceinture. Cette Ceinture comprend des millions de KBO dont des centaines de milliers d’objets de 100 km ou plus et quelques-uns comme Pluton qui sont beaucoup plus gros (1000 km et plus) mais, en tout, ils ne doivent pas représenter plus de 10% de la masse terrestre (contre 7 à 10 masses terrestres avant l’intrusion de Neptune). Ils sont composés de roches silicatées, avec du méthane, de l’ammoniac, et surtout de beaucoup de glace d’eau. Le tout est relativement instable car les collisions ne sont pas exceptionnelles. On les connait par les comètes qui s’en détachent ou se décrochent de leur orbite de ce fait et, depuis peu, par l’observation sur place, grâce à la sonde New-Horizons de la NASA qui a pu prendre in situ des photos remarquablement précises de Pluton, de Charron puis d’Arrokoth (initialement Ultima Thulé), KBO classique sans doute représentatif. A noter que les comètes sont identifiées par leur périodicité qui compte tenu de leur vitesse observée, donne forcément la distance de leur aphélie (la périodicité des comètes provenant de la Ceinture de Kuiper est autour d’une vingtaine d’année).

Dans la situation actuelle, on distingue la Ceinture « classique » soit celle que l’on s’attendait à trouver à cette distance quand on l’a théorisée et qui s’étend entre 40 et 50 UA du Soleil, la Ceinture des astres « épars » qui s’étend jusqu’à quelques 1000 UA (en débordant un peu sur la classique) et enfin les objets « détachés » qui se sont formés en-dehors de l’influence de Neptune car ils évoluent beaucoup plus loin que les autres, ne s’approchant des 40 UA à leur périhélie, que peu de temps dans le parcours de leur orbite. A l’intérieur de la Ceinture-classique il faut encore distinguer les astres « froids » qui ont une orbite circulaire dans le plan de l’écliptique solaire, des astres « chauds » qui ont été perturbés par Neptune et qui ont une orbite plus ou moins excentrique et en dehors de l’écliptique, et parmi les astres froids on peut encore faire des distinctions en fonction de l’influence que Neptune a sur eux (c’est-à-dire de la résonnance de déplacement sur orbite qui existe entre eux et Neptune). Parmi les astres épars, on doit mentionner Eris, le plus gros d’entre eux (2326 km de diamètre contre 2370 pour Pluton mais ce dernier est un peu moins massif). Pluton qui est en résonnance 2:3 avec Neptune n’est pas un astre épars mais, de par sa situation, un astre classique « chaud ». Sedna est l’un des astres détachés avec un périhélie de 76 UA et un aphélie de 1200 UA. Parmi les astres épars on en a détecté plusieurs d’une taille importante, ce qui nous conduit à classer comme « planètes naines » tout comme Pluton, outre Eris, Haumea, Makémaké, Gonggong, Quaoar (quel choix de noms absurde !) et bien sûr Charon le compagnon de Pluton, qui ont des diamètres allant de 1000 à 1500 km. Sedna et Orcus sont un peu plus petits (diamètre légèrement inférieur à 1000 km). Une caractéristique intrigante de ces astres épars (et même de Pluton) est l’excentricité de leur orbite. Leurs périhélies sont très éloignés du Soleil et, comme leurs aphélies, déportés très nettement d’un même côté du système solaire. Cela a conduit à penser que, « de l’autre côté », un objet très massif les équilibre, la fameuse « Planète-9 » dont on cherche la preuve par l’observation depuis 2016 où on l’a théorisée (Constantin Batyguine et Michael Brown du CalTech). La masse de cet astre doit être importante (actuellement estimée à 3 ou 4 masses terrestres) et il doit être très éloigné pour justifier l’équilibre. Mais la Planète-9 n’est pas facile à détecter parce que, relativement aux autres, son périhélie devrait être extrêmement éloigné du Soleil, qu’elle se déplace de ce fait extrêmement lentement et que, comme tous les objets transneptuniens, elle doit avoir une luminosité, par réflexion, très faible. Depuis juillet 2019, « on » (Jacub Scholtz de l’Université de Durham et James Unwin de l’Université d’Illinois) envisage qu’elle puisse être un mini trou-noir, ce qui la rendrait encore plus difficile à « voir » (pour une telle masse, son diamètre serait celui d’une balle de tennis et elle ne serait visible que lors de l’absorption de matière !).

L’intérêt de ces astres KBO c’est qu’ils se sont formés très loin du Soleil donc qu’ils ont été peu modifiés par les radiations (en particulier la chaleur) qui en émanent. Dans cet esprit ce sont surtout les plus petits qui sont évidemment les moins modifiés, qui peuvent donner le meilleur témoignage du matériel de la nébuleuse protoplanétaire, à partir duquel se sont constitués les astres les plus massifs, les planètes et le Soleil.

Encore plus loin que la Ceinture de Kuiper, les Nuages de Oort, ne sont pour l’instant qu’une hypothèse (car on n’a rien pu observer en direct de cette région) toutefois solide car confortée par quelques expériences de comètes. Le premier à avoir envisagé ces « nuages » est l’astronome estonien Ernst Öpik, en 1932, puis l’idée a été reprise par le Hollandais, Jan Oort en 1950. Ils seraient aussi composés d’astres glacés mais ces astres auraient été très peu influencés par ce qui se passe « en-dessous » d’eux ; l’un, le nuage « extérieur » encore moins que l’autre, le nuage « intérieur » qui a dû recevoir quelques « projections » à l’époque de l’intrusion de Neptune dans la Ceinture de Kuiper. Ils font indubitablement parti du système solaire mais ne lui appartiennent que par l’effet d’une force de gravitation très éloignée donc très faible. Cette force est tellement faible que de nombreux éléments de ces nuages n’ont pu être entrainés par leur vitesse à descendre dans le disque de l’écliptique. Ils restent en quelques sortes « en suspension » (mais de ce fait à la merci d’une déstabilisation quelconque, même faible, y compris du passage d’une étoile voisine*). Physiquement ils sont composés de « tout ce qui reste » de matière ou d’éléments volatiles au-delà de la Ceinture de Kuiper et qui n’a pas été emporté/arraché par la force de gravité des étoiles voisines (mais dans cette zone le système solaire peut aussi saisir quelques opportunités pour s’enrichir du « matériel » enveloppant les autres étoiles !). De temps en temps une comète à longue période arrive jusque dans notre voisinage et nous en déduisons, en fonction aussi de sa vitesse, qu’elle vient de cette région très lointaine. On en déduit aussi que certains d’entre eux doivent être assez massifs (sans atteindre la taille de planétoïdes).

*Il y a 7,3 millions d’années l’étoile Algol est passée à 9,8 al du Soleil, Gliese 710, naine-orangée voisine, pourrait pénétrer le Nuage jusqu’à 13000 à 19000 UA du Soleil, dans 1,3 million d’années (d’après projections Gaia faites en 2016). Nos voisins n’ont pas toujours été les mêmes !

Aucun des astres qui composent les nuages de Oort n’a pu être observé in situ (trop faible luminosité) et nul instrument créé par la main de l’homme n’est jamais parvenu jusqu’à ce « nuage ». « Voyager 1 », la sonde de la NASA qui a quitté la Terre en 1977 et la machine créée par l’homme qui s’est éloignée le plus de nous, vogue actuellement à 22 milliards de km, c’est-à-dire à seulement 151 UA de la Terre, toujours dans la Ceinture de Kuiper, un peu au-delà de l’héliopause (vers 120 UA dans cette direction) mais toujours bien loin du Nuage de Oort intérieur. A la vitesse de 17 km/s (60.000 km/h), elle ne l’atteindra que dans 300 ans et elle atteindra le nuage extérieur dans 3000 ans ! A noter que le milieu défini par le vent solaire, l’héliosphère qui se termine par l’héliopause, s’arrête bien avant la limite jusqu’où s’exerce la force de gravité de notre étoile.

Le système solaire est donc une énorme sphère définie par un disque à son équateur dont le diamètre est d’environ 2 années-lumière alors que nous ne sommes même pas à une demi-heure lumière de Mars quand elle est au plus loin. La Ceinture d’astéroïdes est à une heure-lumière (entre 2,2 et 3,2 UA), Neptune est à 04:30 heures-lumière mais le Nuage de Kuiper s’étend de 04h30 à 6 jours-lumière et le nuage de Oort, de 6 jours-lumière à deux années-lumière (plus ou moins). Tous ces astres semblent très éloignés de nous et cependant à l’échelle de notre galaxie dont le diamètre est de 100.000 années-lumière, nous voyageons de concert, tout près les uns des autres. Notre bulle commune tourne autour du centre de la Voie Lactée, à 26.000 années-lumière, tout comme la Terre tourne autour du Soleil à seulement 8 minutes et quelques secondes-lumière, et tandis que notre système a fêté son 4567 millionième anniversaire à l’échelle de notre année terrestre actuelle, nous sommes peut-être au début de notre 20ème année galactique (en réalité probablement moins, compte tenu de la variation de la distance au centre galactique) qui devrait durer quelques 240 millions d’années terrestres, entrainés à la vitesse de 220 km/s (800.000 km/h) par le Soleil. Ces chiffres donnent le tournis et la mesure de notre insignifiance ! Et pourtant nous devons à notre corps extraordinaire et à notre esprit partie sublime de ce corps, nous devons à tous nos prédécesseurs dans la chaine de la vie, nous devons à tous les penseurs, à tous les chercheurs qui nous ont précédés, nous devons à tous ceux qui ont travaillé pour produire les ressources nécessaires pour qu’ils aient pu penser et chercher et que nous puissions continuer, le merveilleux niveau de connaissances et de compréhension que nous avons acquis de ce monde. En sommes-nous bien conscients et apprécions-nous à sa juste valeur cette chance et le fruit de cette évolution et de ce travail tout au long des siècles et des millénaires qui nous ont précédés ? Sommes-nous désireux, serons-nous capables de continuer, c’est-à-dire de transmettre nos connaissances et nos capacités pour qu’une conscience issue de nous soit toujours présente dans cet Univers lorsque nous aurons accompli notre vingtième année galactique, peut-être celle de l’accès à notre maturité ? Je l’espère de tout cœur, c’est-à-dire que plus précisément j’espère que nous saurons dominer la crise d’adolescence tardive qui nous éprouve en ce 21ème siècle de notre ère chrétienne, pour donner toutes les fleurs que nous avons le potentiel de faire éclore, y compris celles que l’on peut imaginer au-delà de notre chétive espèce humaine.

Illustration de titre : la coque des nuages de Oort enveloppe le système solaire.

Illustration ci-dessous : la comète Siding Spring passe à proximité de Mars. Photos du télescope spatial Hubble. La comète se trouve à 140.000 km de Mars le 19 octobre 2014. Avec une période de 740.000 ans, elle provient du Nuage de Oort. Crédit NASA, ESA, J.-Y. Li (PSI), C.M. Lisse (JHU/APL) et Hubble Heritage (STScl/AURA).

Lectures:

The structure of the clouds of comets surrounding the solar system, and an hypothesis concerning its origin, by J.H. Oort, in Bulletin of the Astronomical Institutes of the Netherlands, Jan 13th 1950:

http://adsabs.harvard.edu/full/1950BAN….11…91O

What if Planet 9 is a Primordial Black-hole?

https://arxiv.org/abs/1909.11090

Pour retrouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 21 01 22

 

Ajustement concernant le livre de Mme Ekström

A mes lecteurs,

Je viens de recevoir, ce midi, le livre de Mme Ekström et M. Nombela. Je l’ai parcouru et je constate qu’effectivement ma réaction à l’annonce de la publication de leur livre a été un peu trop brutale. Je prie les auteurs et mes lecteurs de m’en excuser. Je reviendrai sur le sujet à l’occasion d’un autre article que j’y consacrerai. Pour le moment disons que je considère que les auteurs, s’ils ont fait leur travail honnêtement, sont quand même trop pessimistes.

Je vois comme eux des difficultés dans le premier et sans doute le second voyages, principalement du fait de l’absence de comité d’accueil sur Mars. Mais je reste confiant sur (1) l’acceptabilité des conditions du voyage ; (2) la faiblesse du risque de manquer l’objectif et l’atterrissage sur Mars ; (3) la possibilité de survie en surface de Mars ; (4) la possibilité de « faire avec » la poussière martienne.

Je crois à la très forte interdépendance de l’homme et du milieu dans lequel il est apparu (j’ai écrit plusieurs articles dans ce blog sur le sujet de la coévolution, non reproductible, avec l’environnement terrestre) mais je pense que le développement de nos technologies peut lui permettre aujourd’hui de s’en distancer pour pouvoir vivre dans un autre environnement planétaire, celui de Mars, parce que les différences avec le nôtre ne sont pas insurmontables (et sous réserve bien entendu d’un approvisionnement en produits essentiels tous les 26 mois tant que l’on ne sera pas capable de les produire sur Mars).

Je ne crois pas que l’apport de microbes terrestres sur Mars empêcherait l’identification de possibles microbes martiens (au moins une partie de leur génome garderait la trace de leur origine différente).

Comme je l’ai toujours dit, je pense que l’installation de l’homme sur Mars sera difficile mais qu’on peut la tenter. Je ne crois pas à la faisabilité de la terraformation et j’ai beaucoup de mal à envisager une colonie importante sur Mars. Je pense que de toute façon elle grandira très progressivement (comme image : l’Antarctique puis l’Islande). J’ai accepté de participer au concours de la Mars Society pour imaginer une ville de 1000 habitants mais refusé de participer à celui portant sur un établissement d’un million d’habitants.

Je pense que l’exploration par vols habités, qui à mon avis se fera, conduira inévitablement à l’installation d’un petit établissement qui ensuite devrait pouvoir grandir. Je prends l’ouvrage de Mme Ekström et M. Nombela comme une stimulation pour prouver que leur pessimisme est injustifié.

Jupiter, reine des planètes, astre qui aurait pu nous empêcher de naître mais qui en fait nous protège

S’intéresser à Jupiter c’est non seulement s’intéresser à la reine des planètes de notre système, c’est aussi s’intéresser à la structure des autres systèmes, tant les géantes gazeuses sont importantes pour et dans la vie des autres planètes quel que soit le système considéré.

Nous connaissons de mieux en mieux « notre » Jupiter, depuis les sondes qui ont été envoyées dans son environnement et surtout celles des missions Galileo (1995 à 2003) et Juno de la NASA qui l’explore depuis juin 2016 (27èmeorbite en cours sur 31 prévues, chacune passant, à son périastre, à 5000 km seulement de la « surface » ) et doit continuer jusqu’en juillet 2021. Même si on l’avait observée auparavant, ce qui était relativement facile vue sa taille (premier objet pointé par Galilée avec sa lunette en 1610), on a appris énormément sur elle ces dernières années…et évidemment elle n’est pas tout à fait celle que l’on croyait.

Pour nous situer, parlons de distance, de matière et de masse. Jupiter évolue entre 740 et 817 millions de km du Soleil et donc entre 590 et 967 millions de la Terre, soit au maximum à 44 minutes-lumière. Elle est « à côté de nous » en termes cosmiques mais l’orbiteur Juno a mis quand même 5 ans pour parvenir sur place, emporté par une fusée très puissante (Atlas V-551). C’est une planète gazeuse. Qu’elle soit gazeuse on s’en est aperçu très vite car non seulement on ne voit d’elle que son atmosphère avec très visiblement des nuages qui évoluent, mais surtout son rapport masse / volume est tel que les éléments très légers ne peuvent être que dominants (diamètre 143.000 km, densité 1,326 g/cm3 à comparer aux 5,51 g/cm3 de celle de la Terre). Ce qui est intéressant, c’est qu’elle est largement composée d’hydrogène et d’hélium comme le reste de l’Univers mais avec nettement plus d’éléments lourds (au-dessus de l’hélium) que le Soleil. Il faut bien distinguer l’atmosphère que l’on peut observer visuellement et l’intérieur de la planète. Plus on s’enfonce dans la planète, plus le pourcentage des éléments autres que l’hydrogène s’élève. La haute atmosphère est composée à 90% / 10% d’hydrogène et d’hélium. Dans le spectre de surface on observe un peu (jusqu’à 1%) d’éléments autres et en profondeur on doit avoir une répartition 71 ; 24 ; 5. Les « autres » éléments sont très variés : eau, méthane, hydrogène sulfuré, néon, oxygène, phosphine, carbone, éthane, soufre, cristaux d’ammoniac, composés silicatés, en fait les éléments lourds ou leur dérivés qui étaient présents dans la nébuleuse primitive car Jupiter n’a pas la masse nécessaire pour faire démarrer puis entretenir un processus de fusion nucléaire et en créer de nouveaux (ce qui n’exclut cependant pas les réactions physico-chimiques permises par le milieu). Elle a une masse de 318 fois la Terre (Saturne de 95 fois et le Soleil de 333.000 fois !). Une naine brune, la moins massive et la plus faible des étoiles, doit atteindre un minimum légèrement supérieur à 4.000 masses terrestres (et se situer entre 13 et 75 masses joviennes) pour pouvoir « s’allumer » (très faiblement !) c’est-à-dire pour que le premier stade de la nucléosynthèse, fusion d’hydrogène en deutérium, puisse débuter en son sein du fait de la pression (et donc de la température) générée par la force de gravité. On voit donc bien que Jupiter n’est pas une étoile. Cependant Jupiter n’est pas non plus une planète comme les autres.

La masse et la pression qu’elle génère du fait de la force gravitationnelle, font passer sa matière par des états très différents sur une pente de température extrêmement longue. On part de l’hydrogène gazeux, en « surface », choisie arbitrairement comme l’altitude où la pression est de 1 bar (mais l’attraction gravitationnelle 2,5 fois celle de la Terre au niveau de la mer), pour aller à l’hydrogène moléculaire-liquide vers 1.000 km de profondeur, pour aboutir à l’hydrogène métallique-liquide (aspect du mercure sur la Terre) vers 15.000 km de profondeur. La température s’échauffe beaucoup, de 200 K à 900 K, dans la thermosphère, entre 320 km et 1000 km d’altitude (radiations) mais elle est relativement froide dans la stratosphère et en surface, 103 K (-160°C), jusqu’à la tropopause à -50 km. Ensuite elle remonte très vite (400 K à la profondeur de -132 km atteints par la sonde Galileo en 2003). Au passage en phase métallique, elle atteint 10.000 K. Au centre de la planète la pression doit être de 70 Mbar et la température de plus de 35.000 K.

Jupiter émet plus de radiations qu’elle n’en reçoit du Soleil. Cela est dû à son refroidissement constant, résultant de sa situation dans un environnement plus froid qu’elle. La perte de chaleur entraine une baisse de pression donc une contraction donc à la fois un rayonnement vers l’extérieur et un réchauffement du cœur (réaction de Kelvin-Helmholtz). Mais ce qui est le plus remarquable c’est la magnétosphère. Comme la Terre, la planète génère un champ magnétique par effet dynamo. Le résultat est très spectaculaire avec une magnétosphère gigantesque due à un champ magnétique extrêmement puissant, deux fois plus que prévu (voir illustration de titre). Dans la direction du Soleil, l’onde de choc est située à une centaine de diamètre de la planète, à l’opposé la « magnétoqueue » va jusqu’au-delà de l’orbite de Saturne. La cause du champ magnétique est très certainement due à l’hydrogène métallique ou plutôt au frottement de la surface de ce volume avec l’énorme enveloppe supérieure d’hydrogène liquide, frottement favorisé par la vitesse de rotation très élevée (09h55 en surface, soit une vitesse considérable de 42.000 km/h à l’équateur, contre 1.600 km/h pour la Terre). La magnétosphère qui en résulte a une incidence sur les satellites qui baignent dans ce champ qui est parcouru de radiations intenses ; l’apoastre d’Europa ne se trouve qu’à 677.000 km de Jupiter (rayon 74.000 km). C’est incontestablement une difficulté pour les explorer !

Jupiter est typique des planètes qui se sont formées au-delà de la ligne de glace de leur étoile. C’est-à-dire qu’étant au-delà d’une certaine distance, l’irradiance du jeune Soleil n’a pu chasser les éléments les plus légers qui se trouvaient dans sa zone d’accrétion et que Jupiter, comme les autres géantes gazeuses situées encore plus loin qu’elle du Soleil, a concentré par force de gravité la matière qui se trouvait après cette ligne de glace et qui orbitait à une certaine vitesse facilitant les tourbillons (fonction aussi de la distance à l’étoile selon la troisième loi de Kepler). Etant donné que les éléments volatils se trouvant dans la proximité du Soleil et rejetés par le vent solaire avaient dû s’accumuler davantage dans la zone circulaire la moins éloignée de cette ligne, comme une sorte de bourrelet ou de tore, c’est là que devait se trouver la zone la plus dense de la nébuleuse planétaire perturbée par le jeune Soleil et donc là ou devait se former la plus grosse planète. Et c’est bien là que s’est formée Jupiter.

Les mêmes causes produisant les mêmes effets, le même phénomène s’est produit dans les autres systèmes planétaires. Mais la similitude s’arrête là car ensuite interviennent les particularités propres à chaque système. Dans la généralité des cas, les « jupiters » (planètes semblables formées dans les mêmes conditions) sont descendues en spiralant vers leur étoile tant qu’elles ont trouvé de la matière a accréter (chaque absorption freinant la planète et déplaçant son centre de gravité dans la direction de sa trajectoire) pour devenir des « jupiters-chauds », énormes boules de gaz (nonobstant ce qui peut constituer leur noyau) orbitant plus ou moins à la distance de Mercure de leur étoile après avoir absorbé toute matière sur leur passage, y compris les matières solides qui dans notre système constituent les planètes telluriques. Dans une région beaucoup plus chaude que notre Jupiter, ces planètes sont pour la même masse beaucoup moins dense donc beaucoup plus volumineuses. Chez nous, le processus a commencé comme ailleurs. Et c’est ainsi que Jupiter a absorbé une bonne partie de la matière se trouvant en dessous d’elle dans ce qui allait devenir la Ceinture d’Astéroïdes, et dispersé les autres, créant un joyeux mélange entre les astéroïdes riches en glace d’eau et les astéroïdes secs (selon qu’ils se trouvaient au-delà ou en-deçà de la ligne de glace). Elle a même continué à descendre et à absorber de la matière dans la zone qui serait ultérieurement concentrée pour constituer la planète Mars (qui ne fait que 1/10ème de la masse terrestre alors qu’elle aurait dû être beaucoup plus grosse). Mais la particularité de notre système, exposée brillamment par Alessandro Morbidelli de l’Observatoire de Nice-Côte-d’Azur en 2005, c’est que Jupiter n’a pas continué longtemps sa course dévastatrice car elle a été « rattrapée par les cheveux » par sa compagne Saturne qui la suivait dans son sillage, répondant à la même logique gravitationnelle. C’est en effet alors que Jupiter grignotait la matière orbitant le Soleil dans la zone de la future Mars, que Saturne entra dans une certaine configuration orbitale avec Jupiter, une « résonnance » particulière de 3 : 2 (3 parcours d’orbite de Jupiter pour 2 de Saturne), qui permit au couple de former un ensemble gravitationnel évoluant ensemble dans le système et pratiquement de faire revenir « en arrière » les deux planètes (le « Grand-Tack » ou le « Grand-rebroussement » comme l’appelle Alessandro Morbidelli). Le phénomène se déroule ensuite en repoussant Uranus et Neptune vers l’extérieur du système donc à l’intérieur de la ceinture des corps glacés de la Ceinture de Kuiper, ce qui déclenche une averse d’astéroïdes sur les planètes intérieurs, le Grand-bombardement-tardif vers -4 milliards d’années qui nous apporte une partie de notre eau. Jupiter est ainsi retournée vers l’extérieur du système, plus loin que son site de formation et enrichie de beaucoup de matière collectée pendant le voyage. Une autre conséquence de cette jeunesse tumultueuse, remarquée à l’occasion des observations de Juno (en longeant le flanc de Jupiter, la sonde peut en percevoir les différences de gravité), c’est que son noyau que l’on pensait compact (et de l’ordre de 12 à 45 fois la masse terrestre) est en fait diffus dans la région centrale (une région beaucoup plus étendue que ce que l’on pensait être le noyau, estimée s’étendre presque jusqu’à la moitié du rayon de la planète). On ne comprend pas très bien pourquoi mais on pense que c’est le résultat de l’impact tardif d’un gros planétoïde – de l’ordre de 10 fois la masse terrestre – qui n’aurait pas été résorbé du fait de la trop forte densité de la zone centrale (figeant la destruction du noyau dans cet état « épars »).

Quoi qu’il en soit, Jupiter non seulement avait épargné la Terre, Vénus, Mercure et, un peu, Mars, mais revenue à sa place, elle joua un rôle protecteur important pour tout ce qui se trouvait en-dessous d’elle vers le Soleil. En effet les astéroïdes décrochant, pour une raison ou une autre, de la Ceinture de Kuiper ou même des nuages de Oort, avaient plus d’opportunité d’être capturés gravitationnellement par Jupiter, après avoir passé les filets de Neptune, Uranus et Saturne (les planètes massives sont des puits de gravité d’autant plus attractifs que les corps qui l’approchent sont petits). Ainsi après l’épisode dramatique du LHB, l’évolution des planètes telluriques fut moins perturbée qu’elle aurait pu l’être, ce qui créa de meilleures conditions pour l’épanouissement de la vie sur Terre.

Illustration de titre : magnétosphère jovienne, vue d’artiste : crédit NASA/JPL

Liens :

https://www.nasa.gov/feature/jpl/nasas-juno-spacecraft-updates-quarter-century-jupiter-mystery

https://en.wikipedia.org/wiki/Jupiter

https://www.missionjuno.swri.edu/science-findings/

https://www.missionjuno.swri.edu/origin?show=hs_origin_story_whats-in-jupiter-core

Nature, volume 572, pages 355–357(2019) The formation of Jupiter’s diluted core by a giant impact Published: 14 August 2019 par Shang-Fei Liu, et al.

https://www.zmescience.com/other/feature-post/what-is-jupiter-made-of-0534543/

https://eos.org/articles/massive-collision-cracked-young-jupiters-core

Illustration ci-dessous, Les températures sur Jupiter, https://fr.wikipedia.org/wiki/Fichier:Structure_of_Jovian_atmosphere.png

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 12 29

Madame Ekström, votre réquisitoire contre l’installation de l’homme sur Mars, est mal fondé

Sylvia Ekström, astrophysicienne de l’Université de Genève vient de publier aux Editions Favre, avec son mari, Javier Nombela, graphiste, un livre dont le titre est « Nous ne vivrons pas sur Mars ni ailleurs ». C’est un véritable réquisitoire et il me semble tout à fait mal fondé et mal argumenté. L’autrice part d’un a priori négatif sur l’installation de l’homme sur Mars, d’une méconnaissance du travail qui est fait pour apporter des solutions aux problèmes réels qui se posent, et aussi d’une incompréhension des motivations qui animent les partisans du projet. Me sentant personnellement agressé, je réponds.

La microgravité est présentée comme un obstacle rédhibitoire au voyage. J’ai déjà exposé dans ce blog que nous avons tout à fait conscience du problème. Pour y répondre il faut bien distinguer les tout premiers voyages où il n’y aura personne à l’accueil sur Mars et les voyages ultérieurs. Pour les premiers, les astronautes devront faire un effort particulier pour se maintenir « en forme » et on peut envisager la création à bord des vaisseaux, d’une gravité artificielle par force centrifuge. Le concept théorisé par Robert Zubrin, est de relier le nez d’un couple de vaisseaux-spatiaux par des filins (supposons le Starship d’Elon Musk) et de mettre le couple en rotation. En dehors de la gravité terrestre et de l’atmosphère, le mouvement se conserve une fois l’impulsion donnée sans qu’il soit nécessaire de fournir continument de l’énergie. Il suffirait d’un jeu de filins de quelques 170 mètres de longueur pour recréer dans les compartiments habitables des vaisseaux une gravité tout à fait suffisante, (de type martien pour 2 rotations du couple par minute). Pour les voyages suivants, étant donné qu’il y aura des personnes à l’arrivée, les passagers pourront supporter une période de quelques jours de « réacclimatation » à la gravité (dans l’hypothèse où la génération de gravité par force centrifuge s’avérerait trop compliqué à mettre en place). Sur Mars on n’aura certes qu’une gravité de 0,38g et il faudra l’expérimenter pour savoir si elle est supportable sur le long terme (c’est-à-dire suffisante pour le bon fonctionnement des organes à l’intérieur du corps) mais on peut déjà dire qu’avec 0,38g la verticalité (sens du haut et du bas, écoulement) qui manque en microgravité, serait restituée. On peut ajouter qu’on aura pour sortir sur la planète un équipement d’une masse de quelques dizaines de kg qu’il vaudra mieux pouvoir porter ; à l’intérieur des habitats, on pourra circuler avec des semelles lourdes (« de plomb ») et éventuellement avec une veste-antiradiations (type astrorad).

L’atmosphère ténue est le second facteur présenté comme rédhibitoire. C’est effectivement un problème puisque cela impose le port d’un scaphandre mais 610 pascals (en moyenne) ce n’est pas rien. C’est beaucoup plus que sur la Lune sans atmosphère aucune. Cela permet quand même de consumer les plus petites et les plus nombreuses des micrométéorites. Cela permet aussi d’avoir une ressource abondante d’éléments chimiques utiles pour la vie (carbone et oxygène puisque l’atmosphère est composée à 95% de gaz carbonique). Cela permet encore de faire voler certains engins ultra-légers. L’expérience de l’hélicoptère va être tentée par la prochaine mission de la NASA (Perseverance) mais on peut aussi envisager des ballons dirigeables pour transporter de petites masses, comme des instruments d’observation.

Les radiations sont le troisième obstacle mentionné par Madame Ekström. Leur niveau constitue effectivement un problème mais sur la moitié de la planète (aux altitudes les plus basses telles que dans les Basse terres du Nord, le Bassin d’Hellas, le fond des grands cratères) ce niveau des radiations est atténué par la pression légèrement plus élevée de l’atmosphère (1100 pascals au fond du bassin d’Héllas). Partout, il l’est par le sol de la planète qui fait écran à une bonne partie de ce qu’on pourrait recevoir dans l’espace profond à la même distance du Soleil. Le résultat c’est que sur Mars, dans le fond du Cratère Gale (où elles ont été mesurées par l’instrument RAD du rover Curiosity), on ne reçoit que la moitié de ce qu’on reçoit dans l’espace profond et la même dose que l’on reçoit dans la Station Spatiale Internationale (ISS). Par ailleurs, une fois sur Mars, on n’aura pas besoin de passer des heures à l’extérieur des habitats ou des véhicules protégés. La plupart des hommes d’aujourd’hui passe-t-il plus de deux heures chaque jour « à l’extérieur » ?  Ce qui est important c’est que les hommes sur Mars pourront commander, en direct, partout en surface de la planète, des robots qui agiront pour eux. Le gros problème pour les scientifiques aujourd’hui c’est qu’il y a un décalage de temps entre les ordres que l’on donne aux robots et la prise de connaissance que l’on a de leur action. Les deux planètes sont séparées de 55 millions à 400 millions de km et cela représente un décalage incompressible de 3 à 22 minutes pour que la lumière transporte les messages, dans chaque sens. Les robots ne peuvent donc pas être commandés en direct depuis la Terre, ils doivent être programmés. Rien que pour cette raison le séjour de l’homme sur Mars serait justifié (et celui sur la Lune ne l’est pas sauf pour de brèves incursions).

L’isolement et le confinement sont le quatrième obstacle mentionné par Madame Ekström. Cela n’est pas sérieux ! Les premiers explorateurs seront effectivement isolés mais ce seront des explorateurs, c’est-à-dire des gens tout à fait particuliers par rapport à la population générale. A-t-on évoqué ce problème vis-à-vis d’Ernest Shackleton avant qu’il parte explorer l’Antarctique ? Pour la suite il y aura probablement de moins en moins d’appréhension pour les partants, l’inconnu devenant de plus en plus connu et le nombre de personnes présentes sur Mars augmentant. Les gens qui séjournent aujourd’hui dans la Station Concordia au cœur de l’Antarctique ne sont pas particulièrement malheureux. Quant au confinement, le questionnement de Madame Ekström serait presque risible. Certes pendant le voyage de 6 mois je veux bien que les conditions soient un peu difficiles de ce point de vue mais d’autres astronautes ont déjà traversé des périodes aussi longues dans la Station Spatiale Internationale sans que cela leur soit inusportable. Par contre, une fois sur Mars, étant donné l’immensité de la planète, précisément vide d’habitants, comment parler de « confinement » alors qu’ils auront la possibilité de sortir de l’habitat ? Madame Ekström se sent-elle confinée quand elle se trouve dans son appartement en Suisse plutôt que dans la rue ? Pour renforcer le côté « noir » de son tableau, Madame Ekström évoque en plus le fait que les habitats n’auraient pas de fenêtre. Quelle drôle d’idée ! Même dans la Station Spatiale Internationale il y a une pièce avec hublot (la « coupole »). Pourquoi n’y en aurait-il pas sur Mars, en plusieurs exemplaires, alors qu’on pourra y produire du verre (de l’épaisseur qu’on voudra) à partir de la silice locale (abondante) et qu’on pourra en agrémenter soit les habitats creusés dans les pentes, soit ceux qu’on aura construits avec le fer (donc l’acier) qu’on pourra exploiter sur place. Supposer que l’on va vivre dans des bidons pressurisés sans fenêtre est une insulte aux personnes qualifiées qui ont déjà fait un travail important sur les habitats martiens (la NASA mais aussi, entre autres, « The Mars Homestead project » dirigé par Bruce McKenzie, ingénieur diplômé du MIT qui travaille sur le sujet depuis le milieu des années 1990, bien sûr la Mars Society américaine et moi-même avec l’aide d’un ingénieur polytechnicien français, Richard Heidmann).

La mauvaise qualité organoleptique de la nourriture à laquelle on serait obligé de recourir est le cinquième obstacle mentionné par Madame Ekström. Elle n’aime apparemment pas le « lyophilisé ». Est-ce si grave ? la nourriture lyophilisée ou congelée (que l’on pourra aussi stocker pendant la durée de 30 mois de la mission) est excellente (aussi bien au goût que, me semble-t-il, pour la santé). Moi-même je m’en nourri volontiers, sur Terre, même lorsque j’ai le choix alternatif d’une nourriture « fraiche ». Les produits que l’on trouve chez les commerçants équipés et fournis démontrent bien que la population les consomme, sans aucune retenue. C’est pratique, c’est très sain, c’est très bon. Par ailleurs dès les premières expéditions on tentera de cultiver des produits frais sous serre (et on en disposera en petites quantités) car il est évidemment inutile d’emporter sa nourriture avec soi depuis la Terre (ce qui représente de la masse et du volume) si on peut la produire sur place. Le rythme circadien de Mars (jours de 24h39) et l’irradiance solaire à cette distance du Soleil le permettra même s’il faudra sans doute fournir un surplus ou un « back-up » d’énergie (très certainement nucléaire) pour la saison froide australe (où l’irradiance est la plus faible) et pour pallier l’insuffisance d’énergie « naturelle » pendant les tempêtes de poussière. Quant à l’eau, Madame Ekström ne le sait peut-être pas (?) mais il y a de l’eau sur Mars, beaucoup en certains endroits (même si évidemment il y en a moins que sur Terre), celle des banquises aux latitudes moyennes et même basses, formées lors des périodes de glaciation récentes (changement périodique d’inclinaison de l’axe de rotation de la planète sur le plan de l’écliptique). Donc avec de l’eau, du Soleil, des graines, des fertilisants (qu’il faudra bien sûr importer à moins de les fabriquer sur place…ce qui viendra car il y a les éléments chimiques nécessaires notamment de l’azote), on pourra très bien cultiver des produits frais sur Mars dans des bacs et par hydroponie (pour ne pas gâcher l’eau, les produits fertilisants et éviter la poussière de sels de perchlorates couvrant le sol).

Le risque de manquer d’ergols pour revenir sur Terre est le sixième obstacle rédhibitoire mentionné par Madame Ekström. Elle n’a sans doute jamais entendu parler de la proposition de Robert Zubrin, fondateur de la Mars Society aux Etats-Unis (et chimiste de formation) même si elle est très connue là-bas, y compris à la NASA qui l’envisage très sérieusement. Il s’agit tout simplement d’exploiter le gaz carbonique de l’atmosphère pour produire du méthane et de l’oxygène par réaction de Sabatier moyennant l’apport d’une partie d’hydrogène pour 18 de CO2 (que l’on peut obtenir facilement par électrolyse de la glace d’eau martienne). La réaction de Sabatier est connue depuis la fin du 19ème siècle et l’utiliser ne présente aucune difficulté particulière moyennant un apport d’énergie que l’on peut obtenir d’un petit réacteur nucléaire (même d’un RTG, générateur thermoélectrique à radioisotope, instrument à faible puissance mais qui est très robuste). Le méthane brule très bien dans l’oxygène et les deux forment un couple carburant / comburant tout à fait exploitable par nos fusées. Pour la première mission habitée, l’idée de Robert Zubrin, reprise d’ailleurs par la NASA, est de produire ces ergols par une mission robotique lors de la fenêtre de lancement précédente et de ne faire partir cette première mission habitée qu’après avoir constaté que les ergols ont été effectivement correctement produit et stockés. Pour « la suite » ce sera plus facile.

Le risque de ne pas pouvoir supporter la poussière est le septième obstacle rédhibitoire mentionné par Madame Ekström. Ce problème n’est pas non plus insurmontable. On ne sortira évidemment pas, sauf urgence, pendant les tempêtes de poussière. Et si les tempêtes globales (a priori les plus longues) ne sont pas exceptionnelles (toutes les 3 années martiennes, soit tous les 8 à 9 ans), elles ne sont pas non plus permanentes et en dehors de ces périodes il y a très peu de poussière en suspension dans l’air (l’atmosphère est trop ténue). Il faudra simplement prévoir un dépoussiérage des équipements utilisés en extérieur et un nettoyage efficace des scaphandres dans les sas d’entrée des habitats. Ce n’est pas une impossibilité technologique.

Madame Ekström ajoute à son argumentation qu’Elon Musk veut promouvoir l’installation de l’homme sur Mars, simplement à des fins d’enrichissement personnel (il « vend du rêve pour vendre quelque chose derrière » dit-elle !). C’est absolument méconnaître Elon Musk et je le connais suffisamment (indirectement via mes amis américains car il a été un des membres fondateurs de la Mars Society) pour pouvoir affirmer que c’est totalement faux. Elon Musk est habité par la volonté d’installer une branche de l’humanité sur Mars. C’est cela qui le motive, l’argent qu’il gagne dans ses différentes entreprises est totalement au service de cette ambition. On peut lui reprocher certaines choses, comme le lancement des constellations « Starlink » dans l’espace terrestre proche (qui pour moi induit une pollution inacceptable de ce milieu), mais pas la passion de l’argent pour l’argent. Il n’est pas nécessaire de joindre l’insulte à l’incompréhension.

Pour terminer, Madame Ekström constate que l’homme est le produit de son environnement terrestre et qu’il n’est pas envisageable qu’il vive ailleurs que sur Terre. Si elle avait vécu il y a quelques 50.000 ans (pour donner une date, mais on a trouvé des traces de nos ancêtres datant de 45.000 ans en Bulgarie !) dans une tribu d’homo-sapiens en Afrique et que l’écriture ait été inventée, aurait-elle déclaré que l’homme ne pourrait jamais vivre en dehors de sa savane natale ? C’était vrai à une certaine époque et puis l’évolution technologique a fait que cette limitation a évolué. Aujourd’hui nous pouvons vivre partout sur Terre, même en Antarctique, et notre technologie nous permet d’envisager de vivre sur Mars. Pourquoi ne pas essayer ?

En conclusion j’ai lu que Madame Ekström est une spécialiste des étoiles-primordiales ce qui est un sujet passionnant qui m’intéresse également beaucoup et que son mari, Monsieur Nombela, est un « graphiste spécialisé dans la représentation visuelle du temps ». Ce n’est pas pour autant qu’ils sont des spécialistes de Mars et encore moins de l’ingénieurie qui permettrait de s’y installer. Maitrîser la problématique de la compréhension du fonctionnement des étoiles n’implique pas la maitrise de la problématique de l’installation de l’homme sur Mars. Il me semble que Madame Ekström a plutôt moins de légitimité que moi pour en parler de de façon pertinente. Je travaille sur le sujet depuis 1995 et Madame Ekström depuis beaucoup moins longtemps (elle n’a obtenu son doctorat sur les étoiles-primordiales qu’en 2004 et s’est spécialisée ensuite sur les étoiles-massives ; je pense qu’elle ne s’est pas précipitée alors pour étudier la faisabilité de l’installation de l’homme sur Mars!). J’accepte volontiers que l’on ne partage pas affectivement (c’est-à-dire en dehors de toute considération rationnelle ou scientifique) notre projet et que l’on exprime des critiques si elles sont constructives. Ce que je reproche à ces personnes c’est une opposition a priori et, à mon avis, de mauvaise foi. La caution de Michel Mayor spécialiste des exoplanètes ne change rien au tableau.

Illustration de titre: l’homme sur Mars, vue d’artiste, crédit NASA/CalTech. L’homme en scaphandre contemple le paysage de son nouveau monde. Il est arrivé sur ce promontoire avec un rover pressurisé. Le cercle qui encadre la vue est un des hublots du véhicule au travers duquel ses compagnons ont pris la photo. Au fond, loin devant, des lumières brillent, celles de la base, leur foyer. Je suis certain qu’il ne se sent ni seul, ni confiné.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 12 29

Le bestiaire galactique ne semble pas si compliqué…mais seulement vu de loin !

Une galaxie est une concentration d’étoiles réunies par la force de gravité. Il y en a de plusieurs sortes, certaines « vives » (qui donnent de nouvelles étoiles) et certaines « passives » (qui n’en donnent pas ou très peu). Toutes évoluent depuis l’origine des temps, en interne et des fois mais de moins en moins, par des rencontres ou plutôt des collisions car l’Espace est grand mais les galaxies aussi et la force de gravité omniprésente. En fin de compte, comme tout objet créé, elles mourront.

Les trois grandes catégories de galaxies sont les elliptiques, les spirales, les irrégulières. Comme on le constate les distinctions sont purement descriptives. Edwin Hubble qui a compris en 1920 que ce qu’on appelait « les nébuleuses » étaient d’autres Voies-lactées en dehors de la nôtre, avait établi en 1926 une « séquence » qu’il pensait correspondre à leur évolution (voir illustration de titre). Il partait de l’elliptique la plus sphérique en allant vers la plus ovale pour passer ensuite aux deux branches des spirales (« barrées » ou non), d’autant plus évoluées que leurs bras étaient plus ouverts. Nous n’en sommes plus là car il semble aujourd’hui que les elliptiques n’ont probablement pas précédé les spirales mais qu’au contraire elles résulteraient de leur fusion (beaucoup moins nombreuses aujourd’hui qu’au début de l’histoire des galaxies, du fait de l’expansion de l’Univers) !

Tout d’abord il faut dire qu’on comprend mieux qu’à l’époque de Hubble la logique qui préside à la formation des galaxies. Au départ (Big-bang+380.000 ans), les anisotropies (irrégularités) de la Surface-de-dernière-diffusion (lors de la libération de la lumière) induisent des fluctuations de densités dans les gaz primordiaux (presque uniquement hydrogène et un petit peu d’hélium) qui se concentrent progressivement en nuages distincts au fur et à mesure que l’expansion les séparent et que la température baisse. La force de gravité agit sur les masses, la densité des nuages plus froids augmente et des protogalaxies se forment. A l’intérieur de ces protogalaxies, les irrégularités de la distribution du gaz, toujours causées par la gravité, provoquent des concentrations plus fortes (et donc de plus en plus de chaleur plus on va vers le centre) qui donnent naissance aux étoiles tout en laissant entre elles d’abondants nuages de gaz. On atteint ainsi le stade des premières galaxies, qui se différencient des nuages précisément parce qu’elles contiennent des étoiles. Ces premières galaxies sont dites « sombres » non parce qu’elles ne sont pas lumineuses (bien qu’au début, elles doivent contenir peu d’étoiles) mais tout simplement parce qu’elles sont dissimulées par le brouillard prévalant pendant la période (d’où l’expression « d’Ages-sombres »).

Au sein des galaxies les étoiles sont entrainées par la force de gravité dans une rotation autour de leur centre qui a priori contient toujours un trou-noir (de masse proportionnelle à la galaxie) comme un système planétaire est centré autour d’une étoile, en raison de la densité plus forte au centre. Une première distinction entre les galaxies elliptiques et les spirales est que dans ces dernières le mouvement des étoiles ne s’effectue pas principalement dans le plan d’un disque mais dans de multiples plans autour du centre ponctuel. Une galaxie elliptique n’est pas « plate » comme une galaxie spirale mais tridimensionnelle (en “oubliant”, pour simplifier, le bulbe).

A l’intérieur d’une galaxie, les étoiles se forment, de masses différentes selon la disponibilité et la densité du gaz. « Il y a de tout », des grosses et des petites, depuis les naines brunes (0,08 masses solaires) jusqu’aux géantes (8 à 100 masses solaires…et plus) en passant par les naines jaunes (0,6 masses solaires et jusqu’à 8 masses solaires) et par les naines rouges (entre 0,08 et 0,6 masses solaires). Lorsqu’elles sont « massives » elles explosent très vite (après deux ou trois millions d’années seulement) répandant leur matière à des vitesses relativistes (pourcentage relativement élevé de la vitesse de la lumière, disons à partir de 10%), comprimant ainsi les nuages de gaz subsistant dans leur environnement et provoquant de nouvelles concentrations de matière donc d’étoiles. Notre Soleil est né comme cela après la mort par supernova d’une étoile géante qui a très probablement donné aussi naissance à une ou des étoiles sœurs dont on a perdu la trace car chacune était animée d’une vitesse différente sur une trajectoire différente, ou bien parce que l’une d’entre elle(s) était une étoile géante et qu’elle est morte depuis très longtemps.

Les galaxies elliptiques, sphériques ou oblongues, sont de tailles très variables (de 3.000 à 700.000 années-lumière de diamètre) en fait certaines sont beaucoup plus grandes que les plus grandes des galaxies spirales (de 50.000 à 200.000 années-lumière). Mais la caractéristique principale est qu’elles sont pauvres en gaz. Elles sont donc très peu propices à la naissance de nouvelles étoiles. Cela sous-entend aussi qu’elles contiennent peu d’étoiles massives puisque ce sont celles qui rassemblent puis qui diffusent le plus de matière dans leur environnement, et qu’elles ont une vie courte. Elles contiennent donc également beaucoup de vieilles étoiles (lumière tendant vers le rouge).

Les galaxies spirales sont des galaxies « vivantes », à l’intérieur desquelles les brassages sont nombreux, la raison principale étant l’abondance des nuages d’hydrogène. Ces nuages sont des pépinières d’étoiles qui s’expriment par de nouvelles naissances lors de chaque contraction occasionnée par un événement tel qu’une supernova, particulièrement fréquentes dans les régions denses près du centre ou dans les bras spiraux. Ces étoiles jeunes et plutôt massives brillent plutôt en bleu. Cette jeunesse implique que la métallicité (richesse en éléments plus lourds que l’hydrogène ou l’hélium) est beaucoup plus élevée dans les spirales que dans les elliptiques.

Mais les galaxies ne contiennent pas que de la matière baryonique et du vide. Une des raisons qui ont mis les astrophysiciens sur la piste de la matière noire est que la vitesse de rotation des étoiles distantes du centre galactique des étoiles spirales (comme par exemple le Soleil qui se trouve à 26.000 années-lumière du centre de la Voie-Lactée qui a un rayon de quelques 50.000 années-lumière) est telle qu’elle serait au sein d’une masse beaucoup plus étendue. La masse s’étendant bien au-delà des limites visibles du disque, serait la fameuse « matière noire » (qui pourrait aussi être présente à l’intérieur du disque) NB: on ne parle pas ici d’antimatière qui doit être très rare dans l’Univers puisque détruite en quasi totalité “dans l’oeuf” mais de matière noire.

Si l’on peut dire que les galaxies sont vivantes c’est que leurs étoiles le sont, c’est-à-dire que non seulement elles naissent mais qu’aussi elles meurent. J’ai déjà parlé des étoiles massives qui enrichissent leur environnement mais il y a aussi les naines-jaunes comme notre Soleil, dont la maturation est très longue et aussi les naines-rouges ou les naines-brunes, toutes deux très nombreuses et dont la maturation est encore plus longue. Les naines-jaunes vont nourrir l’espace comme leurs sœurs géantes avec les éléments « métalliques » qu’elles auront produits et donner in-fine des naines-blanches (constituées de « matière électronique dégénérée »). Les naines rouges et les naines brunes vont évoluer, c’est-à-dire se refroidir, très lentement, pour donner toutes, un jour, comme les naines-blanches, des naines-noires. Les naines-rouges et les naines-brunes sont donc en partie l’expression de la vie des galaxies mais elles y contribuent très peu. Petit à petit (mais dans très longtemps) ces étoiles mortes seront absorbées par le trou-noir central de leur galaxie, et les astres errants hors galaxies (il y en a, évidemment difficile à observer !) seront dispersés dans le vide. Un jour, tous les feux seront éteints dans un Univers désert (l’expansion accélérée va éloigner de plus en plus les galaxies puis les astres les uns des autres) et très froid.

Un autre facteur d’enrichissement et d’évolution est celui des collisions de galaxies. C’est le jeu des forces gravitationnelles combinées à celle de l’expansion qui les provoque. Les galaxies se fuient les unes les autres en raison de cette dernière, sauf celles qui sont en relation gravitationnelle du fait de leur proximité et de leurs masses. Ainsi la Voie Lactée et sa voisine la Galaxie d’Andromède se rapprochent à 130 km/s et « un jour » (dit-on dans 4 ou 5 milliards d’années) elles fusionneront (ce qui, en passant, donnera lieu à la création d’une « galaxie irrégulière » et peut-être ultérieurement d’une galaxie elliptique) mais toutes les deux, partie de l’amas de la Vierge, lui-même partie du vaste superamas « Laniakea », foncent ensemble dans la même direction, le cœur de ces deux super-structures.

A une même époque, la nôtre ou plutôt quelques centaines de millions d’années avant (puisqu’on ne peut observer notre Univers contemporain de fait de la courbure de notre regard résultant de la limitation de la vitesse de la lumière), l’espace apparaît homogène. En réalité s’il l’est bien à petite échelle, il ne l’est pas à grande échelle. A petite échelle en effet on trouve des galaxies de toutes sortes avec des étoiles de tout âge selon une répartition aléatoire mais in fine, homogène. A contrario, à grande échelle une galaxie elliptique avec son gaz rare et ses vieilles étoiles ne va pas du tout ressembler à une spirale voisine avec son gaz abondant et ses jeunes étoiles; de même pour telle étoile avec son étoile voisine.

Si l’on considère l’Univers non plus dans l’espace contemporain mais dans la profondeur du temps, on peut constater comme toujours, qu’il est marqué par l’évolution, et que l’homogénéité d’aujourd’hui n’est pas celle d’hier. Quelle que soit la période considérée, le terme de « fractal » pourrait sembler s’appliquer plutôt bien pour le décrire (selon Wikipedia « un objet géométrique infiniment morcelé dont les détails sont observables à une échelle arbitrairement choisie »). Mais ce n’est qu’une impression car si l’on considère la forme, la taille, la masse, l’ancienneté ou la jeunesse de chacune en la comparant aux autres, on peut constater que certes les galaxies de même type ou sous-type se ressemblent mais qu’elles ont toutes leur « personnalité ». En fait elles sont toutes différentes, comme les étoiles ou les êtres humains.

Dans le même esprit, je veux devancer un commentaire. Cette grande homogénéité à petite échelle et cette grande diversité à grande échelle pour une même période ne permet pas de préjuger de la fréquence du phénomène de la vie. Comme je l’ai déjà écrit plusieurs fois dans ce blog, je considère que ce dernier résulte d’un concours de circonstances tout à fait extraordinaires dont nous avons bénéficié, un épiphénomène (au regard de l’Univers) qui ne s’est peut-être pas produit ailleurs. J’aurais tendance à plutôt dire « sans doute pas » tout en espérant un jour être contredit par la réalité ! De nouveaux instruments, tels que le télescope de 30 mètres (TMT) qui devrait être construit au sommet du Mauna Kea (Hawai), nous permettront peut-être d’en savoir davantage. « Ce qui est bien » en astronomie/astrophysique c’est qu’on est toujours dans l’attente et l’espérance portées par des progrès technologiques absolument extraordinaires qui « vont arriver demain » !

https://www.space.com/thirty-meter-telescope-hawaii-volcano-maunakea-opposition.html

Illustration de titre :

La séquence de Hubble. Esthétiquement satisfaisante mais scientifiquement contestable car les galaxies elliptiques semblent aujourd’hui résulter de la fusion de galaxies spirales.

Meilleurs voeux pour 2021 !

Pour retrouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 12 16

Les Ages-sombres de l’Univers, une époque de transition vers tous les possibles

En fin d’article, condamnation de l’agression turque en Arménie. Auparavant un peu de cosmologie. Je vais aujourd’hui vous parler de la période des « Ages-sombres » de l’Univers, intrigante parce qu’elle est celle de la gestation de tous les possibles et qu’elle est forcément mal connue puisque sombre. C’est pendant ce temps-là que la matière après avoir été finalement libérée violemment du plasma primordial par l’Expansion, a été réorganisée patiemment par la Gravité et les trois autres forces fondamentales de la physique, en fonction des anisotropies (irrégularités) existant à la Surface-de-dernière-diffusion.

Sur une histoire commençant il y a 13,8 milliards d’années, avec le Big-bang, les Ages-sombres se situent entre 380.000 (précisément) et quelques 400.000.000 d’années (limite beaucoup plus floue avec une grosse marge d’imprécision). Il y a donc très longtemps ! Depuis le Début (Big-bang), le développement de l’Univers a suivi une trajectoire logique portée par les grandes forces fondamentales susmentionnées qui le structurent mais l’époque des Ages-sombres est particulièrement intéressante comme transition entre un Univers compact et celui que nous connaissons aujourd’hui, fait de « vide », de galaxies, d’étoiles et de nuages, filamenteux ou non, de gaz.

Que s’est-il passé « en l’an de grâce » 380.000 après le Big-bang ? Il s’est passé ce qu’on appelle le « Découplage », c’est-à-dire le moment où la densité et la température de l’Univers en expansion se sont suffisamment abaissées pour que le rayonnement électromagnétique puisse soudain s’échapper de la matière comme le pollen au Printemps, par tous les interstices de vide qui s’ouvraient entre les particules, protons et électrons, qui le composaient. On le sait puisque par chance et par malheur, du fait de la finitude de la vitesse de la lumière, plus nous regardons loin, plus notre regard est courbé vers le passé et qu’en même temps que nous constatons la présence d’un rayonnement diffus multidirectionnel ou « isotrope », le « Fond-diffus-cosmologique », expression de la Surface-de-dernière-diffusion d’un Univers compact, nos instruments d’observation nous permettent de remonter naturellement dans le temps, jusqu’aux premières galaxies. C’est ce qui nous permet aussi de faire le lien logique entre les premiers rayonnements galactiques et l’origine du Fond-diffus, et nous permet de parler de la période « entre deux » de laquelle nous ne recevons aucun rayonnement, celle des Ages-sombres.

Simultanément au Découplage, les protons s’assemblèrent aux électrons pour constituer des atomes neutres et l’Univers se trouva, temporairement, empli d’une matière totalement neutre électriquement (là où il n’y avait ni vide ni rayonnement). Mais la Surface-de-dernière-diffusion, c’est-à-dire le dernier moment où l’Univers constituait dans sa totalité un plasma, n’était pas lisse et totalement homogène. Ce plasma du fait qu’il était en expansion, était en effet parcouru par des courants causés par des ondes acoustiques qu’on appelle l’« Oscillation-acoustique-des-baryons » (« BAO »). Ce phénomène y créait des irrégularités de masse, mouvantes, les « anisotropies », comme des nodules en profondeur qui, au dernier moment, s’ouvrirent comme des coques sur le nouveau vide, déterminant pour le passé, une surface. Certains astrophysiciens pensent que ces nodules renfermaient aussi bien de la matière baryonique que de la matière-noire*. Quoi qu’il en soit ces anisotropies subsistèrent en trois dimensions dans l’Univers ouvert qui venait de naître (mes lecteurs fidèles n’oublient pas qu’à côté de ces anisotropies causées par les BAO, Roger Penrose espère en trouver d’autres qui témoigneraient de l’existence d’au moins un autre éon avant le Big-bang).

*26,8% de l’énergie totale de l’Univers alors que la matière baryonique n’en constitue que 4,9%, le reste, soit 68,3%, étant la toujours hypothétique énergie-sombre. La matière-noire dont on voit les effets gravitationnels (ou plutôt dont on déduit l’existence par les effets qu’elle a sur la matière baryonique), n’est toujours pas identifiée et certains autres astrophysiciens en nient toujours l’existence.

L’Univers poursuivit évidemment son expansion portée par l’impulsion du big-bang et de la phase d’inflation qui le suivit (l’accélération tout à fait marginale au début ne se manifeste sensiblement qu’après 6 ou 7 milliards d’années). La gravité ne pouvait immédiatement reconcentrer la matière autour des anisotropies existant au moment du Découplage. Comme, bien que diffuse, elle restait quand même dense, l’Univers n’était donc qu’un grand brouillard, irrégulier en densité et ce brouillard se gonflait à grande vitesse en tourbillonant dans une nuit presque complète éclairée confusément par le rayonnement de la surface de dernière diffusion et son propre rayonnement beaucoup plus faible (voir illustration de titre).

Les anisotropies se perpétuaient cependant dans les masses informes, quand même plutôt sphériques et de volumes comparables (la force de gravité liée à la masse jouait déjà bien sûr son rôle), de ce qui allait devenir les « galaxies-sombres », se différentiant de plus en plus les unes des autres en se resserrant chacune sur elle-même dans un vide de plus en plus étendu.

Il faudra « un certain temps », jusque vers peut-être 200 millions d’années, pour que les concentrations de matière deviennent suffisamment denses pour que les premières étoiles s’allument au sein de ces galaxies-sombres, en commençant leur processus de fusion nucléaire, et entreprennent par leur rayonnement (largement ultra-violet) de ré-ioniser lentement les éléments de matière composant l’univers (séparant les électrons des atomes). Ceux qui croient à la présence d’une matière-noire mêlée à la matière baryonique pensent, sans en avoir la preuve, qu’elle joua un rôle dans cette re-concentration. Mais peut-être est-ce simplement l’éloignement des masses les unes des autres causé par l’expansion, qui favorisa l’attirance gravitationnelle interne de chacune en atténuant de plus en plus les attirances contrariantes ? Le processus sera long puisqu’il faudra attendre jusqu’à près de 1 milliard d’années après le Big-bang pour qu’il aboutisse, c’est-à-dire qu’à force de concentrations stellaires, le vide se dégage totalement du brouillard, les molécules d’hydrogène et d’hélium libres se structurent en filaments nuageux liant les galaxies ou en nuages à l’intérieur des galaxies, et que l’Univers perde son opacité. Mais on fixe à 400 millions d’années* la fin de la période des Ages-sombres et l’entrée dans celle de la Ré-ionisation (qui se termine donc après 1 milliard d’années) considérant qu’à cette époque l’Univers était déjà devenu suffisamment transparent.

*pour comparaison de durée, les premiers animaux remontent à quelques 575 millions d’années (faune de l’édiacarien) et il y a 400 millions d’années nous étions dans le Dévonien inférieur, avant la sortie des premiers amphibiens sur la Terre ferme.

Parallèlement à la diminution de la densité, au passage du temps, à l’éloignement de la source d’émission et à cause de cette évolution, la température du Fonds-diffus de l’Univers baissait selon une courbe asymptotique, d’un ordre de grandeur à partir des quelques 3000 K (pour référence la surface du Soleil a actuellement une température de l’ordre de 5800 K) qu’il avait au sortir de la Surface-de-dernière-diffusion, pour atteindre sans doute les 300 K vers ces 400 millions d’années (et 2,728 K aujourd’hui).

A la fin des Ages-sombres, il y avait dans les galaxies-sombres beaucoup de gaz et très peu d’étoiles. Les premières d’entre elles sont donc très difficiles à observer du fait de leur faible luminosité mais on y parvient quand même. La première méthode a été indirecte, par la lumière des phares puissants des astres postérieurs, qui éclairent leur environnement. Ces astres, les premiers quasars observés aujourd’hui, ont été datés de 750 millions d’années après le Big-bang. Cependant « on n’arrête pas le progrès » et grace au télescope Hubble et au spectrographe MOSFIRE fixé sur l’un des deux grands télescopes de l’observatoire Keck au sommet du Mauna Kea (Hawaï) on vient de détecter une galaxie extrêmement lointaine, « GN-z11 » (le “z” est pour le redshift), dont la lumière a été émise à l’aube de la Réionisation, il y a 13,4 milliards d’années (donc 400 millions après le Big-bang). Son rayonnement central semble extrêmement lumineux et il ne serait pas étonnant qu’elle soit également un quasar primitif. Voir lien ci-dessous**

On peut remarquer que la densité du brouillard étant quand même très forte dans cette jeunesse de l’Univers, la facilité pour la force de gravité de concentrer de très grandes quantités de matière était sans doute plus grande relativement à ce que l’Univers connaîtra plus tard. La preuve en est donnée par la formation de ces quasars, énorme trous-noirs dévorant la matière alentour en la faisant briller jusqu’au point où l’on a d’abord cru que c’était des étoiles (quasi-stars). Il n’est pas exclu non plus que, parallèlement, de petits grumeaux de matière primordiale, libérés par la baisse de densité de l’Univers, ne se soient trouvés isolés dans l’espace sans suffisamment de matière pour les faire grossir. Ils formèrent ce qu’on appelle les micro-trous-noirs. Plus froids au début mais devenant rapidement d’une température très proche de l’environnement du fait de la baisse de celle de ce dernier, ils commencèrent très vite à s’évaporer, c’est du moins la théorie puisqu’à ce jour nous n’en avons observé aucun.

De quoi est composé l’Univers en dehors de la matière à l’époque des Ages-sombres ? D’abord des champs de bosons puisqu’ils sont la trame de l’Univers (vous vous souvenez du fameux boson de Higgs qui permet à la matière d’exister). Ensuite du rayonnement électromagnétique. Il est également partout puisqu’il vient de se libérer de la matière. Il occupe déjà toutes les longueurs d’onde possibles du spectre que nous connaissons aujourd’hui. Une partie est certainement lumineuse (le fameux rayonnement du fond diffus qui à l’origine est de 3000 K) mais les ondes les plus courtes, aux ondulations les plus serrées, ultra-violet, rayons X, rayons gamma, sont omniprésentes puisque nous sommes encore tout près de la « grande explosion ». Etant donné la différence de vitesse, même si l’hydrogène et l’hélium sont très légers, ces rayonnements s’étendent partout où il est possible qu’ils soient, y compris au-devant de la matière puisqu’ils n’ont pas de masse, et dans un volume déjà non-totalement déterminable (l’Univers était déjà « illimité et fini » comme on le pense aujourd’hui). Ce rayonnement est diffus de telle sorte que le brouillard de matière n’est pas totalement sombre, comme indiqué plus haut. Il luit principalement par réflexion même si sa propre chaleur doit générer aussi une certaine émission.

On peut aussi remarquer qu’à ce stade l’Univers est très peu différencié. On dit que son entropie est très faible en allant, comme aujourd’hui, vers toujours plus de complexité. La nucléosynthèse stellaire n’a évidemment pas eu le temps de faire son œuvre. La « matière » n’est rien d’autre que de l’hydrogène et de l’hélium et très marginalement quelques autres gaz comme le lithium ou le néon formés lors de l’éclatement de la Surface-de-dernière-diffusion. Donc le spectre des galaxies ou des étoiles primitives ne peut montrer que de l’hydrogène et peut-être de l’hélium. Les planètes, s’il en existe déjà, ne sont que des boules des mêmes gaz en plus petites. Il ne peut exister aucune planète tellurique car il n’y a aucun élément chimique pour en constituer les minéraux dont elles sont faites.

Ce monde étrange est notre monde. Il a existé puisque nous sommes ici aujourd’hui. Il portait en germe ce que nous sommes devenus et ce que nous deviendrons et qui, un jour encore plus lointain, du fait de l’expansion accélérée qui nous entraîne toujours plus vite et de la force de gravité qui condense toujours plus la matière, sera à nouveau tout aussi sombre, totalement différent mais tout aussi étrange. Pour le moment profitons, sans illusion, de la stabilité apparente qui nous est offerte simplement parce que notre vie est courte.

Lire mon article sur la surface de dernière diffusion « CHIME » publié le 7 septembre 2019.

**Article de Nature Astronomy Letters daté du 14/12/2020, sur la plus ancienne/lointaine galaxie jamais observée et article de Space.com sur la même:

Très belle simulation de la sortie des Ages-sombres : https://www.youtube.com/watch?v=erHGgLFXhVs

Illustration de titre : image https://plancksatellite.org.uk/?s=dark+ages

Pour retrouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 12 16

PS: On peut en même temps « vibrer » pour les Ages-sombres de l’Univers et compatir au malheur des Arméniens.

Parlant d’Ages-sombres et en commençant cette semaine de Noël* j’ai une pensée particulière pour la communauté arménienne qui a été à nouveau martyrisée par les islamistes en 2020. Pensez, vous aussi chers lecteurs, avec compassion et sympathie, à ces chrétiens, nos frères en esprit, qui ont été massacrés, chassés de leurs terres ancestrales sans que la communauté internationale ne vienne à leur secours. La honte retombe évidemment sur les criminels Aliyev et Erdogan mais aussi sur les divers gouvernements « occidentaux » (c’est à dire européens et américains) qui n’ont rien su organiser ni entreprendre pour sauver ces pauvres gens déjà si terriblement éprouvés par les divers pogromes qu’ils ont subis au cours du temps (1894-96 ! 1915-16 ! pour ne mentionner que les plus connus).

La cessation des combats imposée par les Russes est intervenue bien tard! Elle ne fera pas revenir les morts à la vie ni ne rendra les territoires perdus, légitimement arménien puisque peuplés par eux depuis au moins 2500 ans, époque où les ancêtres des Turcs étaient bien loin, en Asie Centrale, et où leurs “faux-nez” Azeris n’existaient évidemment pas, ni ne réparera les destructions du patrimoine antique souillé au préalable par ces sauvages.

Dans ce contexte, les individus isolés doivent faire entendre leur voix pour crier leur condamnation des Turcs et leur désapprobation devant la passivité des gouvernants des “grandes puissances” occidentales (malgré les efforts suisses) porteuse de l’esprit de Munich, ce que je fais.

Une question…ou une suggestion :  la Cour Pénale Internationale (La Haye) existe-t-elle encore ? Si oui ou plutôt lorsque les Etats ou institutions pouvant en effectuer la saisine auront passer “les fêtes”, pourraient-elle convoquer Aliyev et Erdogan? Ces deux-ci cochent toutes les cases de la barbarie. Les Ages-sombres de l’Univers ne furent en réalité qu’un passage vers la lumière. Les juges pourraient contribuer à ce qu’il en soit de même pour la Civilisation; c’est pour cela que leur Cour a été constituée.

*En Arménie, Noël est fêté le 25 décembre ou le 6 janvier selon que les fidèles ont choisi de se rattacher à Rome ou de rester dans leur église apostolique.

Rendons grâce aux étoiles Wolf-Rayet, nous leur devons la vie

Les étoiles Wolf-Rayet sont rares car elles meurent jeunes mais elles ont une vie extrêmement brillante et riche, laissant après elles en abondance les « métaux » dont nous sommes faits.

Les étoiles « massives » sont celles qui effectuent la nucléosynthèse la plus considérable et parmi elles les étoiles Wolf-Rayet (« WR ») sont les plus puissantes (lumineuses et chaudes) après les « LBV » (« étoiles variables lumineuses bleues », encore plus rares). Notre Soleil, une « naine-jaune », ne parvient qu’à fusionner l’hydrogène en hélium (marginalement un peu plus, vers le carbone) mais les étoiles massives, qui ont une masse supérieure à 8 masses solaires (« Ms »), conduisent beaucoup plus loin le processus de transformation, jusqu’au fer et au-delà, tous les éléments lourds.

Charles Wolf et Georges Rayet sont deux astronomes français du 19ème siècle qui en 1867, à l’Observatoire de Paris, ont découvert ces étoiles étranges présentant à l’aube de la spectrométrie un type de graphes tout à fait particulier. Depuis, ces étoiles portent leurs noms.

Depuis Angelo Secchi en 1866, on classe les étoiles selon leur spectre (l’image diffractée selon les longueurs d’onde qui la composent de la lumière qu’elles émettent). La classification selon le type spectral fut ensuite perfectionnée par Henry Draper (« HD ») médecin et astronome de New-York et ses héritiers, au début du XXème siècle. La classification « O,B,A,F,G,K,M » que l’une de ses continuatrices, Annie Jump Cannon, mit en place et qui est le cœur de celle d’aujourd’hui, est liée à une température et à une « couleur » allant du bleu au rouge en passant par le blanc et le jaune. Depuis, on a simplement ajouté un « W » devant le « O » pour les étoiles Wolf-Rayet et « L,T,Y » après le « M » pour les étoiles les plus froides. Les étoiles « O » ont une température de surface >25.000 K et les « M » une température de <3.500 K ; les « W » montent au-delà de 25.000 K, jusqu’à > 80.000 K (à peu près autant de degrés Celsius). Il faut bien voir qu’au cours de son histoire une étoile peut recevoir plusieurs « étiquettes » puisqu’elle évolue avec le temps, emportant au cours de ses différentes phases une masse initiale qui se réduit lentement, par dissipation dans l’espace de matière et d’énergie, sauf à la fin, brutale. C’est ainsi que dans le diagramme de Hertzsprung-Russel qui reprend la classification selon le type spectral en abscisse et la température absolue en ordonnée, on a au milieu comme une écharpe, ce qu’on appelle la « séquence principale », allant du rouge en bas à droite, au blanc en haut à gauche. Au-dessus de l’écharpe se déploient les géantes, supergéantes, hypergéantes et en-dessous, les naines blanches et les naines brunes (voir ci-dessous). Les WR sont tout en haut à gauche avec les plus chaudes et les plus lumineuses, après les LBV bien sûr mais les LBV, tout comme les « O », sont des phases précurseurs des WR, tout comme on sait que notre Soleil, au milieu de la séquence principale, terminera sa vie en géante-rouge (plus grosse que massive), plus haut dans le diagramme mais dans une branche de la séquence principale qui s’étend vers la droite, plus froide.

Plus les étoiles sont massives plus leur vie est courte. Cela va de quelques petits millions d’années pour une « hypergéante » ou une « supergéante » à une durée indéterminée (c’est-à-dire extrêmement longue) pour les moins massives, les « naines-brunes » (jusqu’à 0,08 Ms), en passant par quelques 9 milliards d’années pour les « naines-jaunes » (avec notre étoile, le Soleil, nous sommes juste « au milieu du chemin » après 4,567 milliards d’années). Les plus massives ne devraient pas dépasser, en principe, 100 Ms, limite théorique déterminée par Arthur Eddington. En effet le « réacteur de fusion » des étoiles s’allume dès que la densité de matière est suffisante même si l’accrétion n’est pas terminée et le « fonctionnement » du réacteur déclenche un vent radiatif qui tend à repousser la matière non encore accrétée en y ajoutant encore de la matière qui vient de l’étoile déjà formée. L’étoile massive proprement dite qui n’a pas pu accréter toute sa matière et qui dispose d’un « moteur » très puissant est donc entourée de nuées qui sont attirées par la gravitation et repoussées/enrichies par un vent solaire très dense et fort. Une telle étoile est un combat constant entre la force de gravitation qui tend à contracter la masse et la force de radiation qui tend à la défaire. Et les forces sont d’autant plus égales que l’étoile est massive. Donc plus elle est massive plus elle est instable. L’équilibre instable ou l’incertitude créés par cette situation, sans doute de courte durée (sur une échelle cosmique, bien entendu), fait que certaines étoiles peuvent dépasser la « limite d’Eddington ». On a observé quelques étoiles de 150 Ms et même une de 320 Ms. La difficulté d’accrétion et la faible durée expliquent leur rareté puisqu’elles ne peuvent s’accumuler en nombre au cours du temps. On estime à seulement un millier les étoiles WR sur les 200 milliards de notre Galaxie et à pas plus de 2% les étoiles massives dans notre Univers contemporain !

Plus la masse est importante, plus le creuset de fusion est puissant et se prolonge relativement à la vie de l’étoile. Plus le temps passe, plus les générations d’étoiles massives se succèdent, plus la matière brassée est riche et plus les planètes qui, entre autres astres, se partagent les miettes de leurs systèmes après leur mort, disposent d’une diversité chimique étendue. Les « choses » avancent lentement mais très sensiblement. Au point où nous en sommes l’hydrogène constitue toujours 90% de la matière de l’Univers (en nombre d’atomes) et l’hélium 9% presque comme au début de l’Univers. Cependant, en masse, l’hydrogène ne constitue plus que 75% de l’Univers car les éléments « nouveaux » créés dans les étoiles sont plus lourds et les plus lourds sont de plus en plus abondants*.  C’est pour cela qu’il y a quelques cinq milliards d’années (pour nous situer avant la naissance du Soleil) une planète tellurique comme la Terre n’aurait pas pu disposer des éléments dont nous (êtres vivants) sommes constitués ou plutôt des éléments les plus lourds dans une abondance telle qu’elle aurait permis notre existence. Dans « très longtemps » la proportion de ces mêmes éléments aura changé et les espèces vivantes qui existeront alors, si elles existent encore quelque part, utiliseront sans doute d’autres « cocktails » d’éléments puisque nous sommes le fruit de notre environnement et de notre évolution synchronisée avec cet environnement. Comme toujours lorsque l’on considère l’Univers, il faut bien voir que nous sommes situés non seulement dans l’espace mais aussi dans le temps, à un moment fugace de son histoire. Ce qui s’est produit ne se reproduira pas « toujours » exactement de la même façon avec les mêmes éléments chimiques, briques des mêmes molécules (si un phénomène tel que la vie se reproduit ailleurs dans l’espace et le temps, ce qui n’est pas du tout prouvé). Les différences, tout à fait imperceptibles sur une vie humaine, s’accumuleront jusqu’à devenir visibles un jour lointain, et elles s’amplifieront toujours davantage, continument. « Avant », dans l’espace et le temps, notre vie n’aurait pas été possible, « après », elle sera sans doute profondément différente, si elle n’est pas de toute façon détruite par l’évolution.

* Au « début », il n’y avait que de l’hydrogène dans l’Univers et très vite après le big-bang et avant la surface-de-dernière-diffusion, un peu d’hélium (nucléosynthèse primordiale). A l’intérieur de la bulle de notre Héliosphère, les GCR (Galactic Cosmic Rays) sont composés à hauteur de 2% d’électrons et de 98% de noyaux atomiques. Sur ces 98%, 88% sont des protons (noyaux d’hydrogène), 10% des noyaux d’hélium et 2% des « HZE » noyaux d’éléments lourds, dits « métalliques » (au-dessus de l’hélium). Mais au coeur du Soleil, dans son noyau, là où se fait la fusion,déjà 65% de l’hydrogène a été converti en hélium.

Toutes les étoiles massives ne contribuent pas également à la création de nouveaux éléments lourds. Dans ce domaine les étoiles WR sont les « reines ». Leur spectre qui ne peut être pris que sur les nuages de matière rejetés en abondance, extrêmement lumineux, et non sur la surface de l’étoile qu’ils dissimulent (« raies d’émission » et non « d’absorption »), met en évidence, selon le degré de l’évolution, les raies de l’azote, du carbone ou de l’oxygène (« WN, WC, WO »). En effet c’est à ces éléments après l’hydrogène et l’hélium que s’applique la fusion. Et la masse d’une étoile WR est telle que la fusion se poursuit bien au-delà de ce que peuvent supporter les étoiles plus petites (les étoiles de type solaire s’arrêtent, en partant de l’hélium après que tout l’hydrogène soit consommé, en un peu de carbone, oxygène, néon). Ensuite, lorsqu’elle aura converti l’ensemble de son noyau en fer, l’étoile WR se transformera brutalement en supernova (implosion/explosion) ce qui sera l’occasion d’une nouvelle phase de nucléosynthèse, extrêmement brève mais productive, pour des éléments encore plus lourds que le fer, puis en étoile à neutrons ou en trou-noir, à moins que, insuffisamment massive, elle disparaisse corps et bien en disséminant la totalité de sa matière qui servira de nourriture aux autres astres qui se constitueront après elle. C’est la mort qui donne la vie.

De toute façon, durant toute sa courte vie, l’étoile WR aura alimenté l’espace environnant de sa matière périphérique expulsée en quantité énorme (une masse solaire tous les 30.000 ans, un milliard de fois plus que le Soleil) à grande vitesse par son vent radiatif. Ce vent assimilable évidemment à notre vent solaire (en moyenne 450 km/s) est nettement plus puissant (700 à 3500 km/s) et s’applique non seulement à la matière propre de l’étoile mais à ses enveloppes. L’explosion finale en supernova à quelques 20.000 km/s n’est que l’apothéose de ces éjections.

Les étoiles WR sont ainsi les interfaces entre les étoiles « normales », celles qui sont en-dessous d’elles dans le diagramme de Hertzsprung-Russel, les astres monstrueux que sont les étoiles à neutrons ou les trous-noirs et les nuages de poussière, présents partout dans les galaxies jeunes en attente de concentration et de vie nouvelle. L’Univers est loin d’être immobile, outre l’expansion accélérée qui l’entraîne et le dilate toujours plus, il est animé par toute une série de phénomènes ou intervient la gravité, des explosions, des concentrations, un brassage permanent de gaz et de matière, des fuites à des vitesses inimaginables (mais toujours limitées par celle de la lumière), des regroupements, des déchirements, des émissions de particules plus ou moins massives et de rayonnements (photons, rayons X ou gamma, neutrinos). Au jour le jour nous ne voyons rien que ce qui nous semble une « permanence ». Cette apparence n’est simplement qu’une question d’échelle de temps et de distance.

Illustration de titre : nébuleuse M1-67 entourant l’étoile WR 124, photo Hubble (NASA). L’étoile se trouve à 15.000 années-lumière de la Terre, son diamètre est de 6 années-lumière. La nébuleuse résulte de ses rejets de matière. Crédit image : Hubble Legacy Archive NASA, ESA ; processing et licence Judy Schmidt.

NB : Le fait que « nous devions la vie » aux étoiles WR pour la richesse de leur production d’éléments chimiques, n’exclut pas, bien entendu, que nous devions aussi la vie au Big-bang, précédé éventuellement d’autres éons, et aux étoiles « normales » qui ont enrichi aussi notre Univers en hélium et dans les éléments les moins lourds, tels que le carbone. Ce que je veux dire c’est que les étoiles WR ont été et sont toujours des contributeurs très importants à la complexification du monde et que sans cette complexification, la vie n’aurait pas pu (déjà) émerger de la matière.

Illustration ci-dessous, diagramme de Hertzsprung-Russel :

Lecture :

La splendeur des étoiles massives, par Laurent Drissen aux Presses Polytechniques Universitaires Romandes, “PPUR” (2019).

Lien :

http://www.astronomie-amateur.fr/Projets%20Spectro3%20WR.html

Joyeux Noël!

Pour retrouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 12 01

Retour vers le cocon de notre petit coin d’Univers

Après un grand tour aussi loin qu’il est possible d’imaginer, je voudrais que vous reveniez avec moi dans notre tout petit coin d’Univers, là où « il fait bon chaud » parce que nous sommes chez nous, dans un environnement familier en termes d’espace et de temps.

Dans ce petit coin d’Univers il y a tous les astres que l’homme a connus depuis qu’il regarde le ciel, le Soleil, la Lune et les planètes que l’on peut voir à l’œil nu. A celles-ci se sont ajoutées au fil des derniers siècles, grâce aux premiers instruments d’observation (et aux calculs fondés sur des lois peu à peu comprises), celles qui sont hors de portée de nos yeux, jusqu’à Neptune et à Pluton. Il y a aussi les constellations du Zodiac qui nous accompagnent avec leurs symboles depuis la plus haute antiquité et de temps en temps un météore qui écrit sa trace furtive et silencieuse sur le noir de la nuit. En arrière-plan, tout en douceur, l’immense écharpe de la Voie Lactée, juste pour donner à ce panorama grandiose encore un peu plus de profondeur et de mystère.

Nous sommes ici, sur notre Terre, et nous « contemplons en nous interrogeant » comme toujours nous l’avons fait mais certains d’entre nous aussi « projettent de faire » car depuis très peu, un quantum de temps au regard de l’Artiste qui a peint le tableau, nous pouvons nous mouvoir à l’intérieur de ce que nous voyons. Oh, il n’est pas question d’aller bien loin mais comme nous avons juste commencé et que nous sommes encore « jeunes » nous pensons que « tout » nous sera accessible.

Nous sommes un peu présomptueux. C’est dans le contexte de cette surestimation de nos possibilités, que quelques auteurs de science-fiction, se libérant allègrement de toutes les contraintes physiques, ont osé écrire qu’il suffirait de monter dans notre vaisseau spatial et que nous pourrions aller nous promener dans le domaine de Sirius ou d’Aldébaran pour aller réveiller LA princesse endormie et la ramener pour la présenter à nos parents ou régner là-bas avec elle…Certains, généralement un peu naïfs, y ont cru.

Devenus adultes, certains (parfois les mêmes) ont voulu quand même essayer et se sont mis à réfléchir sérieusement aux vraies possibilités qui s’offraient à nous, compte tenu des capacités réelles de nos technologies, aujourd’hui la propulsion chimique. Le bilan est simple à faire. On peut cocher les cases :

Mercure, vous oubliez ; trop près du Soleil donc trop dangereuse ; il faut ralentir considérablement pour pouvoir se mettre en orbite autour d’elle et donc, de freinages en freinages, le voyage dure forcément plusieurs années (7 ans pour la sonde Bepi Colombo !). Par ailleurs, la face de la planète exposée au Soleil est beaucoup trop chaude (irradiance 12.000 W/m2 et température 700 K) et la face opposée beaucoup trop froide (90 K), sans compter qu’il n’y a aucune atmosphère pour lisser ces conditions. Kim Stanley Robinson a imaginé qu’on pourrait s’installer juste sur le terminateur et se déplacer dans un train en sens inverse de la progression de la lumière solaire sur des rails qui, en arrière du dernier wagon, se dilateraient avec la chaleur ; cela me semble vraiment trop risqué. Pas vous?

Vénus, toujours trop chaude (irradiance 3140 W/m2) mais surtout enveloppée d’une atmosphère incroyablement épaisse jusqu’à en être presque liquide en surface et générant par effet de serre une température insupportable pour nos instruments et a fortiori pour nos pauvres corps de chair et d’eau. Et qu’on ne me parle pas d’aller croiser dans la haute atmosphère au milieu des nuages d’acide sulfurique. Ce ne serait pas plus raisonnable que de se déplacer avec le terminateur de Mercure !

Jupiter (irradiance 50 W/m2) et Saturne (irradiance 10 W/m2) sont trop éloignés et dans le noir puisque les rayons du Soleil ne les éclairent presque plus pour nos yeux réglés sur l’irradiance solaire de l’orbite terrestre (1360 W/m2).

Ne songeons même pas aux lunes d’Uranus ou de Neptune (y compris Titan !) ou à Pluton, inaccessibles dans un temps de voyage raisonnable…et tellement froids.

Reste la Lune, Mars et rien d’autres, toujours en termes d’accessibilité physique, bien sûr, car il faut continuer à observer toujours aussi loin que possible avec les merveilleux instruments dont nous disposons aujourd’hui. C’est sur ces deux-là qu’il faut nous concentrer et oublier tout le reste. Nos descendants verront bien ce que, eux, pourront faire en fonction des progrès technologiques qu’au cours du temps nous-mêmes, nos enfants, nos petits-enfants ou arrière-petits-enfants (je m’arrête là ne sachant pas très bien le temps qui sera nécessaire) auront pu accomplir.

Alors la Lune, oui, bien sûr mais je vous ai déjà dit que « je ne suis pas très chaud ». Je ne sais pas s’il faut la voir comme une première étape pour aller ensuite vers Mars ou si notre tentative d’implantation ne risque pas de nous en dégouter. Ce sera dur de vivre sur la Lune pour les raisons que j’ai déjà exposées mais que je répète : Alternance jour/nuit de 14 de nos jours ; pas facile pour faire pousser des fruits et légumes sous serres éclairées par de la lumière naturelle ! Absence quasi-totale d’eau et ce n’est pas la découverte récente qui a montré qu’elle est présente en quantités infinitésimales dans le sol de surface (100 à 412 ppm, 100 fois moins que dans le Sahara; comment l’exploiter !) qui me fera changer d’avis. Absence totale d’atmosphère ; ce qui signifie absolument aucune protection contre les radiations spatiales (mais ce n’est pas le plus grave car on peut toujours vivre sous terre et sortir en surface en cas de besoin ou d’envie). Gravité très faible (0,16g) ce qui gêne considérablement la locomotion en forçant au sautillement (on l’a vu lors des missions Apollo) et l’équilibre si l’on porte au dos son équipement de survie (où ailleurs pourrait-on le mettre ?), sans oublier que la microgravité n’est certainement pas bonne pour la santé. Etant donné que l’on pourra toujours agir en direct sur la Lune par robots interposés (pratiquement pas de « time-lag » – décalage de temps – avec la Terre) et que l’on pourra toujours y aller à la date qu’on voudra, le « trade off » coût + difficultés de l’implantation sur avantages de l’implantation sera toujours défavorable. Le seul « village » que l’on peut envisager, c’est une base stockant des équipements d’étude et d’observation, rejointe lorsque ce sera nécessaire, par des personnes venant les poser, les régler, les entretenir, ou prélever des données/échantillons préalablement collectés par des robots, avec des ressources et des vivres venant de la Terre (comme l’on fait quand on va en Antarctique).

Par contraste l’on voit bien l’intérêt d’aller s’installer sur Mars. Tout de suite je voudrais insister sur le fait que Mars est déjà suffisamment « loin » pour qu’il y ait un « time-lag » important, qu’on ne peut y accéder que lorsque les fenêtres de départ sont ouvertes (et ces fenêtres ne le sont qu’un seul mois tous les 26 mois) et que l’exposition aux radiations spatiales est plus importante pendant le voyage (qui est long) que sur la planète de destination. Rien que ces trois raisons poussent à s’installer sur Mars de façon durable (en ne prenant en compte que les motivations scientifiques qui nous poussent parallèlement à aller sur la Lune) ; pour pouvoir véritablement y travailler (puisqu’on ne peut commander les robots en direct) ; pour pouvoir y vivre confortablement (vivre une mission sur la Lune de 15 jours ou un mois, n’est pas la même chose que vivre 18 mois sur Mars encadrés de deux fois 6 mois de voyage) ; pour éviter de faire de multiples voyages éprouvants sur le plan radiatif (Mars se trouve sans doute à la limite de ce qu’on peut supporter continument au cours d’un voyage et de toute façon il faudra éviter de faire plus de 3 allers et retours dans sa vie du fait de l’accumulation des doses). En dehors de ces points très importants, je rappellerai que sur Mars, nous avons de l’eau en quantités exploitables (banquises de glace en de nombreux endroits) ; une atmosphère qui présente deux avantages, le premier c’est que bien que peu dense (pression 610 pascals en moyenne), elle donne une certaine protection contre les radiations et les micrométéorites (« mieux que rien »), le deuxième c’est qu’étant composée à 95% de gaz carbonique, elle est une source, d’exploitation facile, d’oxygène (pour respirer et fournir du comburant à la propulsion), de carbone et de méthane (carburant pour la propulsion).

Donc pour moi, la seule implantation qui mérite d’être envisagée c’est bien celle sur Mars et pour la faire vivre, c’est-à-dire lui procurer des revenus sur le long terme qui ne coûtent rien aux Etats, il faut envisager un minimum de vols tous les 26 mois (disons, rapidement une dizaine dans chaque sens) pour obtenir des coûts unitaires de transport suffisamment bas, et ouvrir aussi largement que possible ces vols à des personnes non-spécialistes, scientifiques ou ingénieurs, je veux dire des « touristes » (qui peuvent néanmoins venir pour des raisons très utiles à la communauté) afin d’accéder à leur épargne et éventuellement de bénéficier de leurs investissements.

Vivre sur Mars présentera des inconvénients : sorties obligatoirement en combinaison pressurisée et avec des bouteilles d’oxygène, absence d’eau courante et de végétation dans le paysage, poussière collante et omniprésente (puisqu’il n’y a pas d’eau courante), chutes non exceptionnelles de micrométéorites jusqu’au sol puisque non consumées dans l’atmosphère. Cependant Mars sera aussi un monde magnifique dans son austérité, comme le désert d’Atacama ou le Hoggar et il y aura autant d’oasis que l’on créera d’implantations humaines. Ce sera une « nouvelle-frontière » comme disent les Américains, un monde « neuf » ou tout sera possible, où l’ingéniosité et la création ne seront limitées que par notre capacité de faire, un monde où l’entreprise, construite sur l’utilité et le pragmatisme, sera sanctionnée uniquement par l’échec ou la réussite, un monde où la réussite et la rémunération seront la contrepartie du travail et de la persévérance, un monde de liberté en dépit des contraintes fortes sur la vie. Alors dans ce tout petit coin d’Univers aux dimensions effrayantes, la Terre ne sera plus la seule planète habitée et en regardant le ciel, les hommes qui seront restés ici sauront que de l’autre côté du nouvel Océan, à moins d’une demi-heure-lumière de chez eux, ils pourront compter sur l’« autre », un vrai réconfort compte tenu des dangers et de notre fragilité.

Illustration de titre (crédit NASA),

Le système solaire « en poupées russes » (de gauche à droite) : Le système solaire interne depuis le Soleil jusqu’à la Ceinture d’Astéroïdes n’est qu’un point à l’échelle du même système incluant les planètes extérieures et la Ceinture de Kuiper. Ce même système planétaire n’est lui-même qu’un point à l’échelle du système solaire dans son entier à l’intérieur de la « coque » du Nuage de Oort qui l’enveloppe. On arrive ainsi jusqu’à quelques 2 années lumières de notre Soleil (imprécision sur le Nuage de Oort extérieur). Mars évolue entre 3 et 25 minutes-lumière de la Terre ; la plus proche étoile, Proxima Centauri, se trouve à 4,3 années-lumière et le diamètre de la Voie-lactée est de 100.000 années-lumière. On voit bien que Mars et la Terre sont extrêmement proches à ces différentes échelles. Mars est bien « la seule planète accessible la moins inhospitalière ».

Ci-dessous autre représentation du système (crédit NASA), de gauche à droite, de haut en bas et de droite à gauche (à la boustrophédon): 1. Système solaire interne jusqu’à Jupiter; 2. Système solaire externe; 3. Inclusion de Sedna, planète naine à l’orbite excentrique, pénétrant profondément dans la Ceinture de Kuiper; 4. le Système à l’intérieur du nuage de Oort.

Pour retrouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 12 01

Quel destin pour les trous noirs…et pour nous?

L’évaporation des trous noirs est un phénomène dont la possibilité a été démontrée par Stephen Hawking dès 1974 mais qui n’est pas encore observable parce qu’il est très discret. Leur évaporation totale implique certaines conditions et requiert un processus extrêmement long mais n’est théoriquement pas impossible (il a sans doute déjà abouti pour les plus petits micro-trous-noirs, s’ils existent). En fait, tout pourra s’accélérer avec l’abaissement, dans très, très longtemps, de la température du fond-diffus-cosmologique (« FDC » ou en Anglais « CMB », « Cosmic Microwave Background ») dans laquelle nous baignons, en-dessous de celles des trous-noirs « stellaires », « intermédiaires » ou « supermassifs ». Etant les astres les plus denses, ceux-ci seront les derniers de notre Univers mais avant leur très lointaine et encore hypothétique disparition, ils « feront encore beaucoup parler d’eux » du fait de leurs forces d’attraction et de destruction tout à fait considérables.

Je rappelle quelques caractéristiques utiles pour comprendre les trous-noirs. Premièrement, ce sont des corps de masse suffisamment élevée par rapport à leur volume pour que leur vitesse de libération soit supérieure à celle de la lumière. C’est à dire que pour échapper à leur force d’attraction juste au-dessus de leur « horizon-des-événements » (jusque là où notre regard peut collecter de l’information), même un rayonnement d’énergie pure donc de masse nulle devrait se déplacer à une vitesse supérieure à celle de la lumière, ce qui est impossible d’après les lois de la physique. Deuxièmement, à la limite des trous-noirs  la force de marée est d’autant plus forte que le trou-noir est petit (parce qu’on est plus près de sa « singularité », son centre de gravité vers quoi toute masse et toute énergie convergent). Troisièmement on sait ce qui rentre mais on ne sait pas ce qu’il y a dans un trou-noir. On le déduit puisqu’on ne peut l’observer, mais il est probable qu’à sa singularité il ne peut y avoir ni molécule, ni atome, simplement des constituants de ces derniers (des quarks ?) et bien sûr de l’énergie, un peu comme dans le noyau de l’Univers juste après le Big-bang (certains d’ailleurs assimilent le Big-bang à l’explosion d’un trou noir extrêmement massif). Quatrièmement les trous-noirs sont des corps extrêmement froids mais ce sont des objets thermiques (plus précisément le meilleur exemple d’un « corps-noir » puisqu’ils absorbent toute énergie électromagnétique qu’ils reçoivent sans la réfléchir ni la transmettre) et leur différence de température par rapport à celle du FDC, négative (comme actuellement, sauf pour les plus petits, éventuels) ou positive (beaucoup plus tard et petit à petit en fonction de leur taille) est essentielle à son fonctionnement.

L’idée du trou-noir (ou d’une force de gravité telle qu’elle puisse retenir même la lumière) existe depuis Isaac Newton. Elle a été développée par Karl Schwarzschild puis Robert Oppenheimer mais c’est sans doute Stephen Hawking et Jacob Bekenstein qui ont fait faire le plus de progrès à notre compréhension du phénomène. Aujourd’hui on s’est mis d’accord sur les caractéristiques qui le définissent (masse, moment cinétique, éventuellement charge électrique), sur ses différents types (trou-noirs microscopiques primordiaux, stellaire, intermédiaires, supermassifs. On sait comment ils se forment et où l’on va trouver les supermassifs (quasars, centres galactiques) à moins qu’il existe aussi dans l’espace vide de tels trous noirs nus, sans aucune matière alentour. On se pose toujours des questions sur la réalité des trous-noirs microscopiques (primordiaux) puisqu’on ne peut pas les observer (trop petits !). Stephen Hawking a compris que les trous-noirs avaient une entropie et que cette entropie était proportionnelle à la surface de leur horizon des événements. Il a ajouté que puisque les trous noirs avait une entropie, ils devaient avoir une température non nulle et s’ils avaient une température, ils étaient susceptibles d’échanges thermiques et devaient éventuellement, à ce titre, émettre un rayonnement soit négatif, soit (plus tard) positif selon la température de l’environnement.

Mais ce rayonnement thermique n’est pas le seul. Il y en a un second, le « rayonnement de Hawking », tout à fait particulier, qui résulte de l’interaction de la masse du trou-noir avec son environnement immédiat dans le cadre de la physique quantique. Sa théorisation met en évidence que même en l’absence de toute matière qui viendrait à se trouver dans sa sphère gravitationnelle (définie par son horizon des évènements mais aussi, avant de l’atteindre, par son ISCO – dernière orbite circulaire stable), un trou noir n’est pas totalement isolé de cet environnement. Il interagit sur lui c’est-à-dire qu’il le modifie et que l’environnement le modifie lui-même. Cela semble à première vue impossible puisque le trou-noir est « noir » parce que, par principe, « rien » ne peut en échapper, pas même la lumière. Mais Stephen Hawking a montré que ce n’était pas tout à fait vrai. Le trou-noir interagit avec le vide parce qu’en fait le vide n’est pas tout à fait vide et que du fait de sa force gravitationnelle, le trou-noir exerce sur ce vide une force de marée. Cela suffit pour une certaine interaction.

En effet le vide n’est pas le néant. C’est un « vide-non-vide » car il fourmille de « vie » potentielle. A chaque « instant », selon la « théorie quantique des champs », une multitude de couples de particules et d’antiparticules suscitées par les champs de bosons qui sont la trame de l’Univers, surgissent du néant et s’annihilent mutuellement, immédiatement et ce dans une fluctuation éternelle.

Dans les environnements « normaux » on ne voit nulle trace de ces particules virtuelles mais non dans l’environnement des trous noirs car la force d’attraction gravitationnelle de ceux-ci y est telle que l’une des particules du couple particule/antiparticule peut être saisie, séparée de sa contrepartie par « force de marée » avant que l’annihilation se produise, et absorbée par le trou-noir. Actuellement ce sont des particules sans masses qui sont ainsi capturées, donc des photons surgissant comme les autres particules, en couple. Le photon et ce qu’on peut appeler l’« anti-photon » (bien que la différence entre les deux soit plus subtiles qu’entre les particules dotées d’une masse) sont émis dans le même faisceau mais la force de gravité qui s’exerce sur eux, crée un effet élongation de la fréquence d’onde qui les dissocie, l’anti-photon étant davantage « freiné » que le photon. Le trou-noir marque ainsi une préférence pour la particule « négative » qui résulte de sa faiblesse relative au sein de la même paire. La particule survivante, positive, peut alors échapper au champ gravitationnel tandis que le trou-noir qui a exprimé son énergie par exercice de sa force de marée, a, du fait de cette dépense, perdu en énergie. Il rétrécit et refroidit ; c’est la fameuse « évaporation ». Le surgissement de la particule du vide, qui peut sembler comme une « production » du trou-noir puisqu’il va en même temps avoir une répercussion dans l’autre sens à l’intérieur du trou-noir, est donc clairement initiée à l’extérieur de celui-ci. Evidemment l’effet de cette interaction est infinitésimal pour un seul couple de photons mais à grande échelle, elle ne l’est pas (même si elle reste extrêmement faible).

Plus la masse du trou-noir est importante, moins la force de marée est forte (ou plus la transition entre l’intérieur et l’extérieur est douce) et plus il est froid. Ce sont donc les trous-noirs les plus petits (rapport surface/volume le plus élevé donc le plus favorable au processus et aussi, température moins basse car la masse est moins importante) donc les moins froids qui ont l’évaporation la plus forte. On pourrait constater le phénomène sur des micro trous-noirs (par exemple un trou-noir de la taille d’un proton et d’une masse de 109 tonnes), sortes de grumeaux échappés de l’explosion primordiale (lors de l’éclatement de la Surface-de-dernière-diffusion) et dit justement « trous-noirs primordiaux », car leur température serait très proche de celle du CMB (vers 2,728 K). Malheureusement on n’a pas pu jusqu’à présent observer de tels trous-noirs et l’évaporation des plus gros est tellement faible (température d’un dix millionième de K pour un trou-noir de masse solaire) qu’elle sera elle aussi très difficile à observer. Reste les simulations en laboratoire. L’Institut de Technologie d’Israël en a fait une « analogue » avec du son figé dans le froid extrême (voir illustration de titre et lien ci-dessous).

Les températures des « gros » trous noirs (stellaires, intermédiaires ou supermassifs) sont extrêmement basses, bien en dessous de la température du FDC. Ils absorbent donc plus de radiations qu’ils en émettent, grossissent et se refroidissent toujours plus. Ils ne perdront de la masse, par rayonnement de Hawking, que lorsque leur température aura dépassé celle du FDC, c’est-à-dire dans le très lointain future ou la température du FDC sera descendue en-dessous de la leur.

Au « début », disons « actuellement » à l’échelle des temps cosmiques, seules des particules énergétiques, sans masse, les photons, peuvent s’évaporer. Mais on peut imaginer que cela changera avec la diminution puis l’inversion du différentiel de température avec l’extérieur. Les trous-noirs pourront alors rayonner selon le même principe, des éléments plus « lourds », des neutrinos puis des quarks et finalement peut-être exploser (comme peut-être notre propre Univers a explosé lors du Big-bang, si tant est qu’il soit lui-même un trou-noir).

Mais le chemin sera long car si on est parti de quelques 3000 K lors du CMB, on est, après 13,8 milliards d’années, descendus à 2,728 K et le refroidissement suit une courbe asymptotique vers un zéro qu’il n’atteindra peut-être jamais. Les trous noirs de taille solaire (et d’un rayon de 3 km) ont une température de 6 10^-8 K et s’évaporent en 10^67 années, soit 10^57 fois l’âge de l’Univers actuel ! Les trous-noirs du type de celui qui est au centre de notre galaxie, SgrA* (comme probablement celui qui est au centre de la galaxie d’Andromède) a une masse de 4,4 millions de Soleils (et un rayon de 10^10 m), une température de 10^-14 K et un temps d’évaporation de 10^87 années, soit 10^77 fois l’âge de l’Univers actuel (certains prétendent même que l’évaporation totale de ces trous noirs et des plus massifs ne serait pas possible).

***

Mais, avant leur éventuelle disparition, les trous noirs vont encore « faire parler d’eux ». Vous savez que la Galaxie d’Andromède et notre Voie-lactée se rapprochent au sein du Groupe-local. Le décalage vers le bleu (« blue-shift ») de ses étoiles en témoigne. Elles se trouvent encore à 2,537 millions d’années-lumière de distance mais ce n’est pas grand-chose au regard des dimensions de l’Univers (le Big-bang est aujourd’hui à quelques 46 milliards d’années-lumière bien qu’il ait eu lieu il y a 13,8 milliards d’années). Leur vitesse de rapprochement est de 130 km/s et il faudra environ 4,5 milliards d’années pour que la collision ait lieu. Que va-t-il se passer au contact qui, nous dit-on, sera frontal ? Si elles se rapprochent c’est que leurs masses s’attirent réciproquement. Dans chacune de ces masses, ce qui compte le plus puisque cela donne cohérence à l’ensemble, c’est le bulbe central de la galaxie et, au centre, le trou-noir supermassif central qui « pèse » environ 1/1000 de la masse contenue dans le bulbe. Quand les deux galaxies se toucheront (à la fois très vite en termes de vitesse absolue et très lentement en termes de vitesse par rapport à leur taille), ce sera un véritable (mais très long) feu d’artifice du fait des perturbations engendrées. Des nuages de gaz internes aux galaxies se concentreront, des étoiles naîtront de ces concentrations, il y aura bien sûr des rencontres entre les astres des deux galaxies malgré les distances énormes et le vide qui les séparent, et des fusions de tout type d’étoiles. Imaginez aussi le festin que le trou-noir de l’une et de l’autre pourront faire avec les astres qui se trouveront sur leur passage et qui étant de plus en plus nombreux vers le centre de gravité commun, formeront comme une nourriture de plus en plus dense et aussi parce que les directions de trajectoires des deux galaxies ne seront pas harmonisées entre elles. Ensuite, du fait de la force d’attraction gravitationnelle et de l’accrétion de plus en plus abondante de matière, la masse de l’un et l’autre trou-noir central devrait augmenter considérablement. La masse va à la masse et il serait naturel qu’après de très longues orbites en spirales de l’un autour de l’autre, il y ait fusion, comme lorsque deux planètes se rencontrent il y a fusion des corps et descente au centre de gravité commun des éléments les plus lourds pour former un nouveau noyau. Vous imaginez le choc et le spectacle, et la production soudaine et terrible d’énormes ondes gravitationnelles. Heureusement ou malheureusement (?) nous ne serons pas témoin de cette rencontre car elle se situera dans autant de temps que nous sommes séparés aujourd’hui de la naissance du Soleil, et ce dernier sera en fin de vie, une géante rouge et boursouflée jusqu’à Mars, notre Terre n’étant plus qu’un souvenir…dans la tête de personne, à moins qu’une forme d’intelligence issue ou non de l’homme (très probablement non, vue la durée qui nous sépare de cette époque) puisse en être témoin et vivre ainsi une expérience grandiose.

Les trous-noirs sont ainsi incontestablement des dangers pour tout ce qui existe mais on peut aussi les voir comme des soleils même s’ils sont noirs car ils sont également créateurs. Ce sont eux qui « tiennent » le cœur des galaxies et qui génèrent la course des étoiles autour d’eux comme un maelstrom génère un trou en spirale à la surface de l’Océan, favorisant les mélanges et les rencontres tout en semant la destruction. Les nouvelles étoiles, les supernovæ, les fusions d’étoiles, tout événement cataclysmique générateur d’éléments chimiques « métalliques » de plus en plus lourds et de plus en plus abondants dont demain sera fait, leurs doivent l’accès à la lumière.

Alors un jour peut-être tout cela disparaîtra dans une évaporation générale de toute matière et l’Espace sera vide et noir, un trou noir sans trou noir, fourmillant toujours de couples particules/antiparticules s’autodétruisant mais il n’y aura plus rien pour ajouter du désordre. L’entropie sera maximum et un nouvel « éon » pourra alors commencer…si Roger Penrose avait raison. Mais cela est vraiment très incertain et très, très loin.

Illustration de titre :

Analogie avec le son gelé, expérimentée en 2016 par le professeur Jeff Steinhauer de l’Institut de Technologie d’Israël :

https://trustmyscience.com/le-rayonnement-de-hawking-confirmation-et-preuves/

Illustration ci-dessous : Diagramme espace-temps schématisant le rayonnement de Hawking. Crédits : Northern Arizona University.

Références :

Le rayonnement de Hawking dans http://www.scholarpedia.org/article/Hawking_radiation

NB : Je remercie Christophe de Reyff pour l’aide qu’il m’a apportée pour mieux comprendre la matière de cet article.

Pour retrouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 12 01

L’assaut du politiquement-correct sur l’exploration spatiale, une vraie menace liberticide

Cette semaine je publie un article de Robert Zubrin qui critique un texte absolument effarant qui montre à quel point le politiquement-correct est en train de pervertir l’intelligentsia américaine. Un des objets de l’attaque de ces gens qui ne voient le monde qu’à travers le prisme déformant de l’« EDI » « équité, diversité, inclusion » (« Equity, Diversity, Inclusion ») est l’exploration spatiale avec intervention de l’homme, considérée comme une entreprise néocoloniale. Vous avez bien lu, « néocoloniale » !

Les auteurs de ce brulot que Robert Zubrin tente d’éteindre dans son article, ne sont pas n’importe qui. Ce sont des gens qui pour une bonne partie, portent une étiquette de scientifique et sont reconnus comme des interlocuteurs valables par la NASA et l’Académie des Sciences des Etats-Unis. Ce sont des gens que ces organismes doivent traiter avec égards car ils défendent des principes qui sont devenus presque sacrés en Amérique et qu’il n’est pas du tout question de blasphémer. Personne n’en a le droit, même des institutions aussi prestigieuses que les deux susmentionnées. Les redoutables EDIWG (Equity, Diversity, and Inclusion Working Group) ou assimilés, qui pullulent, notamment dans les universités, sont l’équivalents des délateurs de l’époque McCarthy de triste mémoire ou des cellules du parti communiste (dans les pays communistes bien sûr, non aux Etats-Unis !), ceux qui ont seuls le droit de « penser » (selon une ligne bien définie) et de s’exprimer et contre lesquels nuls ne peut s’élever au risque de se faire mettre au ban de la société.

Ce serait risible si ce vent de folie n’était porté par une partie non négligeable de l’électorat du nouveau président des Etats-Unis, Joseph Biden. Pourra-t-il agir de manière sensée dans le domaine du spatial (en particulier mais pas seulement) sans se retrouver englué par ces gens dans toutes sortes de « bonnes causes », est LA question et je dois dire que je doute un peu…beaucoup, qu’il le puisse.

Je me sens le devoir moral d’insister pour passer le message qu’il y a vraiment de quoi s’inquiéter (mais je n’ai pas de solution à proposer sauf à continuer à écrire et à défendre mes idées) plutôt que de se réjouir béatement d’être passé d’un président à l’ego certes un peu boursouflé mais dont toute la politique (notamment spatiale) n’est pas à jeter aux orties, à un président « normal » mais peut-être prisonnier de gens nuisibles au progrès (notamment dans le domaine spatial). Après avoir évité Charybde peut-être allons nous devoir vivre avec Scylla! Je pensais que nous avions une fenêtre technologique pour nous « lancer à la conquête des étoiles » mais j’espérais que cette fenêtre ne se refermerait pas trop vite. Je crains maintenant que dès cette présidence, l’Espace ne soit plus considéré que pour son utilité étroite et directe pour la Terre et que les projets hors de notre horizon et par essence « polluants » (quel que soit le degré de pollution réelle impliquée) ne soient bannis. Les vols habités dans l’Espace risquent donc fort de prendre fin assez rapidement (d’autant que l’ISS arrive à son terme, en principe en 2024). La recherche scientifique devrait subsister quelques temps mais tôt ou tard il y a un risque non négligeable qu’un « homme de cœur » politiquement « bien placé » proclame que l’argent public pourrait être mieux dépensé ou que décidément on doit absolument respecter les croyances des derniers Hawaïens qui considèrent qu’installer un télescope sur le Mauna Kea est une offense à leurs dieux (qu’en pense la vice-présidente Kamala Harris ?). Et les Savonaroles modernes qui sont en train de « prendre le dessus » aux Etats-Unis intimideront tellement une majorité plus ou moins silencieuse de leurs concitoyens qui n’oseront pas enfreindre les interdits moraux, que ce « saint homme » sera écouté et obéi.

Si le secteur public fait défaut, restera Elon Musk, toujours déterminé à aller sur Mars avec son SpaceX. Mais que pourra Elon Musk s’il n’a plus les marchés publics américains ? Espérons encore qu’il parvienne à mettre au point son Starship avant le blocus. Cela lui permettrait toujours de le lancer d’un astroport non-américain avec l’autonomie financière qu’il pourrait obtenir grâce à ses autres activités terrestres et « propres » (Tesla ?). Mais rien n’est moins certain. NB: Pour ceux qui penseraient à Jeff Bezos et à son Blue Origin, je répondrais que dans la Nouvelle-Amérique son sort n’est pas plus assuré car les anticapitalistes du camp Démocrate veulent aussi démanteler les GAFAM.

Si Elon Musk et Jeff Bezos étaient obligés de déclarer forfait, nous entrerions alors vraiment dans un nouveau Moyen-Age où les critères de reconnaissance sociale et politique donc économique, seraient redevenus des critères religieux et non plus rationnels et scientifiques et où les foules de plus en plus appauvries seraient obligées de retourner travailler la terre…avec des méthodes « bio », bien entendu. En clair ce serait le retour à la misère et à l’obscurantisme généralisés, un peu comme décrit dans le magnifique film Interstellar de Christopher Nolan (2014). Certains bien sûr s’en réjouiraient, y compris en Europe gagnée par la contagion. Moi pas.

J’espère me tromper!

Je vous laisse lire l’article de Robert Zubrin. En dessous, vous avez un lien vers le “manifeste” de l’EDIWG de la NASA.

Illustration de titre :

McCarthy témoignant sur l’organisation du parti communiste aux Etats-Unis, crédit Bettmann/Getty images

Article de Robert Zubrin

Publié le 14 Novembre 2020 dans la National Review

Traduction de Pierre Brisson

Robert Zubrin a fondé la Mars Society aux Etats-Unis en 1998. Il est ingénieur en astronautique, président de Pioneer astronautics et auteur de The Case for Mars (1995).

Les auteurs d’un papier soumis à un comité de la NASA mettent en garde contre l’exploration spatiale par vols habités et contre le principe de mettre des « pratiques coloniales violentes » en orbite.

EN octobre 2020, le comité « Planetary Science and Astrobiology Decadal Survey 2023-2032 » (Enquête décennale sur les sciences planétaires et l’astrobiologie) *, organe de l’Académie des Sciences des Etats-Unis a reçu un « manifeste » du « Groupe de travail sur l’équité, la diversité et l’inclusion » (EDIWG) de la NASA. Écrit par Frank Tavares, spécialiste des communications publiques du NASA Ames Research Center – avec un groupe de onze co-auteurs comprenant des personnes connus, issues des domaines de l’anthropologie, de l’éthique, de la philosophie, de la théorie décoloniale et des études féministes – et soutenus par une liste de 109 signataires. Le manifeste dont le titre est, « L’exploration éthique et le rôle de la protection planétaire pour nous débarrasser des pratiques coloniales » présente peu de qualité technique. Il est néanmoins d’un grand intérêt clinique, car il démontre avec brio comment les idéologies responsables de la destruction de l’enseignement universitaire des « arts-libéraux » aux Etats-Unis, peuvent être mises à contribution pour interrompre également l’exploration spatiale.

* NdT : Produit à la demande de la NSF (Fondation Nationale pour la Science) et de la NASA, le Planetary Science Decadal Survey est utilisé pour définir les investissements dans le domaine de la recherche astronomique et sélectionner les missions spatiales interplanétaires.

Avec une clarté louable quant à leur parti pris et leur intention, les auteurs de l’EDIWG disent que l’exploration par vols habités doit être arrêtée car elle représente une continuation de la tradition occidentale de développement des ressources par la libre entreprise. « Toute l’humanité est partie prenante dans la façon dont nous, la communauté des sciences planétaires et de l’astrobiologie, nous engageons auprès d’autres mondes », disent-ils. « Les pratiques et structures coloniales violentes – génocide, appropriation des terres, extraction de ressources, dévastation environnementale, etc. – ont gouverné jusqu’ici l’exploration sur Terre et, si elles ne sont pas activement démantelées, elles définiront les méthodologies et les mentalités que nous porterons demain dans l’exploration spatiale. Il est essentiel que l’éthique et les pratiques anticoloniales fassent partie intégrale et centrale de la protection planétaire. Nous devons travailler activement pour empêcher l’extraction capitaliste sur d’autres mondes, respecter et préserver leurs systèmes environnementaux, et reconnaître la souveraineté et l’interconnectivité de toute vie. »

Les auteurs de l’EDIWG sont tout aussi clairs sur les moyens par lesquels l’exploration par les vols habités et le développement peuvent être stoppés : la bureaucratie de « protection planétaire ».

« Notre principale recommandation est…d’élaborer des politiques de protection planétaire…pour entreprendre une réévaluation solide de l’éthique des futures missions sur la Lune, Mars et d’autres corps planétaires, avec et sans équipage, dans l’intention de développer des pratiques anticoloniales. [Caractères gras dans l’original]

La « protection planétaire » a été initialement proposée pour deux objectifs. L’un était de s’assurer que les expériences de détection de la vie envoyées dans d’autres mondes ne renvoient pas de faux positifs résultant du transport de microbes terrestres dans le vaisseau spatial. L’autre était d’éviter la possibilité que de dangereux microbes d’autres mondes soient transportés sur la Terre. Ces deux contingences sont appelées respectivement « back contamination » et « forward contamination ».

Le risque de back-contamination – par des organismes pathogènes renvoyés sur Terre par les missions martiennes en particulier – est le problème de protection planétaire qui génère le plus de couverture dans les média grand public. Il n’a cependant aucune base scientifique rationnelle. Il ne peut y avoir d’agents pathogènes sur Mars car il n’y a pas de plantes ou d’animaux à infecter. En ce qui concerne les micro-organismes vivants libres qui pourraient vraisemblablement exister sur Mars, nous savons qu’ils ne peuvent constituer une menace pour la biosphère terrestre, car il y a eu un transport naturel de milliards de tonnes de matières martiennes vers la Terre au cours des 4 derniers milliards d’années. En fait, on estime que chaque année, environ 500 kg de roches éjectées de Mars via des impacts météoriques atterrissent sur notre planète. Un examen attentif de ces roches a montré qu’une grande partie d’entre elles n’ont jamais été portées à une température supérieure à 40°C pendant tout leur périple, éjection de Mars, vol dans l’espace, rentrée et d’atterrissage sur Terre. Ils n’ont donc jamais été stérilisés, et si des microbes y avaient existé lorsqu’ils ont quitté la planète rouge, ils auraient facilement pu survivre au voyage. S’il y a ou s’il y a eu des microbes à la surface de Mars, ils sont arrivés ici en grand nombre, depuis longtemps et continuent à le faire encore aujourd’hui. Ainsi, les adaptations très coûteuses de la mission de retour d’échantillons martiens exigées par le Bureau de protection planétaire de la NASA pour empêcher la libération de microbes martiens à la surface terrestre sont aussi absurdes que d’ordonner à une patrouille frontalière de fouiller toutes les voitures traversant la frontière nord des Etats-Unis pour s’assurer que personne ne fait l’importation d’oies blanches du Canada.

La question de la forward-contamination est une préoccupation plus sérieuse pour la communauté scientifique planétaire. Il est vrai qu’une bonne expérience de détection de la vie nécessite un équipement stérile. Mais cela peut être obtenu par une bonne discipline expérimentale plutôt qu’en tentant de stériliser ou de mettre en quarantaine une planète entière. En effet, la mise en quarantaine de Mars n’est pas davantage possible que la mise en quarantaine de la Terre car tout comme les matériaux martiens arrivent sur Terre, les roches terrestres parviennent jusqu’à Mars depuis l’aube du système solaire.

Afin de permettre à quelque mission scientifique que ce soit en surface de Mars de se dérouler, le Bureau de la protection planétaire de la NASA (« PPO ») a assoupli ses exigences de stérilisation pour celles qui ne comprennent pas d’expérience de détection de la vie. Mais pour celles qui ont précisément cet objet, les exigences plus strictes du PPO, plutôt que d’aider à la recherche de la vie, tout simplement les empêchent. De ce fait aucune expérience de détection de la vie n’a été envoyée sur Mars depuis 1976. La situation est devenue si mauvaise qu’un groupe d’éminents astrobiologistes souhaitant envoyer une telle expérience, a dû la proposer comme un test de certification de stérilité, pour identifier un lieu sans vie afin qu’il puisse être utilisé comme un lieu sans science par les astronautes !

L’idée qu’après un demi-siècle sans qu’une mission de détection de la vie ait été envoyée sur Mars, la NASA doive dépenser des milliards de dollars de l’argent des contribuables et après une décennie d’efforts d’une équipe talentueuse de scientifiques et d’ingénieurs pour en créer une, seulement pour l’envoyer dans un endroit où elle est la moins susceptible de la trouver, est manifestement absurde. C’est pourtant à cela que le programme de protection planétaire nous a réduits.

La jeune Mars était une planète chaude et humide, un peu comme la Terre primitive l’a été. Cela aurait pu faire émerger la vie, mais est-ce arrivé ? Si c’est le cas, cette vie est-elle toujours là et utilise-t-elle le même système d’information ADN / ARN qui gouverne la conception, la reproduction et les capacités d’évolution de toute vie terrestre ? Ou utilise-t-elle un système entièrement différent ? Ce sont des questions d’un intérêt scientifique et philosophique extraordinaire portant sur la prévalence potentielle et la diversité de la vie dans l’Univers.

En conséquence, nous devrions certainement envoyer des expériences de détection de la vie sur Mars, ciblées, bien sûr, dans des endroits où elles seraient le plus susceptibles de trouver la vie, et non le moins susceptibles de le faire. Et si elles détectent de la vie, c’est précisément là que nous devrions envoyer des astronautes, pour faire, sur place, le genre de recherche complexe nécessaire pour caractériser correctement la vie martienne comme seuls des scientifiques humains agissant sur le terrain peuvent le faire.

L’objection des spécialistes de la protection planétaire selon laquelle si des astronautes se rendaient sur Mars, il n’y aurait aucun moyen de savoir si des microbes qu’ils pourraient trouver seraient indigènes ou transportés depuis la Terre, est sans fondement. Les explorateurs humains sur Mars pourraient savoir que quelque vie que ce soit qu’ils trouveraient, était là avant eux par le même moyen que les explorateurs humains sur Terre savent qu’il y avait de la vie ici avant nous : les fossiles. Toute vie native de Mars trouvée dans le présent doit également y avoir été dans le passé, et si elle l’a été, elle aura laissé des fossiles ou d’autres résidus biomarqueurs. Pour pouvoir nier que de tels fossiles prouvent l’existence d’une vie antérieure à l’homme, les protectionnistes planétaires devraient argumenter, comme le font les créationnistes, que Mars a été créé avec des fossiles intégrés dans sa géologie afin de tester notre foi. Plutôt que de s’exposer à la moquerie en défendant une telle théorie, ils ont simplement choisi d’agir de manière totalement arbitraire.

Les règles de protection planétaire existantes empêchent principalement les hommes d’atterrir sur Mars, parce qu’il n’y a aucun moyen de garantir qu’un vaisseau spatial avec équipage ne s’écraserait pas, disséminant des microbes qu’il transporte dans tout l’environnement. C’est un réel problème pour les ambitions d’exploration humaine de la NASA. En effet le programme Apollo d’atterrissage sur la lune de la NASA aurait été tout à fait impossible en appliquant les directives de protection planétaire actuelles. C’est pour cette raison que Jim Bridenstine, l’Administrateur de la NASA, a créé une commission dirigée par le Dr Alan Stern, le scientifique responsable de Pluton dans le cadre de la mission New Horizon. Cette commission a produit un ensemble de recommandations pour libéraliser les règles de protection planétaire afin de rendre à nouveau possibles les missions lunaires habitées. Les auteurs de l’EDIWG sont clairement hostiles à cette évolution et craignent qu’elle ne soit étendue pour permettre également des missions habitées sur Mars. Cependant, comme la protection planétaire ne peut pas vraiment être défendue sur des bases scientifiques, ils insistent pour que d’autres critères soient adoptés. Plus précisément, ils recommandent une combinaison de mysticisme panthéiste passéiste et de pensée socialiste postmoderne.

En tant que méthodologie pour comprendre le monde naturel, le mysticisme a été remplacé depuis un certain temps par le rationalisme occidental. Les auteurs de l’EDIWG consacrent donc une bonne partie de leur article à diffamer la civilisation occidentale, en se basant sur l’autorité du « Projet 1619 »* et de recherches post-rationnelles similaires. « L’expansion coloniale et la traite transatlantique des esclaves ont été à la base de notre monde actuel », disent-ils, ignorant le fait que ce sont en fait les révolutions scientifiques et industrielles qui ont été fondatrices de notre monde actuel en libérant l’humanité des diverses formes d’esclavage qui caractérisait toutes les sociétés précédentes. « Ce que nous appelons la mondialisation », poursuivent-ils, « est le point culminant d’un processus qui a commencé avec la constitution de l’Amérique et le capitalisme eurocentré colonial / moderne en tant que nouvelle puissance mondiale. Le résultat est un monde où les systèmes politiques et économiques, à savoir le capitalisme, donnent la priorité au profit sur le bien-être humain, produisant une crise environnementale et de vastes inégalités aggravées par le changement climatique », etc., etc.

*NdT: Commémoration de l’arrivée des premiers esclaves noirs en Amérique du Nord, occasion saisie par le New-York Times en 2019 pour réévaluer l’histoire des Etats-Unis.

La civilisation occidentale n’est certainement pas innocente de tout crime, en particulier contre les populations indigènes des régions coloniales. Mais la racine de ces crimes fut l’incapacité de l’Occident dans certains cas à respecter ses propres principes révolutionnaires établissant des droits inaliénables pour toute l’humanité. En revanche, tout en adoptant une posture anti-impérialiste, les auteurs de l’EDIWG dégradent profondément les peuples autochtones en les décrivant comme faisant partie d’un écosystème, faisant des délits contre eux-mêmes non pas des violations des droits de l’homme mais une forme de dommage environnemental. Sur cette base, ils avancent la thèse selon laquelle nuire aux microbes serait aussi immoral que tout ce qui a été fait aux Amérindiens ou aux Africains. « Il doit y avoir une discussion plus approfondie sur la considération morale dont la vie microbienne sur d’autres mondes devrait bénéficier, au-delà de sa signification scientifique », disent-ils. « Savoir si l’être vivant est doué ou non d’intelligence ne doit pas être utilisé comme guide dans cette discussion. Non seulement les déterminants biologiques de l’intelligence ont une histoire raciste mais ils n’ont pas de mérite scientifique. Il est clair que la microbiologie est fondatrice de la Terre telle que nous la connaissons, et les microbes méritent une considération morale. »

Ayant adopté un système éthique qui empêcherait l’utilisation d’antibiotiques, mettant ainsi en péril la civilisation moderne sur Terre, les auteurs proposent de l’avorter complètement sur Mars :

« Une présence humaine sur Mars apporterait des bio-contaminants et contaminerait irréversiblement la planète, à la fois avec des organismes entiers et avec leurs constituants chimiques. Cela est extrêmement préoccupant pour la capacité de mener une astrobiologie saine pour identifier la vie ancienne ou présente, mais cela introduit également une préoccupation morale plus large…Par conséquent, il est de la plus haute importance de tenir compte de l’éthique de toute mission avec équipage sur Mars avant une telle expédition, y compris de procéder à une évaluation des structures soutenant le projet et de leur intention, pour s’assurer que la conception de la mission puisse être si nécessaire impactée par ces considérations. » [Caractères gras dans l’original.]

Mais que se passerait-il s’il s’avérait qu’il n’y ait aucune présence de vie sur Mars ? Pourrions-nous alors passer outre ces précautions ? Désolé, on ne peut pas jouer ! « Même s’il n’y a pas de vie microbienne sur Mars ou même plus loin, nous devons considérer les impacts de nos actions sur une échelle de temps géologique », disent-ils. « Une présence humaine sur un monde astrobiologiquement significatif pourrait perturber les processus évolutifs déjà en place. Quelle obligation morale avons-nous envers la vie future potentielle que notre présence sur Mars pourrait impacter, ou envers les formes de vie hybrides que notre présence pourrait potentiellement créer ? Ces questions doivent être traitées par une politique de protection planétaire. »

Mais il faut encore aller plus loin ! La politique de protection planétaire, disent les auteurs, ne doit pas se limiter à la prise en compte de la vie réelle ou potentielle. « L’esthétique doit également être envisagée. Si l’extraction minière sur la Lune doit être une entreprise de grande envergure, comme prévu, les changements seront visibles depuis la Terre », affirment-ils, « modifiant fondamentalement l’une des rares expériences partagées par tous les êtres humains, la contemplation de la Lune. De plus, la Lune et d’autres corps planétaires sont sacrés pour certaines cultures. Serait-il possible que ces croyances soient respectées si nous nous engagions dans l’utilisation des ressources présentes sur ces mondes ? »

En posant cette question, les auteurs de l’EDIWG adoptent les arguments d’autres éthiciens putatifs contemporains qui affirment que les corps extraterrestres tels que la Lune ont le « droit » de rester inchangés. Mais clairement la Lune est un rocher mort. Elle ne peut rien faire, ni vouloir faire quoi que ce soit. Ainsi, de telles discussions ne visent pas vraiment à établir des droits pour la Lune, mais à les refuser aux êtres humains.

De plus, si le représentant autoproclamé de n’importe quelle tribu quelque part dans le monde peut arrêter le développement spatial en affirmant qu’il viole ses anciens enseignements sacrés, il est peu probable qu’un tel développement puisse se produire. Les auteurs de l’EDWIG sont d’ailleurs tout à fait d’accord avec cela. Comme ils le disent, « [cela] vaut la peine de se demander si notre mode actuel de capitalisme extractif est quelque chose que nous devrions emporter avec nous lorsque nous interagissons avec d’autres mondes. » En outre, aider à répondre aux besoins de l’humanité par le développement entrepreneurial des ressources spatiales serait une mauvaise chose, car « permettre à ceux qui sont riches de s’engager à titre privé dans une entreprise d’exploration spatiale pourrait exacerber dans un avenir immédiat les inégalités de richesse déjà extrêmes. »

La question fondamentale en jeu, nous disent clairement les auteurs, n’est pas simplement de supprimer l’entreprise humaine dans l’espace, mais aussi sur Terre. « En fin de compte, nous devons construire un meilleur avenir, un avenir qui soit moral et vivable, car c’est ainsi que nous pourrons survivre sur notre propre planète…Mettre à bas les structures qui gouvernent notre monde actuel et en construire de nouvelles ne sera pas facile. Nous appelons le comité décennal à s’engager dans ce combat. »

Dans sa pièce « Les Oiseaux », le satiriste grec de l’Antiquité, Aristophane, décrit un complot aviaire visant à conquérir l’Univers en construisant un mur au travers du ciel. Ceci, espéraient les oiseaux, isolerait les dieux de leur nourriture essentielle, la fumée sacrificielle, les forçant ainsi à se rendre.

Les oiseaux voulaient empêcher les dieux d’entrer, les auteurs de l’EDIWG veulent enfermer l’humanité. Mais comme le montre l’échec du complot des oiseaux, ce travail ne peut pas être fait avec des briques…La protection planétaire est donc la réponse.

Liens :

Article de Robert Zubrin publié dans la National Review du 14 Novembre :

https://www.nationalreview.com/2020/11/wokeists-assault-space-exploration/

Manifeste (« white paper ») de l’« Assessment Group (AG) committee », « Equity, Diversity, and Inclusion Working Group (EDIWG) » de la NASA remis au « Planetary Science and Astrobiology Decadal Survey » de l’Académie des Sciences pour la période 2023 à 2032 :

https://arxiv.org/ftp/arxiv/papers/2010/2010.08344.pdf

Planetary Science and Astrobiology Decadal Survey 2023-2032:

https://www.nationalacademies.org/our-work/planetary-science-and-astrobiology-decadal-survey-2023-2032

Lire dans Le Temps :

https://www.letemps.ch/sciences/programme-spatial-tres-terre-terre-joe-biden

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 20 11 09