La nouvelle Planetary Science & Astrobiology Decadal Survey formule des recommandations très séduisantes pour la décennie à venir

Ce 19 avril 2022, le comité-directeur (steering-committee) du National Research Council (NRC) de La National Academy of Sciences (NAS) des Etats-Unis, pour la « Planetary Science & Astrobiology Decadal Survey », a présenté au public ses recommandations sur la politique à suivre pour la décennie qui s’ouvre. Ces recommandations sont adressées sous forme d’un rapport (800 pages), « Origins, Worlds, and Life ; A Decadal Strategy for Planetary Science and Astrobiology 2023-2032 », à la NASA, à la National Science Foundation (NSF) et aux diverses agences gouvernementales. Le financement de cette decadal survey provient de la NASA et de la NSF.

Le comité-directeur était co-présidé par l’astrophysicienne Robin Canup, vice-présidente adjointe de la Direction des sciences planétaires au Southwest Research Institute, et par le géologue Philip Christensen (spécialisé dans les surfaces planétaires, principalement celles de Mars et la Terre), professeur à l’école des explorations terrestre et spatiale à l’Arizona State University.

Ce rapport est très important car il est généralement très suivi par les décideurs de la politique spatiale américaine et, comme chacun sait, cette politique est déterminante pour l’évolution de la recherche mondiale dans ce domaine. Je vous en donne ci-dessous l’essentiel, en suivant au mieux le communiqué de presse publié après la présentation (à laquelle j’ai assisté en visio-conférence).

Au cours des 10 prochaines années, les nouvelles recherches doivent élargir notre compréhension des origines de notre système solaire, de la formation et de l’évolution des planètes, des conditions dans lesquelles la vie peut apparaître et persister, et des environnements potentiellement habitables dans notre système solaire ou au-delà. Le rapport met en évidence les questions scientifiques clefs, identifie des missions prioritaires pour cette période et présente une stratégie de recherche complète qui comprend outre la recherche scientifique robotique, la défense planétaire (prévention des impacts d’astéroïdes) et l’exploration humaine. Par ailleurs, il recommande les moyens nécessaires pour financer les missions y compris les technologies et les infrastructures nécessaires pour les mener à bien.

Les recommandations du comité directeur de l’enquête décennale s’appuient sur les contributions de l’ensemble de la communauté scientifique par le biais des conseils de six panels spécialisés, de centaines de livres blancs, de conférenciers invités à présenter leurs connaissances et réflexions ainsi que de travaux avec les équipes de conception de mission.

Le contenu du rapport

Le rapport identifie trois thèmes scientifiques principaux – les origines, les mondes et les processus planétaires, la vie et l’habitabilité – et définit 12 questions scientifiques prioritaires (pour les voir, cliquez sur le lien) pour aider à guider la sélection des missions et les efforts de recherche en sciences planétaires et en astrobiologie.

L’enquête recommande des missions équilibrées en trois catégories, selon les normes habituelles (« Discovery », « Medium-Class », « Flagship »), et prend en compte les missions en cours et déjà programmées (par exemple Dragonfly pour Titan ou Europa Clipper), afin de permettre un flux constant de nouvelles découvertes et de donner à la NASA la capacité de réaliser des avancées scientifiques majeures. Le programme « Discovery » de petit format (500 millions de dollars maximum) concerne les missions qui répondent à des objectifs scientifiques ciblés avec une succession élevée de lancements (PB*: Phil Christensen souhaiterait qu’elles puissent atteindre 800 millions). Les missions de classe-moyenne (« medium-class ») comme celles du programme New-Frontiers, répondent à des objectifs scientifiques plus larges (et peuvent atteindre 1 milliard de dollars, PB: à augmenter également, selon le souhait de Phil Christensen). Les missions-phares (« flagship ») répondent (pour une enveloppe de 2 milliards chacun, PB: à augmenter lorsque nécessaire, précise Phil Christensen) à des objectifs scientifiques hautement prioritaires avec des charges utiles d’instruments et des conceptions de mission sophistiquées.

*PB = remarque personnelle complémentaire

Discovery

Bien que le rapport ne fasse pas de recommandations spécifiques pour les petites missions, le comité-directeur a constaté que le programme Discovery a apporté d’importantes contributions scientifiques et que les futures missions peuvent servir à traiter un riche éventail de sujets scientifiques. Par conséquent, la NASA est encouragée à le poursuivre avec une cadence élevée de deux missions par annonce d’opportunité (les fenêtres de tir), selon les propositions qu’elle recevra. Dans ce cadre Discovery, l’effort pourrait porter en particulier sur les missions SIMPLEX (cap à 55 millions de dollars qui pourrait passer à 80 millions).

New Frontiers

Comme thèmes de missions pour le programme New-Frontiers, le rapport recommande un orbiteur et un atterrisseur sur un astéroïde centaure (PB : les centaures évoluent entre Jupiter et Neptune), un retour d’échantillons de Cérès, un retour d’échantillons de la surface d’une comète, un survol multiple d’Encelade (satellite de Saturne), un réseau géophysique lunaire (PB : pose d’un réseau de capteurs sismiques couvrant l’ensemble de la surface du satellite), une sonde pour Saturne, un orbiteur pour Titan et un explorateur pour Venus, « Venus In Situ Explorer ». Ces thèmes de missions ont été choisis en fonction de leur capacité à répondre aux questions scientifiques prioritaires mentionnées plus haut.

Missions flagship

L’orbiteur avec sonde pour Uranus (« Uranus Orbiter and Probe », « UOP ») devrait être la mission flagship la plus prioritaire. L’UOP effectuerait une mission pluriannuelle en orbite de la planète et de ses satellites pour faire avancer considérablement notre connaissance des géantes de glace en général (très mal connues), et du système uranien en particulier, grâce à de nombreux survols et à la descente d’une sonde dans l’atmosphère de la planète. Un lancement au cours de la fenêtre de tirs 2031-2032 serait possible sur un des lanceurs actuellement disponibles, si on entreprend le projet en 2024 (mais il faudra quand même compter13 ans pour parvenir dans le domaine d’Uranus =>2045!).

L’« Orbilander » Encelade (orbiteur et sonde au sol) devrait être la seconde mission flagship. L’Orbilander chercherait des preuves de vie sur Encelade, une des lunes de Saturne, depuis l’orbite et au cours d’une mission au sol de deux ans qui permettrait d’effectuer des études détaillées des matériaux des panaches (PB: projections de gaz et d’eau au-dessus de la surface, comme des geysers mais beaucoup plus haut), frais, provenant de l’océan intérieur d’Encelade (PB : Encelade est préférée à Europe pour un atterrissage, car elle semble moins difficile d’accès, en raison de l’intensité des radiations émanant de Jupiter).

Défense contre les astéroïdes

La défense planétaire fait partie d’un effort de coopération internationale pour détecter et suivre les objets qui pourraient constituer une menace pour la vie sur Terre. Les recommandations du rapport portent sur l’amélioration des capacités de détection, de suivi et de caractérisation des géocroiseurs (NEO) ; sur l’amélioration de la modélisation, de la prédiction et de l’intégration des informations les concernant ; et sur le développement des technologies de missions de leur déviation ou destruction (« disruption »).

La NASA devrait pleinement soutenir le développement, le lancement en temps opportun et le fonctionnement ultérieur de la mission « NEO Surveyor » qui comporte un télescope spatial utilisant les rayonnements infrarouge-moyen, pour pouvoir atteindre ensuite les objectifs de repérage des NEO les plus susceptibles de nous impacter. Après NEO Surveyor et le test « Double Asteroid Redirection » (« DART ») engagé en Novembre 21 (lancement), la mission de démonstration de défense planétaire la plus prioritaire devrait être une mission de reconnaissance par survol d’un NEO de 50 à 100 mètres de diamètre – taille représentative de la population d’objets posant la probabilité la plus élevée d’impact destructeur sur Terre. Une telle mission devrait évaluer les capacités et les limites des méthodes de caractérisation par survol afin de mieux se préparer à une menace NEO à court délai d’alerte.

Programmes d’exploration en surface planétaire

Mars et la Lune offrent chacune la possibilité d’étudier un large éventail des questions scientifiques posées comme prioritaires, à des distances relativement facilement accessibles. Elles justifient le programme d’exploration de Mars (MEP) et le programme d’exploration lunaire (LDEP pour Lunar Discovery & Exploration Program) en tant que programmes dédiés. Le rapport recommande également à la NASA de développer des stratégies d’exploration dans d’autres domaines de grande importance scientifique, tels que Vénus et les mondes océaniques (PB: sujets de l’habitabilité et de la recherche de la vie), qui présentent un nombre croissant d’opportunités de missions américaines et de collaborations internationales. A ce sujet, la co-présidente, Rubin Canup insiste sur les possibilités et l’intérêt de coopérer avec l’ESA (« a win win strategy »).

La NASA devrait maintenir le MEP et donner la priorité à Mars Life Explorer (MLE) comme prochaine mission MEP de classe-moyenne (PB: après le pic de dépenses pour le MSR). Alors que le Mars Sample Return (MSR) recherche des biosignatures anciennes, le MLE rechercherait la vie existante et évaluerait l’habitabilité possible aujourd’hui. L’enquête décennale précédente recommandait un rover de « mise en caches » d’échantillons de Mars comme mission flagship de la NASA, et cela a été mis en œuvre dans le cadre du programme MSR. La nouvelle enquête décennale réaffirme l’importance scientifique fondamentale de MSR et déclare que la priorité scientifique la plus élevée des efforts d’exploration robotique de la NASA au cours de cette décennie doit être de l’achever dès que possible (PB: aller chercher les échantillons), sans amoindrir l’ampleur de son objectif. Cependant, elle met en garde sur le fait que le coût de la MSR ne doit pas saper l’équilibre programmatique à long terme du « portefeuille » des missions planétaires. Si les coûts augmentaient trop, la NASA devrait faire les efforts nécessaires pour obtenir une augmentation budgétaire afin d’assurer le succès de la mission, indépendamment des autres.

La PSD (« Planetary Science Division » de la NASA) devrait mettre en œuvre un programme stratégique pour la recherche lunaire et appliquer une approche structurée pour fournir des objectifs scientifiques au programme Artemis (PB: cela veut dire que le programme ne doit pas se contenter d’envoyer des hommes “se promener” sur la Lune). Le rapport donne la priorité à la mise en œuvre d’« Endurance-A » comme mission de classe moyenne la plus prioritaire pour le LDEP. Endurance-A utiliserait des services commerciaux privées pour fournir un rover qui collecterait une masse substantielle d’échantillons sur un long parcours, pour les remettre aux astronautes afin qu’ils les rapportent sur Terre. Cette approche coordonnée offrirait une opportunité étendue pour élargir le partenariat entre l’exploration par vols habités de la NASA et les efforts scientifiques sur la Lune. Le rapport note que cette coordination nécessiterait une structure organisationnelle qui habilite le PSD et le LDEP à imposer des exigences scientifiques au programme Artemis (PB : comme quoi les relations entre les diverses directions de la NASA, ne sont pas évidentes et l’objectif scientifique du programme n’est pas encore assuré).

Financement, infrastructure et technologie

Le rapport contient une série de recommandations visant à assurer le financement, l’infrastructure et la technologie nécessaires pour soutenir les missions prioritaires et d’autres efforts de recherche. Par exemple, la PSD devrait augmenter progressivement ses investissements dans les activités de recherche et d’analyse (« R&A ») jusqu’à un niveau de financement annuel minimum de 10 % de son budget. Un investissement solide et régulier dans la R&A est nécessaire pour garantir un retour maximal des données de mission, pour qu’elles favorisent la compréhension et de nouvelles hypothèses testables, et que les avancées scientifiques alimentent le développement de future mission. Mais ces investissements ne sont pas les seuls recommandés. Il faut aussi relancer la production de Plutonium 238 comme source d’énergie (génération thermoélectrique à radio-isotope, “RTG”) pour les équipements trop éloignés du Soleil, développer le réseau de comunications nécessaires aux contacts avec les équipements et, bien sûr, continuer l’effort sur les nouveaux modes de propulsion.

Le niveau de financement des technologies planétaires (PB: non-terrestres) de la NASA a diminué ces dernières années jusqu’à descendre à seulement 4% du budget total de la NASA et il est maintenant inférieur aux niveaux d’investissement recommandés. Le rapport dit que la PSD devrait financer les progrès technologiques à hauteur de 6 à 8 % en moyenne, afin de réaliser les avancées technologiques importantes qui seront nécessaires pour accomplir la recherche stratégique et les missions désignées comme prioritaires dans le rapport.

Les observations effectuées par télescopes au sol, soutenues par la NSF, fournissent des données essentielles pour résoudre d’importantes questions de science planétaire, et la NSF devrait continuer et si possible étendre le financement pour soutenir les observatoires existants et futurs ainsi que les programmes connexes.

NB, PB: le rapport aborde, en bonne place, toutes sortes de considérations sur l’importance de veiller à la diversité, l’équité, l’inclusivité et l’accessibilité (DEIA) au sein des relations professionnelles. Comme quoi les nouvelles règles sociétales, devenues dogmatiques, s’introduisent partout aux Etats-Unis, même dans des entités technologiques et scientifiques comme la NASA qui devraient mettre au-dessus de tout les capacités de ses employés et leur mérite.

Illustration de titre : Encelade, vue d’artiste, crédit Shutterstock. Vous remarquerez les anneaux de Saturne, dans le ciel, en haut à gauche.

Liens :

https://www.nationalacademies.org/news/2022/04/report-identifies-priority-planetary-science-missions-planetary-defense-efforts-and-strategic-investments-for-the-next-decade

https://fr.wikipedia.org/wiki/Planetary_Science_Decadal_Survey

https://en.wikipedia.org/wiki/Planetary_Science_Decadal_Survey

https://payloadspace.com/national-academies-release-2022-planetary-science-decadal-survey/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 15

Les risques sanitaires d’un voyage vers Mars, bien que non négligeables, restent cependant acceptables

En dehors du risque purement astronautique, lié à la défaillance possible du lanceur ou du vaisseau, le voyage vers Mars présentera des risques qu’il vaut mieux connaître afin de pouvoir y faire face. Disons que ce voyage ne sera pas « une promenade de santé » mais qu’on pourra quand même y survivre pourvu qu’on en « use avec modération », c’est-à-dire qu’on ne le fasse pas trop souvent. Il n’y aura pas de pilote de ligne Terre/Mars/Terre.

Je fais référence à l’article Comment soigner dans l’espace de S. Thierry, M. Komorowski, A. Golemis et L. André-Boyet publié dans la revue Pour la Science d’avril 2022. Les trois premiers sont médecins, la dernière est instructrice des astronautes auprès de l’ESA.

Les auteurs listent de nombreux types de pathologies favorisées par le séjour dans l’espace :

1) au niveau de l’œil, syndrome neuro-ophtalmique, œdème du nerf optique, cataracte radio-induite ;

2) au niveau du cerveau, hypertension intracrânienne par distribution inadéquate des flux sanguin et céphalorachidien, céphalées rebelles aux traitements antalgiques ;

3) au niveau de l’oreille, perturbation de l’oreille interne, induisant l’altération de la perception et du sens de l’orientation, et le « mal de l’espace » ;

4) au niveau du système circulatoire, diminution de l’élasticité de la paroi des vaisseaux, baisse de la production de globules rouges (anémie), affaiblissement du système immunitaire ;

5) au niveau osseux, étirement de la colonne vertébrale induisant un risque de dorsalgies, déminéralisation et perte de densité osseuse, atteinte de l’architecture de l’os spongieux ;

6) au niveau des reins, augmentation du risque de calculs lié à la déminéralisation ;

7) au niveau des muscles : atrophie des muscles posturaux et perte de masse musculaire ;

8) au niveau nerveux, outre les dorsalgies et les œdèmes du nerf optique, diminution des réflexes ;

9) au niveau génétique, altérations telles que raccourcissement des télomères et autres pouvant résulter des radiations ;

10) en général, accroissement du risque de cancer résultant des radiations.

J’ajouterais une autre pathologie à celles mentionnées par les auteurs. C’est celle qui résulte de la dérive des objets en suspension dans le volume viabilisé, du fait de l’apesanteur. Les plus dangereux ne sont évidemment pas les plus gros mais les particules qui peuvent être inhalées ou qui peuvent impacter le globe oculaire.

A ces pathologies purement spatiales, s’ajoutent toutes celles propres au fonctionnement d’un corps humain dans un environnement terrestre normal, dont, par exemple, les maux de dents ou les AVC mais aussi les infections bactériennes car certaines bactéries prospèrent particulièrement bien en apesanteur (facilitation de la formation de biofilms bactériens) et en milieux clos.

Je n’oublie pas les problèmes mentaux. Ils ne sont pas totalement à négliger bien qu’ils aient été grossièrement exagérés (je ne crois pas à l’angoisse générée par la sortie de la Terre du champ de vision des voyageurs). Il pourrait y avoir le stress d’être engagé dans un voyage sans retour possible avant 30 mois et, de ce fait, de se trouver pendant une longue période avec moins de protection médicale que sur Terre et bien sûr de devoir accepter des contacts moins faciles avec ses proches.

Tout cela n’est évidemment pas très « engageant ». Cependant il faut regarder en face les problèmes et imaginez les solutions pour les résoudre.

Les facteurs qui sont les causes de ces pathologies et de leur aggravation sont bien connus : apesanteur d’abord mais aussi volume viabilisé restreint, clos et confiné ; environnement radiatif intense ; éloignement temporaire mais irrémédiable des autres êtres humains ; indisponibilité d’une bonne partie des produits pharmaceutiques, des équipements médicaux et des « soignants » auxquels la vie sur Terre nous permet l’accès.

Si on traitait ces facteurs, on pourrait résorber les pathologies. Mais le pourra-t-on ?

1) Apesanteur. Le palliatif est connu ; il s’agit de recréer une gravité artificielle par mise en rotation de l’habitat. Plusieurs solutions ont été proposées et présentées dans ce blog. Je n’y reviendrai pas. Disons que l’intérêt de cette solution est bien supérieur à celui que présente l’exercice sportif car celui-ci ne traite absolument pas les problèmes internes de distribution des flux dans le corps ou ceux de l’équilibre.

2) Volume viabilisé restreint, clos et confiné. Ce facteur, déjà traité dans ce blog, induit la nécessité d’un contrôle constant de l’environnement. Sur l’ISS, l’EHS (Environmental Health System), partie de l’ECLSS (Environment Control & Life Support System), permet de contrôler l’environnement microbien par toutes sortes de capteurs (par exemple MiDASS de BioMérieux) et de produits de traitement. Là, comme dans le vaisseau en voyage vers Mars ou, ensuite, sur Mars, Il faut/faudra surveiller non seulement la composition de l’atmosphère, mais aussi la propreté des surfaces (même cachées si elles sont dans des volumes viabilisées et communiquent avec l’habitat !) car elles peuvent servir de support à la prolifération de plaques de champignons.

3) Radiations solaires et radiations cosmiques. Ce facteur a également été déjà traité dans ce blog. Disons qu’on pourra se protéger assez bien des radiations solaires (SeP – Solar energetic Particles – quasi exclusivement constituées de protons) et d’une bonne partie des radiations cosmiques (GCR – Galactic Cosmic Rays) de même nature, principalement avec les réserves d’eau et de nourriture (outre les UV et les ondes courtes de leur voisinage sur le spectre électromagnétique qui seront arrêtées par la coque du vaisseau). Mais on ne pourra pas se protéger des rayonnements particulaires HZE (noyaux d’éléments lourds) des GCR. Ces rayonnements pouvant traverser la paroi métallique du vaisseau sans problème (pas question de blindages de plusieurs dizaines de cm dont la masse serait rédhibitoire) et générant au passage des rayons gamma. La seule « solution » sera de ne pas les subir pendant « trop longtemps ». Un voyage aller et retour sur Mars interrompu par un séjour de 18 mois sur place (protection locale), rend la dose acceptable mais on ne pourra pas le faire plus de 3 ou 4 fois dans une vie (en privilégiant la période d’activité solaire moyenne plutôt que basse).

4) Environnement humain sur le plan psychologique. Ce facteur est à mon avis d’abord à considérer en fonction de la durée et il sera très différent au début des voyages vers Mars ou « plus tard ». Pour y remédier, au début, il y aura d’une première part la cohésion et l’harmonie du groupe. Il est essentiel de faire voyager ensemble des personnes qui s’acceptent mutuellement et qui ont la volonté de coopérer sans s’immiscer ou s’imposer. Par ailleurs, il y aura des liaisons radio et vidéo avec la Terre et en dépit du décalage horaire, des communications nuancées, y compris à teneur affective, seront possibles. Pensez aux mails aujourd’hui ; ils permettent toutes sortes d’échanges. On peut presque vivre socialement par correspondance. Ensuite, lorsqu’une base pérenne aura été créée sur Mars avec une population diverse, une sécurité et un confort satisfaisant, les seuls problèmes resteront l’impossibilité de revenir sur Terre avant 30 mois et la longueur du voyage. Il faudra l’accepter (avant le départ !) en faisant la balance avantages/inconvénients.

5) Rareté des produits pharmaceutiques, des équipements médicaux et des soignants. Pour « remédier » à ce facteur, il faudra tout d’abord embarquer tous les produits pharmaceutiques susceptibles d’être utilisés, y compris les produits antiseptiques et sédatifs. Il faudra aussi embarquer les instruments/appareils médicaux pour examens tels que radios, échographies, défibrillateurs, examens oculaires, matériel pour intubation trachéale, instruments chirurgicaux. La limite sera qu’on ne peut pas tout prévoir et surtout que le volume des soutes de vaisseaux spatiaux ne sont pas illimités. Et non seulement on ne pourra pas « tout » prendre avec soi mais les instruments pourront se détériorer, se casser, se souiller, ne pas être précisément adaptés à l’usage dont on aura besoin. Par ailleurs, certaines molécules médicamenteuses actives sont sensibles aux rayonnements radiatifs. Il faudra les protéger mais comme déjà dit, la protection contre certains rayonnements cosmiques (les HZE de GCR) est impossible. Dans le domaine des instruments, l’impression 3D pourra être un recours très important (SpaceX l’utilise depuis des années pour des pièces à géométrie complexe de ses moteurs). Pour lutter contre l’obsolescence des médicaments, la seule solution sera de miser sur un voyage aussi court que possible (Mars mais pas plus loin !) et ensuite sur le développement d’une industrie pharmaceutique locale (pour les molécules les moins difficiles à produire). Pour ce qui est des soignants, il faut, comme je l’ai mentionné dans le paragraphe « environnement humain », bien distinguer entre « maintenant » et « plus tard ». Pour les premières missions, il sera aussi important d’envoyer des médecins que des ingénieurs car l’homme est la plus précieuse de nos machines. Comme choix de médecins, je donnerais la priorité à deux chirurgiens et à un dentiste, les autres soignants pouvant être guidés à distance depuis la Terre par leur confrère, malgré le décalage temporel.

Bien entendu, une fois sur Mars, les problèmes seront différents de ce qu’ils auront été pendant le voyage puisqu’un minimum de pesanteur sera rétabli et qu’on aura des moyens beaucoup plus efficaces pour se protéger des radiations. Restera toujours le problème de l’espace réduit et confiné mais il sera également moins critique puisqu’on pourra l’agrandir (viabilisation de caverne naturelle ou excavée, construction d’habitats permettant au moins l’isolement des personnes contagieuses et l’assainissement des espaces insalubres). Quant à l’isolement de la Colonie, certains aimeront se trouver loin ; il y a des amoureux des déserts, des îles perdues ou des avant-postes. Avec le temps, des familles se créeront et un sentiment d’appartenance local se développera. Il ne faut pas désespérer des facultés d’adaptation de l’être humain.

Pour le moment, il est certain que les conditions sanitaires d’une mission sur Mars seront moins bonnes que sur Terre, surtout pendant le voyage. Mais cela n’est pas une raison de ne pas entreprendre cette belle aventure. La vie ne consiste pas à attendre la mort dans son fauteuil.

Illustration à la Une : L’astronaute Karen Nyberg (USA), ingénieure de vol de l’expédition 36 de l’ISS (mai à septembre 2013), procède à un examen oculaire sur elle-même (fond de l’œil, avec un fondoscope). Image, crédit NASA.

Lien : Pour la Science, Avril 2022, Comment soigner dans l’espace, par S. Thierry, M. Komorowski, A. Golemis, L. André-Boyer : https://www.pourlascience.fr/sd/medecine/comment-soigner-dans-l-espace-23537.php

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 15

Mon intérêt pour l’exploration spatiale, un état d’esprit constant

Ces derniers temps, étant privé d’ordinateur donc de possibilité de lecture du fait de mon opération de la cataracte, je réfléchissais à ce qui me différenciait de mes contemporains. Personnellement je me moque totalement de savoir quelle voiture je pourrais acheter ou quelle montre je pourrais mettre à mon poignet, ou encore de savoir qui a gagné le dernier match de football mais je me précipite sur les dernières recherches publiées partout dans le monde, pour en savoir juste un peu plus sur l’Univers que ce que j’en sais déjà. Mon intérêt pour l’exploration spatiale n’est à l’évidence pas partagé par tous, même si le nombre de mes lecteurs montre que je ne suis pas seul. Il est évident que certains se préoccupent davantage d’« ici et maintenant » tandis que d’autres se passionnent davantage pour les grands problèmes de l’humanité.

Il faut être nuancé. Sans doute tous les hommes ont potentiellement les mêmes gammes de pulsions sinon le même potentiel. Mais chez certains la pulsion du « fondamental » est plus forte que chez d’autres. Je ne suis évidemment pas le premier à faire le constat (voir le magnifique poème L’albatros de Baudelaire) et je ne critique pas ceux qui font un autre choix que le mien. Il ne s’agit d’ailleurs sans doute pas d’un choix mais je pense plutôt d’un état d’esprit, d’une prédisposition, peut-être génétique, de l’intellect, qui oriente un être humain dans une trajectoire mentale plutôt que dans une autre.

Je sais bien qu’il n’est pas facile de consacrer toute sa vie à ses rêves et à ses passions. « Il faut bien vivre ». Mais il ne faut pas mettre tout sur le compte de la pression de la nécessité. Passionné depuis ma prime adolescence par la « géographie physique » (qu’on appellerait aujourd’hui « planétologie »), j’ai moi-même été banquier après avoir fait des études de sciences économiques par refus de m’enfermer dans ma passion et pour tenter « autre chose » que ce à quoi j’étais prédisposé. Ceci dit, je ne regrette pas de m’être plongé dans la vie de tous les jours. Je m’y trouvais un peu comme l’albatros mentionné ci-dessus, maladroit au début, mais ayant commencé jeune, j’ai pu, dans une certaine mesure, m’adapter et acquérir ainsi une expérience et un sens du réel qui me servent toujours aujourd’hui.

J’ai, en quelque sorte, « appris à marcher en contrôlant mes ailes », tout en aiguisant mon intellect au contact du réel le plus varié et le plus dur possible. L’analyse de risques sur contreparties, entreprises, projets ou particuliers, qui était ma spécialité, est une spéculation sur l’avenir à partir d’un présent extrêmement complexe, comptable et financier mais aussi technologique et psychologique, d’intentions qui sont difficiles à déchiffrer dans un contexte évolutif dans lequel interviennent une multitude de facteurs (aujourd’hui par exemple, la guerre). Il faut sans cesse estimer et déduire à partir d’un réel qui malgré tous les efforts possibles, reste flou, et concourir à la décision. Il y a des dossiers « solides » ou « carrés » mais les emprunteurs ne font pas souvent part de leurs difficultés. Il leur arrive de les dissimuler, s’ils ne se trompent par excès d’optimisme et, de toute façon, ils ne connaissent pas l’avenir. Heureusement certains « voient juste » ou d’autres ont simplement « de la chance ». Quoi qu’il en soit, il vaut mieux pour le banquier, ne pas se tromper dans la compréhension des différentes technologies employées ou des différentes situations et malgré les stratégies variées d’évitement ou simplement les omissions involontaires des interlocuteurs, car les conséquences peuvent être très lourdes, en pertes (les rémunérations sur risques pris, sont très rarement supérieures à 1% du capital engagé) ou en gains (il faut bien gagner de l’argent pour continuer à rémunérer l’établissement et à prêter).

J’aime à penser qu’Henri le Navigateur, ce prince portugais qui a précédé les Grandes-découvertes devait être dans le même « état d’esprit » que moi quand il contemplait l’Océan immense depuis son rocher de Sagres en cherchant à le comprendre. Dans mon contexte personnel, j’avais au mur de mon bureau une grande carte de la National Geographic Society montrant notre ciel et l’Espace dans une succession vertigineuse d’agrandissements, depuis notre système solaire interne jusqu’à notre groupe local de galaxies. Et cette carte, toujours dans le coin de mon œil, me permettait de « garder les choses en perspectives ».

Finalement c’est lorsqu’il prend sa retraite que l’homme qui a suivi un parcours tel que le mien se retrouve ou se découvre et peut s’épanouir enfin pleinement, construisant sur l’acquis pour aller encore plus loin, comme le pilote d’une fusée qui a brûlé son premier étage et qui allume le second pour se mettre sur la trajectoire qui l’enverra vers sa destination finale (qu’il n’atteindra peut-être jamais, mais enfin il est parti). A ce moment de la vie, le temps qui reste est par définition court et il s’agit de l’utiliser en fonction de ce qu’on est soi-même, profondément. J’ai des amis qui se sont arrêtés parce qu’ils étaient atteints par la milite d’âge, et ne s’en sont jamais remis. Ils étaient banquiers avant tout et ne savaient pas être autre chose. La retraite a été pour eux l’entrée dans l’oisiveté et le néant. D’autres, comme moi, ont tourné la dernière page de cette première vie et sont entrés dans un nouveau livre qu’il s’agissait d’écrire avec toute la richesse mentale accumulée par l’expérience. Encore à ce niveau, certains ont préféré « rester dans la finance », achetant et vendant des actions pour eux-mêmes ou devenant conseiller financier pour d’autres ; d’autres sont partis vers la spiritualité ou bien le grand large pour tenter de comprendre ce monde étrange et merveilleux qu’est le nôtre. J’ai l’immense satisfaction de faire partie de ces derniers mais je ne jette aucune pierre aux autres. Chacun fait selon ses besoins et selon ses moyens. Notre diversité fait la beauté de l’être humain.

Bien entendu, en parallèle, d’autres encore ont cultivé leur passion toute leur vie. Ils ont suivi le cursus universitaire « normal » et sont devenus astrophysiciens, ce que j’aurais voulu faire et que j’aurais fait si je n’avais pas craint de m’enfermer dans mon propre univers. Ils sont sans doute animés du même état d’esprit que moi. Mais finalement je ne regrette pas mon parcours « freelance » hétérogène. Il m’a permis de voir la science, leur science et ma science, dans un contexte enrichi d’une autre dimension et donc de la conscience du caractère humain, du terreau, dans lequel elle se développe. Je pense en fin de compte que « c’est un plus » car dans ce domaine et dans cette perspective, le généraliste a un avantage sur les spécialistes pourvu que le généraliste puisse suffisamment comprendre ce que font les spécialistes.

Illustration de titre :  Programme Aurora (ESA), crédit ESA et Pierre Carril. Je reprends encore une fois cette illustration que j’aime beaucoup car pour moi elle illustre parfaitement cet état d’esprit dont je parle. Elle est porteuse avec une force inouïe, de l’imagination et du « rêve d’ailleurs ». Elle a été commandée à Pierre Carril par l’ESA à l’époque du lancement du programme Aurora (aujourd’hui semble-t-il, hélas, bien oublié !). Pierre Carril dont les dessins sont toujours extrêmement rigoureux et porteurs de sens, est l’un des meilleurs illustrateurs scientifiques se consacrant à l’espace. 

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 02

Le télescope EUCLID doit nous en dire plus sur l’énergie sombre qui étire toujours plus vite le tissu de notre Univers

En 2023, un nouveau télescope spatial de l’ESA, « EUCLID », doit quitter la Terre pour orbiter autour du point de Lagrange Terre-Soleil « L2 ». Son objectif est l’étude de l’Univers ancien, recouvrant largement la période où l’accélération de l’Expansion a commencé à se manifester en opposition à la force de gravité. Le motif sous-jacent est de tenter de comprendre ce qu’est l’énergie-sombre dont on déduit l’existence par la réalité de cette accélération et le bénéfice collatéral sera de vérifier aussi la réalité et l’importance de la matière-noire.

Si l’on ne prenait en compte que la force de gravité, l’expansion de l’Univers résultant de l’explosion primordiale, le Big-bang, devrait ralentir (s’épuiser) avec le temps. L’accélération sur-corrige très légèrement cette tendance. Mais on n’est pas arrivé à cette compréhension facilement et on a besoin aujourd’hui de précisions.

Einstein avait introduit une constante cosmologique « Λ », (lambda) dans ses équations dès 1917 (deux ans après la première version publiée de sa Relativité-générale), en lui affectant une valeur telle que dans ses calculs l’Univers restât statique car il refusait l’idée d’un univers en expansion que donnaient naturellement ses calculs. En 1922, Alexander Friedman montra que les équations d’Einstein restaient valables avec un Λ quelconque. En 1927, se fondant sur la théorie d’Einstein et sur la constatation faite par l’astronome Vesto Slipher en 1920 de l’éloignement des astres lointains (décalage vers le rouge de leur lumière), Georges Lemaître démontra que l’Univers devait être en expansion avec en conséquence au début (en remontant le temps) un « atome primitif » (qui devint le « Big-Bang »). Le concept d’expansion fut confirmé en 1929 par Edwin Hubble qui s’appuyait également sur les travaux de Slipher. Il montrait, comme Lemaître, que plus les galaxies étaient lointaines plus le décalage vers le rouge de leur lumière était marqué (elles s’éloignent à une vitesse proportionnelle à leur distance). Il en tira sa « loi de Hubble », devenue plus tard « Loi de Hubble-Lemaître » et même « Loi de Lemaître »* avec sa « constante », H0 qui de fait remplaçait Λ. En 1931, Einstein reconnut son erreur et, en proposant un modèle d’Univers en expansion continue (espace-temps Einstein-de Sitter), retira son Λ.

*Hubble avait semble-t-il une tendance à orienter fortement les projecteurs sur sa personne.

Tout était pour le mieux dans le meilleur des mondes possibles mais l’on commença à spéculer sur les modalités de l’expansion. Était-elle vraiment « continue » ? En 1998, les astrophysiciens Saul Perlmutter, Brian Schmidt et Adam Riess parvinrent à démontrer qu’en fait l’expansion accélérait très légèrement (ils obtinrent le Prix Nobel pour cela, en 2011). Finie la crainte du Big-Crunch qui aurait pu survenir par épuisement de l’impetus initial donné par le Big-Bang (lente évolution décroissante du paramètre H0 dans le temps). Mais en même temps cela eu plusieurs conséquences : (1) H0 ne pouvait plus être une « constante » et sa variabilité dans le temps la rétrocédait en « paramètre » ; (2) on pouvait « réactiver » la constante cosmologique Λ ; (3) il fallait trouver la cause de cette accélération.

C’est ainsi que fut introduit le concept d’énergie sombre (et le nouveau modèle standard de l’Univers, le « modèle ΛCDM », avec “cdm” pour “cold dark matter”). En même temps on affinait le calcul de la vitesse d’expansion et on tomba sur un autre mystère qu’il faut absolument éclaircir pour aller plus loin. En effet, on obtient 67,4 km/s/Mpc (Mpc = Megaparsec) en observant le Fond Diffus Cosmologique avec le télescope Planck et en même temps 73,3 km/s/Mpc (travaux de la Coopération H0LICOW) en utilisant le déplacement des « chandelles-standards » que sont les supernovæ « Sn1a » qui parsèment la profondeur de l’espace.

C’est ce mystère que le télescope EUCLID doit nous aider à résoudre.

Pour ce faire, il va étudier à une très grande échelle, l’effet de masse des galaxies sur la lumière des sources plus lointaines (cisaillement gravitationnel), couplé à la spectroscopie pour constater les redshift (décalage de la lumière reçue vers le rouge). Il va aussi étudier les grandes structures de l’Univers en les comparant dans l’Univers très lointain et moins lointain. Dans le premier cas, comme toute lumière est magnifiée et courbée par la masse, les galaxies situées au-devant d’autres (dans notre ligne de vue) rapprochent de nous la lumière de ces dernières (effet de loupe-gravitationnelle). Du fait de sa courbure, cette lumière est répartie en croissants autour de la galaxie-loupe. L’effet est d’autant plus fort que la masse de la loupe est importante. Et cette masse est forcément complète, c’est-à-dire qu’elle comprend aussi bien la fameuse « matière noire » que la matière visible (baryonique). EUCLID va étudier l’effet des lentilles gravitationnelles faibles aussi bien que fortes, et leur effet visuel sur les formes des galaxies cachées. Par ailleurs, en analysant par spectroscopie la lumière de ces croissants de lumière, on obtiendra un redshift donc une distance. Dans le second cas, l’effet de l’énergie noire, sur la durée, devrait donner aux grandes structures (amas de galaxies, filaments cosmiques) des aspects différents aux époques différentes, que l’on pourra comparer.

EUCLID étudiera ces phénomènes sur une très grande profondeur d’espace et de temps (jusqu’à 10 milliards d’années) et sur une très grande surface de voûte céleste (15.000 degrès2 à comparer aux 41.253 degrés2 de l’ensemble de la voûte céleste, pour les deux hémisphères). Cela facilitera les comparaisons et les étalonnages. On pourra voir à la fois l’effet progressif de l’accélération de l’expansion de l’Univers et l’effet plus ou moins fort de l’énergie sombre, ce qui permettra de mieux comprendre cette dernière. On devra pouvoir déterminer l’accélération de l’expansion à 1% près et les (éventuelles) variations d’accélération à 10% près.

EUCLID, (mauvais) acronyme pour « EUropean Cosmic aLl sky Investigator of the Dark universe » a été initié en 2008 par le « Concept Advisory Team » de l’ESA. Le projet, approuvé en 2011, pour la modique somme de 500 millions d’euros (mais le maximum pour ce type de projet), fait suite à la mission Planck dont l’objet était d’étudier le Fond Diffus Cosmologique (CMB), la limite de ce qu’on peut voir, le fond du tableau en quelque sorte. EUCLID va étudier la dynamique qui, à partir de ce fond, a permis à l’Univers de se déployer jusqu’à nous.

Les deux maîtres d’œuvre sont Thales Alenia Space (module) et Airbus (télescope). EUCLID disposera d’un miroir de 1,2 mètres qui permettra de recueillir les ondes lumineuses (instrument VIS, construit par un consortium d’instituts dirigé par le Laboratoire de science spatiale Mullard, de l’University College de Londres) et celles de l’infrarouge proche (deux instruments NISP, construits par un consortium d’instituts dirigé par le Laboratoire d’Astrophysique de Marseille – LAM ; leurs détecteurs sont fournis par la NASA). Le module de charge utile (« payload ») et le télescope lui-même sont en carbure de silicium, comme pour le télescope Gaïa. Cela présente l’avantage de la plus grande stabilité possible aux différences de températures. Comme le dit l’ESA, « Les détecteurs de NISP – spectrographe et photomètre – bénéficieront du plus grand champ visuel sur un instrument infrarouge ayant jamais volé dans l’espace ».

Derrière les constructeurs, il y a une communauté scientifique et technique impressionnante. Le « Consortium EUCLID », « EC », regroupe des scientifiques et des ingénieurs de 14 pays européens (dont la France et la Suisse avec l’EPFL et l’Uni. de Zurich) ainsi que le Canada et les USA. Il comprend 1500 membres et il est structuré avec un « lead » (ECL, Euclid Consortium Lead) et par un board (ECB). Avec les constructeurs et l’ESA, le Consortium forme la « Coopération EUCLID ».  Il tient une réunion annuelle (les « Euclid Meetings »). Le dernier, organisé par le LASTRO de l’EPFL a eu lieu à Lausanne en juin 2021, virtuellement (covid oblige !).

Le lancement se fera de Kourou en mars 2023 avec une fusée Ariane 6-2 (on avait prévu une fusée Soyouz et il y a sans doute quelques aménagements à faire car le pliage de la sonde était parfaitement adaptée à la coiffe de son transporteur !). La destination sera encore une fois le point de Lagrange Terre-Soleil L2, à seulement 1,5 millions de km de la Terre. Ce « point » présente l’avantage d’être plus loin du Soleil que nous le sommes et dans l’ombre de la Terre. Pour bien capter les rayonnements infrarouges, le télescope devra garder une température de -190°C (ce qui implique bouclier thermique et liquide cryogénique) et son positionnement devra être réglé très finement puis maintenu totalement stable (propulseurs au gaz froid). Du fait des « consommables », il ne pourra être utilisé que 6 ans.

Le montage se termine, presque tout est prêt. On attend avec impatience que ce petit bijou puisse fonctionner !

Illustration de titre : vue d’artiste du télescope EUCLID (crédit ESA).

PS: j’attire votre attention sur la conférence que Claude Nicollier va donner au Club 44 (La Chaux-de-Fonds) ce jeudi 7 avril, “L’espace des possibles – En quête de nos origines avec Hubble et son successeur”. Je rappelle qu’outre son passé, bien connu, d’astronaute, Claude Nicollier est aussi astrophysicien et professeur (honoraire) à l’EPFL (eSpace) : Club 44

Liens :

https://www.lefigaro.fr/sciences/le-satellite-europeen-euclid-va-tenter-de-resoudre-le-mystere-de-l-energie-noire-dans-l-univers-20220125

https://fr.wikipedia.org/wiki/Euclid_(t%C3%A9lescope_spatial)

https://www.euclid-ec.org/

https://sci.esa.int/web/euclid

https://www.futura-sciences.com/sciences/actualites/cosmologie-energie-noire-acceleration-expansion-univers-defie-encore-cosmologie-62378/

https://fr.wikipedia.org/wiki/Constante_cosmologique

https://sciencepost.fr/mesure-quantite-de-matiere-univers/

https://shsuyu.github.io/H0LiCOW/site/

https://fr.wikipedia.org/wiki/%C3%89nergie_noire#:~:text=En%20cosmologie%2C%20l’%C3%A9nergie%20noire,comme%20une%20force%20gravitationnelle%20r%C3%A9pulsive

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 03 13

ESPRESSO nous fait espérer découvrir des planètes de type terrestre autour d’étoiles de type solaire

ESPRESSO1 est un « spectrographe-échelle » qui équipe depuis 2018 les quatre grands télescopes du VLT2 de l’ESO3 installé sur le Mont Paranal dans le désert d’Atacama au Chili. Sa technologie prodigieuse (largement suisse) doit enfin nous permettre de détecter des planètes de type terrestre autour d’étoiles de type solaire.

1Echelle Spectrograph for Rocky Exoplanet and Stable Spectroscopic Observations / 2Very Large Telescope / 3European Southern Observatory

Depuis qu’en 1995 Michel Mayor et Didier Quelloz ont découvert la première exoplanète, nous avons identifié quelques 4000 autres de ces astres mais aucun encore qui soit vraiment analogue à la Terre, c’est-à-dire rocheux, de masse terrestre et orbitant une étoile de type solaire dans sa zone habitable. En effet les exoplanètes découvertes soit orbitent des étoiles qui ne « conviennent » pas (naines rouges ou étoiles massives), soit ce sont des géantes gazeuses ou des super-terres (beaucoup plus massives que la Terre) et, très généralement, elles sont trop proches de leur étoile.

La difficulté de repérer une planète-de-type-terrestre-orbitant-une-étoile-de-type-solaire vient de ce que par rapport à leur étoile, ces planètes sont très petites (par rapport au Soleil, le diamètre de la Terre est 1/109 et sa masse 1/330.000) et aussi que la période de leur orbite est très longue (par définition pour la Terre, une année). Leur effet sur leur étoile est donc extrêmement faible et se répéte à des intervalles trop longs pour un suivi facile (confirmation de l’observation). Au point qu’on n’a pas pu jusqu’à présent appliquer avec succès l’une ou l’autre des méthodes développées pour déceler cet effet : « transit » (obscurcissement), « vitesse radiale » (déplacement de l’étoile) ou « lentille micro-gravitationnelle » (effet de loupe).

ESPRESSO améliore l’observation en offrant une sensibilité très grandement améliorée à nos télescopes.

Comme son acronyme l’indique, ESPRESSO est un « spectrographe-échelle pour l’observation de planètes rocheuses et pour des observations spectroscopiques stables ». Un « spectrographe échelle » utilise un premier réseau de diffraction complété par un « grisme ». Un grisme est un prisme dont une des faces est façonnée de façon à former un réseau de diffraction afin de ne laisser passer qu’une seule longueur d’onde du faisceau de lumière incident (l’axe de dispersion du second élément est placé à 90° du premier). La lumière, captée par un seul point d’entrée et non par une fente, permet d’atteindre des résolutions spectrales très élevées.

ESPRESSO bénéficie aussi d’améliorations dans la stabilité et la précision de la calibration maintenant possible grâce à la l’application de la technologie des « peignes de fréquence laser ».

Le spectrographe a pour objet d’appliquer la méthode dite des vitesses-radiales, c’est-à-dire la fluctuation dans l’espace d’une étoile sous l’effet gravitationnelle d’une de ses planètes. Considérant la masse de l’étoile et l’intensité de son déplacement dans la ligne d’observation de la Terre (décalage vers le rouge pour l’éloignement et vers le bleu pour le rapprochement), on en déduit non seulement le passage (donc la présence) mais aussi la masse de la planète.

ESPRESSO est le successeur d’une série de spectrographes-échelle, qui inclue CORAVEL (1977), Elodie (1994), Coralie (1998) et HARPS (2003). Michel Mayor et la Suisse sont à l’origine de leur développement et c’est avec Elodie que Michel Mayor a découvert « son » exoplanète « 51Pegb » (une très grosse planète orbitant une toute petite étoile). HARPS faisait partie de la « troisième génération » des spectrographes-échelle. ESPRESSO qui ouvre la quatrième, a collecté sa première lumière en janvier 2018 mais les réglages, très délicats, et un petit incident de fibre optique, ont retardé la mise en service réelle à juillet 2019. L’Université de Genève qui s’est faite une spécialité de ces instruments, a été à la tête du consortium qui a réalisé l’instrument (voir ci-dessous les membres du consortium).

ESPRESSO a une Résolution Spectrale*, « R », de 140 000 (mode HR, haute résolution) à 180 000 (mode UHR, ultra haute résolution) lorsqu’il est utilisé avec un seul télescope. NB : La « R » de HARPS, sur un télescope de diamètre «3,6 mètres, n’atteignait que 115.000.

* La « Résolution spectrale » R = λ/δλ, est la propriété la plus importante d’un spectrographe. L’incrément de longueur d’onde δλ est la séparation minimale pour que deux raies spectrales soient considérées comme juste résolues (définition Wikipedia).

ESPRESSO couvre la totalité du domaine visible du spectre (de 378 à 788 nanomètres).

Sa source de lumière est la meilleure actuellement possible dans le monde puisque l’instrument peut recombiner la lumière des quatre télescopes principaux du VLT qui ont chacun un diamètre de 8,2 mètres. Dans ce cas on a une surface de collecte égale à un télescope de 16 mètres et ESPRESSO est le premier spectrographe à travailler avec un télescope aussi grand. Dans le cas d’une collecte de la lumière des quatre télescopes, R descend à 70.000 mais il ne faut pas oublier que plus le diamètre d’un télescope est grand, plus il y a de lumière et moins il y a de diffraction. Donc il y a une compensation à cet affaiblissement.

ESPRESSO pourra permettre de découvrir des planètes de type terrestre orbitant des étoiles G2V (type solaire) dans leur zone habitable parce qu’il peut déceler des variations de vitesse radiale de l’étoile avec une précision inférieure à 10 cm/s (HARPS ne peut descendre en-dessous de 30 cm/s !) et que la Terre induit sur le Soleil une variation de vitesse radiale de 9 cm/s. NB : ces précisions de vitesses radiales correspondent à des vitesses de déplacement physique de l’étoile extraordinairement faibles : 1,08 km/h (VR = 30 m/s), 0,36 km/h (VR = 10 m/s) et 0,32 km/h (VR = 9 m/s).

On pourra ainsi analyser l’effet de planètes rocheuses de type terrestre sur des étoiles de magnitude apparente V = 9, des planètes de type Neptune sur des étoiles de magnitude apparente V = 12 (plus éloignées). Rappelons que les étoiles les plus faibles décelables par Hubble ont une magnitude visible V = 31. « HD143436 » une des jumelles de la Terre, à 141 AL, a un V = 8,03. « 18 Scorpii » a une V = 5,5. C’est une G2V d’une température de 5.433 K et d’une métallicité de 0,03% inférieure à celle du Soleil. Le seul « problème » de 18 Scorpii (si l’on peut dire) est qu’elle est beaucoup plus jeune que le Soleil, seulement 2,9 milliards d’années (contre 4,6 pour le Soleil). D’autres étoiles « intéressantes » sont accessibles :  Epsilon Eridani, V = 3.73 ; Epsilon Indi, V = 4,69.

Il semble malheureusement qu’aujourd’hui avec ESPRESSO on atteigne les limites de l’exploitation possible de ces spectrographes-échelle car on craint de ne peut plus pouvoir distinguer le mouvement propre de l’étoile de celle résultant de l’effet que la planète a sur elle. Ceci dit nous avons un beau champ d’exploration devant nous avec une réelle possibilité de très belles découvertes.

Illustration de titre : le dispositif de collecte de la lumière reçue par les quatre télescopes de 8,4 m du VLT de l’ESO (Paranal, désert d’Atacama), crédit ESO.

Le spectrographe échelle ESPRESSO au centre de collecte de la lumière, crédit ESO :

Illustration ci-dessous, à l’intérieur d’ESPRESSO, le cheminement de la lumière :

Lien entre les deux illustrations ci-dessus, crédit ESO/ESPRESSO consortium, Samule Santana Tschudi vous remarquerez la caméra pour la lumière bleue et celle pour la lumière rouge :

Réseau de diffraction « blazé » d’un grisme (les grismes sont usinés avec des réseaux blazés sur leur face). Illustration Wikipedia common (Patrick87) :

Note :

Le Consortium ESPRESSO : Observatoire Astronomique de l’Université de Genève (chef de projet); Centro de Astrofísica da Universidade do Porto (Portugal); Faculdade de Ciencias da Universidade de Lisboa (Portugal); INAF-Osservatorio Astronomico di Brera (Italie); INAF-Osservatorio Astronomico di Trieste (Italie); Instituto de Astrofísica de Canarias (Espagne); et Physikalisches Institut der Universität Bern (Suisse). ESO a participé au projet ESPRESSO comme partenaire associé.

Liens :

https://fr.wikipedia.org/wiki/ESPRESSO

https://en.wikipedia.org/wiki/ESPRESSO

https://www.eso.org/public/teles-instr/paranal-observatory/vlt/vlt-instr/espresso/

https://www.eso.org/sci/facilities/paranal/instruments/espresso.html

https://www.aanda.org/articles/aa/pdf/2021/01/aa38306-20.pdf

https://blogs.letemps.ch/pierre-brisson/2019/06/22/en-combinant-les-lumieres-des-telescopes-vlti-gravity-nous-promet-des-resultats-spectaculaires/

https://www.eso.org/sci/facilities/paranal/instruments/espresso/science.html

https://www.eso.org/sci/facilities/paranal/instruments/espresso/inst.html

https://www.unige.ch/campus/139/dossier4/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 02 24

 

LaserSeti, une nouvelle conception de la recherche des messages extraterrestres

Nous assistons à une évolution importante dans la démarche SETI*, la volonté de généraliser, simultanément à partir de toute la surface de la Terre, la recherche de signaux lasers qui pourraient provenir de civilisations extraterrestres. Cette démarche, aujourd’hui techniquement possible, est beaucoup plus adaptée aux caractéristiques des émissions qui sont les plus probables.

*SETI = Search for Extra-Terrestrial Intelligence

L’idée que d’éventuelles civilisations extraterrestres pourraient communiquer par laser, avec nous ou entre elles, n’est pas nouvelle. Elle fut exprimée dès 1961 par R.N. Schwartz et C.H. Townes*, un an après que le physicien Giuseppe Cocconi et l’astrophysicien Ph. Morrison eurent lancé l’approche micro-ondes pour SETI et un an seulement après que le physicien Theodore Maiman ait réalisé pour la première fois une émission de « lumière cohérente » en utilisant un cristal de rubis. En effet, vu les propriétés du laser, il est apparu, dès le début, logique qu’une civilisation extraterrestre s’en serve pour ses communications. L’on sait qu’un rayon laser peut transférer un demi-million de fois plus de bits par seconde qu’une émission micro-ondes et que la puissance de l’émission du laser est inversement proportionnelle à sa durée. Il serait aussi logique qu’une telle civilisation s’en serve pour la propulsion de ses vaisseaux spatiaux (nous l’envisageons nous-mêmes pour nos voiles photoniques) ou encore, comme nous le faisons, pour rechercher d’autres civilisations et éventuellement chercher à communiquer avec elles, c’est-à-dire avec nous.

Le principe est qu’un puissant laser focalisé par un télescope d’une dizaine de mètres de diamètre et situé à une centaine d’années-lumière de notre système, pourrait produire une lumière aussi visible que le Soleil à cette distance, en émettant des flashs d’un milliardième de seconde. Un autre intérêt du flash laser et, qu’étant monochromatique, il est immédiatement remarquable par rapport aux émissions lumineuses naturelles qui sont non « cohérentes », pourvu bien sûr que le capteur soit adapté.

Les extraterrestres n’ont peut-être pas eu le temps de recevoir nos signaux radios mais les plus évolués d’entre eux (toujours avec le bémol « s’ils existent ») savent forcément, par leur pratique de la spectroscopie, que nous avons de l’oxygène dans notre atmosphère. Depuis déjà longtemps, la Terre est peut-être dans leur « fichier des planètes possibles », c’est-à-dire celles où la biologie a dû se développer, et ils doivent nous observer et émettre des signaux vers nous. Nous devons, nous aussi, les rechercher et nous devons leur signifier en envoyant également un message, quel est le niveau de développement technologique que la vie sur notre planète a fini par atteindre.

Bien sûr, la communication par laser ne serait valable que pour notre environnement relativement proche. Mais au-delà de l’échange, la connaissance, c’est-à-dire savoir si oui ou non nous sommes seuls, est encore plus philosophiquement importante. On peut envisager déceler un message laser à une distance d’une centaine d’années-lumière. C’est un peu long pour une communication mais c’est très peu dans la perspective de notre évolution humaine. Alternativement au laser ou, bien entendu, toujours au message radio, reste la spectroscopie qui peut nous faire découvrir le mix gazeux atmosphérique d’une planète qui ne pourrait être que biologique. Le laser est donc une autre arme dans notre panoplie pour « savoir » et au besoin, pour « communiquer ».

Cette évidence n’a pas toujours été reconnues. Pour des raisons peu défendables aujourd’hui mais qui pouvaient l’être à l’époque où les lasers étaient considérés comme des moyens « futuristes », la NASA puis SETI privilégièrent la recherche de signaux micro-ondes (les photons « tièdes » plutôt que les photons « chauds ») au grand dam de certains astrophysiciens, dont le Dr Stuart Kingsley qui se battit toute sa vie pour changer les habitudes prises dans ce domaine.

A partir de 1973, les Russes firent deux essais, puis Stuart Kingsley un autre en 1990, dans le cadre de COSETI (Columbus Optical SETI d’après le nom du tout petit – 25 cm de diamètre – télescope utilisé) mais ce n’est qu’un 1998 que l’exclusivité micro-ondes fut véritablement levée.

A cette époque l’Université Harvard avec le Professeur Paul Horowitz, rejoignit la recherche SETI et entreprit d’utiliser le rayonnement optique avec un télescope de diamètre plus important (l’observatoire Smithonian de l’Université d’Harvard, avec un miroir primaire de 1,80 mètres). On procéda dès lors à d’assez nombreuses campagnes d’observation (13 au total) mais toujours sur des cibles ponctuelles de systèmes stellaires qu’on estimait avoir des chances d’abriter la vie.

Comme on ne trouvait rien, on passa en 2005, toujours avec Paul Horowitz, l’Université Harvard et la Planetary Society, à la recherche « All-sky », c’est-à-dire au balayage du ciel (boréal). En 2006, un télescope de 1,50 mètres de diamètre implanté à Oak Ridge dans le Massachussetts, OSETI (« Optical SETI), qui était dédié à cet objet, devint opérationnel (et remplaça le Smithonian). Il bénéficiait, bien entendu, du soutien financier de la Planetary Society et du SETI Institute.

Dès le début, le principe d’une communication par laser sur de très grandes distances étant, comme dit ci-dessus, que la puissance du signal est inversement proportionnelle à sa durée, il fallait être capables de déceler des émissions extrêmement brèves. Le nombre de photons susceptibles d’être reçus d’une étoile de type solaire distante de 100 AL sur une durée de 1 nanoseconde est de l’ordre d’un seul photon. Les instruments capables de cette lecture ultrarapide provenaient de la technologie des tubes photomultiplicateurs (« PM ») inventés en Russie dans les années 30. Ces tubes, placés au foyer de miroirs de télescopes de 1 mètre de diamètre sont capables de séquencer la lumière reçue dans la période d’une seule nanoseconde. Si le PM en reçoit 10 c’est qu’il se passe (ou plutôt, s’est passé 100 ans auparavant) quelque chose d’anormal. Le problème restant était que l’observation devait être focalisée sur une cible. Or on ne regarde pas forcément où il faut, au bon moment.

Il devint donc évident qu’il fallait être vigilant, en même temps, à partir d’une surface aussi grande que possible. C’est ainsi qu’apparut le besoin du programme « LaserSETI », porté par une nouvelle équipe d’OSETI, au sein du SETI Institute. L’éternelle Jill Tarter* y figure comme Senior Advisor.

*l’héroïne de l’excellent film/roman « Contact » de Carl Sagan !

Le programme consiste à installer un peu partout dans le monde des couples d’appareils équipés chacun de deux caméras identiques orientées à 90° l’une par rapport à l’autre le long de l’axe de visualisation (l’équivalent d’un très grand angle). L’idée est de couvrir par tranches longitudinales (d’un pôle à l’autre) la totalité de la sphère céleste. Le premier observatoire, « Robert Ferguson », a été installé à Sonoma en Californie, le second, en décembre 21, à Haleakala (Mauï, Hawaï). Il doit y en avoir d’autres, à Puerto Rico, aux Canaries, au Chili…une douzaine en tout, pour la modique somme de 5 millions de dollars ! L’intérêt d’un grand nombre de collecteurs est aussi de pouvoir confirmer un signal et d’éviter les faux (provenant par exemple d’un LIDAR embarqué sur satellite, même si le LIDAR émet en principe dans l’infrarouge).

Les observatoires utilisent un nouveau type de détecteur optique qui tirent parti de la nature monochromatique des lasers, et qui reposent sur des principes robustes et qui sont peu couteux. Alan Holmes, l’un des fondateurs du Santa Barbara Instrument Group (une société de caméras d’astrophotographie) l’a théorisé en s’inspirant des capteurs des caméras vidéo. Le concept a été adapté pour SETI par Eliott Guillum, directeur de son département OSETI. Il l’a matérialisé ensuite par la construction d’un prototype par un crowdfunding de 100.000 dollars, lancé en 2017 (sur Indiegogo). Son appareil n’est plus simplement un détecteur à un seul pixel et il peut surveiller une large partie du ciel dans une gamme de durées d’émissions très ouvertes (très rapides et moins rapides). Les observatoires fonctionnent en divisant les sources lumineuses en spectres très étendus dans le visible (on parle de « rainbow like ») et ils lisent leur caméra plus de mille fois par seconde.

Comme le disait l’astronome Seth Shostak en 2017 pour le lancement du crowdfunding, « lorsque le filet de capteurs sera installé, LaserSETI couvrira environ 200 000 fois plus de ciel que n’importe quel dispositif SETI optique antérieur. Il ne s’agit donc pas d’une amélioration par rapport aux expériences passées, mais d’un saut majeur ».

A la différence de la plupart des personnes investies dans SETI, je ne crois pas que l’espace fourmille de vie extraterrestre mais je pense que nous devons chercher. Sans preuve, une opinion reste une croyance même si elle est soutenue par une logique.

Illustration de titre : une “brassée” de signaux lasers à proximité de la Terre. Vue d’artiste, crédit LaserSETI

Image ci-dessous : vue de l’installation (sur la terrasse au premier plan) au sommet du Mont Haleakala (ile de Maui, Hawaï). Crédit image : Eliot Gillum:

NB: Indisponibilité personnelle.

Chers lecteurs, je me fais opérer demain lundi 21 mars de la cataracte et ne pourrai donc répondre à vos commentaires pendant un temps que j’espère aussi court que possible. Mes articles des 26 mars et du 02 avril sont de toute façon programmés et vous pouvez continuer à echanger entre vous. A bientôt!

Liens

https://www.seti.org/laserseti

https://www.seti.org/opticallaserseti

http://laserseti.net/

https://www.seti.org/why-we-need-new-type-seti-instrument

09/10/21 Blog: https://blogs.letemps.ch/pierre-brisson/2021/10/09/le-mouvement-seti-difficultes-beaute-et-esperance/

http://www.astrosurf.com/luxorion/seti-optical.htm

tableau des observations : http://www.setileague.org/general/optical.htm

https://www.indiegogo.com/projects/laser-seti-first-ever-all-sky-all-the-time-search#/

http://www.coseti.org/introcoseti.htm

http://www.coseti.org/townes_0.htm

“Interstellar and Interplanetary Communication by Optical Masers”in Nature, par R.N Schwartz and Ph. Townes, Volume 190, Issue 4772, pp. 205-208 (April 1961), DOI:10.1038/190205a0, lien: https://www.nature.com/articles/190205a0

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 02 24

Automaticité du progrès ?

La possibilité théorique de l’existence de civilisations extraterrestres pose question sur le niveau de développement technologique possible de ces civilisations. Estimer qu’elles auraient pu atteindre notre propre niveau implique qu’au sein de ces civilisations d’autres « personnes » auraient fait les mêmes découvertes que nos plus grands génies sur Terre et qu’en quelque sorte, le progrès est inévitable. Est-ce acceptable intellectuellement ?

Passe encore que sur cette autre planète, des hommes (ou plutôt leurs équivalents) aient découvert par accident certains phénomènes comme le feu pour brûler ou chauffer, ou l’éclat d’une roche pour couper ou tuer. Mais peut-on aller beaucoup plus loin ?

Bien sûr, une évolution est possible pour toute collectivité d’individus intelligents. On peut imaginer parvenir « naturellement » à l’élevage, à l’agriculture, à la navigation sur un morceau de bois qui flotte, faire certaines déductions astronomiques d’après l’observation des étoiles. Tout cela résulte de l’observation de l’environnement avec une réflexion sous-tendue par une intelligence. Mais il me semble qu’au bout d’un moment on atteint des limites que l’on ne peut plus franchir automatiquement.

Ainsi, comme chacun sait, les Indiens d’Amérique n’ont jamais découvert la roue ou plutôt ils n’ont jamais déduit de la connaissance de la roue la possibilité qu’elle ait, appariée en deux ou quatre unités, d’équiper grâce à un essieu un châssis qui permettrait de transporter « quelque chose », en réduisant l’effort par l’exploitation de leur instabilité au sol résultant de leur très faible incidence.

Plus on s’éloigne des phénomènes les plus simples, plus on entre dans la complexité et dans l’abstraction, plus les calculs et les mathématiques qui les utilisent deviennent nécessaires, plus le degré d’improbabilité d’obtenir les mêmes résultats à partir d’une même base augmente.

Ainsi on peut observer le ciel, comme les Grecs anciens le firent et développer des outils relativement sophistiqués comme la Machine d’Anticythère et ses engrenages pour en déduire les mouvements apparents futurs des astres, sans pour autant avoir l’idée d’utiliser des verres d’une certaine courbure pour augmenter la puissance d’observation et mieux comprendre ainsi les mouvements apparents et la différence entre la Lune, les planètes et les étoiles. On peut aussi inventer l’hélice, comme l’a fait Archimède, sans pour autant en déduire qu’on pourrait l’utiliser pour propulser un navire. Le savant grecs (dont le nom est perdu) à l’origine de la Machine d’Anticythère était génial tout comme Archimède mais ce n’est qu’en 1600 après Jésus-Christ que Galilée eu l’idée d’utiliser l’invention toute récente de la lunette pour observer les étoiles et ce n’est qu’en 1486 que Léonard de Vinci comprit que l’hélice pouvait servir à la propulsion (dans ce cas pour un aéronef) et ce n’est qu’encore plus tard, en 1806, que Charles Dallery compris qu’on pouvait l’utiliser pour faire avancer les bateaux.

A noter que l’utilisation de lentilles dans la lunette astronomique ne devenait possible qu’après que l’optique (les opticiens) et le travail du verre (les maîtres verriers) aient fait suffisamment de progrès. A noter aussi que la propulsion au moyen de l’hélice ne pouvait être possible que s’il y avait un moteur fournissant l’énergie pour la faire tourner (Léonard ne pouvait imaginer que la force musculaire). Il fallait donc que Denis Papin intervint en concevant le piston à vapeur en 1690, pour que le rapprochement pu se faire.

Alors Denis Papin ou plus près de nous Michel Mayor pensant que l’effet Doppler (après que Doppler l’eut compris !) pouvait être utilisé pour détecter les exoplanètes, sont-ils « inévitables » ? Leur rôle n’est-il que d’être des révélateurs interchangeables ? Si ce n’avait pas été eux, peut-on dire que leurs inventions auraient été faites par d’autres ?

C’est une interrogation à laquelle il est très difficile de répondre. Disons que la progression en éventail des découvertes scientifiques et technologiques créée un champ de possibles. Ce champ peut être exploité par ceux qui connaissent parfaitement une science et qui sont ainsi capables de la porter un peu plus loin ou de l’utiliser pour développer une autre branche de la connaissance qui peut utiliser la leur ou plutôt la réflexion qu’eux-mêmes peuvent avoir exprimée grâce à leur acquis. Mais il me semble qu’il n’y a nul automatisme et qu’une découverte ou une progression de la science n’est possible que si un individu est suffisamment intelligent et persistant dans sa réflexion et l’application de sa réflexion, pour qu’une nouvelle découverte se manifeste, soit démontrée, et que l’évidence de sa validité soit reconnue par tous.

Je ne vois nul automatisme dans le progrès mais je vois bien la nécessité de ces individus, de ces savants prodigieux qui non seulement ont les connaissances à partir desquelles il faut partir (« on ne va pas réinventer la roue ») mais qui en plus ont les capacités intellectuelles pour pouvoir et oser sortir des sentiers battus, juste à côté ou un peu plus loin. Mais on ne trouve pas toujours. Rien n’est facile, rien n’est évident, sauf après-coup.

La conséquence c’est que si sur une planète quelconque à l’environnement favorable, la vie est apparue puis s’est développée et complexifiée jusqu’à parvenir à produire une espèce intelligente comme la nôtre (et comme peut-être certains descendants de dinosaures auraient pu devenir), il n’est pas du tout évident que cette espèce ait atteint le niveau que nous avons atteint. Elles n’ont peut-être généré ni Denis Papin, ni Georges Lemaître, ni Einstein, ni Michel Mayor, ni Elon Musk…

Le contraire peut être vrai, c’est-à-dire qu’elles ont pu avoir l’équivalent de nos plus grands savants et ingénieurs et plus encore, de telle sorte que notre civilisation paraîtrait bien primitive en comparaison de la leur. Mais ce que je veux dire c’est que la nécessité de l’intervention d’individus remarquables dans le processus de progrès induit que nous ne pouvons absolument pas préjuger du niveau technique des « autres » (petits hommes verts). Le progrès n’est pas seulement une question de temps ni d’environnement favorable, c’est une question d’hommes.

Nous n’aurons de preuve de la possibilité de civilisations extraterrestres évoluées que lorsque nous les obtiendrons. C’est pour cela que nous devons les chercher.

Illustration de titre : Diagramme expliquant la méthode dite de vélocité-radiale (autrement dit l’effet Doppler). Crédit : Las Cumbres Observatory (réseau mondial de télescopes robotiques, siège en Californie).

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 02 24

Mars comme Arche de Noé

La guerre en Ukraine remet sur le devant de la scène le danger d’une guerre nucléaire et, compte tenu des conséquences qui pourraient en résulter, de l’intérêt pour l’humanité de l’autonomie par rapport à la Terre d’une « Planète B ».

Je ne crois pas que Vladimir Poutine veuille entrer dans une guerre nucléaire avec l’OTAN. L’armée russe a attaqué volontairement un bâtiment administratif à proximité de la centrale de Zaporijia et non la centrale elle-même. Cette attaque fait donc, apparemment, partie de la guerre psychologique menée parallèlement à la guerre au sol.

Une erreur de frappe reste cependant malheureusement possible. Elle pourrait déclencher une contamination dans l’atmosphère et en surface du sol sur une très grande surface, sans doute bien au-delà des frontières de l’Ukraine. Au-delà de l’accident, toujours à redouter, il n’est pas à exclure qu’une première frappe déclenche à l’Ouest une riposte également nucléaire, vu l’état de grande faiblesse intellectuelle dans lequel se trouve l’actuel président des Etats-Unis (qui a amplement démontré son incapacité à gérer les crises internationales). Ce serait alors, littéralement, la fin du monde.

Nous n’avons pas actuellement de « Planète-B » et il faudra beaucoup de temps pour que nous en ayons une. Dans ce contexte, l’humanité peut sinon disparaître totalement, du moins connaître le sort des dinosaures après la chute de l’astéroïde de Chicxulub (je le prends toujours comme référence mais il y en a eu d’autres). J’y vois donc la nécessité de commencer, dès que possible, à entreposer sur Mars dans des datacenters ce que nous avons de plus cher dans notre patrimoine intellectuel et à installer quelques-uns d’entre nous sur cette planète au plus vite pour entretenir ce dépôt et le faire fructifier.

Je ne dis pas que Mars pourrait devenir une « nouvelle Terre » aussi belle et riche que la vraie mais je dis que c’est la seule solution pour pouvoir survivre aujourd’hui en dehors de la Terre.

Il n’est pas réaliste d’envisager comme certains le prétendent que l’on pourra terraformer Mars. Une certaine transformation/amélioration pour notre profit de l’environnement général de la planète peut être envisagée mais le retour sur investissement est impossible (beaucoup trop d’argent, et temps nécessaire au retour beaucoup trop long) donc l’investissement tout à fait improbable. Sur le plan technique, la difficulté vient de ce que planète ne dispose pas des ressources suffisantes. Il y a de l’eau mais beaucoup moins que sur Terre. Il y a très peu d’azote. Il n’y a pas de pétrole ni de gaz. Il fait très froid (entre 0°C et -80°C en moyenne à l’equateur) ce qui implique la consommation de beaucoup d’énergie. Il y a du Soleil mais beaucoup moins que sur Terre (irradiance 492 à 715 W/m2 contre 1320 W/m2 à la distance de la Terre du Soleil). L’atmosphère est très peu dense et irrespirable ce qui impose le port du scaphandre à l’air libre. Enfin le sol est exposé à des radiations spatiales dures qui ne permettent pas de rester trop longtemps hors des habitats.

Ceci dit, on pourra vivre sur Mars dans des bulles viabilisées et confortables puisque nous disposerons d’une protection anti-radiations (construites avec de la matière provenant du sol de la planète), d’un minimum de Soleil, d’eau (en raison des dépôts de glace un peu partout en surface), des mêmes éléments chimiques que sur Terre, de journées de presque 24h00 (24h39), d’une gravité acceptable (0,38g) puisqu’elle sera complétée par les équipements protecteurs que l’on devra porter), de la proximité relative de la Terre ce qui au début permettra l’importations de biens essentiels sans trop de difficultés.

Mais je ne dis pas que Mars pourra sauver tous les hommes. La population martienne croîtra très lentement car il faudra la transporter, la loger, la chauffer, la nourrir, lui fournir tous les biens essentiels. Et cela coûtera cher. Il faudra donc qu’elle soit productive pour justifier et rentabiliser la dépense. On pourra envisager quelques dizaines puis quelques centaines puis quelques milliers ou dizaines de milliers de personnes. Mais je pense qu’il faut voir le futur de Mars comme celui d’une nouvelle Islande et qu’on ne dépassera jamais quelques petites centaines de milliers d’habitants. Le projet d’Elon Musk du million d’habitants me semble tout à fait inatteignable. Mars est et restera une planète pauvre. Elle ne permettra jamais l’hébergement de millions de réfugiés terrestres pas plus qu’elle sera jamais un exutoire à la surpopulation de la Terre.

Je ne dis pas que les personnes qui vivront sur Mars pourront se passer de la Terre dès demain. Le processus d’installation sera long car difficile. C’est pour cela qu’il faut commencer maintenant. Il est évident que tout sera à créer puisqu’il n’y a aucune infrastructure, aucun capital productif sur Mars et cela prendra beaucoup de temps. Les départs sur Mars ne peuvent se faire que tous les 26 mois en raison de la circulation des planètes sur des orbites différentes à des vitesses différentes. Le vaisseau le plus grand envisageable, le Starship d’Elon Musk, ne pourra prendre au mieux (en théorie) qu’une centaine (à mon avis une vingtaine) de personnes à la fois ou une centaine de tonnes d’équipements et de marchandises. On ne peut pas non plus envisager qu’une centaine de vaisseaux partent chaque 26 mois, ce serait trop coûteux en énergie et trop polluant pour l’atmosphère terrestre ; et les infrastructures pour les recevoir ne seront pas forcément prêtes car il faudra du temps (des hommes et des machines) pour les construire (sur Mars on ne pourra jamais « coucher à la belle étoile »).

Donc, au mieux, il y aura un millier de personnes sur Mars dans 30 ans, dix mille dans cinquante ans et aucune installation ne sera viable et ne pourra être autonome avant la fin du XXIème siècle. Mais il y aura une incitation très forte pour l’autonomie dès le début de la colonisation. En effet, dès le début, il faudra pouvoir tenir 18 mois sur place, plus six mois pour revenir sur Terre, 32 mois sans aucun secours possible*. Et dès le début il faudra pouvoir faire face aux accidents qui pourraient survenir aux équipements vitaux. Il faudra pouvoir réparer, remplacer, faire face aux tempêtes de poussière qui obscurciront le Soleil, aux accidents ou aux maladies phytosanitaires qui feront échouer une culture ou périr un bac plein d’algues nutritives. Dès le début, l’autonomie sera une condition de survie et compte tenu du coût de la difficulté d’importer depuis la Terre (fenêtres de voyage, volumes, masses, coût), l’autonomie sera un avantage, un besoin et une urgence très forte.

*départ “n” au mois 0, départ “n+1” au mois 26, arrivé sur Mars au mois 26+6. Pour les voyageurs qui reviendront sur Terre, le séjour hors de la Terre sera un peu plus court (6+18+6). 

Mars peut donc être à terme, une bouée de secours pour l’humanité. Non pas une terre riche comme jadis l’Amérique mais une arche de Noé qui nous permettra de passer un mauvais cap pendant la durée nécessaire comme jadis, au VIème siècle, dans la période la plus sombre de notre histoire, des moines irlandais se réfugièrent avec leur savoir sur des rochers face au Grand Océan dans une des régions les plus inaccessibles aux barbares. Espérons que les passions humaines nous laissent le temps de construire le navire, pour un jour nous poser là-bas avant de pouvoir partir pour les étoiles.

Illustration de titre, crédit NASA: 

Nous sommes tous là. Toute notre histoire est là ; tout ce qui a jamais vécu a vécu là, à la surface de ce « petit point bleu pâle ». Avec une technique et des logiciels plus performants que les outils autrefois disponibles, Kevin Gill (expert en photographies spatiales du JPL), aidé par deux membres de l’équipe originale de Voyager 1, a retravaillé la fameuse photographie du « Pale Blue Dot » demandée par Carl Sagan à la NASA le 14 février 1990. Cela a donné cette nouvelle version de l’image, 30 ans après le cliché original. Au milieu de la bande longitudinale la plus claire, on y voit plus nettement que jadis ce fameux petit point immense. 

Illustration ci-dessous

Situation de la sonde Voyager 1 lorsqu’elle a pris la photo de la Terre le 14 février 1990, crédit Joe Haythornthwaite et Tom Ruen (CC BY-SA 4). La distance à la Terre était de 40,47 UA (6,4 milliards de km). Les barres verticales son espacées d’une année et indiquent les élévations de la trajectoire au-dessus de l’écliptique. NB: Pluton se trouve à 30 UA de la Terre et la distance de pluton au Soleil varie entre 29 et 49 UA.

Lectures : mes articles de blog du 08 ; 15 et 22 avril 2016 et 15/12/2018 :

Nous sommes uniques et vulnérables

La seconde Arche de Noé

Mars, notre nouvelle frontière

Les datacenters, une obligation, un avantage et une contrainte pour les futurs Martiens

Lien: https://en.wikipedia.org/wiki/Pale_Blue_Dot

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 02 24

Principe anthropique fort, principe anthropique faible…ou pas de principe anthropique du tout ?

Nous existons. L’homme, niveau aujourd’hui culminant de l’évolution de la Vie intelligente et communicante, existe. Les conditions qui ont permis cet aboutissement, très récent au regard de l’âge de l’Univers*, sont une suite d’évènements improbables dans une environnement en évolution continue et constante.

*par rapport à une « journée cosmique » égale à l’âge de la Terre, l’homme, homo sapiens sapiens, n’est apparu que 4 à 6 secondes avant minuit.

Le caractère fortuit et aléatoire de ces évènements, leur nombre, le réglage « ultra-fin » de l’environnement dans lequel ils sont intervenus, et de son évolution, sont extrêmement impressionnants.

L’improbabilité de la répétition des événements et de leurs conséquences (comme celui de l’apparition de l’homme) est extrêmement élevée, compte tenu en particulier de ce que les modifications induites dans l’environnement sont irréversibles. En effet, l’histoire « ne repasse pas les plats » ; le contexte change, les dates comptent. Les événements eux-mêmes modifient le monde dans lequel ils se produisent et nous allons vers toujours plus d’entropie.

La conséquence de la singularité de toute ligne d’histoire est que nous sommes très probablement seuls dans l’Univers.

Doit-on en déduire que cette suite d’événements conduisant à cet aboutissement a été voulue pour l’obtenir, ou bien que l’on soit arrivé au résultat parce que les conditions initiales étaient simplement telles qu’il ne pouvait pas en être autrement, ou encore que l’on soit parvenu au résultat parce que le pur hasard y a conduit, sur Terre, parmi une infinité de possibilités.

Les deux premières hypothèses sont ce qu’on appelle le principe anthropique ; la première, « le fort », la seconde, « le faible ». La dernière est le refus d’une prédestination à la création de l’Univers.

Pour être un peu plus précis et nuancé, je reprends la définition du physicien-cosmologue Brandon Carter (citée par Wikipedia), du principe anthropique et de la différence entre ses deux variantes. Selon lui, le principe serait « un ensemble de considérations relatives au fait que l’Univers tel que nous l’observons possède certaines propriétés inéluctables liées au fait que nous y vivons, la présence de structures biologiques évoluées n’étant pas a priori une caractéristique présente dans tous les univers possibles…Le principe anthropique est vu selon le cas comme une simple nécessité factuelle au fait que des individus intelligents y apparaissent, ou comme une sorte de finalité à son existence. »

Nous avons le choix de l’une de ces hypothèses. Ceux qui ont la foi en un Dieu forcément créateur, opteront de fait pour le principe fort, ceux qui croient que le futur est inscrit dans le passé, pour le principe faible. Les autres, qui pensent que, dans un cadre contraint, l’évolution est ouverte sur plusieurs variantes possibles (le « hasard » avec une dose restreinte de « nécessité »), opteront pour la troisième hypothèse.

Comment trancher ?

Examinons le principe fort.

En premier lieu, nous ne pouvons avoir aucune preuve de l’exercice d’une « Volonté » à l’Origine de l’Univers puisque nous ne savons pas ce qui a déclenché le Big-Bang. En second lieu, nous ne pouvons avoir aucune preuve que les évènements spécifiques à notre Terre qui sont intervenus après son accrétion aient été voulus par un Être suprême.

Certains considèrent que le caractère fortuit des événements, les réglages fins, la complexité même de l’Histoire et, in fine, notre propre existence, sont la preuve de cette Volonté. Libres à eux mais ce n’est qu’une opinion. Aucun argument scientifique ne peut étayer leur prise de position. Aucun point de vue rationnel ne peut non plus étayer la prise de position opposée.

J’écris cela parce qu’un livre récent, très bien documenté et facile à lire (mais un peu gros quand même (540 pages), « Dieu, la Science, les Preuves » prétend juste le contraire.

Les auteurs commencent par lister les arguments des « matérialistes » refusant les preuves de l’existence de Dieu pour mettre en évidence (pensent-ils) leurs faiblesses. Je retiendrai celui concernant « mon » sujet : « les lois déterministes ne sont issues que du hasard et par conséquent il est extrêmement improbable qu’elles soient favorables à la vie ». Ils répondent que si l’Univers et son développement résultent du hasard, le réglage fin de l’Univers et le principe anthropique sont impossibles. Cette réponse me semble un peu rapide et un peu facile. Je répondrais que l’improbabilité de quelque chose n’est pas une preuve de son impossibilité. Je ne nie pas l’improbabilité mais je constate une réalité qui, puisqu’elle est, n’est pas une impossibilité.

L’improbabilité, comme je l’ai souvent évoqué dans ce blog et en particulier dans mon article du 24 avril 2020 cité ci-dessous, est à deux tiroirs. Le premier est proprement cosmologique, c’est celui de l’existence de la Terre avec ses caractéristiques planétologiques. Le second est biologique, c’est, sur la Terre, l’évolution de la matière jusqu’à l’homme.

Ouvrons le premier tiroir.

Concernant les constantes, il faut voir que leurs valeurs extrêmement précises donnent sa cohérence à l’ensemble. Il fallait, par exemple, dès le début que la force de gravité ait une certaine valeur, pour que la force d’expansion puis d’accélération n’empêche la formation des galaxies puis des étoiles, et réciproquement pour que la force de gravité n’empêche l’expansion.

Concernant les évènements, on peut considérer que leur occurrence résulte du pur hasard, dans un milieu évidemment très précisément contraint par les constantes cosmologiques, l’histoire cosmique avant la formation de notre galaxie, puis avant l’allumage de notre Soleil, puis, une fois la fusion démarrée au sein de notre étoile, par les masses en présence, par leur composition chimique, selon la distance à l’étoile (avec volatils ou sans volatils), par l’accrétion différenciée des planètes, par leurs mouvements et leurs forces d’attraction les unes par rapport aux autres.

Ouvrons le second tiroir.

L’apparition de la Terre rendait l’homme possible mais l’évolution de la Terre ne rendait pas l’apparition de l’homme inéluctable. Nous avons en effet connu depuis la formation de la Terre, une succession d’évènements improbables qui, si l’un d’entre eux, n’avait pas eu lieu, auraient rendu impossible l’aboutissement de l’évolution biologique à l’homme (à commencer par le fameux astéroïde de Chicxculub qui a mis fin au règne des dinosaures).

Je refuse donc le principe anthropique fort à moins que l’on puisse me montrer le doigt de Dieu et je refuse aussi le principe anthropique faible, à moins que l’on découvre sur une autre planète des êtres intelligents et communicants ou les traces qu’ils ont laissées. Recherchons ces preuves, sans nous lasser, sur Mars, et ailleurs quand nous le pourrons.

Aujourd’hui, la seule chose que l’on puisse dire c’est que le monde est, et que nous en faisons partie. Au-delà de la découverte d’une autre vie intelligente et communicante, la seule interrogation valable est sur la Cause Ultime puisque nous n’en savons rien sinon qu’elle a eu un effet. Ceux qui veulent croire en Dieu, sont bien entendu libres de le faire sans attendre mais ce n’est pas une démarche scientifique qui peut les y conduire ; c’est une question de foi, un pari comme celui que proposait Pascal.

Lire : Peut-on adhérer au Principe anthropique fort autrement qu’animé par la foi ? article de mon blog du 25/04/2020. https://blogs.letemps.ch/pierre-brisson/2020/04/25/la-croyance-dans-le-principe-anthropique-fort-doit-elle-recueillir-notre-adhesion/

Brandon Carter, article Wikipedia : https://fr.wikipedia.org/wiki/Brandon_Carter

Illustration de titre : Michel-Ange, La création d’Adam (détail), Chapelle Sixtine, Vatican.

Pourquoi y a-t-il quelque chose plutôt que rien ?

La question obsède tous ceux qui s’intéressent à la cosmologie. Aujourd’hui, du fait des observations et des réflexions qui se sont déroulées depuis un siècle, elle se pose à l’intérieur de contraintes nouvelles.

Nous savons maintenant que notre univers est apparu il y a 13,8 milliards d’années. On peut le définir au « début » comme une graine porteuse de tout le potentiel qui s’est développé ensuite, aussi bien en termes de matière visible ou de matière noire, que de force d’expansion, de force d’accélération de cette expansion (l’énergie sombre ?), et de force de gravité.

Au début cette graine n’était qu’un point (l’« atome primitif » de Georges Lemaître), et d’après ce qu’on peut en déduire de son histoire ultérieure en partant de maintenant (c’est en remontant le temps qu’on a pu le concevoir et le déduire par le calcul), ce point était extrêmement dense et porteur d’une énergie extrêmement élevée puisqu’aujourd’hui encore il n’a pas épuisé, et de loin, son potentiel.

Y avait-il quelque chose avant ou y a-t-il quelque chose en dehors ? C’est en fait les deux mêmes sous-questions à la première (Pourquoi y a-t-il quelque chose…), tant, nous le savons aujourd’hui, le temps et l’espace sont étroitement liés.

Les cosmologues ou les théoriciens du temps, comme le physicien Carlo Rovelli, qui ont compris que le temps était lié à la matière, répondent qu’il ne pouvait y avoir de temps sans matière, donc qu’il n’y avait pas de temps « avant ».

Ceux qui pensent qu’il n’y a rien en dehors de l’Univers, comme la plupart des cosmologues, pensent que son espace est illimité, même s’il est fini avec un début et une fin, et donc qu’il n’a pas d’extérieur. Ce qui ne serait pas dans l’Univers ne pourrait exister, ni dans le temps ni dans l’espace, et donc se poser la question d’une masse, d’un espace ou d’un temps qui s’écoule hors de l’Univers n’a pas de sens.

L’Univers est une bulle sans bord qui gonfle depuis un moment précis (il y a 13,8 milliards d’années) à partir de ce Point et dont l’expansion s’accélère sans cesse pour un jour lointain conduire le tout, irrémédiablement, par dispersion intégrale, à une mort thermique universelle.

Mais cette position ne peut résoudre totalement l’énigme de l’Origine. Car s’il y a eu « quelque-chose » à un certain moment c’est que ce quelque-chose avait une cause. Or la relation de causalité suppose une succession dans le temps, un « avant » précédant la « conséquence ».

Alors que pouvait-il bien y avoir « avant », pour que ce Point surgisse ?

Certains disent que l’Univers serait sorti d’une fluctuation quantique, selon le même principe que le vide spatial n’est pas vraiment vide mais animé de ces fluctuations faisant surgir à tout moment une multitude de paires de particules et d’antiparticules s’annihilant quasi-immédiatement.

Une démonstration théorique crédible déroulée par Stephen Hawking est celle du rayonnement des trous noirs qui résulterait des conditions gravitaires extraordinaires de l’environnement proche de leur « horizon des événements ». Selon cette théorie, la force de marée énorme générée à cette distance (rayon de Scwarzschild) par le champ gravitationnel d’un trou noir, permettrait d’éloigner suffisamment les antiparticules de leurs jumelles virtuelles, les particules positives, avant leur annihilation réciproque, libérant ainsi ces dernières à une vitesse suffisante (leur masse ayant été réduite de moitié) pour qu’elles puissent s’échapper de l’attraction du trou noir et rayonner.

On pourrait donc imaginer qu’il aurait pu exister des champs de bosons, constituant la trame du futur Univers et lui préexistant, qui auraient pu être utilisés par un phénomène du même type. Mais attention cependant ! le champ de bosons dans lequel circulent « nos » bosons est sans doute un produit de notre univers, celui qui existe à partir du Big-Bang et dans lequel nous sommes aujourd’hui. Pour qu’il y ait eu une Origine par manifestation d’un phénomène quantique, il aurait donc fallu qu’un mécanisme quantique équivalent à ce champ de bosons qui nous est propre se produise avant le Big-Bang.

On entre ici dans l’hypothèse des multivers, ces univers en nombres infinis qui naissent et meurent et coexistent en parallèle au nôtre. Pourquoi pas ? L’existence d’un espace dans lequel ce phénomène pourrait se produire serait une des explications possibles de l’apparition de notre propre Univers. Une alternative serait la re-formation d’un nouvel éon après l’épuisement du précédent et réutilisant sa structure évanouie, selon la théorie de la Cosmologie Cyclique Conforme de Roger Penrose.

Certains cosmologues recherchent à la surface du Fond-diffus-cosmologique, cette image qui nous provient du moment où, 380.000 ans après le Big-Bang, la lumière s’est libérée de la matière, une dissymétrie qui au-delà des anisotropies, pourrait indiquer un frottement avec une autre bulle d’univers, ou la trace d’un éon précédent. Il y a bien un « point froid » ou un « super-vide » sur ce Fond, une zone assez large, deux milliards d’années-lumière, vingt fois la surface du disque lunaire, où les photons apparaissent nettement plus froids ou plus rares qu’ailleurs. Mais jusqu’à présent rien ne peut permettre de l’interpréter dans le sens d’un autre univers extérieur ou précédent.

De toute façon cela ne ferait que reporter le problème car cet espace antérieur à notre Univers ou l’englobant, ou encore l’éon antérieur au nôtre et, au-delà, l’éon primitif ou mieux encore, l’atome primitif de l’éon primitif, d’où viendrait-il ? Quelle en serait l’origine ?

On voit bien que l’on ne peut trouver de réponse scientifique satisfaisante à l’apparition de l’Univers. Soit le milieu dans lequel il apparait existe de toute éternité mais nous n’avons pas le moindre indice qu’un autre univers existe, soit il résulte d’une Création…mais d’où proviendrait le Créateur-incréé ?

Je vous laisse sur cette réflexion.

Illustration de titre : le Grand-architecte de William Blake, British Museum.

Lectures :

Jean-Pierre Luminet : De l’infini par JP Luminet et Marc Lachièze Rey, chez EKHO, 2019.

Carlo Rovelli : L’ordre du Temps, chez Flammarion, Champs Science, 2019.

Michel Cassé :Du vide et de la Création, chez Odile Jacob, 2001.

Istvan Szapudi : Detection of a supervoid aligned with the cold spot of the cosmic microwave background, par I. Szapudi et al., MNRAS, vol. 450, n° 1, pp. 288-294, 2015.

Michel-Yves Bolloré/Olivier Bonnassies : « Dieu, La Science, les preuves » chez Guy Trédaniel (2021).