Les premières photos du télescope Webb nous ouvrent une perspective splendide sur une nouvelle perception de l’espace

Ce 12 juillet, la NASA avait organisé une présentation, à Greenbelt, Maryland, au siège de la STC (voir plus bas), de cinq des premières images prises par le nouveau télescope spatial James Webb, « JWST ». Le jour est historique comme le fut celui où furent présentées les photos du télescope Hubble après qu’on ait eu corrigé sa myopie initiale (1990). La différence entre la « production » des deux télescopes est spectaculaire. On ne peut pas dire seulement qu’on voit plus loin. On devrait dire qu’on voit plus loin car on voit mieux, ce qui sous-entend (1) que les astres et formations stellaires proches sont perçus beaucoup plus nets et précis et (2) que l’on voit effectivement beaucoup plus loin.

La différence est due à la taille des miroirs mais aussi au fait que les télescopent exploitent des longueurs d’ondes différentes, les deux étant liés.

D’abord le diamètre du miroir primaire du JWST est de 6,5 mètres contre 2,4 mètres pour celui de Hubble. Ensuite le traitement des rayonnements reçus n’est plus centré sur les ondes visibles (avec franges dans l’ultraviolet et dans l’infrarouge) comme l’est celui de Hubble, mais sur les ondes infrarouges, jusqu’à 29 microns (contre 1,7 microns pour Hubble) avec toujours une frange dans le visible. Cela permet de voir les sources de rayonnements plus froids que celles émettant dans le spectre visible et aussi de les percevoir au-travers des nuages de poussière qui les brouillent ou les cachent en visible.

La dimension plus grande du miroir de Webb, outre qu’elle permet de recevoir davantage de rayonnements, est en partie justifiée par la longueur des ondes que l’on veut capter. En effet les ondes infrarouges étant plus longues que les ondes visibles, on a besoin d’une surface plus grande pour que l’image qu’elles nous communiquent soit suffisamment fine. Dit autrement, la surface de collecte renforce l’acuité du télescope donc son pouvoir de résolution qui autrement aurait été plus faible. Ce dernier sera comme celui de Hubble, de 0,1 seconde d’arc, mais pour des ondes beaucoup plus longues (donc des lumières beaucoup plus faibles).

Les cinq images choisies par la NASA pour sa présentation illustrent les domaines différents dans lesquels JWST sera actif. NB : toutes ces images ont les mêmes crédits photos, NASA, ESA, ASC – Agence Spatiale Canadienne, et STScI – la Space Telescope Science Institute, Institution fondée par la NASA qui gère et dirige, avec participation de l’ESA, la recherche effectuée par Hubble et maintenant par Webb.

La première photo est celle du « Premier champ profond de Webb »

(cf illustration de titre pour comparaison avec ce que voit Hubble)

Cette photo est centrée sur l’amas de galaxies « SMACS 0723 » et nous permet d’accéder à des lumières provenant d’au-delà de 13,5 milliards d’années (pour mémoire l’Univers est âgé de 13,8 milliards d’années). On serait, à cette distance, à l’époque des toutes premières galaxies, celles qui ont commencé à luire à la sortie des « Ages-sombres » (il a fallu que la matière se reconcentre après la libération de la lumière, 380.000 ans après le Big-bang). On ne les voit pas en direct mais grâce à l’effet de lentille gravitationnelle (en l’occurrence l’amas de galaxies, au centre de la photo, SMACS 0723) qui nous rapproche comme une loupe le ferait, de ce qui est derrière lui et qui de ce fait, apparaît autour de lui. Les galaxies les plus rouges sont les plus lointaines puisque ce sont celles pour lesquelles l’expansion de l’Univers génère la vitesse d’éloignement la plus élevée (effet Doppler). Sur la voûte céleste l’image aurait la taille d’un grain de sable. NB : les étoiles rayonnantes sont au premier plan, dans notre voisinage galactique.

La deuxième photo montre le « Quintette de Stéphane », cinq galaxies apparemment rassemblées

C’est la plus grande image de Webb en rapport à la surface de voûte céleste (1/5ème du diamètre de la Lune). Les deux galaxies en haut à droite sont en contact ce qui provoque d’énormes ondes de choc en leur sein, bien visibles ici dans la distorsion de leurs courbes, l’une d’entre elles (celle du dessous) est déjà le résultat d’une fusion puisqu’on en voit encore les deux noyaux ; un trou noir puissant se trouve au centre de la galaxie en haut. La troisième galaxie, à gauche, est plus proche de nous.

La troisième photo est une vue de la « Nébuleuse de la Carène » (NGC 3324)

La photo met bien en évidence le processus de formation d’étoiles dans cette nébuleuse située à quelques à quelques 7600 années-lumière. Au centre (au-dessus, en dehors de la photo), une étoile extrêmement massive a explosé et a repoussé la poussière galactique et stellaire qui l’entourait. On voit bien (en bleu) le gaz ultra-chaud résultant de l’explosion (en haut) et (en ocre) le nuage de poussière qui l’entoure (en bas). La pression du gaz sur la poussière génère par gravité des concentrations de matière d’où naissent des étoiles, que l’on voit ici à tous les stades de leur formation.

La quatrième photo montre la « Nébuleuse de l’anneau austral » (NGC 3132)

Cette nébuleuse est située à 2300 années-lumière. Le principe est le même que pour l’image précédente mais les étoiles sont différentes en masse et le processus d’évolution est moins avancé. On a ici deux photos prises avec deux caméras différentes à bord du Webb, la caméra en infrarouge proche (NIRCam) à gauche et la caméra en infrarouge moyen qui capte des longueurs d’ondes plus longues (MIRI), à droite. La seconde photo montre pour la première fois que l’étoile au centre est en fait double. La seconde est entourée de poussière, l’autre ne l’est pas ce qui implique que c’est la première qui est la cause de la nébuleuse, pas l’étoile de droite…qui malgré tout connaîtra un jour le sort de sa compagne.

La cinquième photo est le spectrogramme d’une planète massive proche de son étoile répertoriée « WASP-96 »

C’est l’une des quelques 5000 exoplanètes identifiées à ce jour. C’est un « Jupiter-chaud » c’est-à-dire une très grosse planète (la moitié de la masse de Jupiter) et d’autant plus volumineuse qu’elle est très peu dense (diamètre 1,2 fois celui de Jupiter). Distante de seulement 1/9ème de la distance de Mercure au Soleil, elle fait le tour de son étoile en 3,5 jours ; comme l’étoile est de type solaire, la planète est, de ce fait, très chaude. On ne peut toujours pas « voir » une telle planète puisqu’elle n’émet pas de rayonnement visible et qu’elle est trop petite pour nos instruments (elle se trouve à 1500 années-lumière de nous) mais on peut saisir son spectre et son volume, par différence avec celui de l’étoile lorsqu’elle passe entre nous et elle (et évaluer sa masse, par le balancement qu’elle cause à cette étoile). La particularité de ce spectre est qu’il est beaucoup plus précis que jamais et montre la présence d’eau (qui ne peut être que sous forme de vapeur du fait de la température) par absorption de la ligne de l’eau. Cette possibilité de précision nous permettra de rechercher l’eau dans l’atmosphère d’autres planètes moins hostiles à la vie (ou plus terrestres).

***

Il a fallu 25 ans de travail extrêmement difficile pour obtenir ces premières photos, c’est-à-dire 25 ans pour concevoir, réaliser, faire entrer en le pliant comme un origami, l’énorme observatoire Webb sous la coiffe de sa fusée (Ariane V de l’ESA). Il a fallu aussi beaucoup d’argent (plus de 10 milliards alors qu’on avait devisé le projet à seulement 2 milliards en 2001 !). Mais c’est un exploit (dont le lancement réussi par Arianespace n’est pas le moindre élément) et cet exploit ouvre une nouvelle ère pour l’astronomie qui va bien durer aussi 25 ans (pour comparaison, Hubble doit fonctionner jusqu’un peu après 2030).

Lors de l’événement d’hier, tous les participants étaient heureux et soulagés que tout ait si bien fonctionné. Le leader est bien sûr la NASA qui a fourni l’essentiel des équipements mais l’ESA et l’ASC (Agence Spatiale Canadienne) sont aussi participants avec des contributions non négligeables. Autour d’eux de multiples organismes et sociétés, en tout quelques 20.000 personnes au travers du monde !

L’ESA a fourni deux instruments : 1) le spectrographe « NIRSpec », déjà mentionné, fabriqué par Astrium GmbH en Allemagne ; 2) le spectrographe « MIRI », déjà mentionné qui collecte les ondes les plus froides, allant de 5 à 29 microns. Pour réaliser cet instrument 10 pays membres de l’ESA se sont réunis dont la Grande Bretagne, la France et la Suisse. Par ailleurs, comme déjà mentionné, 3) c’est l’ESA qui a effectué le lancement, le 25 décembre dernier, qui a conduit le télescope à orbiter, comme prévu, le point de Lagrange Soleil-Terre L2, à 1,5 millions de km de la Terre, dans la direction opposée au Soleil.

Le Canada de son côté, a fourni un autre spectrographe, « NIrISS », et l’instrument « FGS » (« Fine Guidance Sensor »). Le spectrographe opérera dans les longueurs d’onde allant de 0,8 à 5 microns. Son objet est la détection des exoplanètes et leur caractérisation ainsi que la spectroscopie par transit (analyse de l’atmosphère lors du passage de la planète devant son étoile). FGS est un pointeur pour cibler l’objectif avec la plus grande précision (de l’ordre du millionième de degré). Il a pour cela été qualifié de « volant du Webb ».

Il ne faut cependant pas croire que les Etats-Unis n’ont rien fait. Ce sont eux qui ont conçu et réalisé le télescope proprement dit et son pliage. Par ailleurs ils ont fourni l’instrument « NIRCam », un imageur qui opère dans les longueurs d’onde 0,6 à 5 microns. NIRCam comme FGS sont des auxiliaires à l’observation scientifique effectuée principalement par les deux autres spectrographes.

Pour une fois au moins, tout s’est bien passé et les perspectives sont magnifiques ! « Go Webb, go » comme disent les Américains !

Illustration de titre : Comparaison du même champ profond, vu par Hubble à gauche et vu par Webb, à droite.

Lien : https://www.nasa.gov/webbfirstimages

NB : cet article a été publié le 12/07/2022 dans le journal libéral de référence en France, Contrepoints dont je suis un des contributeurs réguliers.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 22 06 10

Lettre ouverte à mon neveu Etienne, pour lequel j’ai beaucoup d’affection mais qui est trop « bien-pensant »

Mon neveu Etienne, jeune adulte bien diplômé et travaillant dans un cadre qui lui donne toutes satisfactions, m’a envoyé au cours d’un échange personnel, le paragraphe que je cite ci-dessous. Je lui réponds ici publiquement car il formule bien ce que beaucoup (jeunes et moins jeunes) pensent à propos de l’installation de l’homme sur Mars et je crois avoir des arguments valables à leur opposer.

« …au-delà de la recherche scientifique et la satisfaction de la curiosité humaine, j’ai du mal à accepter l’exploration spatiale, et encore plus le “tourisme” des ultra riches. Comme beaucoup d’autres, je trouve ça complètement immoral de dépenser des milliards de dollars et émettre tant de CO2 dans l’atmosphère pour un tel caprice. Pour ce qui est de la terraformation de Mars, je suis de l’avis que même si elle était possible, il vaudrait mieux se concentrer sur les problèmes de notre planète. On a du pain sur la planche… »

La préoccupation première d’Etienne est visiblement « les problèmes de notre planète ».

Je pense qu’il a tort de considérer que l’exploration-spatiale ne fait pas partie des solutions à ces problèmes, comme je l’ai d’ailleurs exposé maintes fois dans ce blog. Cette « activité » (l’exploration) est d’abord un stimulus à la recherche-en-ingénierie puisque de nombreuses technologies doivent être sollicitées et améliorées qui pourront avoir un intérêt pour la vie sur Terre, surtout si on envisage que l’exploration soit effectuée avec une participation humaine sur place. Par ailleurs les missions habitées sont un facteur puissant d’amélioration de l’efficacité de la recherche-scientifique.

La mise au point de lanceurs réutilisables va aider à améliorer l’efficacité des transports terrestres, par exemple en permettant d’effectuer des vols « planétaires » des Etats-Unis en Australie en une ou deux heures, avec des fusées de type Starship, comme en a l’intention Elon Musk. Le Starship est prévu pour être propulsé avec du méthane brûlant dans de l’oxygène, ce qui effectivement produit du CO2 mais ces ergols sont conçus pour les missions martiennes afin de pouvoir utiliser le CO2 de l’atmosphère martienne pour les obtenir (réaction de Sabatier). Rien n’interdira pour les vols purement terrestres de brûler de l’hydrogène dans de l’oxygène, moyennant quelques aménagements apportés au Starship, ce qui donnerait de l’eau comme produit de combustion.

Les vols habités lointains vont nous obliger à considérablement développer les technologies de recyclage ou de culture agricole car il s’agit de partir dans l’espace avec le minimum de masse dans un minimum de volume et avec les technologies les plus fiables possibles puisqu’on sera par la force des choses livrés à nous-mêmes pendant une période de temps incompressible et longue. En effet en partant dans l’espace pour des destinations lointaines, comme Mars, où l’environnement ne sera pas viable, il s’agira de recycler aussi parfaitement que possible l’oxygène, l’eau, et nos déchets métaboliques pour faire pousser des aliments dont les déchets seront aussi recyclés dans une boucle aussi fermée que possible (le recyclage devra d’ailleurs être étendu, au-delà des déchets organiques, à tout ce qu’il sera possible de recycler). C’est toute la problématique que traite le Consortium MELiSSA (Micro Ecological Life Support System Alternative) développé par l’ESA (ESTEC). Pour l’efficacité de la production alimentaire, la Start-up Interstellar Lab (Barbara Belvisi et son équipe) développe un projet de culture sous serre avec une productivité extraordinairement élevée et un impact sur l’environnement extrêmement faible (volume clos, intrants totalement contrôlés, recyclage intégral).

Les vols habités vont aussi nous pousser à développer les technologies de protection contre les radiations puisque les voyageurs y seront particulièrement exposés et qu’il faudra absolument en atténuer les effets. C’est dans ce but que la société israélienne Stemrad à mis au point ses gilets de protection astrorad (protégeant notamment les organes producteurs de cellules souches) et bien sûr ces produits vont évoluer et s’améliorer.

Par ailleurs, si l’exploration spatiale peut se faire par vols robotiques, ce ne peut-être qu’à défaut de mieux c’est-à-dire de présence humaine à côté des robots pour qu’ils soient plus efficaces (capacité de réaction, d’adaptation, d’ajustement, à une situation nouvelle). Cette présence humaine est possible pour l’instant sur la Lune et sur Mars mais elle serait surtout indispensable sur Mars puisque la finitude de la vitesse de la lumière fait qu’on ne peut y commander en direct un robot et qu’on est obligé de procéder par courtes séquences avec des intervalles de plusieurs minutes voire dizaines de minutes entre ordre donné et résultat reçu.

La seconde préoccupation d’Etienne est le respect d’une certaine décence.

Comme beaucoup de jeunes, Etienne n’aime pas les « ultra-riches », surtout lorsqu’ils dépensent leur argent pour leur loisir. Mais pourquoi ne dépenseraient-ils pas une partie de ce qu’ils ont gagné pour satisfaire leurs besoins personnels ?! Lui-même, mon cher neveu, fait de même. Bien sûr les ultra-riches disposent de plus de moyens que lui mais le raisonnement est identique. En le faisant, ces riches alimentent l’économie donc la création de richesses pour tous (dans les domaines mentionnés plus haut) puisqu’ils achètent à des fournisseurs, et ils augmentent aussi la base imposable sur laquelle les états vont venir puiser pour effectuer leurs propres dépenses d’intérêt général.

Je ne suis pas d’accord pour dire que l’action des états est plus « noble » et plus « utile » que celle des personnes privées. C’est plutôt le contraire. Les dépenses « publiques » sont assez souvent effectuées pour satisfaire l’égo du décideur politique et/ou pour répondre à un principe idéologique et/ou par pure démagogie. Souvent leur efficacité pour la population est moins bonne que la dépense privée car cette dernière est faite avec plus d’attention (la personne privée perd réellement de l’argent si la dépense ou l’investissement n’est pas adéquat, la personne publique va juste augmenter ou perpétuer les impôts).

Si une personne est riche, à part le cas où elle a hérité de sa fortune, c’est qu’elle a effectué un travail (production ou service) que ses contemporains, clients et acheteurs, ont apprécié puisqu’ils l’ont acheté. Cette adhésion de fait est aussi « juste » qu’un vote, ou plutôt c’est une sorte de vote et il est effectuée en toute liberté (celle de la décision d’achat).

Enfin les touristes serviront à rentabiliser les installations créées sur Mars ce qui permettra d’éviter que l’Etat donc les contribuables, ait à payer quoi que ce soit pour cet objet. Pour être plus précis, il faut d’ailleurs comprendre « touriste » dans un sens large, plutôt comme « hôte-payant » et ces gens-là ne seront pas forcément des parasites. Ceux qui passeront 18 mois sur Mars, autrement dit qui, avec le voyage aller-retour, passeront 30 mois de leur vie en dehors de la Terre, voudront peut-être (euphémisme pour « très probablement ») en faire quelque chose, une œuvre d’art, tester une innovation, mettre au point un logiciel, etc…Il ne faut pas désespérer de l’humanité et surtout des gens qui ont « réussi » dans leur vie. Bien peu se satisfont du farniente, surtout quand il coûte très cher.

La troisième préoccupation d’Etienne c’est la pollution par le CO2.

On retrouve là l’expression d’une inquiétude générale mais comme beaucoup de contemporains, Etienne ne connaît pas l’importance relative des émissions de CO2 générées aujourd’hui par l’activité spatiale, ou qui le seront « demain ». Il faudrait en effet un nombre énorme de lancements de fusées pour approcher un tant soit peu de la pollution générée par les automobiles thermiques (je ne parle pas des véhicules électriques mais l’extraction du lithium à grande échelle est tout aussi polluante). En 2018 la production anthropique de CO2 a été évaluée à 37,1 Gt (1 Gt = 1 milliard de tonnes), la production de CO2 par un starship interplanétaire brûlant du méthane dans de l’oxygène pourrait être de 715 tonnes (200 tonnes « seulement » pour un starship planétaire, qui n’a pas besoin d’avoir la même puissance pour s’extraire du puits gravitaire terrestre et partir au loin). A raison d’une dizaine de tirs par fenêtre de vols pour aller sur Mars, la pollution occasionnée par l’utilisation du Starship serait de moins de 1 cent millième (0,001%) de la totalité actuelle du CO2 d’origine anthropique (et non pas sur une seule année mais sur plus de deux ans puisque ces vols ne pourront avoir lieu que tous les 26 mois !).

Par ailleurs comme je l’indiquais plus haut, rien ne fait obstacle à ce qu’on propulse nos lanceurs avec de l’hydrogène brûlant dans de l’oxygène. L’Isp (l’efficacité) de ce mélange est excellente. Il suffirait de construire des réservoirs plus gros (la densité de l’hydrogène est la moins élevée des gaz) donc un peu plus lourd et de ne stocker l’hydrogène que peu de temps (pour limiter les fuites car la molécule de ce gaz est la plus petite de tous les autres éléments chimiques).

La quatrième objection d’Etienne c’est qu’on ferait mieux de s’occuper de la planète.

Deux réponses à cela :

Comme je le dis souvent, beaucoup de monde s’occupe déjà de la planète et on ne peut pas tous le faire en même temps (sauf bons comportements civiques, tels que ne pas jeter ses plastiques partout dans la nature ou bien utiliser les bacs de recyclage pour ses déchets). Il faudrait que « tout le monde » soit qualifié pour le faire et qu’il y ait suffisamment d’objets pouvant recevoir de façon réactive les dépenses qu’on y affecterait. N’importe qui ne peut pas s’improviser technicien du retraitement de tel ou tel produit ou producteur d’énergie « décarbonée ». Cette attitude me fait penser à la production d’acier par la Chine pendant le grand-bond-en-avant. Les autorités avaient fixé des objectifs extrêmement élevés. Tout le monde se mit à faire de l’acier même dans les campagnes les plus reculées. Résultat beaucoup fut effectivement produit, les objectifs du plan furent atteints mais une forte proportion du métal était soit de trop mauvaise qualité soit inutilisable tout simplement parce qu’on ne savait qu’en faire. Ceux qui avaient fait cet acier auraient mieux fait, dans l’intérêt de tous, d’avoir une autre activité.

Par ailleurs mieux s’occuper de la planète c’est peut-être aussi chercher une solution de repli pour l’humanité en cas d’échec dans la correction de direction de notre navire planétaire. L’installation de l’homme sur Mars serait un moyen pour l’espèce humaine et la civilisation qu’elle porte, de survivre au cas où la Terre deviendrait invivable ou au cas où nous retournerions dans une sauvagerie digne du Moyen Age. De nos jours, l’un ou l’autre ne sont nullement exclus.

Alors mon cher Etienne, certes nous avons « du pain sur la planche » mais dans ce contexte, l’exploration spatiale n’est pas à rejeter par principe. Tout le monde peut en profiter.

Illustration de titre :

Illustration de la page internet de Stemrad pour son astrorad. Cette veste qui peut protéger un astronaute dans l’espace peut également protéger une personne sur Terre dans n’importe quelle situation qui la mettrait en danger d’être sévèrement irradiée.

Lien :

Stemrad : https://stemrad.com/astrorad-4/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 22 06 10

Qu’est-ce que la Mars Society Switzerland ?

Certains lecteurs de ce blog m’ont demandé ce qu’est la Mars Society Switzerland (MSS), l’association que je préside. Je réponds :

La Mars Society dont la MSS est l’entité suisse, est une organisation internationale à but non lucratif, ayant pour objectif de promouvoir l’exploration et la colonisation de Mars, planète la plus semblable à la Terre la moins difficile d’accès. Elle a été fondée, aux Etats-Unis en août 1998, par Robert Zubrin, ingénieur en astronautique qui travaillait alors chez Lockheed Martin Space Systems Cy. Cette société est une des toutes premières entreprises d’ingénierie astronautique aux Etats-Unis. Robert Zubrin a un Master en aéronautique et astronautique et un doctorat (PhD) en ingénierie nucléaire.

La référence de base de l’association américaine et de toutes les associations sœurs, dont bien sûr la suisse, est le livre écrit par ce même Robert Zubrin, avec la contribution de Richard Wagner, The Case for Mars. Richard Wagner était, lui, le rédacteur en chef d’Ad Astra (créée en 1987), l’organe d’expression de la National Space Society, première (et plus importante en nombre de membres) des associations « pro-space » américaines.

L’idée de la Mars Society est née chez Robert Zubrin d’une double frustration suivant (1) le refus des dirigeants politiques américains d’aller sur Mars après avoir été sur la Lune parce qu’ils préféraient développer un moyen « sûr » d’aller dans l’espace, la Navette-spatiale (« Shuttle »), puis (2) de préférer construire la Station Spatiale Internationale (l’« ISS ») au lieu d’aller sur Mars.

Le président Nixon avait pris la première décision dès janvier 1972 (la dernière mission habitée sur la Lune, Apollo XVII, date de décembre 1972). Selon ses mots : “The Space Shuttle will give us routine access to space by sharply reducing costs in dollars and preparation time. The resulting changes in modes of flight and re-entry will make the ride safer and less demanding for the passengers so that men and women with work to do in space can “commute” aloft”. On sait ce qu’il advint de la simplicité (les tuiles thermiques) et de la sécurité (les mêmes tuiles…sans nier le succès de très belles missions, dont celles de Hubble).

Le 20 juillet 1989, le Président HW Bush avait relancé le projet Mars à l’occasion des 20 ans de l’atterrissage de la première capsule Apollo sur la Lune. Malheureusement, répondant à sa demande d’évaluation du coût, la NASA saisie par l’hubris et prise par le temps (« 90 days study »), présenta en octobre 1989, un devis de 259 milliards de dollars (de l’époque, soit 611 milliards d’aujourd’hui) qui était évidemment totalement inacceptable. Cette proposition était en même temps stupide car l’architecture de mission, dans la ligne de celle de Wernher Von Braun, était hyper-complexe, les masses à emporter (1000 tonnes !) disproportionnées par rapport aux capacités de transport et reposait sur un moteur utilisant l’énergie nucléaire qui n’existait pas encore (développement du moteur NERVA arrété en 1971). On aurait pu faire beaucoup mieux et beaucoup moins cher (une cinquantaine de milliards d’aujourd’hui) si on avait réfléchi davantage et si on avait été plus réaliste.

Dès avril 1981, en même temps qu’était lancée la première Navette, des universitaires qui constataient avec désespoir que l’exploration de Mars par vols habités était repoussée aux calendes grecques, s’organisèrent dans le premier lobby pro-Mars, le « Mars Underground » (on était encore à l’époque de la guerre froide et le mot « underground » avait le sens particulier de monde-de-la-résistance) autour des astrogéophysiciens Chris McKay et Carole Stocker. Ils furent rejoints en avril 1990 par les ingénieurs David Baker et Robert Zubrin qui avaient travaillé chez Lockheed Martin à la mission Mars selon une alternative crédible, en réaction à l’échec du catastrophique rapport des 90 jours.

On avait donc dans ce Mars Underground l’alliance de scientifiques et d’ingénieurs, combinaison idéale, nécessaire et (presque) suffisante (sauf finance !) pour rendre le projet de la mission Mars non seulement utile (l’exploration scientifique) mais possible techniquement.

Cette « alternative crédible » c’était le projet astronautique « Mars Direct » développé par Robert Zubrin. Le concept, révolutionnaire mais réaliste, comprenait plusieurs propositions : 1) vol direct vers Mars, sans stationnement en orbite martienne (ou lunaire, ou autre) ; 2) production sur Mars des ergols* (méthane brulant dans l’oxygène) nécessaires au retour (ce qui divisait par deux la masse à emporter de la Terre) ; 3) mission en deux voyages, le premier robotique pour apporter sur Mars les équipements nécessaires à la production des ergols de retour et le second, dans la fenêtre suivante, pour apporter les hommes avec leur véhicule de retour sur Terre (ERV), après vérification que les ergols avaient bien été produits et stockés ; 4) création d’une gravité artificielle par force centrifuge pendant le voyage pour pallier un trop grand affaiblissement des astronautes à leur arrivée sur Mars après six mois en apesanteur.

*pour être réalistes, les proposants en restaient à la propulsion chimique.

Les scientifiques furent ravis de cet appui et en même temps beaucoup d’ingénieurs furent convaincus de la solidité du projet, y compris à la NASA (Michael Griffin qui en 1991 avait été nommé Associate Administrator for Exploration de cette institution, en devint administrateur en 2005 après avoir été l’un des membres fondateurs de la Mars Society). Mais il fallait aussi convaincre les dirigeants politiques et ce n’était pas gagné car ils étaient « partis » sur le projet de Station Spatiale en orbite terrestre qui avait l’énorme avantage politique de pouvoir être mené en coopération avec les Russes qui avaient l’expérience de la station MIR, qui étaient en discussion avec les Américains et qui furent invités à s’y associer en 1993 pour construire sa version modernisée et agrandie que l’on appela l’ISS.

Robert Zubrin ne se découragea pas et écrivit son livre fondateur (publié en 1996) qui reprenait ses concepts, qu’il avait développés au cours de nombreuses conférences à partir de 1990 sous le même titre :  The Case for Mars, (« The Plan to Settle the Red Planet and Why We Must »). Le livre avait une préface d’Arthur C. Clarke ce qui était très « vendeur ».

C’est ainsi que je découvris moi-même le projet…dans une librairie de Singapour où j’étais en poste pour ma banque (analyse des risques de contreparties de la région Asie). J’appréciais beaucoup l’aspect pratique fondé sur les meilleures connaissances scientifiques que l’on pouvait avoir à l’époque sur la planète Mars et la meilleure connaissance des technologies astronautiques. J’écrivis à Robert Zubrin, nous échangeâmes plusieurs courriers (papier !), nous devinrent amis et je rejoignis le Mars Underground.

Il lança en 1998 sa « Mars Society » au cours d’une « founding convention » à l’Université de Boulder, Colorado, très remarquée par le monde de l’astronautique et de la science planétologique. Dans son sillage, des Mars Societies se créèrent comme une trainée de poudre un peu partout aux Etats-Unis et dans le monde, l’une d’entre elles en Suisse avec le microbiologiste, Gabriel Borruat, de l’EPFL à l’époque). Je ne pus participer à la founding Convention (j’étais alors dans le Sud de l’Amérique latine, en Uruguay) mais je devins néanmoins membre-fondateur. Fin septembre 2001 je pus, par contre, participer à la première convention du membre français de la famille, l’Association planète Mars, dans le cadre prestigieux du Palais de la Découverte à Paris et j’en devins membre également. A cette occasion je me souviens avec fierté que Robert Zubrin déclara lors de son discours phare (« key-note speech ») qu’il avait pris la décision de fonder la Mars Society après qu’un banquier français en poste à Singapour l’ait eu contacté pour lui dire tout le bien qu’il pensait de son projet (sous-entendu l’intérêt du projet devait être compris et apprécié par l’opinion publique en général).

L’Association Planète Mars était centrée autour de Richard Heidmann et d’Alain Souchier, deux ingénieurs de haut niveau ayant eu une très belle carrière chez SNECMA, le concepteur et producteur des moteurs des fusées Ariane. Nous sommes restés très proches. Alain est malheureusement décédé en décembre 2017.

Chaque entité de la Mars Society est née spontanément dans son environnement, sans investissement ni directives de ce qu’on pourrait appeler une « maison-mère ». Les diverses associations ont un but commun mais emploie les chemins qu’elles privilégient et cultivent les sujets qui les intéressent. Nulle contrainte si ce n’est l’agrément de Robert Zubrin qui le donne généreusement à toute bonne volonté, sans discuter des sujets de prédilection choisis par les uns et les autres.

Ainsi lorsque j’arrivais en Suisse, depuis l’Amérique Latine en 2009, pour y jouir de ma retraite, je décidais de me consacrer à ma passion et comme la Mars Society locale avait disparu par attrition vers 2005, je repris les rênes avec une nouvelle association, autour de moi-même et de Sebastian Gautsch. J’avais contacté ce dernier en arrivant parce que j’avais vu qu’il avait écrit sa thèse de doctorat à l’Université de Neuchâtel (avant absorption de sa partie technologique par l’EPFL) sur FAMARS, le microscope à force atomique embarqué sur la sonde Phoenix qui s’était posée dans le Nord de la Planète Rouge en 2008. J’informais Robert Zubrin et j’enchainais une série de conférences et d’articles de presse ou d’émissions de radio et télévision jusqu’à ce jour.

Grâce à Sebastian, que je remercie encore mille fois, j’eus mes entrées à l’EPFL et en particulier chez eSpace, où je garde de très bonnes relations, notamment celle de Claude Nicollier qui nous a fait l’honneur de nous rejoindre comme membre (très) actif.

Comme toutes les Mars Societies, notre but, en Suisse, est de diffuser la « bonne parole » sur l’intérêt de l’exploration de la planète Mars, par voie robotique et, le moment venu, par vols habités. Pour la suite les avis sont un peu partagés, certains, comme Claude Nicollier, doutant de la faisabilité de l’installation sur Mars à grande échelle. Mais nous verrons bien après la première mission habitée !  En attendant, je m’efforce de faire progresser la maîtrise des sujets d’intérêts, pour l’exploration robotique et dans la perspective de ces missions habitées.

Ainsi nous soutenons plusieurs travaux d’étudiants Master à l’EPFL : avec Claude Nicollier et deux jeunes femmes ingénieures de WoMars, la faisabilité d’un dirigeable en dépit d’une atmosphère très ténue ; avec le groupe d’étudiants Xplore, la conception et la réalisation d’un rover robotique d’exploration ; avec la petite équipe du Gruyere Space Program, la conception et la réalisation d’une fusée réutilisable. L’enthousiasme des étudiants impliqués dans ces projets est extraordinaire, la qualité de leur travail remarquable. Cela est très stimulant et extrêmement porteurs de belles réalisations dans l’avenir. Au-delà de ceux mentionnés, nous avons bien d’autres projets d’études qui pourraient être lancées (sur les exosquelettes, par exemple, qui seront nécessaires à l’arrivée du premier vol sans « comité d’accueil ») et de groupes de jeunes qui pourraient s’en saisir. Un seul problème, l’argent. Malheureusement à un moment ou l’autre, les études débouchent sur quelques besoins financiers. Les montants ne sont pas énormes mais notre association est petite et la difficulté relative de leur collecte freine notre action. Nous avons dû, hélas, abandonner le groupe Asclepios qui fait des simulations avec toutes sortes d’expériences intéressantes dans le Centre de tests du Grimsel, pour cette raison.

Je fais donc appel ici à toutes les bonnes volontés. Si vous êtes intéressés par la perspective de l’exploration de Mars et des missions habitées sur Mars, et si vous voulez participer activement à l’accession de l’homme à ce monde, rejoignez-nous*. Rendez visite à notre site web : Mars Society Switzerland, vous y trouverez une page « adhésion ».

*NB : nous demandons à chacun ses motivations. Nous ne voulons parmi nous ni complotiste, ni quelqu’un qui aurait déjà vu des petits hommes verts.

Références :

https://www.washingtonpost.com/outlook/2018/12/05/want-honor-george-hw-bush-send-astronauts-mars/

http://www.astronautix.com/9/90daystudy.html

https://www.imdb.com/title/tt0437325/

Site de l’association MSS:

https://planete-mars-suisse.space/fr/

Les Français peuvent aussi s’inscrire à l’Association Planète Mars, directement ou par l’intermédiaire de la MSS.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur: 

 Index L’appel de Mars 22 06 10

Si l’on va sur Mars, l’établissement que l’on y créera recherchera inéluctablement son autonomie

Certains de mes amis, partisans comme moi de l’exploration de Mars par vols habités, ne partagent pas mon opinion sur le caractère indispensable et quasiment inéluctable d’un établissement permanent et autonome sur la planète-rouge (du moins autant qu’il lui sera techniquement possible de l’être). Je leur réponds.

Il y a plusieurs raisons de vouloir envoyer des hommes sur Mars. La première ou plutôt la plus immédiate, c’est l’exploration scientifique de la planète. On voit bien qu’avec le décalage temporel résultant de la finitude de la vitesse de la lumière, l’exploration robotique est difficile puisque la distance de 56 à 400 millions de km entre les deux planètes couplée avec les 300.000 km/s de la lumière, impose un temps minimum de 5 à 45 minutes entre l’envoi d’un ordre et le retour de l’information sur Terre rendant compte de ses conséquences. Il en résulte qu’aucune action ne peut être menée en direct sur Mars, contrairement à ce qu’on peut faire sur la Lune. Puisqu’on peut quasiment aujourd’hui envoyer des hommes sur Mars et surtout qu’on devrait pouvoir le faire demain, notamment grâce au Starship d’Elon Musk, une présence humaine représenterait donc un avantage difficilement contestable par rapport à la situation présente, au moins dans ce domaine.

Mais si on va sur Mars, je suis convaincu qu’on aura de plus, intérêt à s’y installer et voici pourquoi.

1) Le premier voyage sera hasardeux et de toute façon dangereux car il n’y aura pas de « comité d’accueil » à l’arrivée. Cela posera problème notamment pour aider les passagers à effectuer les tâches les plus basiques dans le contexte d’une pesanteur retrouvée. Une équipe restant après cette « première » sera plus que bienvenue pour que l’arrivée de la seconde mission se passe dans de meilleures conditions.

2) La mission « n » devra repartir de Mars avant que la mission « n+1 »y parvienne. En effet les départs vers Mars à partir de la Terre ne peuvent avoir lieu que dans une fenêtre d’un mois tous les 26 mois, le voyage dure 8 à 9 mois dans un rapport idéal masse transportée/énergie dépensée (orbite de transfert de Hohmann) mais on peut le réduire à 6 mois en consommant plus d’énergie et en transportant moins de masse, tout en gardant une trajectoire de libre-retour. Ensuite le séjour sur Mars ne peut durer moins de 18 mois (à moins de repartir après deux ou trois semaines seulement mais au prix d’un séjour dans l’espace beaucoup plus long qu’à l’aller, d’un passage périlleux dans l’environnement de Vénus et d’une vitesse plus élevée, dangereuse, à l’approche de la Terre). Et à nouveau le retour sur Terre mettra six mois. On aura donc une mission de 6 + 18 + 6 mois = 30 mois. En clair la mission « n » quittera Mars 24 mois après son lancement mais surtout la mission « n+1 » ne pourra arriver sur Mars qu’après 32 mois (26 + 6). Donc, il ne faut pas rêver, il y aura un hiatus de temps important entre le départ de Mars et l’arrivée de la mission suivante sur Mars. Ceci implique, outre l’absence du comité d’accueil déjà mentionné, l’absence d’une présence pour entretenir les équipements laissés sur place (et les conditions environnementales martiennes sont très dures, selon les critères terrestres).

3) Toute importation depuis la Terre sera impossible entre deux fenêtres de lancements. Il faudra donc disposer de stocks mais surtout faire le maximum avec les ressources locales pour produire les ressources dont on aura besoin. En effet, outre la contrainte des fenêtres, et la nécessité pour certains produits de n’être pas trop vieux pour être consommés, le transport de masse et de volume depuis la Terre posera toujours problème car la capacité d’emport de nos fusées n’est pas illimitée et ne le sera jamais. Je rappelle que le Starship ne pourra transporter que cent tonnes jusqu’à la surface de Mars ; c’est à la fois beaucoup par rapport à aujourd’hui et très peu par rapport aux besoins d’une communauté installée sur place. Il faudra donc développer au maximum l’ISRU (In Situ Resources Utilisation) y compris l’ISPP (In Situ Propellant Production), deux principes mis en évidence par Robert Zubrin au début des années 1990 et repris ensuite par la NASA qui restent incontournables.

L’ISRU servira à produire à partir de matières martiennes, le maximum de produits semi-finis dont on aura besoin, telles que poutres et poutrelles en métal, plaques de verres, plaque de silicium (pour les panneaux solaires) mais aussi matières plastiques, tissus, nourriture, poudres pour les imprimantes 3D (objets divers et pièces de rechange) et, dans la mesure du possible, les machines pour obtenir ces produits ou du moins les éléments les plus massifs dont on aura besoin pour les encadrer, supporter ou protéger.

L’ISPP, ce sera la production à partir du gaz carbonique de l’atmosphère martienne, et le stockage, de méthane et d’oxygène qui seront les ergols utilisés par les fusées interplanétaires (le retour sur Terre !) ou planétaires (pour aller n’importe où sur Mars). Le méthane brûle très bien dans l’oxygène (bonne Isp) et la production des deux gaz utilise une technique éprouvée et facile à mettre en œuvre (réaction de Sabatier) moyennant un peu d’hydrogène (une partie pour dix-huit) que l’on trouvera dans la glace d’eau martienne (électrolyse).

4) Mais ce ne seront pas seulement les produits que l’on ne pourra faire venir de la Terre quand on le voudra, ce seront aussi les personnes. En effet il faudra contrôler les robots, faire fonctionner les machines, surveiller les cultures (algues, poissons, plantes), organiser les constructions, contrôler leur viabilité et leur salubrité. Par ailleurs, les personnes vivant sur Mars seront évidemment le bien le plus précieux de l’établissement. Pour les maintenir en bonne santé, il faudra non seulement disposer de médicaments et d’instruments médicaux divers mais aussi de médecins dans toutes les spécialités possibles. Il s’agira d’abord de chirurgiens car il est quand même délicat de confier son corps à des machines non contrôlées en direct par l’homme, mais aussi des infirmiers pour appliquer les directives de médecins examinant depuis la Terre les diverses données biologiques recueillies sur place. Enfin, les scientifiques venant sur Mars auront besoin de toutes sortes de services techniques, dont en particulier ceux de spécialistes des télécommunications ou d’informaticiens. Et « tout le monde » aura besoin de « bricoleurs », c’est-à-dire d’ingénieurs/mécaniciens/chimistes capables de résoudre un problème apparemment insoluble et qu’on n’aura pas prévu, parce qu’ils auront les capacités intellectuelles et manuelles pour le faire.

Enfin il faudra des services pour s’occuper de toutes ces personnes : des conditionneurs pour les produits alimentaires (pasteurisation, appertisation, congélation, gestion des stocks), des cuisiniers-restaurateurs, des administrateurs, des conseillers financiers, des assureurs, des personnes capables de s’occuper de l’éducation des enfants…ou des défunts.

En fait nous avions calculé avec Richard Heidmann (dans une étude publiée en 2018 dans le Journal of the British Interplanetary Society), qu’une base martienne opérationnelle devrait compter quelques 1000 personnes (y compris environ 500 visiteurs renouvelées à chaque cycle et pourvoyeurs de revenus pour la colonie). C’est sans doute ce qu’il faut envisager « pour tourner » en conditions de sécurité acceptables tout en générant une rentabilité suffisante pour continuer.

Toutes ces personnes nécessaires à l’entretien des hommes et des équipements, c’est à dire au fonctionnement de la base, ne pourront pas venir en même temps que les clients et repartir avec eux. Cela ne serait pas rationnel compte tenu de ce qui a été dit plus haut (entretien des équipements et accueil des nouveaux arrivants) et cela demanderait trop de vaisseaux qui ne pourraient rien transporter d’autre (la recherche de l’autonomie ne veut pas dire qu’on l’atteindra tout de suite ni que des échanges n’auront pas lieu).

5) Un dernier facteur à prendre en considération, lié à la distance, à l’espace et à Mars, est le fait que les hommes qui iront sur Mars devront subir les contraintes d’un long voyage (dans tous les cas plusieurs mois), d’une exposition non négligeable aux radiations spatiales (on pourra en supporter la dose sans problème pour un seul voyage ou deux, mais certainement pas pour cinq ou six), et les conséquences d’une accoutumance à une pesanteur nettement plus faible que sur Terre. Il y aura donc des personnes, spécialistes des sciences martiennes, économiquement intéressées à vivre sur Mars parce qu’ils y auront leur activité et leurs liens sociaux (le boulanger !) ou simplement amoureux de Mars, qui après un premier séjour, décideront de revenir et d’y rester. Ces personnes-là voudront un maximum de confort et de commodités et ils s’efforceront, dans leur intérêt propre, de disposer de tous les équipements nécessaires.

Mars ne sera ni la Station Spatiale Internationale d’où il est possible de revenir en moins de 30 heures, ni l’Antarctique qui, certes peut se trouver isolée mais dont l’isolement ne va durer que quelques semaines ou, au pire, quelques petits mois d’hiver. C’est pour cet isolement que naturellement de plus en plus d’autonomie sera souhaitable voire indispensable pour l’établissement humain sur Mars.

Illustration de titre : la Base Alpha imaginée par Elon Musk, crédit SpaceX

Lecture : The Case for Mars chez Free Press, dernière édition, 2011 (Robert Zubrin, créateur de la Mars Society aux Etats-Unis, marssociety.org)

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:  Index L’appel de Mars 22 06 10

Le troisième catalogue de données de la mission Gaia de l’ESA nous donne une cartographie plus précise que jamais de l’espace qui nous entoure

Le 13 juin 2022, Gaia a publié la seconde partie de la troisième livraison (« release ») de son « catalogue » de données, la « DR3 »*. C’est une nouvelle avancée, considérable, dans la connaissance des astres qui nous entourent. Nous disposons maintenant du plus gros catalogue d’objets spatiaux jamais réalisé et, cerise sur le gâteau, de la vitesse-radiale d’un très grand nombre d’entre eux. Cela nous permet d’avoir non seulement une carte du ciel, précise comme jamais, pour deux milliards d’objets, quasars, galaxies, étoiles, nuages de gaz et de poussière, astéroïdes de notre système (156.000 répertoriés), mais aussi la vitesse-radiale de 33 millions d’entre eux. Cette dernière information nous donne la direction, le sens du déplacement (venant vers nous ou s’éloignant de nous) et la vitesse du déplacement, une vraie carte en quatre dimensions (puisque le temps est pris en compte dans la vitesse).

*DR = Data Release.

En dehors de cette carte, la DR3 de Gaia nous donne la plus grande collection de données astrophysiques sur les étoiles de la Voie-lactée jamais réalisée ; le plus grand relevé de spectroscopie à basse résolution (220 millions) ou haute résolution (1 million) jamais réalisé (qui peuvent être utilisés pour déterminer avec précision les luminosités, les températures, les masses et les compositions chimiques des astres observés) ; l’étude la plus précise de nos astéroïdes, combinant leurs compositions avec leurs orbites ; le plus grand recensement jamais effectué d’étoiles-variables (10 millions) ; une étude des étoiles-binaires (813.000), qui surpasse tous les travaux sur ces étoiles réalisés durant les deux derniers siècles ; un relevé photométrique de la Galaxie d’Andromède. NB: pour comparaison, nous ne pouvons voir à l’œil nu dans le ciel qu’environ 3.000 étoiles.

Les données à la base de ces informations ont été collectées entre le 25 juillet 2014 et le 28 mai 2017, donc 34 mois de collectes pour la DR3 (y compris la phase préliminaire EDR3 -“E” pour “Early”), contre 22 mois pour la DR2 et 14 mois pour la DR1, toujours à partie du 25 juillet 2014. Le nombre de ces données est extrêmement élevé (il faut compter en térabits) et il faut beaucoup de temps pour les traiter. Par ailleurs la pandémie de covid a très sensiblement retardé le travail.

Tout a commencé en 1993 quand Lennart Lindegren (Université de Lund, Suède) et Michael Perryman (ESA/University College Dublin) ont voulu donner une suite à l’observatoire spatial Hipparcos en orbite depuis 1989 et qui arrivait cette année-là en fin de mission. Il avait relevé par astrométrie la position de 118.000 étoiles proches avec une précision de 0,001 secondes d’arc (cent fois mieux que précédemment) et de 2,54 millions d’étoiles jusqu’à la magnitude-apparente 11* avec une précision de 20 millisecondes d’arc. Leur projet, la mission GAIA (à l’origine « Global Astrometric Interferometer for Astrophysics » puis simplement « Gaia », après avoir fait “sauter” “interferometer”), était beaucoup plus ambitieux. Il s’agissait de dresser une carte en trois dimensions de notre environnement sur une population d’étoiles appartenant à une gamme de luminosité beaucoup plus étendue, allant jusqu’à la magnitude-apparente 20 donc couvrant une population stellaire de la Galaxie beaucoup plus importante (1% de ses quelques 200 milliards d’étoiles).

*L’échelle des magnitudes va de -26,7 pour le Soleil à 6,5 pour les astres discernables à l’œil nu et 30 pour les astres les plus éloignés. Hipparcos avait identifié 99% des étoiles allant jusqu’à 11.

Gaia comme tout grand projet d’exploration spatiale a connu des vicissitudes. Il a été modifié en cours de conception pour des raisons budgétaire et d’évolution technologique (notamment abandon de l’interférométrie…sans que son beau nom soit changé). Sur recommandation du « SSAC » (Comité du conseil scientifique spatial) de l’ESA, il a finalement été sélectionné en 2000 par le « SPC » (Science Program Committee) composé des représentants des Etats membres (qui financent !) comme « pierre angulaire » n°6 de son programme « Horizon 2000+ ». Il a été ensuite construit par EADS Astrium* (aujourd’hui une composante d’Airbus Defense and Space) pour un budget de 740 millions d’euros, lancé en décembre 2013 et est devenu opérationnel en mai 2014.

*avec Mersen Boostec (France) pour la structure du télescope et E2v (Grande Bretagne) pour la fourniture des CCD (« Charge Coupled Devices », dispositifs à transfert de charges, utilisés pour lire les signaux lumineux, comme dans les appareils photos digitaux).

Le 25 Juillet 2014 est la date de départ de sa mission scientifique de 5 ans mais avec suffisamment de consommables pour fonctionner 9 ans. Elle a été prolongée une première fois d’une année jusqu’en 2020 puis une nouvelle fois jusqu’à fin 2024 puisqu’on estime aujourd’hui qu’on aura toujours suffisamment d’azote liquide pour refroidir le satellite jusqu’en Novembre 2024. Quatre publications de données ont été faites (en 2016, DR1 ; en 2018, DR2 ; en décembre 2020, EDR3, en juin 2022, DR3) ; deux autres doivent avoir lieu. Ces données sont mises à la disposition des chercheurs du monde entier qui peuvent les exploiter gratuitement pour en tirer une meilleure compréhension de notre environnement et de notre Galaxie.

En tant que satellite, Gaia a plusieurs particularités qui lui permettent d’être le moins perturbé possible par son environnement, il le faut pour la précision recherchée des mesures. Il devait d’abord être extrêmement rigide et léger et cela a déterminé le choix de la matière qui constitue sa structure ou ses miroirs (carbure de silicium). Il évolue dans un environnement à l’écart de tout trouble qui pourrait résulter du voisinage de la Terre (lumineux, thermique, radiatif), autour du point de Lagrange « L2 », en opposition au Soleil par rapport à nous, à 1,5 million de km. Son orbite de 380.000 km autour de L2, parcourue en 6 mois, est exposée au Soleil en permanence selon un éclairage constant. Son bouclier thermique de 10 mètres de diamètre constitue son pare-Soleil, l’objectif de ses télescopes est donc en permanence protégé de la lumière solaire et sa température est stable. Mais comme le Soleil doit aussi être source d’énergie, il est partiellement revêtu de panneaux solaires, fournissant une puissance de 2 kW

Gaia a embarqué plusieurs instruments qui lui donnent toutes les capacités nécessaires pour la détermination de la position, de la distance, du mouvement et autres caractéristiques (spectre lumineux) de tous les objets célestes dont il reçoit la lumière.

La lumière est collectée par deux télescopes rectangulaires de 1,45 m sur 0,50 m avec un écart entre leur ligne de visée de 106,5 degrés. La mesure précise des positions relatives d’objets observés simultanément dans deux directions séparées par un angle obtus, permet d’éviter les erreurs qui pourraient résulter de références trop proches. Les mouvements de l’observatoire sont complexes : Il effectue une rotation sur lui-même en 6 heures (1 degré d’angle par minute de temps) ce qui permet qu’une observation effectuée par le premier télescope soit répétée par le second 106 minutes et 30 secondes plus tard. De plus l’axe de rotation de l’observatoire est incliné de 45° par rapport à la direction du Soleil et il décrit un cercle de précession en 63,12 jours autour de cette direction. La combinaison des mouvements du satellite avec la rotation du point L2 autour du Soleil permet de couvrir la totalité de la voûte céleste. Finalement chaque objet a été vu au minimum 60 fois au cours des 5 ans.

Les signaux lumineux reçus par chacun des télescopes forment des images se superposant sur un plan focal commun de 100 cm composé de 106 capteurs CCD de 4500 X 1966 pixels, soit un total de 1 giga-pixels, organisés en 16 colonnes. Trois traitements sont donnés à ces signaux grâce à un jeu de 6 miroirs, un réseau de diffraction, deux prismes et différents types de CCD.

Le traitement par un instrument astrométrique (« Astrometric Field »), comme celui d’Hipparcos mais beaucoup plus performant (capacité de discernement encore 100 fois supérieure), donne la localisation de l’objet. Il s’agit de sa position sur la sphère céleste c’est-à-dire de son « ascension droite » (équivalent de la longitude) et de sa « déclinaison » (équivalent de la latitude). A cela s’ajoute la distance donnée par la parallaxe (angle entre deux visées à partir des points extrêmes de l’orbite d’observation) et le « mouvement propre » (déplacement apparent) des astres les plus proches. La localisation de l’observatoire dans l’espace, sans aucune perturbation, et la puissance des télescopes ainsi que la capacité des capteurs CCD donnera en fin de mission une précision de 24 micro-arcs-seconde (µas) pour des sources de magnitude-apparente 15 (et jusqu’à 7 µas pour les étoiles proches).

Le traitement par les instruments spectrophotométriques couplant un prisme pour la lumière bleue, « BP » (pour « Blue Photometer ») dans les longueurs d’onde allant de 330 à 680 nm et un prisme pour la lumière rouge (RP) allant de 640 à 1050 nm, donne pour chaque objet un spectre qui permet de mesurer l’intensité lumineuse, la température, la gravité, l’âge et la composition chimique.

La dispersion de la lumière par un spectromètre, « RVS » (pour « Radial Velocity Spectrometer »), utilisant l’effet Doppler-Fizeau, permet de mesurer la vitesse radiale (éloignement ou rapprochement en profondeur, dans l’axe de visée) des 150 millions d’objets les plus lumineux et donc, conjuguée avec l’astrométrie, permettra de connaître la dynamique de la galaxie.

Les résultats sont spectaculaires. La DR1 donnait la position de 1,1 milliards d’objets, la DR2 publiée le 25 avril 2018 pour des observations allant du 25 juillet 2014 au 23 mai 2016, donnait la position de 1,7 milliards d’objets. Avec la DR3 utilisant les données collectées jusqu’au 28 mai 2017, nous avons atteints les 2 milliards d’objets. Cela représente des dizaines de milliards de données.

Ces chiffres énormes impliquent une difficulté évidente, celle du traitement de ces données. Quelques 100 téraoctets sont attendus. A noter que les deux premières colonnes de CCD constituent pour chaque télescope un « Sky Mapper » (« SM »), sélecteur qui permet d’effectuer une détection des sources lumineuses avant transmission aux autres cellules CCD. Un consortium de laboratoires, le « DPAC » (« Data Processing and Analysis Consortium »), véritable « quatrième instrument » (comme dit François Mignard, responsable Gaia pour la France), a développé des programmes très complexes pour les traiter avec des moyens informatiques très importants. Avec la publication de la DR1, de la DR2 puis de la DR3 on peut constater qu’il a pu faire face. Le nombre de pays impliqués est considérable : Autriche, Belgique, Croatie, République tchèque, Danemark, Finlande, France, Allemagne, Grèce, Hongrie, Italie, Pologne, Portugal, Slovénie, Espagne, Suède, Suisse, Pays-Bas, Royaume-Uni…plus quelques autres qui « participent » : Algérie, Brésil, Chili, Chine, Israël, États-Unis, et l’ESO. Face à l’espace et dans un cadre scientifique, les hommes sont souvent frêres.

Il y aura une DR4 pour la période allant jusqu’en 2020. Le catalogue final (DR5) pour couvrir les dix ans d’observations pourrait être publié en 2028. A chaque nouveau stade les mesures seront plus précises. Pour la suite, un “GaiaNIR” (Gaia Near Infra-Red) est envisagé.

Nous ne sommes pas encore capables de nous déplacer physiquement ou robotiquement dans l’espace au-delà de nos très proches astres voisins mais nos capacités en astronomie nous permettent de presque le faire virtuellement. Saluons la performance !

Illustration de titre : Mouvement des étoiles dans les 400.000 prochaines années.

Les étoiles sont en mouvement constant. Pour l’œil humain, ce mouvement – connu sous le nom de mouvement-propre – est imperceptible, mais Gaïa le mesure avec de plus en plus de précision. Les traits sur cette image montrent comment 40.000 étoiles, toutes situées à moins de 100 parsecs (326 années-lumière) du système solaire, se déplaceront dans le ciel au cours des 400.000 prochaines années. Ces mouvements propres ont été publiés dans le cadre de l’EDR3 en décembre 2020. Ils sont deux fois plus précis que les mouvements propres publiés dans le précédent DR. L’augmentation de la précision est due au fait que Gaia a maintenant mesuré les étoiles plus de fois et sur un intervalle de temps plus long. Cela représente évidemment une amélioration majeure.

Crédit : ESA/Gaia/DPAC; CC BY-SA 3.0 IGO. Acknowledgement: A. Brown, S. Jordan, T. Roegiers, X. Luri, E. Masana, T. Prusti and A. Moitinho.

Illustration ci-dessous : performances scientifiques attendues de Gaia à l’échelle de la Voie-lactée (1 kpc = 1 kiloparsec soit 3.261 années-lumière). En arrière-plan une photo du disque de la galaxie qui fait environ 25 kpc de long, telle que nous le voyons de la Terre, c’est-à-dire par la tranche. Crédit : Frédéric Arenou, Wikipedia commons

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur : Index L’appel de Mars 22 06 10

NB: cet article reprend des éléments de mon article du 14 juin 2018 sur Gaia (après la DR2). Il avait été revu par le Professeur François Mignard, responsable du SNO (Service National d’Observation) au sein de l’OSU (Observatoire des Sciences de l’Univers) du CNRS pour la participation française au DPAC (“quatrième instrument”, mentionné plus haut).

Mars, le lieu où l’on a le plus de chances de trouver les traces prébiotiques les plus complexes

Une étude importante pour mieux comprendre le processus menant à la vie vient d’être publiée dans la revue scientifique « Astrobiology ». Dans cette étude, au titre un peu difficile*, les auteurs rapportent les expériences qu’ils ont menées et qui permettent de dire comment de l’ARN a pu/dû être créé sur Terre dans l’environnement de notre premier éon, l’Hadéen (avant -4 milliards d’années). C’est un pas de plus en science prébiotique (1) pour expliquer par un environnement planétologique analogue au nôtre, les premières phases du passage de l’inerte au vivant et donc (2) un pas de plus pour déterminer les contraintes qui peuvent délimiter les possibilités de trouver un jour de la vie sur d’autres planètes ; (3) une confirmation de la justification de l’exploration scientifique de la planète Mars.

*« Catalytic Synthesis of Polyribonucleic Acid on Prebiotic Rock Glasses » (voir ci-dessous, en « référence »).

Je rapporte ci-après la traduction en Français de l’abstract de cet article :

« On rapporte ici des expériences qui montrent que les ribonucléosides-triphosphates sont convertis en acides polyribonucléiques lorsqu’ils sont incubés avec des roches vitreuses similaires à celles vraisemblablement présentes il y a 4,3 à 4,4 milliards d’années à la surface terrestre pendant l’éon Hadéen où ils se sont formés par impacts et volcanisme. Ces acides polyribonucléiques ont une longueur moyenne de 100 à 300 nucléotides (ndt: longueur compatible avec celle des brins d’ADN), avec une fraction substantielle de liaisons dinucléotides, utilisant des atomes de carbone 3’ et 5’ (ndt : atomes de carbone du ribose). Les analyses chimiques, y compris les méthodes classiques qui furent utilisées pour prouver la structure de l’ARN, démontrent une structure d’acide polyribonucléique pour ces produits. L’acide polyribonucléique s’est accumulé et est resté stable pendant des mois, avec un taux de synthèse de 2×10-3 picomoles de triphosphate polymérisé chaque heure par gramme de verre (25°C, pH 7,5). Ces résultats suggèrent que la formation de polyribonucléotides était possible dans les environnements hadéens si ces environnements contenaient des triphosphates. Puisque de nombreuses propositions émergent actuellement décrivant comment les triphosphates auraient pu être fabriqués sur la Terre hadéenne, le processus observé offre ici une étape manquante importante dans les modèles de synthèse prébiotique d’ARN. »

NB : un ribonucléoside est une molécule biochimiques obtenue par la liaison d’une base-nucléique (pour la vie ARN : adénine, guanine, cytosine ou uracile) et d’un ribose (sucre). Lorsque ce ribonucléoside est phosphorilé (ses composants sont liés par un groupe phosphate), il devient un ribonucléotide (monophosphate, biphosphate ou triphosphate). Sous forme libre, le ribonucléotide peut constituer une molécule d’AMP/ADP/ATP (stockage d’énergie) ; enchainé à d’autres par des liaisons phosphodiester (5’,-3’), il peut former un  brin d’ARN ou d’ADN.

Il est évidemment beaucoup plus facile d’espérer que des ribonucléosides-triphosphatés se forment spontanément sur un sol planétaire, que de l’ARN (acide polyribonucléique) puisque cette dernière est une molécule plus complexe. Si donc, comme on le pense de plus en plus, un monde ARN a précédé le monde proprement « vivant » (cellule auto-reproductible construite autour d’une molécule d’ADN mémoire et donneur d’ordre), l’avancée de la compréhension de l’évolution de la matière inerte vers la vie est considérablement éclaircie par la démonstration que la molécule d’ARN peut apparaitre spontanément.

Il faut rappeler que la Terre comme Mars était à l’origine largement couvertes de roches mafiques et ultramafiques (ma = magnesium ; f = fer). Les principaux minéraux mafiques sont l’olivine, le pyroxène, l’amphibole et la biotite. Les roches mafiques (contenant des minéraux mafiques) les plus courantes sont le basalte, le gabbro, la diabase (analogue au basalte ou au gabbro, modifiée par un métamorphisme de faible degré).

A l’origine, la surface des deux planètes telluriques, Mars et la Terre, étaient constituées de roches semblables (formées des mêmes minéraux) dans un environnement atmosphérique semblable, en particulier avec beaucoup d’eau. Au cours de l’Hadéen (premier éon terrien, équivalent du Noachien sur Mars), le bombardement météoritique était intense aussi bien sur Mars que sur Terre et la vitrification des roches de surface du fait des impacts, dans un contexte aqueux, un phénomène banal (NB : le verre est un matériau amorphe issu du refroidissement rapide d’un magma ; avec du basalte on obtient de l’obsidienne).

Les expériences ont constitué à recréer ce milieu (roches mafiques vitrifiées et brisées, eau de pH légèrement basique, températures moyennes de 25°C) avec des triphosphates. La roche la plus réactive a été la diabase (roche mafique légèrement métamorphisée) très représentative de ce qu’on pouvait trouver au sol à l’époque). La réaction a été très nette, montrant une polymérisation régulière, en masse et dans le temps, en acide polyribonucléique. Le rôle de catalyseur des roches mafiques vitrifiées était évident et puissant.

Il en découle qu’une petite région d’impact sur une surface hadéenne (ou équivalent) contenant quelques tonnes de de roches vitrifiées dans un milieu aqueux, pourraient produire près de 1 gramme d’ARN par jour, pourvu bien sûr qu’il y ait aussi du carbone, de l’hydrogène, de l’oxygène et de l’azote (C,H,O,N) dans ce milieu. Mais ces éléments constitutifs ne sont pas rares et leur formation en ribonucléotides-triphosphatés pourrait résulter simplement de la foudre (très fréquente dans les conditions hadéennes).

Cette recherche démontre qu’un milieu planétaire tellurique aqueux en zone habitable, comme la Terre ou Mars, est un véritable laboratoire permettant de pousser considérablement la complexification des matières organiques vers la vie, bien au-delà de ce à quoi peuvent contribuer les astéroïdes (sur certains desquels on a trouvé des sucres et même des acides aminés).

Par ailleurs, contrairement à la Terre, Mars qui n’a pas connu de tectonique des plaques (sinon très marginalement), a largement conservé sa surface d’origine, « noachienne », et cette surface a été relativement peu érodée/transformée depuis le Noachien, surtout dans son hémisphère Sud (l’hémisphère nord ayant été ultérieurement largement recouvert de laves). On doit donc pouvoir retrouver sur Mars les traces physico-chimiques des résultats de cette première phase de l’évolution de la matière vers la vie, si elle s’est bien produite comme sur Terre (surtout si on cherche dans le sous-sol aux environs de 2 mètres de profondeur, à l’abri des radiations, comme le propose l’ESA avec sa mission ExoMars). Si on ne les retrouvait pas c’est qu’une particularité de l’environnement martien, qu’il reste à déterminer, ne l’aurait pas permis.

Cela ne veut néanmoins pas dire que le processus conduisant à la vie et qui plus est à la vie animale ou consciente, a dû suivre facilement cette première phase ailleurs que sur Terre. Le passage de l’ARN à l’ADN est une autre complexification, l’assemblage dans une cellule avec sa membrane (constituée de lipides-membranaires) contenant du cytoplasme en est également une autre. Il faut en effet un volume à la fois fermé mais avec communication possible vers l’extérieur permettant des échanges ne serait-ce que pour se nourrir, et un liquide intérieur favorisant les échanges internes pour que les processus de vie puissent se dérouler « sous contrôle » d’une macromolécule d’ADN. La création d’une membrane et sa reproduction à l’infini par intégration des gènes nécessaires dans l’ADN n’est pas un phénomène évident. La suite, vers l’utilisation de l’oxygène, l’apparition des métazoaires, puis des animaux et enfin de l’homme, est un processus d’autant plus difficile à conduire à bien par la « Nature » que le niveau de complexité s’élève de plus en plus. Ce n’est pas encore demain qu’on découvrira des petits hommes verts.

Illustration de titre : Vue-d’artiste de la Lune vue de la surface de la Terre au début de l’éon Hadéen ; crédit Mark Garlick. NB : la Lune apparait très grosse dans le ciel terrestre. C’est une réalité car à cette époque elle n’était pas distante de plus de quelques 50.000 km (30.000 au minimum). Et, comme la Terre elle était encore extrêmement chaude avec un volcanisme et des impacts d’astéroïdes très nombreux, affectant sans cesse une croute de surface très mince (en formation du fait des différences de températures intérieur/extérieur).

Référence : « Catalytic Synthesis of Polyribonucleic Acid on Prebiotic Rock Glasses » par Craig A. Jerome, Hyo Joong Kim, Stephen J. Mojzsis, Steven A. Benner and Elisa Biondi ; Astrobiology, Volume 22, n°6, 2022, Mary Ann Liebert, Inc. DOI:10.1089/ast.2022.0027

Liens :

https://www.liebertpub.com/doi/10.1089/ast.2022.0027

https://www.futura-sciences.com/sciences/actualites/exobiologie-nouveau-origine-vie-arn-peut-former-spontanement-verre-volcanique-martien-51275/

https://www.theses.fr/2021GRALV055.pdf

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 06 10

EPFL Xplore une aventure étudiante que nous soutenons

Aujourd’hui je passe la parole à une autre équipe d’étudiants de l’EPFL, “Xplore”, que mon association, la Mars Society Switzerland soutient. Il s’agit, avec l’encadrement de l’Ecole et les moyens qu’elle met à leur disposition, de développer un robot d’exploration planétaire, un “rover” dans notre langage devenu courant (avec l’exploration de la planète Mars). Travailler sur ce robot à la pointe de l’ingénierie revient à disposer d’un support de formation intellectuelle formidable. Il s’agit d’utiliser ou de développer des compétences dans un grand nombre de domaines techniques et aussi, c’est très important, de savoir s’organiser en équipes qu’il faut faire avancer de façon coordonnée.

Sur Terre, dans l’immédiat, ce travail a permis à nos étudiants de se mesurer avec succès, du premier coup, à plus de cinquante autres équipes universitaires en Europe. Nous leur devons toute notre admiration et aussi nos encouragements car l’aventure continue! Je vous laisse lire leur récit:   


Vue aérienne du rover sur le terrain où s’est jouée la première compétition universitaire à laquelle a participé Xplore. Il y avait des obstacles!

Il y a toujours l’espace à explorer !

Qui n’a jamais rêvé de partir explorer le monde et ses paysages fabuleux étant enfant, ou bien même… de partir à la conquête de l’espace ? Depuis des décennies, nombreux sont les artistes nous ayant fait voyager à trouver les univers fantastiques des nouvelles et films de science-fiction. Ces univers où l’espèce humaine découvre de nouveaux mondes peuvent nous paraître lointains, voire inatteignables. Pourtant, cette réalité n’est plus aussi lointaine qu’on ne se l’imaginait il y a à peine 20 ans.

Le retour sur le devant de la scène des américains par le biais de compagnies de lancement privées et l’émergence de nouveaux programmes d’exploration à travers le monde montrent aujourd’hui un nouvel attrait pour l’exploration spatiale. Témoins du renouveau de ce secteur, des équipes d’étudiants se sont alors formées aux quatre coins du monde afin de se préparer pour ce merveilleux domaine. C’est donc dans cette lignée qu’un nouveau projet de l’Ecole Polytechnique Fédérale de Lausanne s’est formé : EPFL Xplore.

Origine du projet

EPFL Xplore est un projet étudiant de l’EPFL fondé en 2020 visant à développer des robots d’exploration planétaires, communément appelés rovers, afin de participer à des simulations de missions robotiques spatiales.

L’idée de lancer le projet Xplore nous est venu de différents horizons. D’une part, une passion commune pour l’exploration spatiale a cultivé notre envie de prendre part à un projet ambitieux du domaine. D’autre part, la faible implication de la robotique dans les associations étudiantes du campus nous a conforté dans l’idée de lancer un nouvel axe des projets spatiaux de l’école.

Néanmoins, bien que bénéficiant d’expériences passées dans la gestion de projets, lancer un projet spatial à quatre étudiants ne fut pas facile. En avril 2020, nous concentrions nos efforts à établir les fondations techniques du projet, notamment la définition du cahier des charges et la décomposition fonctionnelle du rover que nous souhaitions développer, mais nous avions également besoin de l’expérience et du soutien de professeurs, de laboratoires et de premiers partenaires industriels. Ceci était en effet primordial : afin de devenir un projet technique éligible pour recevoir un soutien financier de la part de l’EPFL, nous devions montrer que des professeurs étaient prêts à nous aider techniquement. Nous devions par ailleurs trouver un laboratoire acceptant de superviser le projet, ce qui nous a donné le plus de fil à retordre. En outre, tout cela eut lieu en début de pandémie, ne facilitant pas toujours la tâche.

Après quelques semaines de recherches, nous avons finalement réussi à trouver un bon nombre de laboratoires, ce qui nous permit de recruter nos premiers membres en début d’année académique. Dès lors, une course contre la montre commença : développer un rover de A à Z en seulement une année et trouver le financement pour le faire.

Le (premier) rover Argos devant le logo de l’EPFL

Une seule limite : la passion d’une équipe

Un projet seulement limité par l’imagination, c’est souvent ce que les nouveaux membres racontent les avoir poussés à rejoindre l’aventure. Après une année intense et pleine de rebondissement, seule une équipe soudée par une passion commune permit à notre premier rover d’être finalisé en moins de 12 mois.

Afin de maximiser nos chances de réussite, nous nous sommes fortement inspirés de l’organisation et des designs des agences spatiales. Ceci nous a donc poussé à séparer le projet en différentes équipes techniques.

La Structure est responsable du châssis, de la suspension et des roues ainsi que du corps principal du rover tandis que Handling Device s’occupe du développement et du contrôle du bras robotique. Comme pour la structure, l’équipe doit réaliser tout le design mécanique du bras, mais aussi implémenter les logiciels de contrôle manuel et automatique qui seront utilisés durant la compétition.

Le sous-système suivant, la Navigation, est l’équipe responsable de tous les mouvements du rover. Non seulement est-elle tenue de programmer la navigation autonome, mais également de contrôler tous les moteurs des roues du rover.

Mais que serait un rover sans sa base de contrôle ? Notre Houston à nous, c’est la Control Station. L’équipe s’occupe de mettre en place l’interface graphique par laquelle nous pouvons contrôler le rover, mais aussi la communication entre la base et le rover.

Avionics, c’est toute l’électronique embarquée du rover. Des circuits électroniques sont conçus et manufacturés afin d’intégrer les capteurs et actuateurs du rover. Et enfin, la Science a pour but de développer une plateforme située à l’arrière du rover afin d’analyser sur place les échantillons récoltés.

Bien sûr, l’association ne pourrait pas exister sans le travail d’équipes non techniques, telles que l’équipe Finance, responsable de trouver des sponsors pour le projet, ou encore l’équipe Communication, mettant en avant l’image d’Xplore sur les réseaux sociaux.

Une question d’organisation

L’année est séparée en trois grandes phases : la Conception, la Production et la phase de Tests.

La première partie de l’année est donc dédiée au développement des plans et designs du rover. Bénéficiant du soutien de plusieurs laboratoires, de partenaires industriels ainsi que de l’appui de mentors impliqués dans le milieu spatial, l’équipe conçoit durant 4 mois son rover sur ordinateur.

La phase qui suit est sûrement la plus complexe à planifier. En pleine période de covid, assurer la production et la livraison de nos composants et pièces mécaniques en temps voulu constitua en 2021 un vrai défi. Les délais que nous avons alors subis nous ont forcés à repousser la période de test jusqu’à l’été, laissant seulement quelques semaines pour valider le fonctionnement du rover.

Pourtant, malgré les échéances de plus en plus courtes et la pression croissante face à l’annonce des finalistes de la compétitions européenne, c’est une fois de plus la motivation de l’équipe qui fit la différence. En juin 2021, la qualité du travail présenté dans les rapports techniques permit à l’équipe d’être sélectionnée parmi 58 projets mondiaux pour participer à l’European Rover Challenge (“ERC”) organisé chaque année en Pologne.

Cette annonce eu un impact retentissant au sein de l’équipe : participer à une compétition mondiale après seulement un an était une merveilleuse réussite.

Désormais, un but seul nous animait : aller le plus loin possible à la compétition ! C’est donc après un été entier passé à tester notre rover que nous avons finalement rejoint les 15 équipes participant à la compétition en septembre.

European Rover Challenge

La compétition à laquelle nous participons, vise à simuler un environnement martien afin de tester nos rovers dans des conditions les plus proches de celles rencontrées par les rovers actuellement en activité sur la planète rouge.

Cela prend la forme de 4 tâches techniques :

Tout d’abord, la tâche scientifique nous impose de récolter un ou plusieurs échantillons du sol à l’aide notre bras robotique. Ces échantillons devront être directement analysés à bord du rover afin de valider ou non des hypothèses précédemment établies à travers des études théoriques du sol martien. Des photos de l’environnement sont également prises afin d’appuyer les analyses scientifiques et de trouver d’éventuels éléments sortant de l’ordinaire.

Par la suite, le rover est évalué à travers une tâche de navigation autonome. En effet, les délais de communication imposés par la distance entre la Terre et Mars forcent les agences spatiales à doter leur rovers d’une certaine autonomie. Diriger un robot avec une latence pouvant aller jusqu’à 22 minutes serait parfaitement impensable, c’est la raison pour laquelle notre rover est équipé de nombreux capteurs et caméras lui permettant de se repérer dans son environnement et d’en analyser les obstacles et crevasses afin de planifier sa trajectoire.

Il faut noter qu’au cours de cette tâche, les étudiants n’ont pas accès aux données des caméras du rover et doivent donc compter entièrement sur l’autonomie programmée du rover.

Une tâche de sondage s’ensuit alors au cours de laquelle le rover dépose des sondes à des emplacements d‘intérêt scientifique sur le terrain martien. On pourrait par exemple décider d’étudier la composition minérale du sol à la base d’un volcan comme au centre d’un cratère afin d’en apprendre plus sur leur formation.

Enfin, c’est une tâche de manipulation qui constitue la dernière mission de la compétition. Dans l’optique de prévoir l’arrivée des premières missions habitées sur Mars, les robots que nous concevons devront pouvoir installer et entretenir les premières infrastructures d’une base martienne. Comptant sur la dextérité et la précision de notre bras robotique, cette mission nous impose de manipuler des éléments sur un panneau de contrôle et d’en déterminer les états et propriétés électriques. Il nous faudra alors actionner des boutons, mesurer des tensions ou encore brancher et débrancher des câbles de ce panneau.

La compétition se déroule sur une durée de trois jours sur le campus du Kielce University of Technology. De nombreux stands où des entreprises et des équipes d’étudiants et étudiantes exposent leurs produits s’y retrouvent, transformant le campus en une exposition du spatial très animée !

En Juin 2021, l’équipe participa donc à sa toute première compétition. Sur les trois jours intenses de celle-ci, notre premier rover, Argos, parcourut le terrain martien à la recherche de trace d’eau dans le but de prouver l’existence de vie passée ou actuelle.

Alors reconnu pour son avancée technique et la qualité de l’analyse scientifique menée au cours de la compétition, notre rover nous permit de décrocher la 3ème place mondiale ! Nous avons de plus été récompensé par le prix de la meilleure performance dans les tâches de Science et de Sondage du sol, faisant d’Xplore l’équipe la plus récompensée cette année-là.

L’équipe après l’annoncement de la 3e place à l’ERC 2021

Une nouvelle stratégie

À la suite de la compétition, un changement majeur s’est opéré dans la stratégie du projet. Jusqu’alors, le but d’EPFL Xplore avait été de prouver qu’une équipe d’étudiants pouvaient construire un rover en moins d’un an en ne partant de rien. Le design de celui-ci avait donc été simplifié de façon à optimiser son temps de développement.

Néanmoins, la compétition permit de révéler que ce choix d’un design simpliste et spécifique allait limiter son potentiel d’évolution pour les années à venir. C’est pourquoi, dès septembre 2021, la nouvelle équipe s’est entièrement dédiée à développer une nouvelle plateforme modulaire et adaptable pour les années à venir.

Astra, le rover de l’année académique 2021-2022 lors de son Unveiling

Cela fut également motivé par le souhait de réduire l’impact environnemental du projet : ne pas repartir de zéro chaque année et itérer sur une même base permettrait alors de limiter notre empreinte écologique tout en favorisant le développement sur le long terme de cette plateforme.

Futurs Projets

EPFL Xplore est un projet étudiant en constante évolution. Son but principal reste aujourd’hui de développer des rovers pour des compétitions internationales, jusqu’alors en Europe, mais les collaborations de plus en plus poussées avec ses partenaires le mènent progressivement vers le développement de technologies ayant une réelle application spatiale.

Notamment, un nouveau projet qui prendra forme durant la prochaine année académique est le développement d’un drone d’exploration. Ce dernier pourra assister le rover dans sa navigation et l’aider à se localiser sur différents types de terrains. On pourrait même imaginer le drone atterrissant sur le rover pour se recharger et repartir par la suite !

Finalement, un projet de cette ampleur nécessite un budget conséquent afin d’être mené à bien. Outre le soutien d’entreprises fournissant du budget ou du matériel, nous avons la chance et l’honneur de bénéficier de l’appui d’organisations telle la Mars Society Switzerland pour nous permettre de toujours aller plus loin !

Aujourd’hui, le support de nos partenaires permet à plus d’une septantaine d’étudiants et d’étudiantes de développer leur passion dans l’espoir de pouvoir un jour faire de nos fictions actuelles une réalité.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :  Index L’appel de Mars 22 05 25

L’adhésion de la Suisse au gigantesque radiotélescope SKA a été célébrée à Davos ce 25 mai

C’est le 17 décembre 2021 que le Conseil Fédéral a approuvé le financement nécessaire, 24,7 millions de CHF, s’ajoutant aux 8,9 millions déjà engagés, pour que la Suisse devienne membre à part entière du SKAO* et participe à la construction et aux opérations de ce radiotélescope géant jusqu’en 2030 (fin des travaux de réalisation de l’ensemble qui ont commencé en juillet 2021) ; cette qualité devant lui donner accès en permanence aux données les plus récentes collectées.

*Square Kilometer Array Observatory (après Square Kilometer Array Organization).  

Suite à candidature, l’admission de la Suisse comme « full-member » a été formellement acceptée par les sept membres fondateurs de la « collaboration » (communauté scientifique) le 12 janvier 2022. Le nouveau membre (SKA-CH), premier des « non-fondateurs », a tenu à la suite de cette admission, le 25 mai 2022, une table-ronde (dirigée par Olivier Küttel*) dans le cadre du World Economic Forum de Davos, à laquelle participaient les personnes ayant œuvré pour l’admission. Il s’agit de la Secrétaire d’Etat pour l’éducation, la recherche et l’innovation, Martina Hirayama qui a « ouvert les cordons de la bourse » ; la Professeure Catherine Cesarski, astrophysicienne de renommée mondiale, présidente du conseil d’administration du SKAO ; Phil Diamond, astrophysicien, Professeur à l’Université de Manchester, Directeur Général du SKAO ; le président de l’EPFL, Martin Vetterli ; Michel Hübner, « Swiss Industry Liaison Officer » pour les organismes de recherche internationales (SERI/EPFL) ; et bien sûr le Professeur Jean-Paul Kneib, directeur du Laboratoire d’astrophysique de l’EPFL (LASTRO), directeur de son département eSpace et coordonnateur de l’équipe des scientifiques suisses qui utiliseront le SKAO. C’est le Professeur Kneib qui par ailleurs a monté le dossier sur lequel a pu se faire l’admission.

*Olivier Küttel est le Délégué du président de l’EPFL aux affaires internationales.

Ce n’est pas un événement mineur car le SKA est le radiotélescope le plus puissant et le plus sensible jamais construit à ce jour, de par sa surface de collecte (l’équivalent, du fait du nombre et de l’implantation de ses antennes, d’une seule antenne de 1 km2 de surface) et l’échelle des longueurs d’ondes (bande passante) qu’elles couvrira (50 MHz à 15 puis 30 GHz). Son objet principal est la compréhension de la formation des premières galaxies et étoiles. Mais il pourra aussi nous permettre de mieux comprendre le rôle du magnétisme cosmique, la nature de la toujours hypothétique matière noire, celle de l’énergie sombre et de sa force contraire, la gravitation, ainsi qu’éventuellement nous permettre de faire progresser la recherche SETI (au cas où nous capterions une émission radio ayant des caractéristiques ne pouvant être naturelles). L’avantage de la radioastronomie par rapport à la collecte des ondes lumineuses est qu’elle nous permet d’accéder à un niveau d’énergie beaucoup plus bas, donc de percevoir toutes sortes de phénomènes « froids » qui n’émettent pas de rayonnements lumineux (comme les nuages d’hydrogène galactiques et intergalactiques) ou dont les rayonnements lumineux ont été allongés par la distance et par le temps.

Pour être plus précis, voici la liste donnée par Catherine Cesarski dans sa présentation, des grands sujets et questions que le SKAO doit nous permettre de mieux étudier :

1) The Cradle of Life and Astrobiology: How do planet forms? Are we alone?

2) Strong-field Tests of Gravity with Pulsars and Black Holes: Was Einstein right with General Relativity?

3)  The Origin and Evolution of Cosmic Magnetism: What is the role of magnetism in galaxy evolution and the structure of the cosmic web?

4) Galaxy Evolution probed by Neutral Hydrogen: How do normal galaxies form and grow?

5) Galaxy Evolution probed in the Radio Continuum: What is the star-history formation of normal galaxies?

6) Cosmic Dawn and the Epoch of Reionization: How and when did the first stars and galaxies form?

7) Cosmology and Dark Energy: What is dark matter? what is the large-scale structure of the Universe?

8) The transient Radio Sky: What are Fast Radio Burst and how can we best utilize them?

Comme vous pouvez le constater, cela touche à tous les domaines de la radioastronomie ! La différence du SKA avec les autres radiotélescopes est encore une fois les moyens dont il disposera. A noter que l’installation des antennes dans le désert du Nord-Ouest australien et le désert Sud-africain du Karoo, a été choisie en raison de l’aridité (l’humidité n’est pas bonne pour l’observation astronomique en général puisqu’elle opacifie l’atmosphère) et l’isolement de ces régions (très faible population et rareté des sources radios que les gouvernements se sont engagé à maintenir en « radio quiet areas »). Il en effet très important de limiter au maximum les « bruits » qui pourraient interférer avec les émissions reçues.

Les autres membres à part entière du SKAO sont les fondateurs (« première pierre » en 1997) : Australie, Chine, Italie, Pays-Bas, Portugal, Afrique du Sud et Grande-Bretagne. La France est le prochain pays qui devrait rejoindre la collaboration (accord préliminaire le 11 avril de cette année). Suivront probablement l’Espagne, l’Allemagne, le Canada, puis l’Inde et la Suède. Les partenaires suisses au sein de SKACH comprennent 9 institutions : la Fachhochschule Nordwestschweiz (FHNW), l’Üniversität Zürich (UZH), l’Eidgenössische Technische Hochschule Zürich (ETHZ), la Zürcher Hochschule für Angewandte Wissenschaften (ZHAW), l’Universität Basel (UniBAS), l’Université de Genève (UniGE), la Haute Ecole Spécialisée de Suisse Occidentale (HES-SO), le Centro Svizzero di Calcolo Scientifico (CSCS). Cela regroupe environ 70 scientifiques.

Avant de devenir membre à part entière la Suisse a déjà contribué, pendant la phase préparatoire (celle de l’« Organisation »), à sept des « Science Working Groups » y compris ceux qui s’intéressent à la cosmologie, aux ondes gravitationnelles et à l’évolution des galaxies. Par ailleurs l’expertise suisse dans le calcul-intensif (HPC), le traitement des données, les antennes et capteurs, la gestion du temps a été très appréciée par la communauté des fondateurs (la coordination de toutes ces antennes pose un défi considérable).

Si le SERI était présent à la table ronde en la personne de Michel Hübner, c’est que l’entrée de la Suisse dans le SKAO induira beaucoup de travail pour de nombreuses industries de pointe en Suisse. Parmi elles on peut à nouveau citer celles qui travaillent sur les horloges atomiques, puisque c’est une spécialité de « mon » Canton de Neuchâtel (le Laboratoire Temps Fréquence du Professeur Gaetano Miletti et Spectratime /Orolia de Pascal Rochat pour les horloges atomiques à maser). Au-delà, comme on entre dans la période des appels d’offres, il faut se préparer à y répondre et la Suisse pays des microtechniques, a un gros potentiel pour profiter des marchés qui se profilent.

Le SKAO est la seconde organisation intergouvernementale (« IGO ») dédiée à l’astronomie régie par un traité international après l’ESO (European Southern Observatory). Le traité qui l’institue a été signé le 12 Mars 2019, à Rome. Le projet a mis 30 ans à murir mais la construction physique n’a commencé, comme dit plus haut, que le 1er juillet 2021. Il comprend deux ensembles d’antennes. L’un, le SKA low array (Australie), aura 131000 antennes, de 2 mètres ; l’autre, le SKA Mid array (Afrique du Sud), aura 197 antennes, de 15 mètres. Ce dernier a incorporé son « précurseur », le télescope MeerKAT (64 antennes de 13,5 mètres). La coordination se fait à Jodrell Bank en Angleterre qui est le siège du SKAO. Et il y aura des centres régionaux (« SKA Regional Centers ») pour gérer les données. Le tout coûtera 2 milliards d’euros de 2020 (1,3 pour la construction et 0,6 pour le fonctionnement jusqu’à cette date – comme déjà dit, 2030). A noter que contrairement à un télescope utilisant les ondes lumineuses, un radiotélescope peut commencer à être utilisé à partir du moment où on dispose de suffisamment d’antennes pour recueillir une image de qualité. On aura donc des données intéressantes bien avant 2030.

Lors de la table-ronde, le Professeur Kneib a insisté sur le traitement des données. C’est en effet un très gros problème car les télescopes en recueilleront environ 650 petabytes tous les ans (un terabyte par seconde !). Il faut dès à présent imaginer des instruments nouveaux (supercalculateurs) et de nouvelles techniques (algorithmes) pour sélectionner et traiter ces informations et ce n’est pas le moindre défi. Heureusement la Suisse dispose de « cerveaux », notamment à l’EPFL, qui pourront s’appliquer à surmonter cette difficulté. Cela rejoint les considérations sur le « crossfeeding » développées par le président Martin Vetterli lors de la table-ronde. Le SKAO constitue un énorme progrès dans les moyens mis à disposition pour la connaissance de l’Univers mais c’est également un moteur de progrès très puissant pour ceux qui y participeront.

Illustration de titre :

Le 22 janvier, le SARAO, (South African Radio Astronomy Observatory) a publié une nouvelle image du centre de notre galaxie produite par le radio télescope MeerKAT (intégré au SKA), montrant les émissions radio sélectionnées à 1,284 GHz qui en proviennent, avec une clarté et une profondeur sans précédent (surface 6,5 deg2, résolution angulaire 4’’) : Le « 1.28 GHz MeerKAT Galactic Center Mosaic ». On ne peut qu’être émerveillé de sa qualité artistique. Crédit : Heywood et al. (2022). Le télescope MeerKAT est géré par le SARAO. C’est un équipement de la « National Research Foundation », une agence du « Department of Science and Innovation » de la République d’Afrique du Sud. La recherche scientifique sous-tendant l’image a été publiée dans The Astrophysical Journal.

NB: (1) pour apprécier la dimension de cette image (6,5 deg2), il faut se rappeler que la sphère de la voute céleste a, dans son ensemble, une “surface” de 41.153 deg2.

NB: (2) Le trou-noir central de notre galaxie (SgrA*) se trouve au centre du point blanc situé au centre de l’image. Nous sommes ici véritablement au centre de notre monde.

Liens :

https://skach.org/

https://www.skatelescope.org/

https://www.admin.ch/gov/en/start/documentation/media-releases.msg-id-86519.html

https://www.skatelescope.org/news/switzerland-joins-skao-as-eighth-member/

https://skao.canto.global/pdfviewer/viewer/viewer.html?v=SJOMFKK7GC&portalType=v%2FSJOMFKK7GC&column=document&id=psnfvpbbn15u57tkegqrbggb1b&suffix=pdf&print=1

https://espace.epfl.ch/event/espace-seminar-the-ska-observatory-and-the-universe-at-radio-wavelength-by-prof-jean-paul-kneib/?doing_wp_cron=1652803866.1155300140380859375000

https://www.unige.ch/sciences/physique/actualites/ska-sera-le-plus-grand-radiotelescope-jamais-construit/

https://www.skatelescope.org/news/founding-members-sign-ska-observatory-treaty/

https://archive-gw-1.kat.ac.za/public/repository/10.48479/fyst-hj47/index.html

Lire aussi mon article sur ce blog, du 21 Septembre 2019 : « Le radiotélescope géant SKA, un projet exaltant qui pose des défis à hauteur de son ampleur ».

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur : Index L’appel de Mars 22 05 25

La cartographie en 3D “eBOSS” nous donne les meilleures images que nous ayons jamais eu des grandes structures de l’Univers et de leur évolution

Vous regardez la carte tridimensionnelle la plus détaillée de l’univers connu. Elle s’appelle le Sloan* Digital Sky Survey (« SDSS »). C’est l’aboutissement du travail de scientifiques du monde entier qui viennent de terminer la quatrième phase de cinq ans d’une étude du ciel nocturne mesurant les positions et les distances de plus de 4 millions de galaxies et de quasars. Cette étude commencée en l’an 2000, entre maintenant dans sa cinquième et dernière phase prévue. La carte aidera les scientifiques à progresser dans la compréhension des mystères restants de notre Univers.

*Alfred P. Sloan était un homme d’affaires américain, président de General Motors de 1923 à 1956 et décédé en 1966. La cartographie porte son nom car c’est sa fondation qui l’a financée en large partie. Voir : https://sloan.org/programs/research

Bien au-delà des étoiles locales qui dessinent les constellations familières dans notre ciel nocturne et au-delà de notre propre Voie Lactée, des milliards de galaxies sont réparties dans l’univers observable. En déroulant la vidéo en bas de page vous partirez dans un voyage supraluminique à partir de notre voisinage jusqu’à la plus grande échelle de notre Univers, en passant par ces galaxies et les structures qu’elles dessinent et que l’on perçoit de mieux en mieux aujourd’hui.

Depuis 1998, la communauté scientifique a réalisé que non seulement l’Univers est en expansion mais que son expansion s’accélère. Cette accélération, inattendue, constitue l’une des énigmes majeures de la physique. D’un point de vue théorique, l’accélération peut être expliquée soit en supposant qu’il existe une mystérieuse énergie noire, soit en modifiant la théorie de la gravité d’Einstein appelée “Relativité-générale”. La même année, le Sloan Sky Digital Survey a été lancé pour s’attaquer à cette énigme.

Le Sloan Sky Digital Survey est une vaste collection des positions angulaires* des galaxies observées dans le ciel ainsi que de leurs distances par rapport à nous, déterminées en observant le déplacement systématique de la lumière induit par l’expansion de l’Univers, qu’on appelle le « redshift » (décalage vers le rouge) puisque le tissu de l’Univers étiré par l’expansion, éloigne d’autant plus vite les astres de l’endroit où nous nous trouvons qu’ils sont déjà plus éloignés de nous (effet Doppler/Fizau). Dans cette nouvelle carte de notre Univers, les grandes taches sombres sont pour la plupart des régions obscurcies par la Voie lactée qui de ce fait ne peuvent être observées.

*la position angulaire résulte des coordonnées des astres sur la voûte céleste. Il s’agit de leur « ascension droite » et de leur « déclinaison », l’équivalent des longitude et latitude à la surface de la planète (le redshift leur donne une troisième et une quatrième dimensions).

Au cours des vingt dernières années, au travers de ses quatre premières phases exploratoires, le Sloan Sky Digital Survey a créé une succession de cartes tridimensionnelles, à chaque stade les plus détaillées de l’Univers. Pour y parvenir, la « Survey » s’est concentrée sur différentes classes de galaxies : les galaxies proches ; les galaxies rouges (effet Doppler), vers -6 milliards ; les galaxies formant des étoiles plus éloignées en utilisant les plus lumineuses, les jeunes bleues ; et les galaxies actives distantes super-lumineuses, les quasars, jusqu’à 11 milliards d’années-lumière.

La quatrième Sloan Sky Digital Survey s’est déroulée de 2014 à 2020. Pendant ce temps, le nouveau projet appelé “Extended Baryon Oscillation Spectroscopic Survey”, ou eBOSS pour faire court, a continué la précédente cartographie Sloan du ciel extragalactique et a récemment terminé de mesurer les distances pour un million de galaxies et de quasars. eBOSS a été initiée et dirigée par le Professeur Jean-Paul Kneib, astrophysicien, directeur du LASTRO (Laboratoire d’Astrophysique de l’EPFL). Elle a été présentée dans des conditions spectaculaires le 11 Mai 2022 au Laboratoire pour une muséologie expérimentale de l’EPFL (eM+), au cours du second événement du projet « Archéologie cosmique ».

Ces relevés successifs permettent aux scientifiques de retracer les structures à grande échelle de l’Univers jusqu’à une fraction de son « horizon » représenté par le fond diffus cosmologique, vu ci-dessous comme un motif coloré projeté sur une sphère. Le fond diffus cosmologique est la relique thermique de l’Univers (l’émission reçue est en infrarouge), qui remonte à 380.000 ans après la naissance de l’Univers, également connue sous le nom de Big-Bang.

En ajoutant les données eBOSS aux phases exploratoires précédentes de Sloan un, deux et trois, le Sloan Sky Digital Survey dispose désormais d’une base de données de 4 millions de galaxies et de quasars, assemblant la carte en 3D la plus grande et la plus complète de l’Univers à ce jour. Cette réalisation sans précédent fournit aux scientifiques de nouveaux outils pour faire la lumière (si l’on peut dire !) sur l’énergie noire et aussi pour contraindre la théorie de la relativité générale, ce qui doit conduire à une meilleure compréhension des lois fondamentales qui régissent notre Univers.

Concernant plus particulièrement l’accélération de l’expansion, cette phase IV de la SSDS avec sa cartographie en 3D de l’époque 3 à 8 milliards d’années, nous donne une vue plus précise que jamais sur l’époque de transition située il y a environ 7 milliards d’années, pendant laquelle l’accélération de l’Univers a commencé à se manifester en contrant la force de gravité générée par les masses de matière.

Enfin, la cartographie de la période la plus ancienne permet de mettre en évidence une phase de décélération de l’expansion vers -11 milliards d’années (3 milliards après le Big-Bang). On savait qu’elle avait dû avoir lieu mais on ne l’avait jamais mesurée. Il aurait donc fallu 4 milliards d’années supplémentaires pour voir l’expansion de l’Univers s’accélérer à nouveau sous l’influence de l’énergie sombre

La SSDS est une collaboration qui regroupe des centaines de scientifiques dans des douzaines d’institutions au travers du monde. Les observations ont été faites au moyen du télescope propre de la Fondation Sloane. C’est un appareil doté d’un miroir principal de 2,5 mètres situé dans l’observatoire APO (Apache Point Observatory) au Nouveau Mexique. La dernière publication du programme est la «data release 17 », daté de décembre 2021. SDSS-V a commencé en Octobre 2020.

Illustration de titre : Un des « moments » de la carte tridimensionnelle de l’Univers dessinée à partir des données de la SDSS-IV. On devrait d’ailleurs dire que cette carte est quadridimensionnelle puisqu’elle intègre la dimension temps en plus de celle de la distance. Ceci est une capture d’écran du film réalisé par eBOSS.

Illustration ci-dessous, localisation des données recueillies par SDSS-IV. Le « 0 » se trouve à 13,8 milliards d’années-lumière de nous. La surface bleue est celle du moment où l’énergie sombre a « pris le dessus » sur la force de gravité. La surface extérieure est la surface de dernière diffusion, le dernier instant de l’univers primordial avant que la lumière se libère de la matière, 380.000 ans après le Big-Bang.

Liens:

Laboratoire de muséologie expérimentale de l’EPFL (eM+) : https://www.epfl.ch/labs/emplus/#:~:text=eM%2B%20is%20a%20new%20transdisciplinary,multisensory%20engagement%20using%20experimental%20platforms.

Premières phases du SDSS : https://classic.sdss.org/

Dernière publication de données (17ème) du SDSS (contient la vidéo mentionnée dans l’article) : https://www.sdss.org/surveys/eboss/

Les astrophysiciens comblent le « gap » existant dans l’histoire de l’Univers (Actualités EPFL du 20/07/2020) : https://actu.epfl.ch/news/astrophysicists-fill-gaps-in-the-history-of-the-un/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 27

Les scientifiques de la collaboration EHT nous révèlent le sombre cœur dormant de notre galaxie

Ça y est ! L’ESO a pu déduire de ses observations les contours de SgrA*, le trou-noir central de notre galaxie. A première vue ce trou-noir ressemble beaucoup à celui de la galaxie M87, dont on a présenté l’image il y a maintenant trois ans (avril 2019). C’est exact car il s’agit aussi d’un trou-noir mais il y a quand même des différences et l’on pourra en déduire des confirmations, des informations et de nouvelles interrogations sur les trous-noirs en général et, bien sûr, le nôtre en particulier.

L’information était l’objet d’une conférence de presse donnée hier, 12 mai, au monde entier par divers partenaires dont l’ESO (European Southern Observatory) en Allemagne, à son siège près de Munich (Garching). C’est une satisfaction de constater que nous, Terriens, pouvons nous unir face aux grandes énigmes de l’Univers.

SgrA (Sagittarius A) est le nom donné pour la localisation dans le ciel terrestre (constellation du Sagittaire) de l’origine des ondes-radio reçues de l’environnement immédiat de ce trou-noir. L’astérisque* est ajouté pour caractériser la source elle-même qui « excite » (terme de science physique signifiant que le système est porté à un niveau supérieur d’énergie par rapport à celui qu’il a au repos) l’hydrogène ionisé de cet environnement.

On se doutait depuis la fin des années 1970 (détection à cet endroit d’une très forte source radio en 1974 par Balick & Brown) qu’il pouvait y avoir un trou-noir au centre de notre galaxie comme on se doutait que ce devait être le cas de la plupart des autres galaxies puisque cela découlait de la théorie de la relativité générale d’Albert Einstein. On hésitait en ce qui concerne la Voie Lactée en raison de la très faible activité électromagnétique de ce centre (faiblesse confirmée lors de la conférence de presse). Mais la présence d’une masse énorme était évidente du fait que des étoiles (notamment S62, deux masses solaires) orbitaient cette région à des vitesses extrêmement élevées et à des distances très courtes (2 milliards de km au plus près du rayon de Schwartzschild, soit la distance Saturne/Soleil); la vitesse et la distance de S62 (orbite parcourue en 9,9 ans) fournissant d’ailleurs un des moyens de calculer la masse centrale.

Mais on ne « voyait » rien car (1) la population d’étoiles au cœur de la galaxie est extrêmement dense, (2) nous ne pouvons recevoir de rayonnement de la source qu’au travers non seulement du bulbe mais aussi du disque de la galaxie puisque nous sommes dans ce disque, (3) le trou-noir bien que « supermassif », 4,13 millions de masses solaires, est extrêmement petit (diamètre égal à celui de l’orbite de Mercure) et (4) il est situé à 27.000 années-lumière de notre système. On ne peut le distinguer (diamètre depuis la Terre 52 µas ­- microsecondes d’arc) qu’avec des instruments dont la faculté de résolution permettrait de voir une bulle dans un verre de champagne à New-York, depuis l’Allemagne (d’après l’image donnée par l’une des scientifiques présentant le sujet à la conférence de presse).

A contrario, le trou-noir de la galaxie Messier 87 (M87*) était paradoxalement plus facile à voir car, bien que plus lointain (53 millions d’années-lumière) on peut observer sa galaxie orthogonalement, il est beaucoup plus massif (6,5 milliards de masses solaires) donc beaucoup plus gros (diamètre de 38 milliards de km, soit trois fois le rayon de l’orbite de Pluton) et apparait de la même taille que Sgr3* vu de la Terre. Il est aussi beaucoup plus actif (jet de gaz relativiste partant du cœur de la galaxie).

Une autre difficulté pour observer les caractéristiques de SgrA* par rapport à celles de M87* est que le premier étant beaucoup plus petit, les nuages de gaz qui l’entourent bougent relativement beaucoup plus vite. En effet la vitesse maximum est la même, celle de la lumière, mais le cercle à parcourir beaucoup plus petit. L’image est donc constamment, d’une heure à l’autre, changeante.

On a pu donc imager M87* avant SgrA*. En fin de compte ce qui a été présenté lors de la conférence de presse de l’ESO, c’est une image avec des caractéristiques « moyennes », mettant en évidence des constantes ou plutôt des permanences : taille de l’ombre (le centre obscure, entourée d’un anneau de photons que l’on ne voit pas dans le cas présent) et trois surdensités dans la couronne (que les Américains appellent donut…ce qui ne me plait pas du tout). En fait pour mieux se représenter SgrA* il faudra attendre le film qui en est prévu. Cela sera relativement facile car les « prises de vue » (séries de collectes de données) ont été innombrables. Pour le moment il faut se souvenir de cette mobilité de la couronne et avoir conscience que l’image communiquée n’est qu’un instant fugitif de l’astre.

Pour autant, nous devons encore réfléchir à ce que nous voyons. Avec la taille du trou-noir nous avons certes sa masse. Mais très curieusement il apparaît actuellement très peu actif. L’accrétion est extrêmement faible. S’il était de la taille d’un homme, il se nourrirait d’un grain de riz par million d’années (jolie image choisie par une des présentatrices). Contrairement à M87* aucun jet supraluminique (qui doit résulter de cette accrétion si elle avait lieu) n’a pu être observé partant du centre de sa couronne. On le classe donc dans la catégorie des trous-noirs de Kerr (l’un des quatre types de trous-noirs).

Pour faire le « portrait » de SgrA* il a fallu encore plus de travail, que pour M87*, en utilisant des instruments un peu plus performants.

D’abord il s’agit d’utiliser les ondes radio, ni le visible, ni même l’infrarouge ne pouvant parvenir jusqu’au centre de notre bulbe en étant capable de discerner quoi que ce soit. Comme pour M87* on a choisi la longueur d’ondes 1,3 mm. Le principe de l’Event Horizon Telescope, « EHT », utilisé, est le même, un réseau mondial de télescopes (plus précisément d’antennes) de façon à reproduire par interférométrie, l’image qu’obtiendrait un télescope de la taille du disque terrestre (dont les télescopes qui en sont les composants, répartis du Groenland à l’Antarctique, fournissent les éléments). Les équipes qui utilisent cet interféromètre virtuel « à très longue base », « VLBI », constituent la « collaboration » de l’EHT. Elles regroupent trois cent scientifiques et utilise onze centres de collecte, deux de plus que pour M87* : en Arizona et en Europe (« NOEMA » dans les Alpes françaises). Les données sont si volumineuses (elles se comptent en pétaoctets) qu’elles ne peuvent être transmises par les ondes et que leurs supports doivent être portés physiquement jusqu’aux deux centres où elles sont traitées, aux Etats-Unis. On appelle ces centres des « corrélateurs ». Le traitement informatique des données est très long (elles datent de 2017) à cause de cette abondance et à cause de leurs grandes complexités (il faut notamment écarter les « bruits » et le signal est faible).

L’intérêt de l’image est multiple. A partir de deux objets, on peut comparer et déduire, surtout que M87* se classe dans les masses maxima et que SgrA* est de taille moyenne. On a déjà constaté que la masse de ce nouveau trou-noir et son spin (mouvement angulaire) correspondaient à ce que l’on pouvait mathématiquement attendre des lois de la Relativité Générale. On est toujours heureux de vérifier cette théorie extraordinaire.

En dehors de la science pure, il y a, via le sens de la vue, notre part émotionnelle qui est touchée par cet événement. Voir le trou noir, c’est voir le cœur qui nous fait vivre et en même temps l’organe menaçant qui annonce notre mort. Il est central ; nous sommes dans son absolue dépendance et un jour très lointain il engloutira toutes les étoiles qu’il contrôle par gravité, dont notre Soleil, après un étirement puis un déchirement total de la matière. Nous serons bel et bien mis en pièce par ce cœur qui pour le moment nous tient à distance dans une ronde très longue et très lente, comme il tient les autres étoiles de notre galaxie et comme le Soleil tient ses planètes. C’est lui qui donne à la Galaxie sa cohérence et lui permet de fonctionner. C’est grâce à ce trou-noir que des nuages de gaz ont pu et peuvent encore se concentrer en étoiles et c’est grâce à lui que des étoiles ont pu et peuvent encore complexifier la matière par nucléosynthèse. C’est donc in fine grâce à lui que les planètes ont pu se former et la vie naître sur Terre. Oui, le trou-noir central est notre Soleil de vie en même temps qu’il est notre Soleil de mort ; Toutankhaton aurait pu lui dédier son « hymne au Soleil »  s’il avait pu le concevoir. Gérard de Nerval ne pouvait non plus l’imaginer lorsqu’il commentait la magnifique gravure de Dürer, Melancholia, mais ce dessin lugubre est maintenant une clef pour le comprendre. De nos jours les artistes sont aussi les astrophysiciens qui grâce à leur lecture de données froides et inexpressives pour le commun des mortels, sont capables tout comme leurs prédécesseurs, en les interprétant de nous faire rêver ou blêmir.

illustration de titre: Image du trou noir central de la Voie Lactée, SgrA*. Crédit collaboration EHT (Event Horizon Telescope).

Liens :

Note de presse : https://www.eso.org/public/news/eso2208-eht-mw/

Note scientifique : Akiyama_2022_ApJL_930_L12.pdf

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 27