La cartographie en 3D “eBOSS” nous donne les meilleures images que nous ayons jamais eu des grandes structures de l’Univers et de leur évolution

Vous regardez la carte tridimensionnelle la plus détaillée de l’univers connu. Elle s’appelle le Sloan* Digital Sky Survey (« SDSS »). C’est l’aboutissement du travail de scientifiques du monde entier qui viennent de terminer la quatrième phase de cinq ans d’une étude du ciel nocturne mesurant les positions et les distances de plus de 4 millions de galaxies et de quasars. Cette étude commencée en l’an 2000, entre maintenant dans sa cinquième et dernière phase prévue. La carte aidera les scientifiques à progresser dans la compréhension des mystères restants de notre Univers.

*Alfred P. Sloan était un homme d’affaires américain, président de General Motors de 1923 à 1956 et décédé en 1966. La cartographie porte son nom car c’est sa fondation qui l’a financée en large partie. Voir : https://sloan.org/programs/research

Bien au-delà des étoiles locales qui dessinent les constellations familières dans notre ciel nocturne et au-delà de notre propre Voie Lactée, des milliards de galaxies sont réparties dans l’univers observable. En déroulant la vidéo en bas de page vous partirez dans un voyage supraluminique à partir de notre voisinage jusqu’à la plus grande échelle de notre Univers, en passant par ces galaxies et les structures qu’elles dessinent et que l’on perçoit de mieux en mieux aujourd’hui.

Depuis 1998, la communauté scientifique a réalisé que non seulement l’Univers est en expansion mais que son expansion s’accélère. Cette accélération, inattendue, constitue l’une des énigmes majeures de la physique. D’un point de vue théorique, l’accélération peut être expliquée soit en supposant qu’il existe une mystérieuse énergie noire, soit en modifiant la théorie de la gravité d’Einstein appelée “Relativité-générale”. La même année, le Sloan Sky Digital Survey a été lancé pour s’attaquer à cette énigme.

Le Sloan Sky Digital Survey est une vaste collection des positions angulaires* des galaxies observées dans le ciel ainsi que de leurs distances par rapport à nous, déterminées en observant le déplacement systématique de la lumière induit par l’expansion de l’Univers, qu’on appelle le « redshift » (décalage vers le rouge) puisque le tissu de l’Univers étiré par l’expansion, éloigne d’autant plus vite les astres de l’endroit où nous nous trouvons qu’ils sont déjà plus éloignés de nous (effet Doppler/Fizau). Dans cette nouvelle carte de notre Univers, les grandes taches sombres sont pour la plupart des régions obscurcies par la Voie lactée qui de ce fait ne peuvent être observées.

*la position angulaire résulte des coordonnées des astres sur la voûte céleste. Il s’agit de leur « ascension droite » et de leur « déclinaison », l’équivalent des longitude et latitude à la surface de la planète (le redshift leur donne une troisième et une quatrième dimensions).

Au cours des vingt dernières années, au travers de ses quatre premières phases exploratoires, le Sloan Sky Digital Survey a créé une succession de cartes tridimensionnelles, à chaque stade les plus détaillées de l’Univers. Pour y parvenir, la « Survey » s’est concentrée sur différentes classes de galaxies : les galaxies proches ; les galaxies rouges (effet Doppler), vers -6 milliards ; les galaxies formant des étoiles plus éloignées en utilisant les plus lumineuses, les jeunes bleues ; et les galaxies actives distantes super-lumineuses, les quasars, jusqu’à 11 milliards d’années-lumière.

La quatrième Sloan Sky Digital Survey s’est déroulée de 2014 à 2020. Pendant ce temps, le nouveau projet appelé “Extended Baryon Oscillation Spectroscopic Survey”, ou eBOSS pour faire court, a continué la précédente cartographie Sloan du ciel extragalactique et a récemment terminé de mesurer les distances pour un million de galaxies et de quasars. eBOSS a été initiée et dirigée par le Professeur Jean-Paul Kneib, astrophysicien, directeur du LASTRO (Laboratoire d’Astrophysique de l’EPFL). Elle a été présentée dans des conditions spectaculaires le 11 Mai 2022 au Laboratoire pour une muséologie expérimentale de l’EPFL (eM+), au cours du second événement du projet « Archéologie cosmique ».

Ces relevés successifs permettent aux scientifiques de retracer les structures à grande échelle de l’Univers jusqu’à une fraction de son « horizon » représenté par le fond diffus cosmologique, vu ci-dessous comme un motif coloré projeté sur une sphère. Le fond diffus cosmologique est la relique thermique de l’Univers (l’émission reçue est en infrarouge), qui remonte à 380.000 ans après la naissance de l’Univers, également connue sous le nom de Big-Bang.

En ajoutant les données eBOSS aux phases exploratoires précédentes de Sloan un, deux et trois, le Sloan Sky Digital Survey dispose désormais d’une base de données de 4 millions de galaxies et de quasars, assemblant la carte en 3D la plus grande et la plus complète de l’Univers à ce jour. Cette réalisation sans précédent fournit aux scientifiques de nouveaux outils pour faire la lumière (si l’on peut dire !) sur l’énergie noire et aussi pour contraindre la théorie de la relativité générale, ce qui doit conduire à une meilleure compréhension des lois fondamentales qui régissent notre Univers.

Concernant plus particulièrement l’accélération de l’expansion, cette phase IV de la SSDS avec sa cartographie en 3D de l’époque 3 à 8 milliards d’années, nous donne une vue plus précise que jamais sur l’époque de transition située il y a environ 7 milliards d’années, pendant laquelle l’accélération de l’Univers a commencé à se manifester en contrant la force de gravité générée par les masses de matière.

Enfin, la cartographie de la période la plus ancienne permet de mettre en évidence une phase de décélération de l’expansion vers -11 milliards d’années (3 milliards après le Big-Bang). On savait qu’elle avait dû avoir lieu mais on ne l’avait jamais mesurée. Il aurait donc fallu 4 milliards d’années supplémentaires pour voir l’expansion de l’Univers s’accélérer à nouveau sous l’influence de l’énergie sombre

La SSDS est une collaboration qui regroupe des centaines de scientifiques dans des douzaines d’institutions au travers du monde. Les observations ont été faites au moyen du télescope propre de la Fondation Sloane. C’est un appareil doté d’un miroir principal de 2,5 mètres situé dans l’observatoire APO (Apache Point Observatory) au Nouveau Mexique. La dernière publication du programme est la «data release 17 », daté de décembre 2021. SDSS-V a commencé en Octobre 2020.

Illustration de titre : Un des « moments » de la carte tridimensionnelle de l’Univers dessinée à partir des données de la SDSS-IV. On devrait d’ailleurs dire que cette carte est quadridimensionnelle puisqu’elle intègre la dimension temps en plus de celle de la distance. Ceci est une capture d’écran du film réalisé par eBOSS.

Illustration ci-dessous, localisation des données recueillies par SDSS-IV. Le « 0 » se trouve à 13,8 milliards d’années-lumière de nous. La surface bleue est celle du moment où l’énergie sombre a « pris le dessus » sur la force de gravité. La surface extérieure est la surface de dernière diffusion, le dernier instant de l’univers primordial avant que la lumière se libère de la matière, 380.000 ans après le Big-Bang.

Liens:

Laboratoire de muséologie expérimentale de l’EPFL (eM+) : https://www.epfl.ch/labs/emplus/#:~:text=eM%2B%20is%20a%20new%20transdisciplinary,multisensory%20engagement%20using%20experimental%20platforms.

Premières phases du SDSS : https://classic.sdss.org/

Dernière publication de données (17ème) du SDSS (contient la vidéo mentionnée dans l’article) : https://www.sdss.org/surveys/eboss/

Les astrophysiciens comblent le « gap » existant dans l’histoire de l’Univers (Actualités EPFL du 20/07/2020) : https://actu.epfl.ch/news/astrophysicists-fill-gaps-in-the-history-of-the-un/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 27

Les scientifiques de la collaboration EHT nous révèlent le sombre cœur dormant de notre galaxie

Ça y est ! L’ESO a pu déduire de ses observations les contours de SgrA*, le trou-noir central de notre galaxie. A première vue ce trou-noir ressemble beaucoup à celui de la galaxie M87, dont on a présenté l’image il y a maintenant trois ans (avril 2019). C’est exact car il s’agit aussi d’un trou-noir mais il y a quand même des différences et l’on pourra en déduire des confirmations, des informations et de nouvelles interrogations sur les trous-noirs en général et, bien sûr, le nôtre en particulier.

L’information était l’objet d’une conférence de presse donnée hier, 12 mai, au monde entier par divers partenaires dont l’ESO (European Southern Observatory) en Allemagne, à son siège près de Munich (Garching). C’est une satisfaction de constater que nous, Terriens, pouvons nous unir face aux grandes énigmes de l’Univers.

SgrA (Sagittarius A) est le nom donné pour la localisation dans le ciel terrestre (constellation du Sagittaire) de l’origine des ondes-radio reçues de l’environnement immédiat de ce trou-noir. L’astérisque* est ajouté pour caractériser la source elle-même qui « excite » (terme de science physique signifiant que le système est porté à un niveau supérieur d’énergie par rapport à celui qu’il a au repos) l’hydrogène ionisé de cet environnement.

On se doutait depuis la fin des années 1970 (détection à cet endroit d’une très forte source radio en 1974 par Balick & Brown) qu’il pouvait y avoir un trou-noir au centre de notre galaxie comme on se doutait que ce devait être le cas de la plupart des autres galaxies puisque cela découlait de la théorie de la relativité générale d’Albert Einstein. On hésitait en ce qui concerne la Voie Lactée en raison de la très faible activité électromagnétique de ce centre (faiblesse confirmée lors de la conférence de presse). Mais la présence d’une masse énorme était évidente du fait que des étoiles (notamment S62, deux masses solaires) orbitaient cette région à des vitesses extrêmement élevées et à des distances très courtes (2 milliards de km au plus près du rayon de Schwartzschild, soit la distance Saturne/Soleil); la vitesse et la distance de S62 (orbite parcourue en 9,9 ans) fournissant d’ailleurs un des moyens de calculer la masse centrale.

Mais on ne « voyait » rien car (1) la population d’étoiles au cœur de la galaxie est extrêmement dense, (2) nous ne pouvons recevoir de rayonnement de la source qu’au travers non seulement du bulbe mais aussi du disque de la galaxie puisque nous sommes dans ce disque, (3) le trou-noir bien que « supermassif », 4,13 millions de masses solaires, est extrêmement petit (diamètre égal à celui de l’orbite de Mercure) et (4) il est situé à 27.000 années-lumière de notre système. On ne peut le distinguer (diamètre depuis la Terre 52 µas ­- microsecondes d’arc) qu’avec des instruments dont la faculté de résolution permettrait de voir une bulle dans un verre de champagne à New-York, depuis l’Allemagne (d’après l’image donnée par l’une des scientifiques présentant le sujet à la conférence de presse).

A contrario, le trou-noir de la galaxie Messier 87 (M87*) était paradoxalement plus facile à voir car, bien que plus lointain (53 millions d’années-lumière) on peut observer sa galaxie orthogonalement, il est beaucoup plus massif (6,5 milliards de masses solaires) donc beaucoup plus gros (diamètre de 38 milliards de km, soit trois fois le rayon de l’orbite de Pluton) et apparait de la même taille que Sgr3* vu de la Terre. Il est aussi beaucoup plus actif (jet de gaz relativiste partant du cœur de la galaxie).

Une autre difficulté pour observer les caractéristiques de SgrA* par rapport à celles de M87* est que le premier étant beaucoup plus petit, les nuages de gaz qui l’entourent bougent relativement beaucoup plus vite. En effet la vitesse maximum est la même, celle de la lumière, mais le cercle à parcourir beaucoup plus petit. L’image est donc constamment, d’une heure à l’autre, changeante.

On a pu donc imager M87* avant SgrA*. En fin de compte ce qui a été présenté lors de la conférence de presse de l’ESO, c’est une image avec des caractéristiques « moyennes », mettant en évidence des constantes ou plutôt des permanences : taille de l’ombre (le centre obscure, entourée d’un anneau de photons que l’on ne voit pas dans le cas présent) et trois surdensités dans la couronne (que les Américains appellent donut…ce qui ne me plait pas du tout). En fait pour mieux se représenter SgrA* il faudra attendre le film qui en est prévu. Cela sera relativement facile car les « prises de vue » (séries de collectes de données) ont été innombrables. Pour le moment il faut se souvenir de cette mobilité de la couronne et avoir conscience que l’image communiquée n’est qu’un instant fugitif de l’astre.

Pour autant, nous devons encore réfléchir à ce que nous voyons. Avec la taille du trou-noir nous avons certes sa masse. Mais très curieusement il apparaît actuellement très peu actif. L’accrétion est extrêmement faible. S’il était de la taille d’un homme, il se nourrirait d’un grain de riz par million d’années (jolie image choisie par une des présentatrices). Contrairement à M87* aucun jet supraluminique (qui doit résulter de cette accrétion si elle avait lieu) n’a pu être observé partant du centre de sa couronne. On le classe donc dans la catégorie des trous-noirs de Kerr (l’un des quatre types de trous-noirs).

Pour faire le « portrait » de SgrA* il a fallu encore plus de travail, que pour M87*, en utilisant des instruments un peu plus performants.

D’abord il s’agit d’utiliser les ondes radio, ni le visible, ni même l’infrarouge ne pouvant parvenir jusqu’au centre de notre bulbe en étant capable de discerner quoi que ce soit. Comme pour M87* on a choisi la longueur d’ondes 1,3 mm. Le principe de l’Event Horizon Telescope, « EHT », utilisé, est le même, un réseau mondial de télescopes (plus précisément d’antennes) de façon à reproduire par interférométrie, l’image qu’obtiendrait un télescope de la taille du disque terrestre (dont les télescopes qui en sont les composants, répartis du Groenland à l’Antarctique, fournissent les éléments). Les équipes qui utilisent cet interféromètre virtuel « à très longue base », « VLBI », constituent la « collaboration » de l’EHT. Elles regroupent trois cent scientifiques et utilise onze centres de collecte, deux de plus que pour M87* : en Arizona et en Europe (« NOEMA » dans les Alpes françaises). Les données sont si volumineuses (elles se comptent en pétaoctets) qu’elles ne peuvent être transmises par les ondes et que leurs supports doivent être portés physiquement jusqu’aux deux centres où elles sont traitées, aux Etats-Unis. On appelle ces centres des « corrélateurs ». Le traitement informatique des données est très long (elles datent de 2017) à cause de cette abondance et à cause de leurs grandes complexités (il faut notamment écarter les « bruits » et le signal est faible).

L’intérêt de l’image est multiple. A partir de deux objets, on peut comparer et déduire, surtout que M87* se classe dans les masses maxima et que SgrA* est de taille moyenne. On a déjà constaté que la masse de ce nouveau trou-noir et son spin (mouvement angulaire) correspondaient à ce que l’on pouvait mathématiquement attendre des lois de la Relativité Générale. On est toujours heureux de vérifier cette théorie extraordinaire.

En dehors de la science pure, il y a, via le sens de la vue, notre part émotionnelle qui est touchée par cet événement. Voir le trou noir, c’est voir le cœur qui nous fait vivre et en même temps l’organe menaçant qui annonce notre mort. Il est central ; nous sommes dans son absolue dépendance et un jour très lointain il engloutira toutes les étoiles qu’il contrôle par gravité, dont notre Soleil, après un étirement puis un déchirement total de la matière. Nous serons bel et bien mis en pièce par ce cœur qui pour le moment nous tient à distance dans une ronde très longue et très lente, comme il tient les autres étoiles de notre galaxie et comme le Soleil tient ses planètes. C’est lui qui donne à la Galaxie sa cohérence et lui permet de fonctionner. C’est grâce à ce trou-noir que des nuages de gaz ont pu et peuvent encore se concentrer en étoiles et c’est grâce à lui que des étoiles ont pu et peuvent encore complexifier la matière par nucléosynthèse. C’est donc in fine grâce à lui que les planètes ont pu se former et la vie naître sur Terre. Oui, le trou-noir central est notre Soleil de vie en même temps qu’il est notre Soleil de mort ; Toutankhaton aurait pu lui dédier son « hymne au Soleil »  s’il avait pu le concevoir. Gérard de Nerval ne pouvait non plus l’imaginer lorsqu’il commentait la magnifique gravure de Dürer, Melancholia, mais ce dessin lugubre est maintenant une clef pour le comprendre. De nos jours les artistes sont aussi les astrophysiciens qui grâce à leur lecture de données froides et inexpressives pour le commun des mortels, sont capables tout comme leurs prédécesseurs, en les interprétant de nous faire rêver ou blêmir.

illustration de titre: Image du trou noir central de la Voie Lactée, SgrA*. Crédit collaboration EHT (Event Horizon Telescope).

Liens :

Note de presse : https://www.eso.org/public/news/eso2208-eht-mw/

Note scientifique : Akiyama_2022_ApJL_930_L12.pdf

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 27

Décoller, c’est bien, mais atterrir, c’est mieux !

Aujourd’hui je passe la parole à un groupe d’étudiants de l’EPFL qui, en fondant et faisant vivre le Gruyere Space Program, s’est lancé dans une aventure qui mérite toute l’attention de ceux qui s’intéressent à l’espace, à la jeunesse dynamique et créatrice, et à notre futur à tous, sur Terre et bien sûr sur Mars (ou accessoirement la Lune).

Décoller, c’est bien, mais atterrir, c’est mieux !

Le monde du spatial est entré dans un nouvel âge d’or avec l’arrivée de nouveaux acteurs privés, entraînés par la montée en puissance de SpaceX et ses lanceurs réutilisables. On observe depuis un engouement marqué pour tous les aspects liés à l’exploration spatiale et l’apparition d’une multitude d’associations et d’entreprises prêtes à en découdre.

C’est dans cet environnement d’effervescence que nous nous sommes lancés nous aussi dans l’aventure avec Gruyère Space Program, notre association d’aérospatiale, afin de toucher à ce domaine avant la fin de nos études. Plus précisément, nous nous sommes fixés comme objectif de faire décoller la première fusée étudiante capable d’atterrir propulsée par son moteur-fusée après un court vol autonome.

Les véhicules de ce type, les “hoppers”, ne sont pas très courants. On préférera généralement des systèmes munis d’un parachute, plus simple, pour les vols atmosphériques. Ils offrent toutefois des opportunités intéressantes. Tout d’abord, un hopper est un moyen relativement simple de tester sur Terre des technologies dédiées à des engins conçus pour voler sur d’autres mondes. En effet, l’atterrissage propulsé est similaire à celui de véhicules se posant sur la lune, Mars, ou même des astéroïdes, à la différence près bien sûr de la force gravitationnelle ou de la présence ou non d’une atmosphère. Il est ainsi possible de mettre au point sur Terre des technologies telles que des algorithmes de contrôle, des systèmes d’analyse de la surface, ou tout autre équipement scientifique susceptible de se trouver sur une sonde spatiale. Ce fut le cas par exemple du système de navigation par analyse du terrain de l’atterrisseur du rover martien Perseverance, qui a pu effectuer deux vols de test sur Terre afin d’assurer le bon fonctionnement du système une fois à des millions de kilomètres de la Terre.

Un hopper peut aussi servir d’étape intermédiaire pour le développement de véhicules plus complexes. C’est le cas par exemple des nombreux articles de test du gigantesque Starship de SpaceX, qui ont permis de tester en vol les nouveaux moteurs Raptor, ainsi que d’essayer la complexe phase d’atterrissage à l’aide de vols atmosphériques du second étage.

Finalement, il est possible d’imaginer un futur où les hoppers jouent un rôle prépondérant dans l’exploration de corps extraterrestres, en servant de moyen de transport à moyenne ou longue distance, là où un véhicule terrestre mettrait trop de temps ou aurait de la difficulté sur une surface trop escarpée. Un précurseur se trouve déjà sur la planète Mars, Ingenuity, du haut de ses 49 cm et muni de ses deux hélices contrarotatives, a déjà effectué plus de 25 vols pour une distance parcourue de près de 7 km.

Malgré tous les avantages que ce type de véhicule procure, peu d’entreprises fournissent actuellement ce service. On en compte essentiellement une, Masten Space System, basée aux Etats-Unis et qui permet à ses clients d’embarquer une charge utile afin de la tester sur des vols de quelques minutes. Aucune entreprise ne propose actuellement de véhicule similaire capable d’embarquer une charge utile en Europe. Nous espérons peut-être un jour pouvoir combler ce vide en commençant par développer Colibri, notre première fusée hopper.

Cependant, nous n’avons pas commencé avec un objectif si ambitieux. L’association Gruyère Space Program existe maintenant depuis plus de 3 ans et s’est formée autour des envies et des passions de ses membres.

Imaginez, 4 Gruériens férus de spatial, débarquant sur le campus effervescent de l’EPFL. 4 Gruériens remplis d’idées et de débrouille et bouillonnant d’envie d’entreprendre et de découvrir un monde qu’ils ont tant fantasmé : celui du spatial.

En arrivant dans cette école, nous avons découvert que nos idées pouvaient prendre vie et se transformer en prototypes. C’est ainsi que nous avons décidé de fonder notre propre association dont le but était d’apprendre à faire une fusée à partir de zéro. Évidemment, cette association devait avoir un nom. C’est ainsi qu’en référence au célèbre jeu vidéo Kerbal Space Program et un peu nostalgique de notre belle région, notre rêve s’est concrétisé sous l’appellation Gruyère Space Program.

Une partie de l’équipe fondatrice, de gauche à droite: Julie Böhning, Simon Both et Jérémy Marciacq

Une fois le nom trouvé, il ne nous restait qu’à construire la fusée. Alors, avec nos nouvelles connaissances en CAO (conception assistée par ordinateur) ainsi que la nouvelle imprimante 3D d’un de nos membres, notre première fusée voyait le jour. Elle était rouge, elle était belle et qu’est-ce qu’on en était fiers. Cependant, malgré notre fierté et nos passions, ce minuscule modèle de moins de 10 centimètres n’aura pas volé plus haut qu’un mètre à cause de sa mauvaise répartition de masse. Après plusieurs tests avec de petits moteurs tout à fait comparables à des pétards et quelques simulations approximatives, notre second modèle vit le jour et décolla droit et haut. Il laissa la place quelques mois plus tard à un modèle plus évolué nommé C. Cette fusée d’un mètre de haut totalement imprimée en 3D possédait désormais une électronique. En effet, la nouveauté de cette fusée était qu’elle devait, à son apogée, laisser sortir un parachute qui la freinerait dans sa chute. Cette mission nous a appris la patience du développement d’un code et les caprices des cartes électroniques et de leur batterie. Le système mécanique de sortie de parachute nous a également donné du fil à retordre et nous a obligé à nous pencher sur des optimisations de design. Finalement, après plusieurs tests, notre premier modèle de fusée digne de ce nom était prêt.

Le jour du décollage était un grand moment, toute notre petite équipe de 7 personnes était là, réunie, pour voir ce véhicule décoller. Nous l’allumâmes à distance, après un court délai, les premières étincelles sortirent du moteur et la fusée sortit de sa rampe et suivit une courbe parfaitement rectiligne, droit vers le soleil. Après l’euphorie du décollage, notre joie et nos cris redoublèrent lorsque le déploiement du parachute se déclencha avec succès !

À ce moment-là, après un an d’existence, nous avons fait un choix important pour notre association. En effet, deux portes s’offraient à nous. La première, plus classique, était de continuer à faire des fusées de modélismes naturellement stables et dont l’objectif est de monter le plus haut possible et de redescendre à l’aide d’un parachute. La deuxième, plus ambitieuse, était de rester sur de petites fusées, mais de jouer avec des algorithmes de contrôle puissants afin de stabiliser des véhicules qui ne le sont pas naturellement. Suivant notre logique de petite équipe dynamique, nous avons naturellement choisi la deuxième option, plus ambitieuse, plus maligne et moins coûteuse.

Une fusée stabilisée ou fusée avec TVC (Thrust Vector Control) est une fusée instable qui, à chaque moment de son vol, est redressée par l’orientation de son moteur dictée par un algorithme interne. Pour comparaison, imaginez que vous tenez un crayon au bout de votre doigt à la verticale. À tout moment, le crayon sera déstabilisé et tombera d’un côté ou de l’autre. À ce moment, votre cerveau dira à votre doigt de se décaler afin d’appliquer une force qui redressera le crayon. Et c’est exactement ce jeu qui nous a occupé pendant 8 mois.

À grand coup de maths, de tests bancals et de scotch pour la réparation de nos fusées, nous avons appris à appliquer la théorie indigeste du contrôle. Ces équations, bien plus fortes et passionnantes que lorsqu’on les voyait en cours, nous suivaient lors de nos discussions et de nos questionnements souvent jusqu’à tard le soir. Pendant quelques mois, nos semaines étaient remplies de tutoriels, de code et de certitudes alors que nos week-ends étaient remplis de tests, d’échecs et d’apprentissage. Dès que nous réussissions une étape, un autre challenge se présentait : “ et si on rajoutait un étage à notre fusée ?”, “ et si on rajoutait des boosters ?”, “et si on faisait la plus petite fusée TVC du monde ? ”, …

Une fois que nos challenges les plus fous furent réalisés et que notre compréhension du contrôle de nos fusées fut suffisante, il nous fallait un autre objectif, un autre projet fou à nous mettre sous la dent. À ce moment-là, nous étions 6 étudiants et nous nous étions déjà bien apprivoisés. Alors, lors d’une réunion hebdomadaire, alors que nous parlions avec fascination des avancées de SpaceX et des autres entreprises du NewSpace, un de nous dit pour rigoler : “Ce qui nous manque, c’est l’atterrissage. Parce que décoller c’est bien, mais atterrir ça serait mieux…”. C’est ainsi que nous avons commencé à nous pencher sur la question du hopper. Ce véhicule dont le but est de démontrer la capacité d’une fusée à décoller, maintenir une position pendant un moment puis atterrir en douceur, dirigé par son moteur et sans l’aide d’un quelconque parachute.

Cependant, le développement d’un tel véhicule représente un réel challenge. En effet, pour pouvoir gérer suffisamment finement notre poussée (throttle) nous devions passer à un moteur “bi-liquide”, ce qui demandait de drastiquement modifier le calibre de nos fusées.

Nous parlions alors d’une vraie fusée, de plus de deux mètres de haut et d’une centaine de kilogrammes.

Évidemment, cet objectif était bien plus ambitieux que les autres, il fallait donc partitionner le développement en deux phases.

La première nous a permis de faire nos preuves dans la technique ainsi que d’acquérir des compétences en financement de projet. En effet, une fusée “hopper” se compose de deux grandes difficultés techniques : la propulsion, donc son moteur ; et la stabilisation, donc ses algorithmes de contrôle et navigation. Colibri, notre fusée, est propulsée par un moteur à ergols liquides, du protoxyde d’azote pour le comburant et un mélange d’eau et d’éthanol pour le carburant. Ces deux ergols sont injectés d’une manière contrôlée dans une chambre de combustion où ils explosent et créent la poussée soulevant notre fusée.

Allumage de notre moteur de fusée à Lessoc, en Gruyère.

En parallèle du développement de ce moteur, qui compte plusieurs tests réussis d’allumage, nous avons développé Buzz, une plateforme de test pour les algorithmes de contrôle et de navigation de Colibri. Cette plateforme de test s’assimile à un drone avec une turbine centrale et des ailettes qui dirigent la poussée. Ce drone est donc équipé d’une carte électronique avec divers capteurs (accéléromètre, gyroscope, GPS, …) sur laquelle nous pouvons tester divers algorithmes de stabilisation, et de navigation autonome.

Fort de l’expérience acquise avec ces deux projets et leur financement, nous sommes passés à la seconde phase et développons désormais Colibri. Notre fusée “hopper”, pesant environ 100 kilogrammes, mesurant plus de 2 mètres de haut, est capable de voler plus d’une minute avec une charge utile de 3 kilogrammes. Cette fusée requiert le développement de nouveaux éléments tels que les réservoirs, les jambes, le système d’orientation du moteur, les diverses électroniques de commande ou encore l’infrastructure au sol. La fusée intégrera par ailleurs le moteur que nous avons développé, avec quelques modifications pour pouvoir rester allumé pendant plus d’une minute sans faire fondre la chambre de combustion.

Modèle 3D de Colibri

Nous sommes actuellement dans la phase de développement de ce “hopper” et commençons en parallèle la production de certains de ses éléments. Le premier test de vol, qui serait un vol où la fusée reste attachée à une corde par sécurité, doit se dérouler mi 2023. Le premier vol libre est quant à lui prévu pour fin 2023.

Finalement, afin de mener ce projet à bien, un important travail de budgétisation et de recherche de sponsors a dû être effectué. Nous nous sommes donc entourés de généreux partenaires tels que la Mars Society Switzerland, qui voient en notre projet du potentiel et sont alors ouverts à nous soutenir financièrement ou en fournissant du matériel.

Ainsi, vous aurez peut-être la chance d’entendre de nos nouvelles dans un peu plus d’un an lorsque Colibri volera pour la première fois !

L’adresse du site du GSP est www.gruyerespaceprogram.ch . N’oubliez pas que la poursuite de ce programme nécessite un financement. Tout aide de votre part sera la bienvenue!

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 27

Premières lueurs dans l’obscurité des Ages-sombres

La libération des photons de la matière, permise par l’Expansion et la Recombinaison*, ayant déterminé la Surface-de-dernière-diffusion*, l’Univers est devenu transparent 380.000 ans après le Big-Bang. Il restait cependant très dense et très chaud (3000K). Les atomes composant la matière (hydrogène, un peu d’hélium, traces de lithium) étant redevenus neutres, les photons pouvaient circuler librement mais aucun rayonnement ne pouvait en émaner. L’expansion continuait, la densité baissait, l’environnement se refroidissait (jusqu’à 300K après 400 millions d’années), mais la gravité restait à l’œuvre et des zones de densité de matière se confirmèrent et s’accentuèrent, jusqu’à ce que les premières galaxies allument leurs premières étoiles et par l’effet du rayonnement de ces dernières commencent à réioniser l’Univers.

*La Recombinaison est la généralisation, très rapide, de la formation d’atomes neutres, des protons, noyaux ionisés d’hydrogène (l’essentiel de la matière à l’époque), pouvant s’approprier un électron en raison de la baisse de densité et de chaleur de l’Univers.

*La Surface-de-dernière-diffusion, est aussi appelée Fond diffus cosmologique, « FDC », ou Cosmic Microwave Background, « CMB ».

On estime que la réionisation était généralisée vers 400 millions d’années après le Big-Bang (et 13,4 milliards d’années avant aujourd’hui) mais cette période est approximative car toutes les concentrations de matière à l’état gazeux n’ont pas donné d’étoiles en même temps. Les futures galaxies restèrent longtemps à l’état de protogalaxies, peu lumineuses car très pauvres en étoiles. Et la distance fait que leur observation est très difficile car l’expansion de l’Univers qui nous éloigne d’elles presqu’à la vitesse de la lumière, étire leur rayonnement vers des longueurs d’ondes beaucoup plus longues qu’à l’origine (nous voyons en infra-rouge l’ultra-violet de l’époque de l’émission).

Les toutes premières étoiles (dites de « population III »), par définition sans métal puisqu’elles n’en avaient pas formé, ont peut-être commencé à apparaître au cœur des Ages-sombres, seulement 200 millions d’années après le Big-Bang. La plupart très massives (100 à 1000 fois le Soleil), devaient avoir une vie très brève (2 à 5 millions d’années) mais elles ont contribué d’autant plus à la « montée en gamme » des éléments chimiques (vers les métaux) et c’est elles qui par leur rayonnement ont initié la Réionisation.

En mars 2016 on avait identifié une galaxie plus ancienne que les autres, « GN-z11 », le « z11 » exprimant qu’elle avait un redshift (décalage vers le rouge) de z = 11.09 (NB : le z du CMB est 1089) ce qui situait son émission à 13,39 milliards d’années et 410 millions d’années du Big-Bang (« GN » est une localisation sur la voute céleste, le « Champs profond de Hubble »). Le 10 avril 2022 une publication de Yuichi Harikane (Institute for Cosmic Ray Research, University of Tokyo) et al. dans The Astrophysical Journal, nous informe que deux nouvelles galaxies, encore plus lointaines que GN-z11, « HD1 » et « HD2 »* ont été identifiées dans cette période des Ages-sombres.  HD1 se situe à un redshift de z 13,27, donc son émission a eu lieu il y a 13,47 milliards d’années, seulement 319 millions d’années après le Big-Bang. HD2, plus « jeune », est à environ z = 12,3 soit 355 millions d’années après le Big-Bang. A noter que si nous voulions remonter le temps à la vitesse de la lumière, nous mettrions 33,4 milliards d’années (de notre temps terrestre) pour les atteindre (« distance-propre ») en raison de l’expansion, accélérée, de l’Univers (NB : le CMB est à une distance-propre de 46 Milliards d’années-lumière).

*Le nom « HD » provient de « H-dropout Lyman-break selection », une méthode pour détecter ces galaxies à très haut redshift. Dans l’environnement de la raie d’hydrogène (H), leur spectre est brillant à une certaine longueur d’onde (> 912 Å), mais chute brusquement (Lyman break) à des longueurs d’onde inférieures. A noter qu’à ces très grandes distances, les raies du spectre électromagnétiques sont très fortement décalées vers le rouge.

Pour référence, les premiers quasars, galaxies composées d’une multitude d’étoiles dont se nourrit en leur centre un énorme trou noir, sont apparus nettement plus tard. Le plus ancien, « J0313-1806 », découvert en janvier 2021, se trouve à z=7,64 soit 13,11 milliards d’années-lumière et 690 millions après le Big-Bang.

Alors HD1 et HD2 sont-elles les premières galaxies ? Difficile à affirmer aujourd’hui mais elles ne le sont probablement pas ou du moins elles ont de “soeurs”. Ce qu’on peut dire c’est qu’il y a sans doute peu de protogalaxies ayant effectué leur transition vers la lumière avant z = 10 (500 millions d’années après le Big-Bang) et ce, de moins en moins au fur et à mesure que l’on remonte dans le temps. Yuichi Harikane fait l’hypothèse qu’il pourrait y en avoir jusqu’à z = 15 et même peut-être même jusqu’à z = 17 (pour vous situer dans le temps, voir l’illustration en fin d’article).

Autre approche qui par ailleurs induit une interrogation, ces galaxies ont pu être observées en raison de leur puissance extraordinaire en capacité de production d’étoiles (galaxies de type « Lyman-break », autrement appelées « starburst » c’est-à-dire « galaxies à flambées de formation d’étoiles »). Pour donner une idée de cette capacité, à masses égales, le nombre d’étoiles nouvelles par année pourrait atteindre une centaine alors que dans une galaxie ayant une activité “normale” il n’y en aurait pas plus d’une dizaine. En dépit de ces deux découvertes, la théorie reste de toute façon que les galaxies sont d’autant plus rares que l’on remonte dans le temps à partir de z = 10. La non-luminosité générale de la matière pendant les Ages-sombres reste et restera très probablement une réalité. Mais la très grande force de rayonnements de ces astres lumineux isolés interpellent. Autrement dit on ne comprend pas bien pourquoi certaines protogalaxies ont évolué différemment si rapidement des autres et pourquoi leurs rayonnement en UV est si fort. Est-ce seulement la masse particulièrement élevée de ces protogalaxies qui l’explique? Et si c’est le cas, pourquoi cette hétérogénéité et qu’elle est son rapport avec les anisotropies observées en surface du CMB? Cette relation est en fait probable mais elle mérite d’être analysée.

Comme maintenant en astronomie, le repérage et l’identification de HD1 et HD2 résulte de données recueillies par plusieurs observatoires : (1) l’Observatoire National Astronomique du Japon avec son télescope Subaru (au sommet du Mauna Kea, Hawaï), le plus grand qu’il possède (miroir primaire de 8,2 mètres, comme ceux du VLT) ; (2) l’Observatoire Européen Austral, ESO, avec son télescope VISTA (Visible and Infrared Survey Telescope for Astronomy), situé au Cerro Paranal (Chili), équipé d’un miroir primaire de 4,10 mètres, il opère, depuis 2009, dans le proche infrarouge ; (3) le UK Infrared Telescope (UKIRT) avec miroir de 3,8 mètres, au sommet du Mauna Kea ; (4) le télescope spatial infrarouge Spitzer de la NASA (avant qu’il ne devienne hors d’usage, fin 2019). La distance (redshift) a été confirmée par le grand réseau d’antennes millimétrique/submillimétrique de l’Atacama, ALMA, de l’ESO. Cela représente en tout 1200 heures d’observation et un nombre évidemment très supérieur d’heures d’analyse, de réflexion et de confrontations de points de vue.

Ceci dit, bien que nous puissions déduire ce qui s’est passé, nous ne pouvons voir encore qu’un petit morceau du tableau. Nous avons besoin de vérifier/confirmer la distance avec des instruments encore plus puissants et d’explorer d’autres régions du ciel (pour le moment les champs COSMOS pour HD1 et SXDS pour HD2 ne couvrent que 2,3 degrés carrés de la voute céleste). Les nouveaux télescopes spatiaux, James Webb Space Telescope, Nancy Grace Roman Space Telescope (qui doit être lancé par la NASA en 2027) et GREX-Plus (Galaxy Reionization Explorer and PLanetary Universe Spectrometer, telescope de l’iSAS*/JAXA qui doit être lancé dans les années 2030), nous permettront de mieux voir (avec spectromètres) dans ce vide obscur très lointain car ils seront situés hors de l’atmosphère terrestre qui gêne la collecte des rayonnements infrarouges, et bien entendu équipés de capteurs beaucoup plus performants que l’ancien Spitzer. Nous devrions alors pouvoir identifier de nombreux autres exemples de ces « HD » et disposer de beaucoup plus d’éléments pour comprendre leur comportement (contenu et conditions de formation). C’est important car cette sorte de no-man’s land entre le fond diffus cosmologique et le monde des quasars est évidement clef pour comprendre la suite de notre histoire. Cependant, sans attendre ces nouveaux équipements, il ne faut pas être injuste concernant l’existant. Malgré leurs insuffisances relatives (encore une fois l’objectif est difficile à atteindre), on peut se réjouir et s’émerveiller de ces fantastiques télescopes dont nous disposons aujourd’hui qui nous permettent déjà d’accéder aussi loin sur des signaux aussi faibles, tout ce dont on ne pouvait que rêver à la fin du siècle dernier.

*ISAS = Institute of Space and Astronautical Science – Japon

Illustration de titre : image de HD1, la galaxie la plus lointaine observée à ce jour (13.5 milliards d’années-lumière), créée à partir de données recueillies par le télescope VISTA. Crédit Harikane et al.

Illustration ci-dessous, chronologie de l’Univers : en haut, valeur du redshift donné par z ; en bas, âge en milliards d’années correspondant à ce décalage, en remontant vers le Big Bang. Crédit Harikane et al., Nasa, et P. Oesch/Yale.

Liens :

https://iopscience.iop.org/article/10.3847/1538-4357/ac53a9/pdf

https://arxiv.org/pdf/2201.00823.pdf

https://en.wikipedia.org/wiki/List_of_the_most_distant_astronomical_objects

https://kulturegeek.fr/news-255841/plus-vieille-galaxie-detectee-serait-nee-300-millions-dannees-apres-big-bang

https://www.ca-se-passe-la-haut.fr/2022/04/nouveau-record-de-distance-pour-une.html

https://www.numerama.com/sciences/914433-cette-galaxie-devient-la-plus-lointaine-que-nous-ayons-jamais-vue.html#:~:text=300%20millions%20d’ann%C3%A9es%20apr%C3%A8s%20le%20Big%20Bang%2C%20la%20galaxie,ann%C3%A9es%20apr%C3%A8s%20le%20Big%20Bang.

https://www.futura-sciences.com/sciences/actualites/astronomie-record-galaxie-vue-seulement-300-millions-annees-apres-big-bang-43384/

https://www.sciencesetavenir.fr/espace/univers/on-a-vu-la-galaxie-des-debuts-de-l-univers_162763

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 27

La nouvelle Planetary Science & Astrobiology Decadal Survey formule des recommandations très séduisantes pour la décennie à venir

Ce 19 avril 2022, le comité-directeur (steering-committee) du National Research Council (NRC) de La National Academy of Sciences (NAS) des Etats-Unis, pour la « Planetary Science & Astrobiology Decadal Survey », a présenté au public ses recommandations sur la politique à suivre pour la décennie qui s’ouvre. Ces recommandations sont adressées sous forme d’un rapport (800 pages), « Origins, Worlds, and Life ; A Decadal Strategy for Planetary Science and Astrobiology 2023-2032 », à la NASA, à la National Science Foundation (NSF) et aux diverses agences gouvernementales. Le financement de cette decadal survey provient de la NASA et de la NSF.

Le comité-directeur était co-présidé par l’astrophysicienne Robin Canup, vice-présidente adjointe de la Direction des sciences planétaires au Southwest Research Institute, et par le géologue Philip Christensen (spécialisé dans les surfaces planétaires, principalement celles de Mars et la Terre), professeur à l’école des explorations terrestre et spatiale à l’Arizona State University.

Ce rapport est très important car il est généralement très suivi par les décideurs de la politique spatiale américaine et, comme chacun sait, cette politique est déterminante pour l’évolution de la recherche mondiale dans ce domaine. Je vous en donne ci-dessous l’essentiel, en suivant au mieux le communiqué de presse publié après la présentation (à laquelle j’ai assisté en visio-conférence).

Au cours des 10 prochaines années, les nouvelles recherches doivent élargir notre compréhension des origines de notre système solaire, de la formation et de l’évolution des planètes, des conditions dans lesquelles la vie peut apparaître et persister, et des environnements potentiellement habitables dans notre système solaire ou au-delà. Le rapport met en évidence les questions scientifiques clefs, identifie des missions prioritaires pour cette période et présente une stratégie de recherche complète qui comprend outre la recherche scientifique robotique, la défense planétaire (prévention des impacts d’astéroïdes) et l’exploration humaine. Par ailleurs, il recommande les moyens nécessaires pour financer les missions y compris les technologies et les infrastructures nécessaires pour les mener à bien.

Les recommandations du comité directeur de l’enquête décennale s’appuient sur les contributions de l’ensemble de la communauté scientifique par le biais des conseils de six panels spécialisés, de centaines de livres blancs, de conférenciers invités à présenter leurs connaissances et réflexions ainsi que de travaux avec les équipes de conception de mission.

Le contenu du rapport

Le rapport identifie trois thèmes scientifiques principaux – les origines, les mondes et les processus planétaires, la vie et l’habitabilité – et définit 12 questions scientifiques prioritaires (pour les voir, cliquez sur le lien) pour aider à guider la sélection des missions et les efforts de recherche en sciences planétaires et en astrobiologie.

L’enquête recommande des missions équilibrées en trois catégories, selon les normes habituelles (« Discovery », « Medium-Class », « Flagship »), et prend en compte les missions en cours et déjà programmées (par exemple Dragonfly pour Titan ou Europa Clipper), afin de permettre un flux constant de nouvelles découvertes et de donner à la NASA la capacité de réaliser des avancées scientifiques majeures. Le programme « Discovery » de petit format (500 millions de dollars maximum) concerne les missions qui répondent à des objectifs scientifiques ciblés avec une succession élevée de lancements (PB*: Phil Christensen souhaiterait qu’elles puissent atteindre 800 millions). Les missions de classe-moyenne (« medium-class ») comme celles du programme New-Frontiers, répondent à des objectifs scientifiques plus larges (et peuvent atteindre 1 milliard de dollars, PB: à augmenter également, selon le souhait de Phil Christensen). Les missions-phares (« flagship ») répondent (pour une enveloppe de 2 milliards chacun, PB: à augmenter lorsque nécessaire, précise Phil Christensen) à des objectifs scientifiques hautement prioritaires avec des charges utiles d’instruments et des conceptions de mission sophistiquées.

*PB = remarque personnelle complémentaire

Discovery

Bien que le rapport ne fasse pas de recommandations spécifiques pour les petites missions, le comité-directeur a constaté que le programme Discovery a apporté d’importantes contributions scientifiques et que les futures missions peuvent servir à traiter un riche éventail de sujets scientifiques. Par conséquent, la NASA est encouragée à le poursuivre avec une cadence élevée de deux missions par annonce d’opportunité (les fenêtres de tir), selon les propositions qu’elle recevra. Dans ce cadre Discovery, l’effort pourrait porter en particulier sur les missions SIMPLEX (cap à 55 millions de dollars qui pourrait passer à 80 millions).

New Frontiers

Comme thèmes de missions pour le programme New-Frontiers, le rapport recommande un orbiteur et un atterrisseur sur un astéroïde centaure (PB : les centaures évoluent entre Jupiter et Neptune), un retour d’échantillons de Cérès, un retour d’échantillons de la surface d’une comète, un survol multiple d’Encelade (satellite de Saturne), un réseau géophysique lunaire (PB : pose d’un réseau de capteurs sismiques couvrant l’ensemble de la surface du satellite), une sonde pour Saturne, un orbiteur pour Titan et un explorateur pour Venus, « Venus In Situ Explorer ». Ces thèmes de missions ont été choisis en fonction de leur capacité à répondre aux questions scientifiques prioritaires mentionnées plus haut.

Missions flagship

L’orbiteur avec sonde pour Uranus (« Uranus Orbiter and Probe », « UOP ») devrait être la mission flagship la plus prioritaire. L’UOP effectuerait une mission pluriannuelle en orbite de la planète et de ses satellites pour faire avancer considérablement notre connaissance des géantes de glace en général (très mal connues), et du système uranien en particulier, grâce à de nombreux survols et à la descente d’une sonde dans l’atmosphère de la planète. Un lancement au cours de la fenêtre de tirs 2031-2032 serait possible sur un des lanceurs actuellement disponibles, si on entreprend le projet en 2024 (mais il faudra quand même compter13 ans pour parvenir dans le domaine d’Uranus =>2045!).

L’« Orbilander » Encelade (orbiteur et sonde au sol) devrait être la seconde mission flagship. L’Orbilander chercherait des preuves de vie sur Encelade, une des lunes de Saturne, depuis l’orbite et au cours d’une mission au sol de deux ans qui permettrait d’effectuer des études détaillées des matériaux des panaches (PB: projections de gaz et d’eau au-dessus de la surface, comme des geysers mais beaucoup plus haut), frais, provenant de l’océan intérieur d’Encelade (PB : Encelade est préférée à Europe pour un atterrissage, car elle semble moins difficile d’accès, en raison de l’intensité des radiations émanant de Jupiter).

Défense contre les astéroïdes

La défense planétaire fait partie d’un effort de coopération internationale pour détecter et suivre les objets qui pourraient constituer une menace pour la vie sur Terre. Les recommandations du rapport portent sur l’amélioration des capacités de détection, de suivi et de caractérisation des géocroiseurs (NEO) ; sur l’amélioration de la modélisation, de la prédiction et de l’intégration des informations les concernant ; et sur le développement des technologies de missions de leur déviation ou destruction (« disruption »).

La NASA devrait pleinement soutenir le développement, le lancement en temps opportun et le fonctionnement ultérieur de la mission « NEO Surveyor » qui comporte un télescope spatial utilisant les rayonnements infrarouge-moyen, pour pouvoir atteindre ensuite les objectifs de repérage des NEO les plus susceptibles de nous impacter. Après NEO Surveyor et le test « Double Asteroid Redirection » (« DART ») engagé en Novembre 21 (lancement), la mission de démonstration de défense planétaire la plus prioritaire devrait être une mission de reconnaissance par survol d’un NEO de 50 à 100 mètres de diamètre – taille représentative de la population d’objets posant la probabilité la plus élevée d’impact destructeur sur Terre. Une telle mission devrait évaluer les capacités et les limites des méthodes de caractérisation par survol afin de mieux se préparer à une menace NEO à court délai d’alerte.

Programmes d’exploration en surface planétaire

Mars et la Lune offrent chacune la possibilité d’étudier un large éventail des questions scientifiques posées comme prioritaires, à des distances relativement facilement accessibles. Elles justifient le programme d’exploration de Mars (MEP) et le programme d’exploration lunaire (LDEP pour Lunar Discovery & Exploration Program) en tant que programmes dédiés. Le rapport recommande également à la NASA de développer des stratégies d’exploration dans d’autres domaines de grande importance scientifique, tels que Vénus et les mondes océaniques (PB: sujets de l’habitabilité et de la recherche de la vie), qui présentent un nombre croissant d’opportunités de missions américaines et de collaborations internationales. A ce sujet, la co-présidente, Rubin Canup insiste sur les possibilités et l’intérêt de coopérer avec l’ESA (« a win win strategy »).

La NASA devrait maintenir le MEP et donner la priorité à Mars Life Explorer (MLE) comme prochaine mission MEP de classe-moyenne (PB: après le pic de dépenses pour le MSR). Alors que le Mars Sample Return (MSR) recherche des biosignatures anciennes, le MLE rechercherait la vie existante et évaluerait l’habitabilité possible aujourd’hui. L’enquête décennale précédente recommandait un rover de « mise en caches » d’échantillons de Mars comme mission flagship de la NASA, et cela a été mis en œuvre dans le cadre du programme MSR. La nouvelle enquête décennale réaffirme l’importance scientifique fondamentale de MSR et déclare que la priorité scientifique la plus élevée des efforts d’exploration robotique de la NASA au cours de cette décennie doit être de l’achever dès que possible (PB: aller chercher les échantillons), sans amoindrir l’ampleur de son objectif. Cependant, elle met en garde sur le fait que le coût de la MSR ne doit pas saper l’équilibre programmatique à long terme du « portefeuille » des missions planétaires. Si les coûts augmentaient trop, la NASA devrait faire les efforts nécessaires pour obtenir une augmentation budgétaire afin d’assurer le succès de la mission, indépendamment des autres.

La PSD (« Planetary Science Division » de la NASA) devrait mettre en œuvre un programme stratégique pour la recherche lunaire et appliquer une approche structurée pour fournir des objectifs scientifiques au programme Artemis (PB: cela veut dire que le programme ne doit pas se contenter d’envoyer des hommes “se promener” sur la Lune). Le rapport donne la priorité à la mise en œuvre d’« Endurance-A » comme mission de classe moyenne la plus prioritaire pour le LDEP. Endurance-A utiliserait des services commerciaux privées pour fournir un rover qui collecterait une masse substantielle d’échantillons sur un long parcours, pour les remettre aux astronautes afin qu’ils les rapportent sur Terre. Cette approche coordonnée offrirait une opportunité étendue pour élargir le partenariat entre l’exploration par vols habités de la NASA et les efforts scientifiques sur la Lune. Le rapport note que cette coordination nécessiterait une structure organisationnelle qui habilite le PSD et le LDEP à imposer des exigences scientifiques au programme Artemis (PB : comme quoi les relations entre les diverses directions de la NASA, ne sont pas évidentes et l’objectif scientifique du programme n’est pas encore assuré).

Financement, infrastructure et technologie

Le rapport contient une série de recommandations visant à assurer le financement, l’infrastructure et la technologie nécessaires pour soutenir les missions prioritaires et d’autres efforts de recherche. Par exemple, la PSD devrait augmenter progressivement ses investissements dans les activités de recherche et d’analyse (« R&A ») jusqu’à un niveau de financement annuel minimum de 10 % de son budget. Un investissement solide et régulier dans la R&A est nécessaire pour garantir un retour maximal des données de mission, pour qu’elles favorisent la compréhension et de nouvelles hypothèses testables, et que les avancées scientifiques alimentent le développement de future mission. Mais ces investissements ne sont pas les seuls recommandés. Il faut aussi relancer la production de Plutonium 238 comme source d’énergie (génération thermoélectrique à radio-isotope, “RTG”) pour les équipements trop éloignés du Soleil, développer le réseau de comunications nécessaires aux contacts avec les équipements et, bien sûr, continuer l’effort sur les nouveaux modes de propulsion.

Le niveau de financement des technologies planétaires (PB: non-terrestres) de la NASA a diminué ces dernières années jusqu’à descendre à seulement 4% du budget total de la NASA et il est maintenant inférieur aux niveaux d’investissement recommandés. Le rapport dit que la PSD devrait financer les progrès technologiques à hauteur de 6 à 8 % en moyenne, afin de réaliser les avancées technologiques importantes qui seront nécessaires pour accomplir la recherche stratégique et les missions désignées comme prioritaires dans le rapport.

Les observations effectuées par télescopes au sol, soutenues par la NSF, fournissent des données essentielles pour résoudre d’importantes questions de science planétaire, et la NSF devrait continuer et si possible étendre le financement pour soutenir les observatoires existants et futurs ainsi que les programmes connexes.

NB, PB: le rapport aborde, en bonne place, toutes sortes de considérations sur l’importance de veiller à la diversité, l’équité, l’inclusivité et l’accessibilité (DEIA) au sein des relations professionnelles. Comme quoi les nouvelles règles sociétales, devenues dogmatiques, s’introduisent partout aux Etats-Unis, même dans des entités technologiques et scientifiques comme la NASA qui devraient mettre au-dessus de tout les capacités de ses employés et leur mérite.

Illustration de titre : Encelade, vue d’artiste, crédit Shutterstock. Vous remarquerez les anneaux de Saturne, dans le ciel, en haut à gauche.

Liens :

https://www.nationalacademies.org/news/2022/04/report-identifies-priority-planetary-science-missions-planetary-defense-efforts-and-strategic-investments-for-the-next-decade

https://fr.wikipedia.org/wiki/Planetary_Science_Decadal_Survey

https://en.wikipedia.org/wiki/Planetary_Science_Decadal_Survey

https://payloadspace.com/national-academies-release-2022-planetary-science-decadal-survey/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 15

Les risques sanitaires d’un voyage vers Mars, bien que non négligeables, restent cependant acceptables

En dehors du risque purement astronautique, lié à la défaillance possible du lanceur ou du vaisseau, le voyage vers Mars présentera des risques qu’il vaut mieux connaître afin de pouvoir y faire face. Disons que ce voyage ne sera pas « une promenade de santé » mais qu’on pourra quand même y survivre pourvu qu’on en « use avec modération », c’est-à-dire qu’on ne le fasse pas trop souvent. Il n’y aura pas de pilote de ligne Terre/Mars/Terre.

Je fais référence à l’article Comment soigner dans l’espace de S. Thierry, M. Komorowski, A. Golemis et L. André-Boyet publié dans la revue Pour la Science d’avril 2022. Les trois premiers sont médecins, la dernière est instructrice des astronautes auprès de l’ESA.

Les auteurs listent de nombreux types de pathologies favorisées par le séjour dans l’espace :

1) au niveau de l’œil, syndrome neuro-ophtalmique, œdème du nerf optique, cataracte radio-induite ;

2) au niveau du cerveau, hypertension intracrânienne par distribution inadéquate des flux sanguin et céphalorachidien, céphalées rebelles aux traitements antalgiques ;

3) au niveau de l’oreille, perturbation de l’oreille interne, induisant l’altération de la perception et du sens de l’orientation, et le « mal de l’espace » ;

4) au niveau du système circulatoire, diminution de l’élasticité de la paroi des vaisseaux, baisse de la production de globules rouges (anémie), affaiblissement du système immunitaire ;

5) au niveau osseux, étirement de la colonne vertébrale induisant un risque de dorsalgies, déminéralisation et perte de densité osseuse, atteinte de l’architecture de l’os spongieux ;

6) au niveau des reins, augmentation du risque de calculs lié à la déminéralisation ;

7) au niveau des muscles : atrophie des muscles posturaux et perte de masse musculaire ;

8) au niveau nerveux, outre les dorsalgies et les œdèmes du nerf optique, diminution des réflexes ;

9) au niveau génétique, altérations telles que raccourcissement des télomères et autres pouvant résulter des radiations ;

10) en général, accroissement du risque de cancer résultant des radiations.

J’ajouterais une autre pathologie à celles mentionnées par les auteurs. C’est celle qui résulte de la dérive des objets en suspension dans le volume viabilisé, du fait de l’apesanteur. Les plus dangereux ne sont évidemment pas les plus gros mais les particules qui peuvent être inhalées ou qui peuvent impacter le globe oculaire.

A ces pathologies purement spatiales, s’ajoutent toutes celles propres au fonctionnement d’un corps humain dans un environnement terrestre normal, dont, par exemple, les maux de dents ou les AVC mais aussi les infections bactériennes car certaines bactéries prospèrent particulièrement bien en apesanteur (facilitation de la formation de biofilms bactériens) et en milieux clos.

Je n’oublie pas les problèmes mentaux. Ils ne sont pas totalement à négliger bien qu’ils aient été grossièrement exagérés (je ne crois pas à l’angoisse générée par la sortie de la Terre du champ de vision des voyageurs). Il pourrait y avoir le stress d’être engagé dans un voyage sans retour possible avant 30 mois et, de ce fait, de se trouver pendant une longue période avec moins de protection médicale que sur Terre et bien sûr de devoir accepter des contacts moins faciles avec ses proches.

Tout cela n’est évidemment pas très « engageant ». Cependant il faut regarder en face les problèmes et imaginez les solutions pour les résoudre.

Les facteurs qui sont les causes de ces pathologies et de leur aggravation sont bien connus : apesanteur d’abord mais aussi volume viabilisé restreint, clos et confiné ; environnement radiatif intense ; éloignement temporaire mais irrémédiable des autres êtres humains ; indisponibilité d’une bonne partie des produits pharmaceutiques, des équipements médicaux et des « soignants » auxquels la vie sur Terre nous permet l’accès.

Si on traitait ces facteurs, on pourrait résorber les pathologies. Mais le pourra-t-on ?

1) Apesanteur. Le palliatif est connu ; il s’agit de recréer une gravité artificielle par mise en rotation de l’habitat. Plusieurs solutions ont été proposées et présentées dans ce blog. Je n’y reviendrai pas. Disons que l’intérêt de cette solution est bien supérieur à celui que présente l’exercice sportif car celui-ci ne traite absolument pas les problèmes internes de distribution des flux dans le corps ou ceux de l’équilibre.

2) Volume viabilisé restreint, clos et confiné. Ce facteur, déjà traité dans ce blog, induit la nécessité d’un contrôle constant de l’environnement. Sur l’ISS, l’EHS (Environmental Health System), partie de l’ECLSS (Environment Control & Life Support System), permet de contrôler l’environnement microbien par toutes sortes de capteurs (par exemple MiDASS de BioMérieux) et de produits de traitement. Là, comme dans le vaisseau en voyage vers Mars ou, ensuite, sur Mars, Il faut/faudra surveiller non seulement la composition de l’atmosphère, mais aussi la propreté des surfaces (même cachées si elles sont dans des volumes viabilisées et communiquent avec l’habitat !) car elles peuvent servir de support à la prolifération de plaques de champignons.

3) Radiations solaires et radiations cosmiques. Ce facteur a également été déjà traité dans ce blog. Disons qu’on pourra se protéger assez bien des radiations solaires (SeP – Solar energetic Particles – quasi exclusivement constituées de protons) et d’une bonne partie des radiations cosmiques (GCR – Galactic Cosmic Rays) de même nature, principalement avec les réserves d’eau et de nourriture (outre les UV et les ondes courtes de leur voisinage sur le spectre électromagnétique qui seront arrêtées par la coque du vaisseau). Mais on ne pourra pas se protéger des rayonnements particulaires HZE (noyaux d’éléments lourds) des GCR. Ces rayonnements pouvant traverser la paroi métallique du vaisseau sans problème (pas question de blindages de plusieurs dizaines de cm dont la masse serait rédhibitoire) et générant au passage des rayons gamma. La seule « solution » sera de ne pas les subir pendant « trop longtemps ». Un voyage aller et retour sur Mars interrompu par un séjour de 18 mois sur place (protection locale), rend la dose acceptable mais on ne pourra pas le faire plus de 3 ou 4 fois dans une vie (en privilégiant la période d’activité solaire moyenne plutôt que basse).

4) Environnement humain sur le plan psychologique. Ce facteur est à mon avis d’abord à considérer en fonction de la durée et il sera très différent au début des voyages vers Mars ou « plus tard ». Pour y remédier, au début, il y aura d’une première part la cohésion et l’harmonie du groupe. Il est essentiel de faire voyager ensemble des personnes qui s’acceptent mutuellement et qui ont la volonté de coopérer sans s’immiscer ou s’imposer. Par ailleurs, il y aura des liaisons radio et vidéo avec la Terre et en dépit du décalage horaire, des communications nuancées, y compris à teneur affective, seront possibles. Pensez aux mails aujourd’hui ; ils permettent toutes sortes d’échanges. On peut presque vivre socialement par correspondance. Ensuite, lorsqu’une base pérenne aura été créée sur Mars avec une population diverse, une sécurité et un confort satisfaisant, les seuls problèmes resteront l’impossibilité de revenir sur Terre avant 30 mois et la longueur du voyage. Il faudra l’accepter (avant le départ !) en faisant la balance avantages/inconvénients.

5) Rareté des produits pharmaceutiques, des équipements médicaux et des soignants. Pour « remédier » à ce facteur, il faudra tout d’abord embarquer tous les produits pharmaceutiques susceptibles d’être utilisés, y compris les produits antiseptiques et sédatifs. Il faudra aussi embarquer les instruments/appareils médicaux pour examens tels que radios, échographies, défibrillateurs, examens oculaires, matériel pour intubation trachéale, instruments chirurgicaux. La limite sera qu’on ne peut pas tout prévoir et surtout que le volume des soutes de vaisseaux spatiaux ne sont pas illimités. Et non seulement on ne pourra pas « tout » prendre avec soi mais les instruments pourront se détériorer, se casser, se souiller, ne pas être précisément adaptés à l’usage dont on aura besoin. Par ailleurs, certaines molécules médicamenteuses actives sont sensibles aux rayonnements radiatifs. Il faudra les protéger mais comme déjà dit, la protection contre certains rayonnements cosmiques (les HZE de GCR) est impossible. Dans le domaine des instruments, l’impression 3D pourra être un recours très important (SpaceX l’utilise depuis des années pour des pièces à géométrie complexe de ses moteurs). Pour lutter contre l’obsolescence des médicaments, la seule solution sera de miser sur un voyage aussi court que possible (Mars mais pas plus loin !) et ensuite sur le développement d’une industrie pharmaceutique locale (pour les molécules les moins difficiles à produire). Pour ce qui est des soignants, il faut, comme je l’ai mentionné dans le paragraphe « environnement humain », bien distinguer entre « maintenant » et « plus tard ». Pour les premières missions, il sera aussi important d’envoyer des médecins que des ingénieurs car l’homme est la plus précieuse de nos machines. Comme choix de médecins, je donnerais la priorité à deux chirurgiens et à un dentiste, les autres soignants pouvant être guidés à distance depuis la Terre par leur confrère, malgré le décalage temporel.

Bien entendu, une fois sur Mars, les problèmes seront différents de ce qu’ils auront été pendant le voyage puisqu’un minimum de pesanteur sera rétabli et qu’on aura des moyens beaucoup plus efficaces pour se protéger des radiations. Restera toujours le problème de l’espace réduit et confiné mais il sera également moins critique puisqu’on pourra l’agrandir (viabilisation de caverne naturelle ou excavée, construction d’habitats permettant au moins l’isolement des personnes contagieuses et l’assainissement des espaces insalubres). Quant à l’isolement de la Colonie, certains aimeront se trouver loin ; il y a des amoureux des déserts, des îles perdues ou des avant-postes. Avec le temps, des familles se créeront et un sentiment d’appartenance local se développera. Il ne faut pas désespérer des facultés d’adaptation de l’être humain.

Pour le moment, il est certain que les conditions sanitaires d’une mission sur Mars seront moins bonnes que sur Terre, surtout pendant le voyage. Mais cela n’est pas une raison de ne pas entreprendre cette belle aventure. La vie ne consiste pas à attendre la mort dans son fauteuil.

Illustration à la Une : L’astronaute Karen Nyberg (USA), ingénieure de vol de l’expédition 36 de l’ISS (mai à septembre 2013), procède à un examen oculaire sur elle-même (fond de l’œil, avec un fondoscope). Image, crédit NASA.

Lien : Pour la Science, Avril 2022, Comment soigner dans l’espace, par S. Thierry, M. Komorowski, A. Golemis, L. André-Boyer : https://www.pourlascience.fr/sd/medecine/comment-soigner-dans-l-espace-23537.php

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 15

Mon intérêt pour l’exploration spatiale, un état d’esprit constant

Ces derniers temps, étant privé d’ordinateur donc de possibilité de lecture du fait de mon opération de la cataracte, je réfléchissais à ce qui me différenciait de mes contemporains. Personnellement je me moque totalement de savoir quelle voiture je pourrais acheter ou quelle montre je pourrais mettre à mon poignet, ou encore de savoir qui a gagné le dernier match de football mais je me précipite sur les dernières recherches publiées partout dans le monde, pour en savoir juste un peu plus sur l’Univers que ce que j’en sais déjà. Mon intérêt pour l’exploration spatiale n’est à l’évidence pas partagé par tous, même si le nombre de mes lecteurs montre que je ne suis pas seul. Il est évident que certains se préoccupent davantage d’« ici et maintenant » tandis que d’autres se passionnent davantage pour les grands problèmes de l’humanité.

Il faut être nuancé. Sans doute tous les hommes ont potentiellement les mêmes gammes de pulsions sinon le même potentiel. Mais chez certains la pulsion du « fondamental » est plus forte que chez d’autres. Je ne suis évidemment pas le premier à faire le constat (voir le magnifique poème L’albatros de Baudelaire) et je ne critique pas ceux qui font un autre choix que le mien. Il ne s’agit d’ailleurs sans doute pas d’un choix mais je pense plutôt d’un état d’esprit, d’une prédisposition, peut-être génétique, de l’intellect, qui oriente un être humain dans une trajectoire mentale plutôt que dans une autre.

Je sais bien qu’il n’est pas facile de consacrer toute sa vie à ses rêves et à ses passions. « Il faut bien vivre ». Mais il ne faut pas mettre tout sur le compte de la pression de la nécessité. Passionné depuis ma prime adolescence par la « géographie physique » (qu’on appellerait aujourd’hui « planétologie »), j’ai moi-même été banquier après avoir fait des études de sciences économiques par refus de m’enfermer dans ma passion et pour tenter « autre chose » que ce à quoi j’étais prédisposé. Ceci dit, je ne regrette pas de m’être plongé dans la vie de tous les jours. Je m’y trouvais un peu comme l’albatros mentionné ci-dessus, maladroit au début, mais ayant commencé jeune, j’ai pu, dans une certaine mesure, m’adapter et acquérir ainsi une expérience et un sens du réel qui me servent toujours aujourd’hui.

J’ai, en quelque sorte, « appris à marcher en contrôlant mes ailes », tout en aiguisant mon intellect au contact du réel le plus varié et le plus dur possible. L’analyse de risques sur contreparties, entreprises, projets ou particuliers, qui était ma spécialité, est une spéculation sur l’avenir à partir d’un présent extrêmement complexe, comptable et financier mais aussi technologique et psychologique, d’intentions qui sont difficiles à déchiffrer dans un contexte évolutif dans lequel interviennent une multitude de facteurs (aujourd’hui par exemple, la guerre). Il faut sans cesse estimer et déduire à partir d’un réel qui malgré tous les efforts possibles, reste flou, et concourir à la décision. Il y a des dossiers « solides » ou « carrés » mais les emprunteurs ne font pas souvent part de leurs difficultés. Il leur arrive de les dissimuler, s’ils ne se trompent par excès d’optimisme et, de toute façon, ils ne connaissent pas l’avenir. Heureusement certains « voient juste » ou d’autres ont simplement « de la chance ». Quoi qu’il en soit, il vaut mieux pour le banquier, ne pas se tromper dans la compréhension des différentes technologies employées ou des différentes situations et malgré les stratégies variées d’évitement ou simplement les omissions involontaires des interlocuteurs, car les conséquences peuvent être très lourdes, en pertes (les rémunérations sur risques pris, sont très rarement supérieures à 1% du capital engagé) ou en gains (il faut bien gagner de l’argent pour continuer à rémunérer l’établissement et à prêter).

J’aime à penser qu’Henri le Navigateur, ce prince portugais qui a précédé les Grandes-découvertes devait être dans le même « état d’esprit » que moi quand il contemplait l’Océan immense depuis son rocher de Sagres en cherchant à le comprendre. Dans mon contexte personnel, j’avais au mur de mon bureau une grande carte de la National Geographic Society montrant notre ciel et l’Espace dans une succession vertigineuse d’agrandissements, depuis notre système solaire interne jusqu’à notre groupe local de galaxies. Et cette carte, toujours dans le coin de mon œil, me permettait de « garder les choses en perspectives ».

Finalement c’est lorsqu’il prend sa retraite que l’homme qui a suivi un parcours tel que le mien se retrouve ou se découvre et peut s’épanouir enfin pleinement, construisant sur l’acquis pour aller encore plus loin, comme le pilote d’une fusée qui a brûlé son premier étage et qui allume le second pour se mettre sur la trajectoire qui l’enverra vers sa destination finale (qu’il n’atteindra peut-être jamais, mais enfin il est parti). A ce moment de la vie, le temps qui reste est par définition court et il s’agit de l’utiliser en fonction de ce qu’on est soi-même, profondément. J’ai des amis qui se sont arrêtés parce qu’ils étaient atteints par la milite d’âge, et ne s’en sont jamais remis. Ils étaient banquiers avant tout et ne savaient pas être autre chose. La retraite a été pour eux l’entrée dans l’oisiveté et le néant. D’autres, comme moi, ont tourné la dernière page de cette première vie et sont entrés dans un nouveau livre qu’il s’agissait d’écrire avec toute la richesse mentale accumulée par l’expérience. Encore à ce niveau, certains ont préféré « rester dans la finance », achetant et vendant des actions pour eux-mêmes ou devenant conseiller financier pour d’autres ; d’autres sont partis vers la spiritualité ou bien le grand large pour tenter de comprendre ce monde étrange et merveilleux qu’est le nôtre. J’ai l’immense satisfaction de faire partie de ces derniers mais je ne jette aucune pierre aux autres. Chacun fait selon ses besoins et selon ses moyens. Notre diversité fait la beauté de l’être humain.

Bien entendu, en parallèle, d’autres encore ont cultivé leur passion toute leur vie. Ils ont suivi le cursus universitaire « normal » et sont devenus astrophysiciens, ce que j’aurais voulu faire et que j’aurais fait si je n’avais pas craint de m’enfermer dans mon propre univers. Ils sont sans doute animés du même état d’esprit que moi. Mais finalement je ne regrette pas mon parcours « freelance » hétérogène. Il m’a permis de voir la science, leur science et ma science, dans un contexte enrichi d’une autre dimension et donc de la conscience du caractère humain, du terreau, dans lequel elle se développe. Je pense en fin de compte que « c’est un plus » car dans ce domaine et dans cette perspective, le généraliste a un avantage sur les spécialistes pourvu que le généraliste puisse suffisamment comprendre ce que font les spécialistes.

Illustration de titre :  Programme Aurora (ESA), crédit ESA et Pierre Carril. Je reprends encore une fois cette illustration que j’aime beaucoup car pour moi elle illustre parfaitement cet état d’esprit dont je parle. Elle est porteuse avec une force inouïe, de l’imagination et du « rêve d’ailleurs ». Elle a été commandée à Pierre Carril par l’ESA à l’époque du lancement du programme Aurora (aujourd’hui semble-t-il, hélas, bien oublié !). Pierre Carril dont les dessins sont toujours extrêmement rigoureux et porteurs de sens, est l’un des meilleurs illustrateurs scientifiques se consacrant à l’espace. 

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 04 02

Le télescope EUCLID doit nous en dire plus sur l’énergie sombre qui étire toujours plus vite le tissu de notre Univers

En 2023, un nouveau télescope spatial de l’ESA, « EUCLID », doit quitter la Terre pour orbiter autour du point de Lagrange Terre-Soleil « L2 ». Son objectif est l’étude de l’Univers ancien, recouvrant largement la période où l’accélération de l’Expansion a commencé à se manifester en opposition à la force de gravité. Le motif sous-jacent est de tenter de comprendre ce qu’est l’énergie-sombre dont on déduit l’existence par la réalité de cette accélération et le bénéfice collatéral sera de vérifier aussi la réalité et l’importance de la matière-noire.

Si l’on ne prenait en compte que la force de gravité, l’expansion de l’Univers résultant de l’explosion primordiale, le Big-bang, devrait ralentir (s’épuiser) avec le temps. L’accélération sur-corrige très légèrement cette tendance. Mais on n’est pas arrivé à cette compréhension facilement et on a besoin aujourd’hui de précisions.

Einstein avait introduit une constante cosmologique « Λ », (lambda) dans ses équations dès 1917 (deux ans après la première version publiée de sa Relativité-générale), en lui affectant une valeur telle que dans ses calculs l’Univers restât statique car il refusait l’idée d’un univers en expansion que donnaient naturellement ses calculs. En 1922, Alexander Friedman montra que les équations d’Einstein restaient valables avec un Λ quelconque. En 1927, se fondant sur la théorie d’Einstein et sur la constatation faite par l’astronome Vesto Slipher en 1920 de l’éloignement des astres lointains (décalage vers le rouge de leur lumière), Georges Lemaître démontra que l’Univers devait être en expansion avec en conséquence au début (en remontant le temps) un « atome primitif » (qui devint le « Big-Bang »). Le concept d’expansion fut confirmé en 1929 par Edwin Hubble qui s’appuyait également sur les travaux de Slipher. Il montrait, comme Lemaître, que plus les galaxies étaient lointaines plus le décalage vers le rouge de leur lumière était marqué (elles s’éloignent à une vitesse proportionnelle à leur distance). Il en tira sa « loi de Hubble », devenue plus tard « Loi de Hubble-Lemaître » et même « Loi de Lemaître »* avec sa « constante », H0 qui de fait remplaçait Λ. En 1931, Einstein reconnut son erreur et, en proposant un modèle d’Univers en expansion continue (espace-temps Einstein-de Sitter), retira son Λ.

*Hubble avait semble-t-il une tendance à orienter fortement les projecteurs sur sa personne.

Tout était pour le mieux dans le meilleur des mondes possibles mais l’on commença à spéculer sur les modalités de l’expansion. Était-elle vraiment « continue » ? En 1998, les astrophysiciens Saul Perlmutter, Brian Schmidt et Adam Riess parvinrent à démontrer qu’en fait l’expansion accélérait très légèrement (ils obtinrent le Prix Nobel pour cela, en 2011). Finie la crainte du Big-Crunch qui aurait pu survenir par épuisement de l’impetus initial donné par le Big-Bang (lente évolution décroissante du paramètre H0 dans le temps). Mais en même temps cela eu plusieurs conséquences : (1) H0 ne pouvait plus être une « constante » et sa variabilité dans le temps la rétrocédait en « paramètre » ; (2) on pouvait « réactiver » la constante cosmologique Λ ; (3) il fallait trouver la cause de cette accélération.

C’est ainsi que fut introduit le concept d’énergie sombre (et le nouveau modèle standard de l’Univers, le « modèle ΛCDM », avec “cdm” pour “cold dark matter”). En même temps on affinait le calcul de la vitesse d’expansion et on tomba sur un autre mystère qu’il faut absolument éclaircir pour aller plus loin. En effet, on obtient 67,4 km/s/Mpc (Mpc = Megaparsec) en observant le Fond Diffus Cosmologique avec le télescope Planck et en même temps 73,3 km/s/Mpc (travaux de la Coopération H0LICOW) en utilisant le déplacement des « chandelles-standards » que sont les supernovæ « Sn1a » qui parsèment la profondeur de l’espace.

C’est ce mystère que le télescope EUCLID doit nous aider à résoudre.

Pour ce faire, il va étudier à une très grande échelle, l’effet de masse des galaxies sur la lumière des sources plus lointaines (cisaillement gravitationnel), couplé à la spectroscopie pour constater les redshift (décalage de la lumière reçue vers le rouge). Il va aussi étudier les grandes structures de l’Univers en les comparant dans l’Univers très lointain et moins lointain. Dans le premier cas, comme toute lumière est magnifiée et courbée par la masse, les galaxies situées au-devant d’autres (dans notre ligne de vue) rapprochent de nous la lumière de ces dernières (effet de loupe-gravitationnelle). Du fait de sa courbure, cette lumière est répartie en croissants autour de la galaxie-loupe. L’effet est d’autant plus fort que la masse de la loupe est importante. Et cette masse est forcément complète, c’est-à-dire qu’elle comprend aussi bien la fameuse « matière noire » que la matière visible (baryonique). EUCLID va étudier l’effet des lentilles gravitationnelles faibles aussi bien que fortes, et leur effet visuel sur les formes des galaxies cachées. Par ailleurs, en analysant par spectroscopie la lumière de ces croissants de lumière, on obtiendra un redshift donc une distance. Dans le second cas, l’effet de l’énergie noire, sur la durée, devrait donner aux grandes structures (amas de galaxies, filaments cosmiques) des aspects différents aux époques différentes, que l’on pourra comparer.

EUCLID étudiera ces phénomènes sur une très grande profondeur d’espace et de temps (jusqu’à 10 milliards d’années) et sur une très grande surface de voûte céleste (15.000 degrès2 à comparer aux 41.253 degrés2 de l’ensemble de la voûte céleste, pour les deux hémisphères). Cela facilitera les comparaisons et les étalonnages. On pourra voir à la fois l’effet progressif de l’accélération de l’expansion de l’Univers et l’effet plus ou moins fort de l’énergie sombre, ce qui permettra de mieux comprendre cette dernière. On devra pouvoir déterminer l’accélération de l’expansion à 1% près et les (éventuelles) variations d’accélération à 10% près.

EUCLID, (mauvais) acronyme pour « EUropean Cosmic aLl sky Investigator of the Dark universe » a été initié en 2008 par le « Concept Advisory Team » de l’ESA. Le projet, approuvé en 2011, pour la modique somme de 500 millions d’euros (mais le maximum pour ce type de projet), fait suite à la mission Planck dont l’objet était d’étudier le Fond Diffus Cosmologique (CMB), la limite de ce qu’on peut voir, le fond du tableau en quelque sorte. EUCLID va étudier la dynamique qui, à partir de ce fond, a permis à l’Univers de se déployer jusqu’à nous.

Les deux maîtres d’œuvre sont Thales Alenia Space (module) et Airbus (télescope). EUCLID disposera d’un miroir de 1,2 mètres qui permettra de recueillir les ondes lumineuses (instrument VIS, construit par un consortium d’instituts dirigé par le Laboratoire de science spatiale Mullard, de l’University College de Londres) et celles de l’infrarouge proche (deux instruments NISP, construits par un consortium d’instituts dirigé par le Laboratoire d’Astrophysique de Marseille – LAM ; leurs détecteurs sont fournis par la NASA). Le module de charge utile (« payload ») et le télescope lui-même sont en carbure de silicium, comme pour le télescope Gaïa. Cela présente l’avantage de la plus grande stabilité possible aux différences de températures. Comme le dit l’ESA, « Les détecteurs de NISP – spectrographe et photomètre – bénéficieront du plus grand champ visuel sur un instrument infrarouge ayant jamais volé dans l’espace ».

Derrière les constructeurs, il y a une communauté scientifique et technique impressionnante. Le « Consortium EUCLID », « EC », regroupe des scientifiques et des ingénieurs de 14 pays européens (dont la France et la Suisse avec l’EPFL et l’Uni. de Zurich) ainsi que le Canada et les USA. Il comprend 1500 membres et il est structuré avec un « lead » (ECL, Euclid Consortium Lead) et par un board (ECB). Avec les constructeurs et l’ESA, le Consortium forme la « Coopération EUCLID ».  Il tient une réunion annuelle (les « Euclid Meetings »). Le dernier, organisé par le LASTRO de l’EPFL a eu lieu à Lausanne en juin 2021, virtuellement (covid oblige !).

Le lancement se fera de Kourou en mars 2023 avec une fusée Ariane 6-2 (on avait prévu une fusée Soyouz et il y a sans doute quelques aménagements à faire car le pliage de la sonde était parfaitement adaptée à la coiffe de son transporteur !). La destination sera encore une fois le point de Lagrange Terre-Soleil L2, à seulement 1,5 millions de km de la Terre. Ce « point » présente l’avantage d’être plus loin du Soleil que nous le sommes et dans l’ombre de la Terre. Pour bien capter les rayonnements infrarouges, le télescope devra garder une température de -190°C (ce qui implique bouclier thermique et liquide cryogénique) et son positionnement devra être réglé très finement puis maintenu totalement stable (propulseurs au gaz froid). Du fait des « consommables », il ne pourra être utilisé que 6 ans.

Le montage se termine, presque tout est prêt. On attend avec impatience que ce petit bijou puisse fonctionner !

Illustration de titre : vue d’artiste du télescope EUCLID (crédit ESA).

PS: j’attire votre attention sur la conférence que Claude Nicollier va donner au Club 44 (La Chaux-de-Fonds) ce jeudi 7 avril, “L’espace des possibles – En quête de nos origines avec Hubble et son successeur”. Je rappelle qu’outre son passé, bien connu, d’astronaute, Claude Nicollier est aussi astrophysicien et professeur (honoraire) à l’EPFL (eSpace) : Club 44

Liens :

https://www.lefigaro.fr/sciences/le-satellite-europeen-euclid-va-tenter-de-resoudre-le-mystere-de-l-energie-noire-dans-l-univers-20220125

https://fr.wikipedia.org/wiki/Euclid_(t%C3%A9lescope_spatial)

https://www.euclid-ec.org/

https://sci.esa.int/web/euclid

https://www.futura-sciences.com/sciences/actualites/cosmologie-energie-noire-acceleration-expansion-univers-defie-encore-cosmologie-62378/

https://fr.wikipedia.org/wiki/Constante_cosmologique

https://sciencepost.fr/mesure-quantite-de-matiere-univers/

https://shsuyu.github.io/H0LiCOW/site/

https://fr.wikipedia.org/wiki/%C3%89nergie_noire#:~:text=En%20cosmologie%2C%20l’%C3%A9nergie%20noire,comme%20une%20force%20gravitationnelle%20r%C3%A9pulsive

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 03 13

ESPRESSO nous fait espérer découvrir des planètes de type terrestre autour d’étoiles de type solaire

ESPRESSO1 est un « spectrographe-échelle » qui équipe depuis 2018 les quatre grands télescopes du VLT2 de l’ESO3 installé sur le Mont Paranal dans le désert d’Atacama au Chili. Sa technologie prodigieuse (largement suisse) doit enfin nous permettre de détecter des planètes de type terrestre autour d’étoiles de type solaire.

1Echelle Spectrograph for Rocky Exoplanet and Stable Spectroscopic Observations / 2Very Large Telescope / 3European Southern Observatory

Depuis qu’en 1995 Michel Mayor et Didier Quelloz ont découvert la première exoplanète, nous avons identifié quelques 4000 autres de ces astres mais aucun encore qui soit vraiment analogue à la Terre, c’est-à-dire rocheux, de masse terrestre et orbitant une étoile de type solaire dans sa zone habitable. En effet les exoplanètes découvertes soit orbitent des étoiles qui ne « conviennent » pas (naines rouges ou étoiles massives), soit ce sont des géantes gazeuses ou des super-terres (beaucoup plus massives que la Terre) et, très généralement, elles sont trop proches de leur étoile.

La difficulté de repérer une planète-de-type-terrestre-orbitant-une-étoile-de-type-solaire vient de ce que par rapport à leur étoile, ces planètes sont très petites (par rapport au Soleil, le diamètre de la Terre est 1/109 et sa masse 1/330.000) et aussi que la période de leur orbite est très longue (par définition pour la Terre, une année). Leur effet sur leur étoile est donc extrêmement faible et se répéte à des intervalles trop longs pour un suivi facile (confirmation de l’observation). Au point qu’on n’a pas pu jusqu’à présent appliquer avec succès l’une ou l’autre des méthodes développées pour déceler cet effet : « transit » (obscurcissement), « vitesse radiale » (déplacement de l’étoile) ou « lentille micro-gravitationnelle » (effet de loupe).

ESPRESSO améliore l’observation en offrant une sensibilité très grandement améliorée à nos télescopes.

Comme son acronyme l’indique, ESPRESSO est un « spectrographe-échelle pour l’observation de planètes rocheuses et pour des observations spectroscopiques stables ». Un « spectrographe échelle » utilise un premier réseau de diffraction complété par un « grisme ». Un grisme est un prisme dont une des faces est façonnée de façon à former un réseau de diffraction afin de ne laisser passer qu’une seule longueur d’onde du faisceau de lumière incident (l’axe de dispersion du second élément est placé à 90° du premier). La lumière, captée par un seul point d’entrée et non par une fente, permet d’atteindre des résolutions spectrales très élevées.

ESPRESSO bénéficie aussi d’améliorations dans la stabilité et la précision de la calibration maintenant possible grâce à la l’application de la technologie des « peignes de fréquence laser ».

Le spectrographe a pour objet d’appliquer la méthode dite des vitesses-radiales, c’est-à-dire la fluctuation dans l’espace d’une étoile sous l’effet gravitationnelle d’une de ses planètes. Considérant la masse de l’étoile et l’intensité de son déplacement dans la ligne d’observation de la Terre (décalage vers le rouge pour l’éloignement et vers le bleu pour le rapprochement), on en déduit non seulement le passage (donc la présence) mais aussi la masse de la planète.

ESPRESSO est le successeur d’une série de spectrographes-échelle, qui inclue CORAVEL (1977), Elodie (1994), Coralie (1998) et HARPS (2003). Michel Mayor et la Suisse sont à l’origine de leur développement et c’est avec Elodie que Michel Mayor a découvert « son » exoplanète « 51Pegb » (une très grosse planète orbitant une toute petite étoile). HARPS faisait partie de la « troisième génération » des spectrographes-échelle. ESPRESSO qui ouvre la quatrième, a collecté sa première lumière en janvier 2018 mais les réglages, très délicats, et un petit incident de fibre optique, ont retardé la mise en service réelle à juillet 2019. L’Université de Genève qui s’est faite une spécialité de ces instruments, a été à la tête du consortium qui a réalisé l’instrument (voir ci-dessous les membres du consortium).

ESPRESSO a une Résolution Spectrale*, « R », de 140 000 (mode HR, haute résolution) à 180 000 (mode UHR, ultra haute résolution) lorsqu’il est utilisé avec un seul télescope. NB : La « R » de HARPS, sur un télescope de diamètre «3,6 mètres, n’atteignait que 115.000.

* La « Résolution spectrale » R = λ/δλ, est la propriété la plus importante d’un spectrographe. L’incrément de longueur d’onde δλ est la séparation minimale pour que deux raies spectrales soient considérées comme juste résolues (définition Wikipedia).

ESPRESSO couvre la totalité du domaine visible du spectre (de 378 à 788 nanomètres).

Sa source de lumière est la meilleure actuellement possible dans le monde puisque l’instrument peut recombiner la lumière des quatre télescopes principaux du VLT qui ont chacun un diamètre de 8,2 mètres. Dans ce cas on a une surface de collecte égale à un télescope de 16 mètres et ESPRESSO est le premier spectrographe à travailler avec un télescope aussi grand. Dans le cas d’une collecte de la lumière des quatre télescopes, R descend à 70.000 mais il ne faut pas oublier que plus le diamètre d’un télescope est grand, plus il y a de lumière et moins il y a de diffraction. Donc il y a une compensation à cet affaiblissement.

ESPRESSO pourra permettre de découvrir des planètes de type terrestre orbitant des étoiles G2V (type solaire) dans leur zone habitable parce qu’il peut déceler des variations de vitesse radiale de l’étoile avec une précision inférieure à 10 cm/s (HARPS ne peut descendre en-dessous de 30 cm/s !) et que la Terre induit sur le Soleil une variation de vitesse radiale de 9 cm/s. NB : ces précisions de vitesses radiales correspondent à des vitesses de déplacement physique de l’étoile extraordinairement faibles : 1,08 km/h (VR = 30 m/s), 0,36 km/h (VR = 10 m/s) et 0,32 km/h (VR = 9 m/s).

On pourra ainsi analyser l’effet de planètes rocheuses de type terrestre sur des étoiles de magnitude apparente V = 9, des planètes de type Neptune sur des étoiles de magnitude apparente V = 12 (plus éloignées). Rappelons que les étoiles les plus faibles décelables par Hubble ont une magnitude visible V = 31. « HD143436 » une des jumelles de la Terre, à 141 AL, a un V = 8,03. « 18 Scorpii » a une V = 5,5. C’est une G2V d’une température de 5.433 K et d’une métallicité de 0,03% inférieure à celle du Soleil. Le seul « problème » de 18 Scorpii (si l’on peut dire) est qu’elle est beaucoup plus jeune que le Soleil, seulement 2,9 milliards d’années (contre 4,6 pour le Soleil). D’autres étoiles « intéressantes » sont accessibles :  Epsilon Eridani, V = 3.73 ; Epsilon Indi, V = 4,69.

Il semble malheureusement qu’aujourd’hui avec ESPRESSO on atteigne les limites de l’exploitation possible de ces spectrographes-échelle car on craint de ne peut plus pouvoir distinguer le mouvement propre de l’étoile de celle résultant de l’effet que la planète a sur elle. Ceci dit nous avons un beau champ d’exploration devant nous avec une réelle possibilité de très belles découvertes.

Illustration de titre : le dispositif de collecte de la lumière reçue par les quatre télescopes de 8,4 m du VLT de l’ESO (Paranal, désert d’Atacama), crédit ESO.

Le spectrographe échelle ESPRESSO au centre de collecte de la lumière, crédit ESO :

Illustration ci-dessous, à l’intérieur d’ESPRESSO, le cheminement de la lumière :

Lien entre les deux illustrations ci-dessus, crédit ESO/ESPRESSO consortium, Samule Santana Tschudi vous remarquerez la caméra pour la lumière bleue et celle pour la lumière rouge :

Réseau de diffraction « blazé » d’un grisme (les grismes sont usinés avec des réseaux blazés sur leur face). Illustration Wikipedia common (Patrick87) :

Note :

Le Consortium ESPRESSO : Observatoire Astronomique de l’Université de Genève (chef de projet); Centro de Astrofísica da Universidade do Porto (Portugal); Faculdade de Ciencias da Universidade de Lisboa (Portugal); INAF-Osservatorio Astronomico di Brera (Italie); INAF-Osservatorio Astronomico di Trieste (Italie); Instituto de Astrofísica de Canarias (Espagne); et Physikalisches Institut der Universität Bern (Suisse). ESO a participé au projet ESPRESSO comme partenaire associé.

Liens :

https://fr.wikipedia.org/wiki/ESPRESSO

https://en.wikipedia.org/wiki/ESPRESSO

https://www.eso.org/public/teles-instr/paranal-observatory/vlt/vlt-instr/espresso/

https://www.eso.org/sci/facilities/paranal/instruments/espresso.html

https://www.aanda.org/articles/aa/pdf/2021/01/aa38306-20.pdf

https://blogs.letemps.ch/pierre-brisson/2019/06/22/en-combinant-les-lumieres-des-telescopes-vlti-gravity-nous-promet-des-resultats-spectaculaires/

https://www.eso.org/sci/facilities/paranal/instruments/espresso/science.html

https://www.eso.org/sci/facilities/paranal/instruments/espresso/inst.html

https://www.unige.ch/campus/139/dossier4/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 02 24

 

LaserSeti, une nouvelle conception de la recherche des messages extraterrestres

Nous assistons à une évolution importante dans la démarche SETI*, la volonté de généraliser, simultanément à partir de toute la surface de la Terre, la recherche de signaux lasers qui pourraient provenir de civilisations extraterrestres. Cette démarche, aujourd’hui techniquement possible, est beaucoup plus adaptée aux caractéristiques des émissions qui sont les plus probables.

*SETI = Search for Extra-Terrestrial Intelligence

L’idée que d’éventuelles civilisations extraterrestres pourraient communiquer par laser, avec nous ou entre elles, n’est pas nouvelle. Elle fut exprimée dès 1961 par R.N. Schwartz et C.H. Townes*, un an après que le physicien Giuseppe Cocconi et l’astrophysicien Ph. Morrison eurent lancé l’approche micro-ondes pour SETI et un an seulement après que le physicien Theodore Maiman ait réalisé pour la première fois une émission de « lumière cohérente » en utilisant un cristal de rubis. En effet, vu les propriétés du laser, il est apparu, dès le début, logique qu’une civilisation extraterrestre s’en serve pour ses communications. L’on sait qu’un rayon laser peut transférer un demi-million de fois plus de bits par seconde qu’une émission micro-ondes et que la puissance de l’émission du laser est inversement proportionnelle à sa durée. Il serait aussi logique qu’une telle civilisation s’en serve pour la propulsion de ses vaisseaux spatiaux (nous l’envisageons nous-mêmes pour nos voiles photoniques) ou encore, comme nous le faisons, pour rechercher d’autres civilisations et éventuellement chercher à communiquer avec elles, c’est-à-dire avec nous.

Le principe est qu’un puissant laser focalisé par un télescope d’une dizaine de mètres de diamètre et situé à une centaine d’années-lumière de notre système, pourrait produire une lumière aussi visible que le Soleil à cette distance, en émettant des flashs d’un milliardième de seconde. Un autre intérêt du flash laser et, qu’étant monochromatique, il est immédiatement remarquable par rapport aux émissions lumineuses naturelles qui sont non « cohérentes », pourvu bien sûr que le capteur soit adapté.

Les extraterrestres n’ont peut-être pas eu le temps de recevoir nos signaux radios mais les plus évolués d’entre eux (toujours avec le bémol « s’ils existent ») savent forcément, par leur pratique de la spectroscopie, que nous avons de l’oxygène dans notre atmosphère. Depuis déjà longtemps, la Terre est peut-être dans leur « fichier des planètes possibles », c’est-à-dire celles où la biologie a dû se développer, et ils doivent nous observer et émettre des signaux vers nous. Nous devons, nous aussi, les rechercher et nous devons leur signifier en envoyant également un message, quel est le niveau de développement technologique que la vie sur notre planète a fini par atteindre.

Bien sûr, la communication par laser ne serait valable que pour notre environnement relativement proche. Mais au-delà de l’échange, la connaissance, c’est-à-dire savoir si oui ou non nous sommes seuls, est encore plus philosophiquement importante. On peut envisager déceler un message laser à une distance d’une centaine d’années-lumière. C’est un peu long pour une communication mais c’est très peu dans la perspective de notre évolution humaine. Alternativement au laser ou, bien entendu, toujours au message radio, reste la spectroscopie qui peut nous faire découvrir le mix gazeux atmosphérique d’une planète qui ne pourrait être que biologique. Le laser est donc une autre arme dans notre panoplie pour « savoir » et au besoin, pour « communiquer ».

Cette évidence n’a pas toujours été reconnues. Pour des raisons peu défendables aujourd’hui mais qui pouvaient l’être à l’époque où les lasers étaient considérés comme des moyens « futuristes », la NASA puis SETI privilégièrent la recherche de signaux micro-ondes (les photons « tièdes » plutôt que les photons « chauds ») au grand dam de certains astrophysiciens, dont le Dr Stuart Kingsley qui se battit toute sa vie pour changer les habitudes prises dans ce domaine.

A partir de 1973, les Russes firent deux essais, puis Stuart Kingsley un autre en 1990, dans le cadre de COSETI (Columbus Optical SETI d’après le nom du tout petit – 25 cm de diamètre – télescope utilisé) mais ce n’est qu’un 1998 que l’exclusivité micro-ondes fut véritablement levée.

A cette époque l’Université Harvard avec le Professeur Paul Horowitz, rejoignit la recherche SETI et entreprit d’utiliser le rayonnement optique avec un télescope de diamètre plus important (l’observatoire Smithonian de l’Université d’Harvard, avec un miroir primaire de 1,80 mètres). On procéda dès lors à d’assez nombreuses campagnes d’observation (13 au total) mais toujours sur des cibles ponctuelles de systèmes stellaires qu’on estimait avoir des chances d’abriter la vie.

Comme on ne trouvait rien, on passa en 2005, toujours avec Paul Horowitz, l’Université Harvard et la Planetary Society, à la recherche « All-sky », c’est-à-dire au balayage du ciel (boréal). En 2006, un télescope de 1,50 mètres de diamètre implanté à Oak Ridge dans le Massachussetts, OSETI (« Optical SETI), qui était dédié à cet objet, devint opérationnel (et remplaça le Smithonian). Il bénéficiait, bien entendu, du soutien financier de la Planetary Society et du SETI Institute.

Dès le début, le principe d’une communication par laser sur de très grandes distances étant, comme dit ci-dessus, que la puissance du signal est inversement proportionnelle à sa durée, il fallait être capables de déceler des émissions extrêmement brèves. Le nombre de photons susceptibles d’être reçus d’une étoile de type solaire distante de 100 AL sur une durée de 1 nanoseconde est de l’ordre d’un seul photon. Les instruments capables de cette lecture ultrarapide provenaient de la technologie des tubes photomultiplicateurs (« PM ») inventés en Russie dans les années 30. Ces tubes, placés au foyer de miroirs de télescopes de 1 mètre de diamètre sont capables de séquencer la lumière reçue dans la période d’une seule nanoseconde. Si le PM en reçoit 10 c’est qu’il se passe (ou plutôt, s’est passé 100 ans auparavant) quelque chose d’anormal. Le problème restant était que l’observation devait être focalisée sur une cible. Or on ne regarde pas forcément où il faut, au bon moment.

Il devint donc évident qu’il fallait être vigilant, en même temps, à partir d’une surface aussi grande que possible. C’est ainsi qu’apparut le besoin du programme « LaserSETI », porté par une nouvelle équipe d’OSETI, au sein du SETI Institute. L’éternelle Jill Tarter* y figure comme Senior Advisor.

*l’héroïne de l’excellent film/roman « Contact » de Carl Sagan !

Le programme consiste à installer un peu partout dans le monde des couples d’appareils équipés chacun de deux caméras identiques orientées à 90° l’une par rapport à l’autre le long de l’axe de visualisation (l’équivalent d’un très grand angle). L’idée est de couvrir par tranches longitudinales (d’un pôle à l’autre) la totalité de la sphère céleste. Le premier observatoire, « Robert Ferguson », a été installé à Sonoma en Californie, le second, en décembre 21, à Haleakala (Mauï, Hawaï). Il doit y en avoir d’autres, à Puerto Rico, aux Canaries, au Chili…une douzaine en tout, pour la modique somme de 5 millions de dollars ! L’intérêt d’un grand nombre de collecteurs est aussi de pouvoir confirmer un signal et d’éviter les faux (provenant par exemple d’un LIDAR embarqué sur satellite, même si le LIDAR émet en principe dans l’infrarouge).

Les observatoires utilisent un nouveau type de détecteur optique qui tirent parti de la nature monochromatique des lasers, et qui reposent sur des principes robustes et qui sont peu couteux. Alan Holmes, l’un des fondateurs du Santa Barbara Instrument Group (une société de caméras d’astrophotographie) l’a théorisé en s’inspirant des capteurs des caméras vidéo. Le concept a été adapté pour SETI par Eliott Guillum, directeur de son département OSETI. Il l’a matérialisé ensuite par la construction d’un prototype par un crowdfunding de 100.000 dollars, lancé en 2017 (sur Indiegogo). Son appareil n’est plus simplement un détecteur à un seul pixel et il peut surveiller une large partie du ciel dans une gamme de durées d’émissions très ouvertes (très rapides et moins rapides). Les observatoires fonctionnent en divisant les sources lumineuses en spectres très étendus dans le visible (on parle de « rainbow like ») et ils lisent leur caméra plus de mille fois par seconde.

Comme le disait l’astronome Seth Shostak en 2017 pour le lancement du crowdfunding, « lorsque le filet de capteurs sera installé, LaserSETI couvrira environ 200 000 fois plus de ciel que n’importe quel dispositif SETI optique antérieur. Il ne s’agit donc pas d’une amélioration par rapport aux expériences passées, mais d’un saut majeur ».

A la différence de la plupart des personnes investies dans SETI, je ne crois pas que l’espace fourmille de vie extraterrestre mais je pense que nous devons chercher. Sans preuve, une opinion reste une croyance même si elle est soutenue par une logique.

Illustration de titre : une “brassée” de signaux lasers à proximité de la Terre. Vue d’artiste, crédit LaserSETI

Image ci-dessous : vue de l’installation (sur la terrasse au premier plan) au sommet du Mont Haleakala (ile de Maui, Hawaï). Crédit image : Eliot Gillum:

NB: Indisponibilité personnelle.

Chers lecteurs, je me fais opérer demain lundi 21 mars de la cataracte et ne pourrai donc répondre à vos commentaires pendant un temps que j’espère aussi court que possible. Mes articles des 26 mars et du 02 avril sont de toute façon programmés et vous pouvez continuer à echanger entre vous. A bientôt!

Liens

https://www.seti.org/laserseti

https://www.seti.org/opticallaserseti

http://laserseti.net/

https://www.seti.org/why-we-need-new-type-seti-instrument

09/10/21 Blog: https://blogs.letemps.ch/pierre-brisson/2021/10/09/le-mouvement-seti-difficultes-beaute-et-esperance/

http://www.astrosurf.com/luxorion/seti-optical.htm

tableau des observations : http://www.setileague.org/general/optical.htm

https://www.indiegogo.com/projects/laser-seti-first-ever-all-sky-all-the-time-search#/

http://www.coseti.org/introcoseti.htm

http://www.coseti.org/townes_0.htm

“Interstellar and Interplanetary Communication by Optical Masers”in Nature, par R.N Schwartz and Ph. Townes, Volume 190, Issue 4772, pp. 205-208 (April 1961), DOI:10.1038/190205a0, lien: https://www.nature.com/articles/190205a0

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur :

Index L’appel de Mars 22 02 24