Avec le « Mars Colony Design Contest » nous nous préparons sérieusement à partir pour Mars

Cette semaine je suis à l’USC, University of Southern California (Los Angeles), où je défends la faisabilité d’un projet d’établissement martien de 1000 habitants devant un jury d’ingénieurs spécialistes et de membres de la communauté spatiale internationale.

Ce projet était en gestation depuis des années dans différents réflexions et travaux entrepris par moi-même au sein de la Mars Society Switzerland et mes amis de la Mars Society française (« Association Planète Mars »). Le lancement d’un concours sur le sujet par la Mars Society américaine nous a permis de le mettre en forme pour le soumettre à une évaluation « externe ». Nous avons constitué une petite équipe de trois personnes, moi-même, économiste et ancien banquier (entre autres !), Richard Heidmann, ingénieur polytechnicien, ancien « directeur orientation recherche et technologie » du groupe SNECMA (concepteur/constructeur d’Ariane), fondateur de l’Association Planète Mars, et Tatiana Volkova, étudiante russe candidate en doctorat d’architecture et d’ingénierie spatiale à l’EPFL, spécialiste des aménagements viabilisés en environnements extrêmes. Il fallait choisir un identifiant à notre équipe et Tatiana a trouvé la jolie expression, riche de significations, de « LET IT BE ». Plus de cent équipes partout dans le monde ont répondu au défi et notre dossier suisse, français et russe, a franchi les premières sélections. Nous avons été retenus dans les vingt premiers puis les dix premiers et enfin les cinq premiers. Tous les espoirs sont donc permis pour que nous montions aujourd’hui « sur le podium ». Nous aurons une demi-heure pour dérouler notre démonstration qui se fera « classiquement » sous forme de présentation powerpoint et de questions / réponses.

1000 habitants c’est la population que l’on peut raisonnablement envisager vingt ans après deux premières salves de lancements (chacune dans une fenêtre d’un seul mois espacée de 26 mois avec la suivante, puisque nous serons contraints par la mécanique spatiale). 1000 habitants ce ne sera plus un « commando » d’astronautes en exploration mais une vraie petite société multinationale avec toutes sortes de fonctions complémentaires et interagissantes, allant de la construction à la recherche et au tourisme en passant par la production de nourriture, la production et le recyclage de l’atmosphère, de l’eau et de tout ce qui peut l’être, le maintien de conditions sanitaires acceptables, l’opération de diverses machines et équipements, en particulier d’imprimantes 3D, l’utilisation de logiciels dans tous les domaines possibles, le tout en contact distant avec la Terre qui ne pourra intervenir que par ses conseils différés et la transmission de ses programmes informatiques (ce qui est déjà beaucoup).

Sur la faisabilité, nous avons des arguments que nous croyons évidemment solides. Je ne vais pas les développer dans cet article mais nous parlerons des différents points cruciaux dont l’articulation est nécessaire pour établir la crédibilité de notre projet : astroport (plateformes d’atterrissage et stocks d’ergols produits sur place) ; production et distribution d’énergie (nucléaire et solaire mais nucléaire beaucoup plus que solaire) ; conception technique de la base (modularité et « RAMS* »), des habitats, des dômes dédiés aux réunions et aux échanges, des corridors, des serres, des lieux de fonctionnement des machines de production (un problème important est le rythme de construction : on ne peut pas tout faire du jour au lendemain du fait de la limitation en équipement, en matériel sous forme utilisable, en robots et en hommes); outils informatiques ; sécurité et santé des « colons » (évidemment traitement des problèmes de pressurisation et de protection contre les radiations mais aussi d’éventuelles infections microbiennes ou virales ou de problèmes dentaires, cardiaques, digestifs…) ; structure et stratégie financières, modèle économique ; aspects sociaux et culturels ; gouvernance ; aspects esthétiques et architecturaux. Certains de ces points sont purement techniques et il est assez facile de démontrer leur faisabilité (réalisation et/ou contrôle), d’autres sont plus délicats car construire une structure est une chose, s’organiser pour vivre dedans avec d’autres en est une autre.

*RAMS = « Reliability, Availability, Maintainability, Safety », des critères d’ingénierie toujours présents dans l’esprit des concepteurs, des constructeurs et des gestionnaires ; le premier, « Reliability », devant être aussi assorti du TRL (Technology Readiness Level) le plus élevé possible (au moins de niveau 7 sur 9 pour toute technologie employée sur place).

Sur le plan économique, nous pensons que seule une base offrant des services que des Terriens seront prêts à payer, sur le long terme, aura une chance de pérennité si le prix payé est générateur de profit pour les investisseurs. Cela revient à dire que la base doit fonctionner comme une entreprise recherchant sa rentabilité financière. Ce n’est peut-être pas dans l’ère du temps, plutôt anticapitaliste, mais je l’assume pleinement car cela repose sur des motivations rationnelles et très largement partagées, non sur une bienveillance publique qui pourrait s’émousser. Nous avons identifié les services que nous pourrions offrir et nous pensons qu’ils pourraient rencontrer un marché. Ce sont d’abord des services de résidence. L’entreprise d’exploitation (que j’aime bien appeler la « New India Company » pour faire un clin d’œil à d’autres aventuriers du passé !), qui sera largement privée, offrira à toutes les personnes intéressées par l’aventure, un lieu où vivre dans des conditions acceptables pendant les 18 mois du séjour. Les « personnes intéressées » seront d’une part les volontaires qui auront été sélectionnés pour faire fonctionner l’établissement (et qui seront – bien – payés par l’entreprise) et d’autre part, celles qui seront capables de se payer le séjour. Le service de base, permettant la survie, sera assorti de tous les services annexes nécessaires qu’il sera possible et raisonnable d’apporter (et qui seront payants en plus du service de base compris dans le forfait « voyage+séjour »). Les hôtes clients seront des scientifiques mais aussi des touristes ou des gens qui voudront tenter « quelque chose » sur Mars en raison du milieu particulier et de l’environnement humain extrêmement « pointu » et varié sur le plan technologique et intellectuel. Ceci conduit logiquement à considérer la colonie martienne comme un véritable incubateur de start-up dans toutes sortes de domaines. Il faudra payer « à son juste prix » ces services et ce droit à résidence pour dégager une rentabilité. Le juste prix c’est ce qui permettra (1) de couvrir les frais du séjour y compris l’amortissement et l’entretien de la structure, (2) la rémunération des personnes qui la feront fonctionner, (3) la génération d’une marge pour continuer le développement, remercier les investisseurs engagés et en encourager de nouveaux à se joindre à eux (même s’il faut prévoir une « période de grâce »). L’investissement sera bien sûr élevé (mais pas plus d’une cinquantaine de milliards, sur 30 ans car il faut considérer une dizaine d’années de préparation et de construction avant une exploitation commerciale). Si nous l’envisageons comme possible c’est sur la base d’une part de la révolution dans le transport par lanceurs lourds apportée par Elon Musk (réutilisabilité !) combinée avec l’économie d’échelle générée par la multiplication des vols et, d’autre part, l’utilisation des ressources planétaires locales (dont l’eau, l’atmosphère de CO2, l’aluminium, la silice et le fer) comme « inventée » par Robert Zubrin au début des années 1990. Ces conditions devraient permettre des coûts accessibles à la minorité de Terriens disposant de la richesse et de la motivation adéquates. Cela peut être considéré comme élitiste mais c’est inévitable ; bien sûr les plus motivés de ceux qui ne disposent pas des moyens financiers suffisants pourront convaincre des sponsors de payer pour eux ou des banques de les financer (il est bien connu que l’enthousiasme soulève des montagnes). Nous avons estimé que l’ensemble fournirait un nombre suffisant de « clients » même si cette population devra se renouveler constamment compte tenu de ce qu’au début, la quasi-totalité des personnes partant pour Mars voudront revenir sur Terre à la fin du cycle synodique suivant leur arrivée (c’est-à-dire après 18 mois de séjour, pour un retour sur Terre trente mois après leur départ de celle-ci).

Pendant leur séjour nous ne voulons pas que les résidents ni d’ailleurs leurs hôtes, soient soumis au total arbitraire d’un « chef » ou d’un « commandant ». Nous refusons et ne voyons pas la nécessité d’une direction impérieuse et militaire. Notre époque a bien compris que chacun devait participer à la société pour qu’elle soit agréable à vivre et efficace, aussi bien pour les propriétaires de la société d’exploitation qui chercheront légitimement à récupérer leur investissement avec profit, que pour les clients qui tout aussi légitimement voudront profiter aussi librement que possible d’un séjour cher payé. Dans cet esprit la « formule magique » suisse (conseils de direction avec nombre impair de membres et pluralité d’opinions ou de compétences) est un modèle auquel nous tenons et que nous nous efforcerons de faire comprendre et adopter. Cependant les dangers réels d’un accident provoqué ou non par maladresse, imposeront des contraintes et quelques restrictions à la liberté individuelle. Il y aura sur Mars des impératifs vitaux concernant la communauté toute entière qu’on ne pourra transgresser (tenant à la propreté et au recyclage, à la consommation d’énergie, à la préservation des sites de recherche planétologique). Dans ces domaines des règles très strictes s’appliqueront et les personnes responsables des départements opérationnels en charge de chacune des activités considérées comme vitale auront un droit de véto sur toute action ou initiative qu’ils considéreraient périlleuse.

Lorsque Elon Musk aura concrétisé son projet de Starship+Super-Heavy, la porte sera ouverte et la faisabilité technologique confortée. Il ne manquera plus que la volonté mais sans doute est-elle déjà présente et suffisamment puissante chez lui-même et certains autres qui ont les moyens financiers de la transformer en action. Ce seront eux les moteurs de la réalisation du projet. Les agences suivront.

Illustration de titre: un secteur de la cité martienne, crédit Richard Heidmann: (1) rangées d’habitats (30 mètres carré par personne); (2) serres; (3) sas; (4) et (5) dômes de rencontres et d’échanges; (6) champ de panneaux solaires.

L’apport de Michel Mayor et Didier Queloz à la Connaissance : comme un précieux rameau de corail

Michel Mayor et Didier Queloz ont été et sont sûrement encore, à la fois des pionniers et des scientifiques rigoureux, au plus haut niveau sur l’échelle académique et disposant d’une base intellectuelle aussi solide qu’il est possible de se constituer. C’est dotés de ces deux qualités, qu’ils ont pu être si originaux et efficaces dans l’innovation, ce qui leur a permis d’être remarqués et récompensés par la Fondation Nobel. Ils font partie de ces personnes sans doute rares qui sont à la pointe des connaissances de leur domaine et qui sont capables de les faire progresser encore, en créant d’autres canaux que ceux qu’ils ont suivis pour se former. Lors de leur découverte, ils correspondaient sans doute parfaitement à leur époque et étaient en phase totale avec les capacités technologiques existantes mais ce qui les a distingués de leurs collègues c’est qu’ils ont osé la nouveauté en exploitant les nouvelles voies possibles d’exploration.

Au-delà de l’observation directe, impossible alors, toujours très difficile aujourd’hui et potentiellement limitée aux systèmes stellaires les plus proches (« leur » étoile, « 51 Pegasi », n’est qu’à 51 années-lumière du Soleil) et aux planètes les plus grosses de ces systèmes, la « méthode des vitesses radiales » était en effet une possibilité latente pour la détection des exoplanètes (la théorie avait été développée dès 1952 par l’astronome Russo-Américain Otto Struve). On connaissait parfaitement l’effet Doppler-Fizeau indiquant le déplacement d’un astre par rapport à l’observateur terrestre et il était logique de penser que les planètes devaient avoir une influence sur leur étoile de ce point de vue en raison de leur masse. Il fallait évidemment disposer des instruments d’observation capables de discerner les effets infimes de ce jeu de masses génératrices chacune d’une signature identifiante et en 1952 on ne les avait pas! Les progrès technologiques des années 1980 permettaient de sortir de la théorie et Michel Mayor et Didier Queloz surent saisir l’opportunité. En l’occurrence ce fut un spectrographe à haute résolution (« spectrographe échelle* » ELODIE installé en 1993 au foyer du télescope de 1,93 m de diamètre de l’observatoire de Haute-Provence). Ils choisirent d’examiner les données recueillies par ce spectrographe et trouvèrent ce qu’ils recherchaient: les données reçues entre septembre 1994 et septembre 1995 de 51 Pegasi montraient que les raies de la lumière de l’étoile se déplaçaient vers le rouge puis se déplaçaient vers le bleu avec une amplitude égale et à des intervalles de temps égaux. Il fallait évidemment savoir regarder le spectrogramme et en déduire que la masse dont la gravité agissait sur celle de l’étoile ne pouvait être que celle d’une planète (en l’occurrence une « grosse » planète que l’on appelle maintenant un « Jupiter chaud » car elle est gazeuse et orbite très près de son étoile) mais nos chercheurs étaient « mûrs » pour le faire.

NB : Comme vous pouvez le lire dans Wikipedia, « un spectrographe-échelle utilise un réseau de diffraction complété par un autre réseau, ou un prisme, ou un grisme. L’axe de dispersion du second élément est placé à 90° du premier. Par conséquent, la lumière est captée par un point d’entrée, et non par une fente. Le premier réseau disperse à de très hauts ordres ; l’image obtenue après cette première dispersion est donc une superposition des ordres de dispersion ».

Donc le saut vers l’identification d’ exoplanètes par la méthode des vitesses radiales n’aurait pas été possible avant la fin des années 1980 mais, devenu possible, il fallait que « quelqu’un » comprenne le potentiel des nouveaux instruments d’observation et choisissent de les appliquer à la recherche de cet objet. Là est le génie de ces deux hommes, aujourd’hui récompensés.

Pour généraliser, on peut dire que le principe de l’astronomie ou de l’astrophysique (pour être plus conforme à ce que la première est devenue) c’est d’être constamment aux limites extrêmes. Il s’agit d’observer, de raisonner et de déduire en parvenant aux marges des possibilités observationnelles. Ainsi on refroidit les instruments près du zéro absolu pour pouvoir distinguer les ondes significatives, porteuses de signatures thermiques extrêmement faibles. Ou, comme James Peebles, l’autre prix Nobel de Physique 2019, on observe le fonds diffus cosmologique et l’espace lointain distordu par le temps et on en déduit les grandes structures de l’Univers et les forces qui possiblement l’animent. Ou encore, avec nos lauréats suisses, on observe les déplacements des étoiles par rapport au centre de masse (barycentre) de leur système, provoqués par leurs compagnons planétaires trop petits pour être visibles directement, pour déduire leur existence avec leurs caractéristiques de masse et d’orbite. On va ensuite, munis de ces observations, tenter de les observer, toujours indirectement, par la baisse de luminosité qu’ils vont causer à l’étoile devant laquelle ils passent. Cette « approche » complémentaire, dite « méthode des transits » (partiellement occultants), nous permet de connaître la taille de la planète et d’en déduire évidemment sa densité et sa nature, gazeuse (« Jupiter chaud ») ou rocheuse (« super-Terre »).

NB : la planète 51 Pegasi-b a finalement été observée directement et sa lumière réfléchie analysée en avril 2015, grâce au spectrographe HARPS installé sur le télescope de 3,6 m de diamètre de l’ESO à La Silla (Chili).

La Connaissance est comme un rameau ou une fleur de corail. Elle se construit sur une accumulation (comme la « colonie de coraux »), elle émerveille par ses couleurs et son éclat et elle contribue aussi au renforcement de la structure dont elle est sortie pour servir ensuite de support à d’autres fleurs…mais elle peut mourir si les conditions environnementales se détériorent. Des hommes formés aux plus hautes spéculations intellectuelles, membres d’une communauté scientifique à l’esprit critique aiguisé, toujours doivent la porter, la développer et la transmettre. Didier Queloz et Michel Mayor ont fait leur part, sans s’arrêter à leur premier succès. Des chercheurs plus jeunes ont continué, continuent, continueront et amplifieront leurs travaux. Le rôle de leur environnement humain, universitaire* ou non, est de permettre que le processus se poursuive et que la Connaissance se renforce et se diffuse, partout où cela est possible. Heureusement les institutions scientifiques suisses sont bien vivantes et « à la pointe » de l’enseignement et de la recherche (rappelons que l’EPFL est au 18ème rang du classement international “QS”, le plus médiatisé). Il semble par ailleurs que la Suisse soit très fière de ses scientifiques et de ses institutions de recherche et qu’il y ait dans le pays tout entier un solide consensus populaire pour les soutenir.

*Didier Queloz et Michel Mayor ont des liens étroits avec les institutions universitaires de Suisse romande, Université de Genève, Université de Lausanne, EPFL. Pour donner un peu plus de substance à ce court article, je vous donne ci-dessous des liens qui vous en diront plus sur les recherches de l’un et de l’autre et sur leurs relations avec l’EPFL et l’Unige (à noter que le directeur d’eSpace à l’EPFL, Jean-Paul Kneib, est aussi astrophysicien et en charge de son laboratoire d’astrophysique, le LASTRO) :

https://actu.epfl.ch/news/this-nobel-prize-makes-epfl-s-astrophysicists-prou/

https://www.rts.ch/play/tv/12h45/video/rendez-vous-de-la-presse-mayor-et-queloz-couronnes-du-prix-nobel-de-physique?id=10777321

Image de titre : principe de la méthode des vitesses radiales, crédit ESO.

Si nous le voulons il y aura au moins une planète-B mais il n’y a pas d’humanité-B

Nos contemporains conscients doivent effectuer une révolution copernicienne. Encore plus que la Terre, notre « planète-A », ce qui compte c’est la vie, notre vie ou plutôt celle de notre espèce, petite pousse d’un rameau perdu à l’extrémité de notre arbre phylogénétique et sa concrétion la plus aboutie.

Bien entendu la Terre est notre mère et nous vivons toujours d’elle comme des enfants non sevrés. Il n’est pas question de déprécier son importance et de ne pas faire tout notre possible pour ne pas l’épuiser, la faire vieillir prématurément, l’enlaidir. Nous devons prendre soin d’elle avec sollicitude et avec amour.

Mais un jour, certains d’entre nous devront partir pour porter ailleurs la vie qu’elle nous a donnée. Le refuser ferait de ceux qui en seront capables, des ingrats ou des jouisseurs égoïstes et paresseux.

Bien sûr nous ne pourrons tous partir et certains partiront et mourront. Toutes les graines ne germent pas.

Ce que je veux dire c’est que de toute façon nous sommes uniques et que cela nous oblige. La probabilité d’une autre espèce consciente, intelligente, communicante et constructrice dans notre petit coin de l’Univers est extrêmement réduite et aucune autre (s’il en existe) ne partagera notre histoire, nos sentiments qui font que nous sommes des êtres humains et ne pourra remplacer l’accumulation des créations intellectuelles dont nous sommes porteurs et que nous voulons préserver, transférer à nos descendants.

La planète-B n’est pas étiquetée comme telle, nulle carte ne l’indique, mais elle le deviendra si nous l’adaptons au moins en petite partie à nos besoins vitaux, si nous nous adaptons nous-mêmes aux contraintes qu’elle nous imposera et si nous nous y établissons. Et il y en aura plusieurs si nous décidons de « partir ». Sa première version sera évidemment Mars puisque nous savons aujourd’hui que nous disposerions du nécessaire pour y survivre, donc y vivre et y prospérer. Et ensuite il y en aura d’autres. Chaque fois ce sera difficile, encore plus difficile que difficile, mais à chaque étape notre technologie aura évolué et nous permettra d’aller plus loin et de « faire mieux ».

A chaque époque ses défis.  Nous avons jadis quitté l’Afrique (ou le « Paradis ») et sa douceur de vivre pour aller vers le Nord, aux nuits froides, aux longs hivers sans fruits et aux forêts désertes de nos semblables mais pleines de dangers et de dragons supposés plus que réels. D’autres se sont lancés sur leurs pirogues, des rives du continent eurasiatique ou du bout de l’archipel indonésien, à l’assaut de l’Océan Pacifique sans savoir s’ils trouveraient une autre terre pour les accueillir une fois que leurs provisions seraient consommées. Les derniers d’entre eux avec Hotu-Matua sont arrivés jusqu’à Rappa-Nui après avoir bu leur dernière goutte d’eau douce et les avant-derniers, Alacaloufes, descendus depuis le détroit de Béring dans ce qui deviendra l’Amérique, sont parvenus à l’autre bord du monde et y sont restés puisque de l’autre côté il n’y avait plus rien qu’un continent de glace où il ne pouvaient pas vivre.

Nous avons atteint l’âge du départ vers les étoiles et à notre tour il faut maintenant oser partir.

NB : Remerciement à mon ami Patrick Sibon, de Marseille, qui a évoqué cette idée d’humanité-B. Si on la considère, tout change. Encore plus que la planète c’est notre humanité qu’il faut sauver car cette dernière est encore plus précieuse que son support. La Terre vide d’hommes n’auraient littéralement aucun sens puisque le sens est en nous.

Image de titre :

Mars au lever du Soleil (vue d’artiste): pourquoi ne pas aller s’installer sur notre planète voisine ? Cela vous effraie-t-il ? Moi, non et je ne suis pas le seul. Donc, “nous” irons !

Mars notre premier pas vers la Liberté + lien vers présentation d’Elon Musk du 28 septembre

Aller sur Mars n’est pas une fin en soi, c’est entreprendre de vivre en dehors de notre planète avec l’espoir que cela conduise notre espèce humaine à fleurir un jour partout dans l’Univers, repoussant au plus loin possible notre mort certaine. Nous le valons bien !

Beaucoup de critiques de l’exploration de Mars par vols habités, disent que les robots « feraient beaucoup mieux » ou, pour les plus conciliants, « aussi bien » que l’homme, le travail de recherche scientifique que certains partisans de cette exploration humaine mettent en avant pour justifier leur exigence d’aller sur place. Ils ont tort car l’homme avec le robot aurait beaucoup plus d’efficacité que le robot sans l’homme. N’oublions pas le problème de la distance entre les deux planètes qui impose absolument, du fait de la finitude de la vitesse de la lumière, un décalage (« time-lag ») entre le moment où l’on donne un ordre à une machine et le moment où il est exécuté et ensuite celui où l’on reçoit l’information sur ce qui a été exécuté. Mais là n’est pas le vrai problème et la vraie motivation du vol habité car on est bien obligé pour les « terres » plus lointaines que Mars de recourir aux seules machines et on obtient quand même des résultats intéressants même s’ils le sont moins et qu’on les obtient plus lentement que si ces machines étaient « accompagnées ». Non, le vrai problème est que la seule exploration scientifique pour l’accroissement de nos connaissances ne nous fait pas nécessairement « sortir de notre berceau » comme le disait le fondateur de l’astronautique, Konstantin Tsiolkovsky au début du XXème siècle et que ce que nous voulons, nous les « Martiens-terrestres », c’est bien que l’humanité sorte de son berceau.

Cela ne veut pas dire que nous voulons demain que des hordes de Terriens en surnombre sur leur planète s’embarquent pour la planète Mars, la « terraforme » et la couvre de maisons (on dit des « habitats »), d’usines et de routes, pour le simple plaisir de continuer ailleurs ce que nous faisons sur Terre et de détruire Mars comme nous avons déjà pas mal endommagé la Terre (bien que la trajectoire semble aujourd’hui infléchie par une prise de conscience générale). Ce n’est pas si simpliste et de toute façon ce ne serait pas possible car le transport coûtera toujours cher et les « facilités de vie », absolument nécessaires compte tenu des conditions extrêmes imposées par l’environnement martien, ne seront pas si « faciles » à construire et qu’il faudra beaucoup de temps pour le faire.

Non ! Ce qu’on peut envisager c’est une lente progression de notre installation sur Mars et, au début du moins, une sélection très exigeante des candidats pour y participer. Il faudra en effet que les gens soient d’abord compétents car le « support-vie » de toute vie sera extrêmement coûteux et on ne paiera que le voyage de ceux qui seront indispensables au fonctionnement de la « Cité ». Il faudra qu’il soit aussi ingénieux, adaptables et inventifs car ils devront faire face à toutes sortes de situations inévitablement imprévues avec des moyens limités sans pouvoir recourir à l’aide matérielle de la Terre. Il faudra aussi qu’ils aient un caractère d’acier, non parce qu’ils « seront loin de la Terre » mais parce qu’il sera capital de faire face avec sang-froid à ces problèmes sans être inhibés par leurs difficultés ou les dangers qu’ils impliquent. Et il faudra encore que la personne qui bénéficie de la sélection ait un sentiment de responsabilité qui dans tous les cas la pousse à donner en retour un service aussi bon que ses capacités lui permettent ; ce sera absolument indispensable au fonctionnement de la colonie puisque, la population étant très réduite, très peu sinon lui seul, pourront le fournir.

Mais cette installation sur Mars ne pourra pas être simplement une prouesse technologique. Elle le sera indubitablement mais si elle n’était que cela, elle ne pourrait pas avoir de continuité dans la longue durée. C’est sans doute en partie la raison pour laquelle l’aventure lunaire a été sans lendemain (à ce jour). Ce que nous voulons c’est que les hommes que nous enverrons sur Mars soient des fondateurs avec une vision. Cette vision c’est celle qu’avec Carl Sagan on peut faire germer puis cultiver dans son esprit en se retournant vers la Terre quand on s’en éloigne, en réalisant que toute l’humanité, passée et présente, est là sur ce pâle petit point bleu. Cela peut donner le vertige et cela générer sans doute de l’inquiétude si ce n’est de l’angoisse mais cela peut aussi donner de la fierté et de la force. Comment ne pas être fiers de certains, nombreux, accomplissements de l’homme et comment accepter que tout ce qu’on a créé de sublime sur Terre puisse disparaître un jour du fait de la vulnérabilité de ce petit point bleu ou plutôt de sa cognosphère* qui sur une période très brève, quelques milliers d’années, infime fraction de temps au regard des 4,567 milliards d’années de notre histoire, s’est développée à sa surface. Comment accepter qu’un jour personne ne puisse plus ressentir l’émotion et les sentiments suscités par la musique de Vivaldi, un poème de Baudelaire, une tragédie de Shakespeare, la lecture des Evangiles, celle de l’Odyssée ou simplement la beauté d’un coucher de soleil sur une dune plantée d’ajoncs au bord de la mer avec à ses côtés la femme qu’on aime (vous avez le droit de remplacer les miennes par vos propres justifications, selon votre sensibilité et votre culture) ?!

*ensemble des individus conscients et communicants.

C’est donc notre devoir en temps qu’êtres humains de porter cette flamme pour la conserver aussi longtemps que nous le permettront nos forces, comme nos ancêtres préhistoriques portaient leurs braises dans un petit réceptacle de pierre et de bois dur et qu’il nourrissait sans cesse de peur qu’elles ne s’éteignent. Ce ne sera pas facile et ce ne se fera pas sur un chemin rectiligne et déjà tracé. A chaque époque cela dépendra des progrès de notre technologie et de notre envie de continuer à vivre.

Cela doit commencer par Mars parce que tout simplement c’est la seule planète où l’on puisse envisager aujourd’hui de le faire compte tenu de la distance accessible malgré le danger des radiations et compte tenu des ressources qu’elle peut nous offrir. Mais cela ne doit pas s’arrêter à Mars. Un jour nous pourrons aller plus loin et il faudra aller plus loin. Un jour nous pourrons construire des îles de l’espace comme en a rêvé Gerard O’Neill et il faudra construire ces îles. Un jour nous pourrons nous embarquer pour aller ailleurs, vers une autre planète orbitant une autre étoile dans la ceinture habitable de notre Voie Lactée et peut-être un jour, inimaginable aujourd’hui, encore plus loin et il faudra aller toujours plus loin. Nous serons partout, toujours plus inventifs et plus créatifs. Il y aura des échecs et il y aura des drames mais il y aura aussi des merveilles et mille fleurs écloront dans l’espace. Nous avons un potentiel extraordinaire. Nous sommes sans doute ce que la Nature a produit de plus complexe, de plus intelligent et de plus sensible (et si ce n’est pas exact, nous devons faire « comme si »). Nous avons donc un devoir vis-à-vis d’Elle (certains l’appellent autrement et je n’ai pas de problème avec ça) et vis-à-vis de tous ceux qui nous ont porté jusqu’ici, et nous devons absolument honorer cette obligation.

Alors un jour « nos descendants » qui ne seront sans doute plus « humains » au sens où nous l’entendons aujourd’hui car à chaque génération l’évolution empoigne nos gênes animés par l’ardente nécessité de survivre et de transmettre, et les triture et les transforme dans ce processus complexe sinon étrange que l’on comprend mieux maintenant avec la prise de conscience de la force homéostatique qui l’anime, mais « nos descendants » tout de même dans la mesure où ils auront gardé l’aptitude aux sentiments que nous leur aurons transmis et qui auront essaimé sur une multitude de planètes, chacune devenue autonome et différente, se retourneront vers leur passé qui se perdra dans les brumes du Temps et, à la lueur du magnifique spectacle de notre Soleil transformé en géante rouge et enflée au maximum avant de se transformer en nébuleuse planétaire, ils auront une pensée pour leur planète d’origine disparaissant dans son enfer et ils nous diront merci pour leur vie et leur Liberté.

NB: Maintenant que nous connaissons mieux notre environnement spatial (qu’il y a, disons, une cinquantaine d’années) on peut dire qu’il y a sans doute des planètes-B (et que Mars pourrait faire l’affaire), mais qu’il n’y a pas d’« Humanité-B ». Je développerai bientôt ce thème.

Image de titre : nébuleuse ouverte NGC2818 (à environ 10.000 années-lumière de “chez nous”). Notre Soleil en fin de vie s’effondrera sur lui-même et rejettera gaz et matière en une coque plus ou moins sphérique qui se dilatera peu à peu autour de lui dans l’espace. Crédit NASA, ESA et l’équipe Hubble Heritage (STScl/AURA).

Image ci-dessous : pale petit point bleu : photo de la terre prise en 1990 par la sonde Voyager 1, à environ 6,5 milliards de km (distance moyenne de Pluton), crédit NASA/JPL-CalTech. C’est cette photo qui a inspiré le titre du livre de Carl Sagan, « Pale Blue Dot : a vision of the human future in Space » (1994). Le point bleu se trouve dans la bande la plus claire, à 40% du bas de l’image.

Image ci-dessous (vue d’artiste): Dans 5 milliards d’années, notre Soleil enflé en géante rouge et la Terre; crédits : Mark Garlick/HELAS

Elon Musk a fait le point hier, Samedi 28, sur son projet Starship + SuperHeavy. Je vous donne le lien vers sa présentation sur Youtube. Je suis heureux de constater que nous sommes tout à fait dans le même état d’esprit qu’exprimé dans l’article ci-dessus. NB: la présentation qui dure 43 minutes a été suivie de questions / réponses (à partir de 48’50). Enjoy!

 https://www.spacex.com/webcast

 

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 09 26

Le télescope SKA un projet pharaonique exaltant qui pose des défis à hauteur de son ampleur

La communauté mondiale des astrophysiciens s’est lancée dans un projet pharaonique qui pousse les limites de ce que l’on peut faire sur Terre, le télescope « SKA », « Square Kilometer Array ». Il s’agit de construire dans l’hémisphère Sud (Australie et Afrique du Sud) un ensemble d’antennes recueillant les ondes radio et fonctionnant en interférométrie. Cet ensemble sera gigantesque puisqu’il doit s’étendre sur deux continents, pour atteindre un km2 de surface de collecte ce qui lui permettra d’être 50 fois plus sensible que n’importe quel autre télescope radio. Il commence à voir un début de réalisation avec les sous-réseaux « ASKAP », « MeerKAT » et « MWA », trois « pathfinders » (précurseurs), en Australie et en Afrique du Sud, mais les défis sont importants et ils ne sont pas que technologiques bien que la réalisation du projet suppose l’application de technologies de pointe; ils sont aussi organisationnels et environnementaux en raison de son ampleur même.

NB : il n’est pas question ici de développer en profondeur un projet extrêmement complexe mais simplement d’attirer l’attention sur ce qui en fera un instrument très riche en potentialités et qui marquera l’histoire de l’astronomie.

Tout a commencé par des réflexions à la fin des années 1980 puis concrètement en 1993 avec la création d’un groupe de travail sur les grands télescopes et en 1997 avec le lancement d’un programme d’étude technologique en vue de la réalisation d’un « très grand radiotélescope ». Ensuite, en mai 2012, ce fut la signature d’un Memorandum of Understanding, puis la mise en place d’un « Project Office » (en Grande Bretagne, à l’Observatoire de Jodrell Bank, près de Manchester). Après d’autres (nombreuses) réunions et préparatifs, la décision fut prise de construire ce qui fut appelé le « SKA-1 » sur deux sites, en Australie Occidentale, à Mileura, près de Meekatharra, un endroit « perdu » au Nord de Perth dans le « désert de Murchison », pour les basses fréquences, et en Afrique du Sud, dans le désert du Karoo, au Nord Est du Cap ; le choix de l’hémisphère Sud et d’endroits peu peuplés étant justifié par les faibles interférences radio (« bruits ») provenant d’activités humaines.

Le coordinateur, SKAO (« O » pour « Organization »), vise à constituer une organisation intergouvernementale (« IGO »), la seconde en importance dans le domaine de l’astronomie après l’ESO (European Southern Observatory) qui s’appellera aussi le SKAO (mais avec “O” pour Observatory). Un traité international est en cours de signature pour la régir. En 2020 l’IGO SKAObservatory prendra la suite du SKAOrganization et entreprendra la construction puis la gestion du “télescope” mais cela n’empêche pas l’ « Organization » de fonctionner déjà, sous la forme d’un « Project Office » (« Bureau de projet ») car il faut finaliser la phase préparatoire! Pour accomplir cette phase, le « Bureau » a lancé en 2013 un appel budgeté à 200 millions de dollars (et financés par les agences nationales) à la communauté scientifique du SKAOrganization pour faire préciser la définition du projet par onze consortia internationaux : Assembly, Integration and Verification (AIV), Central Signal Processor (CSP), Dish (DSH), Infrastructure Australia (INFRA AU), Infrastructure South Africa (INFRA SAU), Low-Frequency Aperture Array (LFAA), Mid-Frequency Aperture Array (MFAA), Signal and Data Transport (SaDT), Science Data Processor (SDP), Telescope Manager (TM), Wideband Single Pixel Feeds (WBSPF). Les seuls noms de ces différents « groupes » aident à comprendre (un peu) la nature de leurs travaux puisque ce sont ceux de tous les domaines où il convient d’affiner les préparations.

NB: Les pays membres du SKAO ont fluctué avec le temps. Aujourd’hui, l’Australie, l’Afrique du Sud, la Chine, l’Italie, le Portugal, les Pays-Bas et le Royaume-Unis ont confirmé leur adhésion au SKAObservatory en signant le traité de l’IGO qui l’institue. L’Allemagne, l’Espagne et la France (CNRS avec l’Observatoire de Paris, l’Observatoire de la Côte d’Azur, l’université de Bordeaux et l’Université d’Orléans) sont membres spéciaux de SKAOrg. Comme la Suisse (EPFL, UniGE, UniZH, FHNV, CSCS), le Japon et la Corée, L’Inde et la Suède, également membres du SKAOrganization, ils se préparent à signer le traité de l’IGO du SKA Observatory mais n’en sont donc pas encore des membres confirmés. Le Canada est membre de SKAOrg depuis longtemps et décidé à continuer, mais refuse de signer un traité pour un projet scientifique, il deviendra membre associé de l’IGO. 

Techniquement le SKA doit couvrir continûment un spectre de fréquences (une « bande passante ») très large (longueurs d’ondes centimétriques à métriques) allant de 50 MHz à 14 GHz dans ses deux premières phases de construction et, dans une troisième phase, jusqu’à 30 GHz. La première phase, “SKA-1”, couvrira les fréquences basses (50 à 350 MHz, « SKA1-LOW ») et moyennes (350 MHz à 14 GHz, « SKA1-MID ») et doit permettre d’ici 2028 l’établissement d’environ 10% de la surface de collecte totale prévue. Plusieurs types d’antennes seront utilisés ; des antennes dipolaires pour les fréquences basses et des antennes paraboliques de 15 mètres de diamètre pour les fréquences allant de 350 MHz à 14 GHz (dans un premier temps). Bien entendu ces antennes ne seront que la « partie visible de l’iceberg » puisqu’il faudra coordonner leur fonctionnement, recueillir les données collectées (plus de 7 terabits/seconde !), les traiter (« traitement du signal »), c’est-à-dire les corréler, les stocker, les analyser, et tout cela sur des quantités énormes ce qui suppose des moyens informatiques extrêmement puissants (plusieurs centaine de pétaflop/seconde de vitesse de calcul). La clef de voûte de l’ensemble sera le « télescope manager » (TM) cité plus haut qui fait aussi l’objet d’un groupe de travail.

L’ensemble des antennes doit être implanté dans deux régions (Afrique du Sud et Australie), chaque station étant divisée en trois zones : un centre, réseau dense comprenant la moitié de la surface collectrice ; une région intermédiaire et une région extérieure, en bras spiraux. Plus on s’éloignera du centre plus la densité diminuera. Les antennes de fréquences basses seront réparties entre les zones centrale et intermédiaire, les régions externes ne contenant que des antennes à fréquences moyennes ou hautes. En Australie, l’observatoire basse fréquence comprendra 512 stations sur une base de 40 à 65 km. Chaque station comprendra 256 antennes, soit un total d’environ 130.000 antennes. En Afrique du Sud, l’objectif de la première phase est d’ajouter 133 antennes paraboliques aux 64 déjà installées dans le site précurseur MeerKAT. Elles seront disposées sur une base d’une envergure de 150 km. Le but ultime est d’étendre le SKA jusqu’à 10 fois cette taille, avec un million d’antennes basses fréquences et 2000 antennes paraboliques moyennes et hautes fréquences. Les travaux doivent commencer en 2023, et dès 2028, à l’achèvement de la première phase, on devrait avoir décuplé la capacité d’observation disponible sur Terre aujourd’hui en fréquences radio, et ceci pour un investissement proche de 1 milliard d’euros.

Pour le moment nous en sommes aux installations « précurseures » (« pathfinder »). C’est le cas de ASKAP en Australie occidentale (réseau de 36 antennes paraboliques) et c’est aussi le cas de MeerKAT en Afrique du Sud (réseau de 64 antennes paraboliques) et de Murchison Widefield Array  au Nord de Perth en Australie Occidentale (au Murchison Radio Astronomy Laboratory) pour les basses fréquences (70 à 300 MHz).

Les objectifs de SKA rejoignent assez largement ceux de CHIME et de DSA. Il s’agit de détecter la présence et l’évolution de l’hydrogène dans l’espace galactique et intergalactique lointain avec fort décalage vers le rouge, aux environs de 5 à 6 milliards d’années (il s’agit toujours d’observer la période pendant laquelle l’accélération de l’expansion a commencé à se manifester, quelques 7 milliards d’années après le Big-Bang), en ciblant la raie à 21 cm de l’hydrogène neutre (HI). Les télescopes plus anciens pouvant difficilement étudier cet élément au-delà de 2,5 milliards d’années. Il s’agit aussi d’observer la formation des premiers objets lumineux dans l’Univers, l’« Aube cosmique », après l’« Age des ténèbres », 100 à 180 millions d’années après le Big-bang, quand la concentration de matière sous l’effet de la force de gravité (s’exerçant sur les masses d’hydrogène et d’hélium) a provoqué l’apparition des premières étoiles et des premières galaxies. C’est à cette époque de concentration que se sont formés les vides entre les masses et que l’hydrogène s’est ionisé en conséquence de l’activité des premières étoiles. L’observation est difficile compte tenu de la distance et de l’environnement moins ancien beaucoup plus lumineux mais elle sera très utile car elle doit permettre d’obtenir une carte de l’Univers après le fond diffus cosmologique (CMB) et donc de mieux suivre son évolution en donnant une autre étape de référence dans son histoire. Il s’agit aussi de chronométrer simultanément autant de pulsars que possible, ces objets ultra-denses (étoiles à neutrons) qui émettent avec une périodicité extrêmement régulière (stabilité allant jusqu’à 10-16) des rayonnements radio très brefs et très rapides. Cette régularité en fait de véritables « phares cosmiques » et toute infime perturbation dans le temps de transmission du signal de l’un d’entre eux par rapport au temps de transmission du signal des autres, pourra indiquer le passage d’ondes gravitationnelles. Il s’agit encore d’étudier les champs magnétiques divers qui existent dans l’espace pour toutes sortes de raisons et par conséquent non seulement leur densité mais aussi leur source de magnétisation. Les mesures seront faites en observant les rotations imprimées par les champs ionisés sur la polarisation des ondes radio (rotation de Faraday).

NB : le signal provenant de sources radio est polarisé linéairement et sa direction de polarisation tourne lorsqu’il traverse un plasma magnétisé avant d’atteindre nos télescopes terrestres. Cette rotation dépend de la longueur d’onde observée et d’une grandeur (la « Rotation Measure », RM) qui dépend de l’intensité du champ magnétique traversé.

Le grand avantage du SKA par rapport aux meilleurs radiotélescopes actuels, c’est qu’il portera le nombre de sources radio avec une mesure RM, de quelques 40 000 à plusieurs millions. Un autre intérêt du SKA, d’autant qu’il aura un très large champs de vision avec une très large bande passante, est qu’il pourra percevoir un grand nombre de FRB (“Fast Radio Bursts” ou “Sursauts Radio Rapides”, voir mon article du 31/08/2019). Il l’a déjà « annoncé » en fournissant avec son précurseur australien ASKAP, les coordonnées d’un des premiers FRB identifié. Pour être plus précis (mais moins clair!), il faut mentionner que le Bureau du SKAO a constitué une structure de recherche en onze autres groupe de travail. Là aussi vous ne verrez que des noms mais ils donnent également une idée de tous les sujets qui vont être approfondis : Epoque de re-ionisation, Cosmologie,  Physique fondamentale avec pulsars, Univers transitoire, Continuum extragalactique, magnétisme cosmique, berceau de la vie, hydrogène neutre dans les galaxies, raies spectrales extragalactiques, notre galaxie, physique solaire et héliosphérique. Vaste programme!

« Petit » problème : toutes ces installations utilisent des surfaces au sol très importantes. Même dans les régions désertiques il y a des gens et certains n’aiment pas qu’on vienne occuper leur territoire. Les indigènes nomades du désert du Karoo en Afrique du Sud ont ainsi exprimé leur opposition au projet. Ceci fait penser aux objections soulevées par les Hawaïens qui se sont élevés, pour des raisons religieuses, contre l’implantation du Thirty Meter Telescope au sommet du Mont Mauna Kea sur l’ile de Hawaï ou, pour des raisons « écologiques » (mais qu’on peut assimiler à des raisons religieuses!), sur le sommet de l’île de La Palma aux Canaries (« back-up » du Mauna Kea).

L’intérêt du SKA est donc son immense champs de vision et sa très large bande passante. C’est incontestablement une révolution en astronomie. Nul doute que si le projet est mené à son terme, il nous apportera une quantité extraordinaire d’informations et que nous acquerrons donc (entre autres !) une connaissance bien meilleure des masses d’hydrogène et de leur répartition, donc de la Matière en général qui nous entoure. Le seul vrai problème est d’ordre environnemental. Dans tous les domaines ce sujet est maintenant à prendre en considération puisque les populations en sont devenues conscientes et si elles ne le sont pas spontanément, nul doute que certains savent susciter leur attention et la stimuler. On est passé d’une indifférence totale il y a une trentaine d’années à une opposition de nature quasi allergique aujourd’hui. Raison de plus pour penser à l’espace, lieu immense et libre, pour à l’avenir y développer davantage nos observatoires, avec des groupes de télescopes coordonnés flottant dans le vide, comme celle du projet Darwin, ou avec des installations sur la face cachée de la Lune, à l’abri donc de toute pollution par l’activité terrestre et facilement accessible depuis la Terre ou, bien sûr, des installations à la surface de Mars.

Image de titre : cœur de SKA sur 5 km de diamètre MeerKAT. Vue d’artiste, crédit Wikipedia commons.

Image ci-dessous : vue aérienne des antennes du précurseur ASKAP de SKA. Crédit SKAO. Au premier plan les antennes basses-fréquences.

Photos ci-dessous: le Champ d’antennes paraboliques de MeerkAT, crédit SKAO.

Liens :

https://www.skatelescope.org/

https://switzerland.skatelescope.org/welcome/

https://ska-france.oca.eu/fr/ska/le-projet

http://savethekaroo.com/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 09 20

Le programme DSA ou la course à l’astronomie des sursauts radio rapides

Les demi-cylindres de CHIME ne sont pas les seuls outils capables de nous permettre d’observer les sursauts radio rapides (« FRB ») provenant du fond de l’espace. Le DSA (Deep Synoptic* Array) est un programme d’observations en ondes radio lancé par la NSF (la National Science Foundation, américaine) en septembre 2018 et qui est réalisé par le CalTech (California Institute of Technology)**. CHIME et le DSA n’ont pas tout à fait les mêmes objectifs et ne reposent pas sur les mêmes concepts. Nous verrons avec le temps quel est le meilleur système. Le résultat sera donné par le nombre d’identifications effectuées et la qualité des informations reçues pour la compréhension du phénomène. On peut s’attendre de toute façon à une complémentarité.

*Pour la compréhension du terme « DSA », je reprends la définition de « synoptique » donnée sur Wikipedia: Un synoptique désigne une présentation, en général graphique, qui permet de saisir d’un simple coup d’œil un ensemble d’informations liées ou un système complexe. L’adjectif synoptique évoque l’idée de « voir en un même ensemble ».

**NB : Je n’oublie pas le projet SKA (Square Kilometer Array) dont je parlerai une autre fois (le début de construction de sa phase 1 est prévu pour 2020, celle de sa phase 2, pour 2030).

Le DSA se déroulera en trois phases. DSA-10 est un « pathfinder », un précurseur. Il sera suivi de DSA-110, un développement, en cours (2019/2020), et de DSA-2000, un aboutissement lointain. NB : Les nombres indiquent les antennes impliquées dans les phases successives. DSA-10 devait montrer qu’il pouvait, à l’aveugle, détecter des FRB ultra-brillants, jusqu’à 51 Jy/ms (le « jansky », « Jy », est l’unité de densité de flux radiatif, la milliseconde, « ms », est l’unité de temps utilisée pour mesurer la durée des FRB) et les localiser avec une précision inférieur à +/- 2,5 secondes d’arc ; il devait indiquer aussi ce que devraient être les équipements à utiliser pour les phases suivantes. Mission remplie!

Les réflecteurs paraboliques des antennes DSA ont 4,5 mètre de diamètre, ce qui dans l’esprit des concepteurs correspondait à une bonne probabilité de collecte de FRB compte tenu (1) de la distribution des densités de flux radiatif attendus, 51 Jy/ms correspondant à deux des FRB les plus puissants déjà observés et (2) de leur fonctionnement en interférométrie, ce qui permet une meilleure résolution et une bonne couverture simultanée de la voûte céleste. Ce dernier point est très important puisqu’il s’agit de capter des événements furtifs, les FRB ne durant que quelques millisecondes et la plupart d’entre eux ne se répétant pas du tout, les autres de façon erratique. Les fréquences choisies vont de 1280 MHz à 1530 MHz (bande passante de 250 MHz), ce qui est peut-être un peu étroit mais tient compte de l’environnement radio du site (les parasites terrestres – « le bruit » – sur ces longueurs d’ondes, sont nombreux !). Heureusement les antennes permettant cette couverture sont assez standards et disponibles (du moins pour le début du programme). Elles sont également montées sur des infrastructures existantes, sur le site très bien équipé de l’OVRO (Owens Valley Radio Observatory) du CalTech (Owens Valley se trouve en Californie, pas très loin de la Death Valley…un endroit « tranquille »!). Le travail de préparation du cadre de fonctionnement est donc simplifié. Cela explique la rapidité avec laquelle DSA-10 est devenu opérationnel et cela a représenté aussi une économie importante (pour la première phase mais aussi pour la suite). Mais bien entendu un tel dispositif ne comprend pas que des antennes. Elles alimentent des instruments de traitement, un corrélateur très puissant, un stockage d’alerte et un système de transmission des données qui lui sont spécifiques. Pour le suivi, la coopération de la communauté astronomique mondiale est évidemment souhaitée et assurée (encore une fois, l’identification de la source est très difficile compte tenu de la brièveté du signal) et toute alerte reçue à l’OVRO est retransmise en urgence via le système de communication « VOEvent » à tous les observatoires susceptibles de l’utiliser. Ce système spécifique à la communauté des astronomes et astrophysiciens, adopté en 2006 par l’IVOA (International Virtual Observatory Alliance) utilise un langage informatique standard (« XML » pour « Extensible Markup Language ») de telle sorte que le message soit immédiatement transmissible par internet et compréhensible aussi bien par la machine que par l’homme. Il répond aussi précisément et brièvement que possible aux questions “who are the authors /what has been observed / how the event has been observed /where-when it has been observed /why the authors think it is of interest”. On voit donc que le DSA s’intègre parfaitement à l’arborescence de la recherche astronomique mondiale en profitant de la technologie actuelle sous ses différents aspects et capacités.

Le « pathfinder » a tout de suite permis de tester positivement la pertinence du projet DSA puisque le 23 mai il a identifié son premier FRB, le « FRB190523 », puis localisé sa source, une galaxie massive, visible dans un redshift (décalage vers le rouge dû à la vitesse d’éloignement résultant de l’expansion de l’Univers) de 0,66 et donc à une distance de quelques 8 milliards d’années-lumière (la vérification de la localisation a été faite visuellement par l’instrument LRIS du télescope Keck 1 joint par VOEevent). La suite (phase « 110 ») est déjà en cours de développement (comme dit ci-dessus, années 2019/2020). Pour ce faire, CalTech continuera à utiliser les installations d’OVRO. Les antennes de cette phase seront un peu plus grandes (4,75 m de diamètre). Une fois réalisée, la DSA-110 offrira une surface de collecte égale à un télescope virtuel de 2,25 km de diamètre. Les équipements d’alimentation aussi bien que de traitement seront améliorés. On s’attend, en trois ans, à ce qu’il identifie plus de 300 FRB (100 par an) localisés avec la même précision (< 3 arc-secondes).

Pour simplifier on peut dire que CHIME a été conçu pour cartographier l’hydrogène de l’espace profond alors que DSA a été conçu pour traquer les FRB. Mais de par sa configuration, CHIME peut aussi percevoir des FRB et cela complétera sa mission portant sur l’hydrogène. Autrement dit CHIME privilégie l’ampleur de la surface couverte d’un seul coup, à la précision, et DSA privilégie la précision, à la surface couverte immédiatement, chaque système s’efforçant de pallier sa “faiblesse”. Maintenant que nous avons pris conscience du phénomène FRB, nous trouvons les moyens de mieux les connaître. L’astronomie basée sur ces phénomènes est bien partie et on en entendra beaucoup parler.

Illustration de titre : quelques-unes des antennes de DSA-10 sur le site de l’OVRO, photo crédit CalTech.

image ci-dessous: signal d’un FRB perçu par le DSA-10. Dans l’image de droite on voit très bien le “sursaut” radio. L’axe des abscisses indique le temps en millisecondes et l’événement s’est “étalé” sur deux millisecondes. L’axe des ordonnées est en jansky et l’on voit clairement que l’intensité de flux radiatifs du FRB a été de l’ordre de trois fois l’intensité des autres radiations reçues pendant la période considérée. Crédit : Caltech / OVRO / V.Ravi.

Liens :

https://www.nsf.gov/awardsearch/showAward?AWD_ID=1836018

https://authors.library.caltech.edu/96602/2/1907.01542.pdf

http://www.astro.caltech.edu/~vikram/bne_talks/ravi.pdf

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 09 10

CHIME, un télescope pour nous renseigner sur l’histoire et le futur de l’univers

CHIME (Canadian Hydrogen Intensity Mapping Experiment) est un nouveau* télescope conçu, construit et installé au Canada (Colombie britannique) par une collaboration canadienne** dont l’objet premier est la « cartographie de l’intensité de l’hydrogène  dans l’espace ». Grâce à sa surface de collecte étendue et sa large bande passante, il observera aussi d’autres événements et phénomènes, comme les FRB (sursauts-radio-rapides) ou la « respiration » de certains pulsars (chronométrage), l’ensemble pouvant être complémentaire. Son but ultime est la recherche d’une explication de l’accélération de l’expansion de l’Univers.

*première lumière, septembre 2017 et première collecte scientifique, septembre 2018 ;

**Université de Colombie Britannique, Université McGill, Université de Toronto, Observatoire fédéral de radio-astrophysique.

Dans l’univers primitif tel qu’il naît à la lumière 379.000 ans après le Big-bang, il y avait 75% d’hydrogène et 25% d’hélium. Les « métaux », éléments plus lourds, ne sont apparus qu’après, résultat de la nucléosynthèse dans le cœur des étoiles les plus massives, éléments dispersés ensuite par leur explosion en supernovæ. Pendant les 7 premiers milliards d’années, la force de gravité semble suffisamment forte pour que l’expansion de l’univers décélère. Mais depuis environ 7 milliards d’années l’univers est « passé en mode » expansion accélérée, entraîné par une force non encore identifiée et qu’on appelle, faute de mieux, l’énergie sombre.

L’élément hydrogène est donc capital. En repérant ses zones de concentration, on peut avoir une meilleure approximation de la quantité de matière dans l’univers (baryonique et autres), de l’histoire de l’univers puisque la finitude de la vitesse de la lumière nous donne accès à son passé et, sur ces bases, de nos perspectives. C’est ce qui a motivé la construction du télescope CHIME (on pourrait aussi dire et ce serait plus correct, « observatoire » ou « capteur » puisqu’il n’utilise pas les ondes du spectre lumineux mais les ondes radio mais gardons « télescope » par facilité de langage). Ce télescope va rechercher les émissions de longueur d’onde 21 cm, longueur dans laquelle l’hydrogène se révèle, émissions provenant d’avant le passage de la décélération à l’accélération de l’expansion (redshift de 0,8 à 2,5 c’est-à-dire 2,5 à 7 Milliards d’années après le Big-bang). Les données collectées vont pouvoir être rapprochées de celles que l’on a sur la « surface-de-dernière-diffusion »* (avant la création des premières étoiles et des galaxies) imagée par le télescope Planck et aussi sur l’univers environnant (donc « actuel »).

*appelé aussi « fond-diffus-cosmologique » ou « CMB » (« Microwave Background ») parce que les ondes de cette époque ralenties par le Temps, nous parviennent dans cette gamme de longueurs d’ondes.

Les principes de base exploités sont au nombre de cinq :

(1) Les oscillations-acoustiques-des-baryons (« BAO », jolie expression !) circulant dans le plasma primordial (mais pas après), se sont figées dans les anisotropies de la CMB, exprimant les différences de densité alors existantes. (NB: rappelons que les perturbations mécaniques dans un milieu élastique sont associées à des ondes sonores mais évidemment il n’y avait à l’époque aucune oreille pour les entendre!).

(2) Les zones les plus denses ont, à ce « dernier » moment, donné naissance par « découplage » des photons de la matière baryonique, aux « graines » à partir desquelles se sont formées les premières galaxies avec concentration de matière par gravité autour de ces graines, y compris leur environnement gazeux, et avec réémission de photons. Au départ des anisotropies, se formèrent des « coquilles » sphériques dans lesquelles ce découplage s’effectua et ces coquilles s’étendirent à partir de leur centre, jusqu’au découplage effectif puisque la libération photons/matière baryonique ne pouvait intervenir qu’à partir d’une certaine diminution de la densité du plasma primitif (la matière noire, non réactive avec la matière baryonique, restant probablement dans la coquille, « probablement » puisque comme vous le savez, cette matière noire n’a pas été identifiée et n’est connue que par son effet de masse).

(3) Les coquilles doivent avoir toutes les mêmes dimensions puisque leur rayon a été déterminé par l’ « horizon-de-son » des ondes acoustiques partant des derniers BAO, jusqu’à leur disparition (horizon) en raison du découplage résultant d’une même dilution de la densité de la CMB (à l’origine homogène sauf anisotropies déterminées par les BAO).

(4) Ce rayon a dû croître avec l’expansion suivant des vitesses différentes selon la période (décélération puis accélération).

(5) la comparaison des dimensions des rayons selon les périodes doit nous donner les variations des vitesses d’expansion.

Il y aurait une alternative à l’observation simultanée des masses d’hydrogène pour mieux connaître les masses, leur répartition et leur évolution dans l’univers, ce serait de mesurer la position et la distance respectives de chaque galaxie dans un échantillon (donc de les séparer et de les compter), puis d’étendre cet échantillon à l’univers observable. La cartographie avec les données de  CHIME sera d’une résolution nettement moins fine mais suffisante pour mesurer l’évolution des BAO. Elle est par ailleurs beaucoup plus rapide et permettra de couvrir plus vite un volume d’espace beaucoup plus grand.

CHIME va aussi permettre, grâce à sa grande surface de collecte, d’observer les FRB et les pulsars. Pour ce qui est des FRB, CHIME non seulement peut apporter une meilleure compréhension du phénomène du fait du nombre d’observations (on espère des douzaines chaque année) mais peut aussi compléter l’observation des nuages d’hydrogène par réception des rayonnements des ondes de 21 cm, en fournissant des données sur la densité des nuages traversés par les FRB, un des éléments évidemment constitutifs de leur masse. Avec les pulsars, dont l’intensité de luminosité peut être évaluée, CHIME va pouvoir disposer de davantage de balises disséminées dans le ciel. Dans le contexte de l’étude de l’accélération de l’expansion de l’univers, ils peuvent être utilisés comme des « standard candles », c’est-à-dire des moyens de mesurer l’éloignement des régions étudiées. Par ailleurs, la cadence élevée des observations fournies par l’instrument permettra d’étudier les propriétés des étoiles à neutrons (source des pulsars) et du gaz ionisé en milieu interstellaire, de vérifier les prévisions de la théorie de la relativité générale ainsi que de percevoir éventuellement des ondes gravitationnelles (décalage dans le temps d’une pulsation à nous parvenir).

Venons-en à l’instrument lui-même.

Il est situé à (en fait il constitue) la DRAO (Dominion Radio Astrophysical Observatory), en Colombie britannique, établissement national pour l’astronomie canadienne, opéré par le Conseil National de Recherche du Canada. L’endroit est isolé (pas très loin du lac Skaha) afin d’éviter les ondes radio parasites provenant de l’activité humaine. Il faut d’abord noter son originalité comme le montre d’ailleurs l’image de titre. Il s’agit de quatre demi-cylindres juxtaposés, de 20 mètres de largeur au total, sur 100 mètres de longueur fonctionnant en interférométrie. Ils sont constitués d’un treillis renvoyant vers un axe focal (la barre dominant le centre des demi-cylindres) comprenant 256 antennes à double polarisation pour chaque demi-cylindres. A noter que contrairement à une antenne « classique » il n’y a aucune pièce mobile mais que l’alignement des antennes permet d’observer un secteur étendu du ciel sans devoir cibler autant le point étudié. Les signaux sont renforcés et clarifiés par des amplificateurs à faible bruit développés pour l’industrie des téléphones portables (excellent exemple d’inter-stimulation des recherches technologiques !). Les 2048 signaux reçus (256 antennes x 2 polarisations x 4 demi-cylindres) sont transmis à un premier moteur (« F-Engine ») qui les retransmet ensuite à un second moteur (« X-Engine »). Les avantages de ce dispositif est outre de permettre une très grande couverture simultanée du ciel (200° carrés à tout moment), d’explorer progressivement, du fait de la rotation de la Terre, une bande très large du ciel de l’hémisphère Nord (les demi-cylindres sont orientés Nord-Sud). Dans le même esprit on a choisi une large bande passante.

Le F-Engine, chargé de la collation des données, numérise chaque signal d’entrée analogique, 800 millions de fois par seconde et convertit chaque microseconde de données (2048 prélèvements) en un spectre de fréquences de 1024 éléments allant de 400 à 800 MHz, avec une résolution de 0,39 MHz. Ensuite les données sont réparties par bande de fréquences et transmises au X-Engine. Ce dernier, chargé de la corrélation des signaux dans l’espace, est constitué de nœuds de calculs, chacun traitant 4 des 1024 bandes de fréquence. Les nœuds recueillent les signaux provenant du F-Engine et forment à chaque milliseconde le produit du signal d’entrée de chaque télescope avec celui de tous les autres signaux d’entrée. Ces « matrices de corrélation » sont moyennées sur une durée de quelques secondes et écrites sur un disque avant d’être transformées en carte du ciel.

En dehors de ce dispositif de base, CHIME est comme indiqué plus haut, équipé d’un « outil de recherche de FRB » et d’un « moniteur de chronométrage » de pulsars, tous deux situés en aval du X-Engine. Les 1024 éléments ou faisceaux sont balayés en permanence et chaque faisceau est échantillonné 1000 fois par seconde à 16.000 fréquences différentes par le F-Engine qui les transmets au X-Engine. Après les avoir traitées, Le X-Engine les transmets à l’outil de recherche de FRB, logé sur place. L’équipement comprend 128 nœuds de calcul et chacun sonde huit faisceaux de fréquences. Lorsqu’il est identifié, les données du candidat FRB sont combinées aux informations provenant des 1024 faisceaux pour déterminer sa position, la distance de sa source et ses autres caractéristiques (intensité, puissance…). Une alerte automatique est envoyée à l’équipe CHIME et à la communauté scientifique susceptible d’effectuer un suivi rapide. Comme dit plus haut, CHIME observe aussi des pulsars. Un « instrument de surveillance de pulsars » reçoit dix des faisceaux de suivi du ciel produits par le X-Engine. Ils sont échantillonnés à très haute résolution et transmis du X-Engine au « moniteur de chronométrage de pulsars » qui les traite en temps réel en utilisant dix nœuds de calculs dédiés. L’analyse en est faite par Calcul Canada.

Grâce à nos avancées technologiques et à la finitude de la vitesse de la lumière nous avons la chance de pouvoir étudier l’univers à plusieurs époques de son histoire et ce sur une très grande profondeur. On « attaque » le sujet sous plusieurs angles, l’imagination humaine n’est pas en défaut et heureusement l’ingénierie est « à la hauteur ». Reste les sujets qui fâchent, la matière noire et l’énergie sombre. CHIME nous donnera peut-être une idée de la force réelle de cette dernière…mais de sa nature ? Cela reste à voir.

Image de titre : photo de CHIME. Les demi cylindres fonctionnent par couple, chaque paire de réflecteurs cylindriques renvoyant les données à un F-Engine : crédit collaboration CHIME.

Image ci-dessous :

L’échelle des oscillations acoustiques des baryons représentée par le cercle blanc d’une de leurs “coquilles” à différentes époques : il y a 3,8 milliards d’années, il y a 5,5 milliards d’années et il y a 13,7 milliards d’années (à la surface du CMB, à gauche). Leur volume est de plus en plus important en raison de l’expansion de l’univers. C’est la comparaison dans le temps qui donnera une idée plus précise de l’accélération. Crédit : E.M. Huff, SDSS-III, South Pole Telescope, Z. Rostomian.

Liens:

https://chime-experiment.ca/?ln=fr

https://en.wikipedia.org/wiki/Canadian_Hydrogen_Intensity_Mapping_Experiment

https://en.wikipedia.org/wiki/Baryon_acoustic_oscillations

https://en.wikipedia.org/wiki/Decoupling_(cosmology)

 

J’ai entrepris ce blog il y a quatre ans, le 4 septembre 2015. Pour y (re)trouver un autre article sur un sujet qui vous intéresse parmi les 222 publiés, cliquez sur:

Index L’appel de Mars 19 09 01

Les sursauts-radios-rapides ne nous apportent pas de message des petits-hommes-verts, ils nous ouvrent une nouvelle fenêtre sur l’Univers

Ces dernières semaines une nouvelle concernant l’astronomie a largement circulé dans les médias, celle de la réception par les « grandes oreilles » de nos observatoires, de « sursauts-radio-rapides » ou « FRB » (« Fast Radio Burst »). Comme à l’accoutumé quand une nouvelle concerne l’espace, beaucoup de Terriens restés fortement anthropocentrés, ont voulu y voir des messages que s’échangeraient entre elles d’autres civilisations, évidemment supérieures mais quand même comparables à la nôtre. Il n’en est rien mais ces émissions perçues depuis peu (la première observation, par David Narkevic* date de 2007) et toujours mal expliquées le sont maintenant un peu plus et elles sont fort intéressantes en elles-mêmes et utiles pour comprendre notre Univers. De quoi s’agit-il ?

*David Narkevic était membre de l’équipe dirigée par Duncan Lorimer, professeur de physique et d’astronomie au Centre des ondes gravitationnelles et de cosmologie de l’Université de Virginie Occidentale. Les FRB sont aussi appelés « sursauts Lorimer ».

La petite centaine de FRB répertoriés à ce jour sont des émissions photoniques dans des longueurs d’ondes radio du spectre électromagnétique. Ils ne durent que quelques millisecondes. Il faut bien avoir conscience que les FRB ne sont pas les seuls événements dont l’existence nous est signifiée par un message cosmique très bref. Nous recevons en effet des signaux tout aussi furtifs sous forme d’autres rayonnements qui sont soit dans d’autres longueurs d’ondes du spectre électromagnétique (rayons X, rayons gamma, flash lumineux), soit émis par d’autres « messagers » (neutrinos, ondes gravitationnelles, rayons cosmiques et notamment particules à très haute énergie). Par chance, contrairement à d’autres rayonnements électromagnétiques de longueurs d’ondes plus courtes ou plus longues, ceux qui nous intéressent ici, les SHF (pour « Supra-Haute Fréquence », longueurs d’ondes allant d’environ 0,8 à 10 cm et de fréquences allant d’environ 1 à 30 gigahertz), parviennent jusqu’à la surface de la Terre sans trop de distorsions (mais elle sont très utilisées par l’homme ce qui peut les brouiller !). La durée d’un FRB est probablement fonction de la surface de la source. Celle du premier (FRB121102, observé par David Narkevic), qui a duré 10 millisecondes, indique que la source était toute petite, seulement 3000 km de diamètre, donc très puissante. Ce FRB comme les suivants, était par ailleurs caractérisé par une forte dispersion, c’est-à-dire un fort décalage temporel des diverses fréquences constituant le rayonnement, et une certaine torsion des rayonnements. Une émission n’est en effet évidemment pas constituée d’une seule fréquence et plus faible est la fréquence (longueur d’ondes élevée), plus les ondes porteuses de la fréquence peuvent être ralenties par le milieu spatial s’il y a « quelque chose » dans ce milieu spatial. Or, précisément, le « vide » comprend (entre autres, sans prendre en considération les particules virtuelles ou la matière noire, toujours hypothétique) des électrons libres et des noyaux d’atomes divers, à commencer par des protons, tous éléments ionisés qui se comportent comme un plasma du fait de la vitesse du rayonnement (la densité est accentuée par la quasi simultanéité des « rencontres » du fait de la vitesse et malgré la rareté). La dispersion et la torsion sont donc des indicateurs de la distance et une forte dispersion et torsion, indiquent une origine lointaine. Compte tenu du « redshift » (effet Doppler-Fizeau) du spectre des rayonnements reçus on a pu estimer les sources de FRB identifiées à plusieurs milliards d’années-lumière.

Le fait que nous n’ayons remarqué à ce jour que peu de FRB ne veut pas dire qu’ils ne soient pas fréquents (on les estime à un millier par jour). Il faut plutôt envisager que nous n’avions pas jusqu’à présent les moyens techniques de les percevoir. Il faut en effet disposer d’un récepteur d’ondes radio focalisé sur le point du ciel d’où ils proviennent, précisément au moment où ils arrivent sur Terre (un large champ est évidemment utile pour ne pas « manquer » le signal), et collecter en même temps un autre message (ou après avoir collecté suffisamment d’informations lors de la première observation) de la même source (lumineux si possible) pour croiser l’information. Dans le cas du FRB190523 l’étude a pu être poursuivie par l’instrument LRIS (Low Resolution Imaging Spectrometer) de l’Observatoire Keck. Le récepteur focalisé ce sont les systèmes radio interférométriques comme celui de l’ASKAP en Australie (« Australian Square Kilometer Array Pathfinder »), dispositif comprenant 36 antennes ou le « DSA-10 » d’« OVRO » (« Deep Synoptic Array prototype » de l’« Owen Valley Radio Observatory », en Californie) qui est dédié à cette recherche mais ne dispose actuellement encore que de 10 antennes ou aussi le télescope CHIME, du Canada, très particulier, dont je vous parlerai bientôt. C’est avec le DSA-110 que l’on a perçu tout récemment le dernier FRB (FRB190523, cf la revue Nature du 2 Juillet 2019). NB : le prototype, opérationnel depuis juin 2017, sera étendu à un dispositif de 110 antennes (« DSA 110 ») d’ici à deux ans et un jour peut-être à un DSA-2000. Selon Vikram Ravi (Caltech/UC Berkeley) le découvreur de ce dernier FRB, la puissance de résolution doit atteindre l’équivalent d’une antenne physique d’un diamètre de 1609 mètres (un mile) pour être efficace (il faut donc un minimum d’antennes et si on dispose de plus, c’est mieux). Tous ces systèmes interférométriques (y compris ALMA qui est utilisé plutôt dans les longueurs d’ondes millimétriques) sont relativement nouveaux car leur développement suppose une puissance informatique qui émerge actuellement et il faut aussi que les systèmes soient attentifs et immédiatement réactifs à des événements très discrets.

On parvient donc à capter de plus en plus de ces FRB mais on a encore beaucoup de mal à identifier leurs sources (la précision de la position requise est de l’ordre du 1/1000 de degré sur la voûte céleste). En fait on n’a pu le faire que trois fois (pour les FRB121102, FRB 180924 et FRB190523). FRB 121102 est une galaxie petite et active (qualifié de telle pour sa production abondante d’étoiles) située à 3 milliards d’années-lumière ; FRB 180924 est une galaxie « grosse et calme » à 4 milliards d’années-lumière; FRB 190523 une autre galaxie « grosse et calme » située à 7,9 milliards d’années-lumière. Ce qui a justifié l’émoi médiatique récent c’est que précisément on a pu, grâce à l’ASKAP, identifier la source de FRB180924, ce qui a donné lieu à un beau « document de recherche » (« research paper », voir lien ci-dessous) de K.W Bannister et al. (Australie). Il a été suivi une semaine après, par un autre document (voir lien ci-dessous) de Vikram Ravi et al. qui propose également une source pour FRB190523 (observée le 13 mai 2019). Pour comprendre un signal la connaissance et donc d’abord le repérage de la source est essentiel. Ce qui est remarquable et « ouvre des horizons », c’est que FRB180924 et FRB190523 sont des événements uniques (ils ne se sont exprimés qu’une seule fois) alors que le FRB121102 est une multiplicité d’événements provenant d’une même source, c’est-à-dire que la même source a émis plusieurs fois un signal (mais de façon non périodique). Cette différence sous-entend que les causes des FRB pourraient entrer dans des catégories différentes. Les restes extrêmement condensés de supernovæ sont de bons candidats pour les FRB multiples (FRB121102, plus petite que la Voie-Lactée produit plus d’étoiles qu’elle). Pour les FRB uniques, il semble que les galaxies sources soient beaucoup plus massives, et peu actives. Une explication réconciliant les deux serait dans les deux cas des étoiles à neutrons mais dans des environnements différents : l’effondrement récent d’une étoile massive qui donne un magnétar (éruption de plasma d’une étoile à neutrons jeune et hautement magnétique) ou deux étoiles à neutrons anciennes dans un système binaire quand la distance orbital entre elles se réduit.

L’intérêt de ces signaux comme le disent K.W Banister et al. c’est aussi (surtout ?) qu’ils peuvent nous permettre du fait de leur dispersion et de leur torsion, d’être informés des milieux qu’ils traversent. Un des grands problèmes de la cosmologie actuelle c’est en effet que la matière baryonique ne constitue que 4% de l’énergie que comprend l’univers et que seulement 10% en est fourni par les gaz froids et les étoiles des galaxies. On cherche le « reste », des atomes de métal mélangés à l’hydrogène et à l’hélium résultat de l’explosion d’étoiles ou de noyaux galactiques actifs. Une partie (30%?), le « CGM », « Circum-Galactic Medium » doit être un plasma diffus autour des galaxies (leur “halo”) et une autre partie (60%?), l’« IGM », « Medium Intergalactique », doit flotter entre les galaxies. Par ailleurs la magnétisation même faible mais sur une très longue durée provoque une torsion (« effet Faraday ») des différentes fréquences du rayonnement et cela aussi est porteur d’informations. Les flashs radios que nous recevons d’un peu partout dans l’univers pourront donc nous renseigner sur la densité et la magnétisation de ce plasma et « rien que » cela apporterait une pièce importante au puzzle que nous essayons d’assembler.

La « science des FRB » est donc une discipline nouvelle. Il faudra pour mieux les connaître disposer de beaucoup plus d’observations (une centaine d’observations dont 3 identifications, ce n’est vraiment pas beaucoup !). Lorsqu’on aura ces observations on pourra mieux connaître les étoiles à neutrons mais on pourra aussi affiner la carte en 3D de la répartition des masses dans l’univers donc approcher de la compréhension de l’ensemble du système. Pour y parvenir, il y a déjà une capacité installée mais elle va s’étendre considérablement: le DSA-10 couvre 150 fois la surface de la Lune vue de la Terre et l’observatoire CHIME couvre un champ de vision instantané de 200° carré de la voûte céleste. Mais bientôt le DSA-110 puis le DSA-2000, tout comme le SKA, (Square Kilometer Array) successeur de l’ASKAP (ou plutôt qui intégrera l’ASKAP dans un ensemble mondial), donneront aux astronomes des capacités fantastiques par rapport à celles qui existent aujourd’hui.

De nos jours, il se passe toujours quelque chose de formidable en astronomie et l’ouverture d’une nouvelle fenêtre d’observations sur l’Univers vaut mieux que le bavardage insipide autour d’improbables petits hommes verts qui restent toujours un fantasme !

Image de titre : crédit Jingchuan Yu, Planétarium de Pékin. Les couleurs représentent le sursaut arrivant à différentes longueurs d’ondes (les plus longues, en rouge, arrivant plusieurs secondes après les plus courtes, bleues) en raison de la « dispersion » résultant de leur voyage au travers du plasma intergalactique. Vous remarquerez également la faible “torsion” (rotation) des rayonnements.

Image ci-dessous : Le prototype du Deep Synoptic Array (DSA-10) recherche les FRB dans une région de la voûte céleste de la taille de 150 fois la Lune (à gauche). Le DSA-10 peut localiser ces FRB avec une très haute résolution, les isolant jusqu’à une seule galaxie (au milieu). La photo à droite montre le profil du FRB, au-dessus de son spectre radio. Crédit : Caltech/OVRO/V.Ravi.

Liens:

https://www.nature.com/articles/d41586-019-02400-2

https://www.nature.com/articles/s41586-019-1389-7

https://public.nrao.edu/news/2015-gbt-frb/#PRimageSelected

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 08 18

La forêt amazonienne brûle et le président Bolsonaro s’en moque. Il faut l’arrêter, par tous les moyens !

Comme mes lecteurs le savent je suis opposé à l’extrémisme écologique et à ses excès mais quand il y a véritable urgence je le dis et je veux ici le crier aux Brésiliens : arrêter d’incendier la forêt tropicale ! Quelles que soient vos motivations, arrêtez-vous, arrêtez-vous tout de suite ! Nous n’avons pas à vous supplier, nous l’exigeons. Et si vous n’arrêtez pas, plus un seul des consommateurs de l’Europe et de l’Amérique du Nord n’achètera de vos produits car non seulement nous vous boycotterons mais nous boycotterons aussi les entreprises qui voudraient continuer à les acheter.

Ce que commet ou laisse commettre (ce qui revient au même) ce gouvernement Bolsonaro que vous avez élu c’est, au-delà d’être un crime contre l’humanité, un crime contre la vie même puisque non seulement l’homme est menacé mais aussi des milliers d’espèces vivantes avec lui. C’est notre planète, notre bien commun, auquel vous portez atteinte et cela est totalement inacceptable.

La forêt amazonienne, pas plus que l’Océan ou les glaces de l’Antarctique, n’appartient à quiconque. Ce n’est pas parce qu’un pape ignorant a décrété en juin 1494 que ce qui est aujourd’hui la terre brésilienne, appartiendrait au Portugal que ce pays ou son successeur le Brésil ont un droit de mort sur la forêt. Alexandre VI Borgia n’avait évidemment aucune notion d’écologie, ni d’ailleurs aucune moralité. Il « ne savait pas ce qu’il faisait » sur le plan de l’environnement mais néanmoins coupable de crime colonialiste (et d’autres), il est aujourd’hui très certainement en enfer (si l’enfer existe). Le président Bolsonaro, lui, sait qu’il laisse commettre un crime écologique d’une ampleur inégalée et il devrait réaliser qu’il prépare un enfer bien réel sur Terre pour tous ses contemporains. Nous refusons d’être les victimes de sa bêtise et de son arrogance.

L’état de fait, reconnu aujourd’hui par la communauté internationale, c’est que le Brésil a juridiction sur la plus grande partie de la forêt amazonienne mais ce n’est qu’un état de fait. L’emprise que le gouvernement brésilien a sur ce territoire, n’est justifiée par rien d’autre que cet état de fait et il n’y a aucune raison qu’elle se perpétue dès lors qu’il n’en a plus la légitimité. Le droit d’abusus n’existe plus depuis très longtemps sur ce type de biens communs. Etant donné le traitement infligé à cette forêt par cette administration, il est du devoir des dirigeants des pays « civilisés » d’intervenir et de remettre ce qu’il en reste entre des mains respectueuses de sa richesse biologique. Ce pourrait être simplement une fédération des tribus indiennes qui l’habitent, sous protection d’une institution internationale dotée des moyens de défense appropriés contre les voisins prédateurs. Cette institution internationale devrait naturellement dépendre des Nations Unies.

Alors, sommes-nous loin de l’exploration spatiale ?

Non, car ce que nous enseigne la connaissance de l’Univers c’est combien notre petit point bleu perdu dans l’immensité est riche de ses particularités probablement extrêmement rares, qu’il est peut-être unique et qu’il est à ce titre infiniment précieux. Nous les êtres humains, infimes produits de cette Terre et du Soleil, portés par l’évolution de la vie pendant des milliards d’années, à partir de rien jusqu’à émerger à la conscience aux termes d’une histoire de complexifications inouïes, impossibles à reproduire, nous avons un devoir, celui d’être dignes de cette histoire unique et de la transmettre à nos descendants pour qu’elle dure sur cette Terre et sur d’autres, aussi longtemps que dureront les étoiles dans le ciel. Nous sommes tous ensemble sur le même bateau et si le capitaine devient fou il n’a plus le droit d’exercer le pouvoir qui lui a été confié. C’est bien sûr aux Brésiliens de se révolter mais à défaut, c’est aux autres peuples du monde, par nécessité vitale, de saisir et mettre à fond de cale de notre vaisseau spatial le criminel qui les dirige.

D’autres gouvernements de pays équatoriaux autour du globe devraient aussi se sentir visés !

Image de titre: Fumées des feux de forêt d’Amazonie vues de l’espace, crédit NASA Worldview, Earth Observing System Data and Information System (EOSDIS).

Image ci-dessous: même phénomène au sol. L’image même de l’injustifiable, de l’horreur et de l’inacceptable!

La sonde Parker de la NASA observe la fournaise solaire à une distance jamais approchée

Le 1er septembre, la sonde Parker (« Parker Solar Probe », «PSP») approchera du Soleil à une distance jamais atteinte* par aucun instrument actif d’observation construit par l’homme. Ce n’est pas seulement un exploit technique, c’est aussi la promesse d’une avancée capitale de nos connaissances dans un domaine scientifique essentiel à notre survie et à notre action dans l’univers.

*voir en fin d’article l’illustration présentant les orbites prévues et l’abaissement progressif du périhélie.

La NASA a lancé la sonde le 12 août 2018, en présence de l’homme dont elle porte le nom, Eugene Parker, astrophysicien, spécialiste du Soleil. C’est la première fois qu’elle donne à une de ses sondes ou satellites le nom d’une personne encore vivante (Eugene Parker est né en 1927). C’est un magnifique hommage à une personne exceptionnelle car Eugene Parker a été un pionnier et, comme souvent, assez mal reçu par ses pairs (il n’a été publié que grâce à l’intervention de Subrahmanyan Chandrasekhar!). La raison de cet hommage est que c’est au milieu des années 1950 qu’Eugene Parker a en effet déduit de ses recherches théoriques, dénigrées à l’époque, l’existence d’un « vent solaire », d’une magnétosphère propre à l’astre et de sa forme (devenue « spirale de Parker »). Plus tard, en 1987, il a proposé une explication, acceptée largement aujourd’hui, de l’origine de la couronne solaire, les nano-éruptions (« nanoflares »).

Les objectifs scientifiques de la mission actuelle sont donc, naturellement, de vérifier la théorie et d’aller plus loin. Il s’agit plus précisément de :

-déterminer la structure et l’évolution des champs magnétiques à l’origine de la projection des particules du vent solaire (un plasma constitué de protons c’est-à-dire de noyaux d’hydrogène ionisés, et d’électrons) ;

-tracer les flux d’énergies provenant de la chromosphère pour comprendre le réchauffement de la couronne jusqu’à plusieurs millions de degrés alors que la température de surface évolue entre 4000 et 6000 K

*K = Kelvin, unité de base SI de température thermodynamique. Une variation de 1 K est équivalente à une variation de 1°C mais le point de départ est le zéro absolu (0 K correspond à -273,15°C).

-déterminer le processus à l’origine de l’accélération dans la couronne du transport des particules du vent solaire (NB : il passe dans l’environnement terrestre à une vitesse de 500 km/s) ;

-d’étudier autant que possible une étoile assez banale, relativement peu massive et située au milieu de la séquence principale de Hertzsprung-Russell, le Soleil étant la seule que l’on puisse approcher d’aussi près.

Pour atteindre ces objectifs, la sonde Parker dont le coordinateur de réalisation, opérateur de mission et utilisateur principal des données est le John Hopkins University Applied Physics Laboratory (responsable scientifique Arik Posner), a embarqué quatre « suites » d’instruments nommées SWEAP, ISIS, WISPR, FIELDS. Voyons leurs fonctions :

SWEAP (Solar Wind Electrons Alphas and Protons Investigation) aura pour but de compter les différents éléments du vent solaire et de mesurer leurs propriétés (vitesse, densité, température). L’instrument est en deux parties, complémentaires, la Solar Probe Cup, « SPC », un collecteur placé dans le cône tronqué derrière le bouclier thermique et le Solar Probe Analyser, « SPAN », placé dans la partie haute du cylindre de la sonde. Il a été développé par l’Université du Michigan avec le concours du Smithonian Astrophysical Observatory (Cambridge, Mass.) et de l’Université de Californie, Berkeley.

ISIS (Integrated Science Investigation of the Sun) observera les électrons, protons et ions lourds accélérés à des énergies élevées (10 KeV à 100 MeV) dans l’atmosphère coronale et les mettra en rapport avec le vent solaire et les structures coronales. L’instrument se trouve dans la partie haute du cylindre de la sonde, avant SWEAP-SPAN. Il a été développé principalement par l’Université Princeton.

WISPR (Wide Field Imagers for Solar Probe) est un groupe de télescopes qui prendront des photos de la couronne solaire et de la naissance de l’héliosphère pour capter tout événement, structure, dépôt, impact à l’approche et au passage de la sonde. L’instrument se trouve dans le bas du cylindre de la sonde, après SWEAP-SPC. Il a été développé par le Naval Research Laboratory.

FIELDS (Fields Experiment) effectuera des mesures directes des champs et ondes électriques et magnétiques, des flux de Poynting (qui indiquent la direction de propagation des ondes électromagnétiques), de la densité du plasma et des fluctuations de densité. L’instrument qui comprend plusieurs type de magnétomètres, se trouve sur la perche dans la queue de la sonde. Il a été développé par l’Université de Berkeley.

Compte tenu de ce qu’elle doit approcher au plus près de la Couronne, la difficulté majeure de la mission est de protéger efficacement la sonde de la chaleur. La Couronne à une forme variable en fonction des changements largement imprévisibles dans la configuration des lignes de champ magnétique. Elle peut s’étendre au-delà d’une dizaine de rayons solaires (Mercure évolue à 88 rayons solaires en moyenne) et sa température peut monter jusqu’à plusieurs millions de degrés (mais attention, la densité du plasma au contact serait très faible et donc l’effet chaleur réduit). Or la sonde Parker prévoit plusieurs passages au périhélie à 9,86 rayons solaires seulement. On a donc prévu une protection thermique extraordinaire, la « TPS » (Thermal Protection System). C’est un bouclier de 11,43cm d’épaisseur et 2,3 mètres de diamètre (permettant d’éviter que les émissions solaires atteignent directement les instruments et les équipements embarqués, sauf lors des prise de données) constitué de mousse de carbone enveloppée dans un composite carbone-carbone et recouvert, côté Soleil, d’une couche d’alumine. La sonde est aussi équipée d’un liquide refroidissant (de l’eau sous pression !). Cela permet de maintenir les instruments et les équipements à l’intérieur de la sonde à une température maximum de seulement 29°C lorsque la face vers le Soleil est portée à 1400 K (1126°C). Ses concepteurs ont prévu que la sonde puisse résister à des températures de 1650°C. Bien sûr il faut espérer éviter qu’elle se trouve prise dans les éjections d’une éruption solaire assez dense (une “CME” pour “Coronal Mass Ejection”) mais une partie de la solution est aussi la réduction du temps de passage dans l’enfer (la durée maximum de « séjour » à moins de 0,3 UA est de 110 heures). Par ailleurs l’architecture de vol est prévu pour que le bouclier fasse constamment face au disque solaire (les variations d’orientation doivent être inférieures à un degré) et en dessous de 0,1 UA (un tiers de la distance de Mercure au Soleil qui est à 88 rayons solaires du Soleil) les organes de prise de données sont exposés au minimum avec possibilité de les abriter à l’intérieur de la sonde lorsqu’ils ne sont pas utilisés. Les deux panneaux solaires, d’une surface totale de 1,55 m2 (la lumière est la source d’énergie de la sonde), sont rétractables et placés dans l’ombre du bouclier à l’approche du Soleil.

La mission a été prévue en fonction de ces exigences d’approche autant que possible et de protection autant que nécessaire. La maturation a été longue comme la plupart des missions spatiales. Elle a été prise en considération dès 1958 par le National Research Council mais elle n’est devenue une priorité forte qu’en 2003, pour être logée dans le programme « Living with a Star » de la NASA (la “star” c’est évidemment notre Soleil!). La première version, « Polar Solar Probe » en 2004 prévoyait de descendre jusqu’à 4 rayons solaires ; elle fut abandonnée car estimée trop chère (devisée à 1,1 milliards de dollars, hors lancement). Outre son ambition concernant l’approche, l’intérêt était d’observer la région des pôles du Soleil, ce qui aurait donné un point de vue utile du champs magnétique. Le nouveau projet, l’actuelle mission PSP, a été étudiée à partir de 2008. Cette fois-ci les chiffres ont été jugés plus acceptables et ils ont été effectivement acceptés, en 2014 : 750 millions plus 530 millions pour les études préliminaires, le lancement et la gestion opérationnelle. A noter, ce qui est rare, que la mission est quasi exclusivement américaine.

Le principe est de faire décrire à la sonde des orbites en ellipses dans le plan de l’écliptique, allant de l’orbite de Vénus à la face opposée du Soleil, en les resserrant progressivement en utilisant la planète Vénus pour la freiner (sept survols) et pour qu’elle puisse ainsi descendre plus profondément vers le Soleil. Au total, entre 2018 et 2025 la sonde doit décrire 24 ellipses tendant vers 88 jours chacune (seuls les dernières, plus courtes) et les 24 périhélies (passage au plus près du Soleil) doivent s’effectuer à moins de 0,17 UA (25 millions de km) de ce dernier dont 3 passages à 0,045 UA soit 9,68 rayons solaires ou 6,16 millions de km seulement. Il fera chaud ! Outre la chaleur un second problème est la vitesse de la sonde qu’il faut combiner avec la force d’attraction solaire. La sonde est arrivée à grande vitesse dans l’environnement de Vénus (nécessaire pour rejoindre la planète). Le second étage du lanceur Delta IV Heavy utilisé à cet effet est particulièrement puissant puisqu’il a donné au vaisseau spatial de 685 kg une vitesse de 12,4 km/s en plus de la vitesse de libération de 11,2 km/s. Le passage au périhélie est moins rapide (195 km/s au lieu de 308 km/s) pour la sonde Parker que pour la PSP ce qui permet de collecter plus de données (celles-ci sont bien entendu stockées dans la région du périhélie et diffusées vers la Terre – « science data downlink periods » – dès que la sonde se trouve dans un environnement sûr en allant vers son aphélie). Au cours du freinage la sonde devient plus sensible à l’attraction solaire (force de 274 m/s2 contre 9,8 m/s2 pour la Terre) et s’en approche. Le pilotage astronautique est très délicat ! Il s’agit de céder un peu de vitesse mais pas trop. Si l’on ralentissait trop à l’aphélie, la sonde serait capturée par le Soleil au périhélie et disparaîtrait corps et bien dans la fournaise.

Il y aura rapidement une suite ou si l’on préfère, un complément, aux observations de la sonde Parker puisque l’ESA doit lancer en 2020 la sonde Solar Orbiter. Celle-ci aura une orbite polaire mais s’approchera moins du Soleil, seulement à 55 rayons solaires. On déjeune avec le diable avec une très longue cuillère et on avance vers la table avec prudence ! Le passage au périhélie de la sonde Parker le 1er septembre sera le troisième, à 35 rayons solaires. Les 21 autres passages se feront de plus en plus près.

Illustration de titre : la sonde Parker à l’approche du Soleil (vue d’artiste) : crédit NASA/John Hopkins APL/Steve Gribben. Vous remarquerez les panneaux solaires mobiles sur le côté ; les antennes qui partent du bord du bouclier et la perche à l’arrière qui porte un magnétomètre.

illustration ci-dessous: les orbites de la sonde Parker. Vous remarquerez qu’elles se resserrent petit à petit, entre l’orbite de Vénus et le côté opposé du Soleil. Le troisième périhélie (1er septembre 2019) sera comme les deux premiers à 35 rayons solaires, les périhélies 4 et 5 seront à 27 Rs, les 6 et 7 à 20 Rs, les 8 et 9 à 15 Rs, les 10 à 16 à 11 ou 12 Rs, les 17 à 21 à 10 et les trois derniers, en-dessous de 10.

Illustration ci-dessous : orientation de la sonde et évolution du déploiement des panneaux solaires au cours de chaque orbite; crédit NASA /JHUAPL. Vous remarquerez que le bouclier thermique est toujours orienté vers le Soleil:

liens:

JHUAPL: http://parkersolarprobe.jhuapl.edu/index.php#the-mission

NASA (Goddard SFC): https://www.nasa.gov/content/goddard/parker-solar-probe

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 08 13