AMON un système global pour utiliser les ressources de l’astronomie multimessager

Au cours des dernières décennies, les astronomes ont réussi non seulement à capter l’ensemble du spectre des rayonnements électromagnétiques (EM), mais aussi, en parallèle, à commencer à capter d’autres « messagers spatiaux » : les ondes gravitationnelles (GW), les neutrinos à haute énergie (HEN), les rayons cosmiques et notamment les particules à très haute énergie (« UHECR »). Il s’agit maintenant de corréler les observations provenant de ces différents vecteurs pour obtenir une meilleure compréhension de leurs sources. C’est l’objet de l’« astronomie-multimessager ».

Une université, Pennsylvania State (« Penn State »), a pris l’initiative d’organiser cette concertation sur les signaux à haute énergie, a priori furtifs, quels que soient leurs messagers, en lançant le programme dénommé « AMON » (« Astrophysical Multimessenger Observatory Network »), en faisant un clin d’œil au dieu suprême égyptien qui était par essence un dieu omniprésent mais caché. Déjà de nombreux acteurs ont répondu positivement, dont plusieurs dont j’ai déjà parlé dans ce blog : ANTARES, FERMI, IceCube, LIGO, Pierre-Auger. Nous allons donc pouvoir profiter de ce nouvel espace multidimensionnel qui ne nous est rendu accessible que parce qu’en plus des progrès technologiques dans les différentes techniques d’observation, la science d’exploitation des données informatiques et celle des communications ont également progressé suffisamment. Il faut évidemment saisir et développer ce nouvel outil afin de connaître toujours mieux notre environnement spatial.

NB : AMON n’est pas la première entreprise de coordination mondiale des observations. Cette coordination existe à de multiples niveaux, notamment celui de l’interférométrie des observations radio (« EHT » pour « Event Horizon Telescope ») ou celui des observatoires d’ondes gravitationnelles (« LSC » pour « LIGO Scientific Collaboration ») ou encore, à un niveau purement technique, celui de l’« IVOA » (« International Virtual Observatory Alliance ») mais AMON est la première organisation qui s’efforce de réunir sur une même cible l’ensemble des moyens d’observations quelle que soit la nature de l’émission captée (incluant les ondes gravitationnelles et les neutrinos à haute énergie). Cette coordination se justifie d’autant plus que les émissions visées par AMON résultent d’événements qui peuvent avoir une durée d’expression perceptible sur Terre très courte et que la rapidité de réaction des observatoires est très importante pour en saisir au maximum les composants (nature, intensité et succession) avant qu’ils ne disparaissent.

Selon son site internet, AMON se fixe trois tâches :

(1) permettre aux observatoires participants de partager leurs données les uns avec les autres dans l’anonymat et la confidentialité les plus stricts et conformément à leurs procédures d’analyse à l’aveugle (la confidentialité et la propriété intellectuelle ne sont pas de vains mots chez les chercheurs !) ;

(2) améliorer la sensibilité combinée des observatoires participants, aux phénomènes astrophysiques passagers en leur permettant de rechercher les coïncidences dans leurs données marginales archivées, puis dans leurs données marginales en temps réel ;

(3) Permettre une imagerie de suivi de sources astrophysiques possibles avec une latence minima.

Les participants AMON sont classés en « déclencheurs », en « suiveurs » ou les deux. Les participants-déclencheurs sont généralement des observatoires disposant de télescopes/collecteurs à grand champ (qui couvrent une grande partie du ciel). Ils introduisent leur flux d’événements furtifs dans le système AMON. Ces événements sont traités pour rechercher des corrélations spatiales et temporelles menant à des « alertes AMON ». Les participants-suiveurs recherchent des contreparties électromagnétiques à ces alertes avec des télescopes/collecteurs à champ de « vision » plus étroits mais à haut débit.

Le cœur du système est le « Research Computing and Cyberinfrastructure group » (« RCC ») qui fait partie des « Information Technology Services » de Penn State. C’est ce « group » qui a lancé la coordination et qui la gère dans le cadre d’un « Memorundum of Understanding », « MoU » (daté dans sa version actuelle du 13 Novembre 2017). La coordination a été organisée selon une montée en puissance, comme un moteur qu’on rode. Il s’agissait d’abord de tester les algorithmes d’analyse à partir de données déjà recueillies ; ensuite de fonctionner en temps réel à l’intérieur du réseau des signataires et, à partir de l’été 2016, d’élargir les alertes au public via le réseau des alertes « GCN » (« Gamma-ray bursts Coordinate Network »), avec des règlements et des « garde-fous » permettant la coordination et le contrôle. Chaque alerte porte un numéro d’identification, les coordonnées de temps de l’observation, la direction, le lieu d’incidence (ou les caractéristiques permettant de le localiser), le nombre d’observatoires déclencheurs (les non-détections par certains qui auraient dû percevoir le signal dans le spectre qu’ils couvrent, sont également prises en compte) et une estimation de l’importance de l’évènement. Les communications utilisent un langage standard, VOEvent (adopté en 2006 par IVOA) conçu pour produire des messages compacts et facilement transmissibles.

Comme on parle ici de l’identification événements et non de processus continus et durables (du moins au niveau de notre perception), la vigilance ou ses corollaires la coordination et le recoupement aussi rapides que possible, sont indispensables. Il faut bien voir que cette démarche n’est possible que grâce aux observatoires capables d’utiliser des « messagers » différents mais que le recoupement avec les informations recueillies par les observatoires recevant les signaux électromagnétiques, aujourd’hui très nombreux, sont très importants de ce fait. La validité de cette démarche repose également sur les systèmes de communication modernes ultra rapides et capables de transporter quasi instantanément des données complexes mais claires, tout autour du monde. En ce sens l’astronomie multimessager est un enfant du siècle. Il était naturel de le concevoir mais comme dans toute conception, il a fallu une volonté pour la déclencher. Remercions donc Penn State de son initiative.

La première observation concluante utilisant AMON a eu lieu le 22 Septembre 2017. A cette date l’observatoire IceCube a collecté un neutrino dont l’identification telle qu’il l’avait « vue » dans ce rayonnement, fut immédiatement diffusée dans le réseau (IceCube s’était branché sur le réseau AMON en Avril 2016). Dans ce cadre les informations parvinrent en quelques secondes aux autres observateurs potentiels. La source logique selon les indications d’IceCube, un blazar situé à 3,7 milliards d’années-lumière (« TXS 0506+056 »), fut très rapidement constatée par le télescope spatial Swift de la NASA (dédié à l’observation des sursauts gamma), puis par le télescope spatial Fermi (en rayons X) et au sol par MAGIC (Major Atmospheric Gamma Imaging Cherenkov Telescope, en rayons gamma). Il fut repéré ensuite par des télescopes opérant dans d’autres zones du spectre électromagnétique. Au-delà de l’identité, on avait ainsi la preuve que les blazars pouvaient émettre des neutrinos en même temps que des rayons gamma et on avait pu observer la succession des émissions avec leur importance relative d’où on a pu déduire la puissance de l’événement, le redshift  en visuel de l’objet (décalage vers le rouge dû à l’effet Doppler-Fizeau) donnant par ailleurs la distance à notre système. L’expérience a donc été satisfaisante et très encourageante.

Image à la Une : Dans cette vue d’artiste, un blazar (qui pourrait être TXS 0506+056 !) émet des rayonnements dont des neutrinos (ν) et des rayons gamma (γ) , qui peuvent être détectés par IceCube comme par d’autres télescopes sur Terre et dans l’espace. Les blazars sont des cœurs actifs de galaxies avec un jet de matière et de rayonnements pointant perpendiculairement à leur plan orbital. Crédit IceCube/NASA.

https://theconversation.com/the-icecube-observatory-detects-neutrino-and-discovers-a-blazar-as-its-source-99720

https://www.amon.psu.edu/

https://fr.wikipedia.org/wiki/Astronomie_multimessager

Pour (re)trouver dans ce blog un article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 22 12 18

Meilleurs vœux pour l’année 2019 !

Loin !

La Terre et la Lune vues du sol de Mars au crépuscule. Dans ce petit point blanc, toute l’humanité, tout ce qu’ont jamais créé nos civilisations jusqu’à nos très récentes incursions dans l’espace profond!

Mars évolue à une distance de 56 à 400 millions de km de la Terre. Les départs vers Mars ne sont possibles, en fonction de la position relative des planètes, que tous les 26 mois. Les voyages durent entre 9 et 6 mois, pour emporter un maximum de masse et pour ménager une trajectoire de « libre-retour » en cas d’impossibilité de se poser sur Mars. On doit y rester 18 mois plutôt qu’un mois pour pouvoir retourner sur Terre sans trop de risques et le voyage de retour dure 6 mois. Pendant le séjour sur la planète, les communications avec la Terre sont affectées de la vitesse de la lumière puisque nulle onde électromagnétique ne peut la dépasser ; ceci signifie qu’il faut attendre entre 6 et 44 minutes pour obtenir une réponse / réaction à une interrogation ou à un message émis depuis Mars. L’éloignement, c’est cela.

NB : La prochaine possibilité après Mars de « toucher terre » et d’y vivre est offerte par les lunes de Jupiter (j’exclus Cérès ou Vesta, les plus gros astres de la Ceinture d’astéroïdes, où la gravité est très faible). Petit problème, le système de Jupiter évolue entre 591 et 965 millions de km de la Terre (distance moyenne au Soleil 778 millions de km). C’est donc un peu plus loin que Mars (33 à 54 minutes-lumière) mais surtout l’irradiance solaire (énergie reçue au niveau de l’orbite) y est beaucoup plus faible (seulement 50 W/m2 contre 492 à 715 pour Mars et 1321 à 1413 pour la Terre). Il y fait donc froid et sombre. Quant à Vénus on ne peut envisager d’y séjourner qu’à l’intérieur d’une certaine couche de son atmosphère compte tenu de la température et de la pression atmosphérique au sol.

La question évidente qui résulte de l’éloignement de Mars dans la perspective d’une installation de l’homme est : « Comment vivre avec ? ».

Nous avons vu la semaine dernière, les conséquences que cela pourrait avoir sur le plan informatique et sur l’équipement en serveurs de la base. Nous allons réfléchir aujourd’hui aux conséquences psychologiques.

Il est difficile pour un homme du 21ème siècle d’imaginer l’impossibilité de se déplacer quand il veut pour aller où il veut mais ce sera bien le cas pour les Martiens. Cette contrainte peut donc engendrer des frustrations et autres sentiments négatifs tels la tristesse, peut-être la dépression, lors d’un deuil survenu sur Terre ou le regret d’être parti et ne pas voir grandir ou évoluer ses enfants, revoir ses parents ou ses amis, participer à une action ou une entreprise dans des conditions nouvelles qui n’existaient pas lors du départ et qui auraient fait préférer rester, ou simplement lors de l’impossibilité vécue de contempler le bleu de la mer et le vert des forêts. Ces sentiments négatifs seront renforcés par le fait que l’éloignement-lumière ne permettra pas d’échanges directs et fluides avec ses proches et d’une manière général avec les Terriens du fait du time-lag qu’il génère.

De telles conditions ont existé, assez semblables, dans les premiers siècles qui ont suivi les « Grandes-découvertes ». Les colons qui partaient pour les Amériques, les Indes, l’Australie, l’Afrique du Sud, partaient « pour de bon ». Il ne leur était possible de prendre un bateau qu’exceptionnellement. Beaucoup n’avaient pas les moyens financiers de rentrer et devaient (sur)vivre sur place par leur travail. Les seules communications distantes, se faisaient par courrier postal maritime et les « nouvelles » devaient se faire rares avec le temps et la divergence progressive des intérêts. Les gens partaient « pour une nouvelle vie » et ceux qui restaient imaginaient « des oncles d’Amérique ».

La différence demain, en choisissant Mars, est que les communications orales et visuelles ou par message écrits seront possibles. Mais cela pourrait rendre la séparation peut-être encore plus difficile à supporter car cela empêchera la rupture quasi-totale et la pleine intégration dans la nouvelle vie.

Cependant, pour rester positif, c’est évidemment cette nouvelle vie qui, par les satisfactions qu’elle procurera, sera le seul remède capable de cicatriser ce déchirement. Et sans doute elle pourra le faire. La vie sur Mars sera, au début du moins, une vie de grands espaces, de nouveauté, d’entreprise, d’aventure, une vie prenante où l’oisiveté sera rare. Par ailleurs la communauté humaine locale, par sa taille forcément réduite au début et du fait de l’hostilité de l’environnement, sera comme une seconde famille au sein de laquelle la compréhension et l’entraide seront des nécessités.

Il ne faut pas non plus voir tout en rose. Cette « famille » pourra être pesante et pour certains, du fait de sa taille réduite, un enfer dans le cadre duquel on pourrait rejouer, en vrai, la fameuse pièce de Jean-Paul Sartre, « Huis-clos ». On peut simplement espérer que le risque étant connu, les membres de la famille seront suffisamment formés à l’affronter, que des psychologues seront sur place pour aider la « remise sur les rails » et que les grands espaces pourront apporter un correctif à la sensation d’enfermement social, moins difficilement que dans un lieu réellement fermé (vaisseau spatial, petites îles, prison, pièce sans issue comme celle dans laquelle se rencontrent et s’affrontent les personnages de Jean-Paul Sartre, etc…).

Alors certes les Martiens auront des moments durs, inévitables, ceux des échecs dans leur travail, ceux des affrontements amoureux, ceux des frictions avec d’autres êtres humains pour une raison ou pour une autre, ceux de la maladie et il faudra y faire face sans disposer de toutes les facilités disponibles sur Terre. Lors des crises, il n’y aura pas « d’effet tampon », amortisseur, dilueur et réparateur, comme le permet l’étendue énorme de la société terrestre (par analogie à l’effet que l’on prend en compte dans les études de tout milieu biologique). Mais cela a été et sera toujours le lot de toutes les sociétés pionnières. Ce qu’on peut espérer c’est que compte tenu de nos progrès en psychologie et en thérapie psychiatrique, de la sélection des partants et du soutien à distance des grandes institutions terrestres, Mars ne sera pas le Far West avec ses bandits sans foi ni loi. Ce sera certes bien une « nouvelle frontière » comme disent les Américains mais avec les avantages et beaucoup moins d’inconvénients qu’au 19ème siècle car je suis confiant que la structure de fonctionnement de la colonie sera suffisamment étudiée à l’avance, pour qu’elle soit vivable dans les meilleures conditions possibles.

Image à la Une : La Terre vue de Mars. Photo prise par le rover Curiosity le 31 janvier 2014. Crédit : NASA/JPL-CalTech/MSSS/TAMU.

Image ci-dessous: austère beauté d’une plaine martienne. Photo Opportunity, crédit: NASA JPL-Caltech, Cornell

   

Pour (re)trouver dans ce blog un article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 22 12 18

Les datacenters: une obligation, un avantage et une contrainte pour les futurs Martiens

Imaginons une population humaine installée sur Mars. Elle sera constituée, au moins tant que ses éléments viendront de la planète Terre, de personnes extrêmement éduquées et performantes dans les diverses technologies nécessaires au fonctionnement de la colonie. Elle aura de plus, besoin du support de technologies certes éprouvées mais les plus performantes possibles et elle s’efforcera d’améliorer continûment cette technologie pour bénéficier d’une sécurité, d’un confort toujours plus grands avec une consommation d’énergie toujours plus faible permettant d’entreprendre toujours plus dans tous les domaines envisageables pour leur développement et la rentabilisation de ce développement.

N.B. Étant donné le coût des transports interplanétaires, la production que les Martiens pourront échanger avec la Terre en contrepartie d’équipements manufacturés impossibles à fabriquer sur place, sera de nature intellectuelle et forcément digitalisée.

Cette population aura donc besoin d’un accès aux bases de données constituées par les hommes restés sur Terre. Ce sera l’accès aux logiciels élaborés par la Terre, l’accès aux informations qui y auront été accumulées et qui pourraient être utilisées pour des travaux de tous ordres ; ce sera aussi les échanges avec les spécialistes ou les « proches » restés sur Terre; ce sera l’accès aux productions intellectuelles diverses y compris artistiques. Par ailleurs les Martiens accumuleront eux-mêmes des données dans le cadre de leurs propres activités, y compris la recherche scientifique ou technologique, leur activité industrielle et commerciale ou encore la création artistique. Or, Mars évolue à une distance allant de 3 à 22 minutes-lumière de la Terre. Cela compliquera beaucoup l’utilisation des ressources digitalisées et restées sur Terre et exclura a priori l’envoi des données martiennes dans des serveurs terrestres pour utilisation sur Mars. Imaginez vous travaillant sur votre ordinateur, recherchant une information dans une base de données et obligé d’attendre de 6 à 44 minutes avant d’obtenir réponse à votre question ! Certes, cette réactivité aurait été considérée comme extrêmement rapide avant l’apparition d’Internet, encore que, en cas d’intérêt, une conversation pouvait être engagée par téléphone avec échanges immédiats ou une réunion organisée et se tenir en quelques heures ou en quelques jours avec des participants venus « du bout du monde ». Quand « nous » serons sur Mars, rien de tel ne sera possible. Les échanges immatériels seront soumis au « time-lag » imposé par la vitesse de la lumière, quoi qu’il arrive et quels que soient les moyens qu’on utilisera, et les échanges matériels, au rythme des cycles synodiques selon lesquels les départs d’une planète vers l’autre ne seront possibles que tous les deux ans environ. On peut à la rigueur accepter les délais pour les seconds, pas pour les premiers. C’est en fait le plus gros handicap qui sera imposé aux nouveaux Martiens.

Que faire pour le pallier ou au moins l’atténuer ? On peut imaginer une première solution, très coûteuse en énergie et en moyens financiers, la copie en continu sur Mars de toutes les données créées sur Terre. On peut imaginer que les grandes « fermes de serveurs » ou « datacenters », qui stockent actuellement ces données sur Terre, les rayonnent vers Mars au fur et à mesure qu’ils les reçoivent après avoir transféré le stock existant. Ces données seraient, à réception sur Mars, stockées dans d’autres datacenters qui les tiendraient à disposition des résidents martiens. Cela présenterait l’avantage annexe pour tout le monde de la duplication et donc donnerait à l’humanité du fait de la redondance, une sécurité évidemment très appréciable en cas de catastrophes survenant sur Terre ayant pour conséquence (entre autres !) la destruction de ses datacenters. Par ailleurs la température en surface étant très basse (négative sauf quelques heures de la journée en été dans les régions intertropicales), ces serveurs pourraient constituer des sources de chaleur appréciables, énergie qui pourrait être utilisée sous une autre forme et qui serait sans danger pour l’environnement martien (dans la mesure où l’on souhaiterait plutôt le réchauffer que le refroidir).

Le problème est que si les datacenters produisent beaucoup de chaleur « fatale » (du fait de l’effet joule résultant du passage continu de l’électricité dans des matériaux conducteurs), c’est qu’ils ont besoin de beaucoup d’énergie pour fonctionner et maintenir le système utilisable. En 2017, la consommation des datacenters terrestres s’est élevée à 200 TWh (un réacteur nucléaire de 900 MW produit en moyenne moins de 10 TWh). Si on adopte la solution du transfert intégral et continu des données terrestres sur Mars, le besoin en énergie ne sera probablement pas aussi important (moindre utilisation des données sur Mars que sur Terre du fait d’une moindre population) mais il sera quand même énorme (mises à jour et transmissions constantes de et vers la Terre). Or sur Mars, la production d’énergie sera un problème pour plusieurs raisons. Ce n’est pas l’objet de cet article de les détailler mais pour être suffisante et régulière, sa source devrait être nucléaire et avant qu’une industrie nucléaire soit développée sur Mars, « il coulera beaucoup d’eau sous les ponts »…dans les rivières martiennes qui sont à sec depuis des centaines de millions d’années. Les combustibles des centrales nucléaires tout comme les équipements pouvant les utiliser devront donc être pendant très longtemps importés de la Terre parce que l’industrie qui peut les procurer sera très longue à développer sur Mars.

Une solution non optimale au point de vue des besoins mais plus réaliste serait de rayonner à partir de la Terre un sous-ensemble des données de la totalité des datacenters. Il me semble en effet qu’une partie importante de la totalité des données ne sera pas indispensable au fonctionnement d’une base martienne ou à la recherche effectuée dans une telle base et, en cas de besoin, un chercheur ou un développeur d’une nouveauté technologique ou culturelle, pourrait se faire envoyer de la Terre ce dont il aurait besoin en lançant des requêtes utilisant des mots-clés (et les données reçues seraient ensuite conservées dans le datacenter martien). Cependant, même dans ce cas, la consommation d’énergie sera très importante. Il faudra entretenir la base de données martienne, pour conserver les données stockées et pour en permettre l’utilisation (consultation, modification, enrichissement, transmission à la Terre), c’est-à-dire continuer à l’alimenter en énergie. Par ailleurs, même dans ce cas, le volume des équipements servant de relais ou de stockage posera problème. Ils sont encore aujourd’hui très importants. Les datacenters de Facebook ou de Google s’étendent chacun sur plusieurs hectares. Il faudra toujours plus compresser les données. Le progrès technologique le permettra certainement mais jusqu’où? Peut-on imaginer un jour atteindre une densité qui permette de rassembler toutes nos connaissances et nos capacités informatiques dans un « objet » tel que le fameux monolithe d’Arthur Clarke et de Stanley Kubrick? En tout cas ce ne sera pas « demain ». 

La chaleur fatale (même relativement faible puisqu’elle devrait se situer entre 25°C et 50°C) posera un problème non pas à l’environnement (comme dit plus haut, on ne peut craindre de réchauffer l’atmosphère martienne) mais au datacenter lui-même car il faut pouvoir le maintenir à une température à peu près constante (de l’ordre de 20°C), c’est à dire conditionner l’atmosphère, c’est à dire ventiler la chaleur. Par chance il y a une source froide sur Mars qui est le sol naturellement gelé de la planète (pas de fleuve, pas de mer). Cependant cette source est peu active car non fluide . Elle ne peut emporter suffisamment rapidement la chaleur loin de sa source, et l’atmosphère au-dessus du sol, bien que froide elle aussi, est trop ténue pour assurer efficacement un rôle de radiateur. En plus la dissipation de la chaleur dans le sol serait un gaspillage inacceptable sur une planète si froide et si pauvre en énergie alors que nous aurons besoin de nous chauffer. Il faudra donc imaginer des systèmes caloporteurs qui permettent l’évacuation et la récupération de la chaleur c’est à dire créer un environnement fluide autour des générateurs de chaleur. Ce peut être soit un atmosphère dense ventilée, soit une circulation d’eau. Dans les deux cas, on peut envisager d’installer le datacenter au centre de la base habitée, sur le sol martien ou plutôt en dessous du sol, au-dessus d’un faux-plancher permettant une meilleure diffusion/régulation de la température, baignant dans l’atmosphère de cette base qui serait évidemment d’une densité proche de celle de l’atmosphère terrestre et on compléterait l’effet radiateur du sol et de l’atmosphère (accentué par des ventilateurs plus ou moins naturels – courants-d’air) par un système de tuyauterie transportant en circuit fermé de l’eau provenant de la fonte de glace, qui ensuite serait répartie par pompes dans la base habitée pour la chauffer.

Par ailleurs l’étendue même des datacenters posera problème (ou imposera des choix) car il faudra trouver ou creuser des cavités suffisamment vastes pour abriter les rangées d’armoires et les circuits, et faciliter la vie humaine autour. Construire une énorme bulle en surface pour les abriter est exclu car les risques de destruction de circuits hyper-fins par radiations, sont non négligeables et parce que la pressurisation de grands volumes est encore techniquement impossible (dômes d’une vingtaine de mètres de diamètre au maximum). Il faut plutôt envisager de couvrir l’ouverture étroite d’un gouffre volcanique profond et de disposer les armoires en étages (ou de trouver d’autres cavités naturelles, ce qui n’est pas encore le cas) ou de disséminer de petits datacenters dans le sous-sol de chaque bulle viabilisée (peut-être une sécurité mais il faudra penser aux liaisons entre datacenters). De toute façon les volumes habitables seront limités et il faudra toujours faire un choix entre l’information indispensable et l’information accessoire.

Tout cela revient à dire que l’expansion des datacenter et de l’activité humaine sur Mars ne sera possible qu’avec beaucoup de temps, d’investissements (qui toujours devront être faits sur la base de la prévision d’un retour sur investissement) et progressivement avec l’évolution des structures de la colonie. Mais on peut et il faut commencer « demain ».

Ainsi on ne parviendra jamais à réduire le time-gap entre la Terre et Mars mais on peut envisager grâce à des datacenters martiens (petits puis plus grands), de vivre avec des éléments informatiques suffisants pour travailler dans la base, pour utiliser les logiciels nécessaires, pour commander en direct les différents robots travaillant en surface partout autour de la planète et pour communiquer et échanger avec la Terre.

Si nous nous installons sur Mars, nous devrons effectuer un retournement copernicien. La Terre ne sera plus le centre du monde au point de vue de la population humaine et de sa création de richesses (intellectuelles et autres) mais « simplement » son origine (et longtemps son « site » le plus riche). S’ils veulent se développer, les Martiens devront s’assumer et avoir leurs propres datacenters. Il faudra déterminer quelle devra être l’importance de ces centres et comment les cordonner aux autres installés sur Terre. Cela sera fonction de la capacité des Martiens à les entretenir et les faire fonctionner, et aux Terriens ainsi qu’aux Martiens d’innover pour parvenir à en réduire la taille et la consommation en énergie. La recherche et les progrès de ces derniers sur ce sujet (du fait d’une stimulation plus forte que sur Terre) pourront faire l’objet d’exportations de logiciels et de know-how martiens vers la Terre.

Image à la Une: une vue du datacenter de Facebook à Lulea (Nord de la Suède): des rangées d’armoires de stockage de données, connectées à toutes sortes d’équipements informatiques et irriguées d’énergie électrique (crédit Facebook).

Pour (re)trouver dans ce blog un article sur un sujet qui vous intéresse, cliquez sur:

 Index L’appel de Mars 11 12 18

Peut-on envisager une solution technologique au problème de l’exposition aux radiations lors de voyages interplanétaires ?

Je passe aujourd’hui la parole au Dr. Pierre-André Haldi, Ing.-physicien EPFL retraité :

Parmi les épouvantails que certains dressent sur le chemin de l’exploration humaine de la planète Mars et au-delà, le risque engendré par une longue exposition aux rayonnements cosmiques et solaires occupe une place “privilégiée”*. Au point de se demander si le voyage vers Mars en particulier est réalisable sans mettre gravement en danger la santé des équipages. Il s’agit-là bien sûr d’une position extrême et passablement exagérée si l’on considère qu’il a été évalué1 que la dose de radiations à laquelle serait exposé un astronaute lors d’une mission martienne de deux ans et demi (6 mois aller, 6 mois retour, et séjour de 18 mois sur la planète rouge) l’exposerait à un risque accru de développer un cancer mortel d’à peine 1 % sur une période de 30 ans suivant son retour sur Terre, faisant passer ce risque de 20 % sans cette exposition (estimée être de 500 millisieverts environ) à un peu moins de 21 %.

*N.B. : Je ne m’étendrai pas ici sur la nature et la qualité de ces rayonnements, le sujet ayant déjà été traité à maintes reprises sur ce blog par Monsieur Pierre Brisson. Il suffit de rappeler qu’il s’agit d’une part d’un rayonnement isotrope (GCR : ~ 90% protons, mais aussi autres particules de masses atomiques plus élevées dont les énergies peuvent dépasser de très loin le milliard d’électronvolt, plus des rayons g, c’est-à-dire des photons de haute énergie) provenant d’étoiles et galaxies plus ou moins lointaines, et essentiellement de protons (SPE : d’énergie de l’ordre du million d’électronvolts) d’autre part, émis lors des éruptions solaires.

Reste que la règle absolue en matière de radioprotection est de se conformer en toutes circonstances au principe connu sous l’acronyme anglophone ALARA, pour “As Low As Reasonably Achievable” (“Aussi bas que raisonnablement réalisable” en français ; l’adverbe “raisonnablement” étant particulièrement à relever ici). Cela exclut en premier lieu d’envisager des équipages qui feraient régulièrement la navette entre la Terre et Mars ; pas de “pilotes de ligne” spatiaux ! Même les futurs “colons martiens” (après la phase d’exploration proprement dite) n’effectueront probablement pas plus d’un voyage vers Mars, très éventuellement deux, la plupart ne réalisant même qu’un aller simple.

Même en limitant strictement le nombre de voyages interplanétaires individuels, des dispositifs de protection s’imposent néanmoins. A noter que le problème des radiations cosmiques et solaires ne concerne pas que les hommes, certains équipements sensibles (navigation, support de vie, par exemple) pourraient également être gravement affectés par une exposition excessive à de tels rayonnements. Jusqu’ici, et pour un certain temps encore vraisemblablement, les seuls systèmes de protection contre les radiations considérés ont été de nature passive, c’est-à-dire simplement réalisés par les matériaux de structure des engins spatiaux et, pour ce qui est des futurs vaisseaux habités, une disposition des approvisionnements (en eau en particulier) en périphérie de ceux-ci, ainsi que l’existence d’un abri au blindage renforcé au centre dans lequel se réfugier le temps de laisser passer une éventuelle éruption solaire (les valeurs d’exposition présentées plus haut pour une mission martienne ont été évaluées dans ces conditions).

La protection offerte par les matériaux de structure des futurs vaisseaux interplanétaires peut évidemment être améliorée par un choix judicieux de ceux-ci ou en augmentant leur épaisseur. Cette dernière approche est néanmoins limitée par le souci de ne pas accroître de manière prohibitive la masse  desdits vaisseaux. Une sélection adéquate des matériaux de structure est d’autant plus importante que les particules de très haute énergie des GCR peuvent engendrer de nouvelles particules par collisions avec les atomes d’éléments matériels (parois du vaisseau, astronautes, etc.) placés sur leur chemin ; radiations secondaires qui peuvent être autant, sinon plus encore, dangereuses que les radiations primaires qui leur ont donné naissance.

Formation de radiations secondaires par collisions avec des matériaux de structure

Selon diverses études2, une configuration associant une couche extérieure d’aluminium de 10 g/cm2 à un matériau à haute concentration en hydrogène pourrait être une solution relativement optimale pour se protéger des rayonnements primaires comme secondaires. On peut aussi jouer sur une structuration particulière des matériaux de blindage. Dans cet ordre d’idée, la NASA porte un intérêt tout particulier aux BNNTs – nanotubes de nitrure de bore hydrogénés – qui comme leur nom l’indique sont des nanotubes de carbone, bore et azote, dans lesquels de l’hydrogène est dispersé dans les espaces vides laissés entre les tubes3. Le bore étant un excellent absorbeur de neutrons secondaires, les BNNTs constituent un matériau de blindage spatial idéal.

Le recours à un blindage physique n’est pas la seule option envisageable pour protéger, des particules chargées uniquement, les astronautes et les équipements sensibles pendant un vol interplanétaire. Une piste également explorée est celle de la création d’un champ de force autour du vaisseau. De la même manière que le champ magnétique terrestre nous protège des particules énergétiques venues de l’espace, un champ électrique ou magnétique créé localement peut – s’il est suffisamment intense et configuré de manière adéquate – former une barrière protectrice autour d’un vaisseau spatial ou éventuellement d’un habitat sur une planète ne disposant pas d’un tel bouclier naturel (moins nécessaire cependant dans ce dernier cas, en raison de l’effet d’ombrage offert par la planète elle-même et, le cas échéant, d’une atténuation à travers son atmosphère).

Le bouclier électromagnétique de la Terre et celui, similaire, d’un futur vaisseau/habitat spatial

L’idée en soi n’est pas nouvelle (elle aurait été évoquée dès les années 60), mais on croyait alors qu’une très vaste “bulle magnétique” – de plus de 100 kilomètres de rayon – serait nécessaire pour protéger un vaisseau spatial. Créer un champ à une telle distance aurait nécessité des électroaimants développant une densité de flux magnétique de dizaines, voire de centaines, de teslas**, absolument intransportables dans l’espace.

** Pour fixer l’échelle, les installations terrestres de type tokamak, de bonne taille, utilisées pour les études sur la fusion par confinement magnétique, développent des intensités magnétiques de l’ordre de quelques teslas. La plus importante d’entre elles, ITER, en construction dans le sud de la France, mettra en oeuvre des électroaimants supraconducteurs d’un poids de 10’000 tonnes (!) conçus pour générer une énergie magnétique totale d’une cinquantaine de gigajoules et un champ magnétique maximum de 11,8 teslas.

Or, des simulations informatiques récentes, confirmées par des études expérimentales4, ont montré qu’une “mini-magnétosphère” de quelques centaines de mètres pourrait suffire à protéger efficacement un vaisseau spatial, rendant ainsi cette approche technologique suffisamment compacte et bon marché pour envisager ce type d’application. Ces études s’appuient sur des décennies  de travaux sur la fusion nucléaire qui ont montré que les plasmas sont sujets à toutes sortes de comportements turbulents que l’on ne rencontre pas dans les fluides normaux ; turbulences qui peuvent se produire plus ou moins à échelle humaine, ce que l’on n’imaginait pas auparavant. Les chercheurs de l’équipe du Prof. Ruth Bamford du Rutherford Lab assurent qu’il est possible sur la base de ces nouvelles connaissances appliquées aux flux de particules solaires ou cosmiques de concevoir des “bulles électromagnétiques protectrices” de taille réduite5.

Une telle solution reste néanmoins pénalisante, à la fois par l’énergie et par la masse de matériel et d’équipements supplémentaires qu’elle implique. Pour créer à une centaine de mètres du vaisseau une frontière entre le champ magnétique de protection et celui du champ magnétique de fond d’environ 10-7 tesla (de 5 10-8 à 5 10-6 tesla selon les conditions) d’un vent solaire typique, une intensité de champ à la source de l’ordre de 0,1 tesla devrait normalement suffire (Bamford évalue cependant le champ nécessaire plutôt à 1 tesla). En tenant compte d’effets de persistance du champ dans l’environnement plasma, la puissance électrique requise pour créer un tel champ pourrait se situer environ entre 100 W et 10 kW, mais plus probablement entre 500 W et 5 kW6 (à titre de comparaison, les panneaux solaires de la Station Spatiale Internationale sont capables de générer jusqu’à 120 kW de puissance électrique, en orbite terrestre évidemment).

Les dimensions des éléments fonctionnels nécessaires, selon un article de Universe Today, ne dépasseraient pas celles d’une grande console. La contrainte énergétique mentionnée ci-dessus peut sembler relativement élevée, mais le champ magnétique n’aurait pas à être actif en permanence à son intensité maximale et pourrait être ajusté en fonction de données récoltées sur l’activité solaire.

Ce qu’il faut retenir est qu’envisager un bouclier électromagnétique pour protéger (en partie) les passagers de futurs vaisseaux en transit interplanétaire ne relève plus de la science-fiction mais de technologies qui sont déjà aujourd’hui accessibles, même si elles doivent encore être développées plus avant (voir par exemple les travaux effectués dans cette optique au CERN7).

Références :

1 Robert Zubrin et Richard Wagner, “The Case for Mars“, 1996 ; en français, “Cap sur Mars“,

Editions Goursau, 2004, ISBN 2904105093.

2 Voir p. ex. : Evaluating Shielding Approaches to Reduce Space Radiation Cancer Risks“:

NASA TM-2012-217361, https://three.jsc.nasa.gov/articles/CucinottaKimChappell0512.pdf

3 NASA : “Real Martians : How to Protect Astronauts froms Space Radiation on Mars“:

https://www.nasa.gov/feature/goddard/real-martians-how-to-protect-astronauts-from-space-

   radiation-on-mars

4 Voir : “Magnetic shield could protect spacecraft“, physicsworld, Nov 2008:

https://physicsworld.com/a/magnetic-shield-could-protect-spacecraft/

5 Plasma Phys. Control. Fusion 50 124025

https://space.stackexchange.com/questions/3772/how-much-power-would-a-spacecrafts-magnetic-shield-require

https://www.sciencealert.com/scientists-are-developing-a-magnetic-shield-to-protect-astronauts-from-cosmic-radiation

La science des trajectoires est une science de la navigation

Le voyage interplanétaire est soumis à des contraintes fortes qui obligent à la prise en compte de l’évolution des positions respectives des planètes, des capacités énergétiques de nos lanceurs, des vitesses à la sortie des sphères d’attraction de la Terre puis au retour, de Mars, enfin des vitesses à l’approche de l’une puis de l’autre planète. Je laisse la parole pour en parler à un des meilleurs experts européens, Richard Heidmann* :

Voyager dans le système solaire impose de surmonter, indépendamment de toutes les difficultés liées au maintien en condition et à la sécurité des astronautes, des contraintes fondamentales résultant des grandes distances et des lois de la mécanique céleste. Ces contraintes s’expriment en particulier en termes d’isolement, de durées et de programmation des vols.

Pour bien saisir la nature et la force de ces contraintes, il faut tenter de se représenter deux facteurs essentiels gouvernant les mouvements (des planètes et des vaisseaux) dans le système solaire : l’échelle des distances et la force d’attraction du Soleil. L’étendue des espaces parcourus peut se mesurer aux durées des trajets. A la base, on peut se rappeler que la Terre, bien que circulant à 30 km/s autour du Soleil, met plus de 31 millions de secondes pour en faire le tour (Mars pour sa part circule au voisinage de 24 km/s en un peu moins de deux ans). On comprend que, du moins avec les techniques de propulsion connues, il soit exclu de s’éloigner d’un ordre de grandeur de l’année pour les trajets interplanétaires.

Il est sans doute plus difficile, mais aussi plus essentiel, de « mesurer » mentalement la force d’attraction du Soleil. Ce qui est peut-être le plus parlant, c’est de constater que lorsqu’on s’élance sur une trajectoire de transfert interplanétaire, non seulement on est amené à accroître sa vitesse héliocentrique de façon significative (de l’ordre de 10% pour un trajet Terre-Mars), au prix d’une consommation de propergol très significative, mais, de plus, qu’il est très coûteux en énergie de changer tant soit peu la direction initiale du mouvement, celle de la vitesse de la Terre. En quelque sorte, l’attraction du Soleil maintient les planètes et nos vaisseaux sur des rails !

Ces deux facteurs expliquent pourquoi les trajets sont longs, coûteux en énergie à communiquer aux vaisseaux et ne peuvent être planifiés qu’à certaines époques (les « fenêtres » de lancement). Penchons-nous plus spécialement sur le cas de Mars.

Durée des transferts *

Le mode le plus économique en propergol est le « transfert de Hohmann », qui consiste en une demi-ellipse tangente à l’orbite terrestre et à celle de Mars. La durée est alors de 8 à 9 mois, suivant que Mars se trouve proche de son périhélie ou de son aphélie au moment de l’arrivée (transfert aller) ou du départ (transfert retour). Naturellement, cette manœuvre n’est pas rigoureusement applicable à chaque fenêtre, car il faut que la Terre se trouve à un endroit précis pour que l’arrivée sur (ou le départ de) Mars se produise au moment où la planète passe à un de ces deux points remarquables. Les conditions idéales se reproduisent après un cycle de quinze ans.

Mais pour un aller et retour, la course des deux planètes complique le scénario. En fait, après avoir effectué l’aller, deux possibilités se présentent. Soit on souhaite avant tout réduire la durée totale de la mission ; dans ce cas il faut limiter le séjour à un ou deux mois et s’embarquer pour un voyage de près d’un an faisant plonger le vaisseau à l’intérieur de l’orbite de Vénus et conduisant à une vitesse d’arrivée très élevée. Ce scénario, dit d’opposition, avait la faveur des spécialistes au début de l’ère spatiale, car Mars, alors quasiment inconnue, faisait peur, et on voulait limiter la durée du séjour planétaire, quitte à accroître – très significativement – la durée totale des transferts dans l’espace.

Soit on désire effectuer aussi le retour de façon économique ; dans ce cas on est contraint de prévoir un séjour sur la planète de 18 mois, pour permettre à la Terre de se positionner favorablement. Ce schéma, dit de conjonction, fait désormais l’unanimité ; il ne présente en fait que des avantages : économie de propergol, rentabilisation du séjour d’exploration (une dizaine de fois plus long) et, surtout, réduction conséquente de l’exposition aux rayonnements ionisants, dont le flux est maximum durant les transferts dans l’espace (sur Mars, la moitié est bloquée par le sol, l’atmosphère atténue légèrement et on peut utiliser le régolite pour se protéger). Autrement dit, on a réalisé que, loin d’être le lieu de tous les dangers, Mars était un séjour préférable à l’espace, d’autant plus que les astronautes pourront y disposer d’infrastructures permanentes, d’une protection adéquate contre les radiations et de réserves. On aboutit au schéma classique : aller & retour en 8-9 mois, séjour de 18 mois.

Il existe une variante très sérieusement considérée de ce scénario. Elle consiste à préférer pour l’aller une trajectoire dite « de libre retour » qui, ayant une période de deux ans, permet au vaisseau de revenir vers la Terre sans manœuvre propulsive, offrant ainsi un mode de secours en cas de panne interdisant le déroulement normal de la mission. Dans ce cas la durée du voyage aller est significativement réduite, à environ 6 mois, ce qui est un avantage supplémentaire ; par contre la charge utile est réduite, à iso-masse initiale en orbite de parking terrestre. Plus récemment (2016), SpaceX a prôné, dans son projet « Big Falcon Rocket », un voyage beaucoup plus rapide, considérant un transfert aller réduit à 3 ou 4 mois (suivant la fenêtre). Bien entendu ceci impose une consommation de propergol (« carburant ») plus importante, car la vitesse d’élancement à partir de l’orbite terrestre doit être plus grande. Mais, SpaceX entendant construire un lanceur (lourd) totalement réutilisable et donc, dans son idée, d’un très faible coût opérationnel, la prise en considération de plusieurs vols de ravitaillement du vaisseau en attente de départ en orbite de parking est acceptable. Inutile de dire que les esprits des concepteurs « vétérans » du vol spatial n’étaient pas préparés à un tel choc conceptuel, tant le critère de la masse minimale à lancer sur cette orbite était considéré comme une priorité essentielle pour le coût – et donc l’acceptabilité – du projet. Mais le coût réduit des lancements de BFR réutilisables permettrait de transporter des passagers qui apprécieront la réduction de la durée du voyage, du point de vue agrément mais encore plus pour la réduction de leur exposition aux radiations ionisantes de l’espace.

Le problème du séquencement des vols

Les fenêtres de lancement vers Mars s’ouvrent tous les 26 mois environ, durée que mettent les planètes à se retrouver dans la même configuration autour du soleil (par exemple lorsque les trois astres sont pratiquement alignés, les deux planètes étant du même côté du soleil (opposition) ou à l’opposé (conjonction). Au départ, la Terre est « en retard » sur Mars, mais à l’arrivée (par exemple 6 mois plus tard) elle est « en avance », vu que sa vitesse angulaire vue du soleil est environ deux fois plus grande. La largeur (durée) de ces fenêtres dépend principalement des marges de performance du vaisseau et de son lanceur. Généralement, on la trouve de l’ordre d’un mois et demi. C’est suffisant pour permettre, quand le besoin s’en fera sentir, le lancement de plusieurs vaisseaux à partir du même pas de tir au cours de la même fenêtre ; mais par contre s’en éloigner devient vite coûteux en consommation d’ergols. On ne peut donc lancer que pendant une courte période (~1,5 mois) tous les 26 mois.

Mais ce n’est pas tout. Si on reste dans le schéma « conjonction », il faut stationner, comme on l’a noté, de l’ordre de 18 mois sur Mars avant d’entreprendre un transfert retour, dans des conditions et sur une trajectoire symétrique du transfert aller. La conséquence de la durée totale de 30 mois à laquelle on aboutit est que le vaisseau est de retour après la fermeture de la fenêtre de lancement suivant la sienne (4 mois de retard…). Autrement dit, le cycle opérationnel du vaisseau est porté à plus de 4 ans. Pour assurer un trafic donné, il faudra donc deux fois plus de vaisseaux que si on ne ratait pas la fenêtre suivante. Pour un investissement de cette taille, c’est un sérieux handicap ! En théorie, il existe un moyen de rentrer à temps, c’est d’utiliser une trajectoire de retour du type « opposition ». Mais, on l’a dit, ce mode présente de lourds inconvénients : quantité d’ergols supplémentaire, durée du transfert (11 mois), nécessité de s’approcher du soleil plus près que Vénus et, de surcroît, vitesse d’approche du domaine terrestre fortement accrue, compliquant le freinage atmosphérique…

Conséquences du choix de trajectoire pour la fin du voyage

Dans la comparaison des différents schémas de trajectoire, on ne peut se limiter aux considérations de durée de mission et de quantité de propergol à dépenser. Les conditions de capture par les deux domaines planétaires et de descente finale varient fortement en fonction du schéma et des paramètres choisis (principalement les durées de trajets plus ou moins raccourcies).

Le choix influe sur la vitesse qu’il faut soustraire au vaisseau (DV) et sur la vitesse d’interaction avec l’atmosphère. Le DV détermine soit la quantité de propergol à sacrifier dans le cas d’un freinage propulsif, soit le dimensionnement de la protection thermique dans le cas d’une descente directe ou d’une mise en orbite de parking par freinage aérodynamique (aérocapture). Quant à la vitesse à l’entrée dans l’atmosphère, elle est déterminante pour l’intensité du flux thermique à supporter.

Pour Mars, le souhait de réduire la durée du transfert aller est pénalisant, car au lieu d’aborder tangentiellement la trajectoire de Mars (ce qui minimise la vitesse relative), on coupe celle-ci avec un angle important (cf. l’image ci-dessus), ce qui accroît cette vitesse. Aller plus vite est donc un « luxe » à payer en quantité de propergol à fournir au vaisseau et en dimensionnement de sa protection thermique (sauf si celle-ci sert aussi pour le freinage terrestre, qui est dimensionnant).

La même problématique se présente, amplifiée, pour le retour vers la Terre, qui se fait dans tous les cas à une vitesse supérieure à la vitesse de libération (11 km/s), contre 6 à 9 km/s de vitesse d’entrée dans l’atmosphère martienne. La situation serait particulièrement défavorable si on choisissait un retour du type « opposition » car, comme on le voit sur l’image, l’angle des vitesses est important. Même en se cantonnant au schéma « conjonction », s’éloigner d’une trajectoire type Hohmann, pour réduire la durée du retour, restera une option dimensionnante. Cela pourrait conduire soit à avoir une protection partiellement abradable (admis par SpaceX), soit à fractionner la descente, en faisant une étape sur une orbite très elliptique permettant de dissiper la charge thermique déjà encaissée, avant de procéder à la descente finale. C’est dans ce contexte que l’idée d’une station-relais dans le domaine lunaire trouve place, station où le vaisseau martien pourrait être réapprovisionné…

*Richard Heidmann, diplômé de l’Ecole Polytechnique de Paris puis de l’Ecole Nationale Supérieure de l’Aéronautique et de l’Espace. Il a poursuivi l’essentiel de ses activités professionnelles au sein du groupe SNECMA, dans la propulsion spatiale essentiellement (genèse de la fusée Ariane notamment). Il a exercé diverses fonctions de direction au sein du groupe et notamment celle de directeur Orientation Recherche et Technologie. Sur le plan associatif, il a été cofondateur puis président de l’association Planète Mars (www.planete-mars.com), la branche française de la Mars Society. L’article publié ici a été publié une première fois dans le bulletin trimestriel n°77 de l’association (au mois d’octobre 2018).

Commentaire (Pierre Brisson) :

Pendant des siècles les marins choisissaient la date de leur départ en fonction des alizés ou de la mousson ou encore de la présence de glaces sur leur trajet et déjà, pour s’orienter, ils observaient la position du Soleil et des étoiles. Aujourd’hui pour fixer une date de départ pour Mars, on se soucie des dates de la prochaine fenêtre de tirs en fonction de la position respective des planètes car ce sont ces dates qui déterminent la possibilité du voyage et des charges utiles que l’on peut emporter. Et demain, quand on pratiquera les vols habités, on prendra en plus en compte la date de la dernière tempête de poussière globale, pour éviter une arrivée trop difficile, et le prochain pic d’activité solaire, pour limiter au maximum la dose de radiations que l’on devra supporter. L’esprit est le même : considérer l’environnement naturel pour en jouer au mieux en fonction des capacités de son vaisseau et des risques pour sa propre santé.

Image à la Une: BFR “longnose” (“long nez”) au départ de la Terre, après largage de son lanceur (qui va retourner se poser sur son air de lancement. Vue d’artiste. Crédit SpaceX.

Index L’appel de Mars 18 01 18