InSIGHT va ausculter Mars pour nous permettre de mieux la comprendre

Le 5 mai 2018 la NASA a entrepris une nouvelle mission vers Mars. Elle a été nommée « InSIGHT », pour « INterior exploration using Seismic Investigation, Geodesy and Heat Transport ». Comme ce nom l’indique son objet est l’étude de l’intérieur de la planète, ce qui complétera, dans une « troisième dimension », les connaissances déjà acquises sur la surface et l’atmosphère.

* NB: Cet article a été publié une première fois le 1er mai 2018, juste avant le décollage de la fusée Atlas V qui emportait la mission InSight vers son objectif, qu’il atteint aujourd’hui. Cette re-publication a pour objet de rappeler l’intérêt de la mission. 

A 21h00 heure, ce jour, 26 novembre 2018, atterrissage confirmé! Première photo (27 nov.)

La décision a été prise le 20 août 2012 ; le lancement devait être effectué entre le 4 et le 30 mars 2016  mais un problème d’étanchéité de la cloche protégeant l’instrument principal (SEIS) a fait manquer cette fenêtre de tir ; la sonde se posera sur Mars le 26 novembre 2018 (voyage de six mois) et commencera à produire des données scientifiques dès le mois suivant. La mission doit durer 728 jours (708 sols), jusqu’au 06 novembre 2020 soit un peu plus d’une année martienne de 669 sols (688 jours).

InSIGHT est la douzième mission du « Discovery Program » de la NASA qui a été créé en 1992 par Daniel S. Goldin (alors Administrateur de la NASA) pour mettre en application son principe de « faster, better, cheaper ». Les missions de ce programme doivent répondre à une des interrogations posées sur des sujets d’exploration de l’espace profond, par la « Revue décennale » (« Decadal Survey ») du « National Research Council » de la « National Academy of Sciences » des Etats-Unis. La mission Pathfinder (1996) en faisait partie mais aussi les missions Phoenix (poussière martienne), Dawn (pour Vesta et Cérès) et Kepler (pour les exoplanètes). Le budget d’InSIGHT, initialement de 425 millions de dollars, a en fin de compte été porté à 813,8 millions majoré de 180 millions pour les participations européennes, essentiellement de France et d’Allemagne. Ce chiffre est à comparer aux 520 millions de Phoenix ou aux 2,5 milliards de Curiosity. Sous la direction de la NASA, l’équipe scientifique est internationale (comme toujours dans ces missions). Elle comprend des chercheurs des Etats-Unis, de France, d’Allemagne, d’Autriche, de Belgique, du Canada, du Japon, de Suisse (pour l’instrument SEIS, voir ci-dessous), d’Espagne et du Royaume Uni.

Sur le plan astronautique elle ne pose pas de problème car ce sera une répétition de la Mission Phoenix (2007-2008). Le lanceur sera un Atlas V de l’Armée de l’air américaine (76 lancements effectués depuis 2002 dont un seul échec et encore, partiel !) ; même atterrisseur, même masse au sol de 350 kg (contre 899 kg pour Curiosity). Le site choisi dans Elysium Planitia (grandes plaines du Nord) se situe  à environ 4° au Nord de l’équateur, entre le massif volcanique d’Elysium et le cratère Gale (Curiosity). Il offre les conditions idéales pour un atterrissage : un terrain plat, lisse et sans rocher (la qualité de l’interface des instruments avec le sol est capitale).

Indépendamment de la mauvaise surprise d’un gros caillou ou de la pente trop forte d’un mini cratère, la mission est par contre délicate du fait de ses objectifs et des instruments embarqués pour les atteindre. Il s’agit de : (1) déterminer la taille, la composition, l’état physique (solide/liquide) du noyau de la planète; (2) déterminer l’épaisseur et la structure de la croûte ; (3) déterminer la composition et la structure du manteau ; (4) déterminer l’état thermique de l’intérieur de la planète ; (5) mesurer la magnitude, la fréquence et la localisation géographique de l’activité sismique interne ; (6) mesurer la fréquence des impacts météoritiques à sa surface.

De quels instruments s’agit-il ? Outre les « yeux » de deux caméras, il y aura un sismomètre (« SEIS »), une sonde qui doit pénétrer dans le sol (« HP3») et un instrument utilisant l’effet Doppler (« RISE »).

L’instrument principal est le SEIS (pour « Seismic Experiment for Interior Structure »). Ce sismomètre (30 kg de masse au total) a été conçu et réalisé par le CNES (Centre National de la Recherche Scientifique, l’agence spatiale française) avec des éléments d’Allemagne, de Suisse, du Royaume-Uni et des Etats-Unis. C’est le CNES  qui a assuré la maîtrise d’oeuvre de l’expérience et Philippe Laudet, de cette institution, qui en est le chef de projet. Le responsable scientifique (PI pour Principal Investigator) en est Philippe Lognonné (Université Paris-Diderot et Institut de Physique du Globe de Paris, « IPGP »). Il a porté le projet pendant plus de vingt ans avec, jusqu’en 2012, beaucoup d’espoirs d’embarquement déçus (comme souvent hélas compte tenu de la rareté des lancements et de leurs coûts !). Le capteur principal est un appareil à très large bande (« VBB ») c’est-à-dire qu’il pourra capter une gamme très étendue de mouvements (la période des ondes sismiques peut varier de 0,1 à 1000 secondes). Il doit donc, en particulier, pouvoir détecter des mouvements extrêmement faibles. Dans ces cas, forcément intéressants sur Mars, planète a priori peu « vivante », sa sensibilité pourrait être troublée par l’environnement extérieur. On a donc prévu une protection, un « bouclier », nommé « Wind Thermal Shield » (réalisé par le JPL), permettant d’isoler l’instrument des variations thermiques (avec une protection en MLI – « Multi-Layer Insulation » – alvéolaire, utilisant du CO2 martien, l’englobant à l’intérieur du bouclier et jusqu’au contact du sol) ou des vents forts (de par sa masse qui doit le maintenir parfaitement en place). Ce bouclier doit isoler également le sol dans l’environnement immédiat du capteur et ce n’est pas facile. Une enceinte sous vide complète la protection. C’est cette dernière qui ne permettait pas de maintenir le vide et donc la capacité d’isolation, qui n’était pas démontrée en 2016, qui a causé le report du lancement. Les ingénieurs sont à présent satisfaits, avec aucune fuite pendant 9 mois de test à la pression terrestre. On aura donc un instrument très performant, beaucoup plus sensible notamment que ceux qui avaient été embarqués par les Viking en 1976 (plus de 1000 fois pour des ondes de volume de 1 sec. et plus de 100.000 fois pour des ondes de surface de 20 sec.). Le sismomètre de Viking 2 s’était avéré influencé par le vent et il n’avait pu prendre qu’une seule mesure (celui de Viking 1 n’avait pas fonctionné). Une difficulté particulière vient de ce qu’il n’y aura qu’un seul sismomètre à la surface de Mars ce qui empêchera d’utiliser la triangulation pour prendre les mesures des mouvements internes de la planète (ce qui est fait habituellement). Les concepteurs de SEIS comptent pallier cette difficulté par l’utilisation des ondes de surface (verticales) en même temps que de volume (verticales et horizontales). A noter que la participation suisse est importante : (1) c’est l’Aerospace Electronics and Instruments Laboratory (AEIL) de l’institut de Géophysique de l’EPFZ qui a développé l’électronique d’acquisition des données et de commande du sismomètre ; (2) ce seront les spécialistes du Service sismologique suisse (SED) de cette même EPFZ qui analyseront les données pour élaborer un catalogue de sismicité martienne. L’IPGP (France) et le JPL (Etats-Unis) sont eux responsables de la détermination des catalogues de structure interne de Mars.

Deux autres instruments compléteront le dispositif : HP3 (« Heat Flow and Physical Property Package »), une sonde que l’on devra faire pénétrer de trois à cinq mètres en profondeur du sol pour évaluer la chaleur interne indépendamment des fortes variations de surface. Outre les informations sur l’état et les flux de chaleur, elle donnera des indications sur la composition du sol et sa densité. Elle est conçue et réalisée par la DLR (agence allemande de l’Espace). RISE (« Rotation and Interior Structure Experiment ») un instrument de mesure des oscillations de la planète au cours de sa rotation (sous l’influence du soleil et des deux satellites naturels de Mars) à partir de l’observation de l’effet Doppler-Fizeau sur les communications entre InSIGHT et la Terre. Cela doit permettre de connaître la distribution et la composition (solide/liquide, éléments chimiques) des masses internes de la planète.

Sur le fond, on sait que le « problème » fondamental de Mars est sa faible masse. Elle ne représente que 1/10 de celle de la Terre et cela a pour conséquence une chaleur interne moindre puisque cette chaleur résulte d’une part de l’énergie cinétique emmagasinée lors de l’accrétion puis du bombardement météoritique, et d’autre part de la décomposition des matériaux radioactifs qu’elle contient (comme la Terre, Uranium 238 / 235, Thorium 232, Potassium 40). Cette faible chaleur interne n’a peut-être jamais été suffisante pour générer une fluidité du manteau suffisante pour déclencher puis entretenir une tectonique de plaques par convection. Par ailleurs elle n’a pas permis le maintien d’un volcanisme très actif jusqu’à aujourd’hui, même si des volcans ont eu des caldera actives dans les 100 derniers millions d’années. Les dernières manifestations de ce volcanisme ont décru depuis l’époque où il constituait le phénomène planétologique dominant, l’Hespérien / Theiikien, il y a 3,9 à 3,5 milliards d’années. Connaître les différentes couches structurant la planète nous renseignera plus finement sur son histoire et notamment sur la durée probable pendant laquelle ces différents phénomènes ont pu exister ou perdurer. Ce qu’on estime actuellement c’est que, par rapport à un rayon de 3380 km (Terre 6370 km), la croûte aurait environ 65 km d’épaisseur (Terre de 5 km à 100 km) mais avec des différences importantes entre le Sud (Syria Planum 90 km) et le Nord, 3 km sous le bassin d’impact Isidis Planitia ou 10 km sous Utopia Planitia , le manteau 1800 km et le noyau 1700 km (il pourrait être entièrement liquide alors que celui de la Terre comprend une partie solide peut-être indispensable pour générer par frottement un effet dynamo donc une magnétosphère). Il s’agit bien sûr de confirmer ou affiner ces estimations, de définir plus finement les couches intermédiaires et de mieux estimer leur viscosité, de manière à pouvoir faire des comparaisons utiles avec la Terre et aussi comprendre mieux la structure des planètes rocheuses en général. Mars du fait de sa taille n’a pas poursuivie son évolution aussi loin que la Terre et peut nous renseigner sur les étapes intermédiaires de cette évolution.

Avec cette mission, on retombe donc indirectement sur l’étude de l’histoire du système solaire et sur celle des conditions prévalant à l’époque où la vie a pu apparaître (et disparaître ) sur Mars. Insight est le chaînon jusqu’à présent manquant des laboratoires embarqués, qui va nous fournir de nouvelles données auxquels les autres pourront être confrontées pour lever des doutes, faire apparaître des (im)possibilités ou de nouvelles logiques. C’est ainsi que progresse la Science.

Image à la Une: représentation d’artiste de l’atterrisseur InSIGHT, crédit NASA. Vous voyez la cloche de SEIS à gauche et la sonde HP3 qui est enfoncée dans le sol, à droite. Les deux antennes RISE se trouvent sur la plateforme à gauche et à droite (inclinées vers les panneaux solaires).

NB: cet article a été soumis avant publication à Monsieur Philippe Lognonné. Il y a apporté quelques corrections et précisions concernant son instrument.

Le cratère Jezero, objectif de la prochaine mission de la NASA, est un bon choix

La NASA l’a décidé le 19 Novembre, l’objectif de la prochaine mission robotique, « Mars-2020 », sera le Cratère Jezero. Cet objectif représente de multiples avantages pour une mission principalement exobiologique mais les instruments embarqués ne seront peut-être pas tout à fait « à la hauteur ».

Cratère Jezero en fausses couleurs montrant la composition du sol : argiles smectites en vert; carbonates en bleu. Credits: NASA/JPL/JHUAPL/MSSS/Brown University.

NB: Le 26 Novembre au soir (20h50) atterrissage prévu de la sonde InSight de la NASA. Lisez mon article publié lors du lancement, début mai 2018.

Il suffit de regarder une photo du Cratère Jezero pour voir l’évidence : un magnifique delta projeté dans une arène de cratère à l’embouchure d’un puissant court d’eau asséché. Il y a donc eu là de l’eau liquide charriant des sédiments et ce phénomène a été très important car le relief est très marqué (à noter son caractère inversé compte tenu de l’érosion des roches plus tendres autour du delta). Par ailleurs la région riveraine occidentale d’Isidis Planitia est une des plus intéressantes de Mars parce que c’est un endroit où la croûte de Mars est la plus mince (environ 3 km), qu’il y a eu amorce de failles tectoniques (Nili Fossae) et que c’est une des sources possibles des émissions de méthane que l’on a repérées selon un rythme saisonnier, dans l’atmosphère martienne (à confirmer par l’orbiteur TGO et son instrument CaSSIS de l’Uni. Berne). Enfin les analyses spectrométriques du sol menées depuis les satellites orbitant autour de la planète, ont montré que la zone était particulièrement riche en argiles (smectites) et en carbonates (de Magnésium). Ces deux roches témoignent d’une longue hydratation du sol et d’une absorption importante de gaz carbonique atmosphérique par l’eau (comme sur Terre avec le carbonate de calcium). Or l’on peut dater ces formations, compte notamment tenu de la cratérisation, de quelques 3,6 milliards d’années (entre 3,9 et 3,5), ce qui correspond sur Terre à la période où l’on constate les premières manifestations de la vie (premiers organismes fossiles). C’est évidemment l’occasion de chercher si les mêmes causes produisant les mêmes effets, la vie a pu également commencer sur Mars ou alternativement de constater que quelques particularités terriennes ont manqué sur Mars (températures trop basses? absence de Lune et donc de fortes marées? atmosphère insuffisamment épaisse et riche? autre facteur? le simple hasard résultant de l’Histoire ?). En tout cas les argiles ayant la propriété de favoriser les échanges organiques puis de bien conserver les fossiles, le contexte est évidemment idéal pour les recherches exobiologiques.

Le bassin d’Isidis avec au Nord Ouest la région des failles de Nili Fossae. Le cratère Jezero est situé à 18° de latitude Nord. Carte MOLA (crédit NASA).

La mission Mars-2020 quittera la Terre le 17 juillet 2020, lors de la prochaine fenêtre de tirs, et arrivera sur Mars le 18 février 2021, après 7 mois de voyage et avoir parcouru une ellipse de quelques 500 millions de km (ce qui est dans la norme des voyages martiens selon lesquels on parcourt une trajectoire permettant de transporter le maximum de charge utile pour le minimum d’énergie). On se trouve à peu près dans la configuration de la mission MSL (Curiosity) dans la mesure où la masse à déposer sur le sol de Mars devrait être à peu près la même (le corps du rover de Mars-2020 est le même que celui de Curiosity). Les différences, et elle sont importantes, sont (1) que le cratère Jezero est beaucoup plus petit (45 km de diamètre) que Gale (150 km) et (2) que le terrain de l’arène de Jezero semble nettement plus accidenté (notamment rochers, dunes et relief marqué de l’ancien delta). La NASA nous dit avoir amélioré son système d’EDL (Entry, Descent, Landing) et elle devrait pouvoir faire atterrir son rover dans une ellipse d’incertitude moitié plus petite (une dizaine de km dans son petit axe) que celle définie pour Curiosity dans Gale, et utiliser un système de navigation d’approche (« Terrain Relative Navigation ») incorporé à la grue volante (rétropropulsée) lui permettant d’éviter les obstacles qui apparaîtraient au dernier moment.

Une fois sur place, la mission consistera principalement à rechercher des traces éventuelles de vie passée, au-delà des preuves d’habitabilité démontrée par Curiosity. Par ailleurs Mars-2020 rassemblera des prélèvements qui pourront être récupérés par une future mission de retour d’échantillons (« Mars Sample Return »). En effet malgré les performances remarquables des laboratoires embarqués, il est encore impossible de transporter les équipements suffisamment sophistiqués nécessaires à une analyse très pointue et surtout de recréer sur Mars les conditions de travail que l’on peut obtenir dans les grands laboratoires terrestres. Le robot fera donc des choix de roches qui a priori mériteraient une investigation plus approfondie sur Terre (NB : la date de la mission retour d’échantillons n’est pas encore programmée…ce qui est quand même assez frustrant!).

Le rover Mars-2020 et ses instruments. Vous remarquerez l’absence de panneaux solaires. Ce rover, comme Curiosity, fonctionnera à l’énergie nucléaire (Crédit NASA).

Les instruments embarqués sont simplement (et malheureusement) dans la suite de ceux de Curiosity, même s’ils seront plus performants. Ils seront au nombre de sept parmi lesquels, trois seront principalement dédiés à l’identification de marqueurs de vie : PIXL un spectromètre de fluorescence de rayons X ; SHERLOC un spectromètre à rayonnement ultraviolet et SuperCam un dispositif pour analyse spectroscopique induite par ablation laser. PIXL (Planetary Instrument for X-Ray Lithochemistry) identifiera les différents atomes excités par les rayons X émis par l’instrument. Il pourra le faire en séquences sur une toute petite surface et accompagné d’un imageur ce qui permettra de corréler les textures et les apparences avec les compositions chimiques. SHERLOC (Scanning Habitable Environments with Raman & Luminescence for Organics and Chemicals) sera utilisé pour déterminer la composition élémentaire fine des matériaux. Il sera également accompagné d’un imageur (« caméra contextuelle » du type de MAHLI, actuellement à bord de Curiosity). Le troisième instrument, « SuperCam », du même type que ChemCam (sur Curiosity), fera les analyses à distance de roches vaporisées par laser. Avec ces instruments, on pourra non seulement détecter les éléments chimiques et minéraux avec une sensibilité élevée, mais également produire de véritables cartes chimiques, voir si (et comment) les matières organiques sont rassemblées ou diffuses, et corréler les informations chimiques avec les veines ou les grains de la roche. Le rover sera par ailleurs équipé d’un radar « RIMFAX » (pour « Radar Imager for Mars Subsurface Experiment ») qui pourra visualiser la structure géologique et la nature des roches du sous-sol immédiat (jusqu’à dix mètres).

Tout ceci constitue donc des améliorations importantes par rapport aux capacités de Curiosity. Mais il est quand même décevant qu’aucun système de forage au-delà de la couche de terrain irradiée de surface (les forages de Mars-2020 seront d’une profondeur de l’ordre de 5 cm), ni aucune réaction biologique (du genre de celles embarquées par les Vikings en 1976) n’aient été prévus. Heureusement que ce n’est pas le cas du rover de l’ESA (mission ExoMars) qui doit arriver sur Mars en même temps que Mars 2020. En effet les conditions de surface paraissent, a priori, trop difficiles depuis des milliards d’années (accumulation des radiations) pour qu’on puisse y trouver des vestiges faciles à identifier comme ayant résulté d’un processus de vie même si, encore une fois, on pourra faire de meilleures approximations sur le plan de l’analyse chimique et peut-être visuelle (biomorphes ?).

Le coût de la mission devrait être légèrement inférieur à celui de Curiosity (quelques 2,5 milliards de dollars). Les partisans de l’exploration robotique ne manqueront pas de penser et certainement aussi de dire, à l’occasion, que ces missions d’exploration sont beaucoup moins coûteuses que pourraient l’être les missions habitées (quelques dizaine de milliards). A quoi les partisans de l’exploration par vols habités pourront répondre qu’elles seraient beaucoup plus efficaces (l’homme reste plus intelligent, imaginatif et réactif que les robots). Je reste personnellement déçu qu’un si beau site ne soit pas exploré avec un rover disposant d’un système d’analyse chimique du sous-sol.

Image de titre: Extrait de la Carte MOLA (Mars Orbiter Laser Altimeter) montrant les élévations dans le cratère Jezero. On voit bien le Delta alluvionnaire et le lit du fleuve qui l’a produit. Crédit NASA, cartographie exécutée d’après les données recueillies par l’orbiteur Mars Global Surveyor entre 1997 et 2006.

Index de ce Blog:

Index L’appel de Mars 18 01 18

L’observatoire Pierre Auger s’efforce d’identifier les particules les plus énergétiques de l’Univers

Après avoir évoqué les neutrinos la semaine dernière je parlerai aujourd’hui des RCUHE, autres messagers spatiaux que l’on pourrait qualifier d’exotiques, et de leur observatoire dédié, l’Observatoire Pierre Auger (« PAO » en Anglais).

Un RCUHE, Rayon Cosmique d’Ultra Haute Energie (ou en Anglais, UHECR pour « Ultra High Energy Cosmic Ray ») est une particule accélérée jusqu’à une énergie de 1018eV (soit 1 Exa-électronvolts ou «1 EeV ») ou davantage, alors que l’énergie de la plupart des radiations galactiques, « GCR » (pour Galactic Cosmic Rays), se situe entre 10 MeV (1 MeV = 106eV) et 10 GeV (1 GeV =109eV) et que dans le grand accélérateur de hadrons du CERN on n’a jamais atteint « que » 1013eV. Comme pour les neutrinos, les ondes gravitationnelles, les rayons X durs, les rayons gamma, les scientifiques contemporains, chercheurs et ingénieurs, ont su imaginer un dispositif original et étonnant pour les observer c’est-à-dire les capter et les analyser. C’est encore un sujet d’admiration et d’émerveillement qui devrait satisfaire les esprits curieux. C’est surtout un moyen complémentaire de mieux connaître et comprendre notre univers dans le cadre de ce qu’on appelle l’« astronomie multimessager » qui prend de plus en plus d’importance grâce aux progrès technologiques.

Les RCUHE sont parfois des protons et dans ce cas leur énergie butte sur une limite qui se situe vers 1019eV. Cette limite, dite « coupure GZK », a été théorisée en 1966 par Kenneth Greizen, Gueorgui Zatsepin et Vadim Kuzmin. Au-delà, les protons interagissent avec les photons du Fond Diffus Cosmologique « FDC », ce qui accroît leur longueur d’onde et produit des pions (mésons pi), réduisant par la même l’énergie atteinte. Les noyaux des éléments plus lourds sont également sensibles à cette coupure; ils peuvent subir une photodésintégration. Suivant les sections efficaces d’interaction, la probabilité de survie peut-être moins grande pour certains d’entre eux. En tout état de cause, compte tenu du contenu du « vide » spatial en photons primordiaux, les RCUHE (protons ou noyaux d’autres éléments) ne devraient pas pouvoir parvenir d’une distance plus lointaine que celle de l’horizon GZK, soit environ 300 millions d’années-lumière (100 Mégaparsecs), ce qui limite beaucoup les possibilités d’en recevoir. Parmi les particules qui “passent” le filtre de la coupure GZK certaines ont des énergies énormes, jusqu’à plus de 1020eV. Elles appartiennent à une sous-catégorie des RCUHE, les EECR (Extreme Energy Cosmic Rays) qui sont encore plus rares. L’énergie de ces RCUHE est telle qu’elle ne peut résulter que d’événements catastrophiques extrêmement puissants ou de cœurs de galaxies extrêmement actifs (« AGN » – Active Galactic Nucleus) et, en même temps, qu’elles ne peuvent provenir que de sources relativement proches (même si extragalactiques).

Comme dit ci-dessus, ces particules ultra énergétiques sont rares et elles le sont non seulement en raison de leur interférence possible avec les photons mais aussi parce que les événements qui les génèrent sont exceptionnels, au point que leur occurrence statistique avait été évaluée avant leur recherche spécifique à seulement 1 par km2 et par siècle. La conséquence est que pour les observer il a fallu imaginer des capteurs d’une très grande surface. C’est bien ce qu’on a réalisé avec l’Observatoire Pierre Auger qui « couvre » une surface de 3000 km2. Il a été imaginé en 1992 par Jim Cronin (Université de Chicago, Prix Nobel de Physique en 1964) et Alan Watson (Université de Leeds). Le projet démarre véritablement en 1995 à Paris et la construction en Argentine en 2000. Il s’étend sur un plateau situé à 1400 mètres d’altitude, près de la petite ville de Malargüe, à 400 km au Sud de la ville de Mendoza (il faut de la place et un ciel clair !). Il a été inauguré en 2008 après que les premières observations aient été effectuées (elles ont commencé en 2004 avec une installation évidement réduite à quelques capteurs). Il aura coûté 50 millions de dollars (ce qui est peu de chose comparé au coût d’autres observatoires) à une « collaboration » internationale comprenant les plus grandes institutions scientifiques d’un grand nombre de pays : l’Argentine, l’Australie, le Brésil, la Colombie, la Tchéquie, la France, l’Allemagne, l’Italie, le Mexique, les Pays-Bas, la Pologne, le Portugal, la Roumanie, la Slovénie, l’Espagne et les Etats-Unis (mais pas la Suisse !). En 2015 un nouvel accord a été signé pour dix ans incluant toute une série d’améliorations (« upgrading ») qui constituent le projet « AugerPrime ».

L’observatoire est un détecteur dit « hybride » car il utilise deux modes de détections différents : (1) des détecteurs à fluorescence pour mesurer la lumière émise par les molécules de l’atmosphère excitées par le passage des particules et (2) des détecteurs Tchérenkov qui réagissent à ces mêmes particules atteignant le sol. A noter qu’à ces deux stades ce ne sont pas les RCUHE proprement dites que l’on perçoit mais les électrons, les photons et les muons qui en résultent après leur collision avec les molécules de l’atmosphère ou ceux-là avec l’eau (cf image de titre). Les détecteurs Tcherenkov sont 1660 cuves fermées de 12000 litres d’eau, très pure, dans une obscurité complète, situés à 1,5 km l’une de l’autre. Trois photomultiplicateurs très sensibles placés dans chaque cuve sont prêts à capter l’effet Tcherenkov (causé par le passage dans l’eau de particules se déplaçant plus vite que la lumière dans l’eau) et à le retransmettre sous forme de signaux électriques à un collecteur central (le système d’acquisition va être amélioré dans le cadre du projet AugerPrime). Lorsqu’un RCUHE rentre dans l’atmosphère, il crée une averse de particules secondaires qui « arrosent » un ou plusieurs des détecteurs (jusqu’à cinq ou six). On peut évaluer l’énergie de la particule primaire par la quantité de lumière générée par l’averse, et sa provenance par la différence de temps entre les impacts au niveau des différents détecteurs touchés (différence qui se mesure en nanosecondes). Les détecteurs de fluorescence sont 24 télescopes optiques de 3,6 mètres de diamètres fonctionnant en œil-de-mouche (multi-facettes), regroupés sur 4 sites à la périphérie de l’ensemble des cuves de détecteurs Tchérenkov, de façon à couvrir la totalité de l’atmosphère au dessus de la surface de l’observatoire sur une profondeur de détection de 15 km, sur une bande allant de 0° à 30° d’inclinaison (ils fonctionnent les nuits sans lune).

A ces détecteurs hybrides s’ajoutent plusieurs autres équipements: (1) 3 télescopes à fluorescence allant de 30° à 60° d’inclinaison (pour pouvoir observer le développement complet des averses de particules et notamment celles de plus basses énergies qui se produisent plus haut dans l’atmosphère); (2) AERA (Auger Engineering Radio Array) un système pour mesurer les flashs (quelques dizaines de nanosecondes) d’ondes courtes (bande de 30 à 80 MHz) émis par les averses de particules ; (3) « AMIGA » (Auger Muons and Infill for the Ground Array), deux réseaux enterrés de détecteurs de la composante muonique des gerbes (les muons produits par ces RCUHE peuvent pénétrer dans le sol plus ou moins profondément). Ces réseaux sont en cours de réalisation.

Ce dispositif sera complété dans le cadre d’AugerPrime par une évolution du détecteur de surface avec notamment l’installation de scintillateurs sur chaque détecteur Tcherenkov, pour obtenir une mesure complémentaire des particules contenues dans la gerbe. Pour traiter à la fois les signaux des détecteurs Tcherenkov et ceux des détecteurs à scintillation une nouvelle électronique d’acquisition et de contrôle aux performances accrues est développée (comme indiqué ci-dessus).

En septembre 2017, la Collaboration-internationale-Auger a publié les conclusions des 114.000 événements captés et analysés. Sur ce nombre, plus de 3000 par an ont concerné des événements de plus de 8 Exa-électronvolts (8 x 1018eV), l’origine étant des noyaux atomiques de divers éléments ayant été accélérés à des vitesses très proches de celle de la lumière malgré leur masse. On a constaté que les directions d’arrivée d’un certain pourcentage de RCUHE (E au dessus de 39 EeV) coïncidait avec la position de galaxies à sursauts de formation d’étoiles (« starburst-galaxies ») mais on a dû reconnaître que la plus grande partie de ces RCUHE, quelques 90%, n’a pu être rapprochée d’aucune source. Le problème étant que les noyaux d’atomes lourds sont électriquement très chargés et donc susceptibles  d’être déviés par de multiples objets dotés d’un champ magnétique (et le sont probablement effectivement). On espère que le projet AugerPrime en cours et son rapprochement d’autres observatoires permettra d’ici 2025, de faire des progrès dans cette recherche d’identification.

Il faut noter que les GCR dont font partie les RCUHE dont font partie les EECR, sont aussi une préoccupation pour les voyages spatiaux. On estime que les GCR sont constitués à 98% de noyaux d’atomes et à 2% d’électrons (négligeables sur le plan du danger sanitaire). Les 98% sont eux-mêmes constitués de 88% de protons (dont on peut se protéger assez bien avec des réserves d’eau) et 10% de noyaux d’hélium (un peu plus dangereux). Reste 2% de noyaux lourds HZE (éléments au-dessus de l’hélium) contre lesquels on ne peut pratiquement rien faire sauf ne pas en supporter une dose trop importante (deux ou trois voyages aller et retour sur Mars dans une vie adulte). C’est dans cette dernière fraction que se situe les RCUHE et les EECR. Il faut simplement espérer ne pas en recevoir (ils sont très rares!) ou plutôt ne pas trop recevoir de particules secondaires résultant de leur collision avec les atomes des métaux constituant la coque du vaisseau spatial.

Avec l’Observatoire Pierre Auger on est typiquement dans un processus de progression avec ajustement continu des moyens d’observation et intégration dans un dispositif multimessager. Les autres observatoires terrestres procèdent ainsi autant que possible. La démarche est évidemment beaucoup plus difficile dans l’espace où on a presque toujours obligation de remplacer par un autre, un observatoire d’une technologie dépassée ou mal conçu pour son objet, ou simplement à cours d’ergols ou de liquide de refroidissement. Pour l’Observatoire Pierre Auger les ajustements continueront-ils jusqu’à ce que l’observatoire réponde vraiment au rêve de Jim Cronin ?  C’est important pour connaître notre environnement et mieux évaluer la violence de l’Univers qui nous entoure et qui est aussi la source des éléments chimiques dont nous sommes faits. C’est important aussi pour mieux connaître le milieu dans lequel vont se dérouler les vols interplanétaires habités et, pour commencer, ceux qui doivent nous conduire sur Mars.

NB: Ce texte a été revu et corrigé par Madame Corinne Bérat, responsable du groupe Auger du LPSC (Laboratoire de Physique Subatomique & Cosmologie), Représentante pour la France dans la collaboration Auger. 

Illustration : un RCUHE frappant les molécules de l’atmosphère au dessus de l’Observatoire Pierre Auger. Crédit université de Nova Gorica.

image ci-dessous (1): diagramme des émissions spatiales en fonction de leurs énergies (document IceCube). Vous remarquerez que les RCUHE se trouvent tout à fait à droite de l’échelle énergétique.

image ci-dessous (2): capteur de rayonnements Tcherenkov. Il y en a 1660 sur le site de l’Observatoire Pierre Auger (crédit Observatoire Pierre Auger):

image ci-dessous (3): capteurs à fluorescence (crédit Observatoire Pierre Auger):

image ci-dessous (4): schéma de l’arrivée et de la capture d’un RCUHE.  Auteur: Kubu — Travail personnel, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=41117117

https://www.auger.org/

https://www.auger.org/index.php/observatory/augerprime

https://en.wikipedia.org/wiki/Pierre_Auger_Observatory

https://en.wikipedia.org/wiki/Ultra-high-energy_cosmic_ray

et toujours l’index de mon blog:  Index L’appel de Mars

Les neutrinos, un vecteur pour pénétrer les accumulations de matière les plus denses de l’Univers

Au-delà des rayonnements électromagnétiques, à côté des ondes gravitationnelles, les neutrinos nous laissent envisager une exploration de l’Univers au plus près de son origine et au travers de ses masses les plus denses. On commence seulement à les exploiter mais il est vrai que leur découverte est relativement récente. Une de leur caractéristique essentielle, qui constitue à la fois une difficulté et un avantage dans le cas qui nous intéresse ici, est qu’ils interfèrent extrêmement peu avec la matière.

NB: J’ai choisi cette semaine de m’éloigner de Mars pour orienter l’attention de mes lecteurs vers un horizon plus lointain. L’exploration de Mars n’est en effet qu’une étape dans le déploiement de notre espèce dans l’espace. Sur Mars comme sur Terre, l’appel de l’espace continuera à nous solliciter. Vouloir maintenant aller sur Mars, c’est non seulement vouloir réaliser une prouesse technologique et vivre une aventure exaltante, c’est aussi exprimer un état d’esprit, celui de se tourner vers l’espace et d’oser vouloir y accéder par la porte entre-ouverte. Si nous le faisons, nous ne nous arrêterons pas et si nous le faisons, nous continuerons à explorer l’espace par tous les moyens, y compris bien sûr par tous ceux que nous offre l’astronomie. 

Mais retournons aux neutrinos.

Comme souvent, c’est une anomalie, constatée lors de l’observation de la désintégration radioactive dite « désintégration β » à l’occasion de laquelle un électron (désintégration β« béta moins ») ou un positron (désintégration β+ « béta plus ») est émis, avec entre autres violations apparentes, celle du principe de conservation de l’énergie, qui a conduit en 1930 le physicien Wolfgang Ernst Pauli (enseignant à l’ETHZ et Prix Nobel) à théoriser l’existence d’une particule électriquement neutre et de masse extrêmement faible (équilibrant la réaction, conservation de l’énergie, de la quantité de mouvement et du spin), qui un peu plus tard sera baptisée neutrino et l’anti-particule correspondante, antineutrino. Le neutron libre par exemple se désintègre spontanément en un proton en émettant un électron et un antineutrino. Le neutrino est un lepton (« léger » en grec) comme, en particulier, l’électron ou le muon (voir ci-dessous); le lepton étant un fermion (particule de spin demi-entier) comme le quark, et non un boson (comme le photon),  qui a la particularité de n’être pas sensible à l’interaction-forte, c’est-à-dire la force qui assure la cohésion des noyaux atomiques (il appartient donc à la matière dite « non-baryonique »). Il fut découvert expérimentalement en 1956 dans l’environnement d’un réacteur nucléaire et depuis on progresse, difficilement, dans sa connaissance. On a constaté qu’il y avait plusieurs familles (on dit des « saveurs », au nombre de trois) de neutrinos. Ce n’est qu’en 1998 qu’une expérience mettant en évidence son « oscillation » (changement de saveurs) a conduit à déduire qu’il a une masse non nulle mais extrêmement faible (elle est nécessaire pour le phénomène d’oscillation, mais n’a pu être mesurée faute d’une sensibilité suffisante des appareils de mesure). Il se déplace donc à une vitesse proche de celle de la lumière, et son interaction avec la matière est extrêmement limitée, principalement par interaction-faible et, marginalement, par gravité.

Les sources de neutrinos sont nombreuses. Ils proviennent du fond des âges (création de l’univers, les plus nombreux), d’évènements catastrophiques (supernovæ), ou de réactions nucléaires diverses (dans le Soleil, les centrales nucléaires ou les grands accélérateurs terrestres de particules). Son énergie dépend de la force et de la distance de l’événement générateur mais elle peut atteindre des niveaux extrêmement élevés (jusqu’à quelques péta-électronvolts, « PeV », 1 PeV = 1015 eV). Ses propriétés pour nous transmettre des informations sur l’univers sont, du fait de leurs sources et du fait de leur nature, très intéressantes. En effet le neutrino est stable (c’est une particule élémentaire) ; il provient de réactions nucléaires primaires et non de leurs conséquences électromagnétiques ; il est neutre électriquement et n’est pas dévié par les champs magnétiques, il donne donc des indications très précises sur la direction de son origine ; sa « section-efficace » d’interaction avec la matière est très faible et il peut donc provenir de zones beaucoup plus profondes que les photons ou du voisinage de masse de matière ultra-dense (trou noir, Univers antérieur à la Surface-de-dernière-diffusion).

On tente depuis la fin du XXème siècle de développer des capteurs de ces particules élusives et on commence à y parvenir. Par chance, l’eau offre une propriété qui peut être exploitée en vertu de l’effet Tcherenkov. Cet effet produit un cône de lumière bleutée, très faible (qui nécessite pour être observée dans ce contexte qu’on l’amplifie par des photomultiplicateurs), l’équivalent pour la lumière, du bang supersonique (onde de choc). Il est causé par les muons (particules massives et chargées faisant doublet avec les neutrinos de saveur muonique) résultant des rares collisions des neutrinos avec la matière (protons) car la vitesse de ces muons résultant des collisions, est supérieure à la vitesse de la lumière dans l’eau, milieu diélectrique (NB : mais bien sûr pas de la vitesse de la lumière dans le vide). La trace de l’effet Tcherenkov causé par ces muons permet de connaître la direction, la « saveur » et l’énergie des neutrinos qui les ont causés.

On a donc construit des capteurs consistant en vastes conteneurs d’eau pure (liquide ou solide, légère ou lourde, c’est-à-dire contenant un pourcentage élevé de deutérium) comme Super-Kamiokande (Japon) qui utilise l’eau « normale » ou Sudbury (Ontario, Canada) qui utilise l’eau lourde. Ce sont pour certains de véritables observatoires, surtout IceCube en Antarctique, accessoirement ANTARES dans la Méditerranée (au large de Porquerolles) mais des installations plus anciennes ont également enregistré le passage de neutrinos cosmiques (Super-Kamiokande et IMB pour ceux de la supernova 1987a)

IceCube qui se trouve à proximité de la base américaine Amundsen au Pôle Sud géographique, est un ensemble fantastique de 1 km3 constitué de 5160 boules transparentes de 35 cm de diamètre placées par groupes de 60 sur 86 lignes de détection, dans des puits verticaux creusés dans la glace, entre 1,45 km à 2,45 km de profondeur (travaux réalisés de 2005 à 2010). Ces boules sont des « Digital Optical Modules » (« DOMs ») sphériques, orientés vers le centre de la Terre car elles recherchent les neutrinos qui l’ont traversée en venant du Nord (la Terre sert de filtre pour éliminer toute radiation parasite et de réacteur pour offrir un nombre suffisant de protons par interaction avec des neutrinos). Elles sont équipées de photomultiplicateurs et détectent les flashs de photons causés par les muons se déplaçant à grande vitesse, générés par les quelques neutrinos à haute énergie qui ont pu interférer avec la matière à l’intérieur de la Terre et qui tracent des cônes Tcherenkov jusqu’à environ 250 mètres de longueur. Les flashs sont convertis en signaux électriques et envoyés en surface vers la base de collecte et d’analyse des données. La profondeur est nécessaire pour atteindre, outre l’obscurité absolue que l’on aurait évidemment plus près de la surface, une glace suffisamment dense (il ne faut pas que les bulles d’air perturbent le tracé des ondes lumineuses) et obtenir un écran contre les radiations parasites (GCR). Le projet n’a coûté « que » 270 millions de dollars, financés à 90% par la National Science Foundation américaine. La « collaboration » scientifique internationale (40 institutions) qui exploite IceCube est dirigée par l’université du Wisconsin-Madison.  L’expérience méditerranéenne ANTARES (Astronomy with a Neutrino Telescope and Abyss Environmental Research), fonctionne selon le même principe (profondeur identique) au large de l’ile de Porquerolles, mais elle a de moindres capacités car elle est plus petite (12 lignes de 400 mètres ancrées au fond de la mer et portant chacune 75 capteurs). Les travaux ont été terminés en 2008. Les détecteurs regardent évidemment vers l’intérieur de la planète (donc l’hémisphère Sud). Son objectif est principalement les neutrinos de 10 GeV à 100 TeV. C’est une collaboration de nombreuses institutions et laboratoires, principalement français et italiens.

Le 22 septembre 2017 (étude publiée dans Science en juillet 2018), IceCube a observé un neutrino d’une énergie très élevée (290 Tera électronvolts – « TeV » = 1012 eV, à comparer aux 13 TeV atteints par le Grand collisionneur de hadrons du CERN) dont on a pu tracer l’origine jusqu’au blazar TXS 0506+056 situé à 5,7 milliards d’années-lumière, à proximité de la Constellation d’Orion, déjà connu pour son activité par les télescopes exploitant les ondes électromagnétiques. C’était la première observation d’une émission extragalactique de neutrinos couplée à une émission de radiations galactiques de haute énergie, y compris rayons gamma. Cela a permis de compléter notre connaissance de cette source importante de rayons cosmiques dont le jet relativiste pointe directement vers notre région de la Voie-Lactée, d’apprécier sa puissance et d’envisager que les rayonnements gamma et les émissions de neutrinos aient une cause commune.

Les observatoires à neutrinos vont ainsi fournir une nouvelles branche à l’astronomie, comme les télescopes opérant dans le spectre électromagnétique et comme les capteurs d’ondes gravitationnelles Virgo, Ligo et bientôt LISA. En combinant leurs données, on considérera la gamme d’observations d’une même source dans le cadre de ce qu’on appelle une astronomie « multimessager », une astronomie à plusieurs dimensions en quelque sorte, pour mieux caractériser les événements par une précision temporelle, directionnelle et énergétique beaucoup plus grande et une compréhension de ce fait toujours meilleure de notre Univers.

NB: texte relu et corrigé (pour les notions de physique des particules) par Pierre-André Haldi (Dr. es Sciences de l’EPFL).

Liens :

https://icecube.wisc.edu/

http://antares.in2p3.fr/index-fr.html

Image à la Une : vue artistique des DOM d’IceCube. Crédit Jamie Yang de la Collaboration IceCube.

Image ci-dessous (1): Photographie de la première observation d’un neutrino prise le 13 novembre 1970. Un neutrino invisible percute un proton, donnant naissance aux traces des particules mentionnées sur la photo.

Image ci-dessous (2) : présentation graphique de l’observatoire IceCube; Crédit Nasa-verve* — IceCube Science Team – Francis Halzen, Department of Physics, University of Wisconsin (*Visual Environment for Remote Virtual Exploration).

lecture: https://phys.org/news/2013-11-world-largest-particle-detector-icecube.html#jCp

Index L’appel de Mars

Après EMC18, l’objectif reste Mars, plus que jamais

La 18ème Conférence européenne sur la planète Mars (EMC18) qui s’est tenue au Musée International d’Horlogerie (MIH) de La Chaux-de-Fonds du 26 au 28 octobre, s’est terminée après un programme dense et brillant tant au point de vue des orateurs que des sujets traités. Elle se déroulait dans la magnifique salle de conférence du musée horloger le plus riche et le plus beau du monde, comme les participants ont pu le réaliser lors de la visite guidée. Toute l’histoire de la mesure du temps est là, expliquée, illustrée par des objets rarissimes et souvent magnifiques dans une muséographie impeccable. Dans la grande salle, d’une fonctionnalité irréprochable, on se trouve au milieu des fresques de Hans Erni, exécutées en 1958 pour l’exposition universelle de Bruxelles. A elles seules, elles méritaient le voyage des participants venus des quatre coins du monde.

Sur le thème de la connaissance de la planète, les présentations de Michel Cabane (molécules organiques), Antoine Pommerol (instrument d’observation CaSSIS), Tomaso Bontognali (formes possibles de vie martienne), Philippe Lognonné (sismographie) ont été éblouissantes. Avec le premier, on a pu comprendre jusqu’où la chromatographie en phase gazeuse a pu conduire l’analyse de la composition du sol martien et percevoir que l’environnement planétaire martien a très probablement généré au fil du long temps où l’eau a été liquide, des molécules beaucoup plus complexes et plus longues que l’espace environnant avec les astéroïdes qu’on y trouve. On bute maintenant sur le fait qu’on doive chauffer et donc détruire ces molécules pour les étudier puisque les réactifs à froid (liquides) n’ont pas été encore utilisés (ils sont contenus dans quelques six coupelles seulement, que l’on garde précieusement pour le terrain le plus propice à la préservation de traces de vie, les fameuses argiles du Mont Sharp, maintenant en vue). Avec Antoine Pommerol, on a pu admirer les premières photos prises par CaSSIS à partir de l’orbiter TGO, des nuances de couleurs et une précision jamais égalées, des angles de vue jamais utilisés, permettant de voir le même endroit sous différents éclairages mettant en valeur les changements au cour de la journée donc des compositions de sol et des effets atmosphériques différents. On revient déjà, pour certains « gullies » sur le rôle qu’a pu jouer l’eau dans leur formation (il y aurait plusieurs types de gullies). Avec Tomaso Bontognali, on devrait être prêt à reconnaître visuellement la vie ou plutôt les traces qu’elle a laissées, si elle s’est jamais exprimée sur Mars. La « caméra » CLUPI à bord du rover de la mission ExoMars doit y être déposée début 2021 et les travaux du Dr. Bontognali nous donneront la possibilité de comprendre ce que nous verrons, sur le plan exobiologique. La précision ne pourra dépasser 35 µm alors que les fossiles de cellules primitives devraient être beaucoup plus petits (sur Terre les bactéries ont une taille de l’ordre du micromètre). Cependant on doit pouvoir compter sur un comportement sans doute universel de la vie, son grégarisme et son aptitude à la symbiose, donc à la vie en communauté, ce qui aurait dû générer des tapis microbiens. Avec Philippe Lognonné on a pu admirer l’ingéniosité du sismomètre embarqué à bord d’InSight (qui doit arriver sur Mars le 26 Novembre). Cet appareil extraordinaire disposera d’une sensibilité telle que tout mouvement interne de la planète tant soit peu significatif, pourra être détecté, et ce à partir d’un seul instrument déposé (en utilisant les ondes de surface). Nous pourrons ainsi savoir jusqu’à quelle point la planète s’est refroidie et quelle est l’épaisseur de sa croûte. De là on pourra faire toute sorte de déductions sur son histoire et son potentiel d’activité résiduelle.

Sur le thème du voyage, les présentations de Pierre-André Haldi (critique constructive de la BFR d’Elon Musk), de Jean-Marc Salotti (possibilité de missions habitées avec une Ariane Super Heavy), Angelo Genovese (modes de propulsion avancés), de Jürgen Herholz (historique des projets de l’ESA en termes de vols habités), de Maxime Lenormand et Anne-Marlène Rüede (EDL des masses lourdes) et aussi de Claude Nicollier, nous ont montré que les missions habitées étaient bien possibles en termes de propulsion, de configuration des lanceurs et d’architecture de missions, avec plusieurs variantes envisageables. Avec Pierre-André Haldi, on a bien vu les imperfections du projet BFR, Elon Musk ayant à ce stade un peu trop cédé à l’esprit Star-Treck (fenêtres, panneaux solaires, non traitement de l’apesanteur) mais le Dr. Haldi reconnaît la valeur de quelques excellentes idées, notamment la réutilisation de divers éléments du lanceur, le ravitaillement en ergols en orbite basse terrestre avant l’impulsion vers Mars et l’utilisation du méthane comme carburant (en attendant mieux). Il propose par ailleurs un système de génération de gravité artificielle, une modularité qui apporterait de multiples avantages (notamment la possibilité de changement de mode de propulsion) et la descente en surface de Mars limitée à des véhicules légers annexes (ce qui représenterait d’importantes économies d’énergie). Avec Jean-Marc Salotti on voit qu’on pourrait utiliser un lanceur existant, de performance moyenne, Ariane Super Heavy, pour mener à bien des missions habitées sur Mars. Avec Jürgen Herholz on voit encore mieux que si l’ESA n’a pas réussi à égaler la NASA sur le plan des vols habités c’est tout simplement qu’elle ne l’a pas voulu (ce qui génère une certaine frustration). Les étudiants, Maxime Lenormand* et Anne-Marlène Rüede qui se sont exprimés, ont choisi de parler de la phase difficile de l’EDL (« Entry, Descent, Landing ») et ils ont présentés des solutions très sérieuses qui montrent qu’avec les technologies d’aujourd’hui, on peut descendre en surface de Mars les masses nécessaires à un séjour sur cette planète, suffisantes pour y vivre dans des conditions acceptables le temps d’un cycle synodique. Claude Nicollier a montré que, s’il était très important que le voyage ne se fasse pas en condition d’apesanteur, il était néanmoins encore difficile d’envisager la création de gravité artificielle au sein de deux masses en rotation liées entre elles par un filin. Le déploiement des filins et le maintien d’une tension adéquate (il faut surtout éviter le filin « mou » – slack, en Anglais – a souligné Claude Nicollier) apparait extrêmement délicat. C’est un des sujets dont il faudrait poursuivre sérieusement l’étude (ce qui n’est malheureusement pas prévu). Angelo Genovese a ouvert la porte des technologies nouvelles de propulsion qui, n’en doutons pas, pourront un jour pas si lointain, réduire considérablement le temps des voyages ce qui rendrait un peu moins grave ce problème d’apesanteur (et également de dose de radiations reçues) et cela à une époque où un « comité d’accueil » pourrait prendre en charge les voyageurs affaiblis à leur arrivée sur Mars.

*accompagné d’Anaïs Sabadie et de Léopold Comby.

Sur le thème du séjour en surface, nous avons eu d’excellentes présentations de Théodore Besson, d’Anne Marlène Rüede, d’Olivia Haider, de Richard Heidmann. J’ai moi-même pris la parole sur le thème de la dualité nécessaire de la mesure du temps prenant en compte l’environnement martien et les relations des Martiens avec les Terriens, et Mitko Tanevski a mis en évidence la complexité des communications tout en mettant en évidence la contrainte que je trouve la plus dérangeante. Avec Théodore Besson et son projet Scorpius-1, nous sortons des simulations « faiblardes » faîtes par les Russes (« Mars 500 ») qui ne traitaient vraiment que du problème psychologique d’un voyage de longue durée en situation de confinement, pour entrer dans la problématique des tests du support vie. Je ne crois pas à la gravité des soi-disant problèmes psychologiques car je suis convaincu que les personnes partant pour Mars seront suffisamment motivées pour supporter le voyage, et imaginer que les conditions sur Mars seront pratiquement identiques à celles vécues pendant le voyage n’a pratiquement pas de sens. Par contre l’alimentation des astronautes, le recyclage de l’air et de l’eau, le contrôle microbien, sont de vrais problèmes. Ils sont « adressés » par MELiSSA mais il faudra bien un jour les tester avec des « équipages » humains. Olivia Haider a montré le niveau sophistiqué qu’ont atteint les simulations d’EVA sur Terre. Avec AMEDEE 18, on est très loin des caricatures de ballades en faux scaphandres présentées il y a quelques années. Comme quoi il faut persévérer et on arrive à des résultats qui seront utiles pour la vraie exploration. Avec Anne-Marlène Rüede, on voit bien les ressources qu’apportent la planète Mars pour envisager de s’y établir. Il y a de l’eau sur Mars et pas qu’un peu (ne parlons pas des misérables ressources lunaires !). Grace à l’eau et à l’atmosphère on peut envisager un établissement pérenne sur Mars et Anne-Marlène Rüede en a bien vu, et démontré, le potentiel. Avec Richard Heidmann, on part beaucoup plus loin dans le futur. On voit les possibilités d’une colonie (1000 habitants), au-delà d’un premier établissement mais on voit aussi les difficultés et on en déduit donc que la progression (l’augmentation du nombre des habitants) ne pourra être que lente (il faut tout construire, à partir d’une énergie difficile à capter). La dépendance à la Terre sera durable, mais elle sera positive (créativité résultant des défis posés) et les Martiens auront de ce fait des ressources pour offrir en échange aux importations de la Terre, des services qui seront précieux aux deux parties, gage de pérennité pour les colonies martiennes. Le plan économique sans la prise en compte duquel rien ne se fera, a été traité par Antonio del Mastro. Il ne s’agit pas en effet d’attendre que les impôts résolvent tous les problèmes. L’économie tournée vers le spatiale doit se prendre en charge dès maintenant. Il ne faut pas oublier que travailler pour Mars c’est déjà travailler sur Terre, concevoir, acheter, vendre sur Terre. Le constater est une excellente façon de ne pas désespérer.

Ces différents thèmes étaient considérés « sous le regard du temps ». Pour mieux comprendre l’importance de ce facteur, nous avons eu deux exposés sur les fondamentaux de sa mesure. Gaetano Mileti et Pascal Rochat nous ont expliqué où nous en étions de la sensibilité et de la précision. Ce n’est ni anodin, ni anecdotique puisque toute navigation (toute prévision de déplacement à une certaine vitesse) se fait à partir de la mesure du temps et cela est d’autant plus important que sur Mars on n’aura que très peu de moyens de communication physique et que la plupart des interventions à distance se feront par l’intermédiaire de robots par des commandes en direct impulsées depuis la base habitée où seront concentrés les moyens de vie. De ce point de vue, il était passionnant de voir que des progrès considérables sont fait dans la définition de la seconde (unité de base de toute mesure du temps). Alain Sandoz a présenté une complication appliquée à la mesure du temps en apesanteur, ce qui peut évidemment servir dans le cadre d’une navigation vers Mars avec des phases plus ou moins longues dans cet état. Pour terminer, Mitko Tanevski a abordé le problème très complexe des communications interplanétaires. On parvient à les maîtriser comme le prouve le succès des missions robotiques récentes mais il faut rendre hommage aux spécialistes qui maîtrisent le sujet, véritable illustration du concept de complexité. Pour conclure Mitko Tanevski a fait une remarque que je trouve très troublante car elle pose problème pour les futures colonies : lorsque une population quelconque vivra sur Mars elle ne pourra pas avoir accès immédiat aux bases de données terrestres. La vitesse de la lumière est en effet incontournable et la distance de Mars fera toujours qu’une question posée à la Terre (personnes physiques ou base de données) n’aura de réponses qu’après une durée de 5 à 45 minutes. Que faire ? Copier les bases de données existantes, puis procéder continûment à leurs mises à jour ? Est-ce possible aujourd’hui et encore plus demain quand elles auront atteint une taille gigantesque ? L’effort ne sera-t-il pas néanmoins utile pour simple conservation de ces bases de données au cas où un problème leur portant atteinte se produirait sur Terre ? La discussion est ouverte.

De telles considérations n’ont pas empêché Robert Zubrin de donner des perspectives enthousiasmantes à l’exploration spatiale. Il nous a fait remarquer que nous sommes déjà dans l’espace. Il faut en prendre conscience et aller aussi loin de notre Terre que pourra le permettre notre technologie. Il s’agit de vouloir. Nous avions abordé plus tôt dans le cadre de notre débat, la stratégie des vols habités. On a bien vu à cette occasion la divergence de vue, entre certains scientifiques (représentés par Jean-Luc Josset) qui ne souhaitent pas dépenser pour les missions habitées des sommes qui dépassent de beaucoup les missions robotiques, et les tenant de l’établissement de l’homme sur Mars (représentés par Robert Zubrin) qui mettent leur projet devant cette recherche. Nous étions avec Claude Nicollier, au milieu, en demandant les deux. In fine en effet il faut bien voir que les sommes à prendre en compte pour les missions habitées sont très faibles par rapport à toutes les autres dépenses effectuées par les Etats modernes. Le budget actuel de la NASA ne représente que 0,5% des dépenses publiques des Etats-Unis et il ne serait même pas nécessaire de les doubler pour mener à bien un programme d’exploration de Mars par vols habités comprenant cinq ou six missions sur une douzaine d’années. Mais il faudrait le vouloir au niveau des Etats, ce qui n’est pas le cas ! Alors pour débloquer la situation, plutôt que d’attendre une décision des Etats ou l’éventuelle concurrence chinoise susceptible de réveiller les Etats-Unis, peut-être faut-il plutôt compter sur l’initiative et l’action individuelle. Elon Musk ou l’un de ses semblables peut relever le défi, sans rien demander à personne. C’est mon espoir et il a tout notre soutien et nos encouragements.

Image à la une : fresques de Hans Erni dans la grande salle de conférence du MIH. Crédit MIH et Aline Henchoz (photographe, La Chaux-de-Fonds).

NB: il y a eu d’autres présentations remarquables et je ne voudrais pas en minorer l’importance. Jean-Luc Josset a admirablement présenté son instrument CLUPI qui doit naviguer à bord d’ExoMars pour accompagner visuellement les forages à deux mètres que fera le rover de l’ESA. Roland Loos a montré que l’on pouvait espérer faire voler des avions dans le ciel de Mars en s’inspirant de Solarstratos, l’avion qui par la seule puissance de l’énergie solaire doit pouvoir accéder à la stratosphère terrestre (il lui faudra un décollage vertical comme le propose Roland Loos puisqu’il n’y a pas d’aéroport et qu’il faudrait de très longues pistes pour qu’il puisse s’envoler compte tenu de la très faible portance de l’atmosphère).

Sponsors: Space Exploration Institute (Neuchâtel); MIH; Spectratime; BCN; Trax-L

Index du blog :

https://blogs.letemps.ch/pierre-brisson/wp-content/uploads/sites/31/2018/10/Index-Lappel-de-Mars.pdf