Pour rendre possible la vie sur Mars, Interstellar Lab va nous apprendre à mieux vivre sur Terre

Une start-up franco-américaine, « Interstellar Lab », a entrepris, sous la conduite de sa fondatrice Barbara Belvisi, de réaliser le premier des rêves de la Mars Society, la réalisation sur Terre d’un établissement humain préfigurant et donc préparant les futurs établissements humains sur Mars. Par la même occasion elle veut démontrer que ces établissements seront très utiles pour l’évolution sur Terre vers des villes économes et autonomes sur le plan écologique car sur Mars elles devront par nécessité fonctionner en boucles bio-régénératives fermées avec un minimum de ressources (difficiles à importer et/ou à produire sur place). Et ce qui me rend, en tant qu’économiste, la start-up encore plus sympathique, c’est qu’elle a compris que pour devenir autonome et perdurer, elle devait rechercher et contrôler un flux de ressources commerciales. Par extraordinaire (mais c’est sans doute simplement la logique imposée par les contraintes résultant du contexte), ces ressources sont les mêmes que celles que j’avais envisagées de mon côté pour les futures communautés martiennes.

Avant de s’investir et d’investir dans le « New Space », Barbara Belvisi avait co-fondé « Hardware Club », un fonds de capital-risque spécialisé dans l’électronique et la robotique et elle avait contribué aux lancements de l’incubateur « The Family » et du « Hello Tomorrow Challenge », un évènement dédié aux « deep-tech ». Elle n’est donc pas novice en matière de technologies et de « business » et c’est important pour ce qu’elle entreprend maintenant avec une petite équipe de 7 personnes dont plusieurs ingénieurs. Le projet d’Interstellar Lab, baptisé « EBIOS » (pour « Experimental BIOregenerative Station »), consiste à construire en Californie, sur 70.000 m2 dans le désert des Mojaves (à 4 heures en voiture du centre de Los Angeles), un petit « village » constitué d’habitats et de serres, permettant à une centaine de personnes de vivre dans une autonomie maximum en recyclant ou régénérant par des processus « bio » tout ce qui peut l’être, à l’intérieur de structures d’un type que l’on pourrait construire sur la Lune ou sur Mars (cf illustration de titre). Pour le moment on ne recyclera pas l’atmosphère (ce n’est pas une priorité sur Terre !) mais on recyclera l’eau en utilisant les plantes, on recyclera également les matières organiques, autant que possible les matières non-organiques et on tentera dans tous les domaines de vivre avec les ressources locales en produisant son énergie (solaire bien sûr !), son alimentation (végétale) à l’issue de boucles bio-régénératives, et en construisant les habitats ou les dômes de vie commune grâce à l’impression 3D. C’est exactement ce qu’on devra faire sur Mars où l’on aura toujours une barrière énorme au transport de masses et de volumes, la capacité d’emport de nos fusées étant limitée et le coût de leur utilisation restant forcément élevé. Le transport n’est en effet nulle part gratuit et il coûtera toujours cher entre les planètes (production et entretien des infrastructures de l’astroport, des lanceurs et des vaisseaux spatiaux, des ergols ; contrôle et remise en état des lanceurs et vaisseaux spatiaux après usage et avant réutilisation ; entretien de l’aménagement intérieur des cabines et espaces communs ; formation et rémunération des personnels affectés au pilotage et aux services pendant le voyage et ce d’autant que personne ne pourra probablement effectuer plus qu’un petit nombre de voyages – 3 ou 4 – en raison des doses de radiations accumulées).

Le concept d’Interstellar Lab est de mettre à disposition une base de recherche sur les systèmes bio-régénératifs et de vie au sein de systèmes fermés (« ECLSS » pour « Environmental Control & Life Support System ») aussi réaliste que possible et, en même temps, de générer des ressources d’une part en hébergeant les scientifiques intéressés par les recherches susmentionnées et d’autre part en louant des résidences à l’intérieur d’EBIOS à toute personne intéressée par l’expérience de la vie dans cet endroit étrange (entre 3000 et 6000 dollars la semaine). Barbara Belvisi a visé juste en choisissant l’emplacement du premier village près de Los Angeles, ville dont la population est importante, les revenus moyens élevés et l’intérêt pour le spatial, très fort. Par ailleurs Los Angeles est un des centres de la NASA et Interstellar Lab compte dans son conseil d’administration, le Dr. Greg Autry, une forte personnalité, qui a été membre du dernier Space Review Team et a servi de liaison entre la NASA et l’exécutif sous cette administration. Il est particulièrement intéressé par l’entrepreneuriat et l’économie « New Space » (qu’il enseigne à l’Université de Southern California). En dehors de l’intérêt pour la préparation à la vie sur Mars, on voit clairement ce que le projet EBIOS peut apporter à la vie sur Terre : l’apprentissage d’une activité normale avec un impact écologique minimum (donc réduit par rapport à aujourd’hui), la démonstration que l’on peut vivre dans les endroits a priori les plus hostiles (les habitants des pays en voie de désertification ou des pays ou la pollution est très forte, apprécieront) et aussi que la remédiation à la détérioration de l’environnement par la technologie n’est pas un vain concept en dépit des doutes clairement affichés par les écologistes extrémistes partisans de la décroissance.

Comme dit précédemment, ce que j’apprécie le plus dans ce projet EBIOS et qui le distingue vraiment (en mieux !) des simulations de la Mars Society c’est que Barbara Belvisi a compris l’intérêt sinon la nécessité de le mener comme une entreprise commerciale. Elle ne cherche pas à le développer et le faire vivre sur des dons privés ou des subventions publiques à fonds perdus, sentant bien que sur ces bases il ne pourrait être durable. Elle veut en faire une entreprise rentable (et je pense que c’est aussi probablement l’esprit des premiers sponsors), c’est-à-dire faire en sorte que son offre fasse l’objet d’une demande solvable suffisante pour dégager une marge positive. Elle l’initie bien sûr avec des sponsors mais ceux-ci sont aussi des investisseurs qui n’espèrent pas seulement une valorisation de leur image mais une aide à leur propre « business ». Ensemble ils veulent gagner de l’argent pour en tirer des bénéfices et pouvoir, outre l’agrément personnel qu’ils pourront en tirer, les réinvestir pour développer le projet et le reproduire ailleurs dans le monde en l’améliorant de plus en plus. Ce principe « basique » d’économie est le meilleur gage de pérennité. Illustrant cet état d’esprit il est intéressant de noter que le principal sponsor d’Interstellar Lab, Bruno Maisonnier, est lui aussi un entrepreneur qui a su réussir aussi bien sur le plan de son concept, en le concrétisant de manière très satisfaisante, que sur le plan financier en le revendant un très bon prix et qui pourra utiliser EBIOS pour son intérêt propre. Rappelons qu’il est le créateur d’Aldébaran, cette société qui a conçu les petits robots humanoïdes qu’Arnaud Montebourg a pris dans ses bras et que le monde entier a pu admirer, et qui a été assez rapidement vendu au japonais Softbank (faute de pouvoir être développé sur capital français). Bruno Maisonnier veut maintenant donner le maximum d’intelligence (artificielle bien sûr) à ses robots et le projet EBIOS « tombe bien » car un des problèmes de Mars (ou de la Lune) sera la faible population et l’étendue des tâches à accomplir avec le maximum d’autonomie, donc l’environnement idéal pour les robots qu’il pourrait concevoir. Sa coopération avec Barbara Belvisi qui lui offrira un remarquable espace d’expérimentation et de démonstration, semble a priori devoir être « gagnante-gagnante ».

Il existe déjà des expériences de vie écologiquement autonomes préfigurant les villes que l’on pourrait construire « sur d’autres astres sous d’autres cieux » mais aucune ne semble avoir choisi la voie du réalisme comme veut le faire Interstellar Lab. « Biosphere-2 » avec son projet totalement fermé était trop ambitieux, surtout à son époque (1991-1993 et 1994). De son côté la Mars Society ne recherche que des « utilisateurs » (et non des « clients ») désireux de faire des simulations plus ou moins scientifiques et se prive de l’attrait touristique donc commercial que présentent ses habitats. Ce qui caractérise EBIOS c’est son approche « bottom-up » (ou comme Barbara Belvisi le dit, « from the ground-up ») et ouverte au commerce. Il ne s’agit pas de chercher à réaliser tout de suite le but qu’on envisage mais uniquement ce qu’il est possible de faire aujourd’hui sans oublier l’objectif qui est celui des vrais habitats martiens (ou lunaires). Biosphere-2 a échoué parce qu’il était impossible de contrôler un habitat aussi complexe que celui que ses promoteurs avait envisagé; les bases de simulation de la Mars Society végètent parce que les candidats aux simulations sont insuffisants par rapport aux coûts de fonctionnement générés par chacune. Il en résulte que leur confort est spartiate, ce qui n’est pas grave, mais aussi, que leur réalisme est moindre que celui qu’envisage Interstellar Lab par rapport aux habitats spatiaux futurs et les moyens de recherche devraient être en fin de compte beaucoup plus limités. Cela n’exclut pas pour Interstellar Lab d’avoir l’intention d’adopter des règles très « avancées » vers le futur quand il est possible de le faire. Ainsi dès le début, les plus grandes précautions (segmentations des espaces de vie, de culture, de travail) seront prises afin d’éviter les contaminations microbiennes car ces contaminations dans un milieu écologique clos donc de petit volume, présentent un risque de ce type extrêmement élevé puisqu’il ne peut y avoir l’effet tampon (diffuseur de ce risque) qu’offre les grands volumes (comme la biosphère terrestre par exemple) et les déséquilibres sont extrêmement difficiles à maîtriser ou piloter si on les laisse se développer.

Cette première implantation devrait coûter un maximum de 30 million de dollars. Barbara Belvisi les obtiendra mais si vous voulez participer vous-même au projet, n’hésitez pas à la contacter, ce ne sera certainement pas « à fonds perdus ». Après il y aura d’autres village, le suivant en Floride mais aussi dans d’autres environnements tout aussi extrêmes que le désert des Mojaves pourvu qu’ils soient également facilement accessibles aux touristes. Comme il en est prévu aussi en Europe, pourquoi ne serait-ce pas en Suisse, en haute montagne, pour remplacer certains refuges, nos « cabanes » comme on dit, vieillissants ou insuffisants en capacité ou en équipements, où les problématiques concernent l’approvisionnement, les déchets et le recyclage, et bientôt la réadaptation à de nouvelles formes de tourisme compte tenu de la fonte des glaces ?

Illustration de titre: EBIOS dans le désert des Mojaves, vue d’artiste (crédit Interstellar Lab).

Liens:

http://interstellarlab.earth/about

https://www.usinenouvelle.com/editorial/l-industrie-c-est-fou-la-start-up-francaise-interstellar-lab-developpe-vraiment-des-villages-autonomes-pour-la-terre-et-l-espace.N905729

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 28

Une énergie sombre omniprésente domine-t-elle notre Univers?

Depuis Alexandre Friedman en 1922/24 on a réalisé que l’Univers non seulement n’était pas statique comme le croyait Albert Einstein mais qu’il est en expansion et, depuis 1988 avec le « Supernova Cosmology Project » dirigé par Saul Perlmutter et l’équipe « High-Z supernovae search » dirigée par Adam Riess, que non seulement il est en expansion mais que cette expansion apparemment s’accélère.

La cause de l’interrogation

L’expansion de l’Univers est maintenant une réalité qu’aucun astrophysicien ne conteste. On la constate par le décalage vers le rouge (effet Doppler-Fizeau) observé dans le spectre des galaxies de l’Univers observable et qui est d’autant plus important que les galaxies sont lointaines. Le problème est qu’après cette première constatation que l’on a formalisée en lui affectant une grandeur que l’on a crû être une « constante », la « constante de Hubble » (« H »), on s’est aperçu qu’elle n’était que la valeur actuelle (environ 70km/s/Mpc), « H0 », d’un simple paramètre, la possibilité de variation de ce paramètre résultant de la contradiction entre d’une part une force de contraction tenant à la masse de l’Univers subissant l’effet de la gravité, exprimé par le « paramètre de densité » (que l’on symbolise par «  » (Oméga), et d’autre part une force répulsive dont on ne peut encore que constater l’effet. La totalité de la matière, noire ou visible, et la force de gravité qu’elle implique, ne suffit donc pas à ralentir l’expansion (bien au contraire) ! Cette force répulsive que faute de mieux on appelle « énergie sombre » car on ne peut en identifier la nature, semble dominer l’Univers depuis 6 à 7 milliards d’années (sur 13,8 milliards). C’est à cette époque qu’elle commence à se traduire par une accélération générale de l’expansion, mais elle était sans aucun doute à l’œuvre dès l’Origine, c’est à dire le Big-bang, ou même, selon certains, peut-être avant ; il est en effet difficilement concevable qu’elle ait pu être créée ex-nihilo ensuite.

La force répulsive est déjà potentiellement présente dans l’équation de champ modifiée d’Albert Einstein (Gαβ = 8πTαβ + Λgαβ), par son coefficient « Λ » (lambda), qu’il avait lui-même appelé la « constante cosmologique » (mais il n’est plus certain aujourd’hui qu’elle soit constante !). Il faut dès à présent noter qu’il avait ajouté ce coefficient (cette « verrue » dira-t-il plus tard) à sa formule de base pour un objet différent de la prise en compte de la possibilité de variation de l’expansion. Il voulait simplement exprimer que pour lui l’Univers était statique (et sa constante cosmologique corrigeait exactement l’effet de la gravité). Les observations ultérieures et notamment celles du télescope spatial Planck ont montré que Λ pouvait avoir une valeur de 1,1056 × 10−52 m−2…avec une marge d’erreur. La valeur est très faible mais très légèrement positive et il faut bien voir que l’échelle est la plus grande qu’on puisse imaginer et donc que l’accélération est réelle, qu’elle représente du fait de l’immensité à laquelle elle s’applique, l’élément le plus important de la « densité de l’énergie totale de l’Univers » (72,8%) et par conséquent qu’elle implique dans le futur lointain la dispersion de la Matière. A noter que le coefficient Λ affectant comme le coefficient le paramètre de Hubble, est repris dans le modèle cosmologique « ΛCDM » (Lambda Cold Dark Matter) considéré aujourd’hui comme le « modèle standard du Big-bang » (qui met à jour le raisonnement d’Einstein). Mais on ne sait toujours pas ce qui peut bien provoquer cette accélération !

Les réponses possibles

Les cosmologistes ont fait beaucoup d’efforts pour trouver une explication à l’accélération. En gros on peut dire que la quasi-totalité (« A ») de leurs propositions recourent à des forces, des champs ou des particules que permettent sur le papier la science physique mais qu’on n’arrive pas à prouver / détecter et qu’une seule proposition (« B »), celle d’André Maeder, utilise la physique telle qu’elle est. Parmi les premières, certaines (1 et 2 ci-dessous) gardent la théorie de la Relativité Générale en y introduisant des « degrés de liberté » (variables aléatoires qui ne peuvent être déterminées ou fixées par une équation), d’autres (3 et 4 ci-dessous) la modifient. Voyons les dans l’ordre de leur éloignement progressif du modèle standard :

1) introduction de nouveaux champs physiques ou de nouvelles particules qui n’interagissent ni avec la matière baryonique, ni avec la matière noire, ni avec les photons. Les modèles de cette catégorie comprennent notamment la « quintessence » (Jim Peebles), une cinquième forme d’énergie active à chaque point de l’espace (à côté de la matière baryonique, de la matière noire, des neutrinos et des photons).

2) introduction de nouveaux champs très faibles qui peuvent être couplés avec les seuls photons et qui expliquent l’atténuation de la lumière par la distance (par une oscillation photons/« axions »…les axions étant des particules théoriques, de type boson, n’ayant pas de charge électrique et une très faible masse).

3) introduction de nouveaux champs, fortement couplés à ceux du modèle standard de la Relativité Générale. Ce couplage fort implique de modifier les équations de la Relativité Générale et/ou de changer les valeurs de certaines constantes fondamentales pour décrire les effets de la gravitation.

4) introduction de modifications drastiques à la théorie de la Relativité Générale avec plusieurs types de « gravitons » (bosons de masse nulle, particules théoriques porteuses de la force de gravité). Les modèles incluent les modèles « branaires » avec dimensions supplémentaires ou la « multigravité ».

Toutes ces hypothèses supposent beaucoup d’inconnues et ne sont pas (encore) testables puisqu’on n’a découvert / observé aucune des particules ou champs dont l’existence supposée est indispensable à leur vérification.

Dans ces conditions la proposition (« B ») d’André Maeder (Université de Genève) exposée en 2017 dite « invariance d’échelle du vide » qui suppose qu’aux grandes échelles cosmologiques, niveau où la théorie de Relativité Générale peut être appliquée, le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction, présente l’avantage de la simplicité et d’une sorte de « retour aux sources » (les premiers travaux d’Albert Einstein). Selon ce modèle, l’accélération de l’expansion de l’Univers serait possible sans que l’énergie sombre ou la matière noire soient nécessaires et avec une « constante cosmologique » Λ liée uniquement aux propriétés d’invariance du vide spatial, via un facteur d’échelle « λ » de ce vide . Cette hypothèse fait en effet apparaître logiquement, on pourrait dire « naturellement » (c’est le terme employé par André Maeder),  un terme très petit et variable d’accélération et ce « terme » est particulièrement significatif aux faibles densités. Or l’accélération est en effet, dans les observations, un terme très petit et c’est dans ces environnements de faibles densités (périphérie des galaxies spirales par exemple) qu’elle semble la plus évidente. Les premiers tests du modèle corroborent les observations : application de ses principes au calcul des distances par rapport aux décalage vers le rouge, à l’estimation de la magnitude par rapport aux redshifts, à l’estimation du coefficient de densité par rapport aux observations par le télescope Planck des fluctuations du CMB (Fonds diffus cosmologique), à l’estimation de la valeur actuelle du paramètre de Hubble (coefficient H0), et autres.

Dans tous les cas il y aurait bien expansion et, du moins actuellement accélération de l’expansion, ce sont des faits d’observation mais il n’y aurait pas obligatoirement d’énergie sombre et s’il y a énergie sombre, ce qui est de moins en moins probable, on ne sait toujours pas ce qu’elle serait. L’accélération de l’expansion de l’Univers reste un problème majeur pour la compréhension de notre Univers puisque d’elle ou de son contraire résultera (dans plusieurs dizaines de milliards d’années, tout de même !) la Destruction (Big Crunch ou Big Rip) ou l’Eternité (par le chemin de crêtes…mais on ne sera jamais certain de pouvoir y rester !). C’est un sujet difficile que je n’aborde, sans l’approfondir, que pour mettre en évidence son incontournable présence !

Illustration de titre: illustration schématique de l’expansion de l’Univers et de son accélération (évasement). Design Alex Mittelmann

Lien (Le Temps, 22 Nov. 2017) :

https://www.letemps.ch/sciences/un-professeur-genevois-remet-question-matiere-noire

lien UniGe:

https://www.unige.ch/communication/communiques/2017/cdp211117/

lien vers l’étude d’André Maeder:

file:///F:/energie%20sombre/Maeder_2017_ApJ_834_194.pdf

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

L’énigme de la matière noire

Ce que nous voyons dans le ciel avec nos yeux mais aussi, jusqu’à présent, avec nos instruments d’observation les plus sophistiqués, pourrait n’être que « la partie visible de l’iceberg » de la « densité d’énergie totale » de l’Univers observable, dit autrement, de la totalité des composants de l’Univers observable, matière et énergie comprises. La matière commune dite « baryonique » ne constituerait en effet selon le « modèle standard de la cosmologie », que quelques 4,9 % de cette « densité », dont les 100% comprendraient, outre la totalité de cette matière baryonique, la totalité des photons, la totalité des neutrinos, ainsi que la « matière noire » et l’« énergie sombre » (les neutrinos pouvant cependant faire partie de la matière noire). Les deux derniers composants constitueraient l’essentiel de cette même densité (26,8% pour le premier et 68,3% pour le second)…mais ils restent hypothétiques. La réalité nous force à constater leurs effets gravitationnels sans pouvoir les observer directement et il est très frustrant de constater l’invraisemblance intuitive que le premier, la matière noire, exprime alors que nous avons fait des progrès énormes en astronomie ces dernières décennies. Le second, l’énergie sombre, tout aussi mystérieuse mais qui est de toute façon moins « visible » (elle se manifeste dans le temps et dans les vitesses de récession exprimées sur les spectres des émissions électromagnétiques) et qui est une sorte d’antigravité, constitue une autre énigme qui ne sera traitée qu’accessoirement dans cet article…même si, peut-être, elle est intrinsèquement liée à la matière noire autant qu’à la matière baryonique.

Le constat

L’idée qu’il « manque quelque chose » s’est insinué dans les raisonnements depuis 1933 grâce à l’honnêteté et au courage de l’astronome suisse Fritz Zwicky (diplômé de l’ETHZ, enseignant au CalTech) qui avait observé une discordance entre la « masse dynamique » (dispersion des vitesses affectant les masses et résultant de la gravitation) et la « masse lumineuse » (estimation de la masse résultant de la quantité de lumière émise constatée) d’un groupe de galaxies dans un amas, la première étant beaucoup plus élevée que la seconde. Depuis cette époque ce « manque » a été observé mainte fois avec des équipement beaucoup plus performants (on pouvait douter de la précision des données recueillies à l’époque de Fritz Zwicky) et dans d’autres contextes. Une des façons de le percevoir est de porter attention à la vitesse de rotation des étoiles autour des cœurs de galaxie spirales par examen de leurs spectres de rayonnements électromagnétiques. D’après la troisième loi de Kepler, plus on s’éloigne du centre de gravité d’une galaxie, plus la vitesse des étoiles devraient décroître (cf ce qui se passe dans notre système solaire pour les planètes). Or, comme l’a constaté l’astronome Vera Rubin dans les années 1970 sur la base des spectres de la galaxie d’Andromède, la vitesse de rotation des étoiles (notée sur des « courbes de révolution ») en périphérie du centre est quasiment la même que celles des étoiles qui sont proches du centre, tout comme si la galaxie était beaucoup plus étendue en masse et en volume que sa simple partie visible, et la différence n’est pas marginale (de l’ordre de 95%!). Cette observation fut confirmée dès que l’on put, en 1999 avec le télescope spatial Subaru, observer les galaxies sur les longueurs d’ondes de l’infrarouge, hors de l’atmosphère terrestre (ce rayonnement permettant d’observer bien davantage de sources que les seules étoiles visibles). De même la vitesse d’expansion de l’univers est compatible avec une certaine masse de 30% de la densité critique et sans la matière noire cette masse serait évidemment insuffisante (sans prendre en compte l’accélération qui s’exprime depuis 6 à 7 milliards d’années et qui, elle, devrait résulter de l’« énergie sombre »).

De quoi cette matière noire pourrait-elle être constituée ?

Selon les théories, elle pourrait être chaude (rapide) ou froide (lente) en fonction de la nature des particules qui la constituent. Dans le premier cas, le neutrino serait un bon candidat et l’univers se serait formé à partir de grandes masses qui se seraient ensuite fragmentées. Dans le second cas, des particules lourdes comme les « WIMP » (« Weakly Interactive Massive Particles ») auraient provoqué ou contribué à provoquer/amplifier les anisotropies du plasma primitif (jusqu’à la Recombinaison) et l’Univers se seraient développé à partir de petites masses qui se seraient agglomérées ensuite et qui continuent encore aujourd’hui à le faire (plutôt la tendance dans la théorie d’aujourd’hui).

Pour dire les choses autrement, on a d’abord pensé « tout bêtement » (avant de passer à autre chose) que la matière noire pourrait être de la matière baryonique inobservable car difficilement visible avec nos instruments d’observation. Les nuages de gaz (hydrogène) enveloppant de nombreuses galaxies et s’étirant entre elles auraient pu être un bon candidat mais, autour des galaxies, leur vitesse et leur température semblent être plutôt la preuve de l’attraction de la masse de ces galaxies renforcée par la matière noire. Les objets périphériques massifs et très denses (MACHO pour « Massive Compact Halo Objects ») également du fait de leur petitesse apparente, tels qu’étoiles à neutrons, naines blanches, naines brunes, ou trous noirs, pourraient aussi être des candidats puisqu’ils sont difficiles à détecter et qu’ils contribuent évidemment à beaucoup de matière, dans l’ensemble. Cependant l’hypothèse étoiles à neutrons et naines blanches impliquent que ces étoiles auraient été autrefois « vivantes » et que donc le ciel ancien (ou lointain) aurait été plus brillant que le ciel contemporain (ou voisin), ce qui n’est pas le cas. Quant aux naines brunes (étoiles avortées ou quasi-étoiles), on n’a pu, jusqu’à présent, constater d’occultations suffisantes permettant de démontrer qu’elles atteignent une abondance suffisante. Les hypothétiques trous noirs périphériques constituent une piste également abandonnée car ils ne présentent pas les perturbations de leur environnement qu’ils devraient provoquer.

Les WIMP sont toutes sortes de particules lourdes « non-baryoniques » interagissant très faiblement avec la matière. Ce sont, après éliminations des autres possibilités, les meilleurs candidats à la matière noire (ceux qui « restent »). On les envisage en extrapolant le principe de « supersymétrie » du modèle standard de la physique des particules, chaque boson étant associé à un fermion (ces fermions ont des propriétés identiques, notamment de masse, aux bosons mais avec un spin différent de ½). A noter que les WHIMP ne sont pas des éléments d’antimatière qui seraient aussi des baryons (on sait que la matière et l’antimatière interagissent extrêmement facilement et vigoureusement). Les neutrinos pourraient être aussi une partie de l’explication ; contrairement au WIMP on connaît maintenant leur existence et leur omniprésence mais non pas leur abondance.

Identifier l’invisible

Depuis des décennies on s’efforce d’en savoir plus et d’abord en tentant de faire interagir, même très marginalement, la matière visible avec la matière noire (WIMP et/ou neutrinos). On a cherché et on cherche encore partout ces interactions, soit dans les accélérateurs de particules (notamment dans le plus puissant, le LHC – Grand Collisionneur de Hadrons), soit dans de multiples installations souterraines (pour éliminer le maximum de rayonnements « parasites » c’est-à-dire tous ceux qui interfèrent facilement avec la matière): CDMS (Cryogenic Dark Mater Search), XENON dark matter research project, WARP (WIMP ARgon Program), EDELWEISS (Expérience pour DEtecter Les WIMP En SItes Souterrains), CRESST (Cryogenic Rare Event Search with Superconducting Thermometers), EURECA (European Underground Rare Event Calorimeter Array) ou LUX (Large Underground Xenon experiment), soit sous la glace (IceCube, en Antarctique) ou dans l’espace (le spectromètre AMS, conçu par UniGe et qui est posé sur la Station Spatiale Internationale). La multiplicité des expériences marquent à la fois l’intérêt et sans doute la frustration des scientifiques, pensant « tenir quelque chose » mais incapables de le prouver car…les résultats sont toujours nuls ou, si l’on veut rester optimistes, repoussent toujours plus loin la « section efficace » de la matière noire (celle qui interagirait avec la matière). Un nouveau satellite, « Euclid » doit être lancé en 2022 par l’ESA pour tenter la détection. La conception de la charge utile est réalisée par Airbus et Thalès sous la direction du « consortium Euclid », constitué d’un grand nombre de laboratoires européens (une centaine dans 16 pays, ce qui témoigne de l’intérêt !) qui assureront aussi l’exploitation des données. Il doit rechercher les effets de l’énergie sombre mais, relativement à la matière noire, son principe est d’étudier, en « s’appuyant » sur la gravité, seule force, apparemment, qui ait un effet sur les deux types de matière, les effets de lentilles gravitationnelles faibles. La méthode consiste à mesurer la déformation de la forme des galaxies sous l’effet de la lentille gravitationnelle des matières visible et noire présentes entre la Terre et ces galaxies. Le degré de distorsion doit permettre de déduire comment se répartit la matière noire, en soustrayant l’effet de la matière observable, et observée.

Compte tenu des « résultats » décevants (à ce jour !), l’explication du mystère viendra-t-elle de théories alternatives ? La théorie MOND (Modification Of the Newtonian Dynamic) de Mordehai Milgrom propose une version modifiée des lois de la gravité (grande ou faible accélération selon que la masse est importante ou non). L’Univers de Dirac-Milne propose l’existence d’antigravité liée à l’antimatière (les particules d’antimatière, de masse négative, auraient une force de répulsion gravitationnelle). De son côté André Maeder (Université de Genève) propose l’hypothèse de l’« invariance de l’échelle du vide », autrement dit que le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction. Il remarque que cette hypothèse de départ de n’a pas été prise en compte dans la théorie du Big bang or le vide joue un rôle primordial dans les équations d’Einstein (il intervient dans la définition de la constante cosmologique). Appliqué aux observations astronomiques, il montre que son modèle prédit l’accélération de l’expansion de l’Univers sans qu’aucune particule ni énergie noire ne soient nécessaires. Si la moisson des données d’Euclid n’est pas concluante ou si l’une de ces théories alternatives prévaut auprès de la communauté des astrophysiciens dans les tests répétés fait pour les démontrer, on abandonnerait les WIMP qui apparaitraient alors comme un mirage; sinon toute une nouvelle physique passerait du champ théorique au champ observable. C’est ainsi que progresse la Science.

NB : cet article, très général, ne prétend pas épuiser le sujet de la matière noire mais seulement le mettre en évidence pour faire prendre conscience de la difficulté de la recherche (par définition on ne sait jamais ce qu’on va trouver). Il faut, sur la base des connaissances existantes, émettre des hypothèses pour résoudre les questions que posent la réalité des choses et sans relâche et en toute honnêteté, tester ces hypothèses avec les moyens forcément limités et le plus souvent indirectes dont on dispose.

Image de titre :

Une possibilité de représentation de l’énergie noire (que l’on n’a toujours pas vue*). Etant donné que l’on n’est toujours pas certain de l’existence de la matière noire, j’ai ajouté un point d’interrogation. *NB: les nuages d’hydrogène présents sur la photo, ici probablement le reste d’une supernova, ne seraient pas suffisants pour rendre compte de la totalité de la matière noire. Crédit de la photo (sans point d’interrogation !) : NASA, ESA, M. J. Jee and H. Ford et al. (Johns Hopkins Univ.)

Liens : 

https://www.futura-sciences.com/sciences/definitions/physique-matiere-sombre-46/

https://fr.wikipedia.org/wiki/Euclid_(t%C3%A9lescope_spatial)

https://www.unige.ch/communication/communiques/2017/cdp211117/

https://www.nasa.gov/multimedia/imagegallery/image_feature_827.html

Image ci-dessous:

Les observations des courbes de révolution des étoiles autour du centre de leur galaxie montrent qu’elles tournent trop vite si l’on se base sur la loi de la gravitation de Newton ou sur la masse déduite de la luminosité des galaxies. © Gianfranco Bertone.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

Gravité quand tu nous tiens !

On regrette souvent que Mars soit plus « petite » que la Terre (1/10ème de sa masse) et que le champ de pesanteur à sa surface (bien sûr d’origine gravitationnelle) ne génère qu’une accélération de 3,711 m/s2 (0,371 g) contre 9,806 m/s2 à la surface de la Terre. On a tort car une planète sensiblement plus massive que Mars serait moins facile à explorer par vols habités et il serait plus difficile de s’y installer.

On sait que des « super-terres », planètes rocheuses plus massives que la Terre (jusqu’à 10 fois, au-delà on parle de « méga-terres »), orbitent autour d’étoiles pas trop lointaines (quand même plusieurs années-lumière) et certains rêvent de pouvoir explorer physiquement « un jour » celles qui se trouvent dans la « zone habitable » de leur étoile (définie par une irradiance permettant l’eau liquide) comme, par exemple, Gliese 832c (illustration de titre). Il n’est certes pas impossible qu’on puisse y envoyer « un jour » des instruments d’observation (avec d’autres systèmes de propulsion que ceux dont nous disposons aujourd’hui) mais pour des hommes qui souhaiteraient y séjourner puis en repartir ce serait une autre affaire.

Il faut d’abord dire que si on a détecté beaucoup de ces super-terres c’est qu’elles sont plus faciles à « voir » depuis notre Terre du fait qu’elles sont plus grosses que les simples « terres » et le plus souvent dans l’environnement d’étoiles peu massives et peu lumineuses (type « naines-rouges »). Il est donc moins que certain qu’elles soient plus nombreuses que les autres planètes plus petites.

Sur le plan planétologique qui dit masse plus importante, dit intérieur planétaire plus chaud (chaleur provenant de l’énergie cinétique d’origine + désintégration lente des métaux radioactifs que sont, par exemple, en ce qui nous concerne, le thorium-232, « 232Th », l’uranium-238, « 238U », et le potassium-40, « 40K »), tectonique des plaques plus active (idem pour ses corollaire, les tremblements de terre et le volcanisme), atmosphère plus épaisse, donc « habitabilité » (au sens terrestre) non forcément meilleure (pour ne pas dire « plus mauvaise »), sans parler des effets de la gravité sur les objets ou personnes évoluant en surface !

Le premier effet négatif d’une gravité plus forte, serait une vie plus difficile pour des Terriens. Autant il est possible d’envisager la vie sur Mars ou même sur la Lune, le poids d’une même masse étant moindre que sur Terre ce qui permet les déplacements sans fatigue et la circulation interne du sang sans risque d’une moindre irrigation du cerveau, autant on aurait les conséquences contraires dans un environnement soumis à une gravité plus forte que sur Terre. Et pas d’échappatoire ! Sur la Lune ou sur Mars on peut envisager de porter de lourdes combinaisons spatiales avec accessoires (entre 60 et 80 kg) sans problèmes (et il le faudra) puisque notre corps est structuré pour porter son poids terrestre. Sur une super-terre il faudrait quasi nécessairement porter également une combinaison avec accessoires (pour au moins se protéger d’une atmosphère probablement irrespirable et de températures incommodes sinon insupportables) mais cela ne ferait qu’aggraver les choses au point de vue du poids. Le corps se fatiguerait vite. Les exosquelettes pourraient compenser le handicap mais il faudrait les porter constamment et rien ne pourrait pallier la faiblesse relative du cœur pour pomper efficacement le sang vers le cerveau lorsque le corps est en position verticale (on a noté un afflux de sang trop important vers cet organe vital dans le contexte de quasi apesanteur de l’ISS et il faut donc bien que, par symétrie, l’insuffisance se manifeste lorsque la  gravité est trop forte).

Le second effet négatif serait un atterrissage difficile mais surtout un redécollage pratiquement impossible. En effet la vitesse de satellisation à partir de la surface de la Terre est de 7,9 km/s, la vitesse de libération est de 11,2 km/s et la vitesse d’injection en trajectoire martienne (jusqu’au voisinage de Mars) est de 3.8  km/s s’ajoutant aux 7,9 (soit 11,7 km/s). Pour atteindre Mars et y déposer 100 tonnes ou 100 passagers avec 50 tonnes de charge utile, le véhicule conçu par SpaceX (lanceur « Super-Heavy » + vaisseau spatial « Starship ») a des dimensions et des masses qu’il est difficile de dépasser. Super-Heavy pèse 3065 tonnes (rempli de ses 2728 tonnes d’ergols). Le Starship a une masse de 1335 tonnes (120 tonnes sèches…mais il faut lui apporter 1100 tonnes d’ergols et il peut emporter 115 tonnes de charge utile). L’ensemble pèse donc (au maximum) 4400 tonnes au départ de la Terre et mesure 118 mètres de hauteur. La poussée au départ est de 7400 tonnes* (donnée par 37 gros moteurs « raptor ») et il faut la soutenir pendant un certain temps. On voit bien que toute masse de planète supérieure à celle de la Terre (ou même légèrement inférieure) pose problème et ce problème serait évidemment aggravé en cas d’atmosphère plus dense et plus épaisse (plus la vitesse augmente, plus la densité relative de l’atmosphère augmente et plus elle devient un facteur de ralentissement du corps qui la pénètre) or une gravité plus forte est susceptible de retenir une masse atmosphérique plus importante. On peut imaginer repartir de Mars avec 100 tonnes de charge utile et seulement un starship, sans son super-heavy. C’est relativement facile car compte tenu de sa masse relativement petite, la planète Mars impose une vitesse de libération de seulement 5 km/s. Mais si la super-terre était d’une masse égale à celle de la Terre (ou légèrement inférieure), il faudrait réutiliser pour en repartir le même dispositif que pour partir de la Terre, c’est-à-dire non seulement un starship plein d’ergols mais aussi (et d’abord) un super-heavy. Pour toute masse planétaire encore supérieure, le dispositif serait insuffisant et notre fusée géante serait bien incapable de retourner placer sa charge utile en orbite et plus encore d’atteindre sa vitesse de libération. On pourrait donc sans doute descendre en surface sans s’écraser (en consommant beaucoup d’énergie et surtout en se freinant à l’aide d’une atmosphère plus épaisse) mais une fois arrivés, on devrait y rester !  Pensons y avant d’envisager y aller (heureusement ce n’est pas d’actualité !). Et n’oublions pas qu’une planète de type terrestre (de même masse que la Terre donc plus petite que les super-terres) comme par exemple l’hypothétique lune Pandora du film « Avatar » de James Cameron orbitant autour de l’hypothétique géante gazeuse Polyphème du système d’Alpha Centauri A, poserait également problème car comme dit plus haut, le starship avec ses six moteurs serait tout autant incapable d’en repartir. Apporter sur la planète un super-heavy pour remonter le starship en orbite compliquerait et renchérirait les voyages (et, pour les premiers voyages, supposerait qu’on pose l’intégralité du vaisseau et de son lanceur sur la planète en comptant de plus sur la production robotisée sur place des ergols de retour…en très grosses quantités, sans oublier la vérification et remise en état du lanceur déjà utilisé avant de le réutiliser…ce qui suppose une certaine capacité logistique).

*pour comparaison, la poussée de la version la plus puissante du nouveau lanceur européen, Ariane VI (avec 4 “booster”), est de 1530 tonnes (et elle pourra placer 10 tonnes en orbite terrestre (LEO). Elon Musk dit qu’il veut pour son Super-Heavy, un ratio poussée / masse d’au moins 1,5 et qu’il envisage éventuellement de porter la masse à soulever à 4920 tonnes (3500 + 1420).

Le seul effet bénéfique de la masse de ces super-terres, outre leur capacité à retenir une atmosphère du fait de leur force d’attraction gravitaire, c’est qu’elles doivent probablement générer un puissant champ magnétique autour d’elles. En effet, du fait de la pression générée en leur centre par la gravité résultant de leur masse, leur noyau métallique doit être solide au centre et liquide en périphérie, de quoi générer un bel effet dynamo. Le champ magnétique qui doit en provenir doit donc contribuer fortement à la protection contre les radiations, galactiques et stellaires.

Donc ne rêvons pas trop de super-terres, de toute façon bien lointaines, comme des havres possibles pour l’humanité. Méfions-nous quand; dans les média, on les assimile à la Terre et apprécions la chance que nous avons de disposer à notre portée, d’un astre relativement hospitalier selon nos critères, la planète Mars, pour nous « exercer » à l’exploration planétaire par vols habités et à la vie sur un autre sol que celui de la Terre.

*NB : Evidemment le jour où nous pourrons construire des « îles de l’espace » comme le voulait Gerard O’Neill, on pourra choisir sa gravité (en fonction tout de même du rayon du cylindre de l’île pour limiter les effets négatifs de la “force” de Coriolis) et accoster sans problème à son lieu de vie (sans consommation d’énergie pour lutter contre les effets de la gravité). Ce serait la meilleure solution du point de vue de la gravité subie. J’espère que ce sera possible un jour mais nous n’en sommes pas encore là.

Lien :

https://fr.wikipedia.org/wiki/Mission_habit%C3%A9e_vers_Mars

Image de titre :

Gliese 832c et la Terre, vue d’artiste.

Gliese 832c se trouve à seulement 16 années-lumière de la Terre, autrement dit « à côté ». Sa masse n’est que de 5 fois celle de la Terre…On pourra sans doute y accéder un jour mais si on s’y pose, il ne sera pas facile d’en repartir.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

Du décalage des rayonnements reçus, par la distance et donc le temps

Les rayonnements électromagnétiques sont les signaux les plus exploités par l’astronomie. Au début de cette science, pendant tout de même de nombreux millénaires, tout était simple, on regardait le ciel avec ses yeux nus, par nuits claires, en montant parfois sur une butte, une tour ou une pyramide pour s’en approcher mais de toute façon on ne voyait pas grand-chose relativement à l’immensité de l’Univers. La première révolution eut lieu avec Galilée qui eut l’idée, en 1609, d’utiliser pour l’observation, un dispositif optique grossissant que des Hollandais, Hans Lippershey, Jacharias Jansen et Jacob Metius venaient d’inventer pour d’autres usages (1608), la fameuse lunette ; mais on continua à n’exploiter que les ondes lumineuses et ce jusqu’en 1933. Ce n’est que cette année-là que Karl Jansky, ingénieur radio chez Bell Telephone Laboratories, perçut par accident (encore !) et comprit que les astres (en l’occurrence le Soleil) émettaient aussi des rayonnements sur les longueurs d’ondes radio. Toute la radioastronomie remonte à cette découverte. Depuis on a généralisé le raisonnement, sans doute en partant de l’idée que tout rayonnement a une source, et on a exploité toutes les longueurs d’onde du spectre électromagnétique, des rayons gamma aux rayonnements radio les plus longs, puis on a imaginé et réalisé des capteurs pour d’autres rayonnements, non électromagnétiques, les neutrinos, les ondes gravitationnelles ou les UHECR (Ultra-High Energy Cosmic Rays). Cela nous permet d’observer non seulement les astres qui n’émettent pas dans le spectre des ondes lumineuses mais généralement toutes les sources, soit parce que leur activité n’est pas suffisamment décrite par leur éclat ou que, ces sources étant très lointaines et donc leur lumière plus ancienne, elle a été atténuée par le temps qui s’est écoulé entre émission et réception.

La découverte de Jansky intervint à peu près à l’époque où Georges Lemaître et Edwin Hubble comprirent qu’il y avait expansion de l’Univers (encore que Hubble n’en fût pas convaincu, malgré ses propres mesures) et que cette expansion étirait les longueurs d’onde et diminuait les fréquences, et ce d’autant plus fortement que les sources s’éloignaient rapidement de nous et donc étaient de plus en plus lointaines. C’est le fameux « décalage vers le rouge » ou « redshift ». Cela conduisit l’abbé Lemaître à publier en avril 1927 son article « Un univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extragalactiques ». C’est là qu’il montra (en Français dans les Annales de la Société scientifique de Bruxelles) le rapport constant entre distance et vitesse d’éloignement, ou de récession, qui deviendra (dans la traduction en Anglais dans les Notices of the Royal Astronomical Society, 1931) la « constante* de Hubble ». Ce paramètre correspond parfaitement à la constatation du décalage vers le rouge par effet Doppler-Fizeau des signaux lumineux reçus des étoiles les plus lointaines s’éloignant donc de nous avec des vitesses de récession élevées. C’est ainsi que naquit en 1929 la loi de Hubble-Lemaître et en 1931 (Lemaître) la théorie du Big-Bang.

*En réalité, cette constante n’en est pas une mais un paramètre qui diminue avec le temps qui passe. Seule sa valeur actuelle devrait être appelée “constante de Hubble”.

** Il faut ici éviter une confusion fréquente : les galaxies, qui contiennent les étoiles dont on mesure ce décalage vers le rouge, ne s’éloignent pas de nous à des vitesses faramineuses de dizaines, voire centaines de milliers de km/s, par un mouvement propre. C’est bien l’Univers, l’espace, ou, mieux dit, le tissu immatériel même de l’espace qui se dilate à ces vitesses qui peuvent ultimement atteindre la vitesse de la lumière (avec un décalage vers le rouge infini) et même la dépasser, ôtant à jamais alors à notre vue ces galaxies lointaines qui toutes sortiront un jour de notre horizon, rendant quasiment vide l’Univers autour de nous (sauf celles du « groupe local » liées entre elles de façon gravitationnelle).

Ces découvertes, couplées à la réalisation de télescopes et de capteurs divers de plus en plus grands et de plus en plus puissants, permirent d’effectuer un bond fantastique dans la connaissance et la compréhension de l’Univers et l’homme apprit très vite à jouer avec la complexité des données reçues et des instruments possibles, la première étant le décalage des signaux du fait de l’effet Doppler-Fizeau. Je laisse ici la parole à Christophe de Reyff, physico-chimiste, ancien responsable de la recherche énergétique à l’Office fédéral suisse de l’énergie (OFEN). C’est un passionné d’astronomie et de cosmologie qui nous donne ci-dessous quelques détails sur ces décalages pour les temps cosmologiques, là où ils sont le plus marqués (NB : je reprends sans autres son commentaires fait à la suite de mon article concernant le projet de télescope SKA) :

Citation :

Que peut-on détecter comme premiers signaux électromagnétiques de l’Univers ? Durant la période qui a suivi le Big Bang, jusqu’à quelque 380’000 années, il n’y avait encore ni étoiles, ni galaxies, mais seulement des photons mêlés à un plasma de protons et de leptons (électrons et neutrinos). Il n’y aura guère que deux sources de photons que nous pouvons encore capter aujourd’hui : ces photons « primitifs » résultant de l’annihilation de l’antimatière avec presque toute la matière, qui se découplent finalement de la matière subsistante vers une température de 3’000 K, et qui sont alors libérés et émis lors de ce qu’on appelle le « découplage » entre photons et matière vers l’âge de 380’000 ans de l’Univers. C’est à ce moment que se forment les atomes neutres d’hydrogène ; on appelle aussi ce moment la « recombinaison » entre électrons et protons, le terme étant trompeur, car il ne s’agissait là que de la première combinaison. À ces photons « primordiaux » enfin libérés s’ajouteront ensuite, plusieurs centaines de millions d’années après, ceux provenant de la célèbre « raie de l’hydrogène », due à une transition très rare entre un état d’énergie supérieure et un état d’énergie inférieure de l’atome d’hydrogène, la fameuse raie de 21 cm*. Mais, comme nous sommes à des périodes très lointaines, le non moins fameux décalage vers le rouge, noté z, fait que cette raie, qui est bien à 21 cm dans nos laboratoires et dans notre voisinage galactique immédiat, se trouve énormément décalée. Dans notre Galaxie, on en observe aussi bien un décalage vers le bleu qu’un décalage vers le rouge, suivant un simple effet Doppler de nuages d’hydrogène qui soit s’approchent, soit s’éloignent de nous.

Au moment très lointain dans le passé du découplage, la valeur de z était de presque 1’100. Cela signifie que, théoriquement, la raie de l’hydrogène pour les tout premiers atomes d’hydrogène formés et libres qui l’auraient émise à l’époque se trouverait pour nous à des longueurs d’onde 1’101 fois plus grandes, la relation simple étant : z + 1 = (longueur d’onde actuelle / longueur d’onde d’origine), donc maintenant vers 231 m ! Pour les fréquences correspondantes, c’est l’inverse : z + 1 = (fréquence d’origine / fréquence actuelle), et donc on n’aurait plus la fréquence originale de 1,4 GHz pour la raie de 21 cm, mais seulement 0,0013 GHz, ou 1,3 MHz pour une raie hypothétique située à une longueur d’onde de 231 m.. Bien sûr, cette raie hypothétique ne peut pas exister du fait que la rare transition entre les deux états de l’atome d’hydrogène demande plusieurs millions d’années pour se produire. Il faudra attendre l’apparition des premières galaxies, plusieurs centaines de millions d’années plus tard.

En effet, si l’on observe des galaxies qui ont été formées vers 6 milliards d’années après le Big Bang, la valeur de z est déjà tombée à presque 1. Avec z + 1 = 2, la raie de l’hydrogène se trouve à une longueur d’onde tout de même deux fois plus grande, à 42 cm, soit à une fréquence deux fois plus petite, à 0,714 GHz, ou 714 MHz. L’une des galaxies les plus lointaines, et donc parmi les plus primitives, observées à ce jour, GN-z11, a un « redshift » z = 11,09 et était située à 13,4 milliards d’années-lumière, soit à l’âge d’environ 400 millions d’années de l’Univers, lorsqu’elle nous a envoyé sa lumière que nous voyons aujourd’hui de façon très rougie. Les nuages d’hydrogène neutre qui s’y trouvent nous envoient donc sa raie non plus à 21 cm et 1,4 GHz, mais à 2,54 m et à 0,118 GHz, soit 118 MHz.

L’autre rayonnement omniprésent et quasi isotrope dans le ciel, le « rayonnement fossile » bien connu, dit aussi du « fond cosmologique », est celui qui provient du fameux « découplage » lui-même vers l’âge 380’000 de l’Univers. Il est l’image fossile d’un fond rayonnant alors à une température de 3’000 K, qui, du fait du décalage vers le rouge, z = 1’100, n’est plus qu’à une température apparente de 2,726 K pour nous. Autrement dit, selon la « loi du déplacement de Wien », qui relie la température à l’inverse de la longueur d’onde de l’intensité maximale, la fréquence du maximum de ce rayonnement est passée des 176 THz d’origine (dans le spectre visible) à seulement 160,2588 GHz précisément aujourd’hui (dans le domaine des ondes radio). La mesure de ce rayonnement fossile est désormais bien documentée et ce sont ses très faibles variations ponctuelles « anisotropies », de l’ordre du millionième de K, qui permettent de se faire une idée des premières structures en devenir du jeune Univers.

On voit donc qu’il est important que les nouveaux radiotélescopes puissent travailler dans une large gamme de 50 MHz à 1,4 GHz et demain jusqu’à 30 GHz, pour capter ces raies d’hydrogène provenant de galaxies plus ou moins lointaines, donc plus ou moins primitives.

Fin de citation.

Je pense que cette explication donne une bonne idée des difficultés auxquelles sont confrontés les astrophysiciens. Bien entendu la déformation des signaux due à la vitesse de récession correspond à des lois et des calculs très précis et leur interprétation est donc tout à fait documentée et justifiée. Une « anomalie » (accélération de l’expansion), mise en valeur par la confrontation des calculs et des observations, donne toutefois l’occasion de s’interroger à nouveau aujourd’hui sur l’existence et la nature d’une matière noire et d’une énergie noire.

NB* : La raie H1 « de 21 cm » exprime le passage (on dit la « transition ») de l’atome d’hydrogène d’un état métastable, où l’électron se trouve avec un spin parallèle à celui du proton, à un autre état très légèrement moins énergétique, et donc plus stable, où ces spins deviennent « antiparallèles ». La très faible (on dit « hyperfine ») différence d’énergie est seulement de l’ordre du millionième d’électron-volts mais elle est restituée sous forme de rayonnement électromagnétique (la fameuse raie de 21 cm, correspondant à la fréquence 1420,4 MHz, là où la transition se produit) donc théoriquement captable par un instrument d’observation. Ce passage est extrêmement rare (un atome d’hydrogène d’énergie supérieure a une demi-vie de plusieurs millions d’années avant de « tomber » au niveau inférieur) mais l’hydrogène est la matière la plus abondante de l’Univers (73,9 % en masse actuellement et 75 % à l’origine, c’est-à-dire après le « découplage »), et ce passage intervient spontanément partout dans l’Univers (il est, de plus, « favorisé » par les très rares collisions d’atomes d’hydrogène). Compte tenu de son immensité, la somme des transitions à un instant donné est quand même bien perceptible dans cette raie de 21 cm (on dit qu’elle a « une forte intensité »), nous envoyant une information sur la présence d’hydrogène dans les endroits les plus éloignés comme les plus proches.

NB: Cet article est publié après relecture et accord de Monsieur de Reyff.

image ci-dessous, le spectre électromagnétique:

Liens :

https://fr.wikipedia.org/wiki/Raie_%C3%A0_21_centim%C3%A8tres

https://www.futura-sciences.com/sciences/actualites/voie-lactee-raie-21-cm-cle-astrophysique-cosmologie-seti-27588/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

Nous n’avons pas eu le prix de la Mars Society USA mais pour de bonnes raisons

Comme exposé dans un article récent, j’ai présenté à l’Université de Californie du Sud (USC) le 19 octobre, au nom d’une petite équipe, le projet d’une colonie martienne de 1000 habitants. L’équipe était constituée de Richard Heidmann, polytechnicien et ingénieur en astronautique, fondateur de l’Association Planète Mars (l’entité française membre de la Mars Society), de Tatiana Volkova, ingénieure et candidate à un doctorat d’architecture à l’EPFL (Swiss Space Center) et de moi-même. La présentation était faite dans le cadre d’un « Mars Colony Contest » proposé par la Mars Society USA au monde entier. Sur 100 équipes concourantes, nous avions passé, sur dossier écrit, le premier éliminatoire, puis le deuxième et nous nous retrouvions dans les cinq premiers candidats. Pour passer l’obstacle final nous faisions face à un jury doublé en nombre (huit personnes au lieu de quatre) venant d’horizons différents mais incluant des membres de la Mars Society USA, un « ancien » de la NASA et un cadre de SpaceX (qualifications précises non spécifiées).

Le fait que notre dossier écrit ait reçu du premier jury les notes les plus élevées sur le plan technologique n’a pas été suffisant pour nous donner une position victorieuse (c’est une équipe du MIT qui a gagné et une équipe de l’Université de Wroclaw qui est arrivé en second). La déception de ne pas recevoir de prix fut grande mais l’explication justifiant le choix final, reçue ensuite, m’a rasséréné et finalement conforté dans l’opinion que nous avions fait le meilleur travail. En effet les deux objections qui nous ont « plombés » ont été que (1) nous n’exposions pas suffisamment la vision que nous avions de la colonie et (2) que nous envisagions pour cette même colonie une gouvernance d’entreprise en liens étroits avec la Terre et non une gouvernance locale, entre colons, totalement libre.

Je considère ces objections comme non valables et j’ai bien sûr des arguments pour défendre ce point de vue.

Concernant la première, j’avais en effet constaté que les autres candidats présentaient des visions futuristes d’établissement et de vie sur Mars, sans bien expliquer comment ils parvenaient à la concrétisation, ou en supposant pour le faire, des progrès techniques ou des performances utilisant les technologies d’aujourd’hui, qui me semblaient irréalistes. Ainsi, par exemple, ils montraient de vastes halls viabilisés, très peu occupés pour ne pas dire vides, sans apparemment s’être souciés des pressions qui allaient s’exercer sur les parois contenant ces volumes ou sur les quantités d’azote nécessaires pour les emplir à une pression acceptable* pour constituer, dans l’ensemble des volumes viabilisés, une atmosphère respirable non facilement inflammable (compte tenu de la quantité d’oxygène nécessaire, non réductible). De notre côté nous avons toujours pris soin de préciser comment, en utilisant les technologies existantes, les équipements et les ressources en matière, en robots, en hommes et en réunissant les financements nécessaires, on pouvait obtenir les résultats que nous considérons atteignables. Nos dômes viabilisés ont un diamètre maximum de 30 mètres (et la plupart seulement de 20 mètres) tout simplement  parce qu’au-delà, le socle en duricrete (béton fait avec de l’eau ajouté au régolite martien) qui maintient la structure, serait trop épais (déjà un mètre pour les dômes de 20 mètres et deux mètres pour les dômes de 30 mètres), c’est-à-dire demanderait trop d’eau et serait trop long à construire, et le volume de ces dômes est utilisé sur plusieurs niveaux. Pour nous il ne s’agissait pas, comme le jury l’aurait souhaité, de « montrer la maison qu’on voulait vendre » mais de « montrer comment construire la maison qu’on voulait réaliser ». J’estime que, dans les circonstances supposées (un environnement extrême, s’il en est), c’est bien la seconde approche la plus intéressante et la seule qui aurait dû être prise en considération.

*nous avions choisi 0,5 bars dont 42% d’oxygène ce qui semble le minimum acceptable pour d’une part la pression externe exercée sur le corps et d’autre part l’inflammabilité mais cela induit quand même une poussée de 5 tonnes par m2 sur les parois des habitats, ce qui impose des matériaux particulièrement résistants (pour nous des barres d’acier encadrant et tenant des parois constituées de deux plaques de verre laminé de 1,5 cm d’épaisseur et de 3 mètres sur 1,5 m de largeur / longueur). 

Concernant la seconde objection, je maintiens qu’il est illusoire de prévoir qu’une colonie martienne de 1000 habitants puisse se gouverner elle-même (en dehors bien sûr des nécessités imposées par l’éloignement de la Terre et de l’intérêt de tous de laisser s’exprimer la créativité des résidents) alors qu’elle sera très largement dépendante des importations d’équipements de la Terre et que d’autre part elle sera le résultat d’investissements lourds de capitalistes qui n’auront, au stade des mille résidents, pas récupéré beaucoup de fruits de ces investissements (après les quelques 20 années nécessaires pour « monter » jusqu’à ce niveau de population). On estime que les revenus, provenant surtout de la vente de location d’habitats, de services annexes (à des chercheurs et à des touristes) et de la valeur générée par quelques start-up, commenceront à être engrangés dès le troisième cycle synodique suivant le premier atterrissage mais que ces revenus seront très faibles par rapport aux premières dépenses, même s’ils croîtront ensuite en fonction de l’accroissement des capacités d’hébergement. Il est donc inévitable que les investisseurs, via une « société d’exploitation de Mars » restée sur Terre, contrôlent sérieusement, au moins en exerçant un droit de veto, les décisions qui seront prises par les personnes qui résideront sur Mars (celles qui seront employées par la société d’exploitation et celles qui auront payé pour venir faire un séjour sur Mars) même si, bien entendu, les résidents martiens devront avoir le droit de se prononcer sur la gestion de la colonie et l’orientation des activités pouvant être développées sur Mars. NB : Les « paying-guests », c’est à dire « les clients », qui auront payé pour leur voyage et leur séjour et les membres du « staff », personnel qui sera payé pour faire fonctionner la base, pourront et devront faire bénéficier de leur expérience l’ensemble des personnes intéressées et devront sur place réagir et s’adapter rapidement à l’évolution et aux situations nouvelles.

Heureusement, les dossiers des finalistes, dont le nôtre, seront publiés dans un livre de la Mars Society. Cela permettra à tous les lecteurs de se faire une opinion (et de nous faire justice), au-delà de (trop) belles images peut-être suscitées par la proximité malheureuses (en l’occurrence) de Hollywood.

Illustration de titre :

Un ensemble habitable individuel selon notre projet (ils sont assemblés en rangées de 26 unités accolées, reliées entre elles par des couloirs pressurisés, sous l’habitat). Il utilise l’acier, le verre, la glace d’eau, tous éléments qui peuvent être produits ou obtenus sur Mars. Le module-habitat proprement dit a un diamètre de 6 mètres avec deux niveaux habitables et un sous-sol où circulent les canalisations. A chaque module-habitat sont accolés deux modules-serre et un module-couloir. Chaque personne dispose de 30m2 au sol au niveau principal du module-habitat. Avec les annexes, dômes (pour les réunions et actions collectives) couloirs et sas, la surface viabilisée par personne atteint 50 m2 ; la surface cultivée est de 80 m2 à 100 m2 par résident (le volume des modules-serre est utilisé au maximum, sur plusieurs niveaux).

Nous avons prévu des éléments de construction simples pour pouvoir être produits sur place et remplacés facilement. NB : 30 cm de glace d’eau constitue un excellent écran contre les protons des radiations solaires (SeP).

Les quelques dômes géodésiques qui ponctuent l’ensemble de la base utilisent les mêmes matériaux et sont reliés avec le reste de la base par des corridors pressurisés.

Illustration ci-dessous:

Grand hall du projet de la Wroclaw University of Science & Technology (Pologne), arrivée seconde à la finale du “Contest”. Joli mais comment font-ils pour le construire ? Quelle énergie dépense-t-ils pour édifier les parois et la toiture (si le hall est en surface) ou pour creuser ce volume énorme (s’il est enterré) ? De quels engins ont-ils disposé ? Combien de vols ont-ils été nécessaires pour les importer de la Terre? La pin-up du premier plan est-elle bien utile ? Et quel gâchis de gaz rares (l’atmosphère martienne dont la pression est de 6 millibars ne contient que 2% d’azote; même à une pression interne de 0,5 bars, cela représente des quantités relativement énormes et une énergie considérable pour l’extraire) !

 

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 01

Strathdon, une roche martienne qui raconte une histoire et séduit par sa beauté

Regardez! Vous êtes, face à cette roche brune et ocre-beige entourée de sable noir, devant un des éléments de notre « jardin-sec* » martien. Pensez et imaginez !

* « karesansui » des temples zen comme celui du Ryoan-ji de Kyoto. Ce type de jardin  presque entièrement minéral avec quelques petits inserts de mousse incite à la méditation (…quoi que du fait de sa célébrité et donc de sa fréquentation, celui du Ryoan-ji est sûrement devenu impropre à la pratique de cet exercice mental !).

Vous avez devant les yeux trois milliards d’années d’histoire et comme les géologues nous le disent, énormément d’informations. Cette roche exceptionnelle nous raconte en effet l’histoire de l’eau sur Mars puisqu’elle a figé cette histoire dans sa matière. Elle évoque un grand lac au fond du cratère Gale dans lequel s’écoulaient des rivières et des torrents venus du haut de ses remparts. Elle nous dit les nuages gorgés d’eau, les pluies et le tonnerre, la terre transformée en boue emportée et lentement déposée au fond du lac, années après années, milliers d’années après milliers d’années. Elle nous dit l’hiver et les très longues périodes de sécheresse sous ciel clair et léger, intercalées avec celles d’une atmosphère épaisse résultant de puissantes éruptions volcaniques. Elle nous dit les périodes de comblement du lac par les alluvions alternant avec celles de dégagement de ces mêmes alluvions par la lente action des vents devenue finalement dominante. Elle nous dit ces périodes d’aridité de plus en plus longues et d’allègements cycliques mais continus de la couverture atmosphérique.

Pensez à tout ce qui s’est passé sur Terre pendant les quelques deux milliards d’années allant de – 3 à – 1 Gy environ, de moins en moins humides sur Mars, au grouillement des archées et des bactéries précurseures de la vie vers l’oxygénation de l’atmosphère avant de pouvoir parvenir aux organismes métazoaires ; au flux et reflux incessant des marées sous une énorme lune bien plus proche de notre planète qu’aujourd’hui, à l’agglomération des terres en continents et à leur séparations dans une suite de recompositions jamais stabilisées. Pensez à toutes ces alternances de jours et de nuits, sur Mars comme sur Terre, aux odeurs de la terre mouillée ou de vase qui sèche (avec peut-être pas mal d’« œuf pourri » dans l’air car il y avait aussi des composés soufrés !) comme nulle part ailleurs sauf sur Mars et la Terre, au bruit du vent qui souffle en caressant la surface du sol ou qui hurle en l’arrachant, comme seulement sur Mars, sur Terre et sur Titan.

Strathdon a connu tout cela, a enregistré tout cela et nous pouvons l’interroger en l’examinant attentivement comme nous savons le faire. Valerie Fow, la jeune planétologue en charge au CalTech nous dit : “It wasn’t just a static lake. It’s helping us move from a simplistic view of Mars going from wet to dry. Instead of a linear process, the history of water was more complicated.” Bon, je l’admets, c’est un peu court mais on en saura bientôt plus puisque nul doute que de jeunes chercheurs en préparation de thèse, ou d’autres plus expérimentés, vont se saisir du sujet, d’autant que la photo sera complétée par l’analyse de prélèvements effectués dans la roche, par et à l’intérieur du laboratoire SAM (« Sample At Mars ») embarqué par le rover Curiosity. Evidemment nous aurions un homme à côté de Curiosity, il serait allé fouiller le sol en dessous de la roche pour prélever des échantillons mieux préservés des radiations ; il en aurait prélevé des tranches ultra-fines qu’il aurait examinées dans son habitat avec son microscope à balayage électronique. Il s’agit en effet de descendre à des dimensions bien inférieures aux 12 microns des caméras de Curiosity, au moins jusqu’au micron (taille moyenne des bactéries terrestres) et si possible au dixième de micron. Car outre l’histoire géologique de la planète que l’on peut lire grâce à des roches comme celle-ci, suffisamment épaisse pour nous donner une longue séquence historique, ce qu’on peut espérer trouver c’est quelques indices d’une progression prébiotique de matériaux organiques complexes qui peuvent s’observer à des échelles d’environ une centaine à plusieurs centaines de nanomètres. Strathdon est un bloc d’argile (probablement smectite car c’est apparemment le type d’argile le mieux représenté sur Mars) très lentement sédimenté, diagénéisé et métamorphisé, et l’argile, outre qu’il est un témoin de la lente imprégnation de l’eau liquide, est aussi un excellent milieu pour conserver ce type de molécules et éventuellement d’organismes.

Et si on ne trouve « rien » ? Ce ne sera pas si grave car cela nous en dira autant sur le caractère exceptionnel de la Terre et nous fera réfléchir à nouveau sur ses spécificités.

De toute façon, à ce moment de votre lecture, revenez vers la photo de Strathdon et contemplez son feuilleté exceptionnel et la magnifique composition de ses couleurs : le brun foncé des strates argileuses profondes qui fait penser à du très vieux bois, l’ocre de la couche superficielle exposé à l’aridité, aux radiations et aux vents, le noir brillant du sable basaltique, vierge, comme toute la surface qui l’entoure comme un écrin, et quelques touches de blanc, du gypse peut-être ou du sel ? C’est Mars, la beauté de Mars, une excellente raison d’y aller « whatever it takes » !

Lien : https://www.nasa.gov/feature/jpl/new-finds-for-mars-rover-seven-years-after-landing

Illustration de titre (et ci-dessous):

La roche Strathdon, crédit NASA/JPL-CalTech/MSSS, mosaïque de photos “23986-PIA23348” du 5 Août 2019 prises par la caméra Mastcam. La roche, d’une centaine de cm de longueur, est située dans la “Clay-Bearing Unit”, sur les flancs du Mont Sharp au cœur du cratère Gale. Strathdon est une localité du Nord de l’Ecosse, près d’Aberdeen, la “large vallée du fleuve Don”.

Cliquez dessus pour mieux la voir. Elle en vaut la peine! En en savourant l’image, au delà de l’esthétique, pensez aussi aux moyens techniques mis en oeuvre pour collecter les pixels dans toutes leurs nuances de couleurs et nous la transmettre depuis environ 400 millions de km (au moment de la prise des photos, Mars et la Terre étaient alors à peu près en “conjonction”, c’est à dire de part et d’autre du Soleil).

Image ci-dessous, détails de la même roche; crédit NASA/JPL-CalTech/MSSS. Mosaïque de photos prises à 10 cm de distance par la caméra MAHLI (Mars Hand Lens Imager); la barre jaune en bas à gauche, donne l’échelle: 3 cm. Cliquez dessus pour mieux la voir.

Avec le « Mars Colony Design Contest » nous nous préparons sérieusement à partir pour Mars

Cette semaine je suis à l’USC, University of Southern California (Los Angeles), où je défends la faisabilité d’un projet d’établissement martien de 1000 habitants devant un jury d’ingénieurs spécialistes et de membres de la communauté spatiale américaine.

Ce projet était en gestation depuis des années dans différents réflexions et travaux entrepris par moi-même au sein de la Mars Society Switzerland et mes amis de la Mars Society française (« Association Planète Mars »). Le lancement d’un concours sur le sujet par la Mars Society américaine nous a permis de le mettre en forme pour le soumettre à une évaluation « externe ». Nous avons constitué une petite équipe de trois personnes, moi-même, économiste et ancien banquier (entre autres !), Richard Heidmann, ingénieur polytechnicien, ancien « directeur orientation recherche et technologie » du groupe SNECMA (concepteur/constructeur d’Ariane), fondateur de l’Association Planète Mars, et Tatiana Volkova, étudiante russe candidate en doctorat d’architecture et d’ingénierie spatiale à l’EPFL, spécialiste des aménagements viabilisés en environnements extrêmes. Il fallait choisir un identifiant à notre équipe et Tatiana a trouvé la jolie expression, riche de significations, de « LET IT BE ». Plus de cent équipes partout dans le monde ont répondu au défi et notre dossier suisse, français et russe, a franchi les premières sélections. Nous avons été retenus dans les vingt premiers puis les dix premiers et enfin les cinq premiers. Tous les espoirs sont donc permis pour que nous montions aujourd’hui « sur le podium ». Nous aurons une demi-heure pour dérouler notre démonstration qui se fera « classiquement » sous forme de présentation powerpoint et de questions / réponses.

1000 habitants c’est la population que l’on peut raisonnablement envisager vingt ans après deux premières salves de lancements (chacune dans une fenêtre d’un seul mois espacée de 26 mois avec la suivante, puisque nous serons contraints par la mécanique spatiale). 1000 habitants ce ne sera plus un « commando » d’astronautes en exploration mais une vraie petite société multinationale avec toutes sortes de fonctions complémentaires et interagissantes, allant de la construction à la recherche et au tourisme en passant par la production de nourriture, la production et le recyclage de l’atmosphère, de l’eau et de tout ce qui peut l’être, le maintien de conditions sanitaires acceptables, l’opération de diverses machines et équipements, en particulier d’imprimantes 3D, l’utilisation de logiciels dans tous les domaines possibles, le tout en contact distant avec la Terre qui ne pourra intervenir que par ses conseils différés et la transmission de ses programmes informatiques (ce qui est déjà beaucoup).

Sur la faisabilité, nous avons des arguments que nous croyons évidemment solides. Je ne vais pas les développer dans cet article mais nous parlerons des différents points cruciaux dont l’articulation est nécessaire pour établir la crédibilité de notre projet : astroport (plateformes d’atterrissage et stocks d’ergols produits sur place) ; production et distribution d’énergie (nucléaire – par fission – et solaire mais nucléaire beaucoup plus que solaire) ; conception technique de la base (modularité et « RAMS* »), des habitats, des dômes dédiés aux réunions et aux échanges, des corridors, des serres, des lieux de fonctionnement des machines de production (un problème important est le rythme de construction : on ne peut pas tout faire du jour au lendemain du fait de la limitation en équipement, en matériel sous forme utilisable, en robots et en hommes); outils informatiques ; sécurité et santé des « colons » (évidemment traitement des problèmes de pressurisation et de protection contre les radiations mais aussi d’éventuelles infections microbiennes ou virales ou de problèmes dentaires, cardiaques, digestifs…) ; structure et stratégie financières, modèle économique ; aspects sociaux et culturels ; gouvernance ; aspects esthétiques et architecturaux. Certains de ces points sont purement techniques et il est assez facile de démontrer leur faisabilité (réalisation et/ou contrôle), d’autres sont plus délicats car construire une structure est une chose, s’organiser pour vivre dedans avec d’autres en est une autre.

*RAMS = « Reliability, Availability, Maintainability, Safety », des critères d’ingénierie toujours présents dans l’esprit des concepteurs, des constructeurs et des gestionnaires ; le premier, « Reliability », devant être aussi assorti du TRL (Technology Readiness Level) le plus élevé possible (au moins de niveau 7 sur 9 pour toute technologie employée sur place).

Sur le plan économique, nous pensons que seule une base offrant des services que des Terriens seront prêts à payer, sur le long terme, aura une chance de pérennité si le prix payé est générateur de profit pour les investisseurs. Cela revient à dire que la base doit fonctionner comme une entreprise recherchant sa rentabilité financière. Ce n’est peut-être pas dans l’ère du temps, plutôt anticapitaliste, mais je l’assume pleinement car cela repose sur des motivations rationnelles et très largement partagées, non sur une bienveillance publique qui pourrait s’émousser. Nous avons identifié les services que nous pourrions offrir et nous pensons qu’ils pourraient rencontrer un marché. Ce sont d’abord des services de résidence. L’entreprise d’exploitation (que j’aime bien appeler la « New India Company » pour faire un clin d’œil à d’autres aventuriers du passé !), qui sera largement privée, offrira à toutes les personnes intéressées par l’aventure, un lieu où vivre dans des conditions acceptables pendant les 18 mois du séjour. Les « personnes intéressées » seront d’une part les volontaires qui auront été sélectionnés pour faire fonctionner l’établissement (et qui seront – bien – payés par l’entreprise) et d’autre part, celles qui seront capables de se payer le séjour. Le service de base, permettant la survie, sera assorti de tous les services annexes nécessaires qu’il sera possible et raisonnable d’apporter (et qui seront payants en plus du service de base compris dans le forfait « voyage+séjour »). Les hôtes clients seront des scientifiques mais aussi des touristes ou des gens qui voudront tenter « quelque chose » sur Mars en raison du milieu particulier et de l’environnement humain extrêmement « pointu » et varié sur le plan technologique et intellectuel. Ceci conduit logiquement à considérer la colonie martienne comme un véritable incubateur de start-up dans toutes sortes de domaines. Il faudra payer « à son juste prix » ces services et ce droit à résidence pour dégager une rentabilité. Le juste prix c’est ce qui permettra (1) de couvrir les frais du séjour y compris l’amortissement et l’entretien de la structure, (2) la rémunération des personnes qui la feront fonctionner, (3) la génération d’une marge pour continuer le développement, remercier les investisseurs engagés et en encourager de nouveaux à se joindre à eux (même s’il faut prévoir une « période de grâce »). L’investissement sera bien sûr élevé (mais pas plus d’une cinquantaine de milliards, sur 30 ans car il faut considérer une dizaine d’années de préparation et de construction avant une exploitation commerciale). Si nous l’envisageons comme possible c’est sur la base d’une part de la révolution dans le transport par lanceurs lourds apportée par Elon Musk (réutilisabilité !) combinée avec l’économie d’échelle générée par la multiplication des vols et, d’autre part, l’utilisation des ressources planétaires locales (dont l’eau, l’atmosphère de CO2, l’aluminium, la silice et le fer) comme « inventée » par Robert Zubrin au début des années 1990. Ces conditions devraient permettre des coûts accessibles à la minorité de Terriens disposant de la richesse et de la motivation adéquates. Cela peut être considéré comme élitiste mais c’est inévitable ; bien sûr les plus motivés de ceux qui ne disposent pas des moyens financiers suffisants pourront convaincre des sponsors de payer pour eux ou des banques de les financer (il est bien connu que l’enthousiasme soulève des montagnes). Nous avons estimé que l’ensemble fournirait un nombre suffisant de « clients » même si cette population devra se renouveler constamment compte tenu de ce qu’au début, la quasi-totalité des personnes partant pour Mars voudront revenir sur Terre à la fin du cycle synodique suivant leur arrivée (c’est-à-dire après 18 mois de séjour, pour un retour sur Terre trente mois après leur départ de celle-ci).

Pendant leur séjour nous ne voulons pas que les résidents ni d’ailleurs leurs hôtes, soient soumis au total arbitraire d’un « chef » ou d’un « commandant ». Nous refusons et ne voyons pas la nécessité d’une direction impérieuse et militaire. Notre époque a bien compris que chacun devait participer à la société pour qu’elle soit agréable à vivre et efficace, aussi bien pour les propriétaires de la société d’exploitation qui chercheront légitimement à récupérer leur investissement avec profit, que pour les clients qui tout aussi légitimement voudront profiter aussi librement que possible d’un séjour cher payé. Dans cet esprit la « formule magique » suisse (conseils de direction avec nombre impair de membres et pluralité d’opinions et/ou de compétences) est un modèle auquel nous tenons et que nous nous efforcerons de faire comprendre et adopter. Cependant les dangers réels d’un accident provoqué ou non par maladresse, imposeront des contraintes et quelques restrictions à la liberté individuelle. Il y aura sur Mars des impératifs vitaux concernant la communauté toute entière qu’on ne pourra transgresser (tenant à la propreté et au recyclage, à la consommation d’énergie, à la préservation des sites de recherche planétologique). Dans ces domaines des règles très strictes s’appliqueront et les personnes responsables des départements opérationnels en charge de chacune des activités considérées comme vitale auront un droit de véto sur toute action ou initiative qu’ils considéreraient périlleuse.

Lorsque Elon Musk aura concrétisé son projet de Starship+Super-Heavy, la porte sera ouverte et la faisabilité technologique confortée. Il ne manquera plus que la volonté mais sans doute est-elle déjà présente et suffisamment puissante chez lui-même et certains autres qui ont les moyens financiers de la transformer en action. Ce seront eux les moteurs de la réalisation du projet. Les agences suivront.

Illustration de titre:

un secteur de la cité martienne, crédit Richard Heidmann: (1) rangées d’habitats (30 mètres carré par personne); (2) serres; (3) sas; (4) et (5) dômes de rencontres et d’échanges; (6) champ de panneaux solaires (source d’appoint et expérimentale). 200 personnes pourraient y habiter.

Il y a cinq ensembles de ce type autour d’un hub central. L’ensemble est accessibles par des corridors pressurisés et protégés contre les radiations, courant en surface. Les installations de production industrielle sont à l’extérieur (proche) et les réacteurs nucléaires (type Megapower, à l’étude au LANL – Los Alamos National Laboratory – du DOE – Department of Energy – des Etats Unis), un peu à l’écart. 

L’apport de Michel Mayor et Didier Queloz à la Connaissance : comme un précieux rameau de corail

Michel Mayor et Didier Queloz ont été et sont sûrement encore, à la fois des pionniers et des scientifiques rigoureux, au plus haut niveau sur l’échelle académique et disposant d’une base intellectuelle aussi solide qu’il est possible de se constituer. C’est dotés de ces deux qualités, qu’ils ont pu être si originaux et efficaces dans l’innovation, ce qui leur a permis d’être remarqués et récompensés par la Fondation Nobel. Ils font partie de ces personnes sans doute rares qui sont à la pointe des connaissances de leur domaine et qui sont capables de les faire progresser encore, en créant d’autres canaux que ceux qu’ils ont suivis pour se former. Lors de leur découverte, ils correspondaient sans doute parfaitement à leur époque et étaient en phase totale avec les capacités technologiques existantes mais ce qui les a distingués de leurs collègues c’est qu’ils ont osé la nouveauté en exploitant les nouvelles voies possibles d’exploration.

Au-delà de l’observation directe, impossible alors, toujours très difficile aujourd’hui et potentiellement limitée aux systèmes stellaires les plus proches (« leur » étoile, « 51 Pegasi », n’est qu’à 51 années-lumière du Soleil) et aux planètes les plus grosses de ces systèmes, la « méthode des vitesses radiales » était en effet une possibilité latente pour la détection des exoplanètes (la théorie avait été développée dès 1952 par l’astronome Russo-Américain Otto Struve). On connaissait parfaitement l’effet Doppler-Fizeau indiquant le déplacement d’un astre par rapport à l’observateur terrestre et il était logique de penser que les planètes devaient avoir une influence sur leur étoile de ce point de vue en raison de leur masse. Il fallait évidemment disposer des instruments d’observation capables de discerner les effets infimes de ce jeu de masses génératrices chacune d’une signature identifiante et en 1952 on ne les avait pas! Les progrès technologiques des années 1980 permettaient de sortir de la théorie et Michel Mayor et Didier Queloz surent saisir l’opportunité. En l’occurrence ce fut un spectrographe à haute résolution (« spectrographe échelle* » ELODIE installé en 1993 au foyer du télescope de 1,93 m de diamètre de l’observatoire de Haute-Provence). Ils choisirent d’examiner les données recueillies par ce spectrographe et trouvèrent ce qu’ils recherchaient: les données reçues entre septembre 1994 et septembre 1995 de 51 Pegasi montraient que les raies de la lumière de l’étoile se déplaçaient vers le rouge puis se déplaçaient vers le bleu avec une amplitude égale et à des intervalles de temps égaux. Il fallait évidemment savoir regarder le spectrogramme et en déduire que la masse dont la gravité agissait sur celle de l’étoile ne pouvait être que celle d’une planète (en l’occurrence une « grosse » planète que l’on appelle maintenant un « Jupiter chaud » car elle est gazeuse et orbite très près de son étoile) mais nos chercheurs étaient « mûrs » pour le faire.

NB : Comme vous pouvez le lire dans Wikipedia, « un spectrographe-échelle utilise un réseau de diffraction complété par un autre réseau, ou un prisme, ou un grisme. L’axe de dispersion du second élément est placé à 90° du premier. Par conséquent, la lumière est captée par un point d’entrée, et non par une fente. Le premier réseau disperse à de très hauts ordres ; l’image obtenue après cette première dispersion est donc une superposition des ordres de dispersion ».

Donc le saut vers l’identification d’ exoplanètes par la méthode des vitesses radiales n’aurait pas été possible avant la fin des années 1980 mais, devenu possible, il fallait que « quelqu’un » comprenne le potentiel des nouveaux instruments d’observation et choisissent de les appliquer à la recherche de cet objet. Là est le génie de ces deux hommes, aujourd’hui récompensés.

Pour généraliser, on peut dire que le principe de l’astronomie ou de l’astrophysique (pour être plus conforme à ce que la première est devenue) c’est d’être constamment aux limites extrêmes. Il s’agit d’observer, de raisonner et de déduire en parvenant aux marges des possibilités observationnelles. Ainsi on refroidit les instruments près du zéro absolu pour pouvoir distinguer les ondes significatives, porteuses de signatures thermiques extrêmement faibles. Ou, comme James Peebles, l’autre prix Nobel de Physique 2019, on observe le fonds diffus cosmologique et l’espace lointain distordu par le temps et on en déduit les grandes structures de l’Univers et les forces qui possiblement l’animent. Ou encore, avec nos lauréats suisses, on observe les déplacements des étoiles par rapport au centre de masse (barycentre) de leur système, provoqués par leurs compagnons planétaires trop petits pour être visibles directement, pour déduire leur existence avec leurs caractéristiques de masse et d’orbite. On va ensuite, munis de ces observations, tenter de les observer, toujours indirectement, par la baisse de luminosité qu’ils vont causer à l’étoile devant laquelle ils passent. Cette « approche » complémentaire, dite « méthode des transits » (partiellement occultants), nous permet de connaître la taille de la planète et d’en déduire évidemment sa densité et sa nature, gazeuse (« Jupiter chaud ») ou rocheuse (« super-Terre »).

NB : la planète 51 Pegasi-b a finalement été observée directement et sa lumière réfléchie analysée en avril 2015, grâce au spectrographe HARPS installé sur le télescope de 3,6 m de diamètre de l’ESO à La Silla (Chili).

La Connaissance est comme un rameau ou une fleur de corail. Elle se construit sur une accumulation (comme la « colonie de coraux »), elle émerveille par ses couleurs et son éclat et elle contribue aussi au renforcement de la structure dont elle est sortie pour servir ensuite de support à d’autres fleurs…mais elle peut mourir si les conditions environnementales se détériorent. Des hommes formés aux plus hautes spéculations intellectuelles, membres d’une communauté scientifique à l’esprit critique aiguisé, toujours doivent la porter, la développer et la transmettre. Didier Queloz et Michel Mayor ont fait leur part, sans s’arrêter à leur premier succès. Des chercheurs plus jeunes ont continué, continuent, continueront et amplifieront leurs travaux. Le rôle de leur environnement humain, universitaire* ou non, est de permettre que le processus se poursuive et que la Connaissance se renforce et se diffuse, partout où cela est possible. Heureusement les institutions scientifiques suisses sont bien vivantes et « à la pointe » de l’enseignement et de la recherche (rappelons que l’EPFL est au 18ème rang du classement international “QS”, le plus médiatisé). Il semble par ailleurs que la Suisse soit très fière de ses scientifiques et de ses institutions de recherche et qu’il y ait dans le pays tout entier un solide consensus populaire pour les soutenir.

*Didier Queloz et Michel Mayor ont des liens étroits avec les institutions universitaires de Suisse romande, Université de Genève, Université de Lausanne, EPFL. Pour donner un peu plus de substance à ce court article, je vous donne ci-dessous des liens qui vous en diront plus sur les recherches de l’un et de l’autre et sur leurs relations avec l’EPFL et l’Unige (à noter que le directeur d’eSpace à l’EPFL, Jean-Paul Kneib, est aussi astrophysicien et en charge de son laboratoire d’astrophysique, le LASTRO) :

https://actu.epfl.ch/news/this-nobel-prize-makes-epfl-s-astrophysicists-prou/

https://www.rts.ch/play/tv/12h45/video/rendez-vous-de-la-presse-mayor-et-queloz-couronnes-du-prix-nobel-de-physique?id=10777321

Image de titre : principe de la méthode des vitesses radiales, crédit ESO.

Si nous le voulons il y aura au moins une planète-B mais il n’y a pas d’humanité-B

Nos contemporains conscients doivent effectuer une révolution copernicienne. Encore plus que la Terre, notre « planète-A », ce qui compte c’est la vie, notre vie ou plutôt celle de notre espèce, petite pousse d’un rameau perdu à l’extrémité de notre arbre phylogénétique et sa concrétion la plus aboutie.

Bien entendu la Terre est notre mère et nous vivons toujours d’elle comme des enfants non sevrés. Il n’est pas question de déprécier son importance et de ne pas faire tout notre possible pour ne pas l’épuiser, la faire vieillir prématurément, l’enlaidir. Nous devons prendre soin d’elle avec sollicitude et avec amour.

Mais un jour, certains d’entre nous devront partir pour porter ailleurs la vie qu’elle nous a donnée. Le refuser ferait de ceux qui en seront capables, des ingrats ou des jouisseurs égoïstes et paresseux.

Bien sûr nous ne pourrons tous partir et certains partiront et mourront. Toutes les graines ne germent pas.

Ce que je veux dire c’est que de toute façon nous sommes uniques et que cela nous oblige. La probabilité d’une autre espèce consciente, intelligente, communicante et constructrice dans notre petit coin de l’Univers est extrêmement réduite et aucune autre (s’il en existe) ne partagera notre histoire, nos sentiments qui font que nous sommes des êtres humains et ne pourra remplacer l’accumulation des créations intellectuelles dont nous sommes porteurs et que nous voulons préserver, transférer à nos descendants.

La planète-B n’est pas étiquetée comme telle, nulle carte ne l’indique, mais elle le deviendra si nous l’adaptons au moins en petite partie à nos besoins vitaux, si nous nous adaptons nous-mêmes aux contraintes qu’elle nous imposera et si nous nous y établissons. Et il y en aura plusieurs si nous décidons de « partir ». Sa première version sera évidemment Mars puisque nous savons aujourd’hui que nous disposerions du nécessaire pour y survivre, donc y vivre et y prospérer. Et ensuite il y en aura d’autres. Chaque fois ce sera difficile, encore plus difficile que difficile, mais à chaque étape notre technologie aura évolué et nous permettra d’aller plus loin et de « faire mieux ».

A chaque époque ses défis.  Nous avons jadis quitté l’Afrique (ou le « Paradis ») et sa douceur de vivre pour aller vers le Nord, aux nuits froides, aux longs hivers sans fruits et aux forêts désertes de nos semblables mais pleines de dangers et de dragons supposés plus que réels. D’autres se sont lancés sur leurs pirogues, des rives du continent eurasiatique ou du bout de l’archipel indonésien, à l’assaut de l’Océan Pacifique sans savoir s’ils trouveraient une autre terre pour les accueillir une fois que leurs provisions seraient consommées. Les derniers d’entre eux avec Hotu-Matua sont arrivés jusqu’à Rappa-Nui après avoir bu leur dernière goutte d’eau douce et les avant-derniers, Alacaloufes, descendus depuis le détroit de Béring dans ce qui deviendra l’Amérique, sont parvenus à l’autre bord du monde et y sont restés puisque de l’autre côté il n’y avait plus rien qu’un continent de glace où il ne pouvaient pas vivre.

Nous avons atteint l’âge du départ vers les étoiles et à notre tour il faut maintenant oser partir.

NB : Remerciement à mon ami Patrick Sibon, de Marseille, qui a évoqué cette idée d’humanité-B. Si on la considère, tout change. Encore plus que la planète c’est notre humanité qu’il faut sauver car cette dernière est encore plus précieuse que son support. La Terre vide d’hommes n’auraient littéralement aucun sens puisque le sens est en nous.

Image de titre :

Mars au lever du Soleil (vue d’artiste): pourquoi ne pas aller s’installer sur notre planète voisine ? Cela vous effraie-t-il ? Moi, non et je ne suis pas le seul. Donc, “nous” irons !