Une énergie sombre omniprésente domine-t-elle notre Univers?

Depuis Alexandre Friedman en 1922/24 on a réalisé que l’Univers non seulement n’était pas statique comme le croyait Albert Einstein mais qu’il est en expansion et, depuis 1988 avec le « Supernova Cosmology Project » dirigé par Saul Perlmutter et l’équipe « High-Z supernovae search » dirigée par Adam Riess, que non seulement il est en expansion mais que cette expansion apparemment s’accélère.

La cause de l’interrogation

L’expansion de l’Univers est maintenant une réalité qu’aucun astrophysicien ne conteste. On la constate par le décalage vers le rouge (effet Doppler-Fizeau) observé dans le spectre des galaxies de l’Univers observable et qui est d’autant plus important que les galaxies sont lointaines. Le problème est qu’après cette première constatation que l’on a formalisée en lui affectant une grandeur que l’on a crû être une « constante », la « constante de Hubble » (« H »), on s’est aperçu qu’elle n’était que la valeur actuelle (environ 70km/s/Mpc), « H0 », d’un simple paramètre, la possibilité de variation de ce paramètre résultant de la contradiction entre d’une part une force de contraction tenant à la masse de l’Univers subissant l’effet de la gravité, exprimé par le « paramètre de densité » (que l’on symbolise par «  » (Oméga), et d’autre part une force répulsive dont on ne peut encore que constater l’effet. La totalité de la matière, noire ou visible, et la force de gravité qu’elle implique, ne suffit donc pas à ralentir l’expansion (bien au contraire) ! Cette force répulsive que faute de mieux on appelle « énergie sombre » car on ne peut en identifier la nature, semble dominer l’Univers depuis 6 à 7 milliards d’années (sur 13,8 milliards). C’est à cette époque qu’elle commence à se traduire par une accélération générale de l’expansion, mais elle était sans aucun doute à l’œuvre dès l’Origine, c’est à dire le Big-bang, ou même, selon certains, peut-être avant ; il est en effet difficilement concevable qu’elle ait pu être créée ex-nihilo ensuite.

La force répulsive est déjà potentiellement présente dans l’équation de champ modifiée d’Albert Einstein (Gαβ = 8πTαβ + Λgαβ), par son coefficient « Λ » (lambda), qu’il avait lui-même appelé la « constante cosmologique » (mais il n’est plus certain aujourd’hui qu’elle soit constante !). Il faut dès à présent noter qu’il avait ajouté ce coefficient (cette « verrue » dira-t-il plus tard) à sa formule de base pour un objet différent de la prise en compte de la possibilité de variation de l’expansion. Il voulait simplement exprimer que pour lui l’Univers était statique (et sa constante cosmologique corrigeait exactement l’effet de la gravité). Les observations ultérieures et notamment celles du télescope spatial Planck ont montré que Λ pouvait avoir une valeur de 1,1056 × 10−52 m−2…avec une marge d’erreur. La valeur est très faible mais très légèrement positive et il faut bien voir que l’échelle est la plus grande qu’on puisse imaginer et donc que l’accélération est réelle, qu’elle représente du fait de l’immensité à laquelle elle s’applique, l’élément le plus important de la « densité de l’énergie totale de l’Univers » (72,8%) et par conséquent qu’elle implique dans le futur lointain la dispersion de la Matière. A noter que le coefficient Λ affectant comme le coefficient le paramètre de Hubble, est repris dans le modèle cosmologique « ΛCDM » (Lambda Cold Dark Matter) considéré aujourd’hui comme le « modèle standard du Big-bang » (qui met à jour le raisonnement d’Einstein). Mais on ne sait toujours pas ce qui peut bien provoquer cette accélération !

Les réponses possibles

Les cosmologistes ont fait beaucoup d’efforts pour trouver une explication à l’accélération. En gros on peut dire que la quasi-totalité (« A ») de leurs propositions recourent à des forces, des champs ou des particules que permettent sur le papier la science physique mais qu’on n’arrive pas à prouver / détecter et qu’une seule proposition (« B »), celle d’André Maeder, utilise la physique telle qu’elle est. Parmi les premières, certaines (1 et 2 ci-dessous) gardent la théorie de la Relativité Générale en y introduisant des « degrés de liberté » (variables aléatoires qui ne peuvent être déterminées ou fixées par une équation), d’autres (3 et 4 ci-dessous) la modifient. Voyons les dans l’ordre de leur éloignement progressif du modèle standard :

1) introduction de nouveaux champs physiques ou de nouvelles particules qui n’interagissent ni avec la matière baryonique, ni avec la matière noire, ni avec les photons. Les modèles de cette catégorie comprennent notamment la « quintessence » (Jim Peebles), une cinquième forme d’énergie active à chaque point de l’espace (à côté de la matière baryonique, de la matière noire, des neutrinos et des photons).

2) introduction de nouveaux champs très faibles qui peuvent être couplés avec les seuls photons et qui expliquent l’atténuation de la lumière par la distance (par une oscillation photons/« axions »…les axions étant des particules théoriques, de type boson, n’ayant pas de charge électrique et une très faible masse).

3) introduction de nouveaux champs, fortement couplés à ceux du modèle standard de la Relativité Générale. Ce couplage fort implique de modifier les équations de la Relativité Générale et/ou de changer les valeurs de certaines constantes fondamentales pour décrire les effets de la gravitation.

4) introduction de modifications drastiques à la théorie de la Relativité Générale avec plusieurs types de « gravitons » (bosons de masse nulle, particules théoriques porteuses de la force de gravité). Les modèles incluent les modèles « branaires » avec dimensions supplémentaires ou la « multigravité ».

Toutes ces hypothèses supposent beaucoup d’inconnues et ne sont pas (encore) testables puisqu’on n’a découvert / observé aucune des particules ou champs dont l’existence supposée est indispensable à leur vérification.

Dans ces conditions la proposition (« B ») d’André Maeder (Université de Genève) exposée en 2017 dite « invariance d’échelle du vide » qui suppose qu’aux grandes échelles cosmologiques, niveau où la théorie de Relativité Générale peut être appliquée, le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction, présente l’avantage de la simplicité et d’une sorte de « retour aux sources » (les premiers travaux d’Albert Einstein). Selon ce modèle, l’accélération de l’expansion de l’Univers serait possible sans que l’énergie sombre ou la matière noire soient nécessaires et avec une « constante cosmologique » Λ liée uniquement aux propriétés d’invariance du vide spatial, via un facteur d’échelle « λ » de ce vide . Cette hypothèse fait en effet apparaître logiquement, on pourrait dire « naturellement » (c’est le terme employé par André Maeder), un terme très petit et variable d’accélération et ce « terme » est particulièrement significatif aux faibles densités. Or l’accélération est en effet, dans les observations, un terme très petit et c’est dans ces environnements de faibles densités (périphérie des galaxies spirales par exemple) qu’elle semble la plus évidente. Les premiers tests du modèle corroborent les observations : application de ses principes au calcul des distances par rapport aux décalages vers le rouge, à l’estimation de la magnitude par rapport aux redshifts, à l’estimation du coefficient de densité par rapport aux observations par le télescope Planck des fluctuations du CMB (Fonds diffus cosmologique), à l’estimation de la valeur actuelle du paramètre de Hubble (coefficient H0), et autres.

Dans tous les cas il y aurait bien expansion et du moins actuellement, accélération de l’expansion. Ce sont des faits d’observation. Mais il n’y aurait pas obligatoirement d’énergie sombre et s’il y a énergie sombre, ce qui est de moins en moins probable, on ne sait toujours pas ce qu’elle serait. L’accélération de l’expansion de l’Univers reste un problème majeur pour la compréhension de notre Univers puisque d’elle ou de son contraire résultera (dans plusieurs dizaines de milliards d’années, tout de même !) la Destruction (Big Crunch ou Big Rip) ou l’Eternité (par le chemin de crêtes…mais on ne sera jamais certain de pouvoir y rester !). C’est un sujet difficile que je n’aborde, sans l’approfondir, que pour mettre en évidence son incontournable présence !

Illustration de titre: illustration schématique de l’expansion de l’Univers et de son accélération (évasement). Design Alex Mittelmann

Lien (Le Temps, 22 Nov. 2017) :

https://www.letemps.ch/sciences/un-professeur-genevois-remet-question-matiere-noire

lien UniGe:

https://www.unige.ch/communication/communiques/2017/cdp211117/

lien vers l’étude d’André Maeder:

file:///F:/energie%20sombre/Maeder_2017_ApJ_834_194.pdf

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

L’énigme de la matière noire

Ce que nous voyons dans le ciel avec nos yeux mais aussi, jusqu’à présent, avec nos instruments d’observation les plus sophistiqués, pourrait n’être que « la partie visible de l’iceberg » de la « densité d’énergie totale » de l’Univers observable, dit autrement, de la totalité des composants de l’Univers observable, matière et énergie comprises. La matière commune dite « baryonique » ne constituerait en effet selon le « modèle standard de la cosmologie », que quelques 4,9 % de cette « densité », dont les 100% comprendraient, outre la totalité de cette matière baryonique, la totalité des photons, la totalité des neutrinos, ainsi que la « matière noire » et l’« énergie sombre » (les neutrinos pouvant cependant faire partie de la matière noire). Les deux derniers composants constitueraient l’essentiel de cette même densité (26,8% pour le premier et 68,3% pour le second)…mais ils restent hypothétiques. La réalité nous force à constater leurs effets gravitationnels sans pouvoir les observer directement et il est très frustrant de constater l’invraisemblance intuitive que le premier, la matière noire, exprime alors que nous avons fait des progrès énormes en astronomie ces dernières décennies. Le second, l’énergie sombre, tout aussi mystérieuse mais qui est de toute façon moins « visible » (elle se manifeste dans le temps et dans les vitesses de récession exprimées sur les spectres des émissions électromagnétiques) et qui est une sorte d’antigravité, constitue une autre énigme qui ne sera traitée qu’accessoirement dans cet article…même si, peut-être, elle est intrinsèquement liée à la matière noire autant qu’à la matière baryonique.

Le constat

L’idée qu’il « manque quelque chose » s’est insinué dans les raisonnements depuis 1933 grâce à l’honnêteté et au courage de l’astronome suisse Fritz Zwicky (diplômé de l’ETHZ, enseignant au CalTech) qui avait observé une discordance entre la « masse dynamique » (dispersion des vitesses affectant les masses et résultant de la gravitation) et la « masse lumineuse » (estimation de la masse résultant de la quantité de lumière émise constatée) d’un groupe de galaxies dans un amas, la première étant beaucoup plus élevée que la seconde. Depuis cette époque ce « manque » a été observé mainte fois avec des équipement beaucoup plus performants (on pouvait douter de la précision des données recueillies à l’époque de Fritz Zwicky) et dans d’autres contextes. Une des façons de le percevoir est de porter attention à la vitesse de rotation des étoiles autour des cœurs de galaxie spirales par examen de leurs spectres de rayonnements électromagnétiques. D’après la troisième loi de Kepler, plus on s’éloigne du centre de gravité d’une galaxie, plus la vitesse des étoiles devraient décroître (cf ce qui se passe dans notre système solaire pour les planètes). Or, comme l’a constaté l’astronome Vera Rubin dans les années 1970 sur la base des spectres de la galaxie d’Andromède, la vitesse de rotation des étoiles (notée sur des « courbes de révolution ») en périphérie du centre est quasiment la même que celles des étoiles qui sont proches du centre, tout comme si la galaxie était beaucoup plus étendue en masse et en volume que sa simple partie visible, et la différence n’est pas marginale (de l’ordre de 95%!). Cette observation fut confirmée dès que l’on put, en 1999 avec le télescope spatial Subaru, observer les galaxies sur les longueurs d’ondes de l’infrarouge, hors de l’atmosphère terrestre (ce rayonnement permettant d’observer bien davantage de sources que les seules étoiles visibles). De même la vitesse d’expansion de l’univers est compatible avec une certaine masse de 30% de la densité critique et sans la matière noire cette masse serait évidemment insuffisante (sans prendre en compte l’accélération qui s’exprime depuis 6 à 7 milliards d’années et qui, elle, devrait résulter de l’« énergie sombre »).

De quoi cette matière noire pourrait-elle être constituée ?

Selon les théories, elle pourrait être chaude (rapide) ou froide (lente) en fonction de la nature des particules qui la constituent. Dans le premier cas, le neutrino serait un bon candidat et l’univers se serait formé à partir de grandes masses qui se seraient ensuite fragmentées. Dans le second cas, des particules lourdes comme les « WIMP » (« Weakly Interactive Massive Particles ») auraient provoqué ou contribué à provoquer/amplifier les anisotropies du plasma primitif (jusqu’à la Recombinaison) et l’Univers se seraient développé à partir de petites masses qui se seraient agglomérées ensuite et qui continuent encore aujourd’hui à le faire (plutôt la tendance dans la théorie d’aujourd’hui).

Pour dire les choses autrement, on a d’abord pensé « tout bêtement » (avant de passer à autre chose) que la matière noire pourrait être de la matière baryonique inobservable car difficilement visible avec nos instruments d’observation. Les nuages de gaz (hydrogène) enveloppant de nombreuses galaxies et s’étirant entre elles auraient pu être un bon candidat mais, autour des galaxies, leur vitesse et leur température semblent être plutôt la preuve de l’attraction de la masse de ces galaxies renforcée par la matière noire. Les objets périphériques massifs et très denses (MACHO pour « Massive Compact Halo Objects ») également du fait de leur petitesse apparente, tels qu’étoiles à neutrons, naines blanches, naines brunes, ou trous noirs, pourraient aussi être des candidats puisqu’ils sont difficiles à détecter et qu’ils contribuent évidemment à beaucoup de matière, dans l’ensemble. Cependant l’hypothèse étoiles à neutrons et naines blanches impliquent que ces étoiles auraient été autrefois « vivantes » et que donc le ciel ancien (ou lointain) aurait été plus brillant que le ciel contemporain (ou voisin), ce qui n’est pas le cas. Quant aux naines brunes (étoiles avortées ou quasi-étoiles), on n’a pu, jusqu’à présent, constater d’occultations suffisantes permettant de démontrer qu’elles atteignent une abondance suffisante. Les hypothétiques trous noirs périphériques constituent une piste également abandonnée car ils ne présentent pas les perturbations de leur environnement qu’ils devraient provoquer.

Les WIMP sont toutes sortes de particules lourdes « non-baryoniques » interagissant très faiblement avec la matière. Ce sont, après éliminations des autres possibilités, les meilleurs candidats à la matière noire (ceux qui « restent »). On les envisage en extrapolant le principe de « supersymétrie » du modèle standard de la physique des particules, chaque boson étant associé à un fermion (ces fermions ont des propriétés identiques, notamment de masse, aux bosons mais avec un spin différent de ½). A noter que les WHIMP ne sont pas des éléments d’antimatière qui seraient aussi des baryons (on sait que la matière et l’antimatière interagissent extrêmement facilement et vigoureusement). Les neutrinos pourraient être aussi une partie de l’explication ; contrairement au WIMP on connaît maintenant leur existence et leur omniprésence mais non pas leur abondance.

Identifier l’invisible

Depuis des décennies on s’efforce d’en savoir plus et d’abord en tentant de faire interagir, même très marginalement, la matière visible avec la matière noire (WIMP et/ou neutrinos). On a cherché et on cherche encore partout ces interactions, soit dans les accélérateurs de particules (notamment dans le plus puissant, le LHC – Grand Collisionneur de Hadrons), soit dans de multiples installations souterraines (pour éliminer le maximum de rayonnements « parasites » c’est-à-dire tous ceux qui interfèrent facilement avec la matière): CDMS (Cryogenic Dark Mater Search), XENON dark matter research project, WARP (WIMP ARgon Program), EDELWEISS (Expérience pour DEtecter Les WIMP En SItes Souterrains), CRESST (Cryogenic Rare Event Search with Superconducting Thermometers), EURECA (European Underground Rare Event Calorimeter Array) ou LUX (Large Underground Xenon experiment), soit sous la glace (IceCube, en Antarctique) ou dans l’espace (le spectromètre AMS, conçu par UniGe et qui est posé sur la Station Spatiale Internationale). La multiplicité des expériences marque à la fois l’intérêt et sans doute la frustration des scientifiques, pensant « tenir quelque chose » mais incapables de le prouver car…les résultats sont toujours nuls ou, si l’on veut rester optimistes, repoussent toujours plus loin la « section efficace » de la matière noire (celle qui interagirait avec la matière). Un nouveau satellite, « Euclid » doit être lancé en 2022 par l’ESA pour tenter la détection. La conception de la charge utile est réalisée par Airbus et Thalès sous la direction du « consortium Euclid », constitué d’un grand nombre de laboratoires européens (une centaine dans 16 pays, ce qui témoigne de l’intérêt !) qui assureront aussi l’exploitation des données. Il doit rechercher les effets de l’énergie sombre mais, relativement à la matière noire, son principe est d’étudier, en « s’appuyant » sur la gravité, seule force, apparemment, qui ait un effet sur les deux types de matière, les effets de lentilles gravitationnelles faibles. La méthode consiste à mesurer la déformation de la forme des galaxies sous l’effet de la lentille gravitationnelle des matières visible et noire présentes entre la Terre et ces galaxies. Le degré de distorsion doit permettre de déduire comment se répartit la matière noire, en soustrayant l’effet de la matière observable, et observée.

Compte tenu des « résultats » décevants (à ce jour !), l’explication du mystère viendra-t-elle de théories alternatives ? La théorie MOND (Modification Of the Newtonian Dynamic) de Mordehai Milgrom propose une version modifiée des lois de la gravité (grande ou faible accélération selon que la masse est importante ou non). L’Univers de Dirac-Milne propose l’existence d’antigravité liée à l’antimatière (les particules d’antimatière, de masse négative, auraient une force de répulsion gravitationnelle). De son côté André Maeder (Université de Genève) propose l’hypothèse de l’« invariance de l’échelle du vide », autrement dit que le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction. Il remarque que cette hypothèse de départ de n’a pas été prise en compte dans la théorie du Big bang or le vide joue un rôle primordial dans les équations d’Einstein (il intervient dans la définition de la constante cosmologique). Appliqué aux observations astronomiques, il montre que son modèle prédit l’accélération de l’expansion de l’Univers sans qu’aucune particule ni énergie noire ne soient nécessaires. Si la moisson des données d’Euclid n’est pas concluante ou si l’une de ces théories alternatives prévaut auprès de la communauté des astrophysiciens dans les tests répétés fait pour les démontrer, on abandonnerait les WIMP qui apparaitraient alors comme un mirage; sinon toute une nouvelle physique passerait du champ théorique au champ observable. C’est ainsi que progresse la Science.

NB : cet article, très général, ne prétend pas épuiser le sujet de la matière noire mais seulement le mettre en évidence pour faire prendre conscience de la difficulté de la recherche (par définition on ne sait jamais ce qu’on va trouver). Il faut, sur la base des connaissances existantes, émettre des hypothèses pour résoudre les questions que posent la réalité des choses et sans relâche et en toute honnêteté, tester ces hypothèses avec les moyens forcément limités et le plus souvent indirectes dont on dispose.

Image de titre :

Une possibilité de représentation de l’énergie noire (que l’on n’a toujours pas vue*). Etant donné que l’on n’est toujours pas certain de l’existence de la matière noire, j’ai ajouté un point d’interrogation. *NB: les nuages d’hydrogène présents sur la photo, ici probablement le reste d’une supernova, ne seraient pas suffisants pour rendre compte de la totalité de la matière noire. Crédit de la photo (sans point d’interrogation !) : NASA, ESA, M. J. Jee and H. Ford et al. (Johns Hopkins Univ.)

Liens : 

https://www.futura-sciences.com/sciences/definitions/physique-matiere-sombre-46/

https://fr.wikipedia.org/wiki/Euclid_(t%C3%A9lescope_spatial)

https://www.unige.ch/communication/communiques/2017/cdp211117/

https://www.nasa.gov/multimedia/imagegallery/image_feature_827.html

Image ci-dessous:

Les observations des courbes de révolution des étoiles autour du centre de leur galaxie montrent qu’elles tournent trop vite si l’on se base sur la loi de la gravitation de Newton ou sur la masse déduite de la luminosité des galaxies. © Gianfranco Bertone.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

Gravité quand tu nous tiens !

On regrette souvent que Mars soit plus « petite » que la Terre (1/10ème de sa masse) et que le champ de pesanteur à sa surface (bien sûr d’origine gravitationnelle) ne génère qu’une accélération de 3,711 m/s2 (0,371 g) contre 9,806 m/s2 à la surface de la Terre. On a tort car une planète sensiblement plus massive que Mars serait moins facile à explorer par vols habités et il serait plus difficile de s’y installer.

On sait que des « super-terres », planètes rocheuses plus massives que la Terre (jusqu’à 10 fois, au-delà on parle de « méga-terres »), orbitent autour d’étoiles pas trop lointaines (quand même plusieurs années-lumière) et certains rêvent de pouvoir explorer physiquement « un jour » celles qui se trouvent dans la « zone habitable » de leur étoile (définie par une irradiance permettant l’eau liquide) comme, par exemple, Gliese 832c (illustration de titre). Il n’est certes pas impossible qu’on puisse y envoyer « un jour » des instruments d’observation (avec d’autres systèmes de propulsion que ceux dont nous disposons aujourd’hui) mais pour des hommes qui souhaiteraient y séjourner puis en repartir ce serait une autre affaire.

Il faut d’abord dire que si on a détecté beaucoup de ces super-terres c’est qu’elles sont plus faciles à « voir » depuis notre Terre du fait qu’elles sont plus grosses que les simples « terres » et le plus souvent dans l’environnement d’étoiles peu massives et peu lumineuses (type « naines-rouges »). Il est donc moins que certain qu’elles soient plus nombreuses que les autres planètes plus petites.

Sur le plan planétologique qui dit masse plus importante, dit intérieur planétaire plus chaud (chaleur provenant de l’énergie cinétique d’origine + désintégration lente des métaux radioactifs que sont, par exemple, en ce qui nous concerne, le thorium-232, « 232Th », l’uranium-238, « 238U », et le potassium-40, « 40K »), tectonique des plaques plus active (idem pour ses corollaire, les tremblements de terre et le volcanisme), atmosphère plus épaisse, donc « habitabilité » (au sens terrestre) non forcément meilleure (pour ne pas dire « plus mauvaise »), sans parler des effets de la gravité sur les objets ou personnes évoluant en surface !

Le premier effet négatif d’une gravité plus forte, serait une vie plus difficile pour des Terriens. Autant il est possible d’envisager la vie sur Mars ou même sur la Lune, le poids d’une même masse étant moindre que sur Terre ce qui permet les déplacements sans fatigue et la circulation interne du sang sans risque d’une moindre irrigation du cerveau, autant on aurait les conséquences contraires dans un environnement soumis à une gravité plus forte que sur Terre. Et pas d’échappatoire ! Sur la Lune ou sur Mars on peut envisager de porter de lourdes combinaisons spatiales avec accessoires (entre 60 et 80 kg) sans problèmes (et il le faudra) puisque notre corps est structuré pour porter son poids terrestre. Sur une super-terre il faudrait quasi nécessairement porter également une combinaison avec accessoires (pour au moins se protéger d’une atmosphère probablement irrespirable et de températures incommodes sinon insupportables) mais cela ne ferait qu’aggraver les choses au point de vue du poids. Le corps se fatiguerait vite. Les exosquelettes pourraient compenser le handicap mais il faudrait les porter constamment et rien ne pourrait pallier la faiblesse relative du cœur pour pomper efficacement le sang vers le cerveau lorsque le corps est en position verticale (on a noté un afflux de sang trop important vers cet organe vital dans le contexte de quasi apesanteur de l’ISS et il faut donc bien que, par symétrie, l’insuffisance se manifeste lorsque la gravité est trop forte).

Le second effet négatif serait un atterrissage difficile mais surtout un redécollage pratiquement impossible. En effet la vitesse de satellisation à partir de la surface de la Terre est de 7,9 km/s, la vitesse de libération est de 11,2 km/s et la vitesse d’injection en trajectoire martienne (jusqu’au voisinage de Mars) est de 3,8 km/s s’ajoutant aux 7,9 (soit 11,7 km/s). Pour atteindre Mars et y déposer 100 tonnes ou 100 passagers avec 50 tonnes de charge utile, le véhicule conçu par SpaceX (lanceur « Super-Heavy » + vaisseau spatial « Starship ») a des dimensions et des masses qu’il est difficile de dépasser. Super-Heavy pèse 3065 tonnes (rempli de ses 2728 tonnes d’ergols). Le Starship a une masse de 1335 tonnes (120 tonnes sèches…mais il faut lui apporter 1100 tonnes d’ergols et il peut emporter 115 tonnes de charge utile). L’ensemble pèse donc (au maximum) 4400 tonnes au départ de la Terre et mesure 118 mètres de hauteur. La poussée au départ est de 7400 tonnes* (donnée par 37 gros moteurs « raptor ») et il faut la soutenir pendant un certain temps. On voit bien que toute masse de planète supérieure à celle de la Terre (ou même légèrement inférieure) pose problème et ce problème serait évidemment aggravé en cas d’atmosphère plus dense et plus épaisse (plus la vitesse augmente, plus la densité relative de l’atmosphère augmente et plus elle devient un facteur de ralentissement du corps qui la pénètre) or une gravité plus forte est susceptible de retenir une masse atmosphérique plus importante. On peut imaginer repartir de Mars avec 100 tonnes de charge utile et seulement un starship, sans son super-heavy. C’est relativement facile car compte tenu de sa masse relativement petite, la planète Mars impose une vitesse de libération de seulement 5 km/s. Mais si la super-terre était d’une masse égale à celle de la Terre (ou légèrement inférieure), il faudrait réutiliser pour en repartir le même dispositif que pour partir de la Terre, c’est-à-dire non seulement un starship plein d’ergols mais aussi (et d’abord) un super-heavy. Pour toute masse planétaire encore supérieure, le dispositif serait insuffisant et notre fusée géante serait bien incapable de retourner placer sa charge utile en orbite et plus encore d’atteindre sa vitesse de libération. On pourrait donc sans doute descendre en surface sans s’écraser (en consommant beaucoup d’énergie et surtout en se freinant à l’aide d’une atmosphère plus épaisse) mais une fois arrivés, on devrait y rester !  Pensons-y avant d’envisager y aller (heureusement ce n’est pas d’actualité !). Et n’oublions pas qu’une planète de type terrestre (de même masse que la Terre donc plus petite que les super-terres) comme par exemple l’hypothétique lune Pandora du film « Avatar » de James Cameron orbitant autour de l’hypothétique géante gazeuse Polyphème du système d’Alpha Centauri A, poserait également problème car comme dit plus haut, le starship avec ses six moteurs serait tout autant incapable d’en repartir. Apporter sur la planète un super-heavy pour remonter le starship en orbite compliquerait et renchérirait les voyages (et, pour les premiers voyages, supposerait qu’on pose l’intégralité du vaisseau et de son lanceur sur la planète en comptant de plus sur la production robotisée sur place des ergols de retour…en très grosses quantités, sans oublier la vérification et remise en état du lanceur déjà utilisé avant de le réutiliser…ce qui suppose une certaine capacité logistique).

*pour comparaison, la poussée de la version la plus puissante du nouveau lanceur européen, Ariane VI (avec 4 “booster”), est de 1530 tonnes (et elle pourra placer 10 tonnes en orbite terrestre (LEO). Elon Musk dit qu’il veut pour son Super-Heavy, un ratio de poussée / masse d’au moins 1,5 et qu’il envisage éventuellement de porter la masse à soulever à 4920 tonnes (3500 + 1420).

Le seul effet bénéfique de la masse de ces super-terres, outre leur capacité à retenir une atmosphère du fait de leur force d’attraction gravitaire, c’est qu’elles doivent probablement générer un puissant champ magnétique autour d’elles. En effet, du fait de la pression générée en leur centre par la gravité résultant de leur masse, leur noyau métallique doit être solide au centre et liquide en périphérie, de quoi générer un bel effet dynamo. Le champ magnétique qui doit en provenir doit donc contribuer fortement à la protection contre les radiations, galactiques et stellaires.

Donc ne rêvons pas trop de super-terres, de toute façon bien lointaines, comme des havres possibles pour l’humanité. Méfions-nous quand, dans les média, on les assimile à la Terre et apprécions la chance que nous avons de disposer à notre portée, d’un astre relativement hospitalier selon nos critères, la planète Mars, pour nous « exercer » à l’exploration planétaire par vols habités et à la vie sur un autre sol que celui de la Terre.

*NB : Evidemment le jour où nous pourrons construire des « îles de l’espace » comme le voulait Gerard O’Neill, on pourra choisir sa gravité (en fonction tout de même du rayon du cylindre de l’île pour limiter les effets négatifs de la “force” de Coriolis) et accoster sans problème à son lieu de vie (sans consommation d’énergie pour lutter contre les effets de la gravité). Ce serait la meilleure solution du point de vue de la gravité subie. J’espère que ce sera possible un jour mais nous n’en sommes pas encore là.

Lien :

https://fr.wikipedia.org/wiki/Mission_habit%C3%A9e_vers_Mars

Image de titre :

Gliese 832c et la Terre, vue d’artiste.

Gliese 832c se trouve à seulement 16 années-lumière de la Terre, autrement dit « à côté ». Sa masse n’est que de 5 fois celle de la Terre…On pourra sans doute y accéder un jour mais si on s’y pose, il ne sera pas facile d’en repartir.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

Du décalage des rayonnements reçus, par la distance et donc le temps

Les rayonnements électromagnétiques sont les signaux les plus exploités par l’astronomie. Au début de cette science, pendant tout de même de nombreux millénaires, tout était simple, on regardait le ciel avec ses yeux nus, par nuits claires, en montant parfois sur une butte, une tour ou une pyramide pour s’en approcher mais de toute façon on ne voyait pas grand-chose relativement à l’immensité de l’Univers. La première révolution eut lieu avec Galilée qui eut l’idée, en 1609, d’utiliser pour l’observation, un dispositif optique grossissant que des Hollandais, Hans Lippershey, Jacharias Jansen et Jacob Metius venaient d’inventer pour d’autres usages (1608), la fameuse lunette ; mais on continua à n’exploiter que les ondes lumineuses et ce jusqu’en 1933. Ce n’est que cette année-là que Karl Jansky, ingénieur radio chez Bell Telephone Laboratories, perçut par accident (encore !) et comprit que les astres (en l’occurrence le Soleil) émettaient aussi des rayonnements sur les longueurs d’ondes radio. Toute la radioastronomie remonte à cette découverte. Depuis on a généralisé le raisonnement, sans doute en partant de l’idée que tout rayonnement a une source, et on a exploité toutes les longueurs d’onde du spectre électromagnétique, des rayons gamma aux rayonnements radio les plus longs, puis on a imaginé et réalisé des capteurs pour d’autres rayonnements, non électromagnétiques, les neutrinos, les ondes gravitationnelles ou les UHECR (Ultra-High Energy Cosmic Rays). Cela nous permet d’observer non seulement les astres qui n’émettent pas dans le spectre des ondes lumineuses mais généralement toutes les sources, soit parce que leur activité n’est pas suffisamment décrite par leur éclat ou que, ces sources étant très lointaines et donc leur lumière plus ancienne, elle a été atténuée par le temps qui s’est écoulé entre émission et réception.

La découverte de Jansky intervint à peu près à l’époque où Georges Lemaître et Edwin Hubble comprirent qu’il y avait expansion de l’Univers (encore que Hubble n’en fût pas convaincu, malgré ses propres mesures) et que cette expansion étirait les longueurs d’onde et diminuait les fréquences, et ce d’autant plus fortement que les sources s’éloignaient rapidement de nous et donc étaient de plus en plus lointaines. C’est le fameux « décalage vers le rouge » ou « redshift ». Cela conduisit l’abbé Lemaître à publier en avril 1927 son article « Un univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extragalactiques ». C’est là qu’il montra (en Français dans les Annales de la Société scientifique de Bruxelles) le rapport constant entre distance et vitesse d’éloignement, ou de récession, qui deviendra (dans la traduction en Anglais dans les Notices of the Royal Astronomical Society, 1931) la « constante* de Hubble ». Ce paramètre correspond parfaitement à la constatation du décalage vers le rouge par effet Doppler-Fizeau des signaux lumineux reçus des étoiles les plus lointaines s’éloignant donc de nous avec des vitesses de récession élevées. C’est ainsi que naquit en 1929 la loi de Hubble-Lemaître et en 1931 (Lemaître) la théorie du Big-Bang.

*En réalité, cette constante n’en est pas une mais un paramètre qui diminue avec le temps qui passe. Seule sa valeur actuelle devrait être appelée “constante de Hubble”.

** Il faut ici éviter une confusion fréquente : les galaxies, qui contiennent les étoiles dont on mesure ce décalage vers le rouge, ne s’éloignent pas de nous à des vitesses faramineuses de dizaines, voire centaines de milliers de km/s, par un mouvement propre. C’est bien l’Univers, l’espace, ou, mieux dit, le tissu immatériel même de l’espace qui se dilate à ces vitesses qui peuvent ultimement atteindre la vitesse de la lumière (avec un décalage vers le rouge infini) et même la dépasser, ôtant à jamais alors à notre vue ces galaxies lointaines qui toutes sortiront un jour de notre horizon, rendant quasiment vide l’Univers autour de nous (sauf celles du « groupe local » liées entre elles de façon gravitationnelle).

Ces découvertes, couplées à la réalisation de télescopes et de capteurs divers de plus en plus grands et de plus en plus puissants, permirent d’effectuer un bond fantastique dans la connaissance et la compréhension de l’Univers et l’homme apprit très vite à jouer avec la complexité des données reçues et des instruments possibles, la première étant le décalage des signaux du fait de l’effet Doppler-Fizeau. Je laisse ici la parole à Christophe de Reyff, physico-chimiste, ancien responsable de la recherche énergétique à l’Office fédéral suisse de l’énergie (OFEN). C’est un passionné d’astronomie et de cosmologie qui nous donne ci-dessous quelques détails sur ces décalages pour les temps cosmologiques, là où ils sont le plus marqués (NB : je reprends sans autres son commentaire fait à la suite de mon article concernant le projet de télescope SKA) :

Citation :

Que peut-on détecter comme premiers signaux électromagnétiques de l’Univers ? Durant la période qui a suivi le Big Bang, jusqu’à quelque 380’000 années, il n’y avait encore ni étoiles, ni galaxies, mais seulement des photons mêlés à un plasma de protons et de leptons (électrons et neutrinos). Il n’y aura guère que deux sources de photons que nous pouvons encore capter aujourd’hui : ces photons « primitifs » résultant de l’annihilation de l’antimatière avec presque toute la matière, qui se découplent finalement de la matière subsistante vers une température de 3’000 K, et qui sont alors libérés et émis lors de ce qu’on appelle le « découplage » entre photons et matière vers l’âge de 380’000 ans de l’Univers. C’est à ce moment que se forment les atomes neutres d’hydrogène ; on appelle aussi ce moment la « recombinaison » entre électrons et protons, le terme étant trompeur, car il ne s’agissait là que de la première combinaison. À ces photons « primordiaux » enfin libérés s’ajouteront ensuite, plusieurs centaines de millions d’années après, ceux provenant de la célèbre « raie de l’hydrogène », due à une transition très rare entre un état d’énergie supérieure et un état d’énergie inférieure de l’atome d’hydrogène, la fameuse raie de 21 cm*. Mais, comme nous sommes à des périodes très lointaines, le non moins fameux décalage vers le rouge, noté z, fait que cette raie, qui est bien à 21 cm dans nos laboratoires et dans notre voisinage galactique immédiat, se trouve énormément décalée. Dans notre Galaxie, on en observe aussi bien un décalage vers le bleu qu’un décalage vers le rouge, suivant un simple effet Doppler de nuages d’hydrogène qui soit s’approchent, soit s’éloignent de nous.

Au moment très lointain dans le passé du découplage, la valeur de z était de presque 1’100. Cela signifie que, théoriquement, la raie de l’hydrogène pour les tout premiers atomes d’hydrogène formés et libres qui l’auraient émise à l’époque se trouverait pour nous à des longueurs d’onde 1’101 fois plus grandes, la relation simple étant : z + 1 = (longueur d’onde actuelle / longueur d’onde d’origine), donc maintenant vers 231 m ! Pour les fréquences correspondantes, c’est l’inverse : z + 1 = (fréquence d’origine / fréquence actuelle), et donc on n’aurait plus la fréquence originale de 1,4 GHz pour la raie de 21 cm, mais seulement 0,0013 GHz, ou 1,3 MHz pour une raie hypothétique située à une longueur d’onde de 231 m.. Bien sûr, cette raie hypothétique ne peut pas exister du fait que la rare transition entre les deux états de l’atome d’hydrogène demande plusieurs millions d’années pour se produire. Il faudra attendre l’apparition des premières galaxies, plusieurs centaines de millions d’années plus tard.

En effet, si l’on observe des galaxies qui ont été formées vers 6 milliards d’années après le Big Bang, la valeur de z est déjà tombée à presque 1. Avec z + 1 = 2, la raie de l’hydrogène se trouve à une longueur d’onde tout de même deux fois plus grande, à 42 cm, soit à une fréquence deux fois plus petite, à 0,714 GHz, ou 714 MHz. L’une des galaxies les plus lointaines, et donc parmi les plus primitives, observées à ce jour, GN-z11, a un « redshift » z = 11,09 et était située à 13,4 milliards d’années-lumière, soit à l’âge d’environ 400 millions d’années de l’Univers, lorsqu’elle nous a envoyé sa lumière que nous voyons aujourd’hui de façon très rougie. Les nuages d’hydrogène neutre qui s’y trouvent nous envoient donc sa raie non plus à 21 cm et 1,4 GHz, mais à 2,54 m et à 0,118 GHz, soit 118 MHz.

L’autre rayonnement omniprésent et quasi isotrope dans le ciel, le « rayonnement fossile » bien connu, dit aussi du « fond cosmologique », est celui qui provient du fameux « découplage » lui-même vers l’âge 380’000 de l’Univers. Il est l’image fossile d’un fond rayonnant alors à une température de 3’000 K, qui, du fait du décalage vers le rouge, z = 1’100, n’est plus qu’à une température apparente de 2,726 K pour nous. Autrement dit, selon la « loi du déplacement de Wien », qui relie la température à l’inverse de la longueur d’onde de l’intensité maximale, la fréquence du maximum de ce rayonnement est passée des 176 THz d’origine (dans le spectre visible) à seulement 160,2588 GHz précisément aujourd’hui (dans le domaine des ondes radio). La mesure de ce rayonnement fossile est désormais bien documentée et ce sont ses très faibles variations ponctuelles « anisotropies », de l’ordre du millionième de K, qui permettent de se faire une idée des premières structures en devenir du jeune Univers.

On voit donc qu’il est important que les nouveaux radiotélescopes puissent travailler dans une large gamme de 50 MHz à 1,4 GHz et demain jusqu’à 30 GHz, pour capter ces raies d’hydrogène provenant de galaxies plus ou moins lointaines, donc plus ou moins primitives.

Fin de citation.

Je pense que cette explication donne une bonne idée des difficultés auxquelles sont confrontés les astrophysiciens. Bien entendu la déformation des signaux due à la vitesse de récession correspond à des lois et des calculs très précis et leur interprétation est donc tout à fait documentée et justifiée. Une « anomalie » (accélération de l’expansion), mise en valeur par la confrontation des calculs et des observations, donne toutefois l’occasion de s’interroger à nouveau aujourd’hui sur l’existence et la nature d’une matière noire et d’une énergie noire.

NB* : La raie H1 « de 21 cm » exprime le passage (on dit la « transition ») de l’atome d’hydrogène d’un état métastable, où l’électron se trouve avec un spin parallèle à celui du proton, à un autre état très légèrement moins énergétique, et donc plus stable, où ces spins deviennent « antiparallèles ». La très faible (on dit « hyperfine ») différence d’énergie est seulement de l’ordre du millionième d’électron-volts mais elle est restituée sous forme de rayonnement électromagnétique (la fameuse raie de 21 cm, correspondant à la fréquence 1420,4 MHz, là où la transition se produit) donc théoriquement captable par un instrument d’observation. Ce passage est extrêmement rare (un atome d’hydrogène d’énergie supérieure a une demi-vie de plusieurs millions d’années avant de « tomber » au niveau inférieur) mais l’hydrogène est la matière la plus abondante de l’Univers (73,9 % en masse actuellement et 75 % à l’origine, c’est-à-dire après le « découplage »), et ce passage intervient spontanément partout dans l’Univers (il est, de plus, « favorisé » par les très rares collisions d’atomes d’hydrogène). Compte tenu de son immensité, la somme des transitions à un instant donné est quand même bien perceptible dans cette raie de 21 cm (on dit qu’elle a « une forte intensité »), nous envoyant une information sur la présence d’hydrogène dans les endroits les plus éloignés comme les plus proches.

NB: Cet article est publié après relecture et accord de Monsieur de Reyff.

image ci-dessous, le spectre électromagnétique:

Liens :

https://fr.wikipedia.org/wiki/Raie_%C3%A0_21_centim%C3%A8tres

https://www.futura-sciences.com/sciences/actualites/voie-lactee-raie-21-cm-cle-astrophysique-cosmologie-seti-27588/

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05

Nous n’avons pas eu le prix de la Mars Society USA mais pour de bonnes raisons

Comme exposé dans un article récent, j’ai présenté à l’Université de Californie du Sud (USC) le 19 octobre, au nom d’une petite équipe, le projet d’une colonie martienne de 1000 habitants. L’équipe était constituée de Richard Heidmann, polytechnicien et ingénieur en astronautique, fondateur de l’Association Planète Mars (l’entité française membre de la Mars Society), de Tatiana Volkova, ingénieure et candidate à un doctorat d’architecture à l’EPFL (Swiss Space Center) et de moi-même. La présentation était faite dans le cadre d’un « Mars Colony Contest » proposé par la Mars Society USA au monde entier. Sur 100 équipes concourantes, nous avions passé, sur dossier écrit, le premier éliminatoire, puis le deuxième et nous nous retrouvions dans les cinq premiers candidats. Pour passer l’obstacle final nous faisions face à un jury doublé en nombre (huit personnes au lieu de quatre) venant d’horizons différents mais incluant des membres de la Mars Society USA, un « ancien » de la NASA et un cadre de SpaceX (qualifications précises non spécifiées).

Le fait que notre dossier écrit ait reçu du premier jury les notes les plus élevées sur le plan technologique n’a pas été suffisant pour nous donner une position victorieuse (c’est une équipe du MIT qui a gagné et une équipe de l’Université de Wroclaw qui est arrivé en second). La déception de ne pas recevoir de prix fut grande mais l’explication justifiant le choix final, reçue ensuite, m’a rasséréné et finalement conforté dans l’opinion que nous avions fait le meilleur travail. En effet les deux objections qui nous ont « plombés » ont été que (1) nous n’exposions pas suffisamment la vision que nous avions de la colonie et (2) que nous envisagions pour cette même colonie une gouvernance d’entreprise en liens étroits avec la Terre et non une gouvernance locale, entre colons, totalement libre.

Je considère ces objections comme non valables et j’ai bien sûr des arguments pour défendre ce point de vue.

Concernant la première, j’avais en effet constaté que les autres candidats présentaient des visions futuristes d’établissement et de vie sur Mars, sans bien expliquer comment ils parvenaient à la concrétisation, ou en supposant pour le faire, des progrès techniques ou des performances utilisant les technologies d’aujourd’hui, qui me semblaient irréalistes. Ainsi, par exemple, ils montraient de vastes halls viabilisés, très peu occupés pour ne pas dire vides, sans apparemment s’être souciés des pressions qui allaient s’exercer sur les parois contenant ces volumes ou sur les quantités d’azote nécessaires pour les emplir à une pression acceptable* pour constituer, dans l’ensemble des volumes viabilisés, une atmosphère respirable non facilement inflammable (compte tenu de la quantité d’oxygène nécessaire, non réductible). De notre côté nous avons toujours pris soin de préciser comment, en utilisant les technologies existantes, les équipements et les ressources en matière, en robots, en hommes et en réunissant les financements nécessaires, on pouvait obtenir les résultats que nous considérons atteignables. Nos dômes viabilisés ont un diamètre maximum de 30 mètres (et la plupart seulement de 20 mètres) tout simplement  parce qu’au-delà, le socle en duricrete (béton fait avec de l’eau ajouté au régolite martien) qui maintient la structure, serait trop épais (déjà un mètre pour les dômes de 20 mètres et deux mètres pour les dômes de 30 mètres), c’est-à-dire demanderait trop d’eau et serait trop long à construire, et le volume de ces dômes est utilisé sur plusieurs niveaux. Pour nous il ne s’agissait pas, comme le jury l’aurait souhaité, de « montrer la maison qu’on voulait vendre » mais de « montrer comment construire la maison qu’on voulait réaliser ». J’estime que, dans les circonstances supposées (un environnement extrême, s’il en est), c’est bien la seconde approche la plus intéressante et la seule qui aurait dû être prise en considération.

*nous avions choisi 0,5 bars dont 42% d’oxygène ce qui semble le minimum acceptable pour d’une part la pression externe exercée sur le corps et d’autre part l’inflammabilité mais cela induit quand même une poussée de 5 tonnes par m2 sur les parois des habitats, ce qui impose des matériaux particulièrement résistants (pour nous des barres d’acier encadrant et tenant des parois constituées de deux plaques de verre laminé de 1,5 cm d’épaisseur et de 3 mètres sur 1,5 m de largeur / longueur). 

Concernant la seconde objection, je maintiens qu’il est illusoire de prévoir qu’une colonie martienne de 1000 habitants puisse se gouverner elle-même (en dehors bien sûr des nécessités imposées par l’éloignement de la Terre et de l’intérêt de tous de laisser s’exprimer la créativité des résidents) alors qu’elle sera très largement dépendante des importations d’équipements de la Terre et que d’autre part elle sera le résultat d’investissements lourds de capitalistes qui n’auront, au stade des mille résidents, pas récupéré beaucoup de fruits de ces investissements (après les quelques 20 années nécessaires pour « monter » jusqu’à ce niveau de population). On estime que les revenus, provenant surtout de la vente de location d’habitats, de services annexes (à des chercheurs et à des touristes) et de la valeur générée par quelques start-up, commenceront à être engrangés dès le troisième cycle synodique suivant le premier atterrissage mais que ces revenus seront très faibles par rapport aux premières dépenses, même s’ils croîtront ensuite en fonction de l’accroissement des capacités d’hébergement. Il est donc inévitable que les investisseurs, via une « société d’exploitation de Mars » restée sur Terre, contrôlent sérieusement, au moins en exerçant un droit de veto, les décisions qui seront prises par les personnes qui résideront sur Mars (celles qui seront employées par la société d’exploitation et celles qui auront payé pour venir faire un séjour sur Mars) même si, bien entendu, les résidents martiens devront avoir le droit de se prononcer sur la gestion de la colonie et l’orientation des activités pouvant être développées sur Mars. NB : Les « paying-guests », c’est à dire « les clients », qui auront payé pour leur voyage et leur séjour et les membres du « staff », personnel qui sera payé pour faire fonctionner la base, pourront et devront faire bénéficier de leur expérience l’ensemble des personnes intéressées et devront sur place réagir et s’adapter rapidement à l’évolution et aux situations nouvelles.

Heureusement, les dossiers des finalistes, dont le nôtre, seront publiés dans un livre de la Mars Society. Cela permettra à tous les lecteurs de se faire une opinion (et de nous faire justice), au-delà de (trop) belles images peut-être suscitées par la proximité malheureuses (en l’occurrence) de Hollywood.

Illustration de titre :

Un ensemble habitable individuel selon notre projet (ils sont assemblés en rangées de 26 unités accolées, reliées entre elles par des couloirs pressurisés, sous l’habitat). Il utilise l’acier, le verre, la glace d’eau, tous éléments qui peuvent être produits ou obtenus sur Mars. Le module-habitat proprement dit a un diamètre de 6 mètres avec deux niveaux habitables et un sous-sol où circulent les canalisations. A chaque module-habitat sont accolés deux modules-serre et un module-couloir. Chaque personne dispose de 30m2 au sol au niveau principal du module-habitat. Avec les annexes, dômes (pour les réunions et actions collectives) couloirs et sas, la surface viabilisée par personne atteint 50 m2 ; la surface cultivée est de 80 m2 à 100 m2 par résident (le volume des modules-serre est utilisé au maximum, sur plusieurs niveaux).

Nous avons prévu des éléments de construction simples pour pouvoir être produits sur place et remplacés facilement. NB : 30 cm de glace d’eau constitue un excellent écran contre les protons des radiations solaires (SeP).

Les quelques dômes géodésiques qui ponctuent l’ensemble de la base utilisent les mêmes matériaux et sont reliés avec le reste de la base par des corridors pressurisés.

Illustration ci-dessous:

Grand hall du projet de la Wroclaw University of Science & Technology (Pologne), arrivée seconde à la finale du “Contest”. Joli mais comment font-ils pour le construire ? Quelle énergie dépense-t-ils pour édifier les parois et la toiture (si le hall est en surface) ou pour creuser ce volume énorme (s’il est enterré) ? De quels engins ont-ils disposé ? Combien de vols ont-ils été nécessaires pour les importer de la Terre? La pin-up du premier plan est-elle bien utile ? Et quel gâchis de gaz rares (l’atmosphère martienne dont la pression est de 6 millibars ne contient que 2% d’azote; même à une pression interne de 0,5 bars, cela représente des quantités relativement énormes et une énergie considérable pour l’extraire) !

 

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 01