L’invariance d’échelle du vide, un retour à la réalité ?

Depuis des dizaines d’années, la matière noire et l’énergie sombre hantent l’esprit des cosmologues du monde entier. Elles constitueraient l’essentiel de l’Univers et pourtant on n’a jamais pu les observer en direct, quelle que soit l’échelle à laquelle on se place. On n’en voit que les effets supposés. Pourquoi ? Nous sommes peut-être sur une fausse piste. Peut-être faut-il à nouveau revenir au réel, c’est-à-dire à ce que l’on voit ou, pour généraliser, ne considérer comme réel que ce dont on reçoit une onde ou un rayonnement. En quelque sorte peut-être faut-il laisser tomber ce qu’on pourrait considérer comme des épicycles modernes. La théorie de l’invariance d’échelle du vide, exposée par André Maeder a, en ce sens, le mérite de proposer de remettre élégamment l’église au milieu du village.

La matière noire et l’énergie sombre sont les explications données par le consensus (« modèle standard » de la cosmologie, dit « ΛCDM »*) pour des constatations embarrassantes : le mouvement des étoiles autour du cœur des galaxies est trop rapide, comme si une énorme masse cachée les enveloppait ; la vitesse de concentration des galaxies dans leurs amas est telle que la gravité parait être sensible à une énorme masse cachée au cœur de ces amas ; l’accélération de l’expansion de l’Univers qui se manifeste depuis quelques 6 ou 7 milliards d’années, parait être causée par une force étrange qui prolonge l’impetus donné par le Big-bang à l’origine de l’expansion de l’Univers il y a 13,8 milliards d’années et qui aurait dû petit à petit s’épuiser.

*Lambda Cold Dark Matter où Lambda (« Λ ») est la constante cosmologique, associée à l’énergie sombre.

Cependant ces explications, une masse et une énergie non observables directement mais seulement identifiables par leurs effets, ne sont pas satisfaisantes car, malgré les années et l’acharnement à les identifier directement, force est de constater que l’on n’y parvient toujours pas. Cette masse et cette énergie manquantes s’avèrent beaucoup plus élusives que l’antimatière et c’est bien gênant puisqu’elles constitueraient 95,1% de l’Univers ; toute notre matière perceptible, dite « baryonique », n’en constituant que 4,9%. Ne faudrait-il pas changer nos paradigmes ?

Un astrophysicien, André Maeder, professeur émérite à l’Université de Genève, a remis en question l’approche suivie depuis les années 1933 (Fritz Zwicky) et 1998 (Riess et al.), en expliquant ces phénomènes observés, sans introduire cette masse et cette énergie jamais détectées en direct. Sa théorie repose sur ce qu’il appelle l’« invariance d’échelle du vide ». Elle est très séduisante car si elle remet bien sûr en cause le modèle standard, ΛCDM, qui a introduit ces fantômes, elle ne suppose pas pour autant de remettre en cause les équations fondamentales des grands modèles de la cosmologie, seulement de les ajuster/préciser.

La démonstration faite par André Maeder est très compliquée à comprendre par les non spécialistes car elle suppose de solides connaissances en mathématiques. Je vais essayer d’en donner quelques éléments, suffisamment pour en faire ressortir les principes logiques.

Tout d’abord il faut savoir que l’« invariance d’échelle » est un concept de mathématiques et de physique selon lequel le comportement d’un système considéré est indépendant de l’échelle à laquelle on l’observe. On la trouve par exemple dans un ensemble fractal, à l’intérieur duquel, à tous les niveaux de « focus » on voit la même figure. C’est aussi le cas des équations de Maxwell en électrodynamique qui, en l’absence de charges et de courants, montrent la même propriété d’invariance d’échelle.

Mais il est aussi admis que cette invariance a des limites aux extrêmes, par exemple si on se situe au niveau des molécules élémentaires ou à celle du système entier qu’elles constituent. André Maeder insiste d’ailleurs bien pour dire qu’aux petites échelles (à commencer par l’échelle quantique) les lois de la Physique sont, dans l’Univers, dépendantes de l’échelle considérée mais, et c’est là où sa position diverge de celle du consensus, il nous montre que ce n’est plus nécessairement vrai à grande échelle. Plus précisément, ce qu’il veut démontrer c’est qu’à partir du moment où les lois de la relativité générale sont nécessaires pour expliquer ce que l’on voit, le vide spatial a les mêmes propriétés quelle que soit l’échelle à laquelle on observe. Derrière nous, le « cas extrême », vérifié, où la dépendance est constatée, c’est, pendant quelques petits milliards d’années après le Big-Bang, la période pendant laquelle la densité de la matière dans l’Univers était importante, soit Ωm > 0,01 (Ω = 1 lors du Big-Bang), Ω étant le facteur de densité, Ωm celui de la masse. A notre époque ce sont aussi toutes les régions de l’espace qui ne sont pas vides, comme le cœur des galaxies (mais pas leur périphérie).

En se fondant sur le principe de l’invariance dans ces conditions, André Maeder établit une relation entre la constante cosmologique ΛE et le facteur d’échelle λ du cadre invariant d’échelle. Il ne fait que préciser ΛE avec ce facteur λ ; tout le reste demeure inchangé et cela rejoint l’esprit dans lequel Albert Einstein lui-même avait introduit la constante dans ses équations, puisqu’on rapporte qu’il l’avait fait pour préserver l’invariance d’échelle de l’espace vide. Il est assez surprenant de constater que dans le modèle cosmologique standard, suite du travail d’Einstein, les propriétés du vide sont certes prises en compte mais d’une manière qui interdit cette invariance d’échelle.

Autrement dit, le cadre invariant d’échelle introduit par André Maeder offre une possibilité de concilier l’existence de ΛE avec l’invariance d’échelle de l’espace vide et André Maeder corrige ainsi une dérive allant contre le principe originel.

On voit l’effet de λ dans le graphe ci-dessous. La densité de masse, Ωm a un effet très fort mais pendant très peu de temps et cet effet est largement dominé par λ par la suite. Le fait est que pour Ωm = 0,3 l’effet n’est pas encore complètement éliminé. Mais après Ωm = 0,01, λ va vers l’infini extrêmement vite.

La leçon du Professeur Maeder a apparemment du mal à passer car la quasi-totalité des cosmologues continuent à « chasser » la matière noire et l’énergie sombre. Comme souvent on s’enfonce sur une mauvaise piste et on refuse de voir qu’on s’est fourvoyé car cela représente beaucoup de travail perdu, des années de recherche gâchées. Mais tôt ou tard la réalité reprend ses droits. On l’a bien vu avec Képler et sa loi des cycles (Astronomia Nova publié en 1609). Attendons et espérons que nos scientifiques modernes soient plus rapides pour se remettre en question que les nombreux successeurs d’Hipparque et de Ptolémée.

Illustration de titre : espace profond, photo Hubble. L’étoile est proche, les galaxies disques ou formes ovales sont évidemment lointaines. Les plus rouges sont les plus lointaines (effet Doppler-Fizeau résultant de l’expansion de l’Univers).

Lectures :

An alternative to the ΛCDM model: the case of scale invariance , publié dans The Astrophysical Journal, 834:194 (16pp), le 10 janvier 2017. doi:103847/1538-4357/834/2/194: https://iopscience.iop.org/article/10.3847/1538-4357/834/2/194

Un professeur genevois remet en question la matière noire (ATS, principale agence de presse suisse, Le Temps, 22/11/2017) : https://www.letemps.ch/sciences/un-professeur-genevois-remet-question-matiere-noire

L’énigme de la matière noire

Ce que nous voyons dans le ciel avec nos yeux mais aussi, jusqu’à présent, avec nos instruments d’observation les plus sophistiqués, pourrait n’être que « la partie visible de l’iceberg » de la « densité d’énergie totale » de l’Univers observable, dit autrement, de la totalité des composants de l’Univers observable, matière et énergie comprises. La matière commune dite « baryonique » ne constituerait en effet selon le « modèle standard de la cosmologie », que quelques 4,9 % de cette « densité », dont les 100% comprendraient, outre la totalité de cette matière baryonique, la totalité des photons, la totalité des neutrinos, ainsi que la « matière noire » et l’« énergie sombre » (les neutrinos pouvant cependant faire partie de la matière noire). Les deux derniers composants constitueraient l’essentiel de cette même densité (26,8% pour le premier et 68,3% pour le second)…mais ils restent hypothétiques. La réalité nous force à constater leurs effets gravitationnels sans pouvoir les observer directement et il est très frustrant de constater l’invraisemblance intuitive que le premier, la matière noire, exprime alors que nous avons fait des progrès énormes en astronomie ces dernières décennies. Le second, l’énergie sombre, tout aussi mystérieuse mais qui est de toute façon moins « visible » (elle se manifeste dans le temps et dans les vitesses de récession exprimées sur les spectres des émissions électromagnétiques) et qui est une sorte d’antigravité, constitue une autre énigme qui ne sera traitée qu’accessoirement dans cet article…même si, peut-être, elle est intrinsèquement liée à la matière noire autant qu’à la matière baryonique.

Le constat

L’idée qu’il « manque quelque chose » s’est insinué dans les raisonnements depuis 1933 grâce à l’honnêteté et au courage de l’astronome suisse Fritz Zwicky (diplômé de l’ETHZ, enseignant au CalTech) qui avait observé une discordance entre la « masse dynamique » (dispersion des vitesses affectant les masses et résultant de la gravitation) et la « masse lumineuse » (estimation de la masse résultant de la quantité de lumière émise constatée) d’un groupe de galaxies dans un amas, la première étant beaucoup plus élevée que la seconde. Depuis cette époque ce « manque » a été observé mainte fois avec des équipement beaucoup plus performants (on pouvait douter de la précision des données recueillies à l’époque de Fritz Zwicky) et dans d’autres contextes. Une des façons de le percevoir est de porter attention à la vitesse de rotation des étoiles autour des cœurs de galaxie spirales par examen de leurs spectres de rayonnements électromagnétiques. D’après la troisième loi de Kepler, plus on s’éloigne du centre de gravité d’une galaxie, plus la vitesse des étoiles devraient décroître (cf ce qui se passe dans notre système solaire pour les planètes). Or, comme l’a constaté l’astronome Vera Rubin dans les années 1970 sur la base des spectres de la galaxie d’Andromède, la vitesse de rotation des étoiles (notée sur des « courbes de révolution ») en périphérie du centre est quasiment la même que celles des étoiles qui sont proches du centre, tout comme si la galaxie était beaucoup plus étendue en masse et en volume que sa simple partie visible, et la différence n’est pas marginale (de l’ordre de 95%!). Cette observation fut confirmée dès que l’on put, en 1999 avec le télescope spatial Subaru, observer les galaxies sur les longueurs d’ondes de l’infrarouge, hors de l’atmosphère terrestre (ce rayonnement permettant d’observer bien davantage de sources que les seules étoiles visibles). De même la vitesse d’expansion de l’univers est compatible avec une certaine masse de 30% de la densité critique et sans la matière noire cette masse serait évidemment insuffisante (sans prendre en compte l’accélération qui s’exprime depuis 6 à 7 milliards d’années et qui, elle, devrait résulter de l’« énergie sombre »).

De quoi cette matière noire pourrait-elle être constituée ?

Selon les théories, elle pourrait être chaude (rapide) ou froide (lente) en fonction de la nature des particules qui la constituent. Dans le premier cas, le neutrino serait un bon candidat et l’univers se serait formé à partir de grandes masses qui se seraient ensuite fragmentées. Dans le second cas, des particules lourdes comme les « WIMP » (« Weakly Interactive Massive Particles ») auraient provoqué ou contribué à provoquer/amplifier les anisotropies du plasma primitif (jusqu’à la Recombinaison) et l’Univers se seraient développé à partir de petites masses qui se seraient agglomérées ensuite et qui continuent encore aujourd’hui à le faire (plutôt la tendance dans la théorie d’aujourd’hui).

Pour dire les choses autrement, on a d’abord pensé « tout bêtement » (avant de passer à autre chose) que la matière noire pourrait être de la matière baryonique inobservable car difficilement visible avec nos instruments d’observation. Les nuages de gaz (hydrogène) enveloppant de nombreuses galaxies et s’étirant entre elles auraient pu être un bon candidat mais, autour des galaxies, leur vitesse et leur température semblent être plutôt la preuve de l’attraction de la masse de ces galaxies renforcée par la matière noire. Les objets périphériques massifs et très denses (MACHO pour « Massive Compact Halo Objects ») également du fait de leur petitesse apparente, tels qu’étoiles à neutrons, naines blanches, naines brunes, ou trous noirs, pourraient aussi être des candidats puisqu’ils sont difficiles à détecter et qu’ils contribuent évidemment à beaucoup de matière, dans l’ensemble. Cependant l’hypothèse étoiles à neutrons et naines blanches impliquent que ces étoiles auraient été autrefois « vivantes » et que donc le ciel ancien (ou lointain) aurait été plus brillant que le ciel contemporain (ou voisin), ce qui n’est pas le cas. Quant aux naines brunes (étoiles avortées ou quasi-étoiles), on n’a pu, jusqu’à présent, constater d’occultations suffisantes permettant de démontrer qu’elles atteignent une abondance suffisante. Les hypothétiques trous noirs périphériques constituent une piste également abandonnée car ils ne présentent pas les perturbations de leur environnement qu’ils devraient provoquer.

Les WIMP sont toutes sortes de particules lourdes « non-baryoniques » interagissant très faiblement avec la matière. Ce sont, après éliminations des autres possibilités, les meilleurs candidats à la matière noire (ceux qui « restent »). On les envisage en extrapolant le principe de « supersymétrie » du modèle standard de la physique des particules, chaque boson étant associé à un fermion (ces fermions ont des propriétés identiques, notamment de masse, aux bosons mais avec un spin différent de ½). A noter que les WHIMP ne sont pas des éléments d’antimatière qui seraient aussi des baryons (on sait que la matière et l’antimatière interagissent extrêmement facilement et vigoureusement). Les neutrinos pourraient être aussi une partie de l’explication ; contrairement au WIMP on connaît maintenant leur existence et leur omniprésence mais non pas leur abondance.

Identifier l’invisible

Depuis des décennies on s’efforce d’en savoir plus et d’abord en tentant de faire interagir, même très marginalement, la matière visible avec la matière noire (WIMP et/ou neutrinos). On a cherché et on cherche encore partout ces interactions, soit dans les accélérateurs de particules (notamment dans le plus puissant, le LHC – Grand Collisionneur de Hadrons), soit dans de multiples installations souterraines (pour éliminer le maximum de rayonnements « parasites » c’est-à-dire tous ceux qui interfèrent facilement avec la matière): CDMS (Cryogenic Dark Mater Search), XENON dark matter research project, WARP (WIMP ARgon Program), EDELWEISS (Expérience pour DEtecter Les WIMP En SItes Souterrains), CRESST (Cryogenic Rare Event Search with Superconducting Thermometers), EURECA (European Underground Rare Event Calorimeter Array) ou LUX (Large Underground Xenon experiment), soit sous la glace (IceCube, en Antarctique) ou dans l’espace (le spectromètre AMS, conçu par UniGe et qui est posé sur la Station Spatiale Internationale). La multiplicité des expériences marque à la fois l’intérêt et sans doute la frustration des scientifiques, pensant « tenir quelque chose » mais incapables de le prouver car…les résultats sont toujours nuls ou, si l’on veut rester optimistes, repoussent toujours plus loin la « section efficace » de la matière noire (celle qui interagirait avec la matière). Un nouveau satellite, « Euclid » doit être lancé en 2022 par l’ESA pour tenter la détection. La conception de la charge utile est réalisée par Airbus et Thalès sous la direction du « consortium Euclid », constitué d’un grand nombre de laboratoires européens (une centaine dans 16 pays, ce qui témoigne de l’intérêt !) qui assureront aussi l’exploitation des données. Il doit rechercher les effets de l’énergie sombre mais, relativement à la matière noire, son principe est d’étudier, en « s’appuyant » sur la gravité, seule force, apparemment, qui ait un effet sur les deux types de matière, les effets de lentilles gravitationnelles faibles. La méthode consiste à mesurer la déformation de la forme des galaxies sous l’effet de la lentille gravitationnelle des matières visible et noire présentes entre la Terre et ces galaxies. Le degré de distorsion doit permettre de déduire comment se répartit la matière noire, en soustrayant l’effet de la matière observable, et observée.

Compte tenu des « résultats » décevants (à ce jour !), l’explication du mystère viendra-t-elle de théories alternatives ? La théorie MOND (Modification Of the Newtonian Dynamic) de Mordehai Milgrom propose une version modifiée des lois de la gravité (grande ou faible accélération selon que la masse est importante ou non). L’Univers de Dirac-Milne propose l’existence d’antigravité liée à l’antimatière (les particules d’antimatière, de masse négative, auraient une force de répulsion gravitationnelle). De son côté André Maeder (Université de Genève) propose l’hypothèse de l’« invariance de l’échelle du vide », autrement dit que le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction. Il remarque que cette hypothèse de départ de n’a pas été prise en compte dans la théorie du Big bang or le vide joue un rôle primordial dans les équations d’Einstein (il intervient dans la définition de la constante cosmologique). Appliqué aux observations astronomiques, il montre que son modèle prédit l’accélération de l’expansion de l’Univers sans qu’aucune particule ni énergie noire ne soient nécessaires. Si la moisson des données d’Euclid n’est pas concluante ou si l’une de ces théories alternatives prévaut auprès de la communauté des astrophysiciens dans les tests répétés fait pour les démontrer, on abandonnerait les WIMP qui apparaitraient alors comme un mirage; sinon toute une nouvelle physique passerait du champ théorique au champ observable. C’est ainsi que progresse la Science.

NB : cet article, très général, ne prétend pas épuiser le sujet de la matière noire mais seulement le mettre en évidence pour faire prendre conscience de la difficulté de la recherche (par définition on ne sait jamais ce qu’on va trouver). Il faut, sur la base des connaissances existantes, émettre des hypothèses pour résoudre les questions que posent la réalité des choses et sans relâche et en toute honnêteté, tester ces hypothèses avec les moyens forcément limités et le plus souvent indirectes dont on dispose.

Image de titre :

Une possibilité de représentation de l’énergie noire (que l’on n’a toujours pas vue*). Etant donné que l’on n’est toujours pas certain de l’existence de la matière noire, j’ai ajouté un point d’interrogation. *NB: les nuages d’hydrogène présents sur la photo, ici probablement le reste d’une supernova, ne seraient pas suffisants pour rendre compte de la totalité de la matière noire. Crédit de la photo (sans point d’interrogation !) : NASA, ESA, M. J. Jee and H. Ford et al. (Johns Hopkins Univ.)

Liens : 

https://www.futura-sciences.com/sciences/definitions/physique-matiere-sombre-46/

https://fr.wikipedia.org/wiki/Euclid_(t%C3%A9lescope_spatial)

https://www.unige.ch/communication/communiques/2017/cdp211117/

https://www.nasa.gov/multimedia/imagegallery/image_feature_827.html

Image ci-dessous:

Les observations des courbes de révolution des étoiles autour du centre de leur galaxie montrent qu’elles tournent trop vite si l’on se base sur la loi de la gravitation de Newton ou sur la masse déduite de la luminosité des galaxies. © Gianfranco Bertone.

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 19 11 05