Petite confusion sur notre lointain futur. Big Rip, Big Crunch ou entre-deux?

Dans cet article, je vais vous parler de masse, d’énergie, de distances et de temps. Il s’agit de l’Origine et sans doute de la Fin. Il s’agit de l’Histoire qui a commencé il y a très longtemps et qui finira dans encore plus longtemps. Il s’agit enfin de nous puisque nous sommes conscients de ces facteurs et de cette Histoire.

NB: J’ai écrit ces lignes en pensant à mon fidèle lecteur et physicien Christophe de Reyff, grand connaisseur et amateur du sujet traité. J’espère qu’il appréciera.

On sait maintenant que notre Univers a commencé, comme d’autres peut-être et peut-être à l’occasion d’une fluctuation quantique dans un vide qui n’était pas si vide, comme un volume extraordinairement massif et dense évoluant dès l’origine en expansion à partir de l’infiniment petit, il y a 13,8 milliards d’années (13,799 +/-0,021). La lumière ou plutôt les divers signaux « messagers » provenant de ce moment, mettent toujours environ cette durée (car continûment elle s’allonge) pour nous parvenir à la vitesse de…la lumière. Mais si l’on voulait revenir vers notre source (en en ayant bien sûr le temps) à cette même vitesse, constante universelle par définition immuable et intangible, il nous faudrait 42 milliards d’années. L’explication étant que l’espace n’est pas resté inchangé depuis les origines mais qu’il s’est extraordinairement dilaté, dit autrement, qu’il y a eu « expansion » de l’Univers.

Toute la difficulté pour appréhender le sujet de la vitesse de l’expansion donc du futur de l’Univers, vient de son immensité temporelle et spatiale, des variations du coefficient d’expansion qui dépendent de la force de l’impulsion initiale, de la masse qui génère la gravité et de l’énergie qui l’anime, dans le cadre bien sûr de la limitation absolue imposée par la vitesse de la lumière et peut-être de propriétés inconnues du vide.

Si on regarde autour de nous, jusqu’où voit-on ? La bonne nouvelle c’est que compte tenu de la vitesse de la lumière on peut encore voir nos origines (il vaudrait mieux dire « les percevoir » car les « messagers » ne sont pas que lumineux, ils occupent tout le spectre électromagnétique, et ils ne sont pas qu’électromagnétiques puisque les ondes gravitationnelles, les neutrinos et les rayons cosmiques particulaires, sont aussi porteurs d’informations). En effet la distance n’est pas telle que compte tenu de l’expansion nous nous éloignions actuellement des premiers signaux à une vitesse supérieure à celle de la lumière. En fait la limite au-delà de laquelle la vitesse de « fuite » ou mieux de « distanciation », résultant de l’expansion serait supérieure à celle de la lumière et donc au-delà de laquelle aucun signal ne pourrait nous parvenir, est actuellement de 14,45 milliards d’années. Cette limite est l’« horizon des photons », aussi appelé « horizon de Hubble » qui délimite la « surface de Hubble ». Nous pouvons donc encore aujourd’hui voir aussi loin que nécessaire (même théoriquement un peu plus loin) bien que très difficilement en raison du très fort décalage vers le rouge (effet Doppler-Fizeau résultant de la vitesse croissante d’éloignement), les premiers jaillissements de la lumière (visibles sur la « carte » en deux dimensions qu’on appelle le « fond diffus cosmologique » ou la « surface de dernière diffusion » ou le « Cosmic Microwave Background ») qui ont eu lieu il y a 13,8 milliards d’année moins 380.000 ans. Il faut en effet tenir compte de ce qu’après le Big-bang et jusqu’à la « Recombinaison » (association des électrons avec les protons) qui eut lieu à cette époque, il y a donc 13,79962 milliards d’années, la lumière ne s’était pas encore dégagée de la matière. Cette deuxième limite sur laquelle nous buttons est notre « horizon cosmologique ». Mais on pourrait remonter au-delà de la barrière des 380.000 ans, vers le Big-bang, en exploitant les données fournies par les émissions de neutrinos et d’ondes gravitationnelles qui ont pu s’exprimer « avant », ou en étudiant davantage la surface de dernière diffusion dont les irrégularités (« anisotropies ») expriment bien évidemment ce qui s’est passé « avant »

Mais que voit-on ? Il est bien connu et compris que nous ne voyons que dans le passé puisque la vitesse de la lumière ne peut nous transmettre d’information que sur ce qui existait quand elle a été émise. Nous sommes donc de ce point de vue au sommet d’une sphère ou plutôt d’une larme, notre regard (ou plutôt notre regard avec l’aide de nos instruments d’observations) nous permettant de voir tout autour de nous des objets de plus en plus anciens au fur et à mesure qu’ils sont plus lointains. Nous ne pourrons jamais connaître directement notre univers contemporain, c’est frustrant mais c’est ainsi. Nous ne pouvons que le déduire en appliquant et en extrapolant sur les principes d’homogénéité et d’isotropie constatés pour l’univers lointain. Une étoile géante rouge voisine, comme Antarès ou Bételgeuse (situées toutes deux à environ 500 années-lumière), deviendra un jour une supernova mais nous ne le saurons que lorsque nous aurons reçu le rayonnement nous en informant, 500 ans après qu’il ait été émis. Nous sommes donc, forcément au centre de notre univers-observable dans l’espace et à sa pointe extrême dans le temps, constatant tout autour de nous un horizon limité par la surface de dernière diffusion et, plus en profondeur, par certaines sources d’émission de neutrinos et certaines sources d’émission d’ondes gravitationnelles. L’« horizon de l’Univers observable » qui résulte de cette contrainte est différent de notre « horizon-cosmologique » et différent de l’« horizon-des-photons ». Un jour, l’expansion de l’univers se poursuivant, la vitesse d’éloignement de la totalité des astres qui nous entourent aura été accélérée jusqu’à dépasser la vitesse de la lumière et notre Univers-observable sera devenu intégralement noir au-delà de la masse de matière retenue dans notre galaxie par son trou-noir central et des galaxies voisines qui lui sont dépendantes. Notre horizon-des-photons (qui se sera dilaté jusqu’à atteindre 17,41 milliards d’années-lumière) nous empêchera de voir jusqu’à notre horizon-cosmologique (qui se sera dilaté beaucoup plus vite). Mais ce sera dans très, très, longtemps, l’échéance dépendant non seulement de l’expansion mais aussi de l’accélération de l’expansion de notre univers.

On discute beaucoup de ces deux phénomènes. Voyons d’abord l’expansion-aujourd’hui. Elle est donnée par ce qu’on appelle la « constante de Hubble » (« H »), On parle de « constante » (mais on devrait dire « paramètre » comme expliqué plus bas). Ce H est la vitesse d’éloignement des astres qui nous entourent divisée par la distance qui nous sépare; le problème pour l’apprécier étant la définition de la distance (la vitesse donnée par le déplacement vers le rouge par effet Doppler-Fizeau est moins difficile à évaluer). L’expansion-aujourd’hui est nommée H0.

On a obtenu plusieurs résultats pour ce paramètre, en fonction de l’instrument utilisé et des données prises en compte et malheureusement on ne parvient pas à résoudre la différence entre ces résultats.

Une première méthode de calcul (à l’aide du télescope Planck, successeur de COBE puis de WMAP) part du plus lointain. Elle repose sur une extrapolation des variations de températures constatées dans les anisotropies apparaissant à la surface du fonds diffus cosmologique. Une seconde méthode part du plus proche. Elle repose sur l’utilisation de « chandelles cosmiques » (sources de lumière de même intensité en absolu) dans notre voisinage puis de proche en proche, jusqu’aux galaxies voisines. Dans cette méthode, on part des étoiles céphéides (dont la luminosité régulière est depuis longtemps considérée comme en faisant de bonnes indicatrices des distances). La traduction de cette propriété en distances a été faite par l’Université de Carnegie ; je m’y réfère comme « Carnegie 1 ». On passe ensuite via les céphéides aux supernovæ (type SN1a) puis via les précédentes aux pics d’éclat d’étoiles géantes rouges (« Carnegie 2 »). Une variante, conçue et utilisée par la collaboration H0LICOW repose sur l’utilisation des lentilles gravitationnelles de masses moyennes. Le dernier travail en date, le projet SH0ES, a repris les calculs de l’Université de Carnegie.

La méthode Planck donne H0 = 66,93/s/Mpc; celle de Carnegie « 1 », H0 = 74 km/s/Mpc; celle de la collaboration H0LICOW, H0 = 71,9 +/- 2,7 km/s/Mpc; celle de Carnegie « 2 », H0 = 69.8 km/s/Mpc ; celle de SH0ES donne H0 = 73,04 km/s/Mpc. Il y a donc bien une différence entre le résultat obtenu à partir du fond diffus cosmologique et ceux obtenus à partir de l’espace proche. Et on ne comprend pas pourquoi. Comment avancer ?

*Mpc = Mégaparsec = 3,26 millions d’années-lumière

Il faut d’abord insister sur le fait que cette « constante » de Hubble ne l’est qu’à une époque donnée, ce qui fait qu’elle n’est plus vraiment que la valeur actuelle, H0, du « paramètre » H de Hubble.

S’il y a variation du paramètre H c’est qu’il y a eu accélération ou décélération de l’expansion. Qu’en est-il ? On sait déjà que (1) l’expansion n’a pas été constante au tout début de l’univers, bien avant la fin des 380.000 ans mentionnés plus haut, pendant la période dite d’« inflation » (entre 10-35 et 10-32 secondes suivant le Big-bang); (2) après l’inflation, l’expansion a ensuite décéléré comme il résulte de toute explosion non “ré-alimentée” en énergie; (3) puis, il y a 6 ou 7 milliards d’années, elle a recommencé à accélérer. Mais cela va-t-il continuer ?

Pour mieux comprendre la réalité actuelle et envisager une perspective, il faut ouvrir sur un autre niveau, deux autres « tiroirs », c’est-à-dire considérer d’une part l’effet de masse qui freine l’expansion, via le « paramètre de densité », que l’on symbolise par «  » (Oméga), et d’autre part le coefficient qui l’accélère, qu’on appelle « constante cosmologique » et qu’on symbolise par « Λ » (Lambda).

Le premier, , exprime la densité de toute l’énergie (ΩΛ) ou de toute la matière (Ωm) dans l’Univers. Le “m” exprime la totalité de la matière, y compris la fameuse « matière noire » (évaluée grâce aux observations du télescope Planck comme constituant 26,8% des composants de l’univers) qui s’ajoute au 4,7% de matière baryonique (la matière ordinaire) ! Le Λ représente l’énergie sombre (voir ci-dessous). Ωk qui prend en compte masse et énergie, nous donne la courbure de l’espace-temps. Si Ωk >1 la courbure de l’espace est sphérique (elle se referme sur elle-même), on va vers une contraction de l’univers, il est donc fini ; si Ωk <1, la courbure est hyperbolique et on va vers un univers infini. D’après les études actuelles il est très légèrement positif avec Ω =1,11 +/-0,13, ce qui n’est malgré tout pas très concluant puisque les 0,13 mettent la conséquence dans la marge d’erreur.

Le second, Λ, est le coefficient d’accélération. Il compense la force de contraction exprimée par Ωm et ouvre à l’Univers une perspective d’expansion accélérée (en fonction bien sûr de ce que lui permet Ωm). Imaginé par Albert Einstein pour équilibrer ses calculs, il l’avait tout de suite rejeté mais on le reprend aujourd’hui car avec nos moyens d’observations, il « fait sens ». Il est extrêmement faible mais non nul et positif (1,1056 x 10-52 m-2). Les tenants du “modèle-standard” de la cosmologie (ΛCDM, ces trois dernières lettres pour Cold Dark Matter) disent qu’il pourrait exprimer la toujours hypothétique « énergie sombre » (évaluée par Planck à 68,3% des composants de l’univers). En concomitance avec cette accélération, le paramètre de Hubble (H) tend relativement à décroitre. Cependant la conséquence du caractère de constante du coefficient Λ c’est qu’il existe une valeur minimale de H qui donc s’arrêtera un jour de décroître. La sphère de l’univers-observable sera alors égale à la sphère de l’univers-cosmologique (mais la quantité d’objets dans l’univers-observable continuera de décroître puisque petit à petit ils en sortiront du fait qu’ils seront à une distance telle que leur lumière ne pourra plus nous rejoindre).

Savoir si l’accélération continuera toujours reste un mystère tant que l’on ne connaît pas la nature de l’énergie-sombre (ce n’est toujours qu’une hypothèse) ou celle de la matière-noire (une seconde hypothèse) ! L’enjeu est de taille : savoir si la force de dispersion va bien dominer la force de contraction de l’Univers ! Dit autrement, si nous allons vers un Big-Rip ou un Big-Crunch ou si par extraordinaire se manifestera le moment venu, un système d’équilibrage de l’expansion. Mais peut-être, alternativement, le consensus des cosmologues (figé dans le modèle-standard) se trompe-t-il totalement et l’accélération de l’expansion n’est-elle due qu’à l’« invariance d’échelle du vide » comme le propose, en dehors du modèle-standard, André Maeder (astrophysicien, professeur émérite de l’Université de Genève). Selon son modèle, l’accélération de l’expansion de l’Univers serait possible sans que l’énergie sombre ou la matière noire soient nécessaires et avec une « constante-cosmologique » Λ liée uniquement aux propriétés d’invariance du vide spatial, via un facteur d’échelle « λ » de ce vide.

Il faut absolument résoudre le problème posé par la divergence sur la valeur de H0 selon que l’on part du CMB ou que l’on part de notre environnement. Les nouveaux télescopes (comme le JWST) évidemment de plus en plus précis et capables de nous donner une quantité jamais atteinte de données, vont, sinon résoudre le « gap », du moins nous permettre de préciser le problème qui cause ce gap. La solution se trouve soit dans l’imprécision du modèle-standard ou dans son inadéquation. Dans cette seconde hypothèse, André Maeder aurait raison. On ne parlerait plus des fantômes très gênants car insaisissables de la matière-noire et de l’énergie-sombre et ce serait un magnifique couronnement de la carrière de ce grand scientifique.

Illustration de titre :

Hypothèses de notre futur, accélération ou décélération ? Crédit : NASA/CXC/M.Weiss

https://www.symmetrymagazine.org/article/the-9-percent-difference

https://www.futura-sciences.com/sciences/definitions/physique-acceleration-expansion-univers-7988/

https://fr.wikipedia.org/wiki/Param%C3%A8tre_de_densit%C3%A9

https://fr.wikipedia.org/wiki/Courbure_spatiale

Présentation de la théorie d’André Maeder dans ce blog (Nov. 2019) : Une énergie sombre omniprésente domine-t-elle notre Univers?

Je souhaite à tous mes amis Suisses une joyeuse Fête nationale!

Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:

Index L’appel de Mars 22 07 16

Pierre Brisson

Pierre Brisson, président de la Mars Society Switzerland, membre du comité directeur de l'Association Planète Mars (France), économiste de formation (Uni.of Virginia), ancien banquier d'entreprises de profession, planétologue depuis toujours.

26 réponses à “Petite confusion sur notre lointain futur. Big Rip, Big Crunch ou entre-deux?

    1. Certes mais je pense qu’il est intéressant de savoir quel est le problème et de pouvoir considérer d’une part les perspectives possibles pour notre Univers et d’autre part les possibilités d’avoir une réponse grâce aux nouveaux telescopes.

      1. Mais c’est exactement pour cela que je le trouve très intéressant, car il détaille tout, et je le trouve parfait Pierre Brisson !

  1. Merci de nous informer avec obstination et rigueur sur ce sujet scientifique passionnant, mais tout de même complexe, et que vous essayez avec brio de rendre compréhensible. Cette recherche ambitieuse ayant pour objectif d’envoyer des humains sur Mars aura de toute façon aussi des retombées bénéfique pour notre vie future sur notre planète Terre. Je ne peux que vous encourager à continuer.

    1. Je suis totalement d’accord avec vous. Mars est un pont obligatoire pour les hommes, pour un demain hors du système solaire si un jour les avancées technologiques sont là… Nous quitterons notre berceau !

  2. Le blog de Pierre Brisson, quand il s’extirpe des aléas de la conquête de Mars pour mieux nous plonger dans le sort de l’univers, en nous faisant frissonner d’anxiété ou d’espérance, à très, très long terme, participe à l’enchantement de notre quotidien. Qu’il en soit chaleureusement remercié!
    Au nom de la sagesse populaire du “Tout ça pour ça”, j’exclus personnellement, évidemment sans aucune preuve, les options “Big rip” et “Common extrapolation”. La Nature, dans son infini génie, a même prévu que ses tâtonnements tous azimuts, aboutiraient à créer, ici ou là, un jour ou l’autre, une civilisation lui échappant, capable d’infléchir le cours des événements dans un sens déterminé, y compris en ce qui concerne la façon dont notre univers peut finir!…
    Mais mon commentaire n’est là.
    Ce qui me frappe, c’est l’inversion des tendances. Le Verrier a découvert Neptune par le calcul, l’application des théories de Kepler et de Newton, et les télescopes ont vérifié cette découverte. “M. Le Verrier vit le nouvel astre au bout de sa plume”.
    Aujourd’hui, à l’opposé, le JWST et ses partenaires nous révèlent des structures inconnues de l’Univers, sans l’intervention du calcul, faute d’appuis théoriques solides. A quand le James Clerk Maxwell de la cosmologie?

    1. Merci Monsieur Jacquot pour vos aimables paroles. Je suis heureux de pouvoir partager mes passions!!
      Sur le fond, je crois que pour progresser nous avons besoin (1) d’une base de connaissance avec une interrogation, (2) d’un outil ou d’une théorie et (3) de quelqu’un pour le/la mettre à profit.
      En d’autre termes, pour être plus clair : (1) une certaine confusion (comme ici), une interrogation qui n’a pas sa réponse mais qui ne pouvait se poser auparavant parce qu’on n’en avait pas conscience; (2) un grand esprit qui apporte un moyen pour résoudre le problème, le grand esprit pouvant être un théoricien ou un ingénieur; (3) le génial “inventeur” qui ose tirer les conséquences du nouvel outil dont on dispose pour résoudre l’aberration.
      Dans le cas de James Clerk Maxwell, la solution Einstein n’était possible que parce que lui-même l’avait précédé. Dans le cas de Galilée, il fallait que Hans Lippershey ait inventé la lunette.
      André Maeder est-il le grand esprit de notre temps qui nous permettra encore d’avancer?

  3. Tout d’abord, j’adresse un grand merci à M. Brisson pour ses bonnes pensées à mon égard durant la rédaction de son article. Je suis sûr que je ne suis de loin pas le seul de ses lecteurs à apprécier le sujet traité ce jour. Implicitement, cette « dédicace », qui m’honore, m’invite aussi à m’exprimer. Je me contenterai de reparler ici du paramètre de Hubble en mentionnant une réflexion que je me suis faite tout récemment.
    En effet, cette question du désaccord entre les différents résultats donnant la constante de Hubble, Ho, soit la valeur actuelle du paramètre de Hubble, est assez troublante. On sait que le paramètre de Hubble doit décroître lentement avec le temps, mais pas de façon sensible en seulement quelques décennies ! Il semble donc y avoir deux domaines de valeurs quasi incompatibles (« late Universe measurements » avec 72 à 75 km/s/Mpc, d’une part, et, d’autre part, « early Universe measurements » avec 65 à 68 km/s/Mpc) dont les marges d’erreur, même « à 5 sigmas » de largeur, ne se recoupent pas, ce qui est donc un désaccord statistiquement hautement significatif. S’il y avait recoupement, ou recouvrement, il y aurait place pour la possibilité d’une compatibilité entre toutes ces valeurs.
    Les mesures élevées sont basées sur la relation entre vitesse (vitesse radiale Vr « de fuite ») et éloignement (distance D depuis l’observateur). Et les vitesses elles-mêmes sont reliées au fameux « red shift » z, le décalage ou déplacement vers le rouge qui est le quotient de la différence des longueurs d’onde entre la valeur mesurée et celle de la source, divisée par la valeur de de cette longueur d’onde à la source. Une fois cette mesure spectroscopique faite de la longueur d’onde reçue et en ayant bien identifié les raies en question (dont les longueurs d’onde de source sont bien connues au laboratoire), le z trouvé permet de connaître le rapport Vr/c, entre la vitesse radiale (« de fuite ») et la vitesse de la lumière, et, par là, Vr, la vitesse recherchée. C’est là qu’interviennent quelques complications. Classiquement, on a tout simplement z = Vr/c, et H = Vr/D = z c/D ; ce sont les formules valables aux très faibles vitesses, la valeur-limite de z étant alors 1. Mais, découlant de la théorie de la relativité, il y a une formule complète qui seule permet de rendre compte de valeurs de z dépassant largement 1, jusqu’à celle, extrême, du fond diffus cosmologique avec presque 1’100 !
    Par la relativité, on sait aussi que le spectre émis par une source est non seulement décalé vers le rouge, l’infra rouge, voire les micro-ondes, si la source s’éloigne de nous à grande vitesse (ou que l’espace se dilate à grande vitesse), mais la gravité elle-même exercée par une source très massive cause aussi un décalage vers le rouge, dit gravitationnel, des rayons qu’elle émet. Un autre des effets relativistes inattendus, dont on n’est généralement pas conscient, est le fait extraordinaire que même au cas-limite où il n’y aurait pas de vitesse radiale, mais seulement une vitesse transversale, la formule relativiste donnant z prévoit aussi un décalage vers le rouge de l’objet observé qui pourtant ne s’éloignerait pas de nous, ce qui n’est pas prévu en approximation non relativiste. En général, il y a toujours deux composantes de vitesse, radiale et transversale, et donc le z obtenu résulte non seulement de la composante radiale (résultant à la fois d’un éventuel mouvement propre et de la vraie expansion de l’espace), mais aussi d’une éventuelle composante transversale à ne pas négliger, ainsi que d’un décalage gravitationnel, le tout se combinant. L’une des voies de solutions serait qu’il pourrait ainsi s’introduire un certain biais « exagérant » z qui ne serait pas dû seulement à la vitesse radiale d’expansion de l’espace, qui est la vraie vitesse Vr recherchée pour donner la constante de Hubble, elle-même étant toujours égale à la vitesse radiale (ici Vr = c z, mais seulement en première approximation) divisée par la distance, soit H = Vr/D = c z/D. Peut-être un lecteur attentif et plus informé pourra-t-il argumenter.

    1. Merci à vous, Monsieur de Reyff, pour ce beau commentaire qui ouvre une autre fenêtre d’interrogation et peut-être une piste d’explication menant à plus de précision.
      Vous avez raison, nous ne devrions sans doute pas ignorer l’effet de la gravité sur la lumière générée par les plus grosses masses de notre Univers pour estimer le redshift exprimant la vitesse d’éloignement. Comment prendre en compte ces distorsions? Quelqu’un pourra-t-il répondre?
      Ceci dit, il ne s’agit probablement que d’un ajustement qui ne peut remettre en cause l’ordre de grandeur des distances, des vitesses d’éloignement et l’existence bien réelle des divers horizons évoqués.

    2. Merci pour ces informations. Non expert de cosmologie moi-même, j’ignorais l’effet relativiste de la vitesse transversale sur la signature électromagnétique. A ce sujet :

      1. Est-il légitime de supposer en première approximation cette vitesse transversale, ou sa moyenne, comme répartie à peu près uniformément ou en tout cas indépendante de la distance des objets alors que la vitesse radiale est en proportion de celle-ci ? Si ce l’est, pourrait-on imaginer un filtre statistique qui permette d’en discerner les effets respectifs ?

      2. Cette vitesse transversale étant, sauf erreur, principalement le résultat de l’attraction des objets les unes sur les autres, ses effets relativistes ne devraient-ils pas être majoritairement négligeables au regard de ceux de la vitesse radiale pour les objets les plus éloignés, ?

      Concernant le paramètre de Hubble, vous écrivez qu’il « doit décroitre lentement avec le temps ». Mais j’avais compris, peut-être à tort, que son évolution dépendrait pas de la valeur d’Ωk, laquelle n’est aujourd’hui pas connue de façon concluante. D’où vient cette prévision ?

      Merci d’avance pour votre éclairage.

  4. Au delà du discours passionné et passionnant reste la réalité de notre existence perdue dans cette immensité de l’univers qui nous a laissé seuls sans voisins avec lesquels on aurait peut-être appris à vivre sans cette violence qui caractérise notre civilisation dite avancée où la connaissance est d’abord utilisée pour notre propre auto destruction ! paradoxe de cette intelligence capable du bon et surtout du pire !
    Il faut se rendre compte que les forces de la nature vont détruire tout ce que nous avons bâti , jusqu’à la destruction de la planète entière , avant peut-être la possibilité d’en changer ou de se trouver une alternative , d’autant que nos préoccupations immédiates ne cadrent pas avec les conditions qui nous entourent , l’esprit humain restant attaché à des croyances historiques depuis longtemps obsolètes …
    L’expansion de l’univers va aussi faire reculer l’espoir de rencontre puisqu’à chaque pas que nous franchirons s’ajoutera la distance du décalage vers le rouge , alors que nous n’avons pas encore atteint les limites du système Solaire , unité infinitésimale de la galaxie , étant toujours occupés à essayer de grappiller le territoire du voisin terrestre … pauvres de nous …

    1. Il reste tant de chose à découvrir dans notre galaxie et nos proches voisines…Qui elles ne seront pas dans le rouge ! 😉

    2. Cher Monsieur Giot,
      Certes notre civilisation n’est pas parfaite mais c’est la seule que nous ayons. Il faut donc continuer à “faire avec” en espérant que la balance sera positive, in fine.
      Heureusement, comme le fait remarquer Jean-Philippe Verselin, l’expansion de l’Univers n’a que très peu d’impact à notre échelle spatiale et temporelle. De ce côté, nous avons le temps!
      Je suis plus inquiet quant à la fermeture de la fenêtre d’opportunités qui nous permet d’envisager d’aller essaimer en dehors de la Terre. Beaucoup d’ecologistes y sont farouchement opposés et une majorité de nos contemporains semble ne pas s’y intéresser.
      Ceci dit, selon les termes du grand Guillaume le Taciturne, il n’est pas nécessaire d’espérer pour entreprendre ni de réussir pour persévérer!

      1. Merci Monsieur Brison pour cette synthèse très claire d’un sujet qui évolue rapidement et passablement compliqué, en tout pour le profane que je suis. J’ai deux questions.

        Vous citez deux valeurs relativement précises d’événements futurs : la date de perte d’horizon de Hubble (14,45 milliards d’années), et le diamètre maximal attendu de cet horizon (17,41 milliards al). Vous présentez par ailleurs les difficultés d’appréhender la valeur du paramètre de Hubble, tant actuelle que future. Les 2 premières valeurs ne dépendent-elles pas de la 3ème ? Ou faut-il les lire pour une certaine hypothèse de H (p.ex. son maintien à l’une des estimations actuelles) ?

        Je m’interroge par ailleurs sur le sens du mot « fini » quand il est expliqué qu’une courbure sphérique de l’univers implique qu’il est fini, et hyperbolique qu’on va vers un univers infini. J’avais jusqu’ici compris que, selon la majorité des théories actuelles, l’univers était, dans tous les cas, fini (au sens où, à un instant donné, il a un certain « volume » théoriquement quantifiable, même si bien sûr évolutif dans le temps). Faut-il alors comprendre « fini » au sens « qui ne dépassera jamais un certaine volume maximal », et « infini » comme son contraire, c.à.d. susceptible de croître indéfiniment avec le temps tout on conservant, à tout instant donné, son caractère fini ?

        Plus globalement, l’enseignement principal que je tire de cette synthèse est que nous ne comprenons toujours pas ce qui a engendré, il y a 6-7 milliards d’années, le passage d’une décélération à une accélération de l’expansion de l’univers (en d’autres termes, une inversion d’Ωk). Ou suis-je passé à côté d’une explication à ce sujet ?

        1. Sujet bien difficile effectivement ! Je vais tenter quelques réponses.
          Les cosmologues nous disent que L’Univers est fini mais qu’il est illimité, c’est-à-dire sans bord, ce qui est compatible avec les géométries non euclidiennes. Jean-Pierre Luminet, l’un des plus remarquables d’entre eux, privilégie l’espace « sphérique dodécaédrique de Poincaré », figure compliquée qui introduit marginalement la possibilité de mirage topologique (on peut voir les mêmes astres lointains à des âges différents). Cela implique bien sûr que l’Univers se déploie dans le temps et selon des lois qui s’exercent à l’intérieur de contraintes (pour ne pas dire de structures), comme la gravité. Dans ce contexte on peut parler de densité du milieu, en énergie et en masse, à une époque quelconque mais pas de volume puisqu’il n’y a pas de vide en dehors de l’Univers.
          L’Horizon des photons (horizon de Hubble), est la limite à partir de laquelle, dans un univers en expansion, la vitesse d’éloignement des sources les plus lointaines d’ondes électromagnétiques, atteint la vitesse de déplacement de ces ondes (vitesse de la lumière). Actuellement cet horizon est à 14,45 milliards d’années et donc plus éloigné que l’horizon cosmologique qui se trouve à 13,8 milliards d’années. C’est pour cela que nous pouvons observer la surface de dernière diffusion (lumière étirée en micro-ondes) et que nous pourrions théoriquement aller plus loin vers le Big-Bang grâce aux neutrinos et encore plus loin grâce aux ondes gravitationnelles.
          Vous avez raison d’évoquer le lien entre les distances de ces horizons et la constante cosmologique (H0). En effet plus la valeur de ce paramètre H0 diminue, plus le rayon cosmologique s’accroit et il s’accroit plus vite que ce que permet la vitesse finie de la lumière qui détermine l’horizon de Hubble. Donc, les distances actuelles de ces horizons peuvent bien varier en fonction des données d’observation. Dans le cas présent les données utilisées sont celles de Planck (Monsieur de Reyff pourra confirmer…ou infirmer !).
          Dans tous les cas, lorsque l’horizon des photons aura été dépassé par l’horizon cosmologique, nous ne pourrons plus voir ce dernier et petit à petit l’Univers observable se videra de sa lumière. La densité de la matière Ωm continuera à tendre asymptotiquement vers zéro et la densité de l’énergie ΩΛ à tendre asymptotiquement vers +1. Ceci dans le modèle standard (ΛCDM).
          Pour ce qui est du passage de la décélération à l’accélération, je ne pense pas que l’on sache ce qui s’est passé. C’est pour cela que l’on attribue le changement à une “énergie sombre” dont on ne sait rien sauf cet effet. Il y a un rapport entre la gravité et l’énergie de l’expansion (fonction de la densité de la matière?) qui nous échappe.

          1. Merci pour ces éléments.
            Effectivement, une recherche rapide sur internet m’a entretemps aussi amené à penser que les valeurs proposées pour l’horizon de Hubble découlent des mesures du satellite Planck, mais je laisse à d’autres commenter.
            La différence mathématique entre espace fini et limité (ou infini et illimité) est bien claire pour moi.
            A ce stade, c’est définitivement le passage de décélération à accélération de l’expansion qui me paraît le point le plus intriguant de tous ceux présentés. Le recours à l’énergie sombre ne suffit pas l’expliquer (pourquoi les effets de cette énergie ne se manifestaient-ils pas auparavant ?), en tout à ma connaissance limitée sur le sujet.
            Par ailleurs, veuillez m’excuser d’avoir involontairement écorché votre nom dans mon précédent message.

          2. Merci aussi Monsieur Baland de votre réponse qui fait avancer la réflexion.
            Je suis d’accord avec vous, il est difficile de comprendre pourquoi l’accélération de l’expansion ne se manifeste pas dès le début de l’expansion.
            André Maeder donne peut-être la solution de manière plus élégante qu’en introduisant la toujours mystérieuse énergie sombre. Selon son modèle, l’accélération de l’expansion serait possible seulement avec une « constante cosmologique » Λ (qui figure bien dans les équations d’Einstein) liée uniquement aux propriétés d’invariance du vide spatial, via un facteur d’échelle « λ » de ce vide .
            Comme vous pouvez le lire dans cette communication de l’UniGe, cette hypothèse fait apparaître logiquement, on pourrait dire « naturellement » (c’est le terme employé par André Maeder), un terme très petit et variable d’accélération et ce « terme » est particulièrement significatif aux faibles densités (auxquelles l’Univers est parvenu il y a quelques sept milliards d’années). Autrement dit le vide est toujours le vide mais en deçà d’une certaine densité de matière résultant de l’expansion, la force d’expansion est beaucoup moins contrainte. La libération de l’énergie ne se fait qu’à une certaine échelle de vide (ou de densité).
            lien:
            https://www.unige.ch/communication/communiques/2017/cdp211117

  5. Cher Monsieur Baland,
    Vous posez là une série de questions très pertinentes !

    Vous avez raison sur l’effet relativiste négligeable en première approximation des vitesses transversales. Tout objet céleste se meut et a donc une vitesse radiale et une vitesse transversale, par rapport à nous, ce sont les composantes d’une vitesse propre apparente, elle-même résultant d’une composition entre notre vitesse propre et la vitesse propre de l’objet. L’expansion de l’Univers, donc la dilatation de l’espace, se mesure uniquement avec z que l’on relie à une vitesse de dilatation radiale de l’espace qui se compose avec les autres. Tous les cas de figure sont possibles avec des mouvements propres connus de plusieurs centaines de km/s. Prenons comme exemple la galaxie M87 située à 53 millions d’années-lumière d’ici (ou 5 10^20 km). Le z mesuré spectroscopiquement est de 0,00428. Sa vitesse radiale Vr = z c est donc de 1’284 km/s, alors que sa vitesse transversale est mesurée à 13,4 microsecondes d’arc par an, ce qui correspond à 1’030 km/s, soit presque 1/300 de c. Mais, je vous l’accorde entièrement, l’effet relativiste de cette dernière dans la valeur de z est seulement de 6 millionièmes. Il resterait encore à déterminer le décalage vers le rouge gravitationnel, ou décalage d’Einstein, dû à la masse importante de toute la galaxie.

    La décroissance de H avec le temps est liée à la croissance avec le temps non pas du paramètre de densité Ω(k), mais du paramètre de densité Ω(Λ) qui actuellement est de presque 0,7 et qui tend lentement et asymptotiquement vers 1. L’autre composante majoritaire est Ω(m) qui représente presque 30%, c’est la part de matières (baryonique et sombre) dans la somme, Ω, qui vaut presque 1, comme on l’a vu. La formule liant le paramètre de Hubble, la constante cosmologique et ce paramètre de densité Ω(Λ) est Λ = 3 Ho² Ω(Λ) / c². L’expérience PLANCK a donné la valeur de Λ (soit 1,12 10^-52 m^-2), en extrapolant pour le futur ou Ω = Ω(Λ) = 1, on obtient la valeur-limite finale de H = racine(Λ c² / 3) = 1,83 10-18 s^-1 = 56,52 km/s/Mpc ; cette valeur est indépendante de la valeur actuelle Ho, mais elle dépend uniquement de la valeur de la constante cosmologique. Cette valeur « finale » du paramètre de Hubble correspond donc à un futur horizon « final » donné simplement par : racine(3/Λ) = 17,3 milliards d’années-lumière.

    Concernant le changement de régime de la décélération à l’accélération de l’expansion, la réponse est simple. Il ne faut pas oublier que la décélération primitive (qui a suivi la brève inflation initiale) est due à la gravitation entre toutes les masses de la matière (baryonique et sombre). La composante Ω(m) l’a emporté très vite après l’ère radiative dominée par Ω(γ). Du fait de l’expansion(décélérée), par dilution, la part de la matière Ω(m) dans Ω total a diminué, et dès que Ω(Λ), qui était toujours présent, mais minoritaire, a dépassé 60%, ce paramètre de densité a commencé à l’emporter sur l’autre et donc à faire accélérer, inéluctablement désormais, l’expansion. Il y a eu une courte phase quasi plate, que Georges Lemaître a baptisé joliment l’Univers indécis.

    Je dois corriger un de vos énoncés : même si l’Univers est fini (en masse, en nombre de particules, en nombre de photons, donc aussi en volume…), il reste illimité, il n’a pas de limite, de frontière, de bornes, ou de bords, comme l’est, analogiquement, la surface de la Terre, finie mais illimitée, comme surface à 2 dimensions entourant une sphère ou un tore, par exemple. Cette question de caractère illimité étant acquise, par contre, la finitude de l’Univers, ou son infinitude, feront toujours débat, car aucune expérience ne peut et ne pourra rendre compte de l’infini éventuel (question philosophique : l’infini « en acte » peut-il exister ?), et, de plus, du fait des divers horizons mentionnés, notre connaissance des contenus par ces horizons, sera, elle, bien limitée par eux.

    1. Merci pour les explications.
      La distinction entre fini et limité était claire dans mon esprit. A lire votre dernier paragraphe, je semble néanmoins m’être trop avancé en écrivant que l’univers était, à tout instant donné, sans doute “fini” puisque résultant d’une expansion dont l’histoire peut être théoriquement reconstituée (et l’est partiellement).

      1. Je vous rejoins bien.
        Pour Georges Lemaître, l’espace est homogène, fini et sans borne et il l’appelle un espace elliptique de Cayley-Klein. Dans son petit livre “L’Hypothèse de l’atome primitif — Essai de cosmologie”, Ed. du Griffon, Neuchâtel, 1946 (!), Lemaître propose une vérification expérimentale possible qui serait de détecter, un jour, le MÊME objet galactique très lointain dans deux directions opposées. Mais il n’avait pas pensé à l’horizon imposé par le paramètre de Hubble qui nous limitera inéluctablement à ces 17,3 milliards d’années-lumière, cela même si, actuellement, il entre continuellement dans notre horizon cosmologique des objets nouveaux observables, du fait du temps qui passe et qui éloigne cet horizon de plus en plus au-delà des 13,8 milliards d’années-lumière. Reste aussi la question de savoir comment étiqueter un objet pour savoir le reconnaître à deux emplacements du ciel

  6. André Maeder : son article de novembre 2017 est effectivement disponible sur internet https://iopscience.iop.org/article/10.3847/1538-4357/aa92cc. Il dépasse largement mon domaine de compétence, et je ne suis donc pas à même de porter un jugement.
    Il est certain qu’une théorie permettant de se passer et de la matière noire et de l’énergie sombre est séduisante.
    Mais je comprends qu’elle s’élabore au prix d’une modification de la théorie de la relativité générale, ce qui, j’imagine, doit heurter une grande partie de la communauté scientifique.
    L’article date d’autre part d’il y a près de 5 ans, sans que je puisse en trouver de mise à jour (ou de prolongation par un autre auteur) plus récente. Cela ne manquera sans doute pas non plus d’être critiqué. Mais encore une fois, je ne porte pas de jugement.
    La mise en service du James-Webb est susceptible d’apporter des éléments en rapport : si la théorie est toujours actuelle, je suppose son auteur aujourd’hui très actif à en examiner tous les résultats.

    1. Il me semble que la théorie d’André Maeder n’est pas incompatible avec la théorie de la relativité générale d’Albert Einstein. Elle l’est “seulement” avec le “modèle standard” (ΛCDM) qui en dérive depuis le début des années 2000 mais qui, lui, modifie la théorie d’Einstein en y incorporant la matière noire et l’énergie sombre.

  7. Je reconnais que je m’éloigne du sujet de cette page mais certains, aux US, ont des idées passionnantes sur les thèmes qui nous ont occupés il y a quelque temps: habiter la lune et Mars: les tunnels volcaniques. Ils préserveraient des rayons cosmiques et garderaient une température de 17 degrés alors que dehors sur la lune il peut faire 127 °C le jour ou -173 °C la nuit

    https://www.futura-sciences.com/sciences/actualites/colonisation-lune-meilleur-endroit-lune-batir-cites-souterraines-65666/

Les commentaires sont clos.