Retour sur la Terre…et vers Mars

Après les incursions des semaines précédentes dans les immensités astronomiques extérieures à notre propre système stellaire, retournons dans notre environnement proche, celui de notre soleil nourricier. Nous voyons bien le confort qu’il nous offre (étoile de taille moyenne et de vie longue, née après les turbulences des origines et située dans l’anneau habitable de notre galaxie) et les événements extraordinaires qui ont permis dans sa zone habitable l’émergence de la vie : (1) rebroussement de Jupiter; (2) hydratation des planètes du système intérieur par la projection par Saturne repoussée par Jupiter, d’Uranus et de Neptune dans le réservoir de glace de la Ceinture de Kuiper; (3) stabilisation de notre planète et génération de marées importantes par une Lune relativement énorme; (4) déclenchement et maintien d’une dynamo interne génératrice d’une magnétosphère protectrice; (5) hydratation du manteau suffisante pour que sa ductilité permette l’amorce puis la perpétuation d’une tectonique des plaques favorisant la complexification des roches, l’entretien d’un volcanisme régénérateur continu de l’atmosphère et un bouillonnement chaud et nourricier au niveau des dorsales océaniques.

Nous habitons une planète extraordinaire dans un système stellaire improbable et sur cette planète une histoire également improbable a permis à une certaine époque, dans des conditions de températures et de pH particulières, compte tenu d’une longue évolution géologique et prébiotique préalable, qui ont aujourd’hui disparu, l’émergence d’un phénomène matériel autoreproductible tout à fait particulier que l’on appelle la Vie. Il a fallu ensuite toute une série d’évènements accidentels pour que cette vie évoluant selon des lois lui permettant l’adaptation à son environnement changeant, conduisent à l’apparition d’êtres conscients du monde et d’eux-mêmes, capables d’agir physiquement sur ce monde, de se déplacer pour s’organiser et entreprendre ensemble, de communiquer et de transmettre, que l’on appelle les hommes.

En sommes-nous bien conscients ? Nous rendons nous bien compte de la chance que nous avons, de la merveille que représentent notre corps et notre esprit issus de cette évolution erratique et imprévisible ? A regarder les trésors créés par nos civilisations depuis le début de l’histoire humaine on peut en tirer une réponse plutôt positive mais à regarder les horreurs également produites périodiquement par nos disputes et nos passions, en particulier pour des systèmes d’explications du monde irrationnels et insensés, on peut en douter. En fait depuis toujours le bien et le mal s’équilibrent à peu près. Et aujourd’hui les menaces de destructions totales sont de plus en plus grandes compte tenu du développement de nos technologies au service du mal comme du bien et compte tenu aussi du simple développement de la vie. Comment en effet anticiper sereinement qu’une dizaine de milliards d’hommes habitent un jour ce monde déjà intensément exploité sinon pillé ? On voit déjà les effets de cette surpopulation et de cette suractivité sur la pollution des eaux et de l’atmosphère, et sur le climat. Dans quel état sera l’Afrique lorsqu’elle sera peuplée de deux milliards d’êtres humains ? Que sera devenue la grande forêt tropicale ? Et les girafes ? Faudra-t-il que tout aille encore beaucoup plus mal avant que nous devenions raisonnables ? Trop tard ?

Notre responsabilité à nous les hommes qui vivons aujourd’hui, est de ne pas baisser les bras. Il faut défendre nos acquis, il faut lutter contre le mal, il faut refuser les tendances et les pressions des porteurs des ignorances et des superstitions qui veulent les faire triompher au prix de la mort des autres, ou de ceux qui tout simplement se moquent de tout et qui pensent et disent « après nous le déluge ». Ce monde est autant le nôtre que le leur et nous ne devons pas les laisser le détruire ni les laisser embrumer les esprits qui s’éveillent. Il faut éduquer sans relâche, sans respect humain inutile et injustifié, faire progresser nos capacités technologiques pour vivre mieux en consommant moins les ressources rares dont nous disposons, et contrôler l’explosion démographique.

Maintenant il est possible que, malgré nos efforts, la brutalité et la bêtise soient victorieuses, définitivement ou temporairement mais pour plusieurs siècles. Nous avons l’expérience des âges sombres. Les Romains déjà nous ont montré à la fin du IVème siècle, que la tolérance ou la faiblesse, le doute dans ses propres valeurs, pouvaient conduire à la « compréhension », puis à la compromission, à la soumission, au renoncement et à l’abandon. Soyons intransigeants, « ne nous laissons pas faire », gardons la maîtrise de notre destin. Maintenant, si un jour tout s’avère perdu, et que nous nous retrouvions dans le contexte dans lequel se déroule le très beau film Interstellar de Christopher Nolan (2014) où l’on voit si bien la Terre finalement épuisée par l’homme, nous serions heureux de disposer d’une sortie, un espoir, une possibilité de survie, une arche de Noé pour certains d’entre nous. Cette possibilité, c’est Mars puisque malgré toute la dureté de son environnement et les défis technologiques qu’elle pose, cette planète est quand même la seule « Terre » de rechange qui s’offre à nous aujourd’hui.

Mars se trouve à portée de nos lanceurs et son aménagement à la portée de notre technologie. Il faudra longtemps avant qu’une éventuelle implantation humaine y devienne autonome mais il n’y a aucune autre alternative aujourd’hui disponible pour tenter cette bouture qui pourrait sauver les merveilles qu’a créées notre esprit. Alors, pourquoi ne décidons nous pas d’entreprendre une première implantation qui pourrait prospérer ? Il y a urgence ; nous le devons à nos « frères humains qui après nous vivront » (selon la belle expression de François Villon).

Image à la Une : photo extraite du film Interstellar de Christopher Nolan. L’actrice Jessica Chastain face à la catastrophe climatique.

Image ci-dessous : Mars, Crater Gale, sol 631, 16 Mai 2014, vue vers le rempart extérieur du cratère. Crédit image : NASA/JPL-CalTech/MSSS

Combien ça coûte ?

En voyant fleurir les projets de télescopes de nouvelle génération, beaucoup plus puissants que les précédents, l’on peut à juste titre se demander « combien ça coute ». La réponse est « pas aussi cher que ce que vous pouvez penser ».

Le premier des quatre VLT de l’ ESO* du Cerro Paranal (désert de l’Atacama), a couté 345 million de dollars (en 1998 i.e. 500 M d’aujourd’hui). L’E-ELT (ESO) du Cerro Amazones (Atacama), dont la construction a débuté en 2014 et dont la première lumière est attendue en 2024 devrait coûter 1,08 milliards d’euros (en 2012 i.e. 1,13 aujourd’hui). Le radiotélescope ALMA (NRAO, Etats-Unis ; ESO ; NRCC, Canada ; NAOJ, Japon ; ASIAA, Taiwan ; République du Chili) dont le réseau de 66 antennes de 12 et 7 mètres de diamètre se déploie actuellement sur le plateau de Chajnantor (Atacama), doit couter 1,4 milliards de dollars ; c’est le plus cher des systèmes d’observation à la surface de la Terre. Dans l’espace, le JWST (NASA + ESA*) qui doit remplacer Hubble devait coûter 1,6 milliards et coûtera finalement 8,8 milliards ; c’est le plus cher des systèmes d’observations opérant dans l’espace.

*NB : La Suisse est membre de l’ESO (European Southern Observatory) comme de l’ESA (European Space Agency).

On peut comparer ces coûts à ceux de la mission d’exploration robotique MSL (« Curiosity ») chiffrés à 2,5 milliards de dollars ou à ceux d’une mission habitée sur Mars, probablement une cinquantaine de milliards de dollars (à dépenser sur une douzaine d’années), ou au budget 2016 de la NASA, 19 milliards de dollars (0,5% des dépenses publiques de l’Etat fédéral américain), et à celui de l’ESA, 5 milliards d’euros. On peut aussi les rapprocher du prix du plus gros porteur d’Airbus, l’A380, qui est proposé, « sur catalogue », à 428 millions (l’équivalent d’un VLT).

Les dépassements successifs du budget du JWST ont fortement déplu aux décideurs politiques et trouver des financements pour les autres télescopes n’a jamais été chose facile. Mais au-delà du montant total, il faut bien voir que la réalisation (donc la dépense) s’étale sur une longue période, souvent une dizaine d’années (conception du télescope, préparation du terrain, conception et réalisation des instruments, construction – 4 ans pour l’E-ELT -).

Ensuite, pour tous ces actifs, l’amortissement se fait sur une durée longue. Il est difficile de prévoir l’obsolescence mais le temps d’utilisation des grands télescopes des années 1990 est encore l’objet d’une forte demande. Les constructeurs de l’E-ELT visent une durée de vie de trente ans minimum. Le JWST et les autres télescopes spatiaux ont une durée de vie plus courte car on doit les alimenter avant leur lancement avec l’énergie nécessaire à leur fonctionnement et, pour certaines longueurs d’ondes, un liquide de refroidissement, mais leur durée de vie est quand même assez longue. Ainsi le JWST emportera la quantité d’énergie et de liquide de refroidissement nécessaires pour fonctionner pendant 10 ans.

Il faut donc voir ces grands télescopes comme des investissements qui certes coûtent cher mais qui représentent des montants acceptables dans notre système économique, d’autant qu’ils génèrent des revenus et offrent des retombées non directement chiffrables mais importantes. En effet, les propriétaires louent le temps d’utilisation très cher (en fonction de la demande qu’en expriment les universités, laboratoires ou centres de recherche). Les prix demandés peuvent couvrir une bonne partie des frais de fonctionnement et l’amortissement des équipements. La recherche nécessaire pour obtenir une optique satisfaisante, ou pour obtenir une informatique performante pour faire fonctionner les instruments peuvent aussi avoir des retombées dans d’autres domaines. Enfin les pays hébergeurs, comme le Chili ou Hawaï reçoivent du fait de ces installations, des paiements effectués pour la construction (infrastructure, transport) et pour l’hébergement des ingénieurs et des scientifiques. Ils peuvent aussi en profiter pour dynamiser leur propre activité scientifique y compris dans l’enseignement universitaire et créer pour leur propre population scientifique une intégration dans les cercles de recherche mondiaux les plus prestigieux et les plus productifs. Des régions totalement inhospitalières deviennent aussi des centres de ressources économiques, sans compter l’image de modernité qui peut aussi être exploitée pour d’éventuelle retombées touristiques.

Ces considérations économiques pourront peut-être adoucir les critiques de ceux qui pensent que toutes dépenses autres que celles ayant un objectif médical ou social, constituent un divertissement inacceptable. Il ne faut évidemment pas se faire d’illusions, l’humanité comprendra toujours une partie de sceptiques, de blasés, d’aveugles volontaires et de sectaires hostiles par principe. Le plus important étant que suffisamment d’hommes sur Terre soient convaincus du bien-fondé de cette recherche pour qu’elle continue. Pour cela il faut en parler.

Image à la Une : télescope JWST (image crédit NASA). Sous le télescope proprement dit avec son miroir segmenté de béryllium, on voit les feuilles du grand radiateur permettant de dissiper l’énergie thermique. La plateforme du télescope est située en dessous du radiateur (du côté éclairé).

L’Interférométrie, exhausteur des ondes électromagnétiques

La taille des télescopes est limitée par toutes sortes de contraintes alors que nous avons besoin de réceptacles d’ondes de plus en plus grands pour voir de plus en plus loin. L’interférométrie donne une réponse à ce problème en permettant de créer un réceptacle virtuel dont la taille est égale à la distance entre ses éléments constituants les plus éloignés.

Pour expliquer l’interférométrie (théorisée par Hippolyte Fizeau en 1850 puis Antoine Labeyrie en 1970), on pourrait dire que les ondes reçues en même temps par un miroir donnent l’image de l’objet qui les émet même si une partie du miroir est cachée. En fait la résolution sera la même que si le miroir a la dimension de la distance entre ses éléments extrêmes, la différence étant que la quantité de lumière étant moins grande, l’image sera moins nette. On peut étendre le raisonnement à deux ou plusieurs miroirs (ou antennes) regardant la même source lumineuse (ou ondes électromagnétiques en général) comme si ces différents miroirs ou antennes étaient des points d’un plus grand réceptacle. La difficulté posée par ce système de collecte qu’on pourrait dire « segmenté » ou ponctuel est de coordonner la réception des ondes (lumineuses ou autres) pour qu’elles soient « vues » en même temps (ou comme dise les astronomes, pour annuler leur « différence de marche »). C’est justement ce que permet l’informatique et c’est ce qui a permis de construire depuis peu des télescopes travaillant en interférométrie puis des réseaux de télescopes interférométriques (ce qu’Antoine Labeyrie nomme des « hypertélescopes »), de plus en plus grands, dans les domaines optique aussi bien que millimétriques et radio. Les réalisations les plus remarquables (et les plus récentes) sont le VLTI et l’ALMA.

En optique le « VLTI » (« Very Large Telescope Interferometer ») de l’ESO, est composé des quatre miroirs de VLT de 8,20 mètres et de leurs quatre “petits” télescopes mobiles auxiliaires de 1,8 mètres, situés au sommet du Cerro Paranal, à 2635 mètres d’altitude dans les Andes du Nord du Chili. Combiner leurs lumières lui permet d’obtenir la résolution qu’aurait un télescope de 140 à 200 mètres de diamètre (selon la position des petits télescopes auxiliaires). L’hypertélescope fonctionne avec une optique dont le réglage est extrêmement délicat, la lumière de chaque télescope passant dans des « lignes à retard » pour compenser la différence de chemin que les ondes lumineuses parties en même temps de la même source, doivent parcourir pour atteindre chacun des télescopes. La précision est de l’ordre du milliardième de mètre.

En ondes radio, « ALMA » (« Atacama Large Millimeter/submillimeter Array ») est composé de 66 antennes de haute précision situées sur le plateau de Chajnantor, à 5000 mètres d’altitude, également dans le Nord du Chili. Il est le fruit d’une collaboration mondiale (ESO, NSF –Etats-Unis, NINS – Japon, NRC – Canada, NSC et ASIAA –Taïwan, KASI -Corée). C’est le plus grand projet astronomique en cours de réalisation. Les ondes radio présentent une difficulté particulière par rapport aux ondes visibles, c’est que plus la longueur d’onde est grande moins la résolution est bonne et plus grande doit être l’antenne (une antenne ALMA de 12 mètres aura une résolution de 20 secondes d’arc tandis qu’un miroir de VLT de 8,2 mètres – ondes visibles – aura une résolution de 50 millisecondes d’arc). C’est sans doute pour cela que l’interférométrie s’est vite imposée pour l’étude de cette partie du spectre des ondes électromagnétiques. Dans le cas d’ALMA les distances extrêmes entre les antennes, pourront varier entre 150 mètres et 16 km. Au mieux, on pourra donc jouir de l’équivalent d’une antenne de 16 km (mais dans cette configuration, il y aura une densité d’antennes très faible et donc même si la résolution sera excellente, l’intensité des images sera faible).

l’« EHT » (« Event Horizon Telescope ») auquel travaillent Shepherd Doeleman et son équipe, veut pousser encore plus loin la logique du système, en utilisant plusieurs dispositifs interférométriques ensemble sur la même longueur d’onde (1,3 mm): le South Pole Telescope, ALMA, le Large Millimeter Telescope (Mexique), le Submillimeter Telescope du Mont Graham (Arizona), le James Clerk Maxwell Telescope, le Submillimeter Array (les deux à Hawaï) et l’antenne de 30 mètres de la Sierra Nevada (Espagne), le cœur du système étant constitué par ALMA. Plus les antennes seront nombreuses plus les images gagneront en netteté. Les données seront enregistrées sur chaque site puis recombinées par un supercalculateur, donnant des images que pourraient recueillir un radiotélescope de 11.000 km de diamètre (résolution d’une vingtaine de microsecondes d’arc (µas)).

Le but est de voir (indirectement par les effets qu’il cause) le trou noir de notre galaxie, Sagitarius A* (« SgrA* ») autour duquel elle tourne et qui est situé à 27.000 années-lumière. Le rayonnement de 1,3 mm permet de presque percer le rayonnement radio de SgrA* qui devient transparent à lui-même à partir de 1 mm (on espère ensuite passer de 1,3 à 0,8 mm).

On voit bien avec l’interférométrie les progrès énormes que va pouvoir faire l’astronomie. Au-delà de l’EHT, la perspective est évidemment de placer des flottes de télescopes ou d’antennes en orbite autour du Soleil. Cela viendra !

Image à la Une : le sommet du Mont Paranal avec son VLTI (crédit : ESO).

Image ci-dessous : Quelques unes des antennes d’ALMA (crédit ESO).

Les télescopes spatiaux pour observer tout ce que nous ne pouvons voir à partir de la Terre

La Terre est sélectivement protégée des rayonnements électromagnétiques spatiaux par le champs magnétique terrestre (ce qui génère les Ceintures de Van Allen) et par son atmosphère. Cette protection a permis à la vie d’éclore et de prospérer à sa surface mais elle gêne aussi l’arrivée jusqu’à nous d’une bonne partie des informations sur l’univers portées par ces rayonnements. La possibilité qui nous est offerte aujourd’hui de pouvoir aller dans l’espace, nous affranchit de cette limitation et des pollutions induites par l’activité de l’homme…et nous en profitons.

Tout rayonnement est porteur d’informations sur son émetteur que ce soit les rayons gammas, de longueurs d’onde extrêmement courtes, à un bout du spectre, aux ondes radioélectriques très longues, à l’autre bout, et à la lumière visibles, entre les deux. Certains de ces rayonnements sont piégés par le champ magnétique de la Terre dans ce qu’on appelle les Ceintures de Van Allen. Les molécules de l’atmosphère terrestre en bloquent d’autres et finalement nous ne recevons au sol qu’un peu d’ultraviolet (A et B mais pas de C), le rayonnement visible, une grande partie des infrarouges et une partie du rayonnement radio le moins long (voir « image à la Une »). Par ailleurs l’atmosphère, par sa matière même aussi bien que ses mouvements internes, introduit des perturbations (turbulences) dans le cheminement des photons reçues. Ces perturbations ont empêché les progrès dans la capacité de résolution des télescopes optiques, jusqu’à l’invention et la mise en pratique de l’optique adaptative (le prototype “COME-ON”, réalisé sous l’impulsion de l’astrophysicien français Pierre Léna, date de la fin des années 1980 mais la technologie n’à vraiment été utilisée qu’à partir de la fin des années 1990).

Les astronomes qui rêvaient des télescopes spatiaux dès 1946 avec Lyman Spitzer (Yale), ont donc réagi avec enthousiasme à l’avènement de l’ère spatiale. Depuis les années 1970 une cinquantaine de télescopes ont été lancés. Ils couvrent quasiment la totalité du spectre électromagnétique, ils sont de plus en plus puissants et de plus en plus sophistiqués en raison notamment des conditions à remplir pour pouvoir observer les longueurs d’ondes les plus extrêmes ou simplement pour gagner en puissance de pénétration dans l’espace.

Dans le segment visible et infrarouge du spectre, on connait Hubble mais on va bientôt disposer du James Webb Space Telescope (« JWST ») réalisation de la NASA, de l’ESA et de l’ASC (Canada), qui va être lancé pour le remplacer en Octobre 2018. Son miroir primaire (segmenté) aura un diamètre de 6,5 mètres, contre 2,4 mètres pour Hubble. Il sera 100 fois plus puissant et il orbitera autour du Soleil au point de Lagrange 2 (protégé du Soleil par la Terre, et des deux astres par un énorme bouclier thermique). Dans le domaine de l’infrarouge il ira beaucoup plus loin que Hubble (ondes de 25 µm au lieu de 2,5 µm). La possibilité de traiter ce rayonnement est essentiel pour un télescope qui doit étudier les objets les plus lointains dont le déplacement vers le rouge (« redshift ») est très important. A noter que l’on a commencé à parler d’un successeur au JWST, « ATLAST » (« Advanced Technology Large Aperture Space Telescope ») qui aurait un miroir primaire segmenté de 16 mètres ! Cependant ce n’est encore qu’un concept. Les décideurs américains un peu échaudés par les dépassements de budget répétés du JWST, attendront pour se lancer sur cette nouvelle piste. En parallèle à ces géants, « Gaïa » (ESA), positionné en L2, cartographie le ciel et « Képler » (NASA), dans le sillage de la Terre, recherche les exoplanètes aussi petites que possible de notre environnement.

Mais c’est surtout dans le domaine des rayonnements qui n’arrivent pas jusqu’à la surface de la Terre que l’accès à l’espace rend et va rendre les plus grands services. A noter que les télescopes qui les recueillent ont souvent une orbite très excentrique pour sortir des Ceintures de Van Allen et donc bénéficier d’un espace sans « écran » en même temps que d’une période d’observation non occultée par la Terre, plus longue. Par ailleurs ils ont une durée de vie limitée car ils ont non seulement besoin d’énergie pour fonctionner mais aussi, pour mieux isoler les radiations à très courtes longueurs d’onde, d’un liquide de refroidissement (hélium liquide). On peut distinguer plusieurs catégories :

Les collecteurs de rayons Gamma (longueurs d’ondes les plus petites donc les plus énergétiques). Parmi eux « Fermi » (NASA) traque ce qu’on appelle les « GRB » (« sursauts de rayons gamma) provoqués par les effondrements d’étoiles géantes, ou les trous noirs eux-mêmes dans leur activité dévoreuse de matière ou, indirectement, les phénomènes liés à la probable « matière-noire ».

Les collecteurs de rayons X. Parmi eux, deux télescopes de la NASA, « Chandra » et plus récemment « NuSTAR », et un de l’ESA, « XMM-Newton ». Comme Fermi, ils “chassent” les phénomènes les plus violents. Ils sont très longs car, compte tenu de leurs faibles longueurs d’onde, ils doivent capter les rayonnements en lumière rasante pour les identifier. En fait, au sens strict, ces instruments (comme d’ailleurs les antennes pour ondes radio) ne sont pas des télescopes car ils ne disposent pas d’optique mais plutôt des capteurs.

Pour les rayonnements ultraviolets, on a « GALEX » de la NASA (mission terminée en 2013 mais données toujours en cours d’exploitation). De l’autre côté du visible, en infrarouge, on a « Hershel » (ESA) et « Spitzer » (NASA). Hershel a la particularité de se trouver au point de Lagrange L2 et d’avoir le plus grand miroir dédié au rayonnement infrarouge (3,5 mètres). Plus loin, vers les grandes longueurs d’onde (ondes radio), on a « Planck » (ESA) dont la mission s’est terminée en 2013 et qui traquait les détails du rayonnement primordial, et « Spektr R » (Russe) qui est doté d’une très grande antenne de 10 mètres de diamètre et doit être utilisé dans des dispositifs interférométriques avec des radiotélescopes au sol.

Enfin, tout au bout du spectre, la nouvelle découverte des ondes gravitationnelles (expérience LIGO) a suscité le projet « eLISA » de l’ESA (« Evolved Laser Interferometer Space Antenna ») qui devrait être réalisé à la suite de la mission du satellite LISA Pathfinder lancé en décembre 2015.

Il faut bien voir que ces différentes longueurs d’ondes permettent soit de surmonter (traverser) des obstacles (nuages de poussière ou rayonnements parasites dans d’autres longueurs d’onde), soit d’observer des objets différents soit de mieux les caractériser en fonction précisément des longueurs d’ondes dans lesquelles s’expriment leur activité. Bien entendu les missions en surface de la Lune (face cachée), ou de Mars devront permettre d’y construire un jour des télescopes à grandes surfaces collectrices qui agiront sans doute en complément des autres télescopes dans l’univers (avantage d’un ciel pur et d’une gravité beaucoup plus faible).

Image à la Une : graphe de l’opacité atmosphérique en fonction de la longueur d’onde (crédit ESA/Hubble (F. Granato). La hauteur de la surface brune représente l’opacité de l’atmosphère pour une longueur d’onde donnée. Les fenêtres principales sont les longueurs d’onde du visible et des ondes radios entre 1 mm et 10 mètres.

Image ci-dessous : liste des télescopes spatiaux en fonction des longueurs d’onde qu’ils couvrent (crédit : NASA Goddard Space Flight Center):

Les ELT, dernière génération des grands télescopes terrestres

L’astronomie optique* à partir de la surface terrestre est en train d’effectuer un bon fantastique de capacité sur la base de deux technologies nouvelles, l’optique active / adaptative et les miroirs segmentés. En effet ces technologies permettent la construction en cours des ELT (Extremely Large Telescope) qui succèdent ainsi aux grands télescopes des années 1990/2000 du type VLT (Very Large Telescope). Nous disposons déjà du LBT (Large Binocular Telescope) et allons d’ici à 2025 pouvoir utiliser les TMT (Thirty Meter Telescope), GMT (Giant Magellan Telescope) et E-ELT (European Extremely Large Telescope). Des sources d’énergies spatiales qui nous sont encore inaccessibles (époque de la réionisation de l’univers, trou noir galactique) de même que les exoplanètes de taille terrestre des systèmes stellaires proches, nous deviendront ainsi « visibles ».

*l’astronomie qui collecte les rayonnements visible et de l’infrarouge proche.

Bien entendu rien n’est simple et les grands télescopes optiques de miroirs primaires monoblocs de 8 à 9 mètres de diamètre (la génération précédente) restent encore des instruments très utiles et suffisants pour explorer une multitude de phénomènes moins difficilement accessibles. De même les ELT (aux miroirs de plus de 10 mètres) ne retirent pas leur intérêt aux télescopes spatiaux ou aux radiotélescopes qui permettent d’exploiter d’autres domaines d’émissions. Enfin on passe souvent des uns aux autres en jouant des spécificités différentes et on fait aussi travailler les instruments ensembles pour bénéficier de leur complémentarité. On peut cependant dire qu’avec les ELT on monte en gamme avec des possibilités d’investigation nettement supérieures.

Les quatre ELT ont beaucoup en commun même si la progression se poursuit de l’un à l’autre (les TMT et l’E-ELT étant plus évolués que le LBT et le GMT). Il y a eu un saut par rapport à la génération précédente parce qu’à partir des 8 à 9 mètres de diamètre, les grands miroirs primaires monolithiques butent sur de vrais problèmes de réalisation et d’utilisation. La masse, le volume, les variations thermiques, les déformations dues au poids deviennent extrêmement difficile à gérer. Arrivés à cette constatation, les concepteurs des télescopes Keck mis en service en 1993, avaient déjà démontré les possibilités et les avantages des miroirs minces (de 0,5 à 5 cm d’épaisseur) segmentés (hexagones de moins d’un mètre d’apothème). La substitution de ces miroirs aux lourds miroirs concave monoblocs traditionnels n’était évidemment possible que grâce à l’optique active (pour pallier les déformations dues à la masse même des miroirs) puis adaptative (une multitude d’actuateurs agissant extrêmement rapidement pour adapter la surface aux perturbations atmosphériques) que les progrès de l’informatique rendaient possible (et qui se sont accélérés). L’avantage de masse, l’avantage thermique, l’avantage de transport et de manipulation sont énormes. C’est donc cette voie que l’on utilise maintenant d’une façon générale, pour continuer à augmenter la taille des miroirs primaires.

L’instrumentation est semblable dans tous les cas (mais également évolutive vers des capacités de plus en plus remarquables). Il s’agit de caméras extrêmement puissantes, de spectrographes, et d’appareils pour coordonner les ondes collectées, situés sur des plateformes extérieures au tube du télescope. La lumière leur est accessible via un miroir tertiaire mobile de type « Nasmyth » qui renvoie latéralement la lumière (par un orifice ménagé dans la paroi du tube) et qui permet de passer très rapidement de l’un à l’autre du fait de leur disposition sur ces plateformes.

Voyons les spécificités de chacun de ces ELT.

Le LBT

Le Large Binocular Telescope se trouve à la limite des grands télescopes et des ELT. Sa caractéristique principale est d’être constitué de deux miroirs monolithes, chacun de 8,4 mètres (et de 16 tonnes !). La surface de collection égale celle d’un télescope de 11,8 mètres. Les centres étant séparés de 14,4 mètres, il procure une base interférométrique de 22,4 mètres. L’optique adaptative est générée au niveau des miroirs secondaires. Il est situé à 3200 mètres d’altitude dans le désert d’Arizona (Monts Graham). C’est le plus ancien des ELT, sa construction a commencé en 1996 et la première lumière de ses deux miroirs ensemble a été recueillie en 2008.

Le GMT

Le Giant Magellan Telescope aura la particularité d’être constitué de 7 miroirs monolithes de 8,4 mètres chacun (et de 17 tonnes !) utilisés comme segments qui sont disposés comme les pétales d’une fleur (6 pour la corolle et un pour le cœur). Le diamètre sera ainsi de 24,5 mètres et la surface de collecte de 368 m2. Les miroirs primaires seront desservis par 7 miroirs secondaires, flexibles car c’est aussi à leur niveau que se trouvera l’optique adaptative. Sa résolution sera 10 fois celle de Hubble, dans le visible et l’infrarouge proche (de longueurs d’ondes 320 nanomètres à 25 microns). Le télescope est situé à 2550 m d’altitude et en zone aride (Atacama, Cerro de las Campanas), tout près des deux précédents télescopes de Magellan de 6,50 mètres. Sa construction a commencé en 2015 ; elle doit être achevée en 2024.

Avec les deux autres ELT on passe à un niveau supérieur de puissance et d’adaptabilité puisqu’ils utilisent les miroirs primaires segmentés déjà décrits.

Le TMT

Le Télescope de Trente Mètres aura un miroir primaire de…30 mètres, fait de 492 segments hexagonaux de 1,44 de diamètre et de 50 mm d’épaisseur. Son optique adaptative sera située comme les autres au niveau du miroir secondaire (3,1 mètres), flexible. Un miroir tertiaire elliptique (3,6 m x 2,5 m) et articulé renverra aux différents instruments (spectromètres et caméras) sur deux plateformes Nasmyth (de part et d’autre du tube). Il exploitera surtout le visible et l’infrarouge (longueurs d’onde de 310 nanomètres dans l’UV à 28 microns dans l’infrarouge).

Sa surface de collecte sera égale à 10 fois le télescope Keck (144 fois celle de Hubble) et la résolution obtenue, égale à 3 fois le Keck (et plus de 10 fois la résolution de Hubble dans l’infrarouge proche et les longueurs d’onde plus élevées). Il devait être situé au sommet du Mauna Kea (Hawaï), à 4050 mètres d’altitude mais une controverse avec les Hawaïens pourrait le faire se « poser » ailleurs (Canaries ?). La construction devrait se dérouler entre 2018 et 2022.

L’E-ELT

L’« European ELT » sera sans contexte « la star » des ELT. Son miroir primaire aura un diamètre de 39 mètres et sera donc de loin le plus grand. Il sera constitué de 798 segments de 1,44 mètre et de 40 mm d’épaisseur ; les segments seront répartis en 5 miroirs primaires (hexagonaux, côte à côte). Sa surface de 978 m2 permettra de collecter plus de 100.000.000 de fois de lumière que l’œil humain, plus de 8.000.000 de fois que la lunette de Galilée et plus de 26 fois l’un des quatre télescopes unitaires du VLT. En fait il recueillera plus de lumière que tous les télescopes de classe 8 à 10 mètres de la planète réunis. Ses autres miroirs seront aussi très grands : miroir secondaire de 4 mètres et miroir tertiaire, renvoyant vers les instruments, de 3,75 mètres. Il sera localisé dans l’Atacama, sur le Cerro Amazones, à 3060 mètres d’altitude (à 20 km du Cerro Paranal où se trouve le VLT de l’ESO). La première lumière est prévue pour 2024.

Il ne serait pas exagéré de qualifier ces ELT de joyaux du patrimoine scientifique de l’humanité tant ils concrétisent la quintessence de notre intelligence et de notre savoir-faire collectif.

Image à la Une : vue d’artiste de l’E-ELT (crédit : ESO). Remarquez la taille des personnages mis en référence visuelle.

Image ci-dessous : les trois autres ELT : LBT, GMT, TMT:

L’observatoire, instrument évolutif de connaissance porté par le flot du progrès

Les étoiles ont été une des premières interrogations s’imposant à l’homme du fait de sa prise de conscience du monde. Très tôt il construisit des observatoires pour tenter de voir mieux, réfléchir et comprendre. D’abord il confronta le mystère à l’œil nu et, partout dans le monde, pour mieux se concentrer ou se libérer des obstacles de l’environnement, il choisit de placer ces observatoires au sommet de montagnes ou d’édifices spécialement conçus, de fait les premiers « instruments » d’observations dédiés.

Le progrès technologique avançant, comme toujours sur le bord d’un éventail très ouvert, il advint, vers la fin du 16ème siècle, que l’environnement (travaux de l’opticien Giambattista della Porta) devint prégnant d’un nouveau saut dans l’instrumentation. Dans ce contexte, un amateur de miroirs, le Hollandais Jacob Metius ou peut-être ensemble ses compatriotes Hans Lippershey et Zacharias Jansen, eurent vers 1608 l’idée de regarder au travers de deux verres de forme convexe (objectif) et concave (oculaire) disposés aux extrémités d’un tube. Ils découvrirent ainsi la « lunette d’approche ». Tournée vers le ciel par l’Anglais Thomas Harriot puis par Galilée en 1609, elle devint la « lunette astronomique ». C’était il y a seulement 4 siècles !

L’attention étant portée sur l’objet nouveau et l’esprit scientifique (c’est-à-dire la recherche systématique d’un progrès vérifiable et répétable) se développant, le « télescope » fut théorisé en 1663 par l’Ecossais James Gregory (la lumière n’est plus réfractée par l’optique, elle est réfléchie par des miroirs) et réalisé par Isaac Newton en 1671.

Par la suite, on assiste à un accroissement inouï des capacités des télescopes. On va passer d’une faculté de résolution de 4,5 secondes d’arc à l’époque de Galilée  (un agrandissement de 14 fois par rapport à la capacité de l’œil humain) à 6 millisecondes d’arc aujourd’hui avec l’« E-ELT » de l’ESO, en cours de construction. Et on va aussi passer du recueil des seules ondes lumineuses à celui de la totalité de la gamme des rayonnements électromagnétiques (et même peut-être demain des ondes gravitationnelles).

Ceci résulte des progrès, voulus et fortuits, dans nombre de différents domaines scientifiques et technologiques. Progrès en optique (prisme, spectrographie), progrès dans la connaissance des ondes (travaux d’Hippolyte Fizeau en 1848 conduisant à la compréhension de l’effet « Doppler-Fizeau », lois de Maxwell en 1864 sur l’électromagnétisme), le choix et le travail des matériaux (passage de miroirs en cuivre aux miroirs en verre recouverts d’une couche opaque, d’argent, puis d’aluminium, puis d’autres surfaces, comme le béryllium du télescope JWST), progrès en architecture (permettant la construction de bâtiments gigantesques en matériaux nouveaux), progrès dans les transports (possibilité d’aller rapidement n’importe où dans le monde et notamment dans les montagnes des déserts de l’hémisphère Sud), dans les communications (transmission immédiate des données partout dans le monde), invention puis développement de l’informatique (à laquelle on va confier tout travail répétitif mais aussi tout travail de distinction de différences, de changements, d’anomalies, de déplacements), progrès aussi dans la connaissance même de l’environnement spatiale (avant la construction du télescope du Mont Palomar, Hubble n’aurait sans doute pu concevoir l’existence d’une multitude de galaxies), progrès enfin dans la science des instruments d’observation (on construit des réflecteurs et des instruments de plus en plus grands et on trouve des solutions à la croissance de leur masse).

Parmi les grandes étapes on peut noter en 1789 le télescope de Herschel avec son réflecteur de 122 cm de diamètre ; en 1917, le télescope du Mont Wilson (Etats-Unis) avec son miroir de Hooker de 250 cm ; en 1949, le télescope du Mont Palomar (Etats-Unis) avec son miroir de 500 cm. Quatre ouvertures se produisent alors, (1) l’interférométrie dans les années 1970 (travaux d’Antoine Labeyrie) qui permet d’additionner les lumières reçues par plusieurs télescopes ;  (2) les grands miroirs constitués de segments multiples permettant de dépasser la taille des miroirs monobloc en verre ; (3) l’envoi de télescopes dans l’espace en dehors de l’écran et des perturbations de l’atmosphère ; (4) l’optique active  qui permet la coordination de segments de miroirs pour pallier les déformations des grands miroirs eux-mêmes du fait de leur masse, puis l’optique adaptative pour contrer les effets des perturbations atmosphériques (tout cela n’étant bien sûr possible que grâce à une informatique permettant des calculs de plus en plus nombreux et rapides avec répercussion quasi immédiate sur une forêt d’actionneurs).

Dans ces conditions, la puissance de discernement des télescopes se poursuit en s’accélérant en deux vagues : d’abord en 1993, les télescopes 1 et 2 de Keck au miroir primaire segmentés de 9,8 mètres de diamètre chacun (utilisés en interférométrie) ; en 2005 le télescope SALT (South African Large Telescope) au miroir de 11,1 mètres monobloc ; Hubble et son miroir de 2,4 mètres, opérationnel depuis 1993; le VLT (Very Large Telescope) de l’ESO comprenant 4 miroirs monoblocs de 8,2 mètres (et deux petits) fonctionnant en interférométrie ce qui donne l’équivalent d’un miroir de 130 à 200 mètres (avec son système d’optique adaptive il est deux fois plus précis que Hubble) .

Ensuite le JWST (James Webb Space Telescope) avec son miroir de 6,5 mètres, segmentés, doit remplacer Hubble en 2018 1; l’E-ELT (European – Extremely Large Telescope)2 doit recevoir sa première lumière en 2024, et dans la décennie qui vient l’EHT (Event Horizon Telescope)3 doit lier par « interférométrie à très longue base » de multiples radiotélescopes sur toute la surface de la Terre. Cela lui donnera une taille virtuelle égale au diamètre terrestre et il pourra, on l’espère, « voir » (en ondes millimétriques) le trou noir super-massif, cœur de notre galaxie, derrière la source intense d’ondes radio nommée « Sagitarius A* ».

Les ELT et l’interférométrie (optique et radio) font reculer notre horizon vers des limites totalement inimaginables il y a cinquante ans. Très loin des débuts de l’astronomie, nous sommes arrivés à une époque où les hommes ne regardent plus le ciel de leurs yeux au sommet d’observatoires désertés (sauf par les techniciens) mais sur les écrans de leurs ordinateurs, dans les données recueillies par leurs machines. Nul doute cependant que la grandeur du spectacle maintenant intellectualisé et abstrait ne continue à les émerveiller par sa grandeur et sa puissance.

1NB : Plus de quarante autres télescopes ont été lancés dans l’espace pour observer l’environnement et les sources lointaines dans une très grande variété de longueurs d’ondes.

2NB : A part le LBT (Binoculaire) achevé, il y a trois autres ELT en cours de réalisation, le GMT (Magellan), le TMT (Trente Mètres) et l’E-ELT.

3NB : il y a déjà des interféromètres « à longue base » en service, notamment ALMA, mais ils sont évidemment plus « petits » que l’EHT (qui est dit “à très longue base”).

Image à la Une : Observatoire archaïque de Kokino, en Macédoine, à la frontière de la Serbie. Il date de l’Age du Bronze (2ème millénaire avant notre ère).

Image ci-dessous : vue d’artiste du prochain observatoire « E-ELT » de l’ESO (European Southern Observatory); ce qu’on peut faire de mieux en sophistication et en puissance aujourd’hui (image crédit ESO). Il aura un miroir primaire segmenté de 39 mètres.

Breakthrough Starshot une organisation d’aujourd’hui pour relever le défi du futur

Breakthrough Starshot me semble être, un peu comme MELiSSA, un modèle de ce que devrait être toute entreprise de recherche à notre époque.  Elle rassemble en son cœur une équipe de spécialistes reconnus ; elle définit clairement et ouvertement son projet et sollicite toutes contributions sur les points précis qui lui semblent poser problème ; elle s’adresse au monde entier ; elle est largement informelle ; elle soigne sa communication.

Les membres du « Board » et du « Management & Advisory Committee » sont pour la plupart des personnalités connues et incontestables, surtout des Américains mais pas seulement. Au « Board », Youri Milner et Marc Zuckerberg sont deux hommes d’affaires qui ont réussi, Stephen Hawking est un des grands astrophysiciens de notre époque et un passionné de l’exploration spatiale. Les 26 membres du « Management & Advisory Committee » sont presque tous des scientifiques de premier plan dans les domaines concernés par le projet. On remarque le Chairman Avi Loeb, astronome de Harvard; le Directeur exécutif, Pete Worden, ancien directeur du Centre de Recherche Ames de la NASA, le mathématicien Freeman Dyson (les sphères de Dyson), les prix Nobel, Saul Perlmutter (astronome) et Steven Chu (physicien), l’astronome royal britannique, Martin Rees, le président de Microwave Sciences, Jim Benford. A côté de ce « Committee », l’équipe de 13 “postdocs” et d’étudiants de Harvard, de tous niveaux (même un undergraduate, Henry Lin, lauréat de l’ « Intel young scientist award » !) mais forcément brillants, prépare l’avenir. Compte tenu de la durée de sa mise au point et de sa réalisation, on se trouve en présence  d’un projet multigénérationnel et tous ces jeunes seront motivés mais aussi formés au contact de leurs anciens pour aller jusqu’à la réalisation (sans compter qu’ils développent des connaissances propres qu’ils pourront  appliquer en fonction des besoins). L’aspect communication est aussi soigné comme le montre la présence de Marc Zuckerberg,  celle de Stephen Hawking, celle d’Ann Druyan, productrice du film « Contact » (d’après le roman de Carl Sagan) ou celle de deux prix Nobel ou encore du président de la Planetary Society, Lou Friedman.

L’aspect le plus original du projet est qu’il est totalement coopératif. Il est présenté sur un site Internet accessible à tous, aussi bien pour préciser son objectif et son sens que pour poser les problèmes qui doivent être résolus. Toutes les sources sont citées ; la communauté des personnes intéressées et capables d’apporter des solutions est sollicitée pour les soumettre ; si elles sont trouvées pertinentes, le Management & Advisory Committee les publiera et y joindra ses commentaires. Les avancées seront publiées en ligne sur le site ; un dialogue peut ainsi s’engager avec le monde entier pour faire progresser le projet.

Alors, cher lecteur, si vous avez des compétences utiles dans cette perspective, allez sur le site, réfléchissez aux problèmes, soumettez vos idées. Pour vous inciter à le faire, voici quelques un des sujets que l’équipe scientifique de Breakthrough Starshot considère comme importants et améliorables (outre ceux déjà vus de l’énergie nécessaire à la propulsion et de la puissance de l’accélération) :

L’approvisionnement en énergie : pour le fonctionnement du vaisseau après impulsion, il faut trouver la ressource la plus compacte possible, produisant le maximum d’énergie sur 20 ans, et aussi modulable que possible (pour l’économiser et disposer d’une puissance variable correspondant à des besoins différents selon l’avancement du voyage). La solution se trouve d’une part dans un matériau radioactif et dans la maniabilité du dispositif qui permettra de stocker l’énergie de ce matériau et de la relâcher lorsque le besoin surviendra; d’autre part dans l’utilisation par la voile de l’énergie de l’étoile voisine (revêtement photovoltaïque de la voile sur sa face orientée en direction du déplacement), et enfin dans l’utilisation possible de l’échauffement générée par l’interaction entre la voile et le milieu interstellaire.

La miniaturisation des instruments d’observation : toute avancée dans la miniaturisation sera la bienvenue mais aussi dans l’adaptation des appareils à la vitesse du vaisseau spatial. Il traversera le système d’Alpha Centauris à la vitesse de 216 millions de km/h et il faudra que les appareils suivent la cible dont ils doivent collecter les données (problème de pointage et de focus).

L’orientation des voiles vers les lasers : Le problème se pose à deux moments : (1) lors du largage des vaisseaux en orbite haute terrestre afin que les voiles soient parfaitement ouvertes vers les lasers et (2) pour maintenir l’orientation lors de la phase d’impulsion qui en dix minutes donnera une accélération de 0 à 216 millions de km/h. Le problème apparenté est celui de l’envoi de l’information sur la trajectoire du vaisseau vers la Terre lorsqu’il se trouvera à environ une Unité Astronomique de la Terre et du renvoi quasi immédiat d’un correctif de trajectoire si nécessaire.

La protection des équipements contre les agressions du milieu interstellaire, notamment du fait de la vitesse de déplacement des vaisseaux. Il s’agit de trouver le bouclier le plus efficace tout en étant le plus léger. Le bronze au béryllium est proposé mais sa masse est élevée.

A noter que tout développement positif de la propulsion photonique par lasers pourra être utilisé pour les transports urgents et de très faible masse sur des distances plus courtes, par exemple entre la Terre et Mars (et réciproquement). Il est évident que tout accroissement de masse réduira la vitesse et qu’il faudra aussi mettre au point un dispositif de freinage (autre laser ?) pour permettre la capture par la planète, sous cette réserve on peut imaginer le transport en urgence de quelques molécules extrêmement précieuses c’est-à-dire non fabricables localement (par exemple un médicament ou un circuit intégré).

Image à la Une (crédit NASA): du Soleil à Alpha Centauri, le premier voyage de Breakthrough Starshot. L’échelle des distances est logarithmique.

Liens:

Leaders : https://breakthroughinitiatives.org/Leaders/3

Recherche : https://breakthroughinitiatives.org/Research/3

Soumettez vos idées: https://breakthroughinitiatives.org/Challenges/3

Les défis des vaisseaux photoniques de Breakthrough Starshot

Depuis juillet 2010 on a vérifié avec l’expérience IKAROS*, que la force de la lumière (du soleil en l’occurrence) peut effectivement propulser un vaisseau dans le vide spatial. Les promoteurs de Breakthrough Starshot nous proposent d’aller (beaucoup) plus loin que notre environnement terrestre, jusqu’au système stellaire le plus proche (Alpha Centauri). Pour y parvenir dans un délai raisonnable par rapport à une vie humaine, il faut aussi aller vite et, pour ce faire, il faut que la masse propulsée soit réduite au maximum. Breakthrough Starshot vise une vitesse de 20% de la vitesse de la lumière (« 0,2 c »). Pour l’atteindre avec l’énergie dont on peut disposer et dont la puissance serait supportable par la voile photonique (100 GW dépensés sur 10 minutes pour un millier de voiles), il faut que la masse totale de chaque vaisseau n’excède pas 2 grammes. Cela pose une série de défis technologiques extrêmement exigeants mais que les promoteurs du projet pensent pouvoir relever au cours des 20 ans qui viennent.

*IKAROS de l’agence spatial japonaise, « JAXA »,  a une masse de 315 kg dont 15 kg pour une voile de 14,1 m2. Lancé en 2010 pour 6 une mission de 6 mois, il tourne toujours autour du Soleil.

Pour mieux les appréhender, examinons les besoins en termes d’énergie, de voile et de charge utile.

L’énergie doit être émise, reçue et utilisée ; il en faut pour la propulsion (l’essentiel) et pour le fonctionnement du vaisseau. L’avantage de la propulsion photonique est qu’elle ne doit pas être embarquée ce qui réduit la contrainte de masse ; la difficulté viendra de la transmission et des pertes à la réception. Pour le fonctionnement (puisque, là, l’énergie sera embarquée), il faudra miniaturiser la source, le stockage et le dispositif de mise à disposition.

Voyons d’abord l’énergie propulsive. Elle sera émise par des lasers parce que c’est la seule façon de transmettre l’énergie photonique sur une très longue distance (jusqu’à 2.000.000 de km* d’après ce qui nous est annoncé) de façon cohérente. Les 100 GW, semble-t-il nécessaires, représentent une puissance énorme mais ils devraient être produits par plusieurs générateurs classiques de 100 MW. L’énergie serait accumulée et stockée en attente de libération lors de la phase de propulsion. Là encore on se heurte à une difficulté vue l’énormité de l’énergie à libérer en dix minutes*! Les lasers poseront peut-être moins problème car la transmission devrait se faire par un grand nombre d’appareils (« une forêt ») fonctionnant ensemble. La cohérence du faisceau de lumière est plus difficile pour des raisons tenant à l’appareil émetteur et au milieu à traverser avant de frapper la voile. Les lasers doivent projeter des rayons d’une longueur d’onde de 1 micron pour mieux traverser l’atmosphère, ce qui peut se faire mais les ondes devront ensuite parcourir quelques 60.000 km avant d’atteindre leur cible (voiles photoniques dans leur zone de largage) et ne pas se disperser ensuite sur les 2 millions de km de la trajectoire des vaisseaux pendant la phase d’impulsion. C’est évidemment difficile et lié à un autre problème, la focalisation du rayon. A l’aide d’un retour de signal de chaque voile, il faudra atteindre une précision de focus de 0,4 millisecondes d’arcs, ce qui est extrêmement précis mais pas impossible. Pour atténuer les perturbations atmosphériques, il faudra localiser les lasers (et la centrale électrique) en altitude (plus de 5000 m) dans un environnement très sec. Le haut plateau andin où sont installés les grands télescopes de l’ESO semble le plus approprié.

*NB: Il pourrait y avoir une certaine incohérence à ce stade très initial du projet Breakthrough Starshot, entre la durée d’impulsion initiale et la vitesse de 0,2c atteinte à la fin de cette impulsion. In fine la distance de portée des lasers pourraient être accrue ou bien la vitesse générée un peu plus faible.

Voyons ensuite l’énergie embarquée : On retrouve la contrainte de masse ; tout doit tenir dans 150 milligrammes, source et pile comprises ! Pour la source on devrait utiliser un petit morceau de matière radioactive (plutonium 238 ou americium 241) et un supercondensateur qu’on devrait pouvoir « allumer » et « éteindre » pour économiser le stock d’énergie produit. En fait il y aura très peu de besoins pendant le voyage : une correction de trajectoire entre 1 et 2 UA, une orientation de l’antenne pour vérification de position, le stockage et l’émission de quelques informations sur le milieu interstellaire. L’énergie sera surtout utilisée pour le fonctionnement de l’instrument d’observation lors de la traversée du système d’Alpha Centauri et de la transmission d’informations sur ce système. Il est cependant important de noter que le vaisseau pourrait alors utiliser la lumière de l’étoile voisine. Il faudrait pour cela couvrir la voile d’un film photovoltaïque (pas trop épais !).

La voile pose aussi des problèmes. Pour être efficace, elle doit être réflective, opaque, homogène et résistante tout en étant ultralégère. Il faudra pousser ces qualités à l’extrême (masse d’un gramme seulement !) compte tenu du choc que va lui causer la propulsion (la vitesse devrait atteindre 216 millions de km/h après seulement 10 minutes). Pour la réflectivité on vise 99,999%. Pour des raisons de masse, il faudra utiliser une monocouche sensible particulièrement à la longueur d’onde de la lumière reçue ; le graphène semble une piste intéressante. L’opacité signifie que la lumière doit le moins possible traverser ou entrer dans la matière de la voile (absorption minimum) ; la traverser serait perdre de la poussée et y entrer entraînerait un échauffement, dans les deux cas une perte d’énergie. La solution semble exister, ce serait “une couche de microcubes de silicone sur un substrat de dioxide de silicone”. L’homogénéité signifie qu’il ne peut y avoir d’irrégularité, de tache ou même de ride sur la surface réflective car cela risquerait de déséquilibrer le vaisseau. La solution, au-delà de la recherche d’une surface « parfaite » serait de faire tourner très vite la voile-miroir sur elle-même (« spin ») pendant les dix minutes d’impulsion (solution utilisée pour IKAROS). Une solution complémentaire serait de placer des charges minuscules qui s’écarteraient lors de la rotation vers l’extérieur de la voile et la maintiendraient étendue et plate.

La charge utile enfin doit être efficace et ultralégère. Il s’agit ici des éléments permettant l’observation, le traitement et le stockage d’information, la communication, tout cela dans un seul gramme (NB : l’antenne sera cependant dans la voile)! La pluralité des vaisseaux donnera une redondance indispensable en cas de défaillance de l’un ou de l’autre. Mais il faudra imaginer une coopération entre les vaisseaux, un peu comme des instruments fonctionnant en interférométrie, une partie d’information venant se joindre à d’autres pour donner une image d’ensemble. Les différents éléments devront aussi être protégés des radiations et des chocs pouvant survenir du fait de l’interaction avec le milieu interstellaire. Pour cela on pense à un revêtement des points sensibles par une matière particulièrement résistante et stable comme le bronze au béryllium.

Dans de nombreux cas de figure envisagés, on n’est pas encore au niveau nécessaire et l’accélération dont on a besoin pour atteindre la vitesse de 0,2c semble a priori (mais a priori seulement!) impossible à atteindre en seulement 10 minutes. Il faut voir jusqu’où l’on pourra porter la vitesse réelle dans la limite de distance permettant la cohérence des faisceaux laser. On peut espérer la continuation des progrès (ils pourraient se situer du côté des lasers qui auraient une portée plus longue). Un des intérêts du projet consiste précisément en ce qu’il va pousser la recherche, dont on retrouvera forcément les retombées dans de multiples applications terrestres où l’efficacité, la miniaturisation, la précision et la résistance sont importantes.

La semaine prochaine je vous dirai comment Breakthrough Starshot veut mettre en œuvre cette recherche.

lien vers le site de Breakthrough Starshot listant les défis du projet:  https://breakthroughinitiatives.org/Challenges/3

Image à la Une : La forêt de laser en phase active d’émission de lumière. Crédit Breakthrough Starshot.

image ci-dessous: détails techniques du projet. Crédit Breakthrough Starshot.

blog_76_details_techniques

Breakthrough Starshot, des voiles lancées vers les étoiles

Le 12 avril 2016, Yuri Milner, Stephen Hawking et Marc Zuckerberg annonçaient la constitution de « Breakthrough Starshot », un programme de recherche et d’ingénierie de 100 million de dollars pour entreprendre avec des voiles solaires, l’exploration du système d’Alpha Centauri, le groupe d’étoiles le plus proche du système solaire. C’est un événement qui fera date dans l’histoire future de l’exploration spatiale.

Le programme se situe dans le cadre d’un ensemble plus vaste nommé « Breakthrough Initiatives » fondé par Yuri et Julia Milner. Yuri Milner est un milliardaire russe, diplômé en physique (Université de Moscou) et en business administration (Etats-Unis, Wharton School of Economics) qui s’est spécialisé et a fait fortune dans l’Internet avec le fonds d’investissement « DST » (Digital Sky Technologies). Outre le « Board » constitué par les annonceurs du programme, la direction comprend un « Management & advisory committee » composé de scientifiques de renommée mondiale.

Cette Direction se donne 20 ans pour mettre au point la technologie nécessaire (le financement, de l’ordre de 10 milliards de dollars, étalé dans le temps, n’est pas vraiment un problème). Comme la première cible (Proxima Centauri) est située à 4,24 années lumières (40,1 mille milliards de km) et que la vitesse espérée pour les voiles est de 20% de celle de la lumière (216 millions de km/h), le voyage durera vingt ans (au lieu des 20.000 ans nécessaires si on utilisait une propulsion « classique ») et les informations collectées reviendront vers nous après un voyage…de 4,24 années. Vous pouvez donc marquer les dates de 2036 (lancement) et de 2060 (retour d’informations) dans vos agendas (ou dans celui de vos enfants).

Ce sera la première fois que des objets fabriqués par l’homme pénétreront dans un autre système stellaire (à moins que d’ici là nous ayons développé d’autres techniques pour aller encore plus vite). Nous aurons alors les premières images, prises in situ, d’autres planètes éclairées par un autre soleil et en particulier de Proxima-b, cette autre Terre située dans la zone « habitable » de Proxima Centauri (avec réserve compte tenu de la nature de l’étoile et de sa faible distance à la planète).

Le principe est de lancer un millier de vaisseaux ultralégers (de seulement deux grammes !) comprenant chacun une charge utile (instrument d’observation, antenne, moteur et réserve d’énergie pour faire fonctionner l’ensemble) d’une masse d’un gramme, portée par une voile de 4 m2 (d’une masse d’un gramme également !) qui servira de réflecteur aux photons qui la propulseront. Réduire la masse au maximum est impératif pour atteindre la vitesse prévue puisque plus la masse est importante plus l’énergie nécessaire à son déplacement est elle aussi importante. La propulsion photonique est connue depuis longtemps. C’est elle que Robert Forward utilise dans son magnifique roman de 1982 « The Flight of the Dragonfly », pour permettre à ses personnages d’atteindre l’étoile de Barnard en 50 ans (à 5,96 années-lumière, elle est légèrement plus éloignée que Proxima Centauri). Les photons exercent une pression sur la surface de la voile et donc la poussent. Outre la masse, la vitesse de déplacement résulte d’une quantité d’énergie suffisante donc d’un éclairage intense et /ou suffisamment durable, et d’une surface aussi réfléchissante, résistante et légère que possible. Pour exercer une pression suffisamment longtemps la lumière doit être non seulement très forte (il faut atteindre une puissance de 6 GW/m2 au niveau des voiles) mais elle doit se disperser aussi peu que possible. On utilisera donc un laser ou plutôt une « forêt » de lasers à longueur d’onde aussi petite que possible (objectif micrométrique) d’une puissance totale de 100GW, soit 100 milliards de watts (par comparaison, une centrale nucléaire a une puissance de quelques 5 ou 6 milliards de watts). La puissance requise est donc extrêmement élevée mais, semble-t-il (d’après les concepteurs du projet), pas impossible à atteindre. Il faut « simplement » prévoir une centrale d’une centaine de MW avec un système d’accumulateurs pour pouvoir garder l’énergie générée et la libérer le moment venu en très peu de temps. L’impulsion ne durera en effet que dix minutes, jusqu’à ce que les vaisseaux atteignent la vitesse de 0,2 c (20% de la vitesse de la lumière). Il n’est pas possible de continuer davantage car au bout de ces dix minutes la distance parcourue  (2 millions de km) sera trop grande pour que la lumière des lasers reste suffisamment cohérente et puissent impulser une vitesse supplémentaire (et l’énergie électrique accumulée auprès des lasers sera épuisée). Une fois la vitesse acquise, elle se maintiendra puisque dans l’espace il n’y aura (presque) rien pour la freiner (« presque » car le Soleil exercera pendant longtemps une attraction, de plus en plus faible).

A l’arrivée dans le système d’Alpha Centauri les instruments seront activés, effectueront photos et mesures et renverront les données vers la Terre par micro-ondes (les lasers seront alors reconfigurés en radiotélescopes). Comme il n’y aura aucun dispositif pour les arrêter, les vaisseaux continueront ensuite leur course dans l’espace vers l’infini (ou une rencontre ?!).

Les 100 premiers millions de la dotation de Breakthrough Starshot doivent servir de démonstration de la faisabilité des premières étapes de réalisation du concept. Espérons qu’elle soit convaincante car les défis ne sont pas faciles à relever. Je vous en parlerai davantage la semaine prochaine.

lien vers le site de Breakthrough Starshot: https://breakthroughinitiatives.org/Initiative/3

Image à la Une : Une voile dans l’espace pendant la phase de propulsion par laser. Crédit Breakthrough Starshot.

Quelle stratégie pour l’exploration spatiale ?

Trois fronts sont ouverts : l’astronomie, l’exploration robotique et l’exploration habitée ; et nous devons prendre en compte trois contraintes : notre capacité technologique, nos possibilités biologiques et notre capacité financière (cette dernière n’étant pas la moindre).

Dans toutes les hypothèses nous devons voir et aller, aussi loin qu’il nous est possible. Ce principe est évidemment subjectif et discutable mais il est partagé par beaucoup d’hommes sur Terre. D’autres peuvent se contenter de rechercher le confort matériel, pour eux-mêmes, pour leur proches ou pour l’humanité, ou bien leur épanouissement ici et maintenant sur Terre ; d’autres encore pensent avant tout à leur salut spirituel et peu leur importe sur quel sol ils se trouvent. Je fais partie de ceux qui ont soif de voyages, de lointain, de découvertes, d’aventures et de compréhension scientifique du monde.

Dans cet esprit, moi et mes semblables (du moins je l’espère !) désirons que l’exploration spatiale soit une priorité de nos contemporains (personnes privées ou publiques), que la recherche astronomique développe sa puissance de « vision » vers l’aube de l’Univers (pour mieux comprendre la formation des galaxies et des premières étoiles), vers le centre galactique (pour mieux comprendre le fonctionnement des trous noirs), vers les étoiles voisines (pour tenter de trouver une planète rocheuse dotée d’une atmosphère transformée par la vie, dans sa zone habitable), vers les confins du système solaire et en particulier vers la mystérieuse « Neuvième-Planète » tapie dans les ténèbres sur une orbite extrêmement lointaine et excentrée (pour tout connaître de notre système solaire).

A cette distance on entre dans la zone frontière entre l’astronomie et de l’astronautique puisque, si on découvre cette Neuvième-Planète avec nos télescopes, il faudra évidemment l’étudier (et si possible y aller !) pour savoir quelles sont ses caractéristiques géomorphiques et comment elle s’est formée. La recherche astronautique doit donc, dans le domaine des missions robotiques, continuer à explorer le système solaire plus loin que l’homme ne peut aller aujourd’hui mais aussi en précurseur des missions habitées d’après demain. Il faudra développer sur le plan pratique les technologies déjà imaginées et théorisées qui permettront un accès suffisamment rapide aux endroits les plus éloignés. Ainsi, la propulsion photonique nous permettra de bénéficier d’impulsions longues, donnant une accélération continue qui assez rapidement (dans le domaine d’irradiance forte du système, entre 0,1 UA et 1,5 UA ou à partir de la Terre avec des lasers) générera pour des masses faibles, des vitesses de plusieurs pour cent de celle de la lumière (que l’on conservera, même éloignés de la source de lumière puisque le seul frein dans l’espace du système solaire est la gravité – faible – du soleil). Nous pourrons ainsi, avec peu de masse (pour disposer de suffisamment d’énergie), explorer les systèmes stellaires les plus proches (à l’intérieur d’une sphère d’une dizaine d’années lumières) comme le veulent les promoteurs du projet « Breakthrough Starshot » mais aussi les planètes lointaines de notre système comme la Neuvième-Planète déjà citée.

Pour ce qui est des autres planètes du système solaire (plus proches) on peut toujours recourir aux moteurs à propulsion chimique comme on l’a fait jusqu’à présent ou encore aux moteurs utilisant l’énergie nucléaire (une fois placé en orbite terrestre par propulsion chimique !) ou peut-être un jour à la propulsion électromagnétique (« EmDrive »), encore mal comprise mais prometteuse…si elle s’avère possible. Il faut retourner sur Titan pour analyser son écosystème et voir jusqu’où le processus prébiotique a pu évoluer dans sa complexification. Il faut se poser sur Europa ou Encelade et forer dans la glace pour atteindre l’eau de l’océan sous-jacent. Enfin il faut aller sur Mars au plus vite pour y initier une installation permanente puisque Mars est la seule planète de notre environnement spatial où cette installation permettra à l’homme de vivre continûment en dehors de la Terre.

Ces divers fronts d’exploration s’épauleront les uns les autres. Plus nous enverrons de vaisseaux dans l’espace, moins ils coûteront cher. Pour voir vraiment loin, nous devrons développer l’interférométrie optique et radio dans l’espace, en complément des grands observatoires en réseau que nous développons sur Terre. Des champs de télescopes flottant dans l’espace regardant ensemble et en même temps, la même source lumineuse (ou électromagnétique) et concentrant l’information dans un centre commun à égale distance de tous (ou corrigeant électroniquement les différences de distance, donc de temps). Ces télescopes nous pourrons les placer au point de Lagrange L2 (dans l’ombre de la Terre par rapport au Soleil), puis ailleurs dans l’espace. On peut aussi imaginer faire de l’interférométrie avec des télescopes situés en L2 et en L3 (de l’autre côté du Soleil), déterminant ensemble un gigantesque réceptacle des diverses sources de lumière de l’Univers (d’un diamètre de plus de deux fois la distance de la Terre au soleil).

Nous sommes devenus adultes et nous étouffons dans notre maison d’enfance devenue trop petite. Ne tournons plus en rond dans le jardin. Nous nous sommes suffisamment exercés dans la Station Spatiale Internationale dans laquelle on ne peut même pas tester la gravité artificielle pourtant indispensable pour aller physiquement plus loin ; la Lune, trop proche et déjà vue, doit être sortie du programme ! Il nous faut partir pour aller « ailleurs ».

Image à la Une: Nos plus proches voisines, les étoiles se trouvant dans un rayon de 10 années lumière du Soleil (La Voie Lactée a un rayon de quelques 60.000 années lumière). Ce sont les seules que l’on peut aujourd’hui imaginer pouvoir atteindre par un moyen astronautique. Crédit R. Powell.