CHEOPS un observatoire spatial pour affiner notre connaissance des exoplanètes proches

CHEOPS ( CHaracterizing ExOPlanet Satellite) sera la première mission dédiée à la caractérisation des exoplanètes proches déjà repérées. C’est une entreprise dirigée par l’Université de Berne dans le cadre de l’ESA au travers du Swiss Space Office. La réalisation de la charge scientifique, le télescope et ses annexes, a été terminée en avril ; elle est maintenant en Espagne pour montage sur la plateforme du satellite ; le lancement doit avoir lieu début 2019 en Guyane.

Avec CHEOPS il ne s’agit pas de découvrir de nouvelles exoplanètes mais, connaissant leur masse par la méthode dite de la « vitesse radiale » de leur étoile (déplacement de l’étoile du fait de sa relation gravitationnelle avec sa ou ses planètes), de déterminer leur volume (via leur diamètre) par mesure aussi précise que possible de leur « profondeur de transit » en utilisant la méthode dite « des transits » (c’est-à-dire l’intensité d’obscuration de la lumière de l’étoile causée par leur passage devant l’étoile). Connaissant le volume et la masse d’une planète, on peut en déduire sa densité et donc dans une certaine mesure sa composition en prenant en compte sa proximité à l’étoile (donc sa température). La différenciation entre roche et atmosphère peut être renforcée par l’observation de la « modulation » de la lumière lorsque la planète est éclairée par son étoile avant de passer derrière elle ou encore la disparition de la planète derrière l’étoile peut permettre de déduire l’émission thermique propre à la planète, donc son spectre d’émission.

CHEOPS doit étudier les planètes identifiées comprises entre un et six diamètres terrestres dans des systèmes dont l’étoile a une magnitude visuelle (« V ») allant de 6 à 12 (pour comparaison l’œil peut discerner les objets jusqu’à la magnitude 6 et l’observatoire spatial Hipparcos a établi la carte des étoiles allant jusqu’à la magnitude 11). Cela représente une population de 500 à 700 étoiles. CHEOPS est une mission « de suivi » par rapport aux planètes déjà repérées et comme les petites planètes à grande distance de leur étoile ne sont pas encore connues, on ne pourra pratiquement observer que des planètes à périodes orbitales courtes et relativement proches de notre système solaire (jusqu’à quelques centaines de parsec). CHEOPS pourrait mesurer une planète de la taille de la Terre et on en connait quelques-unes mais elles orbitent des étoiles plus petites que notre Soleil (des « naines rouges »). On attend la mission PLATO qui sera lancé en 2026 pour trouver ce type de planète orbitant des étoiles de type solaire.

Tout a commencé en 2012 lorsque l’ESA a lancé un appel d’offres pour les missions « S » (pour Small, à côté de « M » – comme « PLATO » – et « L ») dans le cadre de son programme « Cosmic Vision ». L’idée était de mener des missions peu chères (50 millions d’euros maximum, pour l’ESA) et réalisables en quatre ans maximum (l’équivalent en moins cher des missions « scouts » de la NASA). L’Université de Berne a remporté l’appel d’offre pour la première mission S avec ce concept CHEOPS, devant 25 autres projets. La charge utile, le télescope et ses annexes (qui représente 40 millions d’euros – dont 25 pour la Suisse – sur un total de 100 en prenant en compte les participations non-ESA venant du « Consortium CHEOPS réunissant 11 pays membres de l’ESA sous la direction de la Suisse) a été étudiée et réalisée par le Center of Space and Habitability (CSH) sous la direction de Christopher Broeg (chef de projet), le Professeur Willy Benz, directeur de l’Institut de Physique, étant le responsable de la mission dans son ensemble (« Principal Investigator »). La plateforme, réalisée par Airbus Defense & Space en Espagne, sur laquelle sera monté le télescope, est inspirée de celle de leur satellite SEOSAT (satellite d’observation de la Terre qui doit être lancé également en 2019). Le lancement de CHEOPS était originellement prévu à partir de Kourou en 2017 mais il a été quelque peu retardé (comme la quasi-totalité des projets spatiaux qui posent, pour leur réalisation, des problèmes complexes que l’on ne peut totalement anticiper). Finalement, CHEOPS va être lancé comme un passager secondaire avec un satellite italien d’observation de la terre sur une fusée Soyouz, très vraisemblablement durant la première moitié de 2019.

Comme tous les télescopes spatiaux, CHEOPS est une merveille technologique. Il est le résultat de tout un ensemble d’idées originales et souvent « géniales » car on doit toujours envoyer la charge utile la moins massive, la plus adaptée à l’objectif, la plus performante et la plus fiable. Sans tout mentionner on peut par exemple évoquer le positionnement du satellite porteur du télescope. Il sera en rotation autour de la Terre à 700 km d’altitude (environ deux fois l’altitude de l’ISS) sur une orbite héliosynchrone, dans un plan orthogonal à l’éclairage solaire (le plan de l’orbite suivra celui du terminateur terrestre) et tournant toujours l’objectif du télescope dans la direction opposée à la source des rayons solaires, tandis que les panneaux solaires (réalisés en Belgique) fixés sur sa coque extérieure, feront écran et fourniront l’énergie (puissance de 60 W seulement !). Le télescope lui-même est petit, doté d’un miroir (réalisé en Italie) de 32 cm dans un tube de 150 cm (ouverture 30 cm) et il fonctionne en visuel et proche infrarouge (détecteur CCD, longueurs d’ondes entre 0,4 et 1,1 microns). Un dispositif de lentilles défocalise le rayonnement et l’étale sur 765 pixels ce qui permet une analyse plus facile, en définissant un périmètre et une surface soigneusement calibrée à l’Université de Berne. De la même manière l’intensité des signaux reçus par la plaque CCD, des photons convertis en électrons, a fait l’objet d’un calibrage pour pouvoir être proprement interprétée une fois le télescope en fonction. Après le montage en Espagne, il y aura encore des tests thermiques en France, vibratoires à Zurich, acoustiques en Hollande. Pendant le fonctionnement du satellite (la mission doit durer 3,5 ans) le Science Operation Center de la mission sera localisé à l’Université de Genève. NB ce « segment sol » représente 10 millions d’euros (à l’intérieur du total des 100 déjà mentionnés) et la Suisse en prend 5 à sa charge (portant ainsi la dépense totale pour la Confédération, à 30 millions d’euros).

La profondeur des transits des planètes de taille terrestre possibles sera de l’ordre de 100 ppm et la sensibilité des CCD sera de l’ordre de 20 ppm en six heures. Pour les planètes de la taille de Saturne la profondeur des transits attendue sera évidemment beaucoup plus grande (2500 ppm), la sensibilité requise de 85 ppm en 3 heures et la luminosité de l’étoile pourra aller beaucoup plus bas (V de 9 à 12). On a donc là un éventail assez largement ouvert mais il faut noter qu’on ne recherchera pas les mêmes informations venant d’une Saturne ou d’une super-Terre (une super-Terre de la taille de Saturne serait impossible du fait de sa masse et réciproquement), cet éventail est donc bien nécessaire pour couvrir une gamme étendue de planètes proches de leur étoile. D’autant que si on recherche des super-Terres, on cherche aussi à comprendre comment « fonctionnent » les planètes plus grosses dans leur système c’est-à-dire quelle a pu être leur histoire dynamique étant donnée leur présence très près de leur étoile (sur des orbites de courte période) contrairement à ce que l’on constate dans le système solaire.

CHEOPS est une étape. En étudiant les étoiles les plus brillantes on aura des signaux beaucoup plus nets pour une population relativement importante d’étoiles proches, que ceux recueillis par Kepler. On veut aussi grâce à cette mission sélectionner les meilleures cibles pour les caractérisations futures des exoplanètes de la catégorie concernée. Il faut bien voir en effet l’intégration de tous ces projets d’exploration. Un instrument collecte des données qui après analyse sont utilisées par les autres. Dans le cas de CHEOPS, E-ELT et JWST avec leurs outils spectrométriques reprendront les cibles semblant les plus intéressantes.

Lien vers le site CHEOPS de l’Université de Berne :

http://cheops.unibe.ch/fr/

Le texte de cet article a été soumis pour contrôle au Professeur Willy Benz. Il y a apporté quelques corrections.

Image à la Une : CHEOPS dans son contexte. Crédit Airbus DS.

Image ci-dessous : CHEOPS avec ses panneaux solaires déployés (vue d’artiste), crédit Swiss Space Center, EPFL

Image ci-dessous, CHEOPS, dans sa configuration de lancement avec détails de la localisation des équipements (par rapport à l’illustration ci-dessus, les panneaux solaires sont repliés). Crédit ESA.

La mission Kepler va s’achever après avoir découvert des milliers d’exoplanètes

Tout le monde connaît la mission Kepler de la NASA qui a fait des découvertes sensationnelles d’exoplanètes, par ailleurs parfaitement médiatisées. Comme elle va s’arrêter par la force des choses en 2018 ou début 2019, après dix ans de collecte de données, il est temps de faire le point. Il est de toute façon remarquable de constater les résultats au regard des difficultés surmontées.

La mission a été lancée le 7 mars 2009 et le télescope est devenu opérationnel le 12 mai 2009. C’est la dixième des douze du programme « Discovery » dont le concept fut lancé en 1992 par l’Administrateur de la NASA Daniel S. Goldin, la dernière étant InSIGHT, lancée le 5 mai 2018 vers Mars. La motivation de la création de Discovery était de réaliser de petits projets « plus vite, mieux et moins cher » (« faster, better, cheaper »). Comme pour toutes les missions d’exploration spatiales, le « faster » s’est avéré difficile à appliquer car les ingénieurs et les scientifiques conçoivent des projets dès que les progrès de la connaissance le permettent mais ils ne peuvent ensuite que les faire entrer dans une file d’attente (financement, aménagements techniques et agenda des lancement). Pour Kepler le concept a été présenté dès 1994 sous le nom de « FRESIP » (FRequency of Earth Sized Inner planets). Il est devenu « Képler » en 1996 après plusieurs modifications pour le rendre moins cher (dont la localisation dans l’espace). Il ne fut sélectionné (l’élément « better ») qu’en 2001. A noter que c’est sans doute la découverte en 1995 de la première planète extrasolaire par les astronomes suisses Michel Mayor et Didier Queloz qui renforça l’intérêt du projet aux yeux des décideurs. Pour ce qui est du « cheaper », le budget était de 600 millions de dollars. Comme souvent on a dépassé les 450 millions unitaires théoriques du programme Discovery mais à moins de 1 milliard on reste dans des montants acceptables par rapport au cadre.

Képler a été réalisée et mise en service par le JPL de la NASA avec Ball-Aerospace pour la construction du satellite et Ames Research Center pour les installations au sol et la gestion. Sa durée primaire était de 3ans ½ (donc jusqu’en novembre 2012) ce qui était parfaitement adapté à sa méthode d’observation. Elle a connu pas mal de mésaventures techniques par la suite mais a pu continuer son travail.

L’objet étant essentiellement d’identifier des planètes habitables, il s’agissait (1) de déterminer combien de planètes, de taille équivalente ou supérieure à la Terre, se trouvent à l’intérieur ou à proximité de la zone habitable des étoiles situées dans la profondeur de la zone observée (donc de masses et de types spectraux très variés); (2) de mener cette recherche dans la zone habitable de la Galaxie (GHZ), un anneau autour de son centre, qui contient notre système solaire et dans lequel on estime que la métallicité est suffisamment forte et l’occurrence des supernovæ suffisamment faible, ceci implique que les observations se fassent dans la direction du déplacement du Soleil autour du Centre galactique ; (3) de déterminer les propriétés des étoiles qui abritent des systèmes planétaires.

La méthode d’observation utilisée est celle dite « des transits » qui se fonde sur les baisses de luminosité des étoiles du fait du passage d’une planète du système stellaire visé, entre l’étoile de ce système et nous-même (baisse de luminosité de 0,01% pour une étoile de type solaire lors du passage devant elle d’une planète de la taille de la Terre et de 1% lors du passage d’une planète de type Jupiter). La distance de la zone favorable au point de vue de la température compatible avec une eau liquide (« habitable ») est évaluée en fonction des modèles de radiation stellaire (irradiance).

principe de détection par la méthode du transit

Le champ d’observation de Képler est de 105 degrés carré soit 0,28% de la surface apparente du ciel, soit 12 degrés en diamètre (la taille du poing observé bras tendu), à l’origine (dans la première partie de la mission) perpendiculairement au plan de l’écliptique (vers le Nord) de telle sorte que le soleil ne pénètre jamais dans l’ouverture du télescope. La surface du champ est très supérieure à celui de Hubble (10 minutes d’arc, soit 1/5 de degré) et Hubble n’observe que rarement un champ stellaire en continu alors que c’est le principe même de Kepler pour appliquer la méthode des transits. Sur 500.000 étoiles dans ce champ, 150.000 ont été sélectionnées, pour être observées simultanément en permanence pendant les 3 ½ ans, avec variation de luminosité contrôlée toutes les 30 minutes. Cette « persistance » et cette « continuité » sont nécessaires pour vérifier que les fluctuations de luminosité expriment bien le passage d’une planète, pour ne pas « rater » son retour devant l’étoile et pour vérifier le rayon de son orbite en supposant que la planète est de type terrestre autour d’une étoile de type solaire et orbite dans sa zone habitable. Pour assurer le moins de perturbations possibles et lui offrir un maximum de visibilité, on a placé Képler sur l’orbite de la Terre, dans son sillage, avec une vitesse un peu inférieure (parcours de l’orbite en 372,5 jours). On avait envisagé auparavant une localisation au point de Lagrange L2 dans l’ombre de la Terre et l’observatoire aurait pu donc fonctionner sans pare-soleil mais cela aurait impliqué une consommation supérieure d’énergie (panneaux solaires inutilisables). Ce choix s’est effectivement avéré important (positivement et négativement) après la mission primaire.  La distance des étoiles étudiées se situe entre 600 années-lumière (dans cette zone du ciel moins de 1% se trouve à moins de 600 al) et 3000 al car au-delà l’observation d’une planète de la taille de la Terre n’aurait pas été possible. Képler se comporte en quelque sorte comme un phare inversé, collectant plutôt qu’émettant la lumière dans une sorte de très long pinceau. A noter que cette approche est très différente de celle de TESS (lancé le 18 avril 2018) qui recherche les planètes à moins de 300 a.l. et sur la totalité de la surface du ciel mais qui aussi peut voir des fluctuations dans la lumière d’étoiles 30 à 100 fois plus brillantes que celles vues par Képler (donc beaucoup plus d’étoiles proches de type solaire).

Orientation de Kepler pendant la mission primaire, lorsque ses trois roues de réaction fonctionnaient (crédit NASA/ Lab for Atmospheric and Space Physics, Colorado). Vous remarquerez que l’objectif est tourné vers le Nord de l’écliptique (qui est inclinée par rapport au plan galactique vers la direction de déplacement du soleil)

Techniquement le miroir primaire de Képler est de 1,4 mètre de diamètre et l’ouverture de l’objectif de 95 cm. La précision de ses caméras à capteurs utilisant des CCD était théoriquement d’une sensibilité de 20 ppm mais elle s’avéra être de 29 ppm or le signal d’une planète de type terrestre passant devant une étoile de type solaire de magnitude 12 est de 80 ppm. Cette sensibilité moins bonne que prévu nécessite davantage de transits (pour confirmer l’observation) et a fait dès le début envisager une prolongation de mission au-delà des 3½ ans prévus. Le télescope est refroidi à l’azote liquide pour limiter le « bruit thermique ». L’énergie du télescope est fournie par des panneaux solaires de 10,2 m2 délivrant une puissance de 1100 watts et l’observatoire disposait au départ de 11,7 kg d’hydrazine pour son contrôle d’attitude. Son orientation fixe était stabilisée sur 3 axes avec quatre roues de réaction (dont une de « secours »).

Tout s’est bien passé pendant la mission primaire mais l’observatoire a souffert de la panne d’une première roue de réaction en juillet 2012 et d’une deuxième en mai 2013. En août on dut conclure qu’on ne pouvait le réparer ; le pointage fin et stable d’origine n’était plus possible. En novembre 2013 une solution fut trouvée et on entra dans la phase « K2 » (« second light »). On avait constaté que les photons du Soleil pouvaient maintenir la stabilité du télescope pourvu qu’il soit parallèle / horizontal et non plus vertical par rapport au plan orbital (et en utilisant les deux roues de réaction restantes) mais, pour éviter que la lumière solaire pénètre dans l’ouverture du télescope resté pointé sur une cible fixe (toujours pour le transit !), l’orientation devait être modifiée tous les 83,5 jours. La lumière d’une même cible ne pouvait donc être recueillie aussi longtemps que pendant la période primaire.

Schéma d’explication de K2 (Kepler second light), crédit NASA Ames/W Stenzel. Vous voyez l’équilibrage de l’observatoire par les photons du soleil et le changement de position périodique sur l’orbite héliocentrique. L’observatoire est désormais couché sur son orbite.

Depuis janvier 2014 le télescope spatial fonctionne donc en mode dégradé. L’observation de 3 transits consécutifs dans ce contexte ne permet d’identifier que les planètes ayant une période orbitale très courte (moins de trente jours !) ou de confirmer des observations précédentes. En mars 2018 les responsables de la mission ont estimé que l’hydrazine utilisée par de petits propulseurs et nécessaire pour stabiliser le télescope était en voie d’épuisement. Toutefois faute d’une jauge dans les réservoirs il est difficile d’évaluer la date de fin de la mission. Celle-ci pourrait intervenir courant 2018 ou au plus tard en 2019.

Képler a cependant bien « travaillé ». En Mai 2018, il avait identifié plus de 2619 exoplanètes (soit 2327 dans le cadre de la mission Képler et 292 dans le cadre de la mission K2) dont 30 planètes de moins de deux fois la taille de la Terre et en zone habitable, sur un total de 3726 exoplanètes identifiées par toutes les méthodes d’observation (dont 2935 identifiées par la méthode des transits). 2244 + 480 autres signaux sont à l’étude (« candidats » pour être reconnus comme émanant de planètes). Ce beau résultat doit cependant être affecté de “bémols”. La méthode des transits n’a permis pendant la période K2 que d’ajouter des planètes très proches de leur étoile, donc en ce qui concerne les planètes « habitables », que celles qui orbitent autour de naines rouges, par nature hostiles à la vie. Par ailleurs pendant les deux missions la sensibilité a exclu les forts contrastes et privilégié encore les naines rouges. Enfin la profondeur du champ n’a été vraiment favorable pour l’observation des planètes de type terrestre que pour les étoiles proches et non jusqu’au 3000 années-lumière théoriques (plus on s’éloigne, plus les différentiels de lumière sont difficiles à observer).

Képler a été un précurseur, ce premier travail doit être poursuivi par TESS, par CHEOPS et, espérons-le, par WFIRST. Il convient à cette occasion de noter l’importance de l’interaction des instruments en astronomie. Pour confirmer que l’effet d’atténuation de la luminosité de l’étoile est bien dû à une planète, l’observation est répétée en utilisant les autres moyens (télescopes) existants : imagerie (avec coronographe, pour les planètes proches du Soleil et éloignées de leur étoile), astrométrie (pour les planètes massives, Gaïa), vitesse radiale (planètes massives proches de leur étoile, HARPS, spectromètre ELODIE, sur télescope Alpes de Hte Provence utilisé par Queloz et Mayor ), lentille gravitationnelle (WFIRST). Notre époque informatisée et mondialisée, avec télécommunications ultra-rapides facilite ces coopérations qui sont accélératrices de progrès.

image à la Une: les découvertes de Kepler (points jaunes). Les autres sources sont en bleu, clair ou foncé. Crédit NASA. Vous remarquerez que les planètes Kepler ont des périodes orbitales (“années”) très courtes (>90% moins de 100 jours) ce qui est dû au biais observationnel de la méthode de transit (il faut par définition un multiple de cent jours pour confirmer une planète dont l’année dure cent jours). Les grosses planètes (taille de Jupiter) ont été observée par d’autres méthodes (surtout “vitesse radiale”).

NB: le texte a été soumis pour contrôle à Claire Saravia, responsable de la communication pour Kepler, au Goddard Space Flight Center de la NASA.

Gaia nous fait faire un bon fantastique dans la cartographie du ciel

Le 25 avril, l’ESA a publié son deuxième catalogue d’objets célestes repérés par l’observatoire spatial Gaia (« DR2 »*). Pour un secteur significatif de notre galaxie c’est un peu comme si nous passions d’une carte du début du 18ème siècle à une carte Google. Il faut bien voir que dans les années 1960** les astronomes ne pouvaient donner les distances à moins de 10% d’erreur que pour quelques 350 étoiles. Aujourd’hui, grâce à Gaia, on a cette précision pour 70 millions d’étoiles et ce n’est qu’un des progrès apportés par ce merveilleux observatoire spatial.

*Data Release 2; **General Catalogue of Trigonometric Stellar Parallaxes, Jenkins 1963.

Tout a commencé en 1993 quand Lennart Lindegren (Université de Lund, Suède) et Michael Perryman (ESA/University College Dublin) ont voulu donner une suite à l’observatoire spatial Hipparcos en orbite depuis 1989 et qui arrivait cette année-là en fin de mission. Il avait relevé par astrométrie la position de 118.000 étoiles proches avec une précision de 0,001 secondes d’arc (cent fois mieux que précédemment) et de 2,54 millions d’étoiles jusqu’à la magnitude-apparente 11* avec une précision de 20 millisecondes d’arc. Leur projet, la mission GAIA (à l’origine « Global Astrometric Interferometer for Astrophysics »), était beaucoup plus ambitieux. Il s’agissait de dresser une carte en trois dimensions de notre environnement sur une population d’étoiles appartenant à une gamme de luminosité beaucoup plus étendue, allant jusqu’à la magnitude-apparente 20 donc couvrant une population stellaire de la Galaxie beaucoup plus importante (1% de ses quelques 200 milliards d’étoiles).

*L’échelle des magnitudes va de -26,7 pour le Soleil à 6,5 pour les astres discernables à l’œil nu et 30 pour les astres les plus éloignés. Hipparcos a identifié 99% des étoiles allant jusqu’à 11.

Gaia comme tout projet d’exploration spatiale a connu des vicissitudes. Il a été modifié en cours de conception pour des raisons budgétaire et d’évolution technologique (notamment abandon de l’interférométrie…sans que son beau nom soit changé). Sur recommandation du « SSAC » (Comité du conseil scientifique spatial) de l’ESA, il a finalement été sélectionné en 2000 par le « SPC » (Science Program Committee) composé des représentants des Etats membres (qui financent !) comme « pierre angulaire » n°6 de son programme « Horizon 2000+ ». Il a été ensuite construit par EADS Astrium* (aujourd’hui une composante d’Airbus Defense and Space) pour un budget de 740 millions d’euros, lancé en décembre 2013 et est devenu opérationnel en mai 2014. Juillet 2014 est la date de départ de sa mission scientifique de 5 ans, prolongée déjà d’une année, jusqu’en 2020, mais avec suffisamment de consommables pour fonctionner 9 ans. Deux publications de données ont été faites (en 2016, DR1 et en 2018, DR2) ; deux autres doivent avoir lieu (en 2020 et 2022). Ces données sont mises à la disposition des chercheurs du monde entier qui les exploitent pour en tirer une meilleure compréhension de notre environnement et de notre Galaxie.

*avec Mersen Boostec (France) pour la structure du télescope et E2v (Grande Bretagne) pour la fourniture des CCD (« Charge Coupled Devices », dispositifs à transfert de charges, utilisés pour lire les signaux lumineux, comme dans les appareils photos digitaux).

En tant que satellite, Gaia a plusieurs particularités qui lui permettent d’être le moins perturbé possible par son environnement, il le faut pour la précision recherchée des mesures. Il devait d’abord être extrêmement rigide et léger et cela a déterminé le choix de la matière qui constitue sa structure ou ses miroirs (carbure de silicium). Il évolue dans un environnement à l’écart de tout trouble qui pourrait résulter du voisinage de la Terre (lumineux, thermique, radiatif), autour du point de Lagrange « L2 », en opposition au Soleil par rapport à nous, à 1,5 million de km. Son orbite de 380.000 km autour de L2, parcourue en 6 mois, est exposée au Soleil en permanence, selon un éclairage constant. Son bouclier thermique de 10 mètres de diamètre constitue son pare-soleil.  Il est partiellement revêtu de panneaux solaires fournissant une puissance de 2 kW. L’objectif de ses télescopes est donc en permanence protégé de la lumière solaire et sa température est stable.

Gaia a embarqué plusieurs instruments qui lui donnent toutes les capacités nécessaires pour la détermination de la position, de la distance, du mouvement et autres caractéristiques (spectre lumineux) de tous les objets célestes dont il reçoit la lumière. Ces objets sont essentiellement des étoiles mais pas uniquement ; dans le système solaire, des astéroïdes ou des comètes ; en dehors de notre système, de grosses planètes de la taille de Jupiter (distinguables directement par astrométrie) et dans l’espace profond, bien au-delà de la Voie Lactée, d’autres objets très lumineux (quasars).

La lumière est collectée par deux télescopes rectangulaires de 1,45 m sur 0,50 m avec un écart entre leur ligne de visée de 106,5 degrés. La mesure précise des positions relatives d’objets observés simultanément dans deux directions séparées par un angle obtus, permet d’éviter les erreurs qui pourraient résulter de références trop proches. Les mouvements de l’observatoire sont complexes : Il effectue une rotation sur lui-même en 6 heures (1 degré d’angle par minute de temps) ce qui permet qu’une observation effectuée par le premier télescope soit répétée par le second 106 minutes et 30 secondes plus tard. De plus l’axe de rotation de l’observatoire est incliné de 45° par rapport à la direction du Soleil et il décrit un cercle de précession en 63,12 jours autour de cette direction. La combinaison des mouvements du satellite avec la rotation du point L2 autour du Soleil permet de couvrir la totalité de la voûte céleste. Finalement chaque objet sera vu au minimum 60 fois sur les 5 ans.

Les signaux lumineux reçus par chacun des télescopes forment des images se superposant sur un plan focal commun de 100 cm composé de 106 capteurs CCD de 4500 X 1966 pixels, soit un total de 1 giga-pixels, organisés en 16 colonnes. Trois traitements sont donnés à ces signaux grâce à un jeu de 6 miroirs, un réseau de diffraction, deux prismes et différents types de CCD.

Le traitement par un instrument astrométrique (« Astrometric Field ») comme celui d’Hipparcos mais beaucoup plus performant (capacité de discernement encore 100 fois supérieure), donne la localisation de l’objet. Il s’agit de sa position sur la sphère céleste c’est-à-dire de son « ascension droite » (équivalent de la longitude) et de sa « déclinaison » (équivalent de la latitude). A cela s’ajoute la distance donnée par la parallaxe (angle entre deux visées à partir des points extrêmes de l’orbite d’observation) et le « mouvement propre » (déplacement apparent) des astres les plus proches. La localisation de l’observatoire dans l’espace, sans aucune perturbation, et la puissance des télescopes ainsi que la capacité des capteurs CCD donne en fin de mission une précision de 24 micro-arcs-seconde (µas) pour des sources de magnitude-apparente 15 (et jusqu’à 7 µas pour les étoiles proches).

Le traitement par les instruments spectrophotométriques couplant un prisme pour la lumière bleue, « BP » (pour « Blue Photometer ») dans les longueurs d’onde allant de 330 à 680 nm et un prisme pour la lumière rouge (RP) allant de 640 à 1050 nm, donne pour chaque objet un spectre qui permet de mesurer l’intensité lumineuse, la température, la gravité, l’âge et la composition chimique.

La dispersion de la lumière par un spectromètre, « RVS » (pour « Radial Velocity Spectrometer »), utilisant l’effet Doppler-Fizeau, permet de mesurer la vitesse radiale (éloignement ou rapprochement en profondeur, dans l’axe de visée) des 150 millions d’objets les plus lumineux et donc, conjuguée avec l’astrométrie, permet de connaître la dynamique de la galaxie.

Les résultats sont spectaculaires. La DR1 (observations de 14 mois allant du 25 juillet 2014 jusqu’en Septembre 2015) donnait la position de 1,1 milliards d’objets, la DR2 publiée le 25 avril 2018 pour des observations allant du 25 juillet 2014 au 23 mai 2016, de 1,7 milliards d’objets. Cela représente des dizaines de milliards de données et encore les deux premières colonnes de CCD constituent pour chaque télescope un « Sky Mapper » (« SM »), sélecteur qui permet d’effectuer une détection des sources lumineuses avant transmission aux autres cellules CCD. Ces chiffres espérés mais énormes impliquent une difficulté évidente, celle du traitement des données. Quelques 100 téraoctets sont attendus. Un consortium de laboratoires, le « DPAC » (« Data Processing and Analysis Consortium »), véritable « quatrième instrument » (comme dit François Mignard, responsable Gaia pour la France), a développé des programmes très complexes pour les traiter avec des moyens informatiques très importants. Avec la publication de la DR1 puis de la DR2 on peut constater qu’il a pu faire face.

J’entends des esprits chagrins me dirent « A quoi ça sert ? ». Je réponds « A savoir où nous sommes et où nous allons par rapport à ces étoiles qui nous entourent ». La connaissance du cadre sur un plan dynamique nous permettra forcément de mieux comprendre les relations que nous soupçonnons entre les éléments qui composent notre Univers proche et à en faire apparaître de nouvelles. Certains continueront à s’en moquer mais pour moi, le progrès dans la connaissance de l’Univers est littéralement essentiel et l’ingéniosité des solutions comme Gaia trouvées pour l’obtenir, source d’une grande satisfaction esthétique, égale à la contemplation de nos plus belles œuvres d’art.

Image à la Une: champ d’exploration de Gaia, crédit Lund Observatory.

NB : Ce texte a été revu et corrigé par le Professeur François Mignard, responsable du SNO (Service National d’Observation) au sein de l’OSU (Observatoire des Sciences de l’Univers) du CNRS pour la participation française au DPAC.

lien: https://gaia-mission.cnes.fr/fr

lmage ci-dessous: estimation des sources lumineuses repérées dans le catalogue DR2 publié le 25 avril 2018

La NASA confirme le caractère saisonnier du cycle du méthane dans l’atmosphère de Mars

La NASA a tenu ce 7 juin une conférence de presse pour faire le point de ses recherches martiennes à l’aide du laboratoire SAM (Sample At Mars) du rover Curiosity et en introduction à deux articles scientifiques qui doivent paraître dans la revue Science du 8 juin.

Disons tout de suite que rien de sensationnel n’a été annoncé mais qu’on progresse quand même, comme le disent les représentants de la NASA, en confirmant des pistes déjà ouvertes et en solidifiant ainsi les bases de nos futures missions. L’essentiel est que l’existence d’un cycle saisonnier du méthane (voir mon article sur ce blog le 17 avril) ainsi que la relative abondance des molécules organiques ont été confirmées.

Le cycle du méthane c’est l’augmentation très nette de la teneur en méthane de l’atmosphère, jusqu’à 0,6 / 0,7 ppbv (parties par milliard en volume) quand la température moyenne remonte à la fin de l’été boréal, et sa diminution jusqu’à de très bas niveaux (0,2 ppbv) à la fin de l’automne*. La cause de cette présence et de ce cycle n’est toujours pas connue mais on exclut l’effet des intrusions météoritiques dans l’atmosphère ou les impacts de glace cométaire au sol de la planète, ou encore l’effet des radiations UV solaires, du fait que les pourcentages qu’ils représenteraient ne pourraient expliquer les volumes du phénomène et surtout sa saisonnalité. Par ailleurs l’effet de la baisse de pression atmosphérique due au grand froid de l’hiver austral qui solidifie une partie du gaz carbonique de l’atmosphère globale ne serait pas non plus suffisant. Les clathrates dans le sous-sol immédiat (sensible aux variations de température) restent une forte possibilité (la vie, on verra plus tard mais si elle existe sur Mars, elle est extrêmement discrète!). Le fait nouveau c’est que les cycles ont bien été confirmés après trois ans (martiens) d’observations de Curiosity (SAM, laser TLS). On attend maintenant les observations de l’orbiter TGO (de l’ESA) devenu opérationnel en avril. Il devrait pouvoir identifier les sources de méthane (par constatation de la concentration géographique du gaz dans l’atmosphère) ce qui permettrait ensuite d’étudier plus finement l’endroit et donc de rechercher avec moins de difficultés la cause des émissions.

*En dehors de ce cycle de “fond” on a enregistré quelques “pics” spectaculaires, pour Mars, par exemple 7 ppbv dans le cratère Gale peu après l’arrivée de Curiosity (mais ils surviennent également pendant la saison chaude). Ce n’est évidemment rien par rapport aux 1800 ppbv enregistrés en moyenne sur Terre.

En ce qui concerne les molécules organiques, rien de bien nouveau non plus mais on constate la présence de thiophène (molécule organique contenant du soufre, C4H4S) ainsi que de benzène ou de toluène, et de petites chaines carbonées telles que propane ou butène. Cela fait penser entre autres possibilités à des fragments de matières kérogènes (le soufre étant nécessaire à l’architecture de ces molécules complexes). Une matière kérogène ne résulte pas forcément de la vie mais c’est une forte possibilité, du fait qu’elle contient les éléments chimiques utilisés par la vie (C,H,O,N,S,P)*. Les quantités de ces molécules organiques (de l’ordre de 10 ppm) sont comparables à celles que l’on trouve dans les météorites martiennes identifiées sur Terre. On attend maintenant les examens à températures plus douces car jusqu’à présent on n’a pas utilisé neuf coupelles de liquide réactif embarquées dans SAM et tous les examens résultent de l’observation des molécules après chauffage à haute température (qui permettent de bien identifier les composants mais qui brisent les assemblages et causent certaines réactions parasites). L’attente est sans doute due à ce que le foret de Curiosity n’a pas fonctionné pendant 18 mois et qu’il n’est redevenu opérationnel que cette semaine (mais on pourrait dire également qu’on a voulu utiliser ces capsules à bon escient et après avoir bien observé les composants des différents échantillons prélevés par les autres moyens plus « rudes »). Egalement il est observé que les prélèvements ont été faits dans une couche très superficielle du sol (le foret de Curiosity ne pénètre pas au-delà d’une profondeur de 5 cm) très exposée aux radiations donc à la destruction de ces molécules organiques.

*il est aussi possible (pour rejoindre mon article précédent) que cette matière kérogène ne traduise pas le fonctionnement de la vie mais celui d’une “pré-vie”, d’une étape du processus prébiotique allant vers la vie. La vie n’est en effet pas apparue en dehors d’un environnement qui l’a préparée et qui a permis aux premières cellules vivantes de “s’approvisionner en matières premières”.

On est donc satisfait d’avoir constaté une grande abondance de molécules organiques et la présence d’éléments chimiques indispensables à la vie mais on attend maintenant les missions ExoMars (à noter le fairplay de la NASA) et Mars 2020. On peut donc dire que la NASA nous a fait un discours d’étape, satisfaisant et encourageant en attendant mieux. La recherche de la vie reste clairement au premier plan de ses préoccupations mais la plus grande prudence reste de mise, ce qui est bien normal.

Image à la Une: le cycle du méthane sur Mars constaté par le rover Curiosity (laboratoire embarqué Sample At Mars) après trois années (martiennes) d’observations. Crédit NASA/JPL-CalTech.

Image ci-dessous, Le rover Curiosity de la NASA a découvert dans des sédiments très anciens, des molécules organiques qui pourraient appartenir à des fragments de matière kérogène (que l’on associe naturellement à un processus biotique). Crédit : NASA/GSFC

lien vers le communiqué de presse de la NASA:

https://www.nasa.gov/press-release/nasa-finds-ancient-organic-material-mysterious-methane-on-mars

NB: Le Professeur Michel Cabane (LATMOS, IPSL, Uni. Pierre et Marie Curie), responsable scientifique du chromatographe en phase gazeuse, partie du laboratoire SAM, qui a fait les observations du méthane et de ces molécules organiques, sera l’un des intervenants au congrès EMC18 organisé pour les 26 au 28 Octobre prochains à la Chaux-de-Fonds. Inscrivez vous!

A la recherche des traces d’une première étincelle de Vie

Il y a quelques années, je considérais la Vie comme « un processus de transformation de la matière par des organismes puisant leur énergie et leurs éléments constituants dans leur environnement, pour se reproduire presque à l’identique mais pas tout à fait ce qui leur permet de s’adapter aux conditions extérieures et donc d’évoluer ». Cela recouvre effectivement un très large aspect du phénomène tel que décrit par les biologistes comme Nick Lane, mais il y manque un « petit quelque chose ».

Je pensais bien en incluant le mot « processus » qu’il fallait exprimer une dynamique mais c’était un peu insuffisant et je réalise aujourd’hui, après la lecture de « L’ordre étrange des choses » d’Antonio Damasio, qu’au-delà du lancement du processus, il faut évoquer sa perpétuation inhérente à sa constitution, on pourrait dire son « anima » et qu’il faut donc qualifier le processus d’« homéostasique ».

Cet enrichissement de la définition fait progresser la réflexion mais ne permet cependant toujours pas de comprendre comment s’est produit le saut entre l’inanimé et le vivant ; il complique même plutôt la compréhension du passage que l’on peut toujours voir comme l’aboutissement de la réunion des éléments concourants à la vie mais qui n’explique pas comment s’est fait l’aboutissement, c’est à dire l’animation. Comme souvent en science, cette évolution des données force à se poser la question un peu différemment. Voici donc ce qu’on peut dire aujourd’hui :

Il n’est pas possible d’envisager une volonté aux organismes procaryotiques les plus primitifs à l’origine du processus (bactéries ou archées), dénués de cerveau et même de système nerveux, et cependant il faut bien convenir qu’ils réagissent aux stimuli extérieurs, à la pression, à la température, à l’acidité, à la présence d’éléments pour renouveler leur matière propre et leur énergie et à la présence des organismes concurrents ou semblables. Ces perceptions et réactions aux stimuli extérieurs sont certes physiques ou chimiques, non nerveuses, mais elles « sont », on peut les constater. Nous en avons d’ailleurs nous-mêmes, être évolués dotés d’un système nerveux, conservé le principe pour certaines de nos « émotions ».

Plus extraordinaire, ces organismes primitifs se comportent, sous la pulsion de l’homéostasie, comme s’ils voulaient étendre leur contrôle sur leur environnement temporel futur ainsi que sur leur environnement spatial en se reproduisant avec l’objectif d’obtenir un mieux-être pour eux-mêmes et un avantage collectif sur leurs concurrents. Cette projection spatiale et temporelle « remet à neuf » à chaque génération le processus dans un contexte éventuellement légèrement différent auquel ils peuvent s’adapter selon les principes darwiniens. Elle donne au processus une sorte de « quatrième dimension » mais au-delà de la réunion d’éléments matériels essentiels à la fonction, les questions posées sont de savoir comment les éléments prébiotiques réunis dans une cellule ont pu l’animer et, pour commencer, comment ils ont pu se trouver réunis dans une cellule.

Ces organismes procaryotiques sont apparus sur Terre, tout « armés » il y a quelques 3,8 milliards d’années. Les circonstances environnementales sur Terre devaient être tout à fait particulières pour permettre de passer de l’inanimé au vivant. Tellement particulières qu’il n’y a qu’une seule souche de la Vie, notre « Last Universal Common Ancestor » (« LUCA ») qui ait eu une descendance. Pour comprendre « l’allumage » du processus et l’introduction de l’homéostasie, il nous faudrait donc remonter à cette époque, pour observer les molécules complexes qui assemblées et fonctionnant ensemble donneront la Vie, avant que le déclic se fasse, juste avant l’assemblage. Il nous faudrait remonter à une époque très ancienne, vers 4,2 à 3,8 milliards d’années, lorsque la température en surface de la Terre, constituée il y a 4,56 milliards d’années, était tombée à des niveaux acceptables, que la roche était devenue solide et l’eau liquide, en quelque sorte après que les éléments se soient séparés, et observer l’évolution dans le réacteur biotique planétaire. Il nous faudrait observer les premières cellules se former à partir de phospholipides, les premiers acides nucléiques, les premiers brins d’ARN, les premières protéines, les premières enzymes, les premières molécules d’ATP, cette monnaie énergétique qu’emploient tous les êtres vivants depuis l’aube des temps…

Il faut imaginer un milieu liquide très particulier (à l’intérieur et autour de cheminées géothermales, dans des flaques autour de sources chaudes, dans une zone particulière de balancement des marées découvrant puis recouvrant des sources chaudes ?) non seulement au point de vue température, pH, pression, richesse minérale et richesse organique mais aussi avec une profusion de molécules prébiotiques de plus en plus complexes en suspension et en contact possible. Il faut imaginer dans ce milieu un très long processus au travers de dizaines de millions d’années avec sans doute en même temps une lente évolution du milieu favorable au processus de complexification et d’enrichissement, d’inventions d’assemblages et d’échecs et un jour, dans ce milieu très riche et relativement homogène, la formation d’une cellule, un intérieur avec un extérieur, et à l’intérieur, «un autre jour », des éléments de la première vie ; d’abord quelques éléments, puis de plus en plus de ces éléments et en fin de compte tous les composants nécessaires à la perpétuation et la reproduction animées réunis ensemble par le « désir » de se préserver, de fonctionner ensemble et de continuer à prospérer.

Le temps a passé. Sur Terre, l’érosion a fait son œuvre, le rouleau compresseur de la tectonique des plaques a (presque) tout broyé, tout recomposé, tout transformé, tout métamorphisé dans la pression et la chaleur intenses du manteau de la planète, l’eau a coulé et a hydraté (presque) toute roche qui n’avait pas été reconditionnée par la tectonique des plaques, la Vie, merveilleuse machine à recycler, a réutilisé toutes les matières organiques qu’elle a pu trouver jusque dans les endroits les plus inaccessibles.

Trouverons nous jamais la clé de notre Début sur les quelques petits hectares de la surface terrestre sur lesquels subsistent ces traces très anciennes ?

Mars pourrait peut-être nous offrir cette clé moins difficilement puisque les conditions environnementales étaient très semblables à l’origine sur les deux planètes et que c’est précisément à l’époque où la vie a commencé sur Terre que l’évolution s’y est pratiquement arrêtée. C’est cela notre chance, disposer à une distance atteignable par nos fusées d’une planète assez évoluée mais « arrêtée sur image », sur laquelle ni la tectonique des plaques, ni l’érosion n’ont fonctionné pour détruire l’image. Il faudrait que l’image se soit arrêtée juste avant la vie, juste avant que la vie ait gâché l’image de la naissance de la vie. Est-ce possible ? Le temps n’a-t-il pas fait son œuvre d’une autre manière pour faire disparaître ces délicats vestiges ? Quid de l’effet des radiations solaires et galactiques sur les molécules organiques ? Quid du lent mais infiniment long passage du temps ? Les embryons de vie ont pu subsister enfouis mais au contact d’éléments chimiques qui sur une si longue durée les ont corrompus. Pourrons nous interpréter les restes chimiques d’un premier enrichissement biotique en dépit de ces corruptions ? Nos géologues et taphonomistes seront-ils assez perspicaces et inventifs pour discerner puis interpréter correctement les traces ?

A l’aube des temps historiques, Gilgamesh est parti de son royaume d’Ourouk (en Basse-Mésopotamie) pour aller jusque dans les montagnes de l’Ourartou (actuelle Arménie) rechercher l’herbe de vie. Aujourd’hui dans un contexte transformé par l’histoire et le progrès technologique nous partons vers Mars avec le même espoir, celui de trouver non pas une herbe mais une explication (nous avons évolué !). Gilgamesh a trouvé l’herbe de vie mais le Serpent l’a volée. Il nous suffirait de trouver parmi toutes les roches martiennes très anciennes (des dizaines de millions de km2), un seul morceau de boue fertile fossilisée, de l’analyser et de la comprendre. Mais aura-t-elle supporté le passage du temps ou ce dernier nous volera-t-il l’explication ardemment désirée ?

Image à la Une: Les plaques que l’on voit et notamment la “grille” de petits polygones ( de 1 à 2 cm) en  surface de la roche sur la droite de cette mosaïque de photos de la caméra Mastcam de Curiosity prises dans le cratère Gale (“Squidd Cove” dans “Murray formation”), doivent résulter de craquelures dans de la boue déposée au fond d’un lac et ayant subi ensuite un processus de dessiccation. Elles datent de plus de 3 milliards d’années. C’est peut-être moins ancien que ce dont nous aurions besoin pour nos recherches pré-biotiques mais nous pourrons trouver facilement des roches hydratées de 4,2 à 3,8 milliards d’années en d’autres endroits de la planète. Cette période (le “Phyllosien” de Jean-Pierre Bibring) était la plus humide de Mars et les traces vues de loin datant de cette période sont très nombreuses. Maintenant Mars peut avoir évolué différemment de la Terre et des roches martiennes de 3 milliards d’années pourraient aussi nous apporter des informations prébiotiques. Crédit NASA/JPL-Caltech/MSSS, 17 janvier 2017. 

Lectures:

“L’ordre étrange des choses”, par Antonio Damasio, Professeur de neuro-sciences, de neurologie, de psychologie et de philosophie à l’Uni. de Californie, Los Angeles; chez Odile Jacob, 2018.

“The vital question”, par Nick Lane, Professeur de Biochimie dans le département de “Genetics, Evolution and Environment” de l’University College, Londres; chez Profile Books, 2015.

“Life: past, present and future”, par Kenneth H. Nealson and Pamela G. Conrad, publié par The Royal Society en 1999.

“Mars Planète Bleue”, par Jean-Pierre Bibring, astrophysicien à l’Institut d’Astrophysique Spatiale de Paris, chez Odile Jacob, 2009.

“L’unique Terre habitée?” par André Maeder, astrophysicien à l’Université de Genève, éditions Favre, 2012.

EMC18: Ce problème comme d’autres passionnants portant sur le voyage, l’installation de l’homme sur Mars, le Temps, sont au programme de notre congrès EMC18, du 26 au 28 octobre à La Chaux-de-Fonds. Vous pouvez d’ores et déjà vous y inscrire.