O. Perdereau / C. Renault
Les mesures des bolomètres de HFI consistent en une combinaison, dans des proportions qui dépendent de la direction d’observation et de la fréquence du bolomètre, du rayonnement fossile et des émissions des sources en avant-plan de celui-ci : amas de galaxies, émissions Galactiques (provenant des poussières ou des électrons) et d'objets du système Solaire (planètes, astéroïdes, poussières – encore !). A ces composantes astrophysiques s'ajoutent des perturbations instrumentales dont il faut s'affranchir au mieux : les effets des rayons cosmiques et les variations lentes de la température de l’instrument par exemple.
L'analyse des données consiste en une suite de traitements informatiques qui, progressivement, vont faire le tri entre le signal astrophysique et ces perturbations, puis dans le signal astrophysique entre ses différentes composantes.
Rappelons d'abord les caractéristiques des signaux astrophysiques qu'on veut reconstruire. Pour le rayonnement fossile, il s'agit d’être capable de reconstruire des variations de son intensité à mieux qu'une partie sur 100 000 (en relatif). Ces variations doivent pouvoir être mesurées jusqu'à des directions séparées de moins 0.1 degrés sur le ciel, et ce sur tout le ciel. Cela impose aux détecteurs mais aussi aux méthodes d'analyse d'être très précis et stables.
Les émissions d'avant-plan, en particulier la Galaxie et les planètes, présentent une gamme dynamique (différence entre leurs maxima et minima) de plusieurs ordres de grandeur, et varient parfois très rapidement sur le ciel. Les fluctuations du rayonnement fossile varient plus lentement sur le ciel mais ont des amplitudes inférieures au bruit de la mesure - même pour les détecteurs de l’instrument HFI.
On veut construire les cartes du ciel dans les 6 “couleurs” observées par l’instrument HFI. Ce dossier illustre les divers étapes indispensables pour l’obtention de ces cartes.
Ensuite on combine ces cartes à celles issues des mesures de l’instrument basse fréquence LFI. On cherche alors à reconstruire la carte de chaque source (rayonnement fossile, composantes de la Voie Lactée, autres galaxies ...) dans le domaine millimétrique, chacune ayant une contribution différente dans les cartes par “couleurs" (La séparation des sources).
HFI observe le ciel à travers un télescope qui orbite autour du point de Lagrange L2. Le satellite décrit sur le ciel un grand cercle par minute. Chaque cercle est décrit plusieurs fois (environ 50 fois) de manière presque identique, avant que l'axe de rotation soit légèrement déplacé (de 1/30ème de degré) afin de suivre le mouvement de la Terre autour du Soleil. La température enregistrée par les bolomètres suit en permanence les signaux du ciel. On mesure ces variations en les transformant en un signal électrique. La tension du signal (en volts, donc) est numérisée et enregistrée 180 fois par seconde environ (Actualité 10 milliards de mesures).
Le centre de traitement des données de HFI reçoit donc une série de nombres pour chaque bolomètre (dans un format dit comprimé afin de pouvoir transmettre sur Terre, en quelques heures, l'ensemble des mesures des instruments de la journée écoulée).
Par exemple pour combiner les différentes observations effectuées dans la même direction du ciel à des instants différents de manière efficace, il faut pouvoir soit y accéder rapidement, soit en disposer dans la mémoire vive de nos calculateurs. Or ces données constituent quelque centaines de Go.
De ce fait, nous avons recours à des calculateurs spécialisés, dit “massivement parallèles” où de grandes quantités de données peuvent être échangées très rapidement entre processeurs, et équipés de systèmes de disques de stockage permettant à plusieurs processeurs l'accès simultané aux mêmes données sans perte de temps. Sans ces capacités, analyser les données de l’instrument HFI prendrait des dizaines d’années...
Notre centre d'analyse principal est la machine Magique III, située à Paris mais nous en utilisons aussi d'autres comme celles du centre de calcul de Lyon (principalement dédié à la physique des particules, mais Planck a une place aux cotés des expériences du LHC !) et des super-calculateurs aux Etats-Unis et en Grande Bretagne. Avoir plusieurs centres d’analyse des données est très utile : cela contribue à la “sécurité” des données - ils ne peuvent pas tous subir une catastrophe majeure en même temps, cela permet un accès plus rapide aux machines - Planck est une collaboration mondiale, et on peut choisir aussi la machine optimale en fonction de la tache à réaliser - optimiser la fabrication des cartes ou le calcul des paramètres cosmologiques demandent des performances informatiques différentes.
L'organisation du traitement des données peut schématiquement être scindée en trois étapes - les deux dernières sont présentées un peu plus en détail dans la suite de cet article :
Voici à quoi ressemble un peu plus de 3 minutes de données - environ 30 000 mesures, pour un détecteur à 143 GHz (en haut), un détecteur à 545 GHz (au milieu) et un détecteur “aveugle” (en bas) :
Ces parasites sont malheureusement très nombreux, mais on est sauvé par une différence fondamentale entre le signal astrophysique et ces signaux produits par les particules cosmiques : le premier dépend de la direction d’observation, les autres arrivent aléatoirement. Comme on observe un même cercle sur le ciel environ 50 fois de suite, on peut “facilement” éliminer les parasites.
Plusieurs effets restent encore à traiter, et il faut patiemment, l’un après l’autre, les isoler et les prendre en compte. Deux effets importants et faciles à comprendre sont décrits ici.
Les effets thermiques
Un bolomètre voit le ciel mais aussi le rayonnement thermique des réflecteurs, des cornets et des filtres (Page l’architecture optique). Si cette émission d’origine instrumentale était parfaitement constante, elle ne serait pas gênante - à condition de rester à un niveau très faible, ce qui est assuré par l’architecture cryogénique (Page l’architecture cryogénique).
Mais ce n’est pas complètement vrai : la distance au Soleil varie avec le temps, la température des divers éléments du 'pixel photométrique' aussi, de même que la quantité de particules cosmiques qui viennent chauffer le plan focal ... Cette fois notre “arme” ce sont les bolomètres aveugles qui mesurent justement les variations lentes de température locale de l'instrument. Ils nous permettent alors de corriger ces variations du signal qui ne viennent pas de rayonnements émis à quelques centaines ou milliards d’années-lumière de nous - mais de quelques millimètres ou mètres.
L’étalonnage
Une autre étape importante de l'analyse des données avant la fabrication des cartes est leur étalonnage c'est-à-dire la conversion des mesures électroniques (en volts) en unité astrophysique (en température pour Planck). On utilise pour ce faire deux méthodes distinctes, suivant la fréquence du bolomètre, qui sont illustrées par la figure ci-dessous. Une fois chaque détecteur étalonné, on peut enfin combiner leurs données pour construire les cartes du ciel.
Dans chaque cas, on utilise l’amplitude maximale du signal source dominant, que l’on connait par le calcul (pour le dipôle) ou par des observations précédentes (celles de FIRAS/COBE pour la Galaxie) et on détermine le facteur à appliquer pour retrouver cette amplitude sur les observations de Planck.
Le ciel observable est une surface qui est balayée par les détecteurs (Film couverture du ciel). La construction d'une carte du ciel est donc l’opération inverse : à partir d'une structure à une dimension temporelle on construit une structure à deux dimensions spatiales. Il s'agit un peu de “rembobiner” le ciel à partir du “film” des observations...
Cette opération pourrait sembler simple (il suffirait de mettre les mesures dans les bonnes cases), mais la réalité est bien plus proche d’un “rembobinage” délicat : le bruit sur la mesure du rayonnement fossile est plus important que ce signal lui-même et le signal d’origine instrumental qui n’a pas été entièrement soustrait précédemment varie au cours du temps par exemple.
Voici les cartes avec les données de l’instrument HFI, une fois la contribution du rayonnement fossile soustraite :
Les analyses astrophysiques peuvent alors commencer ...
Une fois les cartes reconstruites pour chaque fréquence il reste à les combiner entre elles pour extraire celles des différentes composantes (Page Séparation des composantes), et en parallèle y identifier des sources compactes pour constituer les différents catalogues (Résultats ERCSC).
Pour ces premiers résultats, le rayonnement fossile n’est pas encore à l’honneur : le signal est très faible, il y a encore beaucoup de travail avant de pouvoir l’exploiter de façon fiable. On est déjà capable de connaître suffisamment le signal du rayonnement fossile pour le soustraire et étudier les émissions d'avant-plan - c'est l'objet de ces premiers articles, mais on n'a pas encore la précision de quelques millioniémes requise pour pleinement étudier et interpréter ce rayonnement fossile. Il faut encore un peu “démêler et rembobiner”, c’est-à-dire retrouver encore plus précisément la quantité de photons venant d’une direction dans le ciel à partir des mesures de tension aux bornes des bolomètres en fonction du temps.
La réponse de BICEP2/KECK/Planck ercsc effet SZ sources galactiques sources extragalactiques La structure et l'évolution de l'univers peuvent s'expliquer dans le cadre d'un scénario appelé modèle de concordance. Celui-ci fonctionne remarquablement bien pour expliquer l’histoire des galaxies et amas de galaxies. Mais notre univers aux plus gr D’un Univers presque parfait au meilleur des deux mondes premiers resultats collaboration Planck Les neutrinos
Ce système nécessite l'installation de Flash Flash Player 9 ou supérieur.