dimanche 26 janvier 2014

Les Trous Noirs Chaotiques de Stephen Hawking




Stephen Hawking s'est rendu célèbre dans les années 1970 grâce à ses travaux novateurs à l'époque sur les trous noirs. Il démontra en 1974 que les trous noirs pouvaient à terme s'évaporer. Tout se passe au niveau de l'horizon des événements du trou noir, la frontière invisible au-delà de laquelle même la lumière ne peut plus s'échapper du trou. Le rayonnement de Hawking, c'est ainsi que fut appelé ce rayonnement des trous noirs, vient d'un phénomène quantique. Les fluctuations quantiques du vide ont lieu partout tout le temps, elles sont dues au principe de base de la mécanique quantique qui stipule qu'on ne peut jamais connaître l'énergie exacte d'un système, l'énergie du vide fluctue dans le temps : des paires de photons se matérialisent à partir du vide puis disparaissent très rapidement en s'annihilant.
Stephen Hawking en apesanteur lors d'un vol Zero-G.
Le phénomène ayant lieu partout, il peut également avoir lieu juste à côté de l'horizon des événements d'un trou noir. L'une des deux particules "virtuelles" venant de se matérialiser peut donc tomber dans le trou tandis que sa particule jumelle peut partir du côté opposé, en dehors de l'horizon. Le trou noir vient de créer un rayonnement.

Ce mécanisme a été largement accepté par la grande majorité des physiciens théoriciens. Mais ce qu'ont eu beaucoup plus de mal a accepter les spécialistes, c'est le concept qu'introduisit Hawking deux ans plus tard, en 1976 et qui a mené à ce qui est appelé le Paradoxe de l'Information
Puisque ces paires de photons sont produites initialement ensemble, elles sont intriquées, au sens quantique du terme : les caractéristiques de l'une peuvent fournir de l'information sur l'autre. Dans la formulation originelle de Hawking, le rayonnement est aléatoire, il ne peut alors pas du tout permettre d'obtenir une information sur le trou noir.
Le paradoxe de l'information à une origine dans la thermodynamique. Le second principe de la thermodynamque dit que l'entropie d'un système ne peut jamais décroître. L'entropie peut être comprise comme la quantité d'information qui est nécessaire pour décrire un système. Un système bien ordonné est très facile à décrire, son entropie est faible. Un système désordonné nécessite plus d'information pour être décrit et son entropie est plus grande.
Lorsque la seconde loi de la thermodynamique énonce que l'entropie ne peut pas décroitre, elle signifie que l'information ne peut pas décroitre, l'information ne peut donc pas être détruite. 
Modélisation d'un trou noir (Alain Riazuelo)
Mais Hawking disait en 1976 que son rayonnement des trous noirs justement, de par sa nature, permettait à un trou noir de s'évaporer sans restituer toute l'information qu'il avait absorbée, l'information était détruite...
Ce paradoxe a occupé les théoriciens durant de très longues années, dans de longues batailles intellectuelles, jusqu'à ce que Stephen Hawking accepte de reconnaître dans les années 2000 que sa vision de destruction de l'information était erronée.
Mais le problème, c'est que la résolution de ce paradoxe de l'information mène à un nouveau paradoxe, le paradoxe du Firewall. Pour permettre au rayonnement de Hawking de transporter de l'information en dehors du trou noir, l'intrication des paires de particules virtuelles au niveau de l'horizon des événements doit être brisée. Les théoriciens ont montré que cette brisure d'intrication quantique devait produire une gigantesque énergie exactement au niveau de l'horizon des événements, un véritable mur de feu, empêchant tout objet, toute matière de traverser sereinement l'horizon du trou noir. 
Ce faisant, c'est la relativité générale qui est mise à mal : un tel firewall viole le principe d'équivalence d'Einstein qui stipule que toutes les zones de l'espace-temps sont équivalentes, et que l'on doit pouvoir traverser un horizon de trou noir sans s'en rendre compte... Non seulement le concept de firewall viole la relativité générale comme le paradoxe de l'information violait le principe de l'entropie, mais en plus un tel firewall empêche le trou noir de grossir par l'apport de matière.

Stephen Hawking à Cambridge (Doug Wheller, 2008)
L'esprit de Stephen Hawking étant encore vivace près de 40 ans après son premier coup d'éclat, il a décidé de s'attaquer à ces paradoxes des trous noirs, et vient de proposer une toute nouvelle idée dans un court article qu'il a publié seul, sur Arxiv. Il y expose, sans aucun équation, l'idée selon laquelle l'horizon des trous noirs pourraient n'être qu'apparent. Il introduit l'idée que la zone de la limite de l'horizon serait en fait sujette à d'intenses fluctuations qui rendrait cette zone chaotique, à l'image de l'atmosphère qui rend le climat imprédictible au delà de quelques jours. L'information peut alors effectivement s'échapper du trou noir dans le rayonnement Hawking, mais cette information se retrouve complètement brouillée par l'aspect chaotique de l'horizon des événements, irrécupérable en tant que telle. Il n'y a plus besoin de brisure d'intrication et donc de firewall...

Cette idée, qui est avant tout une idée jetée en pâture à tous les théoriciens intéressés, doit être maintenant formalisée en équations. Elle a le mérite de faire complètement disparaître les deux paradoxes, celui de l'information et celui du firewall. Bien sûr, elle ne fait pas disparaître les trous noirs, la nouvelle vision de Hawking, modifie juste les caractéristiques de leur horizon des événements.


Référence : 

Information Preservation and Weather Forecasting for Black Holes
S. W. Hawking
http://arxiv.org/abs/1401.5761

samedi 25 janvier 2014

Mars : Planète Irradiée

Les mesures de radiations effectuées par l'instrument RAD embarqué sur Curiosity durant plus de 300 jours viennent d'être publiées dans la revue Science. Elles viennent en complément des mesures qui avaient été faites durant le trajet de la sonde entre la Terre et la planète rouge (voir ici).



Disons-le tout de suite aux candidats à l'exploration ou la colonisation de Mars, il serait bon avant de partir qu'ils aillent faire un stage de longue durée du côté de Tchernobyl ou de Fukushima pour une petite mise en forme. Car l'ambiance radiologique y est bien plus sympathique que sur Mars...
Mars
Les rayonnements qui sont reçus au cours d'un voyage spatial ainsi que sur la surface de Mars sont de deux types, et sont non négligeables du fait de l'absence de protection comme l'atmosphère et un champ magnétique, qui nous protègent sur Terre.

Il s'agit tout d'abord de particules chargées, des rayons cosmiques galactiques (galactic cosmic rays, GCR) dans un flux continu, puis de protons énergétiques venant du soleil (solar energetic particles ,SEP), arrivant par bouffées discontinues.

Lors des mesures effectuées durant le voyage de la sonde, la dose enregistrée s'est montée à 1,8 milliSieverts par jour. Pour un aller-retour de 2 x 180 jours, le total calculé fait ainsi 660 milliSieverts. On peut rappeler tout de suite quelques valeurs de comparaison : la dose que nous recevons tous en moyenne au niveau de la mer en France de par la radioactivité naturelle, vaut 2,4 milliSieverts par an.

L'environnement radiologique à la surface de Mars est bien plus complexe que ce qui peut être observé sur Terre. Les particules sont très énergétiques et pénètrent en profondeur dans le régolithe de Mars, en produisant dans leurs interactions avec le sol de multiples particules secondaires incluant des neutrons et des rayons gamma.

Les GCR peuvent avoir une énergie supérieure à 10 GeV/nucléon. Leur flux est inversement proportionnel à l'activité solaire : lorsque cette dernière est forte, le flux de GCR est plus faible.  C'est tout l'opposé des SEP, qui elles sont abondantes lorsque l'activité solaire est forte.
Les GCR sont composés à 85% par des protons, à 13% par des noyaux d'hélium, puis 1% d'électrons et 1% de noyaux plus lourds. Leur énergie est si grande qu'ils peuvent pénétrer sur plusieurs mètres de profondeur dans le sol, et il est de fait extrêmement difficile de s'en protéger par des blindages.
Les SEP sont produits notamment par les éruptions solaires et les éjections de masse coronale.
Le détecteur RAD de Curiosity
(NASA/JPL/Caltech)
L'émission des SEP est sporadique est difficile à prédire et dure en général de quelques heures à quelques jours. La portion des SEP qui ont une énergie inférieure à 150 MeV ne parvient pas à pénétrer le sol Martien mais irradie tout ce qui se trouve à la surface. Mais ceux qui ont une énergie plus grande peuvent également produire des neutrons (très pénétrants) dans leurs interactions dans la fine atmosphère de Mars.

Venons-en maintenant aux mesures de Curiosity une fois posé sur le sol Martien. C'est le 7 août 2012 que Curiosity a débuté ses mesures de rayonnement cosmique sur Mars, exactement, jour pour jour, 100 ans après les premières mesures de Victor Hess dans son ballon...
Ces mesures se sont étalées sur 300 sols (jours martiens, 1 sol = 24h39), jusqu'au 1er juin 2013. Elles se sont donc déroulé durant le maximum du cycle solaire actuel (le cycle 24), qui est le maximum le plus faible qu'ait connu le soleil depuis plus de 100 ans.

La dose équivalente est calculée à partir de la dose déposée, elle prend donc en compte le facteur de qualité des rayonnements détectés (leur pouvoir ionisant).
L'essentiel de la dose journalière provient des GCR : elle vaut 0,64 millisieverts/jour, soit 232 mSv/an.
C'est trois fois moins que lors du voyage, mais c'est toujours considérable, exactement 100 fois ce que nous recevons par la radioactivité naturelle en France, et 10 fois la dose maximale autorisée (mais jamais atteinte dans les faits) pour les travailleurs du nucléaire dans de nombreux pays, en France comme aux Etats-Unis.
La dose reçue lors d'un seul événement de type SEP vaut quant à elle 0,05 millisievert

Pour se faire une idée parlante, cette dose est équivalente à passer un scanner abdominal tous les 12 jours, soit 30 scanners par an.... (les recommandations sanitaires actuelles sont de ne pas dépasser un examen scanner tous les deux ans).

Conséquence pour des astronautes
Donald Hassler fait le calcul du total de la dose reçue lors d'une mission impliquant un voyage de 180 jours à l'aller comme au retour avec un séjour de 500 jours sur Mars, la somme donne la valeur de 1,01 Sievert
Soyons clairs : les seuls liquidateurs de Tchernobyl qui ont reçu ce type de doses sont ceux qui ne sont plus là pour en parler. Et aucun travailleur de Fukushima n'a reçu une dose supérieure à 0,7 Sievert.
Hassler calcule le niveau de radiation qui serait reçu en dessous de la surface martienne. La seule solution efficace pour nos astronautes étant de se protéger en s'enterrant. Hassler montre, au vu de la densité moyenne du régolithe, qu'il faut pas moins de 3 mètres d'épaisseur de roche pour retrouver un niveau comparable au bruit de fond radioactif de la roche.

Conséquences pour des organismes vivants martiens
Bien évidemment, il n'y a pas que sur les astronautes que ces rayonnements, qui existent depuis toujours, agissent de manière néfaste, mais aussi sur toute forme de vie dont l'ADN est très sensible aux radiations (directement par ionisation des brins d'ADN ou indirectement par radiolyse de l'eau produisant des radicaux libres).
Pour évaluer ces effets, les chercheurs prennent comme modèle une bactérie terrestre qui est très particulière car étant la bactérie qui est la plus résistante aux radiations que l'on connaisse, la bien nommée D. Radiodurans. Hassler montre que D. Radiodurans serait éradiquée dans les premiers mètres de sol en quelques millions d'années seulement. Mais elle pourrait, dans certaines conditions, passer par une phase dormante après avoir réparé son ADN et avoir ainsi une chance de survivre mais si seulement elle se trouve à une profondeur plus grande que 1 m dans le sol...

Conséquences sur la chimie organique
Et il n'y a pas que les molécules d'ADN qui sont impactées par les rayonnements ionisants, mais aussi de très nombreuses molécules organiques complexes, ainsi que l'eau elle-même et des composés inorganiques comme des sels ou autres éléments sensibles aux réactions d'oxydo-réduction. Il s'ensuit que les traces éventuelles de vie (éventuelle donc) vont s'en trouver grandement altérées. Les physicochimistes ont évalué qu'à 5 cm sous la surface de Mars, les molécules complexes de plus de 100 atomes sont détruites à 99,9% sur une période de 650 millions d'années.
L'irradiation de molécules d'eau (H20) et d'ions hydroxyles (OH-) produit des radicaux libres qui vont oxyder les molécules hydrocarbonées et aromatiques pour produire des sels organiques et du CO2. Sur Mars, ces réactions sont de plus accélérées par la présence de catalyseurs ferriques.
Hassler conclue que la meilleure chance pour trouver des molécules organiques sur Mars, si on ne peut pas creuser profondément, c'est d'aller les chercher là où le sol a été retourné récemment, comme par exemple les cratères d'impact, ou des zones érodées, mais ne montrant surtout pas d'activité aqueuse!
Vue d'artiste des installations prévues du projet vendeur de rêve Mars One
On l'aura compris, le tableau que vient de dresser Curiosity grâce à ses mesures radiologiques de la surface de Mars sont peu réjouissantes pour tous les rêveurs (et les vendeurs de rêves) qui croient pouvoir explorer tranquillement la planète rouge à la recherche de traces de vie et vivre dans des petites capsules avec vue sur les plaines.

Non seulement cette hypothétique vie devrait être bien profondément enfouie, mais elle ne laisserait de toute façon pas de traces en subsurface. Et les astronautes, en creusant pour les trouver, creuseraient plus certainement leur dernière demeure si ce n'est leurs abris de fortune.


Source :

Mars’ Surface Radiation Environment Measured with the Mars Science Laboratory’s Curiosity Rover

Donald M. Hassler et al.
Science 343, (2014)


jeudi 23 janvier 2014

Cérès, un Astéroïde plein d'Eau

Le plus gros astéroïde de notre système solaire crache donc de la vapeur d’eau dans l’espace. C’est ce que nous apprend une étude parue cette semaine dans la revue britannique Nature.


Cérès, qui fut le premier astéroïde découvert (par Giuseppe Piazzi le premier jour de 1801), et toujours le plus gros à ce jour, pourrait presque être appelé une planète naine. L’équipe menée par Michael Küppers, de l’agence spatiale européenne (ESA), le considère d'ailleurs comme une planète naine au vu du titre de son papier. Il y montre comment Cérès « crache » de la vapeur par deux endroits de sa surface et à intervalles irréguliers.
Ces observations ont pu être faites grâce à l’observatoire spatial Herschel. Le taux de production d’eau de Cérès a pu être évalué, il est de l’ordre de 6 kilogrammes par secondes (soit 6 litres/s, si elle était liquide).
Vue d'artiste du phénomène d'évaporation d'eau sur Cérès. 

Cette nouvelle est importante pour tous les chercheurs qui s’intéressent à l’origine de l’eau dans notre système solaire et sur Terre bien sûr. Cela faisait 30 ans que l’on soupçonnait Cérès de contenir de l’eau en quantité non négligeable, et on en a maintenant la preuve éclatante.

Et ce qui est vraiment un bonne nouvelle, c’est qu’une sonde va très bientôt visiter de ce gros astéroïde, après avoir visité avec succès l’autre gros astéroïde de la ceinture du même nom qu’est Vesta. La sonde Dawn est en effet prévue pour aller à la rencontre de Cérès dans les prochains mois.

L’une des questions les plus brûlantes que se posent les planétologues est : pourquoi Vesta et Cérès sont-ils si différents, alors qu’ils se trouvent à peu près au même endroit en terme de distance du soleil (2,4 U.A pour Vesta et 2,8 U.A pour Cérès).
Les deux astéroïdes apparaissent en fait à l’opposé l’un de l’autre : Vesta montre qu’il a connu dans le passé un fort échauffement interne avec une intense activité volcanique sur toute sa surface, alors que Cérès n’a visiblement rien connu de tel et ne semble pas avoir acquis une température interne suffisante pour fondre de la roche.

Or, il se trouve que c’est peut-être justement leur abondance en eau différente qui fait de ces deux corps des cousins si différents. La source de vapeur qui vient d’être observée sur Cérès par Küppers et al. pourrait être liée à un phénomène de dissipation d’énergie qui lui a justement empêché de s’échauffer trop.
Vesta vu par Dawn
(NASA/JPL-Caltech/UCAL/MPS/DLR/IDA)

Le mécanisme de production de vapeur qui est proposé implique la fonte de glace de subsurface, qui vient ensuite couler vers la surface puis s’évapore dans le vide de l’espace. Comme la vapeur possède une très bonne conductivité thermique, la sublimation de glace au cours de la formation de Cérès il y a 4,6 milliards d’années, a pu dissiper énormément de chaleur de l’intérieur de l’astéroïde vers l’extérieur et l’empêcher ainsi de ressembler à Vesta.
Vous allez donc maintenant poser la question : pourquoi Cérès a-t-il autant d’eau et pas Vesta ? La réponse la plus probable, en tous cas celle que les spécialistes préfèrent, est que Cérès et Vesta ne se seraient pas formé au même endroit originellement : Cérès se serait formé bien plus loin, au-delà de ce qu’on appelle la limite de glace. Il s'agit, dans le système solaire primordial, de la limite au delà de laquelle l'eau ne peut plus être liquide.
Mais alors vient naturellement une autre question : si Cérès s'est formé plus loin qu'il n'est actuellement, comment se retrouve-t-il là aujourd'hui ? 
Et bien il existe une réponse là encore, heureusement. Lors de la formation des différentes planètes et astéroïdes, il aurait pu exister un phénomène de mouvements de matière généralisé sur les petits corps, dû à la migration des orbites des planètes géantes, au premier rang desquelles Jupiter. Vesta et Cérès, auraient ainsi pu se retrouver au final à proximité l'un de l'autre bien que s'étant formés dans des zones très différentes.

L'un des plus gros indices selon lequel les planètes géantes ont pu connaître une telle migration de leur orbite remonte à la découverte en 1995 des premières exoplanètes, de la taille de Jupiter, mais orbitant aussi près de leur étoile que Mercure le fait autour du Soleil... dans une zone où elles ne pouvaient pas s'être formées. Elles avaient donc migré.


Dawn (NASA/JPL-Caltech/UCLA/McREL)
La migration de Jupiter permet en outre d'expliquer d'autres phénomènes comme par exemple l'existence de différents groupes d’astéroïdes dans la grande ceinture, ou encore l'apparition d'une intense période d'impacts sur la Terre et la Lune (appelé couramment le Late Heavy Bombardment), qui eu lieu il y  a environ 4 milliards d'années. 
Jupiter dans son mouvement aurait déstabilisé violemment toute une population d'astéroïdes et de comètes qui ont alors pu apporter quantité de molécules organiques et de l'eau par chez nous...

Bien évidemment, le tableau n'est pas encore parfait, il reste beaucoup d'inconnues et la prochaine exploration de Cérès par Dawn nous en dira sûrement bien plus...


Source : 
Localized sources of water vapour on the dwarf planet Ceres
Michael Küppers et al.
Nature 505, 525–527 (23 January 2014)

Lire aussi : 

mercredi 22 janvier 2014

Le Caillou Mystérieux de Mars sans Mystère

Vous en avez sûrement entendu parler. Un caillou mystérieux est apparu soudainement sur Mars tout près du rover Opportunity (à ne pas confondre avec Curiosity). Opportunity est un rover plus petit que Curiosity,  qui a été envoyé sur Mars en janvier 2004 en compagnie de son clone Spirit. Opportunity est toujours en activité, bien qu'un peu réduite, alors que Spirit a rendu l'âme en 2010.

Voilà l'image qui fait tant parler d'elle : prise de la même portion de sol martien à 12 jours martiens d'intervalle. On voit très nettement l'apparition d'un nouveau caillou. Mais comment est-il arrivé là, se demandent les spécialistes comme les néophytes ?

Il y a deux hypothèses, et l'une des deux est forcément la bonne, car la plus probable. 

Le caillou mystérieux d'Opportunity (NASA/JPL/Caltech)
Tout d'abord, il faut resituer l'échelle de cette image, qui n'est pas immédiatement appréhendable. Le caillou en question n'est pas un rocher, loin s'en faut, il s'agit d'un truc de la taille d'un petit galet. Les planétologues qui exploitent les images de Opportunity l'ont nommé Pinnacle Island.

Le rover Opportunity (NASA/Jet Propulsion Laboratory)
La première hypothèse qui vient à l'esprit est que les petits hommes verts se sont amusés avec Opportunity en posant le caillou devant la caméra PanCam du rover... Cette hypothèse étant stupide, on pense alors à un impact de météorite qui aurait pu avoir lieu non loin de la zone explorée par le rover et ce caillou en serait un résidu. Mais la probabilité pour d'une part qu'une météorite impacte Mars dans cette zone, d'autre part un morceau en soit éjecté, puis finalement qu'il atterrisse juste devant le rover est en fait extrêmement faible.

L'autre hypothèse, bien plus convaincante est la suivante : Le rover se déplace légèrement dans son exploration, de quelques mètres. Il est muni de six roues, qui sont toutes les six munies de systèmes directionnels. 
Opportunity est amené ainsi à faire des mouvement d'avance, recul et rotation. Or, depuis maintenant quelques années, Opportunity a subi un problème mécanique sur l'une de ces roues : la roue avant droite est bloquée, elle ne peut plus pivoter. 
Il s'ensuit de ce défaut que lorsque Opportunity fait un mouvement pour tourner à droite ou à gauche, la roue avant-droite traîne sur le sol. Et on le comprend bien, cette traîne peut faire basculer un galet qui se trouverait sur une légère pente, puis se retrouve devant le champ de vue de la caméra panoramique du rover.

Les planétologues qui exploitent Opportunity voient dans ce caillou une opportunité fantastique : car le caillou dans sa "chute" semble avoir été retourné, ce qui signifie qu'il montre maintenant sur sa surface une zone qui n'a pas été en contact direct avec l'atmosphère martienne depuis peut-être des milliards d'années... De quoi se mettre sous la dent de l'analyse. 




lundi 20 janvier 2014

Matière Noire : Nouvelles Traces de WIMPs pour l'expérience CoGeNT

Si vous me suivez régulièrement, vous le savez : le mystère de la matière noire est pour moi quelque chose de très important, probablement parmi les points les plus cruciaux que selon moi nous devons comprendre au plus vite, tout juste avant les deux autres entités noires de l'Univers, les trous et l'énergie...



Il n'est qu'à voir le nombre de billets que j'ai consacré à divers aspects de la matière noire, et notamment à sa détection de manière directe, telle qu'elle se développe depuis de trop longues années à travers le monde. 
Ce qui participe grandement à cet engouement, il faut le dire, c'est probablement le fait que des signes potentiels d'interactions de particules de matière noire (des WIMPs) ont été observés ces quatre dernières années, et ce par différentes équipes de chercheurs dans différentes expériences. On se souvient également l'important résultat négatif de l'année dernière obtenu par l'expérience LUX.
Le détecteur de CoGENT
(Pacific Northwest National Laboratory)
Parmi les expériences qui pensent avoir peut-être détecté des interactions de WIMPs, il y a une expérience américaine qui s'appelle CoGeNT. Les autres, rappelons-le, sont DAMA (Italie), CRESST (Allemagne), et CDMS (Etats-Unis).

Si je parle de CoGeNT aujourd'hui, c'est parce que l'équipe de Juan Collar vient de publier de nouveaux résultats sur le site de préprints Arxiv. Et ces nouveaux résultats sont étonnants! Je le dis tout de suite, ils vont à l'encontre des résultats négatifs de LUX et tout à fait dans le sens de DAMA, CRESST et CDMS...

Les physiciens de CoGeNT avaient fait parler d'eux en 2011 lorsqu'ils annoncèrent avoir observé une modulation annuelle dans leur signal, exactement du même type que celui clamé par DAMA depuis le début des années 2000. La statistique qui était alors la leur n'était pas excellente, par manque de signal. Mais aujourd'hui, dans leur nouvelle publication, Collar et ses collaborateurs montrent à nouveau une très intéressante modulation annuelle avec plus de données accumulées. Le niveau de confiance statistique est de l'ordre de 2,2 sigmas (ce qui signifie qu'il y a 2% de chance pour que ce qu'ils voient soit purement fortuit).
Signal de CoGENT (Aalseth et al.)
Pour bien comprendre, il faut rappeler pourquoi on attend un signal modulé sur une année, montrant un maximum en été et un minimum en hiver. L'hypothèse retenue par tout le monde (ou presque) est que la matière noire forme un halo sphérique dans lequel baigne notre galaxie. Le soleil tourne dans la galaxie, à près de 250 km/s. Ce mouvement produirait ainsi comme une sorte de vent de particules venant de la direction vers laquelle se meut le Soleil. Mais la Terre tourne, elle, autour du soleil en une année (je ne vous apprends rien), ce qui fait que nous allons pendant 6 mois dans le même sens que celui du soleil dans la Galaxie, et durant les six autres mois, dans le sens contraire. 
Cela se traduit au niveau des WIMPs, par un "vent" qui a une vitesse qui varie au cours de l'année, et qui passe donc par un maximum et un minimum. 
Juan Collar (University of Chicago)
Au niveau des interactions de ces particules, comme leur probabilité d'interagir dépend de leur vitesse par rapport au détecteur (à la Terre), le nombre que l'on détecte dépend lui aussi de la période de l'année.
Que trouve CoGeNT dans son laboratoire souterrain de la mine de Soudan dans le Minnesota avec son détecteur germanium de 100 g ?
Ils ont trié tous les événements apparaissant dans le détecteur semiconducteur, et il y en a beaucoup, surtout des signaux parasite venant de toutes sortes de bruit de fond (radioactivité naturelle, muons cosmiqes,..). La théorie prédit que des WIMPs devraient plutôt interagir statistiquement au centre du détecteur plutôt qu'en surface, et en laissant une énergie très faible, inférieure à 2 keV. C'est donc sur tous les événement ayant ses caractéristiques qu'ils ont regardé l'évolution dans le temps du taux de comptage... et découvert à nouveau cette modulation qu'ils avaient déjà entrevue il y a presque 3 ans.

Et il y a un nouvel élément décrit par Collar et al qui est plus que fascinant (je m'emporte ?) : à partir du taux d'interaction qu'on mesure dans un détecteur, on déduit deux paramètres : la masse de la WIMP et sa probabilité d'interaction (sa section efficace). Jusqu'à présent, les résultats qu'avaient obtenus DAMA et CRESST en termes de masse et de section efficace  avec leurs WIMPs étaient incompatibles entre eux et incompatibles avec CoGeNT. "Jusqu'à présent", ai-je dit... Juan Collar fait une nouvelle hypothèse assez simple : si les WIMPs n'étaient pas réparties uniformément dans un halo sphérique, mais au contraire subissaient une sorte de flux dans une direction donnée ? On appelle ça un halo non-maxwellien... Que ce passerait-il au niveau des données analysées par les différentes expériences ? 
Vous vous doutez de la réponse ? Les trois expériences se chevauchent presque parfaitement !

Que faire des résultats négatifs de LUX obtenus avec des détecteurs très différents au xénon ? Certains physiciens n'hésitent pas maintenant à remettre en cause la sensibilité annoncée des chambres à projection temporelle au xénon comme celle de LUX. Il pourrait exister un problème de calibrage à basse énergie. Des faibles dépôts d'énergie produiraient moins d'électrons que ce qu'estiment les utilisateurs de détecteurs au xénon (LUX et XENON100 notamment). 
Plot comparatif des différentes expériences : section efficace en fonction de la masse de WIMP,
avec l'hypothèse d'un halo non-maxwellien (J. Collar et al.)

Comment réconcilier tout ce beau monde ? Juan Collar, toujours lui, a décidé, au vu de ses résultats très intéressants sur le germanium, de reproduire à une plus petite échelle un détecteur comme celui de LUX, pour regarder ce que ça donne avec des très faibles dépôts d'énergie dans le xénon et pour en avoir le cœur net (il utilise des neutrons d'une source radioactive pour mimer les WIMPs).
Le résultat de ce calibrage sera crucial et devrait être publié dans quelques mois...

Concernant cette hypothèse audacieuse de halo non maxwellien qui paraît si puissante à réconcilier toutes les expériences qui semblent voir quelque chose, Juan Collar prédit qu'elle pourrait être testée grâce aux mesures très précises de vitesses d'étoiles proches que va entreprendre très prochainement le satellite Gaïa...

Quelque chose me dit qu'on n'a pas fini d'en reparler (ici ou ailleurs...).


Référence : 
Search for An Annual Modulation in Three Years of CoGeNT Dark Matter Detector Data
C.E. Aalseth et al.
Arxiv 1401.3295 (14 janvier 2014)  http://arxiv.org/pdf/1401.3295v1.pdf

Source : 
CoGeNT gives further backing to annual dark-matter variation
Edwin Cartlidge
Physics World (20 janvier 2014)

 Lire aussi : 

jeudi 16 janvier 2014

John L. Dobson, 1915-2014

Nous venons d'apprendre avec tristesse la disparition de John L. Dobson, à l'âge de 98 ans. Son nom restera longtemps dans le vocabulaire des astronomes amateurs. 
En hommage, je réédite ce billet que j'avais écrit le 1er novembre 2011 : 

« Mon Dobson ». « Dobby ». Combien de fois ai-je prononcé ces mots pour parler de ce cher télescope qui me plaît tant. Dobson. On devrait dire Newton puisque ce n’est pas pas un Cassegrain ou un Ritchey-Chrétien. Mais non. On dit « Dobson ». Du nom de l’inventeur de cette monture si particulière, si peu onéreuse, qui permet de si grand diamètres…
Il est tout de même remarquable de nommer un instrument non par sa formule optique mais par son type de système mécanique, ou plutôt par celui qui l’a inventé… Nous viendrait-il à l’idée d’appeler un 114/900 un « équatorial » ? Et bien nous, heureux possesseurs de Dobsons 10’’, 12’’ voire 18’’ ou plus - la diamètrite est une maladie dobsonienne incurable - , l’appelons ainsi, et non pas « alt azimutal »…
Mais que sait-on de cet homme dont nombre d’astronomes amateurs passionnés que nous sommes citent le nom sans forcément le connaître ? Cet homme qui vient de fêter son 96ème anniversaire en septembre dernier ?
Né en Chine, John Dobson est arrivé à San Francisco à l’âge de 12 ans en 1927. Il obtint un diplôme de Chimie en 1943.
Il se tourne vers la philosophie Hindoue en 1944 et rejoint un monastère de l’ordre Ramakrishna pour y être moine durant 23 ans. Rien que ces quelques éléments biographiques font de cet homme quelqu'un d’intéressant, hors norme pourrait-on dire... Dobson construisit sa première lunette en 1956, à partir d’éléments de récupération, et d'une lentille de 2’’ (51 mm), désireux de découvrir par lui-même l’Univers… et put alors observer Saturne, à la manière d’un certain Galilée...

John Dobson en 2002, photo Alan J Wylie, en.wikipedia 
Fasciné par ce qu’il arrivait à voir dans son oculaire de fortune, il entreprit alors de voir plus grand et de tailler et polir un miroir, son premier miroir, à partir d’un hublot de 12’’ récupéré sur un bateau réformé de la Navy. En observant la lune avec ce télescope, les premiers mots qu’il prononça furent : « tout le monde doit voir ça ! », et c’est ce qui le mut dorénavant.
Très vite sa passion pour l’astronomie et la construction de télescopes fut contrariée par son activité monastique, si bien que son activité télescopique devint clandestine. Il fabriquait des miroirs sous le manteau, se faisant livrer par des amis dans son monastère de Sacramento toujours plus de  hublots cachés dans des caisses d’engrais, ainsi que le matériel de polissage nécessaire. Il est amusant de savoir que dans ses correspondances épistolaires, notre John ne pouvait pas utiliser le mot « télescope » ou « miroir », qu’il remplaça donc par tout un arsenal de codes, un « télescope » devint donc un « géranium ».  Un « géranium en pot » la variante pour un télescope muni de son rocker et un « géranium en fleurs » un télescope dont le miroir a été aluminisé... Il en arriva même à devoir s’échapper du monastère la nuit pour aider des amis au polissage de miroirs.
L’astronomie sortit finalement vainqueur de ce combat inégal et John Dobson fut viré de son monastère en 1967. Il avait alors 52 ans, et une nouvelle vie commençait pour lui.
Il fit alors de sa passion pour les télescopes son métier en devenant enseignant. C’est avec deux élèves qu’il fonda dès 1968 l’organisation des San Fransisco Sidewalk Astronomers qui se mit à installer des gros télescopes au carrefour de Jackson Street et Broderick Street dans la ville du Golden Gate Bridge. Leur premier instrument de trottoir était un 10.5’’ fait de planches de contreplaqué et d’un hublot poli, qui fut décoré de couleurs chatoyantes jaune et rose et fut surnommé la Girafe Psychédélique, tout un programme (San Fransisco 6 mois après le Summer of Love était encore en ébullition…).

L’organisation grossit très vite, son but était simple et attachant : donner à voir le ciel au plus grand nombre et encourager la curiosité. En 1970, ils possédaient déjà un 24’’ tout à fait transportable…
Cette association à but non lucratif et d’utilité publique, toujours existante et active dans plusieurs pays,  a  toujours aujourd’hui pour objectif de populariser et démocratiser la découverte du ciel.
La méthode était simple et déjà usitée dans les années 30 aux Etats-Unis : installer un ou plusieurs télescopes en pleine ville à la tombée de la nuit sur les lieux les plus fréquentés et offrir ainsi aux passants sur le trottoir l’opportunité de découvrir la Lune, des planètes ou des étoiles brillantes (on est en ville rappelons-le).

Et savez-vous comment Monsieur Dobson appela ses télescopes de rue ? Pas des Dobson, - ou des Dobsonians comme outre-atlantique - , non ! simplement des Sidewalk Telescopes ! Des télescopes de trottoir, et oui…. nos Dobsons ne sont que des télescopes de trottoir !
La philopsophie sous-jacente au mouvement des SF Sidewalk Astronomers est réellement attachante, car ses objectifs sont si simples : permettre au plus grand nombre de découvrir l’Univers, que ce soit en accédant à des observations organisées, ou bien et surtout en pouvant construire le plus facilement possible son propre instrument et observer par soi-même les beautés du ciel.
Ces astronomes bricoleurs n’organisent effectivement pas que des observations un peu sauvages aux carrefours des grandes villes, mais aussi des star parties plus éloignées de la pollution lumineuse , dans des parcs naturels comme Yellowstone, auxquelles est invité - gratuitement bien sûr -  le grand public.
Mais la plus grande action de John Dobson et de son association est bien évidemment la promotion de la construction de télescopes de trottoir réellement faciles à fabriquer, et pour le coût le plus faible possible. Depuis 1968, il n’a eu de cesse de parcourir d’abord les Etats-Unis, puis le monde entier, de colloques en rencontres de clubs et associations d’astronomes pour expliquer inlassablement comment fabriquer ses télescopes de grand diamètre dédiés à l’observation visuelle.
Dobson a toujours refusé de breveter son concept (difficilement brevetable de toute façon) ou encore de déposer son nom en marque commerciale (facilement faisable en revanche, mais je ne parle pas du mot « trottoir » là !).

Ce que l’on sait peut-être moins sur John Dobson, c’est qu’il profitait et profite encore de sa notoriété grandissante dans le monde des astronomes en culotte courte pour proposer sa vision de la cosmologie, très marginale vis-à-vis du paradigme actuel, influencée par la philosophie hindoue, défendant vigoureusement une vision anti-Big-Bang, comme par exemple un univers sans début ni fin, et fustigeant parfois la communauté des astrophysiciens professionnels pour leur manque d’imagination dans leur volonté de toujours conserver un modèle dit « standard » d’un Univers en expansion créé à partir de rien en étant contraints de lui appliquer une multitude de rustines théoriques pour sauver ce modèle-passoire troué de toute part par de la matière noire par ci, de l’énergie noire par là, et autres inflations inflationnaires… 
Dobson propose une vision d’un Univers à la fois en expansion mais dans un état stationnaire, en perpétuel renouvellement dans lequel la matière se recycle, tout en suivant rigoureusement les lois de la relativité générale et les principes de la mécanique quantique.
L’iconoclaste John Dobson est sans conteste un homme qui aura marqué durablement les 50 dernières années dans la communauté des astronomes amateurs et également au delà pour la popularisation de l’astronomie en général, en démontrant qu’elle pouvait être accessible à tous.
Qu’attendons-nous pour renouer chez nous avec la belle idée initiale de John Dobson ? Pourquoi ne pas installer de temps en temps nos rockers et nos tubes sur les trottoirs de nos villes à la nuit tombante ? Et pourquoi ne pas militer pour que toutes nos écoles, collèges ou lycées (où l’enseignement de l’astronomie est cruellement absent!), à former des ateliers de construction de télescopes à la méthode Dobson ? 

Imaginez ne serait-ce qu'un seul 10’’ dans chaque école du pays, certainement le rêve d’un certain John Dobson…


Pour vraiment saisir ce qu'est la sidewalk astronomy, regardez cette petite vidéo dans laquelle J. Dobson et quelques accolytes arranguent les passants de San Fransisco (A sidewalk astronomer, Bullfrog Films) :



Supernovae Ia : Fusion de Deux Naines Blanches

Le débat a longtemps fait rage pour savoir quelle est l’origine exacte des supenovae de type Ia. Deux principaux modèles s’affrontent, tous les deux ont en commun la présence d’un système binaire. Mais c’est dans la nature des deux composantes et les processus d’interaction entre les deux étoiles que les modèles divergent.

Le premier propose l’explosion d’une étoile par effondrement suite à l’accrétion de matière provenant de sa compagne : la naine blanche absorbe de la matière de sa compagne, qi peut être une géante ou même une étoile « normale ». Lorsque la naine blanche qui gagne ainsi de la masse dépasse la barre fatidique des 1,4 masses solaires, l’effondrement irréversible a lieu, l’étoile explose.

Le résidu de SN 1572, vu en rayons X (Chandra X Ray Observatory),
la  supernova observée par Tycho Brahe en 1572 était une SN Ia
Le second modèle, dit « double dégénéré » propose un couple de naines blanches. Elles vont se rapprocher inéluctablement au fil du temps pour finir par se rencontrer et fusionner. Bien évidemment, la fusion réelle n’arrive jamais, puisque la masse de Chandrasekhar est immédiatement dépassée et l’explosion a lieu assez vite.

Des astronomes américains viennent d’annoncer lors du 223ème meeting de l’American Astronomical Society qu’ils ont pu observer deux supernovae Ia avec des détails encore jamais atteints, et peuvent en conclure sans se tromper qu’elles sont issues d’une fusion de deux naines blanches.

Le plus étonnant dans cette découverte est peut-être la façon que ces astronomes ont utilisée pour détecter et étudier l’évolution temporelle de la luminosité de ces supernovae. C’est avec le télescope Kepler, dédié à la chasse aux explanètes (lorsqu’il fonctionnait encore correctement) qu’ils ont observé ces explosions stellaires.
Le télescope de la NASA scrutait environ 150000 étoiles de notre galaxie avec la possibilité de prendre des clichés du même champ toutes les trente minutes. Or, derrière les étoiles que Kepler pointait se trouvaient une multitude de galaxies lointaines.

Les données de Kepler fournissent ainsi une image de très nombreuses galaxies toutes les demi-heures, avec une performance pour la détection de très faibles variations de luminosité (adaptée pour la découverte d’exoplanètes effectuant des transits devant les étoiles).
Il n’en fallait pas plus pour donner un outil fantastique pour la découverte et le suivi dans le temps de nouvelles supernovae  lointaines, situées dans d’autres galaxies. Rappelons qu’une supernova lors de son explosion, peut devenir aussi brillante, voire plus, que la galaxie qui l’abrite…

Le télescope Kepler (NASA)
Robert Oiling, qui a présenté ces résultats à Washington le 8 janvier dernier, a traqué environ 400 galaxies dans les champs de vue de Kepler sur une période de deux ans, pour trouver ces deux beaux specimens de supernovae Ia.
C’est grâce à la précision obtenue par le télescope Kepler que l’origine de ces supernovae a pu être déterminée avec une grande confiance. En effet, s’il s’agissait d’un couple formé d’une naine blanche et d’une étoile normale, le souffle de l’étoile explosant devrait impacter sa compagne en produisant un échauffement qui produirait un surcroît de luminosité qui serait visible dans les premiers jours suivant l’explosion. Oiling et ses collaborateurs n’observent aucun sursaut de luminosité de ce type dans leur deux supernovae. Ces observations éliminent définitivement la possibilité que l’étoile compagne soit une étoile normale de type géante.

Depuis longtemps, le modèle de fusion de deux naines n’était pas très apprécié dans la communauté des spécialistes des supernovae, on pensait que l’étape finale de coalescence des deux étoiles devait durer très longtemps, ce qui militait plus pour la formation d’une étoile à neutrons (pour la plus massive des deux).
Mais le vent commença à tourner vers 2010 où des astrophysiciens ont produit des simulations montrant que la coalescence finale de deux naines blanches pouvait se passer en l’espace de quelques minutes seulement, permettant le brusque changement de pression, véritable étincelle à la poudrière stellaire.

Mais Craig Wheeler, un astrophysicien de l’université du Texas, précise tout de même que le modèle de fusion de deux naines blanches comporte tout de même quelques problèmes : les simulations montrent des explosions d’étoiles par fusion de deux naines blanches qui sont souvent asymétriques. Or les SN Ia ont toutes une symétrie très sphérique. D’autre part, les mesures spectrales qui ont été faites sur ces supernovae montrent une abondance en fer trop faible par rapport aux simulations de fusion de naines blanches.

Le satellite Kepler a connu une grosse défaillance mécanique en mai 2013 (sur ces roues gyroscopiques), suite à laquelle il ne peut plus être orienté avec précision. Mais il pourrait toujours fonctionner pour collecter la lumière. Et comme la recherche de supernovae lointaines ne requiert pas un pointage précis comme celui de la recherche d’exoplanètes, Oiling évoque l’idée de donner une seconde vie à ce merveilleux outil pour observer des nouvelles supernovae.

La NASA doit annoncer ce qu’elle décide de faire avec Kepler à l’été 2014…


Source :
Kepler clue to supernova puzzle
Ron Cowen
Nature 505, 274–275 (16 January 2014)

mercredi 15 janvier 2014

L'Astronomie Sans Photons

L'astronomie, depuis la nuit des temps, exploite la lumière, sous la forme de ses grains, les photons, les particules les plus fondamentales de l'Univers.
Et sa déclinaison astrophysique a poussé l'exploitation des photons dans leurs plus lointains retranchements. Depuis que la lumière a été mieux comprise au début du siècle dernier, les astrophysiciens ont appris à regarder la lumière dans son entièreté, l'entièreté de son spectre en longueur d'ondes (ou en énergie, ce qui revient au même à deux constantes fondamentales près).

Spectre en longueur d'onde des photons
Qu'ils observent les photons du fond diffus cosmologique sous forme de micro-ondes de quelques mm de longueur (avec un maximum d'entre eux à 1,063 mm), ou bien les photons des ondes radio de 21 cm caractéristiques de l'émission de l'hydrogène neutre des grands nuages de gaz interstellaires, les photons émis dans l'infra-rouge par la poussière obscurcissant les cocons d'étoiles, ou bien encore les photons ultra-violets produits par les étoiles les plus jeunes, qu'ils parviennent à attraper des rayons X en provenance de trous noirs supermassifs ou bien des rayons gamma de plusieurs centaines de millions d'electron-volts nés dans la violence inimaginable d'explosions stellaires, les astrophysiciens travaillent toujours avec cette même particule, ce boson de masse nulle dont la vitesse est toujours la même, invariablement, et quelle que soit son énergie, le photon, qui doit son nom, ironie de l'histoire des sciences, au chimiste américain Gilbert Lewis en 1926 qui fit oublier le quantum de lumière (Lichtquant) cher à Einstein et Planck.

Mais l'astrophysique entre aujourd'hui de plain-pied dans une nouvelle ère, celle où les photons ne sont plus les messagers de l'Univers. 
C'est l'année dernière que pour la première fois furent observés d'autres particules (que des photons) venant du milieu extragalactique, des neutrinos à l'énergie colossale, qui furent mis en évidence par l'expérience IceCube
Signal mesuré des deux neutrinos les plus énergétiques
(Bert et Ernie) par IceCube
(IceCube collab.)
La première détection de neutrinos pouvant être qualifiés d'astrophysiques ne date en fait pas de 2013 puisque les neutrinos du soleil sont observés depuis les années 1970. L'astrophysique sans photons pourrait aussi être remontée à exactement un siècle en arrière, lorsque que Victor Hess montra en 1913 l'existence d'un rayonnement de particules chargées en provenance de l'espace au-delà de l'atmosphère.

Aujourd'hui, l'astrophysique sans photons, avec l'exploitation du signal que nous donnent les neutrinos de très haute énergie, vit comme une véritable seconde naissance. Car un autre signal astrophysique très différent des photons et des neutrinos, bien que ce déplaçant à la même vitesse (soit légèrement plus vite que les neutrinos), commence à pouvoir être effectivement exploité, et ce en association étroite avec les neutrinos ultra énergétiques (mais sans les photons). Il s'agit des ondes gravitationnelles. 

Ondes gravitationnelles produites
par un système binaire coalescent
Les ondes gravitationnelles potentiellement détectables sur Terre sont théoriquement produites par des processus astrophysiques très violents, de type coalescence entre deux étoiles à neutron, entre deux trous noirs ou entre une étoile à neutron et un trou noir. Ces ondulations de l'espace-temps sont produites principalement dans ces situations de coalescence d'objets ultra-denses, et se trouvent accompagnées dans les phénomènes physiques impliqués par de fortes émissions de neutrinos.

Sachant cela, les astrophysiciens et physiciens des particules ont eu l'idée d'utiliser les deux signaux en même temps pour scruter le ciel avec de nouveaux yeux.

Dans un article qui sera publié prochainement dans Nuclear Instruments and Methods in Physics Research A, Irene Di Palma, chercheuse au Max-Planck-Institut für Gravitationsphysik à Hanovre, décrit pour la première fois ce type de mesure conjointe qui utilise le signal neutrinos de l'expérience ANTARES (détecteur situé sous l'eau en Méditerranée) et le signal d'ondes gravitationnelles (OG) fourni par les deux grands détecteurs de d'OG que sont l'américain LIGO et l'européen VIRGO.
L'interféromètre VIRGO vu d'avion (CNRS)

En combinant ces deux messagers cosmiques et non-photoniques, la multi-collaboration obtient des résultats astrophysiques sous forme de limites et d'exclusions sur l'origine des neutrinos ultra-énergétiques détectés par ANTARES : leur conclusion est qu'ils ne peuvent pas provenir de couples étoiles à neutron-trou noir qui seraient situés à moins de 16 millions d'années-lumières ni de couples de trous noirs qui seraient situés à moins de 33 millions d'années-lumières.

Ces premiers résultats ont bien sûr un caractère un peu imprécis, c'est normal pour une première, mais ils ouvrent la voie désormais à une vraie astrophysique des événements les plus violents et rares de l'Univers en se passant complètement des photons*.

Les données de IceCube, plus nombreuses et précises vont maintenant être à leur tout exploitées en association avec LIGO et VIRGO, pour des résultats toujours améliorés.


* Ironie du sort, les neutrinos sont détectés par ANTARES et IceCube grâce aux photons qui sont produits par les particules chargées issues des réactions des neutrinos dans l'eau...


Référence :

Multimessenger astrophysics : When gravitational waves meet high energy neutrinos
Irene Di Palma, the ANTARES Collaboration, the LIGO Scientific Collaboration and the Virgo Collaboration
à paraître dans Nuclear Instruments and Methods in Physics Research A