jeudi 29 mars 2012

Mercure, Planète de Fer !

On vient d'en apprendre un peu plus sur Mercure, cette petite (4878 km de diamètre) planète brûlante par sa proximité du Soleil. Une sonde est actuellement en train de tourner autour, de son petit nom MESSENGER. Et une équipe américaine a utilisé MESSENGER avec une méthode très particulière pour en déduire la nature de l'intérieur de la planète Mercure.
Cette méthode a consisté à suivre le plus précisément possible la trajectoire de la sonde au cours de ses orbites autour de la planète par suivi radio. Pour cela, les grandes oreilles de la NASA ont été déployées (le réseau Deep Space Network (DSN) écoutant ce qui se passe à 8 GHz en direction de Mercure).

Cartographie altimétrique de Mercure (NASA, Science)
De ces données de positions, les astrophysiciens ont recalculé le champ de gravitation de la planète produisant les mouvements observés. Ainsi, associées à des données connues sur la topologie et la rotation de Mercure, de grandes anomalies gravitationnelles ont pu être mises en évidence dans l'hémisphère Nord de la planète. Smith et al.  ont réussi à montrer que la croûte de Mercure était plus épaisse à l'équateur qu'aux pôles par exemple. 
Mieux : grâce à ces données, les chercheurs ont mesuré le moment d'inertie de la planète et surtout le rapport du moment d'inertie de la couche solide externe sur celui des couches internes. Ils en déduisent un modèle pour la distribution radiale de la densité de Mercure.

La découverte qu'ils ont faite est que le cœur de fer de Mercure semble bien plus gros que ce qu'on pensait généralement. Il représenterait 85% du rayon. Mercure est presque entièrement une planète de fer !
Ce gros noyau de fer serait en grande partie liquide, avec un cœur probablement solide. Il est entouré par une couche pas très épaisse de sulfure de fer…
Mais MESSENGER possède également à bord ses propres instruments de mesure pour étudier la surface de Mercure, et notamment un laser qui lui permet de mesurer l'altimétrie, c'est-à-dire le relief de la planète. L'hémisphère Nord de Mercure a été cartographié de cette manière et les résultats indiquent que Mercure est finalement très plate.
Son relief est par exemple bien moins accidenté que celui de Mars ou de la Lune. Les chercheurs de l'équipe de Maria Zuber du MIT ont montré que le bassin d'impact Caloris (1500 km de diamètre) a subi une lente élévation et montre une très faible pente quasi linéaire qui s'étend sur près de la moitié de la circonférence de Mercure aux latitudes moyennes…

Ces premiers résultats concernent principalement l'Hémisphère Nord de Mercure. On attend maintenant d'autres données concernant son hémisphère Sud, MESSENGER tourne en effet dans une orbite Nord-Sud depuis un an maintenant et les données affluent chaque jour... 

Sources :
Gravity Field and Internal Structure of Mercury from MESSENGER
David E. Smith et al.
Science 21 March 2012

What lies beneath Mercury's surface 
Nature 483, 513  (29 March 2012)

Topography of the Northern Hemisphere of Mercury from MESSENGER Laser Altimetry
Maria Zuber et al.
Science 21 March 2012


lundi 26 mars 2012

Système Solaire cherche Aspirateur !!

On le sait peu, notre système solaire est entouré par un dense nuage de gaz et de poussières. On l’appelle le Nuage Interstellaire Local. Sa densité est de l’ordre de 0.3 atome d’hydrogène par cm3.
Ce nuage ainsi que d’autres nuages proches du milieu interstellaire font partie d’une structure plus vaste contenant du gaz chaud et peu dense : la Bulle Locale. Notre système solaire est situé au bord du Nuage Interstellaire Local et se déplace en direction d’un autre nuage voisin qui s’appelle le G-Cloud, que nous pourrions atteindre dans moins de 10000 ans.

De la poussière interstellaire est incrustée dans le gaz du Nuage Interstellaire Local, de telle façon qu’ils partagent la même vitesse. La vitesse et la direction de cette poussière est en fait associée à la vitesse à laquelle se déplace le Soleil (et donc le système solaire) par rapport à ce nuage gazeux. Cette poussière en mouvement a pu être mesurée par la sonde Ulysses en 1999 à la vitesse de 26 km/s.

La sonde Ulysses (vue d'artiste, NASA)
Des astrophysiciens avaient prédit dans les 1970 que la poussière interstellaire étant chargée électriquement devait évoluer différemment en fonction de l’activité magnétique du Soleil. C’est ce qu’ont cherché à mesurer diverses sondes après Ulysses, comme Galileo, Helios et même Cassini en route pour Saturne…
Différents modèles de poussière interstellaire ont été proposés depuis de nombreuses années. Celui qui tient la cotte serait une poussière formée de grains de silicates de 0.3 microns, pas moins. Des grains plus petits seraient en quelque sorte filtrés par l’héliopause (la frontière du système solaire). Des astrophysiciens se sont spécialisés dans l’étude de cette poussière en produisant des simulations numériques des trajectoires de ces grains, en leur appliquant les trois forces auxquelles ils sont soumis : la gravitation du soleil, la pression de radiation venant du soleil également et les forces de Lorentz, dues à la présence du champ magnétique interstellaire, agissant sur ces grains chargés électriquement…

Bien sûr d’autres forces existent mais se trouvent tout à fait négligeables vis-à-vis des trois principales (on peut citer le frottement de Poynting-Robertson, l’effet Yarkowski, le vent solaire ou la force de Coulomb).
L’effet de la pression de radiation (répulsive) est antagoniste à celui de la gravitation du soleil (attractive). Les astrophysiciens ont ainsi pu montrer que lorsque la pression de radiation est supérieure à un facteur 1.3 à la gravitation (se rapport dépend de la masse des grains, donc de leur taille), les grains ne peuvent pas s’approcher du Soleil plus près que 1 unité astronomique (distance Terre-Soleil).
Or il se trouve que le rapport pression de radiation sur gravitation reste constant quel que soit l’endroit dans le système solaire (les deux évoluent inversement avec le carré de la distance), il est donc caractéristique des grains eux-mêmes (leur taille).
Le Nuage Interstellaire Local (NASA).

Ce qui a pu être observé en outre, c’est l’effet des cycles solaires sur les mouvements de ces grains de poussière interstellaire : pendant les 11 ans d’un cycle solaire où le pôle Nord magnétique se trouve dans l’hémisphère Sud, les grains sont défléchis vers l’équateur solaire, aux environs du plan de l’écliptique. C’est la période dite de focalisation, au cours de laquelle le flux de poussière atteint son maximum à l’écliptique. Mais 11 ans avant (ou après), c'est-à-dire après inversion des pôles magnétiques, ce flux est réduit par environ un facteur 3, comme a pu l’observer la sonde Ulysses. Les grains se retrouvent alors non plus dans le plan de l’écliptique, mais concentrés aux très hautes et très basses latitudes, à environ 10 à 20 unités astronomiques au dessus des pôles du Soleil…

L’étude fine des mouvements de la poussière au sein du système solaire permet ainsi de déterminer ses caractéristiques comme le facteur béta (rapport pression sur gravitation) ou encore leur rapport Q/m (rapport charge sur masse).

Ou comment déterminer la taille d’une poussière en mesurant sa vitesse grâce au Soleil !...


source :
Astronomy & Astrophysics 538, A102 (2012)
The flow of interstellar dust into the solar system
V. J. Sterken et al.

jeudi 22 mars 2012

100 Ans de Rayons Cosmiques

2012 est l’année du centenaire de la découverte des rayons cosmiques par le physicien autrichien Victor Hess. La découverte de l’existence d’un rayonnement cosmique, particules ionisantes atteignant la haute atmosphère telle une petite pluie continue, est une conséquence de la découverte de la radioactivité à la fin du 19ème siècle par Becquerel et Curie.  
illustration de rayons cosmiques (NASA)
  Très vite, les physiciens observèrent que certaines roches pouvaient produire du rayonnement ionisant. Pour mieux comprendre le phénomène et mieux le cerner, ils entreprirent de placer des électroscopes (leurs détecteurs de l’époque) dans différents milieux. Certains en utilisèrent sous terre, d’autre au fond de l’eau, d’autres encore au sommet des montagnes, et Victor Hess, lui, eut l’idée avec d’autres en 1911 d’aller voir à très haute altitude ce qu’il pouvait y mesurer, grâce à un ballon d’hydrogène.

 Et Hess découvrit que l’ionisation commençait par décroitre avec l’altitude, puis se mettait à augmenter très sensiblement jusqu’à 5300 m d’altitude, son maximum atteignable. Ce vol eut lieu exactement le 17 avril 1912 au-dessus de l’actuelle République Tchèque, le jour d’une éclipse partielle de Soleil, dans le but d’observer une éventuelle variation dans le signal d’ionisation mesuré pour en déduire une éventuelle origine solaire… Il n’était alors âgé que de 29 ans. Il reçut le prix Nobel en 1936 pour ces découvertes, seulement deux ans avant de pouvoir s’enfuir d’Autriche et émigrer aux Etats-unis. 

Victor Hess dans son ballon en 1911 (Nature)
Depuis sa découverte, les recherches sur les rayonnements cosmiques ont évoluées vers des directions que Hess n’aurait jamais pu imaginer, depuis la découverte de l’antimatière jusqu’à la datation du carbone14… mais aussi vers la grosse physique des particules. Bien qu’aujourd’hui les collisions de particules soient étudiées principalement grâce à des accélérateurs de particules géants comme le LHC au CERN, la seule fenêtre d’étude des particules les plus énergétiques du monde ne peut se faire qu’en étudiant les rayons cosmiques. Et l’étude des rayons cosmiques primaires est une branche à part entière de l’astrophysique, notamment pour l’étude des phénomènes stellaires violents qui sont à l’origine de l’émission de quantité de particules énergétiques formant cette pluie qui nous tombe sur la tête…

Mais il faut rendre à César ce qui lui appartient : le terme de rayons cosmiques (cosmic rays) a été inventé par le physicien américain Robert Millikan en 1925, plus de dix ans après le célèbre vol de Hess. Un vif débat agitait alors la communauté des physiciens sur la nature de ces rayonnements, Millikan jurait qu’il s’agissait de « rayons » comme des rayons électromagnétiques, alors que de son côté, Arthur Compton avait démontré qu’il s’agissait de réelles particules chargées, en ayant montré leur déflexion par le champ magnétique de la Terre. Même si c’est Compton qui avait raison, le terme de Millikan est resté.
L’étude des rayons cosmiques a apporté beaucoup de découvertes inattendues. La plus importante d’entre elles est certainement la découverte par Carl Anderson de l’antiélectron en 1932 en observant les traces de rayons cosmiques laissées dans une chambre à brouillard (chambre de Wilson). Ce n’est pas un hasard si le comité Nobel récompensa en même temps Hess et Anderson seulement quatre ans plus tard.

C'est à un physicien français que l'on doit la découverte de la production de particules secondaires sous forme de grandes gerbes : Pierre Auger, qui partage avec Victor Hess l'honneur d'avoir donné son nom à une expérience de détection de rayons cosmiques.
Spectre énergétique et fréquence des rayons cosmiques.
 
Dans les années 50, c’est toujours en étudiant les rayons cosmiques que l’on découvrit tout un zoo de particules, qui fécondèrent la théorie de la physique des particules telle qu’on la connait aujourd’hui : hypérons, pions, muons, kaons apparurent…

A partir des années 60, on commença à pouvoir déterminer la composition des rayons cosmiques primaires (ceux qui impactent l’atmosphère en créant toutes ces gerbes de particules) et on put déterminer la présence de noyaux d’atomes plus lourds que les très abondants hydrogène (protons) et hélium (particule alpha).
On parvient aujourd’hui à connaître les proportions d’isotopes de noyaux lourds dans le rayonnement cosmique, ce qui permet d’évaluer approximativement leur provenance, en terme d’objet (étoile, résidu de supernova, …) et d’environnement. Les physiciens des astroparticules cherchent à savoir comment de telles particules parviennent à atteindre des vitesses très proches de la vitesse de la lumière, donc une énergie cinétique colossale… 

Pour fournir un ordre de grandeur, le rayon cosmique le plus énergétique jamais détecté était une particule dont l’énergie était celle d’une balle de tennis lancée à 160 km/h !, ce qui fait une énergie plus de 100 millions de fois plus grande que le plus énergétique proton accéléré au LHC…
Heureusement pour nous quand-même, ce type de particules d’ultra haute énergie est très rare. On estime qu’il en arrive sur Terre que quelques-unes par kilomètre carré par siècle. Et lorsqu’elles interagissent dans l’atmosphère, elles produisent des milliards de particules secondaires qui se répartissent à la surface de la Terre sur des dizaines de kilomètres carrés. En détectant l’arrivée de ces myriades de particules secondaires et en en mesurant l’énergie et la direction, les physiciens parviennent ainsi à reconstruire la particule primaire initiale ainsi que sa direction d’incidence, permettant alors de déterminer sa provenance astrophysique potentielle (galaxies actives, résidu de SN ou autre).

Bien sûr, nous sommes traversés en permanence les rayons cosmiques (primaires ou secondaires), et de même que la radioactivité naturelle des roches qui nous entourent, nous subissons très légèrement des ionisations de nos cellules, pouvant amener d’éventuelles lésions, qui font intervenir le hasard le plus total. Mais un point important qui doit être noté concerne les hommes qui se déplacent au-dessus de l’atmosphère, les astronautes.
Eux subissent des flux de rayons cosmiques très importants, à tel point qu’ils dépassent bien souvent tous les seuils acceptables en termes de dose de radiation lors de séjours prolongés. L’existence du rayonnement cosmique implique également ce type de forte contrainte dans le cas de voyages lointains, vers Mars par exemple. Si cette exploration humaine de Mars n’est toujours pas lancée alors qu’elle nous était promise depuis bientôt trente ans, il n’est pas impossible que l’impact dosimétrique des rayons cosmiques sur les organismes n’y soit pas pour rien…

Mais les rayons cosmiques ont aussi des effets bénéfiques, ou en tous cas utiles, puisque c’est les rayons cosmiques qui produisent le carbone 14 dans l’atmosphère par réactions nucléaires sur l’azote. Et ce carbone 14 se retrouve ensuite naturellement absorbé par les plantes puis dans tout organisme vivant. C’est grâce à cet isotope « naturel » du carbone que l’on parvient à dater très précisément tout objet à base de matière organique en comparant la quantité mesurée de Carbone-14 par rapport au Carbone-12. Cette technique a réellement révolutionné l’archéologie au 20ème siècle.

Après 100 années, la recherche sur les rayons cosmiques est une science mature mais elle peut encore réserver des surprises de taille. Les rayons cosmiques sont aujourd’hui étudiés à l’aide de satellites, de ballons, et au niveau du sol sur de très grandes surfaces dans les déserts africains et sud-américains. Le but est de plus en plus d’identifier les sources de ces particules ainsi que les conditions physiques qui leur ont donné naissance, qui se révèlent le plus souvent beaucoup plus exotiques que ce qu’on pouvait imaginer.


 source :
A century of cosmic rays
Michael Friedlander
Nature  483,400–401 (22 March 2012)

lundi 19 mars 2012

Les Chinois en Tête dans la Course aux Neutrinos !

Les chinois sont désormais parmi les meilleurs dans la course aux neutrinos. Il n'a fallu aux physiciens chinois que 55 jours pour produire une mesure très précise d'un des 5 paramètres fondamentaux régissant l'oscillation des neutrinos, savoir l'angle de mélange dénommé théta 13.
Jusqu'à présent, on connaissait relativement bien 4 de ces 5 paramètres, les deux écarts de masse entre les trois saveurs et deux des trois angles de mélange (paramètres qui décrivent comment se mélangent les différents neutrinos). Il restait à mesurer le plus précisément possible ce dernier théta 13. Plusieurs expériences dans le monde sont dans la course, que ce soit auprès de réacteurs comme l'expérience Double Chooz en France ou RENO en Corée du Sud, ou bien en utilisant des faisceaux de neutrinos comme T2K au Japon, ou MINOS aux Etats-Unis.

site de la centrale nucléaire de Daya Bay.
Mais grâce à leurs détecteurs plusieurs fois plus imposants que ceux de leurs concurrents (100 tonnes) et un bon flux d'antineutrinos électroniques produit par six réacteurs de près de 3 GW, les physiciens chinois de Daya Bay ont pu mesurer l'angle théta 13 avec une bonne précision en moins de deux mois et trouvent une valeur de 8.8° +- 0.8. Les expériences concurrentes n'avaient jamais pu atteindre une précision aussi bonne.
Cette mesure consiste à mesurer le flux d'antineutrinos qui sort des réacteurs nucléaires à deux ou plus différentes distances. La différence de flux mesurée entre les deux localisations des détecteurs donne très directement une valeur de l'angle de mélange recherché.
L'élément clé qui a permis aux chercheurs chinois de doubler leurs concurrents sur le fil est sans conteste la taille de leurs détecteurs. Un mois de prise de données à Daya Bay correspond à 4 mois à Double Chooz, par exemple. Il se trouve aussi que l'expérience T2K japonaise a dû être brutalement interrompue le 11 mars 2011 du fait du terrible  tremblement de terre/tsunami. S'il n'avait pas eu lieu, les japonais auraient atteint aujourd'hui cette même précision.
Détecteurs utilisés à Daya Bay
Le fait que théta 13 ne soit pas égal à zéro est très encourageant pour la suite des événements. En effet, cela rend possible les recherches pour savoir si les neutrinos et les antineutrinos oscillent de la même manière. Ce comportement potentiellement différent entre particules et antiparticules leptoniques est crucial. Il est dénommé dans le jargon la violation de parité CP. Et si elle est avérée, cette violation de CP dans le secteur leptonique pourrait permettre de comprendre l'asymétrie semblant exister entre matière et antimatière dans l'Univers. C'est donc un résultat avec des implications non négligeables.
La Chine joue désormais dans la cour des grands en physique des particules. Et c'est un juste retour des investissements consentis par le gouvernement chinois qui n'a pas hésité à inciter fortement ces scientifiques de haut niveau émigrés aux Etats-Unis notamment de revenir travailler en Chine, en finançant aisément les recherches. L'expérience de Daya Bay a coûté environ 35 millions de dollars, dont les deux-tiers payés par la Chine, le restant l'étant par une collaboration de plusieurs pays (Etat-Unis, Russie, Taiwan, Rép. Tchèque).
Les quatre années qui viennent à Daya Bay vont être consacrées à mesurer encore avec plus de précision les paramètres du neutrino. Suite à cette phase, de nouveaux détecteurs devraient être positionnés à 60 kilomètres des réacteurs, pour cette fois-ci permettre de déterminer la hiérarchie des masses des trois neutrinos, qui est encore inconnue aujourd'hui.
Les chinois seront là encore en concurrence avec les japonais (T2K) et les américains (NoVA), mais l'expérience acquise et leur détermination semble d'ores et déjà  leur donner des ailes, pour le plus grand bénéfice de la science...


Source : Science 16 March 2012  Vol. 335 no. 6074 pp. 1287-1288

dimanche 18 mars 2012

L'Histoire de la Lune retracée

Très belle animation de la NASA retraçant plusieurs milliards d"années de l'Histoire de notre bonne vieille Lune...


NASA _ Evolution of the Moon par sunshine_i

vendredi 16 mars 2012

NuSTAR, Nouveau Télescope à Rayons X

On avait presque pris l’habitude de voir que l’astronomie dans l’espace coûtait des petites fortunes qui se comptaient en milliards de dollars, mais une astronomie en orbite innovante et de qualité peut aussi être très économe. C’est ce que montre le tout nouveau télescope à rayons X de la NASA.
Ce nouveau télescope spatial s’appelle NuSTAR (Nuclear Spectroscopic Telescope Array), et il ne coûte « que » 165 millions de dollars, ce qui est très peu comparé aux diverses sondes spatiales ou autres télescopes du type Hershel ou Kepler…
Le télescope NuSTAR (NASA/JPL)
NuSTAR est exclusivement dédié à l’observation des rayons X dits « durs », c’est-à-dire relativement énergétiques, qui sont produits principalement en périphérie des trous noirs supermassifs.
Sa mise en orbite sera particulière, et c’est aussi ce qui participe au faible coût de revient, puisqu’il va être embarqué sur une fusée Pégasus lancée depuis un avion porteur.

NuSTAR s’intéressera aux rayons X ayant une énergie comprise entre 5 keV et 80 keV, c’est-à-dire dans la plage encore inconnue, située exactement entre ce qu’observe le télescope Chandra X-Ray Observatory et ce que détecte le télescope Fermi (rayons gamma).

La fusée Pegasus larguée depuis son porteur
Les rayons X durs sont difficiles à focaliser car ils ont tendance à pénétrer dans la matière plutôt que de ce réfléchir dessus comme leurs cousins lumineux de plus faible énergie. Du coup, les scientifiques américains à l’origine de ce projet ont inventé de nouveaux types de miroir avec de nouveaux matériaux, sous forme de sandwiches de plusieurs centaines de films métalliques. Chaque couche réfléchit seulement un faible nombre de photon mais prises ensemble, elles permettent une forte réflexion, fournissant la meilleure sensibilité jamais atteinte pour ce type de système.
Mais ces rayons X sont si énergétiques (par rapport à la lumière ordinaire), qu’ils ne peuvent être réfléchis qu’à des très faibles angles, presque rasants. Les miroirs doivent alors être construits sous forme de 133 coquilles coniques à l’image de poupées russes, qui vont conduire les photons X par  réflexions successives vers un détecteur situé au fond du cône.
Des incidences rasantes signifient aussi la nécessité d’une très longue distance focale. On se rappelle que le  télescope X Chandra avec sa dizaine de mètres (et ses 2 milliards de dollars) tenait à peine dans le coffre de la navette spatiale.
Avec une longueur du même type, NuSTAR doit lui par contre tenir dans la petite fusée Pégase… Les scientifiques américains ont donc dû innover en imaginant un système replié sur lui-même qui devra se déployer une fois en orbite, le tout en 26 minutes, un beau challenge, certes risqué mais l’enjeu financier est très inférieur aux télescopes antérieurs…
C’est sur les noyaux actifs de galaxies que va se focaliser NuSTAR. Les noyaux actifs sont les cœurs des galaxies qui brillent de mille feux, hantés par des trous noirs de plusieurs millions à plusieurs milliards de masses solaires…
Vue d'artiste d'un AGN.
Et normalement, grâce à sa grande sensibilité, le télescope devrait découvrir de nombreux (plusieurs centaines prévus) nouveaux noyaux actifs de galaxies (AGN). Le but final est de mieux comprendre comment évoluent ces AGN et quel est leur rôle dans l’évolution des galaxies qui les abritent.
Les européens sont aussi intéressés par ce nouveau télescope américain, ils ont décidé d’offrir 10% du temps d’observation de leur satellite X XMM Newton à des observations conjointes avec NuSTAR. En observant simultanément les mêmes cœurs de galaxies, les astrophysiciens espèrent déceler comment tournent les trous noirs géants en étudiant d’éventuelles distorsions du spectre X émis. La mesure de la rotation des trous noirs géants peut permettre de mettre en lumière comment ces trous noirs parviennent à atteindre des masses de plusieurs milliards de soleil, soit en avalant d’autres trous noirs géants ou bien en absorbant lentement la matière de leur galaxie-hôte.
Ce nouveau télescope, qui sera lancé ce mois-ci, se révèle ainsi crucial pour l’ensemble de la communauté astrophysique, et qui plus est pour un coût tout à fait acceptable.

source : Nature (15 mars 2012)