Magazine Science & vie

117 - du mythe de la genese en astrophysique

Publié le 22 janvier 2013 par Jeanjacques

Le récit de la genèse primordiale représente un sommet de l’imaginaire mathématique, une sorte d’apothéose de la physique du XXeme siècle toute entière vouée à la puissance descriptive du langage mathématique.

1 - La science véritable se définit comme une dialectique constante entre l’élaboration d’hypothèses et la mise en œuvre de procédure de vérification. Or le modèle du big bang est absolument invérifiable. Nous sortons du domaine de la science pour entrer dans celui de la foi en des modèles sans assise expérimentale possible. Ce modèle nous raconte l’histoire de l’évolution de l’univers à une époque où la densité de matière était la même que celle d’un noyau atomique et la température de 1OE12 K. Mais il est aussitôt précisé que ces conditions sont si extrêmes que les lois physiques connues ne s’appliquent pas pour les décrire (il faut donc seulement y croire !)  Ainsi on peut lire chez certains auteurs :

1 - Avant 10-43 seconde, l’environnement de l’Univers est si extrême (masse de l’Univers concentré dans un point et température infinie?) que notre physique est pour l’instant humblement muette. Tout ce qui se passe avant cette date chronologique incroyablement courte est un mystère total. Pourquoi ?
Car 10-43 seconde correspond à ce que l’on dénomme le temps de Planck, sorte de quantum temporel incompressible. Cet intervalle de temps semble être le plus petit possible selon la physique quantique, de la même manière que la distance de Planck ( 10-35 m ) semble être la plus petite distance accessible à notre physique. Nul ne sait encore très bien à quoi pouvait bien ressembler notre univers à une telle échelle de Planck. La difficulté apparaît dès que l’on met en rapport un temps aussi minuscule que 10-43 seconde avec la colossale énergie de l’univers, concentrée, à l’époque, dans un volume aussi infime. La valeur de cette énergie est alors très mal définie. Or, c’est l’énergie, avec la matière, qui imprime sa forme à l’espace et détermine comment s’écoule le temps. Sur des distances et des durées de l’ordre de l’échelle de Planck, espace et temps deviennent des notions très difficiles à caractériser. La notion de distance entre deux points avait-elle déjà un sens quand l’univers était aussi petit ? Le temps s’écoulait-il déjà du passé vers le futur? Au temps de Planck notre Univers n’a que environ 10-33 cm de diamètre, c’est-à-dire 10 millions de milliards de fois plus petit qu’un atome d’hydrogène! Sa température est de 1032 degrés Kelvin (0°K = -273°C).

De fait, ce temps de Planck correspondait à une sorte de néant puisqu’il « n’existait » ni temps ni espace. Ici apparaît l’une des pratiques habituelles: on use d’une notion commune et reconnue (la constante de Planck) en la transférant dans un domaine où son effectivité ne peut être prouvée. Passons sur l’aberration qui consiste à affirmer que notre univers est 1O millions de fois plus petit qu’un atome d’hydrogène pour constater que sa température est 10.32 k. Pourquoi Comment est-il possible de mesurer la température d’un « objet » quasi inexistant dans l’espace sachant qu’une température  est avant tout la manifestation d’une agitation d’un corps dans l’espace ?  Ici ? la notion de température classique n’a plus aucun sens.

2 - Les auteurs nous disent également que : A ce stade d’évolution, la matière n’était pas encore née, seul le « vide » régnait, mais attention! Le vide de l’Univers n’était pas vide : il comprenait de nombreuses particules virtuelles de matière et d’antimatière qui apparaissaient et disparaissaient comme des bulles de savon. Notre Univers actuel est peut-être issu de l’une de ces fluctuations quantiques du vide ! Dans cet Univers, toujours le vide quantique où bouillonne une énergie inimaginable. Celle-ci se matérialise sporadiquement ( n’oubliez pas E=mc² ! ) en d’éphémères particules et antiparticules fantômes.

Ainsi, dans ce vide quantique les particules virtuelles apparaissent c’est-à-dire qu’elles doivent s’extraire du vide pour aussitôt y retourner. Mais comme l’espace n’est pas encore créé, elles ne sauraient apparaître à la surface du réel. Ces particules virtuelle entrent et sortent dans le vide et autant dire qu’étant issu de nulle part, la physique quantique les contraints à y retourner. Par ailleurs, le vide n’a de sens que relativement à un plein et surtout à un espace. Dans l’état initial de Planck, on ne saurait recourir au vide puisque l’espace n’a pas encore été créé ! Enfin, ce vide est plein d’une énergie bouillonnante, de fluctuations. Mais quel objet fluctue de la sorte ? Certainement ces particules virtuelles qui entrent et sortent de ce vide. Ici encore, on utilise certains concepts de la physique quantique ayant été utiles par ailleurs, qu’on transpose sans aucune précaution épistémologique. Nous aurions ainsi deux objets physiques cohabitants : d’une part l’univers hyper concentré, y compris l’espace lui-même, et le vide où se trouveraient des particules virtuelles et qui ne font donc pas partie de la globalité de l’univers !

3 - Et nos auteur de continuer : A cette température de 1028 °K, l’énorme énergie du vide est libérée et imprime à l’Univers une expansion fulgurante que le physicien Alan Guth a appelé inflation. Entre 10-35 et 10-32 seconde, son volume augmente d’un facteur 1027 (ou 1050 selon d’autres sources ?) alors que dans les 15 milliards d’années suivantes, son volume n’augmentera que d’un facteur 109.

Ainsi, c’est l’énergie d’un vide inexistant qui va être à l’origine de l’explosion et de l’expansion. Comment s’effectue cette transformation de l’énergie du vide en rayonnements ? Comment le vide peut-il de lui-même susciter du rayonnement ? Comment ces fluctuations virtuelles peuvent-elles devenir réelles ? Le cosmologue doit alors se faire humble et tout en affirmant ce scénario comme crédible, doit avouer qu’il ne sait pas.

Ce scénario de pure science fiction se continue au temps T = 10E-2 s où le rayonnement domine suscité par la création et l’annihilation des paires électrons positrons, puis des explications extrêmement confuses font apparaître les protons et neutrons etc. Ce qui est étrange, c’est qu’il existe un temps dans la théorie du big bang où la température était celle requise pour les étoiles massives afin de fabriquer les éléments les plus lourds. En effet, seulement 1 million de degrés est nécessaire pour la fusion du carbone en oxygène, comparé aux milliards de degrés  de la boule de feu initiale devant se refroidir progressivement. Tout porte à croire qu’au moment de la nucléosynthèse primordiale, le Dieu imparfait des physiciens avait oublié la création des éléments lourds.

On aurait pu éviter une étape supplémentaire dans la nucléosynthèse si la totalité des éléments avaient été fabriqués dans la boule de feu originelle. Cependant la découverte de différences systématiques dans la composition des étoiles rendait impossible l’hypothèse d’une production unique de ces éléments qui se seraient répandus uniformément. Par ailleurs, les températures du cœur de certaines étoiles donnaient à penser que celles-ci devaient nécessairement synthétiser ces éléments

Comme le modèle d’une fabrication interne par chaque étoile de leurs éléments était récusé, il ne restait plus qu’à scinder la procédure dans le temps et l’espace et spécialiser certaines étoiles (les plus massives) dans la fabrication des éléments  lourds à partir des seuls hélium et hydrogène créés lors du big-bang. Dans ces étoiles la température était suffisamment chaude et surtout le temps suffisamment long pour que les collisions puissent produire une quantité significative de carbone. L’article de M.Burbidge,G.Burbidge,Fowler et Hoyle plus connu sous l’acronyme de B²FH constitua la référence première des astrophysiciens qui décrit la manière dont toute les variétés de noyaux ( sauf H et He) sont construits à l’intérieur des étoiles.

Ainsi, cette astucieuse genèse en deux temps permet-elle une justification mutuelle de l’une par l’autre : la nucléosynthèse stellaire, qui peut être prouvée par l’observation et les mesure des abondances,  sert à justifier le scénario improbable de la nucléosynthèse primordiale. Inversement, c’est parce qu’on constate des matériaux rendus disponibles par le big bang  que cette synthèse seconde par les étoiles est rendue possible. Big bang et théories stellaires participent effectivement d’un même paradigme scientifique a priori cohérent  qu’on ne peut segmenter.

 Pour une approche globale, voir le site : http://lesnouveauxprincipes.fr/


Retour à La Une de Logo Paperblog

A propos de l’auteur


Jeanjacques 37 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazine