Page d'accueil de
Christian Magnan

 

 


Privée de découverte depuis 50 ans, la science est en panne

shadocks

Une réponse à l'article de Bruno Rakinski paru dans le numéro d'avril 2017 de la revue de l'ADASTA, Association pour le Développement de l'Animation Scientifique et Technique en Auvergne

Christian Magnan
Collège de France, Paris



À la suite d'une conférence donnée le 7 décembre 2016 à l'invitation de l'ADASTA et intitulée « Privée de découverte depuis 50 ans la science est-elle en panne ? » un compte-rendu en a été publié dans la revue de l'association avec cet éditorial rédigé par Monsieur le Président Jean-Philippe Moulin :

« Je dois apporter quelques précisions concernant le compte-rendu de sa conférence par M. Christian MAGNAN. Cet article pour le moins engagé pourra vous surprendre car, s'il reflète bien la teneur de l'intervention, il ne correspond pas à ce que vous avez l'habitude de lire dans AUVERGNE Sciences. Au titre "Privée de découverte depuis 50 ans la science est-elle en panne ?" la réponse du conférencier est évidemment oui, ce qui n'a pu que faire réagir quelques membres de l'ADASTA comme vous habitués à une terminologie plus feutrée qu'imposture en parlant d'un prix Nobel, arnaque médiatisée avec des moyens de propagande à propos d'une hypothèse de travail et vérité que cache encore la science officielle pour qualifier des éléments de raisonnement.

Passons sur la forme, voyons le fond. Comme il est d'usage en matière de communication, nous publions bien sûr cet article in extenso et laissons à son auteur la responsabilité des termes qu'il emploie et des thèses qu'il soutient : nous savons tous que la Science est aussi confrontation d'idées et le débat ne nous fait pas peur. Par contre, après avoir proclamé haut et fort mon incompétence en cosmologie et astrophysique qui ne sont pas mes spécialités, je me demande si ledit débat nécessite de jeter l'opprobre sur l'ensemble de la communauté scientifique internationale, à commencer par le Comité Nobel ? Personnellement j'ignore s'il existe réellement une "science officielle" comme M. MAGNAN en porte l'accusation. Dans le rappel historique ci-après sur "L'Affaire LYSSENKO", on constate à quels errements cela peut conduire... Et in fine, dans l'article en question, après avoir critiqué les thèses et dénoncé les errements de cette "science officielle", que propose l'auteur à la place ?

Cet article a particulièrement fait réagir notre vice-Président Délégué Bruno RAKINSKI qui estime, comme la plupart d'entre nous, que la science ne s'est pas du tout arrêtée de progresser en 1966, bien au contraire. Nous publions donc sous sa plume un article très documenté qui soutient ce point de vue, évoquant des avancées scientifiques majeures réalisées dans la connaissance de l'univers depuis 50 ans.

Je vous laisse juges. »

Je comprends parfaitement que la position que j’ai défendue ait pu en choquer certains, au-delà de la forme j’entends, mais je suis le premier à souffrir d’une situation qui, si on l’analyse franchement, rationnellement et honnêtement, est intolérable pour un domaine, la science, qui, comme sanctuaire de la vérité, aurait dû demeurer le repère privilégié de notre civilisation. En recevant le numéro qui contient mon texte, j’ai découvert celui de Monsieur Bruno Rakinski intitulé « Riche de ses découvertes depuis 50 ans, la science est en marche ! ». (!) L'auteur y rapporte fidèlement le discours officiel des cosmologistes, celui dont j’ai contesté dans ma conférence la véracité. Je regrette toutefois que cette présentation, contrairement à ce que l’on aurait pu attendre, n’engage pas un véritable débat. En effet, pour dire les choses rapidement, si on veut faire avancer les choses et non continuer à tourner en rond avec le discours officiel, c’est bien à mes arguments que l’on doit répondre, ceux que j’ai exposés lors de ma conférence et que l’on peut trouver de façon plus détaillée sur mon site « lacosmo.com » ou dans mon livre « Le théorème du jardin ». En effet la critique de la recherche actuelle, contrairement à ce qu’affirme Bruno Rakinski, est totalement inexistante chez ceux qui font cette recherche, cette absence de débat constituant le caractère aberrant et malsain de la situation. La phrase de Bruno Rakinski « après hésitation et débats, plus aucun astrophysicien ne remet en cause l’existence d’une grave anomalie dans la mesure de la masse-énergie de l’Univers » est terrible à mes yeux puisque je prétends avoir montré que l’existence de cette anomalie n’est pas, et ne peut pas, être établie. Seulement, et là Bruno Rakinski dit vrai, aucun astrophysicien ne remet en cause les résultats et n’a répondu aux objections qu’on peut leur opposer sur des bases scientifiques sérieuses.

Voici des éléments de réponse à l'article de Bruno Rakinski.

(i) La cosmologie a dépensé des milliards d’euros dans des expériences qui n’ont apporté aucun résultat. Je cite comme exemple (i) le satellite Hubble, qui n’a rapporté que de magnifiques photos mais n’a pas fait avancer d’un pouce la connaissance de la formation des étoiles (déclenchement, freinage de la protoétoile, formation des planètes, etc.) (ii) les satellites COBE et Planck qui devaient tout nous apprendre sur les premiers instants de l’Univers. A cette absence avérée de résultats la science officielle répond qu’elle a du travail pour les dizaines d’années à venir. On est priés de la croire.

(ii) Contre les théories concernant la matière noire et l’énergie noire je présente l’argument simplissime, mais pas simpliste suivant. S’il existe une grave anomalie dans la détermination de la masse-énergie de l’Univers, comment se fait-il qu’aucune recherche ne soit développée pour tenter d’expliquer par la physique que nous connaissons les anomalies constatées ? Comment se fait-il en particulier que l’on ne s’attaque pas sérieusement et assidument au problème de la structure des galaxies, qui, contrairement à ce que suggère le discours officiel, n’est pas déterminée par la seule loi newtonienne de la gravitation ? On pourra constater que les articles cités datent terriblement, ce qui prouve bien que la recherche en ce domaine est arrêtée. Si tant est qu'elle ait commencé.

(iii) D’un point de vue strictement scientifique, il faudrait que la science reconnaisse qu’elle n’a pas les moyens d’analyser les mouvements des galaxies, que ce soit dans les amas ou en dehors. Nul ne connaît les équations qui régissent le mouvement des galaxies dans l’Univers en expansion auquel elles appartiennent. Les analyses reposant sur les vitesses des galaxies dans les amas utilisent un théorème du viriel dont je continue à affirmer qu’il ne s’applique dans pour un amas « relaxé » (ou « virialisé »), c’est-à-dire ayant atteint un état d’équilibre, contrairement à la fausse affirmation de Rakinski selon laquelle ce théorème "peut parfaitement s'appliquer hors équilibre, sous conditions". Par conséquent ces analyses sont nulles et non avenues. Je redis également que l’astrophysique actuelle ne sait pas où se situe la limite entre ce qui est en expansion et ce qui ne l’est pas et ignore de ce fait ce qu’est un amas. La soi-disant réponse à cette question apportée par Suzy Collin-Souffrin et citée par Rakinski est d'une pauvreté affligeante. Qu'on en juge : « Les observations montrent que la plupart des galaxies et des amas de galaxies ne sont plus en expansion [ce dont je ne doute pas!], car la contraction gravitationnelle qui leur a donné naissance a pris le pas sur l'expansion, et un équilibre entre l'énergie thermique et l'énergie gravitationnelle a été atteint. Par contre ce n'est pas le cas pour des amas extrêmement lointains qu'on observe dans leur période de formation ». Ces considérations sont à théoriser avant de pouvoir réellement répondre au problème de la structure d'un amas dans un univers en expasion.

(iv) Une conséquence fâcheuse de cette ignorance des lois du mouvement des galaxies dans un univers en expansion est que nous ne pouvons pas mesurer proprement la vitesse d’expansion de l’Univers à partir de l’analyse des vitesses radiales des galaxies. Comment parler de l’accélération de la vitesse d’expansion de l’Univers alors que nous ne pouvons pas la mesurer ? La remarque de Bruno Rakinski concernant une mesure de la vitesse d’expansion par d’autres moyens ne vaut pas puisque si la première mesure (directe en quelque sorte à partir des supernovae) n’est pas validée les nouvelles perdent du même coup leur statut de validation de sorte qu’il faut recommencer à zéro. Et on peut insister aussi sur le fait qu'il s'agirait de mesurer la vitesse avec une précision suffisante et fiable ce qui est mission impossible puisque, je le disais dans ma conférence, l'astrophysique est une science d'ordre de grandeur. De toute façon il est clair que la mesure "directe" conserve tout son intérêt, et là nous tombons sur une difficulté majeure car l'hypothèse de la similarité entre toutes les supernovæ de type Ia est forcément fausse comme le rappelle le paragraphe suivant de mon livre (p. 263) :

« D’abord il s’agit de mesurer la distance de supernovæ très lointaines, et on ne peut pas faire confiance à de telles mesures. Les astronomes supposent que la luminosité intrinsèque des supernovæ est la même pour toutes : indépendante de l’objet particulier mesuré. Mais cette hypothèse, impossible à prouver, est gratuite. Ce serait bien la première fois en astrophysique qu’une classe d’objets serait entièrement homogène (ne comporterait que des objets identiques). Il faudrait des confirmations extérieures pour valider l’hypothèse et faire en sorte qu’elle ne réduise pas à un vœu pieux (ou plus justement à une affirmation dogmatique). Sans vouloir jouer les prophètes, on peut parier sans crainte de se tromper que l’annonce de la non-uniformité des supernovæ concernées viendra un jour. Rappelons-nous que les céphéides de Henrietta Leavitt ont dû être scindées en plusieurs classes de propriétés différentes, alors qu’on aurait aimé leur faire jouer le rôle d’étalons de lumière. Le monde est toujours plus compliqué que ce que le désirent les astrophysiciens. Et puis, comme nous le disions plus haut, la nature ne se répète jamais : elle ne fera jamais deux supernovæ identiques. Et si elle fabrique incontestablement des classes d’objets (comme par exemple des étoiles de tel type) les propriétés des astres à l’intérieur de chaque classe se répartissent sur des bandes possédant une certaine largeur et non sur des courbes d’épaisseur nulle (lesquelles correspondraient à des relations exactes, ce qui est antiphysique). Enfin lorsque nous voyons des astres situés à dix milliards d’années de lumière, nous les voyons tels qu’ils étaient il y a dix milliards d’années. Comment pouvoir décréter que les supernovæ d’antan étaient les mêmes que celles de maintenant ? Après tout nous savons que leur composition chimique était différence puisque les générations d’étoiles ne s’étaient pas encore succédé pour fabriquer (par supernovæ interposées) les éléments lourds. Les premières supernovæ étaient forcément d’une composition différente des suivantes. [c'est moi qui souligne] »

Si des publications existaient sur ces points très précis que je soulève,  il serait facile de me les opposer comme des pièces à conviction me contredisant.

Enfin je voudrais terminer sur l’incompétence des astrophysiciens en matière d’étoiles. Je m’explique. En parlant avec Bruno Rakinski j’ai pu apprécier sa vivacité d’esprit, sa grande culture et sa connaissance pointue de bien des domaines de la physique. Mais il ne peut pas juger de la qualité de la recherche actuelle en astrophysique et du coup se retrouve forcé, comment faire autrement ?, de répéter ce que j’appelle le « discours officiel ». Il n’est pas question pour moi de l’attaquer sur ce point. Il a réussi par son travail à faire la synthèse des travaux actuels et ce n’est pas sa faute si le débat ne fait plus partie de la recherche. En revanche je voudrais souligner les raisons qui font de moi l’une des seules personnes capables de critiquer les théories dont se servent les astrophysiciens. J’ai développé dans mon livre une section consacrée à ce que j’appelle la « dictature du modèle », c’est-à-dire en l’occurrence le fait que les astrophysiciens ne parlent pas des étoiles « vraies », celles que l’on peut observer, mais des modèles d’étoiles, qui ne sont que de piètres, et souvent fausses, représentations de la réalité. En renvoyant le lecteur à ce chapitre, je mentionne plus bas quelques points capitaux de la faiblesse des modèles d’étoiles.

J’ai effectué ma recherche dans les murs de l’Institut d’astrophysique de Paris auprès de chercheurs éminents comme Évry Schatzman et Dick Nelson Thomas. Dans notre équipe nous étions des spécialistes de physique stellaire, une discipline oubliée depuis et assez peu synamique. Il est fichtrement plus sexy de nos jours et flatteur aux yeux des médias de se présenter comme un gourou dernier cri en cosmologie que comme un laborieux et traditionaliste spécialiste en physique des étoiles. Nous avions une attitude critique par rapport aux modèles qui tous étaient construits sur des hypothèses d’équilibre, dont le fameux « équilibre thermodynamique local » ou ETL. Nous nous intéressions aussi fortement aux mouvements de matière dans les étoiles, notamment aux phénomènes de perte de masse, toutes choses qui existent de façon évidente dans la réalité mais pas dans les modèles utilisés dans le quotidien du chercheur. Ma thèse avait pour titre « Formation des raies dans des milieux en mouvement ». Raies : il s’agit des raies présentes dans les spectres des étoiles. Comme elles représentent la seule source d’information sur la structure de ces astres, la fiabilité du diagnostic est un élément crucial de l’analyse. En bref je sais ce qu’est une étoile mais en même temps je sais la faiblesse de la détermination de leurs paramètres physiques car ces étoiles sont des objets hors équilibre et de ce fait hors de portée de la modélisation simpliste et réductrice des modèles du marché (disponibles en ligne). Les cosmologistes ignorent cette vérité. Et comme l’Univers est formé d’étoiles, sauf à croire à l’existence d'ectoplasmes noirs, je laisse le lecteur juger du mal fondé des conclusions de la cosmologie.

Le principal « défaut » (pour ne pas dire impuissance) des modèles théoriques d’étoiles est qu’ils sont construits sur la base d’un petit nombre de « paramètres fondamentaux » qui, bien que paraissant fiables à première vue, n’ont dans la réalité qu’une signification très relative et grossière. Parfois ils n'ont même aucune signification. Premier paramètre, le rayon R. Considéré dans la théorie comme la limite entre l’étoile et l’extérieur dans l’étoile théorique il n’a pas de sens pour l'étoile de la nature car la zone de transition avec le milieu interstellaire est le lieu de phénomènes hydrodynamiques d’une folle complexité affectant en retour toute la structure de l’étoile. Deuxième paramètre, la température T. Dite température « effective » elle mesure l’énergie émise par unité de surface de l’étoile, en vertu de la loi de Stefan-Boltzmann applicable au rayonnement de ce que la physique appelle un corps noir (à ne pas confondre avec matière ou énergie noire !!). Hélas une étoile ne rayonne pas comme un corps noir et la notion de température est définitivement inadéquate. On peut me croire, la situation est claire : le concept de température n’a de sens que pour un gaz de particules (éventuellement un gaz de photons, donc un rayonnement) à l’équilibre. Le seul milieu connu répondant à ce critère est le fond cosmologique diffus, qui, comme le rappelle Bruno Rakinski, suit la loi de Planck car il manifeste d’un rayonnement qui était à l'origine à l’équilibre thermique et a conservé sa répartition en longueur d'onde. Mais, hélas pour les théoriciens des étoiles, c’est le seul exemple de gaz à l’équilibre, exception faite du gaz d’électrons, comme je l’ai appris dans mes recherches. On peut retenir que seule la température électronique a un sens. Toute autre température est dénuée de sens en astrophysique car l’équilibre thermodynamique n’affecte aucun corps céleste dans aucune de ses composantes qu'il s'agisse de rayonnement ou de matière.

Seule la masse M de l’étoile théorique est acceptable comme paramètre capable de caractériser une étoile réelle. Il suffit en effet de faire graviter un corps autour de l’étoile et de calculer sa période de révolution, la loi de Kepler se chargeant de relier cette période à la masse de l’étoile. Masse M et rayon R se combinent pour donner une gravité de surface g, mais comme nous avons vu que le rayon est mal défini, ce paramètre g est mal adapté à la réalité. Le dernier paramètre fondamental concerne la composition chimique de l’étoile, et ce paramètre est tout simplement impossible à mesurer de façon sûre car il faudrait le déterminer à tout endroit de l’étoile et nous n’avons aucun moyen de le faire. Il faut savoir que la structure d’une étoile est très sensible à sa composition chimique et donc savoir qu’il y a là une inconnue majeure dans l’analyse des vraies étoiles. Ah ! Si les cosmologistes connaissaient la fragilité des paramètres physiques stellaires, je pense qu’ils seraient bien moins affirmatifs dans leurs conclusions.

La principale conséquence de cette inadéquation des modèles à la réalité concerne la mesure de la distance des étoiles. En effet, pour mesurer cette distance il n’y a qu’un moyen : connaître la luminosité intrinsèque de l’étoile et la comparer à la luminosité observée. Or le problème est que l’on ne connait la luminosité intrinsèque qu’à travers un processus dont les étapes sont peu dignes de confiance. Il faut d’abord reconnaître le type de l’étoile, au vu de son spectre, ce qui n’est pas chose simple, d’autant que chaque étoile, bien qu’appartenant peut-être à un certain « type », a sa propre spécificité. Ensuite il faut passer par un modèle, dont nous venons de voir les limites, et calculer la luminosité théorique. Alors on pourra sortir une distance, mais avec quelle incertitude ? Sachez que nous ne connaissons pas la distance de l’amas des Pléiades, à l’intérieur de la Voie Lactée, très proche de nous à l’échelle de l’Univers, à mieux que 10% près. La distance des galaxies lointaines, mais les cosmologistes ne le savent pas, est extrêmement mal connue. Sauf à appliquer directement la loi de Hubble donnant vitesse de fuite en fonction de la distance, car la vitesse radiale est, elle, mesurable. Sauf que la loi de Hubble n'est valable que pour un modèle d'univers homogène et isotrope (le modèle fini de Friedmann) et que, nous venons de le dire plus haut, on ne sait pas faire la correspondance entre cet univers théorique et l'univers des galaxies réelles qui sont animées de mouvements particuliers ne participant pas de l'expansion.

Je dirai en conclusion qu'il y a encore énormément de travail théorique à accomplir dans le domaine de la dynamique des galaxies dans un univers en expansion, de la structure interne de ces galaxies et de leur évolution et que se concentrer sur les recherches autour de la matière noire et de l'énergie noire, hélas les seuls sujets porteurs de la recherche, est attaquer des moulins à vent à la Don Quichotte. Ce n'est pas ainsi que l'on remettra la science en marche !


Questions de cosmologie

Page d'accueil de Christian Magnan
Dernière modification : 2 juin 2017




URL :  http://www.lacosmo.com/MatiereNoire.html