Page d'accueil de
Christian Magnan


english version

 

 


La « matière noire » : fiction ou réalité ?

philtre de sorcière

Existe-t-il dans le cosmos une matière différente de la matière ordinaire ? C’est ce qu’affirment avec assurance une majorité de scientifiques en s’appuyant sur la difficulté à expliquer certaines mesures de vitesse à l’aide de la seule matière détectée. Mais les observations sur lesquelles ils se basent sont-elles vraiment probantes ? Comment oser parler d’une substance de nature inconnue, introduite de façon arbitraire, non prévue par la théorie, invisible, et échappant pour ces raisons à la science ? N’est-ce pas risquer de tomber dans l’arbitraire et ouvrir ainsi la porte à des abus incontrôlables ?

Christian Magnan
Collège de France, Paris


Je prétends dans cette page que l’invention d’une matière de nature inconnue – dite « noire » à cause de son invisibilité – est l’une des impostures les plus désolantes de la science moderne, le dérapage étant à mon sens d’autant plus grave que l’introduction de cette notion mystérieuse est le fait de scientifiques officiels, à priori qualifiés, et non le fruit d’une lubie d’amateurs incompétents ou du discours débridé de pseudo-scientifiques. Je ne comprends pas comment des chercheurs se sont crus autorisés à faire appel à des phénomènes tirés de leur seule imagination et à  ignorer de ce fait les exigences les plus élémentaires de la méthode scientifique, laquelle se nourrit de la théorie, de l’expérience, de l’observation et de la mesure, en l’occurrence toutes quatre absentes du film, puisque l’énigmatique matériau est insaisissable à tous les niveaux.

La présence de masse manquante n’est pas établie avec certitude

Depuis presque un siècle déjà les astronomes invoquent de façon insistante la présence d’une « masse manquante » dans les galaxies et entre les galaxies. Il est en effet possible (moyennant certaines hypothèses, par ailleurs, comme nous allons voir, assez restrictives), de déduire de la mesure des vitesses des galaxies, des étoiles ou des nuages interstellaires – selon le cas – la quantité de matière responsable des forces de gravitation s’exerçant dans la région considérée. Fondamentalement il « suffit » pour cela d’appliquer les lois de la gravitation universelle de Newton. Or la quantité de matière que l’on trouve en faisant le calcul semble nettement supérieure, par un facteur pouvant atteindre la dizaine ou même la centaine, à la quantité de matière « visible » détectable par les moyens classiques.

Face à ces circonstances je vais défendre la thèse suivante. Qu’il existe dans l’Univers de la matière « ordinaire » non encore découverte parce que à cause de son état physique (trop chaude, trop froide, trop dispersée, granuleuse, faite de petits morceaux solides, non rayonnante, que sais-je ?) elle demeure invisible à nos instruments est une chose, et une chose peut-être plausible (même si à mes yeux elle est loin d’être établie avec certitude). Mais supposer qu’il puisse exister un genre de matière de nature inconnue complétant le contenu ordinaire de l’Univers en est une tout autre. Ici l’hypothèse devient gratuite et, non fondée sur des bases scientifiques solides, apparaît illégitime. 

Pour justifier mon jugement essayons d’estimer le degré de robustesse des preuves alléguées en faveur de la présence de matière cachée. De quelles observations s’agit-il ? Comment  les déchiffre-t-on ? Les vitesses sont-elles fournies de manière directe ? Les interprétations ne dépendraient-elles pas d’hypothèses supplémentaires non forcément vérifiées dans la réalité ?

Historiquement, le premier à avoir émis franchement l’hypothèse de l’existence d’une matière invisible est Fritz Zwicky (1898–1974). Vers 1933 cet astronome suisse achève une série d’observations de mouvement des galaxies d’amas comme celui de la Vierge (Virgo) et de la Chevelure de Bérénice (Coma) et effectue des calculs sur ces données. Ces amas sont constitués de milliers de galaxies liées entre elles par la gravitation et, à condition qu’un certain état d’équilibre ait été atteint, la répartition des vitesses de ces galaxies reflète la masse présente dans le groupe. Ainsi une masse plus grande est capable de retenir des galaxies de vitesses en moyenne plus élevées. Or il se trouve justement que les vitesses relevées sont supérieures à celles que l’on pourrait attendre en présence de la seule masse visible, résultat qui incite précisément à penser qu’il existe de la masse cachée.

De nos jours, il est largement admis par la communauté astronomique que dans les amas de galaxies la masse déduite de mesures dynamiques est supérieure à celle correspondant à la luminosité totale (la masse « que l’on voit »). On ne peut pas soutenir pour autant que l’existence d’une masse invisible soit vraiment établie car il est amplement prouvé dans ce site personnel que l’argument majoritaire est faible, un assentiment passif de la masse des chercheur-e-s pouvant anesthésier chez eux et chez elles le doute positif et constructif qui devrait animer leur esprit. Je retiendrai ici deux catégories de difficultés de compréhension, qui tempèrent déjà, avant conclusion hâtive, la nécessité de recourir à une masse noire. La première catégorie est relative aux hypothèses d’équilibre, la seconde à l’application du principe cosmologique.

L’interprétation des observations fait appel à des hypothèses d’équilibre restrictives

Premièrement, l’analyse des vitesses des galaxies constitutives d’un amas se fonde sur l’application d’une formule traduisant ce que l’on appelle le « théorème du viriel ». Cette formule relie les vitesses des galaxies à la somme des masses présentes dans l’amas. Mais le problème est qu’elle est démontrée dans un cadre idéal et ne s’applique pas forcément aux amas de galaxies du monde réel, amas plus complexes que ne le suppose le schéma théorique.  Quelles sont les hypothèses restrictives faites dans la démonstration de ce théorème classique de mécanique ?

Dans l’application du viriel aux amas de galaxies, le terme représentant l’effet des forces de gravitation est calculé comme si chaque galaxie était réduite à un point. Or dans le contexte d’un amas le comportement des galaxies et l’influence qu’elles exercent les unes sur les autres ne se réduisent pas à l’action ou la réaction de seuls points doués de masse. Les vraies galaxies sont des systèmes étendus, donc peu compacts et non ponctuels, mélangeant étoiles et matière interstellaire. Aussi l’attraction entre galaxies est-elle bien moins simple que celle agissant entre des points. Dans la réalité elle est sensible à la répartition des masses dans les galaxies et aux forces de marée, capables de tordre les galaxies sur elles-mêmes. Les galaxies ne sont pas des objets rigides. Elles sont constituées de courants de matière se déplaçant les uns par rapport aux autres, une circonstance qui rend leur action gravitationnelle différente de celle supposée par le théorème du viriel. On sait de plus que les galaxies subissent des rencontres mutuelles et qu’au cours de ces événements elles sont fortement perturbées dans leur dynamique interne et externe, leur vitesse d’ensemble subissant alors des changements que le théorème du viriel ne prend pas en compte. Enfin elles tournent sur elles-mêmes et l’influence de ce caractère rotatif sur la dynamique de l’ensemble de l’amas serait aussi à prendre en considération.

Une raison essentielle et profonde de l’impossibilité de ramener un amas de galaxies à un gaz de particules ponctuelles réside en ce que les distances mutuelles entre galaxies sont comparables en ordre de grandeur à leurs diamètres : typiquement une distance entre deux galaxies sera seulement quelque dix fois plus grande que le diamètre moyen d’une galaxie. En exagérant, c’est presque comme si on passait d’une galaxie à l’autre de façon continue. Ainsi notre proche voisine, la galaxie d’Andromède, est-elle située à deux ou trois millions d’années de lumière tandis que le diamètre de notre propre Galaxie fait quelque cent mille années de lumière : la séparation des deux voisines n’est donc que d’un ordre de grandeur plus grande que leur taille. Notons précieusement qu’il en va tout différemment des étoiles, dont les distances mutuelles se comptent en années de lumière et sont donc des millions ou dizaines de millions de fois plus grandes que leurs rayons, lesquels se comptent en secondes de lumière. Sauf circonstances particulières (trous noirs, systèmes rapprochés, étoiles multiples, amas très compacts), pour une étoile une autre étoile est assimilable à un point. Contrairement aux galaxies donc.

Deuxième restriction sérieuse relative au théorème du viriel : celui-ci ne s’applique qu’à un système isolé. Pour qu’il soit valable, la première condition est que l’amas considéré reste identique à lui-même, c’est-à-dire ne perde ni ne gagne de galaxies. Il est nécessaire aussi qu’il ne subisse aucune action extérieure. Or ces conditions ont peu de raisons d’être satisfaites car (i) l’influence du milieu situé entre les amas, par les perturbations qu’il engendre sur ces amas, est établie, (ii) des galaxies peuvent être éjectées de l’amas ou au contraire être accrétées par lui et (iii) des collisions entre amas ne cessent de se produire, entraînant de profondes modifications dans l’état dynamique des systèmes en interaction.

L’Univers est le siège de mouvements de grande ampleur

Tel amas aujourd’hui observé n’est peut-être qu’une concentration passagère de galaxies car l’univers est le siège de violents mouvements turbulents de grande taille et de grande ampleur. Les amas que nous voyons interagissent avec leur voisinage et possèdent des vitesses propres particulières les uns par rapport aux autres, expansion de l’espace mise à part. En outre le gaz que l’on trouve entre les galaxies, et qui entre en ligne de compte dans l’évaluation de  la « masse dynamique », n’est pas en équilibre (on parle d’équilibre hydrostatique pour caractériser un gaz immobile) contrairement à ce que suppose l’application du théorème du viriel. Par parenthèse l’astrophysique ne fournit aucun exemple de gaz à l’équilibre hydrostatique (qu’il s’agisse de milieu planétaire, stellaire, interstellaire, intergalactique, etc.). Les « gaz astrophysiques » sont tous en mouvement permanent, tout simplement parce que ces systèmes réels ne sont pas confinés dans des « récipients », des « boîtes », aux parois solides. Les corps célestes – tous les corps célestes – sont des systèmes ouverts, et non des systèmes clos et isolés. Par conséquent la liberté de mouvements qui leur est dévolue est grande et ils ne peuvent rester statiques.

Certaines études conduisent même à penser que des « bulles » vides d’espace (peut-être créées à l’origine par un rayonnement intense capable de souffler la matière) joueraient un rôle structurant dans notre Univers. Les galaxies se formeraient préférentiellement à l’intérieur des murs délimitant ces vides. Dans de telles conditions les amas pourraient être entraînés dans des courants laminaires le long des parois ou même les traverser. Il n’est pas exclu que nombre d’amas actuellement observés soient passés une ou plusieurs fois à travers de telles régions. Toutes ces circonstances excluent bien entendu l’emploi du théorème du viriel car elles témoignent du non-isolement des amas et de leur interaction avec le milieu dans lequel ils se meuvent. Avec des vitesses se comptant tout de même en centaines ou milliers de kilomètres par seconde on conçoit que ces déplacements engendrent des perturbations dynamiques notables…

Point capital supplémentaire, l’application du théorème du viriel suppose que les actions et réactions gravitationnelles ont duré suffisamment longtemps pour que l’amas soit « stationnaire », c’est-à-dire qu’il ait atteint un état d’équilibre (on dit qu’il est alors « virialisé », ou « relaxé »). Par exemple un amas en train d’exploser ne satisferait pas au viriel. Or il n’y a pas de raison que cette condition de stationnarité soit remplie. En effet, comme nous venons de le dire, rien ne permet de croire que les amas de galaxies soient des structures pérennes isolées du reste de l’Univers, physiquement tenues et contenues par les forces de gravitation. Par exemple l’hypothèse essentielle selon laquelle le contenu de matière du système considéré reste le même au cours du temps n’est pas forcément vérifiée.

Ensuite, ce qui assure la relaxation d’un amas, ce sont les collisions entre les galaxies membres de cet amas. Mais une estimation du temps moyen séparant les rencontres mutuelles des galaxies montre qu’en général les amas n’ont pas bénéficié depuis leur formation de la durée suffisante pour se mettre en équilibre dynamique, surtout si on considère des amas jeunes, ce qui est le cas quand on observe des amas lointains (plus on regarde loin, plus on regarde tôt dans l’histoire de l’Univers). Selon les spécialistes la galaxie d’Andromède a de grands risques d’entrer en collision avec notre propre galaxie d’ici environ trois milliards d’années. Or ce laps de temps est du même ordre de grandeur que celui qui s’est écoulé depuis la formation de notre amas local de galaxies (une dizaine de milliards d’années), bien qu’il lui soit inférieur. Cela indique que depuis la naissance de notre groupe local les galaxies qui le constituent n’ont pas eu le temps de subir le nombre suffisant de rencontres qui leur aurait permis de répartir entre elles de façon équilibrée l’énergie totale disponible. La conclusion est la même pour l’amas de Coma puisque les calculs montrent que le temps de relaxation d’un tel amas est au moins de l’ordre de la dizaine de milliards d’années. Au bout de ces dix milliards d’années d’existence, rien ne garantit donc que cet amas serait bien « virialisé ».

Des îlots de galaxies au repos dans un espace en expansion ?

La  seconde difficulté essentielle à signaler, après celle relative à l’application discutable du théorème du viriel, est relative au dogme hélas intouchable selon lequel notre Univers serait soumis au principe cosmologique, c’est-à-dire qu’il obéirait aux équations d’un modèle homogène et isotrope. Or ce dogme ne tient pas, parce qu’il n’est que dogme, justement, sans justification satisfaisante. Alors que toutes les observations prouvent le contraire il est passablement aberrant d’affirmer que l’Univers se comporte comme si l’espace était homogène et isotrope. De ce fait l’expansion serait elle-même isotrope. Selon la doctrine officielle, cet espace serait rempli d’amas de galaxies non soumises à cette expansion, amas composés d’objets gravitationnellement liés se comportant comme des îlots autonomes de matière libres d’interaction avec l’univers environnant. Mais la réalité est que le monde est structuré à toutes les échelles de taille (étoiles, galaxies, amas de galaxies, superamas, vides et murs, etc.) et qu’il n’est pas homogène.

Plus fondamentalement il restera illégitime d’un point de vue scientifique de postuler que les amas de galaxies seraient inclus comme des entités dynamiquement indépendantes dans un espace homogène sous-jacent en expansion tant que nous ne disposerons pas de la théorie correspondant à un tel schéma physique. En effet pour parler scientifiquement et donc véridiquement d’un tel modèle (et cela est valable pour tout modèle), il faudrait pouvoir tout à la fois le bâtir, le théoriser, l’étudier, le soumettre à des calculs et le mettre en rapport avec le monde réel. À cette condition on pourrait voir s’il est cohérent physiquement et en découvrir les propriétés concrètes (en ce qui concerne en particulier, dans le cas présent, l’évolution et la répartition des vitesses des galaxies).

La difficulté théorique, insurmontable pour l’instant, du concept d’univers en moyenne homogène mais localement inhomogène peut être présentée de la manière suivante. De nombreux cosmologistes prétendent sans précaution que puisque l’Univers semble homogène à grande échelle il est permis de supposer qu’il satisfait au principe cosmologique et subit de ce fait une expansion uniforme. Mais rien ne garantit que ce raisonnement soit juste. Au contraire. Pour résoudre la question de la structure de l’Univers, il faut employer, nul ne le contestera, les équations de la relativité générale d’Einstein, lesquelles contiennent à la fois des termes décrivant la courbure de l’espace et des termes mesurant le contenu de matière-énergie. Or lorsque l’on remplace la distribution de matière réelle par une moyenne de cette distribution de matière, c’est-à-dire qu’on fait une moyenne sur les termes indiquant la répartition de matière-énergie, il n’est pas trivial d’opérer une moyenne sur les autres termes de cette équation. Remplacer ces termes par ceux correspondant à un univers homogène (ce que font allègrement nos cosmologistes) n’est pas justifié.

Il existe dans ce modèle simpliste homogène et isotrope sur lequel se basent toutes les analyses des cosmologistes une hypothèse encore plus injustifiée, celle qui consiste à supposer que le fluide cosmologique est un « fluide parfait ». Cela veut dire que l'on suppose que le gaz de matière-énergie est affranchi de toute viscosité ou conduction thermique. Cela signifie encore que sur une surface donnée ne s'exercent que des forces de pression, normale à cette surface, mais aucune force latérale de viscosité ou de cisaillement (que l'on appelle encore des « tensions »). Or cette hypothèse paraît violemment incorrecte car tout laisse croire à l'existence de structures dès les premières périodes de l'Univers, où en particulier la présence de tourbillons de matière indique l'action de forces latérales. On sait bien que tout tourne dans l'Univers, avec de la friction et de la viscosité, puisque galaxies et étoiles tournent en se formant (et se forment en tournant !) et de telles rotations sont exclues d'office dans le cadre d'un gaz parfait.

En résumé , les équations d’un « univers moyen » ne sont pas assimilables aux « équations moyennes » de l’univers réel.

Cela est d’autant plus vrai que les termes à moyenner contiennent ce que l’on appelle techniquement des « dérivées » et que ces dérivées se laissent fort mal apprivoiser quand on cherche à prendre ces fameuses moyennes. En effet ce sont par nature des opérateurs agissant localement et il est par conséquent difficile, voire impossible, de leur donner une signification globale sur un grand volume. En vérité, équations d’Einstein obligent, le fait que notre Univers soit inhomogène entraîne que l’expansion de l’espace ne peut pas de son côté être homogène. Dès lors même si l’espace présente une certaine homogénéité à grande échelle, il est sans doute faux de supposer qu’il subirait pour cette raison une expansion uniforme.

Qualitativement, si on fait l’hypothèse d’une expansion uniforme sous-jacente, on peut difficilement imaginer qu’il n’y ait pas à partir d’une certaine valeur de vitesse une sorte de « transition » (mais laquelle ? on ne sait pas) entre les vitesses particulières de galaxies les plus grandes et la « vitesse » d’expansion de Hubble. D’ailleurs on peut penser que cette « transition » a eu lieu par le passé puisque, si à l’origine du monde toute portion d’espace était soumise à l’expansion, par la suite des sur-densités de matière ont acquis une certaine autonomie gravitationnelle pour finir par constituer galaxies et amas de galaxies (on ignore toujours d’ailleurs si ce sont des galaxies individuelles qui se sont regroupées en amas ou si ce sont des nuages de matière supermassifs qui en se condensant se sont fragmentés en galaxies). Mais si elle a bien eu lieu, comment s’est passée cette transition, nul ne le sait.

Résultat : penser être en mesure de séparer dans la vitesse observée des galaxies la composante due à l’expansion cosmique prise comme rigoureusement uniforme et une composante due à une vitesse particulière de l’objet par rapport au centre de gravité de l’amas, centre supposé immobile dans le fluide cosmologique, est un leurre. Ou plus justement c’est une idée gratuite et encore inconsistante car, je le répète, aucune théorie sérieusement établie ne permet de l’étayer et donc de lui donner un sens. Il serait faux de penser que la réponse puisse être donnée par l’observation seule. Si de façon générale seule cette dernière (l’observation) est capable de valider la théorie elle ne peut en aucun cas suppléer à une absence de théorie. Nous disposons des équations d’Einstein, c’est vers elles qu’il faut revenir.

Une preuve observationnelle de l’inadéquation à la réalité du modèle simpliste homogène et isotrope dans lequel des amas indépendants (et tirant cette indépendance de la gravitation) seraient inclus réside en ce que pour les amas assez proches les vitesses propres (particulières) des galaxies sont comparables à la vitesse d’expansion donnée par la loi de Hubble. Ainsi pour l’amas de Coma, la pseudo vitesse d’ensemble, traduisant l’expansion de l’espace, est de l’ordre de 7 000 kilomètres par seconde tandis que la dispersion des vitesses (traduisant elle les mouvements internes à l’amas) est d’environ 5 000 kilomètres par seconde. Or si vitesse d’expansion et vitesses locales sont du même ordre de grandeur, cela montre qu’il y a eu (et qu’il y a toujours ?) imbrication de ces deux composantes jugées au contraire indépendantes l’une de l’autre. Cela montre qu’on ne peut pas séparer clairement l’une de l’autre. Il faudrait un modèle théorique solide pour donner les moyens d’établir cette distinction espérée entre vitesse particulière (celle qui va entrer dans la formule du viriel) et vitesse cosmique (traduisant l’expansion de Hubble) en procédant à une redéfinition des concepts dans le cadre d’un modèle plus cohérent.

Attention… que l’on puisse représenter un modèle proche de ce scénario à l’aide de paramètres convenablement introduits est (hélas !) possible : l’informatique fait ce qu’on lui dit de faire, même si l’exercice n’a pas de pertinence physique. Mais paramétrisation n’est pas physique. Au contraire, l’astrophysique se meurt en ce moment d’un abus de paramétrisation. L’empirique ne remplace pas la réflexion. Jusqu’à présent, en science, la théorie formelle s’est toujours révélée indispensable et c’est toujours la référence à une théorie véridique et solide, qui a permis des découvertes. Pas le calcul brutal, irréfléchi et empirique, surtout s’il prétend atteindre une précision utopique à travers la multiplication des paramètres et les épicycles de la formalisation mathématique. Le danger de faire confiance à une sorte de « cosmologie observationnelle » est sournoisement présent. Or l’observation empirique seule ne suffit pas et il faut nécessairement passer par un modèle physique robuste pour  approcher la réalité des choses.

Pour résumer ce point, il est clair que l’Univers est soumis à une expansion. Mais dans le cadre d’un univers soumis au principe cosmologique (c.-à-d. décrété homogène et isotrope) les questions demeurent. Les superamas sont-ils en expansion ? S’ils ne le sont pas et se montrent au contraire au repos dans le fluide cosmologique, comment les délimiter ? A partir de quelle distance l’expansion de Hubble se manifeste-t-elle ? Tant que l’on restera dans le cadre de ce modèle idéal homogène et isotrope (un modèle qui « ne correspond pas à la réalité », en prenant l’expression au sens littéral !) on ne disposera pas des formules autorisant à seulement poser le problème. Qu’est-ce qui est en expansion et qu’est-ce qui ne l’est pas ? Comment se fait le passage du superamas « statique » à l’espace en expansion environnant ? Comment oser parler de dynamique des amas de galaxies et en déduire la présence de matière noire tant que ces questions ne seront pas résolues ?

Les galaxies ne tournent pas rond

Après les arguments tirés de l’étude des amas de galaxies, l’existence d’une matière sombre est encore avancée par les apôtres de ce mystérieux et fantomatique « matériau » pour expliquer, disent-ils, les courbes de rotation des galaxies. Mais qu’entend-on déjà par « rotation d’une galaxie » ? Une galaxie est un ensemble complexe et passablement désordonné d’étoiles, de gaz interstellaire, de nuages moléculaires et de poussières. Ces diverses composantes ne tournent pas comme le ferait un corps solide. Au contraire elles sont animées de mouvements différentiels et par conséquent il n’est pas possible de supposer que la mesure de la vitesse d’une des composantes donnera un nombre valable pour la galaxie dans son ensemble. Et s’il est vrai que des structures organisées telles que bras spiraux ou courants de matière en rotation ou traînées de nuages de poussières se détachent dans ces gigantesques concentrations d’étoiles, les galaxies ne montrent jamais une symétrie de rotation parfaite.

Techniquement parlant, la difficulté de dégager des données une vitesse de rotation est sévère. Cette difficulté est connue depuis toujours par les astronomes chargés d’interpréter les spectres stellaires. Il est délicat en effet de séparer individuellement les contributions des différentes régions de l’étoile ou de l’objet céleste observés car celles-ci se mélangent le long de la ligne de visée atteignant le récepteur. On n’a pas directement accès à la vitesse d’une région donnée, située à telle distance du centre de la galaxie : on se trouve au contraire en face de nombres à décoder pour y distinguer les différentes parties.

La méthode générale de décryptage des données d’observation consiste à partir d’un modèle plus ou moins compliqué de la galaxie, à calculer ensuite quel rayonnement on peut en attendre le long de telle ligne de visée et à comparer alors aux mesures pour modifier ou valider le modèle. Cependant ce processus est dangereux car il peut facilement conduire à un schéma circulaire interdisant toute conclusion digne de confiance. En effet on ne trouvera dans le modèle que ce qu’on y a mis. Par exemple on choisira couramment comme modèle de galaxie un disque plat à symétrie axiale alors que la réalité est autre : une galaxie a une certaine épaisseur, d’ailleurs non constante, ses composantes ne se déplacent pas à la même vitesse et elle ne possède jamais cette symétrie parfaite qu’on lui attribue (même si « en gros » elle détient souvent cette propriété). De même la description cinématique des bras spiraux, qui frappent l’œil par la somptuosité de leur dessin, est très difficile à inclure dans le modèle car l’origine même de ces bras est peu claire, au point que leur existence n’avait jamais été prévue par les calculs.

Le monde (comme à l’ordinaire ?) conspire pour rendre les choses difficiles. Certes l’observation d’une vitesse en astrophysique est chose facile en principe, parce que la mesure de son effet, connu sous le nom d’effet Doppler, est à la portée des instruments via la simple mesure d’une longueur d’onde. Mais en pratique c’est plus difficile. Déjà l’effet Doppler ne fournit que la composante radiale de la vitesse totale, c’est-à-dire la partie de la vitesse dirigée dans notre direction (et correspondant selon le cas à un éloignement ou un rapprochement). Tout mouvement transversal est indétectable car il ne produit pas d’effet Doppler (il peut être décelé grâce au déplacement qu’il induit sur le ciel, mais ce phénomène n’est perceptible que pour des objets assez proches, autrement le déplacement est trop petit pour être vu). Par conséquent si une galaxie est vue par la tranche, on détectera facilement les vitesses de rotation au bord, car elles correspondent là à des vitesses radiales. Au contraire vers le centre de l’objet les déplacements dus à la rotation, comme ils sont tangentiels, deviendront à la limite non mesurables. De plus, dans ce secteur central, les régions situées à des distances différentes du centre se mélangeront le long de la ligne de visée (écueil signalé plus haut) et seront de ce fait difficiles à séparer. Hélas ! dans le cas extrême contraire, lorsque la galaxie est vue de face, les différentes régions sont plus faciles à distinguer mais malheureusement leur vitesse de rotation devient indétectable puisqu’elle correspond pour nous à un mouvement transversal, ne produisant aucun effet Doppler !

La rotation des galaxies n’est pas stabilisée

Enfin, comme dans le cas des amas de galaxies, il est difficile d’admettre que les mouvements de matière à l’intérieur d’une galaxie aient atteint un état d’équilibre, alors que les modèles se  basent sur cette hypothèse. Il est certain que les groupes d’étoiles, qu’ils soient  anciens ou récents, compacts ou lâches, retenus par la gravitation interne ou soumis principalement au champ du reste de la galaxie, ne sont pas physiquement détachés du reste de la galaxie. De surcroît, expérimentalement, il est très difficile de savoir si telle ou telle étoile observée appartient ou non à un groupe donné. Elle peut se trouver dans le champ par hasard ou en train de traverser le groupe. Par conséquent il est difficile de délimiter un groupe d’étoiles indépendant du reste. Les groupes se font et se défont au gré du déplacement des étoiles. Ainsi notre Soleil, depuis sa naissance, a accompli de nombreuses fois (une vingtaine ?) le tour de la Voie Lactée et on se doute que son environnement a considérablement varié au cours du temps. Sa vitesse ne s’est donc pas stabilisée mais continue à subir des influences aléatoires non décrites par les équations globales relatives au modèle de galaxie servant à interpréter les données d’observation. Le champ de gravitation auquel est soumise telle étoile ou tel groupe (éphémère) d’étoiles change considérablement d’une orbite à l’autre, n’est pas uniforme et n’est pas constant à distance donnée du centre. Nous retrouvons sous une forme différente le fait qu’une galaxie n’est pas un objet possédant la symétrie axiale qu’admet la modélisation.

Enfin la description d’une galaxie en termes d’un gaz d’étoiles ponctuelles soumises aux seules forces de gravitation, hypothèse qui permet d’écrire un théorème du viriel, est contredite par les simulations numériques. Ces dernières demandent en effet d’introduire des forces artificielles de viscosité dans les calculs afin de « reproduire les observations » (comme on dit), ce qui prouve bien que la cinématique des galaxies relève d’une véritable hydrodynamique des fluides, chapitre d’astrophysique pour lequel les outils de traitement font cruellement défaut.

Pour montrer encore combien la réalité des galaxies est différente de ce que décrivent les modèles numériques en équilibre utilisés par les astronomes, signalons la découverte récente de courants de matière autour de notre propre Galaxie. Celle-ci serait en train de dévorer une galaxie naine voisine contenue dans le « courant du Sagittaire », filament d’étoiles, de matière interstellaire et de nuages de poussières entourant la Voie Lactée elle-même. Ainsi on réalise que les rencontres entre galaxies sont plus fréquentes que ce que l'on l'imaginait jadis. Lorsqu’une galaxie est née de la fusion de deux autres plus petites, il arrive même, cela a été observé, qu’elle contienne alors deux populations d’étoiles tournant dans des sens opposés. Plus généralement, sans que la question soit définitivement réglée, certains indices laissent penser que les galaxies naissent plutôt par fusion d’éléments plus petits. Notre Galaxie pourrait avoir avalé une dizaine de galaxies naines et continuerait même à le faire en ce moment.

Courants de matière dus à des collisions : la situation est similaire pour notre proche voisine, la galaxie d’Andromède. Sa structure est apparue depuis toujours comme assez mystérieuse car cette spirale présente en son sein un immense anneau d’origine énigmatique. Mais des calculs de simulation et des observations nouvelles semblent indiquer que la galaxie a subi l’impact de la petite galaxie voisine (il s’agit de Messier 32, ou M32, la galaxie d’Andromède étant M31, le trente-et-unième objet du fameux catalogue). Cette compagne aurait traversé le disque d’Andromède il y a environ 200 millions d’années et produit de gigantesques ondes de choc. Dans ces conditions la présence de plusieurs anneaux de matière et la distribution compliquée de matière dans la spirale rend difficile l’analyse de la rotation de l’ensemble. Enfin, comme je le rappelais plus haut, il est probable que la galaxie d’Andromède entrera en collision avec la Voie Lactée dans quelques milliards d’années : de quoi perturber gravement le mouvement de rotation de ces deux mondes.

Le coup de grâce porté à l'analyse de la rotation de la galaxie d'Andromède (qui peut se reproduire évidemment pour d'autres) réside en ce que son noyau s'est avéré double, une circonstance dont l'origine est mystérieuse, et qui complique évidemment l'analyse du mouvement des divers milieux qui constituent notre objet.

Dans un tel contexte on peut se demander si le concept de « courbe de rotation » d’une galaxie a un sens suffisamment précis et cohérent pour que l’on en tire une mesure de masse fiable. Le monde s’avère toujours, sans la moindre exception, bien plus compliqué que ne le supposent les produits de nos modélisations simplificatrices.

En 1899 il fut temporairement légitime d’en appeler à une physique inconnue

À ce point la conclusion que je tire de cette discussion est que les preuves alléguées en faveur de l’existence de la matière noire sont trop fragiles pour être convaincantes. Mais il faut dire surtout que, dans ces conditions, la démarche consistant à en appeler à une physique inconnue est, oserais-je le dire ?, franchement condamnable. Comment accepter qu’un physicien invoque un processus qui, justement, sort de sa physique ? Je ne connais qu’un exemple, analogue en apparence, qui semblerait me donner tort dans ma condamnation, mais nous allons voir que le contexte de l’histoire était différent.

À la fin du dix-neuvième siècle un grave débat agitait le monde scientifique. Il mettait en conflit astrophysiciens et géophysiciens à propos de l’âge de la Terre. Les physiciens théoriciens comme Lord Kelvin (1824–1907) avançaient environ cent millions d’années en se basant sur une théorie du refroidissement du globe terrestre, théorie permettant d’estimer la durée pendant laquelle la température de la surface terrestre était restée suffisamment tempérée pour ne pas mettre la vie en péril. Au contraire les géologues jugeaient que plusieurs milliards d’années avaient été nécessaires pour que l’évolution des espèces dûment constatée ait eu le temps de se produire et que les dépôts de strates fossiles aient pu atteindre les hauteurs mesurées. Face à cette contradiction profonde et insoluble, le géophysicien américain Thomas Chamberlin (1843–1928), en réponse à une intervention assez arrogante de Lord Kelvin lors d’une réunion scientifique en 1899, formula l’hypothèse de la présence au centre du Soleil d’une source d’énergie inconnue, mais de nature « atomique », les conditions de température régnant au cœur de l’astre de lumière étant de nature à favoriser la libération de nouvelles formes d’énergie contenues dans les particules élémentaires. Il s’appuyait, notons-le, sur des considérations physiques car il était démontré (équations de la structure interne d’une étoile obligent) que la température au centre du Soleil devait être considérable, de l’ordre de la dizaine de millions de kelvins (contre six mille en surface), ce qui était propre à induire des phénomènes prodigieusement plus énergétiques que ceux connus sur Terre (on se rappelle que l’énergie cinétique des particules d’un gaz est directement proportionnelle à la température).

L’idée suggérée était donc que cette encore hypothétique « énergie atomique » aurait été capable de fournir l’énergie nécessaire pendant le temps nécessaire. Le discours de Chamberlin était terriblement prophétique puisque quelques années plus tard Einstein proposait sa fameuse formule E = mc2, qui, établissant une équivalence entre masse m et énergie E, mettait un terme au débat en exhibant la source d’énergie fantastique permettant au Soleil de briller pendant des milliards d’années.

Mais cet appel à une physique encore inconnue, magistralement confirmée par la suite, justifierait-il le recours des cosmologistes actuels à une forme inconnue de matière ? Certainement pas ! La situation au début du vingtième siècle n’avait rien à voir avec la situation actuelle, au début du vingt-et-unième. D’abord, en 1899, la contradiction entre observation et théorie était établie de façon certaine : impossible de diminuer d’un ordre de grandeur les durées demandées par les physiciens de la Terre, impossible d’augmenter d’un ordre de grandeur la durée de vie accordée au Soleil par les physiciens du ciel. Chaque camp avait eu le temps de refaire ses comptes. Ensuite les chercheur-e-s découvraient à cette époque ce monde atomique évoqué par Chamberlin, un monde qui allait rapidement afficher toute sa richesse et dont les propriétés étonnantes se révélaient à une cadence accélérée dans des domaines variés. Ainsi, la découverte de la radioactivité date de l’année 1896 et son découvreur Henri Becquerel (1852–1908) parle déjà lui aussi de façon prophétique (mais justifiée) d’un « nouvel ordre des choses », c’est-à-dire d’une véritable nouvelle physique à venir. Enfin nous venons de voir que la suggestion de Chamberlin se fondait sur des résultats scientifiques de valeur à la fois expérimentaux et théoriques.

De nos jours invoquer une physique du mystère est infondé

Il pouvait certes se tromper, et c’est bien dans cet esprit empreint de modestie qu’il est intervenu, mais Chamberlin avait donc de bonnes et justes raisons d’en appeler à la physique atomique naissante quoiqu’elle fût encore inconnue. Au contraire, les cosmologistes d’aujourd’hui n’ont pas le moindre indice théorique ou expérimental en faveur de leur extravagante idée de matière noire (ils ne font pas preuve non plus de la modestie qui sied au vrai savant !). Autant le monde atomique invoqué par notre talentueux géophysicien était un monde que la science était en train de découvrir, autant la matière noire est pure vue de l’esprit introduite pour « les besoins de la cause » et tirée de la spéculation théorique (en l’occurrence prétentieuse) des chercheur-e-s.

La responsabilité des adeptes de la matière noire envers la science est grande car il existe selon moi dans cette affaire un réel et grave danger de détourner notre science de ses principes fondateurs et de la dévoyer dans sa quête de vérité. En effet si des scientifiques reconnus se permettent de postuler l’existence de « n’importe quoi » (un terme qui à mon sens résume parfaitement l’état d’ignorance sur la mythique matière noire) pour résoudre sans autre forme de procès une difficulté apparente d’interprétation des données d’observation, quels garde-fous peut-on mettre en place pour éviter que fleurissent des thèses fantaisistes à propos de tout phénomène encore inexpliqué ?

Il faut rappeler ici que la science n’a jamais progressé à coup « d’interprétation des données ». Les théories qui se sont révélées puissantes, fécondes, ne sont jamais nées d’un souci purement explicatif. Ainsi, le système de Copernic n’a pas été conçu directement en vue d’expliquer le mouvement des planètes. La théorie de Newton n’a pas été conçue en vue d’expliquer le mouvement elliptique des planètes découvert expérimentalement par Kepler. La théorie d’Einstein n’a pas été conçue en vue d’expliquer la fuite des galaxies découverte plus tard par Hubble. Et lorsque l’expansion de l’espace a été proposée, elle était établie de façon assez solide pour ne pas être abandonnée du jour au lendemain au prétexte qu’elle fournissait un âge de l’Univers inférieur à celui de la Terre ! C’est d’un va-et-vient permanent entre théorie et observation que la science avance et fait des découvertes. Ce n’est sûrement pas par pur souci d’explication des observations (lesquelles, justement, sont presque toujours « discutables », ne serait-ce que dans leur interprétation). Les partisans de la matière noire ne font pas de la science : ils la desservent considérablement. Dans un tel contexte anti-scientifique, comment empêcher que des personnes se sentent autorisées elles aussi à proposer des explications irrationnelles, en avançant des arguments en faveur d’une physique que nous ignorerions encore ? Une physique qui transcenderait l’actuelle ? Comment éviter les dérives vers le spiritualisme ?

L’été 2006, un lecteur  m’écrivait : « Nous arrivons […] maintenant à l'étude de l'immatériel, ne va-t-on pas dériver vers une approche métaphysique voire religieuse dans les explications ? » C’est ma crainte profonde. Et je remercie ce correspondant de la justesse et de la pertinence de son interrogation.

Signe de cette perversion, j’ai autour de moi des exemples de chercheurs qui vont invoquer la matière noire pour expliquer des faits disparates dont l’interprétation pose problème. J’ai eu ainsi droit à la proposition de l’impact d’une masse de matière noire (sic) pour expliquer quelques bizarreries (sur lesquelles je ne m’attarderai certainement pas !) concernant la chute d’un bolide de bonne taille en Sibérie orientale (près de Tunguska) en 1908, un météore qui explosa à peut-être 8 kilomètres d’altitude. J’ai encore eu droit à la matière noire pour expliquer les anomalies de comportement des sondes spatiales lointaines (qui montreraient des écarts entre les mesures de vitesse et les calculs). Bref, la matière noire à toutes les sauces. Le « n’importe quoi » engendre le « n’importe quoi ». C’est la preuve que les scientifiques ont cyniquement abandonné les critères garantissant d’ordinaire la justesse de leur raisonnement.

Remarquons à ce propos qu’il se trouve encore nombre de phénomènes incompris en astrophysique. Ce n’est pas pour autant que les scientifiques quelque peu sensés (qui existent encore lol) se permettraient d’invoquer pour les expliquer des processus physiques exotiques. Par exemple les rayons cosmiques existent. Ce sont des particules possédant une énergie si considérable que l’on ne comprend  pas comment elle a pu leur être communiquée. On ne connaît pas les phénomènes qui ont pu accélérer ces particules à des vitesses aussi vertigineuses. Mais personne n’oserait prétendre qu’ils indiquent l’existence d’une source d’énergie inconnue. De même on ne connaît pas l’ensemble des processus conduisant à la formation des condensations que sont planètes, étoiles et galaxies. Soutiendra-t-on pour autant que des anges mystérieux auraient exercé leurs pouvoirs magiques pour faire naître les corps célestes ? Alors pourquoi les défenseurs de la matière noire se permettent-ils, eux, d’invoquer des forces obscures ? Ne voient-ils pas qu’ils favorisent ainsi les écarts à la rationalité ? Faudra-t-il s’étonner que cet irrespect des règles de la science amène des personnes à proposer par exemple que la vie, dont les circonstances de la naissance nous échappent encore absolument, soit l’œuvre d’un dieu créateur et tout-puissant, et non le fruit de phénomènes « naturels » ?

La nouvelle farce de  l’énergie noire

Quand la borne est franchie il n’est plus de limite (Ponsard). Une fois levées les barrières de la vigilance critique par l’introduction dans leur théorie de l’insaisissable matière noire, rien n’empêchait plus les cosmologistes de retomber dans leurs égarements. Confrontés à nouveau à un résultat de mesure discordant, difficile à interpréter dans le cadre des modèles en usage, ils se sont crus avisés (!) de faire une fois encore appel à un ingrédient d’origine inconnue susceptible de « fabriquer » l’effet désiré. Incroyable mais vrai ! En estimant les distances de supernovae très lointaines, situées à des profondeurs atteignant la dizaine de milliards d’années de lumière, des astronomes ont abouti à la conclusion que ces galaxies se situaient plus loin que ne le prévoyaient les modèles. C’était comme si l’espace s’était étiré plus que ce qui était attendu. C’était comme si l’expansion s’accélérait au lieu de ralentir (une expansion qui ralentit est conforme aux modèles acceptés jusque là). La « farce » de l’énergie noire commençait, reproduisant celle de la matière noire. Une énergie noire qui, par sa présence, serait capable de dilater l’espace ? Il suffit d’introduire dans les équations un simple paramètre et le tour est joué.

L’énergie noire : pourquoi une farce ?

Fidèle à l’esprit de cet article, ma première réponse est facile. L’énergie noire est une farce déjà pour la bonne et simple raison qu’elle n’a jamais été prévue par aucune théorie ! Et aucune découverte scientifique n’a jamais été faite sans recours à une théorie solide. La science n’est pas fondamentalement explicative, elle est nécessairement, aussi, créative.

Et une théorie succédant une proposition observationnelle, serait-ce possible ? Non dans le cas présent. Lorsqu’on essaye de formaliser cette énergie noire « après coup », c’est-à-dire de façon quasi-empirique, on est loin d’aboutir à un modèle cohérent puisque les estimations auxquelles conduisent des calculs théoriques « préliminaires » (je ne suis pas opposé à un tel procédé : il est toujours bon de faire des calculs d’ordre de grandeur) tombent soixante ordres de grandeur au-dessous de celles réclamées par les observateurs. Cela représente un écart inimaginablement grand : autant dire que l’incompatibilité est totale et la théorie proposée aberrante. Ces soixante ordres de grandeur d’écart reflètent, je l’ai dit et redit dans ce site, l’impossibilité pour la physique actuelle d’inclure dans un schéma théorique unique à la fois l’échelle atomique (caractérisée par l’échelle de Planck, à 10–43 seconde) et l’échelle cosmique (caractérisée par l’âge de l’Univers, à 1017 secondes). Nous savons que nous ne pouvons pas comprendre l’écart entre l’atomique et le cosmique. C’est donc forcément une imposture que de prétendre introduire dans le cosmique une énergie dont l’échelle caractéristique serait atomique. C’est une imposture que d’incorporer à la courbure de l’Univers tout entier un terme relevant de l’échelle de Planck. La fallacieuse fiction de l’énergie noire repose sur cette imposture.

Le degré d’imprécision sur l’estimation de la distance des galaxies est extrême

C’est clair : toute l’histoire de l’énergie noire repose sur l’estimation de la distance des galaxies. Mais que valent les mesures de distance ?

La distance des galaxies les plus lointaines n’est pas déterminée directement. Elle repose à grande distance sur l’application de la loi de Hubble (stipulant que la vitesse équivalente de récession est proportionnelle à la distance), cette façon de faire comportant d’ailleurs, notons-le, le risque de tomber dans un raisonnement circulaire. En effet, mesurer la distance en appliquant la loi de Hubble et constater ensuite que la loi de Hubble est « vérifiée » ne prouve évidemment rien quant à la validité de cette loi. Pour confirmer le bien-fondé de la procédure, il faut avoir calibré à courte distance la constante de Hubble et ensuite disposer de mesures de distance « extérieures », indépendantes de celles reposant sur le décalage de la lumière vers le rouge. Les astronomes ont utilisé dans ce but des supernovae très brillantes, donc visibles encore à grande distance, classées comme étant de type Ia, et dont la luminosité intrinsèque est supposée la même pour toutes. Sous cette hypothèse une mesure de la luminosité réelle (la luminosité apparente) donne directement la distance. Les deux échelles de distance, celle des galaxies et celle des supernovae coïncident-elles ? La réponse est non. Les objets les plus lointains sont plus lointains que ce que prévoit une expansion de Hubble classique (une expansion qui ralentit au fur et à mesure que l’Univers « vieillit »).

Au lieu de prendre acte du désaccord et de questionner la validité des hypothèses de départ, les cosmologistes ont préféré s’accrocher à ces dernières sans accepter de les remettre en cause. Ainsi est considérée comme un dogme ô combien intouchable l’existence d’une loi de Hubble correspondant à un modèle d’univers homogène et isotrope, c’est-à-dire traduisant une expansion de l’espace indépendante de la direction, sur laquelle se superposeraient (comme je l’ai indiqué plus haut) des mouvements particuliers des galaxies et des amas de galaxies. De même la luminosité intrinsèque des supernovae de type Ia est prise comme indépendante de l’objet particulier mesuré. Cette dernière hypothèse, impossible à prouver, est gratuite : ce serait bien la toute première fois en astrophysique qu’une classe d’objets serait entièrement homogène (ne comporterait que des objets identiques). Là encore il faudrait des confirmations extérieures pour valider l’hypothèse et faire en sorte qu’elle ne réduise pas à un vœu pieux. Sans vouloir jouer les prophètes, on peut parier sans crainte de se tromper que l’annonce de la non-uniformité des supernovae de type Ia viendra bientôt.

Tout repose évidemment sur la valeur de la distance des galaxies. Or avec quelle précision, ou plutôt quelle imprécision, sont connues ces fameuses distances ? Qu’en on juge ! La distance de la plus proche des galaxies, celle d’Andromède, est donnée selon les sources comme se situant entre 2,5 et 3 millions d’années de lumière, sans qu’on puisse bénéficier d'une valeur plus précise. On ne connaît donc pas la distance de notre voisine Andromède à mieux que 20% ! Et on imagine sans peine que plus on s’éloigne, plus le degré d’imprécision augmente. Cette imprécision est énorme. N’est-ce pas ahurissant ? Ahurissant que les cosmologistes se permettent de trancher avec aplomb la question de l’expansion de l’espace en fonction de la distance (loi de Hubble, prétendue accélération de l’expansion) alors qu’ils connaissent si mal la distance des galaxies ? La constante de Hubble, c’est le rapport d’une vitesse à une distance. Par conséquent un  pourcentage d’erreur sur la distance induira forcément la même erreur sur la constante de Hubble, et par conséquent sur toutes les mesures de distance des galaxies.

Que l’on me pardonne d’employer les adjectifs suivants, mais face à l’impéritie (évidemment non condamnable en soi : il suffirait de la reconnaître) des astronomes je les crois appropriés à la situation. Je prétends qu’il est grotesque, absurde et incohérent d’oser parler d’accélération de l’expansion de l’espace, concept empirique basé sur des mesures de distances d’objets situés à des milliards d’années de lumière, alors que nous ne connaissons pas à mieux que 20% près (un cinquième près) la distance de notre voisine, située elle mille fois plus près, à un petit trois millions d’années de  lumière. Que peut-on répondre de sérieux et d’honnête à une telle objection ?

D’où vient cette imprécision sur la mesure des distances ? La réponse est simple. La détermination de la distance des galaxies est basée sur celle des étoiles qui la composent. Or les modèles théoriques d’étoiles dont nous disposons ne sont qu’un reflet imprécis de la réalité. Les étoiles réelles ne sont pas « égales » aux étoiles théoriques. Quelle est du côté des étoiles l’imprécision des estimations de distance ? Toujours énorme. La distance du très proche amas des Pléiades, qui fait le charme de nos nuits d’hiver, n’est pas connue à mieux que 10% près (malgré les mesures du satellite Hipparcos, qui devait nous fournir des distances enfin fiables…). On la situe entre 380 et 440 années de lumières. En ce mois de juin 2007 de nouvelles mesures de la distance de la nébuleuse d'Orion (un nuage interstellaire voisin) fournissent une valeur de 1300 années de lumière, soit 200 de moins que ce qui était admis, ce qui correspond à une erreur de 15%. Édifiant.

Devant un tel flou dans les mesures, comment pourrait-on résoudre la question des distances lointaines alors que celle des toutes proches ne l’est pas ?

Le remède pour sortir de cette impasse scientifique ? Retourner à une analyse physique des étoiles et abandonner (ici aussi, comme dans le cas de l’Univers) l’idée que les modèles ultra-simplistes utilisés par les astronomes décrivent la réalité. Toutes les analyses actuelles des étoiles, je dis bien toutes, sont basées sur le dogme (encore un !) qu’une étoile est caractérisée par ses « paramètres fondamentaux », à savoir son rayon, sa luminosité totale (ou de façon équivalente sa température) et sa masse (auxquels il convient sans doute de rajouter aussi âge et composition chimique). Or ces paramètres, s’ils ont bien un sens pour les modèles théoriques, n’en ont pas d’aussi tranché dans la réalité. Croire qu’une étoile est entièrement déterminée par sa masse, sa luminosité et son rayon est une croyance non seulement gratuite mais fausse. D’ailleurs, si les théoriciennes ne le savent pas, celles qui sont près de l’observation en sont parfaitement conscientes, car elles constatent bien que toute étoile a son individualité, et ne peut pas se réduire à quelques paramètres. Si les étoiles ne dépendaient que de quelques paramètres, elles seraient réparties en classes définies dont les éléments seraient identiques, ce qui n’est pas le cas.

Le point le plus discutable et délicat en physique stellaire est sans doute la question du « rayon » d’une étoile. Une étoile est un système ouvert, disions-nous plus haut, et seulement une partie des étoiles sont suffisamment stables pour que la présence d’une séparation nette de leur matière avec le milieu environnant soit effective. La plupart du temps au contraire la gravité de surface est insuffisante pour retenir les couches externes et une zone de transition tumultueuse se développe, lieu de mouvements de matière de grande importance. Ces phénomènes-là ne sont ni des inventions ni des faits secondaires  : ils se voient quand on analyse, même grossièrement, la lumière des étoiles. De toutes les étoiles. Évidemment (le monde conspire pour rendre les choses difficiles) ce sont les étoiles les plus brillantes qui intéressent le plus les astronomes (car on les voit de plus loin), mais ces plus brillantes sont aussi les plus grosses et les moins stables, donc sans conteste les plus rétives à notre modélisation.

Voici un autre exemple prouvant de façon incontestable que nos modèles stellaires ne peuvent ni prévoir ni expliquer les phénomènes physiques se produisant à la surface des étoiles. Nous savons bien que le Soleil est entouré d'une couche beaucoup plus chaude que sa surface « photosphérique », où la température atteint des dizaines de milliers de kelvins, et que l'on appelle la chromosphère. Encore un peu plus haut en altitude la température s'élève de façon vertigineuse pour atteindre les centaines de milliers de kelvins dans la couronne, ce milieu invisible en lumière blanche et qui ne se révèle que lors des éclipses totales de Soleil. Or les modèles actuels d'étoiles, qui se basent sur des hypothèses d'équilibre, sont incapables de reproduire un tel comportement de la matière dans les couches superficielles. En effet, ils trouvent tous que la température ne peut que décroître vers l'extérieur, alors que nous la voyons augmenter de façon spectaculaire, après avoir atteint un minimum ! C'est dans ces hautes couches du Soleil que le vent solaire agit, en éjectant de la matière. Mais aucun modèle ne peut prévoir ni calculer de façon physique sûre comment se produisent ces phénomènes de perte de masse. On doit se contenter d'une paramétrisation numérique, laquelle est par nature insatisfaisante et artificielle. La surface des étoiles ne se laisse pas apprivoiser par notre physique d'équilibre.

Une découverte d’actualité, datant d’avril 2006, illustre à merveille l’impossibilité d’identifier les étoiles réelles aux modèles que les théoriciennes proposent. L’étoile Véga, de la constellation de la Lyre, est l’une des plus brillantes du ciel et fait le bonheur de nos nuits d’été. Elle était depuis toujours considérée comme un objet standard, constituant un étalon de référence permettant de calibrer l’éclat des autres étoiles par comparaison. Or, patatras, le bel édifice de mesure d’éclat, et par conséquent de distance, des étoiles est en train de se lézarder. En effet, on a trouvé que Véga était plus compliquée que le gentil modèle censé la décrire. Le fait marquant est que notre étoile de référence préférée tourne beaucoup plus vite qu’on ne l’imaginait. Cette rotation n’avait pas été notée auparavant car l’axe de rotation est par hasard dirigé vers nous, ce qui fait que les mouvements y afférant sont transversaux et par conséquent (comme je le disais plus haut) indétectables par effet Doppler. Du fait de cette rotation rapide la structure de l’étoile est toute chamboulée et nos modèles sont pour l’instant incapables d’incorporer les effets dynamiques qui en résultent. Au bout du compte, il est vraisemblable que la luminosité intrinsèque de Véga, de même que sa « température » est mal déterminée. La rotation fait que la température de surface dépend de la latitude sur le disque. En particulier la température des pôles, correspondant précisément à la partie que nous voyons depuis la Terre, pourrait être de 2000° plus grande qu’à l’équateur. Quelle est la « température de Véga » ? Une étoile peut-elle vraiment être caractérisée par sa « température » ?

Encore un coup porté à la mesure des distances dans l’Univers. Si nos étalons disparaissent, sur quoi s’appuyer ? Mais alors que valent les arguments en faveur de l’énergie noire ? Rien.

Rebelote : un an plus tard (fin mai 2007) une nouvelle observation exceptionnelle confirme s'il en était encore besoin l'inadéquation de nos modèles stellaires à la réalité. Pour la première fois de l'histoire les astronomes ont réussi à recomposer l'image de la surface de l'étoile Altaïr (dans l'Aigle), et ont confirmé que l'astre était considérablement affecté dans sa structure par la rapidité de sa rotation sur lui-même (il effectue trois tours sur lui-même par jour, contre un tour en 25 jours pour notre Soleil  !). L'étoile présente un renflement prononcé sur son équateur, zone où la température se révèle plus basse qu'aux pôles, et des taches plus claires et plus chaudes marquent sa surface. Or cette réalité pourtant indiscutable sera ignorée par les instruments de grands relevés et par les modèles. De ce fait les analyses futures, pour lesquelles toute étoile est une sphère homogène bien sage, seront forcément entachées de graves erreurs et les mesures de distance seront mauvaises.

Nouvelle découverte extraordinaire à la mi-août 2007 : l'étoile Mira, observée depuis quatre siècles et admirée pour ses variations d'éclat (d'où son nom de merveilleuse), présente un phénomène tout à fait inattendu, non prévu par les modèles théoriques. Elle a en effet expulsé dans l'espace une partie de sa propre matière et se présente en lumière ultraviolette comme une gigantesque comète dont la queue mesure treize années de lumière. Les étoiles calculées par les théoriciens sont en équilibre, Mira ne l'est pas.

L'hégémonie des modèles est nocive et inacceptable

La conclusion de cette discussion ? Le monde est bien plus compliqué que le supposent les modèles théoriques, qu’il s’agisse des étoiles, des galaxies, des amas de galaxies et de  l’Univers dans son ensemble. Par conséquent il est non seulement vain mais encore malsain et scientifiquement absurde de vouloir à tout prix faire coller le monde réel à notre modélisation sommaire. Il est inconséquent d’introduire des paramètres ad hoc pour ajuster aux observations des schémas formels dont le contenu  physique est insuffisant. Il est inutile de demander aux modèles ce qu’ils ne peuvent pas fournir, faute de contenir les éléments de réponse nécessaires.

La paramétrisation sauvage de modèles rudimentaires et physiquement incomplets, procédé largement dopé par l’informatique, est le fléau majeur dont souffre de nos jours l’astrophysique.

Car, j’ai essayé de le montrer, la matière noire et l’énergie noire ne sont en vérité que des paramètres dénués de toute signification physique introduits dans le but de faire coïncider avec la réalité des modèles de toute façon insatisfaisants. Ils ne correspondent pas à la réalité des choses (j’a-do-re cette expression lol). Nous avons vu en outre que les modélisations astrophysiques sont mises en cause à tous les niveaux. Pour dire les choses trivialement, il n’y en a pas une pour sauver l’autre. Les étoiles théoriques, définies par quelques paramètres fondamentaux et supposées en état d’équilibre hydrostatique, ne sont pas les étoiles réelles (et qu’on ne me réponde pas qu’il est possible de traiter des cas plus complexes par ajout de paramètres idoines ! je ne le sais que trop bien triste). Les galaxies ne sont pas en équilibre et ne possèdent pas la symétrie axiale. Elles subissent des collisions et présentent une structure complexe. Aucune matière dans l’univers n’est en équilibre hydrostatique. Les amas de galaxies ne sont pas « virialisés » et subissent eux aussi l’influence de mouvements cosmiques. L’espace-temps n’est pas homogène et isotrope. Rien dans l’Univers n’est en équilibre.

En raison des déficiences d’analyse résultant de cet écart profond entre réel et modélisation, les distances dans l’Univers ne sont connues qu’avec un fort degré d’imprécision et les mouvements à l’intérieur des galaxies défient la compréhension. Or on voit bien que la cosmologie se base sur l’astrophysique des étoiles et ensuite des galaxies (forcément puisque l’Univers est en dernière analyse constitué d’étoiles). Mais devant le caractère approché des résultats des études stellaires, la prétention des cosmologistes à atteindre la précision quasi absolue dans leur modélisation est injustifiée.

À ce propos, la comparaison que l'on peut faire entre la structure des étoiles et celle de l'Univers est extrêmement éclairante et m'aidera à résumer et conclure. Les vraies étoiles sont dans un état dynamique complexe présentant toutes sortes de champs de vitesses : rotation, turbulence à grande échelle, à petite échelle, éjection de matière, circulation interne, courants organisés, convection, etc. Les modèles stellaires sont au contraire essentiellement statiques, et à symétrie sphérique.

Ce qu'il faut comprendre (… ce qu'un physicien honnête peut facilement comprendre !), c'est que les équations d'une étoile statique et à symétrie sphérique ne sont pas du tout les mêmes que celles d'une étoile réelle à la dynamique complexe. Par conséquent la solution du premier problème (le modèle chéri auquel s'attachent aveuglément les astrophysiciens) ne revient pas du tout à trouver les paramètres moyens d'une étoile réelle, celle dont la matière est animée de mouvements.

Si on connaissait les équations d'une étoile réelle et qu'on effectuait sur elles une certaine moyenne par exemple de la température (ou si on effectuait cette moyenne directement sur des observations), il est bien certain que le résultat obtenu ne serait pas la température d'un modèle moyen statique.

À méditer : la température moyenne d'une étoile réelle n'est pas la température d'un modèle moyen d'étoile.

Face à cette vérité incontestable les analyses des astrophysiciens sont parfois délirantes, jugez-en vous-même. Alors que la température d'une étoile vraie peut varier de plusieurs milliers de Kelvin d'un point à l'autre de la surface, sait-on que les spécialistes « s'amusent » à déterminer la température du modèle supposé équivalent à quelques degrés  près ? Non seulement cela n'a aucun sens mais cela produit des nombres (car on peut toujours s'arranger pour que les codes sortent des résultats !) auxquels on ne peut accorder aucune confiance. Ce qui est certain au contraire c'est que ces nombres sont faux…

Il en est de même de notre Univers. Les cosmologistes s'entêtent à utiliser un modèle moyen correspondant à un univers homogène et isotrope ne contenant aucun mouvement interne. Et cette position est aberrante. Ce n'est pas parce que telle étoile est grossièrement sphérique (vue d'un peu loin!) qu'un modèle théorique sphérique lui correspondra dans sa réalité. Ce n'est pas parce que notre Univers semble homogène et isotrope à grande échelle que le modèle théorique homogène et isotrope lui correspondra dans sa réalité.

L'expansion moyenne de notre Univers dynamique réel n'est pas l'expansion d'un univers moyen homogène et isotrope.

On peut faire coller les deux… à condition de rajouter des paramètres comme la matière noire et l'énergie noire  ! Des entités qui n'auront pas la moindre signification physique.

La vérité ne triomphe pas d’elle-même

Je me permets de terminer sur une note personnelle. Étant entré dans la recherche dans les années soixante, j’ai été le témoin dans les laboratoires où je me trouvais de la plupart des découvertes astronomiques majeures du vingtième siècle. J’ai vécu par exemple la bataille autour du big bang avec la reconnaissance de cette théorie géniale par les uns et son rejet viscéral et irrationnel par d’autres. J’ai vécu les discussions autour de ces spectres stellaires alors inexplicables qu’on allait bientôt interpréter comme ceux d’astres très lointains (et donc présentant un décalage vers le rouge important) et terriblement lumineux : les quasars. Je me souviens des premières photos où on voyait un pulsar clignoter. Mais j’ai assisté aussi, impuissant, à la naissance de cette idée incongrue de matière noire, puis plus récemment, de façon tout aussi inopinée et immotivée, à celle d’énergie noire, dont on cherche à nous faire croire qu’elle constitue 70% du contenu de l’Univers.

Principalement je regrette de voir l’astronomie malade d’une numérisation incontrôlée couplée à une modélisation indigente ignorant la plus grande partie de la physique réelle des corps célestes et ne permettant certainement pas d’atteindre la précision annoncée par les intégristes de la théorie. Car j’ai aussi vécu la non-résistible ascension de l’informatique et la croissance exponentielle des publications qui en a résulté, sans apporter d’ailleurs avec elle la qualité de résultats qu’on aurait pu espérer. Or à quoi servent l’informatique et les volumineuses études qui en sont issues si cette procédure n’améliore pas en proportion la valeur des résultats ?

Ce qui me frappe le plus, et m’afflige, car je me sens bien désarmé vis-à-vis de ces mouvements d’opinion, c’est que, l’expérience me l’a montré, la vérité en tant que telle n’est porteuse d’aucun poids argumentatif supplémentaire, d’aucune force de persuasion. Au contraire pourrait-on dire, puisque souvent les gens sont plus enclins à croire ce qui leur plaît subjectivement que prêts à s’attacher à la dimension objective des faits. En somme, dans ma vie de scientifique, devant les aberrations exprimées par les uns ou les autres, je pensais candidement que les baudruches de contrevérités se dégonfleraient d’elles-mêmes : il était tellement évident à mon sens qu’il ne s’agissait que d’idées fausses, amenées en cela à mourir d’elles-mêmes. Mais j’ai été cruellement frustré de voir cet espoir déçu. Ce sont les opinions intellectuellement les plus faibles qui se sont développées et se sont révélées les plus prisées. Ou au moins les plus médiatisées. (L’introduction du funeste principe anthropique est un autre exemple d’une idée farfelue, scientifiquement incohérente, que je croyais vouée à l’oubli : quelle naïveté de ma part !). J’ai donc appris avec dépit que pour faire triompher des idées, même des idées justes, il fallait se battre contre la paresse intellectuelle ambiante et contre les certitudes toutes faites, et imposées, de la science officielle.

Le constat est pénible. Qu’y faire ? Je crois que ces trahisons envers l’honnêteté scientifique reflètent l’esprit de la société dans laquelle nous vivons, société avide de profit et de rentabilité. Je défends l’idée que pour changer de science (et il le faut !) il faut changer de société. La nôtre est porteuse de trop de désirs de domination et de maîtrise du monde. Empreinte de trop de souci de productivité aveugle. On nous inculque que plus c’est gros, plus c’est beau et plus c’est efficace. Mais cela n’est toujours pas prouvé ! La course au rendement et à la réalisation de projets pharaoniques ignore la justice, la justesse et la vérité.

Ainsi l’histoire de la matière noire est-elle tristement révélatrice de l’état de notre monde actuel. Elle montre qu’en s’attachant à des valeurs sacralisées présentées sans preuve comme positives et porteuses de « progrès » (on ne précise pas ce sur quoi porte ce progrès) les scientifiques ont fait passer la passion d’une authentique vérité au second plan. On imposera l’idée qu’il faut faire tourner les plus gros ordinateurs, monter des expériences toujours plus ambitieuses et coûteuses comme enregistrer un milliard d’étoiles et des millions de galaxies, comme mesurer la distance de la Lune à l’épaisseur d’un cheveu près. Puisqu’il faut produire, on ne permettra pas à des chercheur-e-s de s’arrêter à douter du principe cosmologique ou des hypothèses d’équilibre. On fera croire que les modèles les plus sophistiqués (dans la forme, mais non dans le fond) sont les plus justes. On nous inculquera l’idée que la mise en œuvre de très grands relevés astronomiques (les « grands surveys ») nous fera accomplir des découvertes décisives. Mais tant que les astronomes croiront que l’Univers est soumis à leur principe cosmologique et que les étoiles se conforment à leurs modèles à trois paramètres, ces projets sont d’avance stériles. Affecter à telle étoile telle température et tel rayon alors que dans la réalité cette étoile n’a ni température ni rayon définis est incohérent et ne produira aucun savoir. De même décrire l’Univers réel, lequel est formé de condensations de matière de toutes sortes animées de mouvements omnidirectionnels, par des équations applicables à un milieu homogène et isotrope sans vitesses internes de matière assimilable à un fluide parfait ne peut conduire qu’à des aberrations (c’est précisément ce que nous constatons !).

Peut-être assistons-nous actuellement au déclin de l’astrophysique moderne. Peut-être l’invention de la matière noire et de l’énergie noire est-elle le signe que la cosmologie, pourtant par vocation artisane de vérité, devient, par culte de rendement, abus de numérisation et fanatisme aveugle de théorie, science d’escroquerie.

 

En guise d'épilogue

Enfin je voudrais faire remarquer avec un brin de perfidie que chaque minute, journée ou année qui passe ne cesse de conforter ma position critique vis-à-vis du délire de la matière noire. Depuis le début de cette farce les chercheurs n'ont absolument rien trouvé qui puisse donner corps à leur lubie. Du côté théorique on avance n'importe quoi mais aucun résultat n'est apparu sur le marché. Quant à des observations susceptibles de corroborer l'idée farfelue avancée elles sont aussi absentes que cette insaisissable matière noire elle-même. En fait plus le temps avance, plus l'idée de la matière noire perd de sa déjà faible crédibilité. Comment les croyants en matière noire peuvent-ils continuer à être aussi crédules? Je ne sais pas.

Au fil des séminaires auxquels j'ai assisté durant ma carrière j'ai été frappé par la grande proportion des orateurs qui reportaient leur découverte au lendemain. Les astrophysiciens de ma génération sont de grands naïfs, adeptes fidèles du « demain on rase gratis » (en anglais: free beer tomorrow) .

La conclusion s'impose: la découverte de la matière noire est pour demain.


Questions de cosmologie

Page d'accueil de Christian Magnan
Dernière modification : 27 janvier 2017




URL :  http://www.lacosmo.com/MatiereNoire.html