CORPS À CORPS      




Peut-on séparer l'observateur et ce qu'il observe ? La mécanique quantique répond « non ».


Christian Magnan
Collège de France, Paris
Université de Montpellier II


La mécanique quantique a révolutionné la physique en y introduisant la notion de hasard et a profondément modifié du même coup notre façon de concevoir la réalité des choses. Mais il y a plus. Auparavant, dans une vision classique, on supposait implicitement qu'une séparation franche existait entre l'objet de la mesure et les moyens de mesure eux-mêmes. Ou tout au moins, si la mesure perturbait le phénomène à mesurer, on pensait toujours pouvoir faire, au moins en principe, toutes les corrections voulues pour atteindre le fait expérimental à l'état pur.

En mécanique quantique il n'en va plus de même. Si la nouvelle physique découvre qu'il est impossible de parler de « quelque chose » à mesurer, comme si ce quelque chose existait indépendamment de la mesure, c'est parce qu'elle aborde une expérience en tant que phénomène global où interviennent à la fois tous les éléments qui la composent, observateur compris. Autrement dit, la science définit l'ensemble de l'expérience, dans son étendue spatiale aussi bien que dans son déroulement temporel, comme un système unique qu'elle doit modéliser par ses équations. Par conséquent, en principe, si fonction d'onde il y a, ce n'est pas la fonction d'onde de l'objet de l'expérience qui entre en compte mais bien la fonction d'onde de tout l'ensemble du dispositif expérimental.

On ne peut mieux mettre en lumière cette impossibilité radicale devant laquelle se trouve la science d'appréhender, directement ou non, une sorte de « réalité objective ».

La difficulté a pour origine principale l'influence de l'instrument d'analyse et la perturbation qui en résulte. Certes le fait qu'il y ait modification du système expérimental lors de la mesure n'est pas en soi une idée révolutionnaire, même si la mécanique a mis l'accent sur ce point particulier, comme nous le verrons par la suite : cela existe aussi en physique classique et peut être accepté sans mal. Par exemple pour voir un objet, il faut l'éclairer et donc lui envoyer des rayons lumineux qu'il diffusera en retour.

En physique classique cependant tous les changements du système sont considérés comme prévisibles et déterminés sans ambiguïté, alors que dans le domaine quantique ce n'est pas le cas.

Pour analyser l'expérience il faut maintenant considérer la fonction d'onde de tout le système puis pour passer aux résultats eux-mêmes faire appel aux règles de traduction convenables. Mais celles-ci impliquant que nous n'avons accès qu'à une probabilité d'obtention de tel résultat dans une certaine fourchette la perturbation apparaît maintenant imprévisible et incontrôlable, ce qui limite fatalement la précision de toute mesure. La limitation est d'abord de l'ordre du principe. En pratique, l'ordre de grandeur des incertitudes est fixé par les fameuses relations de la mécanique quantique et repose sur la valeur de la constante de Planck.

Forts de notre savoir sur les formules de la mécanique quantique, montrons sur un exemple qu'il est impossible de déterminer en toute rigueur la trajectoire d'une particule libre car la mesure d'une position fausse irrémédiablement la mesure des positions suivantes.

En effet, en effectuant une première mesure de position nous allons introduire un repérage de la particule, ce qui revient à la « confiner » dans un certain domaine de l'espace, le confinement étant d'ailleurs d'autant plus prononcé que la précision requise est plus grande. Or, nous avons vu que ce confinement avait pour effet de doter la particule d'une certaine énergie de mouvement. La particule va donc se trouver comme animée d'une vitesse supplémentaire (impossible à prévoir exactement) capable de créer à son tour une erreur sur la position du point suivant, erreur d'autant plus grande que la mesure du premier point aura été précise. Par conséquent, plus on cherche à gagner sur le premier point, plus on perd sur le second.

Et si cette situation pleine d'« incertitudes » rend manifestement impossible la détermination « exacte » de la trajectoire - de toute façon l'exactitude absolue n'est pas un concept physique -, elle rend même caduque en principe la notion-même de trajectoire. (Je rappelle néanmoins tout de suite que les notions classiques, dont celle de trajectoire, restent valables à l'échelle macroscopique. On peut parler de la trajectoire d'un satellite, et la calculer, sans faire la moindre correction quantique.)

Un deuxième élément contribue à introduire en physique cette indétermination indélébile qui caractérise dorénavant le domaine de l'expérience : il s'agit du phénomène de quantification lui-même.

La quantification n'est pas réservée au seul système de l'atome d'hydrogène, ni aux systèmes équivalents. Elle est présente comme un germe indéracinable dans l'équation de Schrödinger, quelles que soient les applications traitées.

Lorsque, dans une expérience, nous cherchons à minimiser les perturbations indésirables de l'instrument de mesure la quantification impose l'existence d'une valeur minimum en-dessous de laquelle la quantité à minimiser ne peut pas descendre. Autrement dit, ces quantités que nous aimerions bien rendre les plus petites possibles présentent des seuils quantiques. (Nous avions vu dans le cas de l'hydrogène que l'énergie ne pouvait pas devenir inférieure à sa valeur « plancher ») Dans ces conditions la perturbation ne pourra jamais être réduite à néant et sera toujours présente au moins sous cette forme élémentaire.

Illustrons cela.

Supposons que nous cherchions à repérer une particule en l'éclairant, un peu comme si nous prenions une photo. La source de la perturbation sera la lumière, laquelle va agir à une certaine échelle, et de façon partiellement imprévisible. La perturbation va notamment se trouver comme « atomisée », en agissant par unités successives. En effet la lumière se comporte dans son contact avec la matière comme si elle se composait de particules insécables, les photons, chaque photon transportant une quantité élémentaire - ou quantum - d'énergie (c'était l'hypothèse de Planck et c'est la base de l'effet photoélectrique, pour lequel Einstein a obtenu le prix Nobel en 1921). Cela signifie qu'on a beau réduire l'intensité de la lumière source, c'est-à-dire réduire la quantité de photons, il restera toujours une énergie élémentaire minimum, non nulle, qui, de toute façon, « cognera » sur l'objet à détecter.

L'énergie d'un photon étant proportionnelle à sa fréquence (ou, ce qui revient au même, inversement proportionnelle à sa longueur d'onde), on peut espérer minimiser les effets regrettables de cette énergie en diminuant la fréquence de la lumière incidente. Le raisonnement est valable, d'autant plus que la fréquence elle-même n'est pas soumise à une loi de quantification et peut donc prendre des valeurs aussi petites que l'on désire.

Cependant, nous nous préparons de nouvelles difficultés.

Prenons donc une lumière de plus en plus « rouge », de fréquence de plus en plus petite pour « taper moins fort » sur le corpuscule étudié. Seulement voilà, à une fréquence plus faible correspond une longueur d'onde plus grande ; et si nous augmentons la longueur d'onde il est assez facile de prévoir que l'image de l'objet se fera de plus en plus floue. En effet une onde qui balaie un millième de millimètre, on le comprendra aisément, ne peut pas nous permettre de repérer un objet à une précision supérieure à ce millième de millimètre. C'est un peu comme si essayions d'assembler les éléments d'une montre avec les doigts.

Nous sommes ainsi confrontés au dilemme suivant. Si nous essayons de diminuer la perturbation énergétique susceptible de communiquer une vitesse indésirable à l'objet examiné nous augmentons du même coup la marge d'erreur en visualisation spatiale du phénomène. En sens inverse, si nous cherchons à augmenter la précision du repérage spatial en employant des photons plus « petits » et donc plus énergétiques nous envoyons promener notre particule n'importe où avec d'autant plus de force que nous aurons cherché plus de précision dans sa localisation.

Nous retrouvons donc la même difficulté qu'auparavant à définir exactement une trajectoire mais dans un contexte un peu différent, mettant l'accent cette fois sur le nécessaire caractère discontinu de la mesure, qui a ajouté sa part à l'indétermination foncière du résultat expérimental.

La situation d'incertitude a un caractère frustrant pour les physiciens, qui auraient bien voulu retrouver ce pouvoir dont ils disposaient avant et dont ils avaient pris l'habitude : celui de prévoir de façon certaine. Mais leurs souhaits apparaissent vains. Outre l'exemple évoqué à l'instant, l'analyse serrée de toutes les expériences imaginables a montré qu'on ne pouvait jamais échapper au fait que la précision de toute mesure avait une limite au-delà de laquelle on ne pouvait plus l'améliorer. Autrement dit, quelles que soient les issues qu'il tente d'emprunter pour parfaire la précision souhaitée le physicien se retrouve « coincé » à une phase ou à une autre du raisonnement.

En mécanique quantique, la nouveauté réside en ce que la limitation, de toute façon présente pour des raisons pratiques, s'impose maintenant pour des raisons de principe.

Refrain : les catégories du monde physique réel ne sont pas celles de nos modèles théoriques. Il est impossible de faire coller le modèle à la théorie. Il est impossible de faire coïncider une particule à l'image que nous nous en faisons.

Découvrons une autre illustration de l'ambiguïté des images théoriques.


Version revue, corrigée et enrichie
du livre de Christian Magnan
La nature sans foi ni loi,
Éditions Belfond/Sciences (1988)
Dernière modification : 10 juillet 2006


 Science et vie
 Page d'accueil de Christian Magnan


URL :  http://www.lacosmo.com/Nature167.html