La matière illuminée

Facebooktwittermail

Nous voudrions dans cet article passer brièvement en revue le développement de nos conceptions de la matière et de la lumière afin de mieux appréhender ce que nous dit aujourd’hui la physique moderne.

Nous verrons que la physique actuelle unifie non seulement ces deux notions : matière et lumière, mais aussi que cette unification s’est faite en étendant à la connaissance de la matière — les corps, corpuscules massifs — ce qui a été appris de la lumière et non l’inverse. Comme l’écrit Frank Wilczek[[ Frank Wilczek (1951- ), prix Nobel de physique 2004, Étasunien.]] au début d’un récent livre[[ Franck Wilczek, The Lightness of Being : Mass, Ether, and the Unification of Forces, Basic Books (2008), Penguin (2010).]], « L’ancien contraste entre la Lumière céleste et la Matière terrestre a été transcendé dans la physique moderne. Il y a une seule chose, et ça ressemble plus à l’idée traditionnelle de la lumière qu’à l’idée traditionnelle de la matière. »

In memoriam Robert Brout[[ En 1964, Robert Brout et François Englert de l’Université libre de Bruxelles ont proposé un mécanisme plus tard appelé « mécanisme de Higgs » pour expliquer la masse des particules élémentaires. Ce mécanisme fut proposé simultanément par Peter Higgs de l’Université d’Edimbourg et c’est le nom de ce dernier qui a été retenu pour le nommer, ainsi que la particule à l’origine du mécanisme, le boson de Higgs. La recherche de cette particule est l’objet principal de deux expériences actuelles menées à l ‘accélérateur LHC (Cern, Genève ) par des milliers de physiciens, ingénieurs et techniciens.]] (1928 – 2011)

 

Introduction

Notre objectif est de montrer ici que la physique moderne est parfaitement rationnelle et ne valide nullement le relativisme ambiant[[ Par relativisme, nous entendons la position philosophique qui soutient qu’il il n’existe pas de vérité préexistant à toute théorie scientifique et que la démarche scientifique ne peut s’approcher de mieux en mieux de la vérité, c’est-à-dire du monde objectif. En opposition au relativisme philosophique, Einstein a écrit : « Croire en un monde extérieur indépendant du sujet qui le perçoit constitue la base de toute science de la nature »]]. En même temps, elle nous oblige à revoir certaines conceptions scientifiques, notamment celle de la matière. Mais l’histoire des sciences est remplie d’événements qui ont obligé à revoir profondément les conceptions scientifiques antérieures

De nos jours, les phénomènes qui se déroulent au niveau de ce que nous appelons « l’infiniment petit[[ À des échelles plus petites que celle du milliardième de mètre.]] », c.-à-d. ceux qui concernent les molécules et en deçà, sont décrits par une théorie appelée généralement « physique quantique ». Au niveau de l’enseignement secondaire, cette théorie est rarement abordée et quand elle l’est, l’approche est parfois malheureuse. On en garde alors comme une impression de « magie ». Cette impression provient souvent de l’apparition de la notion de probabilité dans un domaine inattendu. Cette notion intervient en effet pour la première fois de manière intrinsèque au niveau scientifique. Intrinsèque signifie ici que le hasard s’introduit au cours des phénomènes. Jusque-là, le hasard et les probabilités n’existaient qu’au niveau « macro ». Par exemple, si un ouragan souffle sur une ville, je ne sais pas à l’avance combien de toits vont s’envoler ni lesquels. Mais ce « hasard » n’est dû qu’à une ignorance des détails. Si j’avais étudié chaque maison en détail, calculé la vitesse du vent, connu où allaient passer les rafales les plus violentes en fonction des données météo et de la géographie locale, etc., j’aurais pu tout prédire. En physique quantique, ce n’est pas le cas : le hasard est intrinsèque. Même si je connais les conditions initiales, je ne peux pas prédire ce qui va arriver avec certitude à un certain électron.

Par ailleurs, dans notre société, il règne un certain relativisme philosophique. Tout se vaut. Pour éviter que les gens ne comprennent vraiment dans quel monde ils vivent, on leur laisse croire qu’il est incompréhensible. Les théories les plus fumeuses en valent bien d’autres. Les horoscopes ont leur place dans les journaux les plus sérieux. Dans un tel climat, certains profitent de l’introduction du hasard dans un domaine scientifique pour laisser croire que désormais l’irrationnel et la science feraient bon ménage.

Physique classique

Il est commun depuis des temps immémoriaux de distinguer entre matière et lumière. La matière d’un côté est vue comme définie par des objets avec une certaine étendue, une certaine masse. Par exemple, un électron, un cheval, une étoile, etc. D’un autre côté par contraste à la matière, il y a la lumière évanescente qui apparaît ou disparaît, sans permanence, qui doit être entretenue comme le feu pour se manifester.

Le monde extérieur est ainsi appréhendé par cette dichotomie de la réalité : la matière et la lumière. Cette conception est tellement omniprésente, envahissante, qu’elle apparaît dans le titre même du dernier livre[[ Richard Feynman, Lumière et Matière : Une étrange histoire, InterEditions (1987). Réédité en collection Points Sciences, Le Seuil (1999). Traduction française de QED : The Strange Theory of Light and Matter (1985).]] du célèbre physicien Richard Feynman[[ Richard Feynman (1918-1988), prix Nobel de physique 1965, Étasunien.]] qui a pourtant œuvré à montrer la fusion entre matière et lumière.

Comme l’explique Frank Wilczek, « Les dichotomies lumière/matière et continu/discret étaient certainement perçues par les hominidés doués de sens. Elles ont été exprimées clairement et discutées sans arriver à de conclusions solides par les Grecs anciens. Aristote distinguait le feu et la terre comme éléments primaires de la réalité[[ Frank Wilczek, A Piece of Magic : The Dirac Equation, in It Must be Beautiful : Great Equations of Modern Science, sous la direction de Graham Farmelo, Granta Books (2003), p. 132-160. Toutes les citations de Wilczek dans le présent article proviennent de ce livre, excepté si le contraire est écrit explicitement.]]. »

Dans le système d’Isaac Newton[[ Isaac Newton (1642-1727), mathématicien et physicien, Britannique.]], datant du 17e siècle, — voir encadré 1 — la réalité physique se caractérise par les concepts d’espace, de temps, de points matériels, de force, c’est-à-dire d’interaction entre les points matériels. La description de la réalité se fait en termes de mouvement dans l’espace au cours du temps. La lumière elle-même est composée de particules qui se meuvent en ligne droite formant ainsi des rayons lumineux. Ainsi la théorie de la lumière est en quelque sorte unifiée à celle des corps massifs.

——

Encadré 1

Mécanique de Newton ou Mécanique classique

Newton a établi les trois lois du mouvement qui concernent le mouvement des corps massifs. Il part du cas idéalisé d’un corps ponctuel doté d’une masse se trouvant à un point donné de l’espace à un temps t donné et éventuellement soumis à des forces. On est alors capable, par ces trois lois, de décrire le mouvement de ce corps dans l’espace au cours du temps.

1re loi — Dans un référentiel inertiel [c.-à-d. soumis à aucune force] donné, si un corps persévère dans un état de repos ou de mouvement rectiligne uniforme, alors il n’est soumis à aucune force.

2e loi — La résultante des forces auxquelles est soumis un corps est égale à sa masse multipliée par son accélération.

3e loi — Tout corps A exerçant une force sur un corps B subit une force d’intensité égale, de même direction mais de sens opposés, exercée par le corps B.

—–

Écoutons ce qu’en dit Albert Einstein[[ Albert Einstein (1879-1955), prix Nobel de physique 1921, Allemand/Suisse/Étasunien.]] : « Selon Newton, les phénomènes physiques doivent être interprétés comme des mouvements de points matériels dans l’espace, mouvements régis par des lois. Le point matériel, voilà le représentant exclusif de la réalité, quelle que soit la versatilité de la nature. Indéniablement, les corps perceptibles ont donné naissance au concept de point matériel ; on se figurait le point matériel comme analogue aux corps mobiles, en supprimant dans les corps les attributs d’étendue, de forme, d’orientation dans l’espace, bref toutes les caractéristiques “intrinsèques”. On conservait l’inertie [la masse], la translation et on ajoutait le concept de force. Les corps matériels, transformés […] par la formation du concept “point matériel”, doivent désormais eux-mêmes être conçus comme des systèmes de points matériels. Ainsi donc ce système théorique, dans sa structure fondamentale, se présente comme un système atomique[[ « Atomique » doit être ici compris en fonction du long débat qui a traversé la philosophie depuis la Grèce antique : certains considéraient la matière comme « continue » et d’autres comme « discontinue », c.-à-d. constituée de « briques de base » baptisées atomes. Il ne s’agit pas encore de la conception moderne des atomes constituants des molécules et qu’on retrouve dans le tableau de Mendeleïev.]] et mécanique. Ainsi donc tous les phénomènes doivent être conçus au point de vue mécanique, c’est-à-dire simples mouvements de points matériels soumis à la loi du mouvement de Newton[[ Albert Einstein, L’influence de Maxwell sur l’évolution de la conception de la réalité physique (écrit en 1931) à l’occasion du centenaire de la naissance de Maxwell, dans Albert Einstein, Comment je vois le monde, Flammarion (1979), p. 171-176. Toutes les citations d’Einstein dans le présent article proviennent de ce livre ; http://www.d-meeus.be/physique/Maxwell-Einstein-fr.html ]]. »

Cette conception corpusculaire a été et est extrêmement féconde. Elle a été souveraine jusqu’aux travaux de Michael Faraday[[ Michael Faraday (1791-1867), chimiste et physicien, Britannique.]] et James Clerk Maxwell[[ James Clerk Maxwell (1831-1879), physicien, Britannique.]] au 19e siècle.

Einstein poursuit : « Dans ce système théorique [de Newton], il y a une difficulté majeure : elle réside essentiellement dans la théorie de la lumière, parce que Newton, en plein accord avec son système la conçoit aussi comme constituée de points matériels. Déjà à l’époque se posait la redoutable interrogation : où sont passés les points matériels constituant la lumière, lorsque celle-ci est absorbée ? »

Déjà à l’époque de Newton, une autre conception de la lumière existait. Celle qui considère que la lumière est un phénomène ondulatoire.

Mais qu’est-ce qu’une onde ? Si nous laissons tomber un caillou à la surface de l’eau, nous voyons apparaître des ronds dans l’eau. De quoi s’agit-il ? La surface de l’eau est perturbée par un mouvement de haut en bas à l’endroit où le caillou est tombé. Ce mouvement vertical se transmet de proche en proche dans toutes les directions. D’où l’apparition de cercles centrés sur la source (l’endroit où la pierre est tombée) et qui se déplacent vers l’extérieur. Il s’agit d’un phénomène ondulatoire, oscillant. Il faut donc bien comprendre que l’onde ne correspond pas à un déplacement horizontal de matière (au sens où nous l’avons définie), mais à la propagation d’une perturbation sur la surface lisse de l’eau. Le mouvement de matière est vertical dans notre exemple alors que l’onde se déplace horizontalement. Il existe un très grand nombre de phénomènes ondulatoires (le son par exemple) qui n’ont comme point commun que de produire un transfert d’énergie de proche en proche à des vitesses qui peuvent être très différentes. Christiaan Huygens[[ Christiaan Huygens (1629-1695), physicien, Néerlandais.]] a imaginé, de manière cohérente une théorie ondulatoire de la lumière.

Alors corpuscules ou onde ? En sciences, le verdict expérimental est décisif pour départager deux modèles. Le problème est que le modèle corpusculaire et le modèle ondulatoire étaient tous les deux capables de rendre compte des phénomènes optiques connus à l’époque : propagation rectiligne de la lumière, réflexion, réfraction (déviation lorsque la lumière change de milieu), décomposition de la lumière blanche en différentes couleurs, etc. Certes, la réfraction, calculée dans les deux modèles, prédisait des rapports de vitesses différents pour la lumière selon qu’elle se déplace dans l’air ou dans l’eau. Mais à l’époque, on était incapable de mesure la vitesse de la lumière dans différents milieux. Impossible donc de trancher. Mais le modèle ondulatoire souffrait d’un grave défaut. Toutes les ondes connues à l’époque se déplaçaient dans un milieu matériel. Dans notre exemple ci-dessus, il s’agit de la surface de l’eau. Les supports peuvent être quelconques : une corde, une membrane, l’air dans le cas du son, etc. Or, on constate que la lumière nous provient du Soleil et des étoiles. Elle semble donc traverser le vide. Voilà une difficulté qui paraît insurmontable pour le modèle ondulatoire. Cette constatation, combinée au prestige acquis par Newton, fait qu’à l’époque le modèle corpusculaire a la préférence.

Néanmoins, dans la première moitié du 19e siècle, plusieurs observations mettent à mal ce modèle. D’une part, on observe des interférences lumineuses (voir encadré 2). En effet, si on envoie un faisceau lumineux vers une plaque opaque percée de deux petits trous et qu’on récolte la lumière sur un écran placé derrière la plaque, on n’observe pas deux « taches » lumineuses, mais bien une alternance de zones sombres et éclairées. Cette expérience a été réalisée dès 1800 par le médecin britannique Thomas Young. Elle s’explique parfaitement si on admet le caractère ondulatoire de la lumière, car il s’agit d’un phénomène d’interférence, c.-à-d. typiquement ondulatoire. D’autre part, on arrive à mesurer la vitesse de la lumière dans l’air ou le vide (300 000 km par seconde) et dans l’eau (225 000 km par seconde). Or, le modèle ondulatoire prédit que la lumière se déplace plus vite dans l’air que dans l’eau en conformité avec l’observation alors que le modèle corpusculaire prédit le contraire. Exit donc le modèle corpusculaire.

Reste évidemment un problème à résoudre. Comment expliquer que la lumière se déplace dans le vide ? Les physiciens imaginent alors que l’Univers est rempli d’une substance invisible et impondérable (sans masse) qu’ils baptisent éther. On dit qu’il s’agit d’une hypothèse ad hoc. Les scientifiques répugnent à faire ce genre d’hypothèse, car elle est très difficilement vérifiable. Mais ça semblait la seule manière d’admettre la nature ondulatoire de la lumière alors que les faits semblaient donner raison à cette approche.

———

Encadré 2

Optique

En 1704, Newton fait publier son traité Opticks. Il y expose sa théorie corpusculaire de la lumière, sa théorie de la réflexion, la réfraction, la diffraction de la lumière ainsi que sa théorie des couleurs[[ http://bibnum.education.fr/files/Newton-analyse.pdf.]]. Il démontre que la lumière blanche est formée de plusieurs couleurs et propose qu’elle est composée de corpuscules beaucoup plus petits que les corpuscules massifs ordinaires.

Il argumente que si on projette de la lumière sur une paroi opaque dans laquelle il y a un petit trou, la lumière passera par le petit trou pour atteindre un écran derrière la paroi. On observera que le point d’émission A, le petit trou B et le point éclairé sur l’écran C sont sur une droite, ce à quoi on s’attend si la lumière est composée de particules très légères (insensibles donc à la pesanteur qui incurverait vers le bas les trajectoires).

Cependant, si on diminue le diamètre du trou dans la paroi (de telle manière qu’il soit de la taille de la longueur d’onde de la lumière projetée), on trouve que sur l’écran n’apparaît pas un point lumineux brillant, mais un point lumineux plus faible entouré d’un cercle d’ombre, lui-même entouré d’un cercle lumineux et ainsi de suite. Cette figure est typique d’une onde. (Pensons à la forme de la surface de l’eau si on jette un caillou dans un étang tranquille.)

Si le diamètre du trou est très petit (plus petit que la longueur d’onde de la lumière projetée), alors plus aucune lumière ne passe. Pas étonnant qu’au 19e siècle, dans le cadre des équations d’onde de la lumière issue des travaux de Maxwell, on abandonne la conception corpusculaire de la lumière.

Pourtant il ne faut pas oublier les multiples succès de l’optique géométrique qui est basée sur la conception corpusculaire de Newton qui fonde l’industrie des lunettes, des microscopes et télescopes. Entre optique géométrique (corpusculaire) et optique ondulatoire, il y a invitation à lever la contradiction et à avoir une conception unifiée de l’optique. C’est ce que réalise l’optique quantique comme cela est magnifiquement exposé dans le livre de Feynman Lumière et Matière.

 

——–

Au début du 19e siècle, la lumière est donc vue comme une vibration de l’éther. Pour ce qui est de la matière, l’approche de Newton continue de régner en maître grâce à ses multiples succès dans la plupart des domaines de la physique. Les forces entre les corps matériels sont vues comme des forces d’interaction à distance — agissant de manière instantanée (voir encadré 3). Cela est vrai pour la force gravitationnelle entre deux corps massifs. Mais Coulomb[[ Charles Augustin de Coulomb (1736-1806), physicien, Français.]] avait montré dans la deuxième moitié du 18e siècle qu’entre deux corpuscules chargés électriquement, la force d’interaction électrique est également une force d’interaction (instantanée) à distance. Et l’hypothèse est alors faite que toutes les forces d’interaction dans la nature sont des forces d’interaction à distance.

C’est alors que Michael Faraday apparaît. Il a suivi quelques années d’école primaire, est devenu ouvrier chez un relieur à Londres à l’âge de 14 ans. Il n’a aucune connaissance en mathématiques. Par sa curiosité, son originalité et son travail méticuleux, il devient le plus grand chimiste et physicien expérimentateur du 19e siècle. Contrairement aux physiciens de l’époque, férus de mathématiques, mais moins du sens de l’expérimentation matérialiste, il constate que ses expériences ne plaident pas pour de mystérieuses forces d’interaction à distance. Il observe qu’en présence d’un aimant, si on saupoudre une table de limaille de fer, celle-ci s’organisera en sillons comme les sillons d’un champ labouré[[ Voir expérience limaille de fer et aimant droit : http://www.dailymotion.com/video/x3y4eg_experience-limaille-de-fer-aimant-d_school et expérience limaille de fer et aimant en U : http://www.dailymotion.com/video/x3y2rv_experiencelimaille-de-fer-aimant-en_school]]. D’où la notion de champ de force qui indique que les interactions agissent localement de proche en proche et non pas mystérieusement à distance.

Voyons comment Einstein analyse la physique de l’époque : « C’est à ce moment-là que se produit l’immense bouleversement, celui qui porte les noms de Faraday, Maxwell, Hertz[[ Heinrich Hertz (1857-1894), physicien, Allemand.]]. Dans cette histoire, Maxwell se taille la part du lion. Il explique que toutes les connaissances de l’époque à propos de la lumière et des phénomènes électromagnétiques reposent sur un double système bien connu d’équations différentielles[[ En mathématiques, une équation est, en une égalité contenant une ou plusieurs variables (encore appelées inconnues). Résoudre l’équation consiste à déterminer les valeurs que peut (peuvent) prendre la (les) variable(s) pour rendre l’égalité vraie.
Un système d’équations est un ensemble de plusieurs équations utilisant les mêmes variables et une solution doit satisfaire simultanément chaque équation du système.
Une équation différentielle est une égalité entre une ou plusieurs fonctions inconnues et leurs dérivées.]] […] »

———

Encadré 3

Loi universelle de la gravitation

Formulant la loi universelle de la gravitation dans la première édition des Principia Mathematica en 1687, Newton a proposé l’hypothèse de l’interaction entre corps matériels comme action instantanée à distance parce qu’elle fonctionnait magnifiquement bien. Mais il savait qu’elle ne pouvait pas fondamentalement rendre compte de la réalité. Dans une lettre de 1692 [[ Citation issue du Dictionnaire d’histoire et philosophie des sciences. Article Champ rédigé par Françoise Balibar]], Newton écrit: « Que la gravité soit innée, inhérente et essentielle à la matière, en sorte qu’un corps puisse agir sur un autre à distance au travers du vide, sans médiation d’autre chose, par quoi et à travers quoi leur action et force puissent être communiquées de l’un à l’autre est pour moi une absurdité dont je crois qu’aucun homme, ayant la faculté de raisonner de façon compétente dans les matières philosophiques, puisse jamais se rendre coupable »

En 1713, dans la deuxième édition des Principia, il ajoute un « Scholium generale » : « J’ai expliqué jusqu’ici les phénomènes célestes & ceux de la mer par la force de la gravitation, mais je n’ai assigné nulle part la cause de cette gravitation. Cette force vient de quelque cause qui pénètre jusqu’au centre du Soleil & des planètes, sans rien perdre de son activité ; elle n’agit point selon la grandeur des superficies, (comme les causes méchaniques) mais selon la quantité de la matière ; & son action s’étend de toutes parts à des distances immenses, en décroissant toujours dans la raison doublée des distances[[ Nous dirions qu’elle décroit en 1/r2.]] (…)

Je n’ai pû encore parvenir à déduire des phénomènes la raison de ces propriétés de la gravité, et je n’imagine point d’hypothèses. Car, tout ce qui ne se déduit point des phénomènes est une hypothèse, et les hypothèses, soit métaphysiques, soit physiques, soit mécaniques, soit celles des qualités occultes ne doivent pas être reçues dans la philosophie[[ La philosophie naturelle qui est l’objet des Principia correspond grosso modo à notre physique.]] expérimentale. En cette philosophie, les propositions sont déduites des phénomènes et rendues générales par l’induction[[ Isaac Newton, Principes mathématiques de philosophie naturelle (1713), livre III, Scholium generale, Trad. du latin par Emilie Duchastelet, Paris, 1759.
]]. »

La loi universelle de la gravitation de Newton unifie les mouvements des corps terrestres et des corps célestes. Elle rend compte quantitativement de l’effet de la pesanteur sur Terre et de l’attraction du Soleil et des planètes entre eux. Selon elle tout corps massif exerce une force sur les autres corps massifs.

Cette force entre deux corps massifs s’exerce selon la droite les séparant et est proportionnelle à l’inverse du carré de la distance et à chacune des masses des deux corps en question.

L’ « absurdité » mentionnée plus haut a été levée par la théorie de la gravitation d’Albert Einstein de 1916, appelée théorie de la relativité générale, qui stipule l’existence du champ gravitationnel qui couvre tout l’espace et est le médiateur de l’interaction gravitationnelle non seulement entre les corps massifs entre eux, mais également avec la lumière, les rayons X, les ondes radio, les rayons gamma, bref avec la radiation électromagnétique.

——

Ces équations expriment les liens qui unissent le champ électrique et le champ magnétique. Mais il s’agit encore ici de ce qu’on appelle des champs classiques. Pour mieux appréhender cette notion, tentons de comprendre l’expression « champ gravitationnel ». Tout objet à proximité de la Terre tombe sur elle. Newton dit qu’une force exercée par la Terre (appelée poids) attire l’objet. Si on parle en terme de champ, on dira que l’objet se trouve dans le champ gravitationnel de la Terre. Il s’agit d’une zone de l’espace où celle-ci exerce une influence en attirant des objets. En théorie, cette zone est infinie, mais disons que si on se trouve près d’un autre astre, ou vraiment très très loin de la Terre, l’influence de celle-ci est négligeable. Si les planètes tournent autour du Soleil, c’est parce qu’elles se trouvent dans son champ gravitationnel, etc. Pour revenir à la Terre, s’il n’y a pas, par exemple, un objet à 2 m au dessus du sol, il n’y a évidemment pas de force à cet endroit. Mais le champ est bien présent. Il s’agit d’une notion relativement abstraite, mais dont les effets sont très concrets. Nous dirons que la Terre est la source d’un champ gravitationnel, comme d’ailleurs tout corps massif. De même, toute charge électrique est la source d’un champ électrique, car elle peut attirer ou repousser d’autres charges électriques. Au départ, les aimants ont été considérés comme sources de champ magnétique, car ils attiraient des corps ferreux. Plus tard, on a compris que ce phénomène était dérivé (effet collatéral) et que les vraies sources de champs magnétiques étaient les particules électriquement chargées en mouvement ou orientées de manière spécifique (spin). D’où les liens étroits entre champs électriques et magnétiques qui conduisent à la fusion de ces deux concepts en celui de champ électromagnétique comme cela a été montré par Hendrik Antoon Lorentz[[ Hendrik Antoon Lorentz (1853-1928), prix Nobel de physique 1902, Néerlandais.]].

Maxwell se posait des questions du genre : « Si une particule chargée se déplace, comment varie le champ électromagnétique qui lui est associé ? » Il est évident en effet que lorsqu’une charge électrique se déplace, le champ dont elle est la source se déplace aussi. Mais la transmission du déplacement se fait-elle instantanément ? Maxwell répond à cette question à partir de ses équations et montre que le champ électromagnétique est modifié de proche en proche, pas de manière instantanée. La transmission se fait de manière ondulatoire et cette nouvelle onde est baptisée « onde électromagnétique ». Il calcule la vitesse de propagation toujours à partir de ses fameuses équations. Et il obtient comme résultat : la vitesse de la lumière, c ! Il s’agit d’une avancée fondamentale de la physique du 19e siècle. Car, à partir de ce résultat, il n’y a évidemment qu’un pas pour considérer que la lumière est une onde électromagnétique. Et ce pas sera très vite franchi.

À ce moment, tout semble très clair : la lumière est bien une onde et on connaît maintenant la nature de cette onde, elle est électromagnétique. Et du coup, l’hypothèse de l’éther peut être abandonnée, car les ondes électromagnétiques se déplacent dans le vide. Contrairement aux ondes mécaniques, elles n’ont pas besoin d’un support.

Les ondes électromagnétiques peuvent être de fréquence quelconque, c.-à-d. avoir des oscillations quelconques. La lumière visible n’en représente qu’une très petite partie. De nouveaux rayonnements correspondant à toute la gamme des ondes électromagnétiques sont découverts à la fin du 19e siècle : gamma, X, UV, IR, radio.

Faisons le point. Avec Newton, le monde matériel est conçu comme un ensemble de points matériels obéissant à des lois, les lois de Newton. Les changements sont décrits et réglés par des équations. Ils sont décrits comme des mouvements dans l’espace. À partir de Maxwell, le monde réel est divisé en deux catégories : le monde mécanique pour lequel rien n’a changé depuis Newton et le monde électromagnétique auquel appartiennent les phénomènes lumineux. Ce monde est décrit par des champs dont le comportement est réglé par des équations. La distinction entre ces deux mondes montre le côté nécessairement temporaire de cette conception. Cela n’empêche pas Einstein de considérer que « cette modification de la conception du réel représente la révolution la plus radicale et la plus fructueuse pour la physique depuis Newton ». Maxwell a unifié en une même théorie électricité, magnétisme et optique. Les champs électromagnétiques unifient forces d’interaction électriques et magnétiques et rayonnement électromagnétique. Exit la conception de Newton de la lumière en termes de particules.

Wilczek exprime la situation comme suit : « L’électrodynamique de Maxwell est une théorie des champs électriques et magnétiques, et de la lumière, qui ne fait aucune mention de la masse. La théorie de Newton [supplémentée par la théorie de l’électron de Lorentz] est une théorie de particules discrètes, dont les seules propriétés exigées sont la masse et la charge électrique ».

Relativité

Toujours à la fin du 19e siècle, une expérience réalisée par Michelson[[ Albert A. Michelson (1852-1931), prix Nobel de physique 1907, Étasunien.]] et Morley[[ Edward W. Morley (1838-1923), chimiste, Étasunien.]] arrive à un résultat surprenant : la lumière semble se déplacer à la même vitesse par rapport à n’importe quel système de référence ! Pour comprendre le côté surprenant de cette affirmation, prenons l’analogie suivante. Si une personne se déplace à l’intérieur d’un train à la vitesse de 5 km/h et que le train se déplace par rapport au sol à la vitesse de 100 km/h, il est évident que la vitesse de la personne par rapport au sol sera de 105 ou 95 km/h selon son sens de déplacement. Et bien, si nous remplaçons la personne par un rayon lumineux, nous ne pouvons plus effectuer ce raisonnement qui paraît pourtant évident. La vitesse de la lumière sera la même par rapport au train et par rapport au sol !

En 1905, Einstein prend cette proposition au sérieux et en tire toutes les conséquences. Il construit ainsi la théorie appelée « relativité restreinte ». Cette théorie oblige à reconsidérer nos conceptions d’espace et de temps. C’est logique puisque la vitesse dépend de ces deux paramètres. Une conséquence fondamentale de la relativité restreinte est par exemple que l’écoulement du temps ne se déroule pas de manière identique pour des mobiles se déplaçant à des vitesses différentes ! Aussi surprenant que ça puisse paraître, cette propriété est parfaitement vérifiée par l’expérience.

Ceci dit, il faut savoir que les lois de la relativité restreinte ne diffèrent pratiquement de celles de Newton que lorsque les vitesses sont gigantesques, c.-à-d. proches de celle de la lumière. La théorie démontre qu’il est impossible de dépasser cette vitesse, et même de l’atteindre pour des particules ayant une certaine masse. Pour les vitesses habituelles, les prédictions de la relativité restreinte et de Newton sont identiques.

Par rapport à notre sujet, ce qui est le plus important, c’est la fameuse formule E = mc². Elle signifie que la masse est une forme particulière de l’énergie. La conséquence est que certaines particules (avec une masse non nulle) peuvent se désintégrer pour donner de l’énergie cinétique et aussi que de l’énergie cinétique peut, dans des circonstances précises, se transformer en particules. Ceci est vérifié quotidiennement dans certains laboratoires. Nous y reviendrons.

Quelques années plus tard, Einstein intégrera la gravitation dans la théorie de la relativité ce qui donnera la « relativité générale ». Mais ceci est une autre histoire.

Mécanique quantique

C’est dans ce contexte qu’est née la mécanique quantique, appelée aussi mécanique des quanta ou mécanique ondulatoire, nécessaire pour décrire le monde à l’échelle de l’atome, à des dimensions plus petites ou égales à dix milliardième (1/100 000 000 00) de mètre.

Pourquoi une nouvelle théorie ? Plusieurs données expérimentales de la fin du 19e et du début du 20e siècle ne pouvaient s’expliquer à partir des théories existantes. Un exemple important et décisif fut l’effet photoélectrique. Si on envoie des rayonnements UV (ultraviolet) vers une plaque métallique, on constate que des électrons sont éjectés de la plaque. Si on étudie ce phénomène en détail, on voit qu’il est impossible d’expliquer les résultats expérimentaux si on n’admet pas que le rayonnement UV est composé de « grains d’énergie » insécables (indivisibles). Ceci peut être généralisé à toutes les ondes électromagnétiques et donc aussi à la lumière visible. On peut donc dire que des « particules de lumière » interagissent avec la matière. On les appelle photons. Ceci ne rentre plus dans le cadre de la physique classique, y compris celle de Maxwell, et nécessite donc une nouvelle théorie qui sera baptisée mécanique quantique. Comme dit plus haut, lorsqu’on interprète les données expérimentales dans le cadre de cette théorie, on arrive à des résultats déroutants. Un exemple célèbre est la fameuse expérience dite des deux trous (celle de Young dont nous avons parlé ci-dessus pour démontrer le caractère ondulatoire de la lumière)[[ Voir par exemple http://www.reflexiences.com/dossier/97/lumiere-sur-la-lumiere/3/l-experience-des-trous-d-young/]]. Tant qu’on pense que la lumière est une onde, il n’y a pas de problème. Mais si on pense qu’elle est constituée de photons, c’est beaucoup plus déroutant. En effet, nous sommes incapables de dire par quel trou chaque photon est passé. Pire (pour notre bon sens), nous sommes obligés d’admettre qu’il est impossible de considérer la trajectoire d’un photon de la source à l’écran. On interprétait souvent cela à une époque pas très lointaine en disant que le photon est passé par deux trous à la fois ! Pire encore : on peut effectuer le même raisonnement pour un électron ! En effet, l’expérience de Young (en tout cas son équivalent) peut être réalisée avec des électrons. Ce fut fait dès les années 1930 et on observe des résultats similaires. Et on pouvait souvent entendre dire jusqu’il y a peu qu’un électron est passé par deux trous à la fois !

Cette expérience permet aussi de saisir l’intrusion des probabilités dans le cœur même de la Nature. Il est nécessaire pour ça de faire le point de la situation. La lumière est composée de particules (sinon pas d’effet photoélectrique). Néanmoins, lorsqu’on observe son déplacement, on constate un phénomène ondulatoire. En 1924, Louis de Broglie[[ Louis de Broglie (1892-1987), prix Nobel de physique 1929, Français.]] propose alors que les autres particules connues (électrons, protons…) se comportent de la même manière. Dans la foulée, Davisson[[ Clinton Joseph Davisson (1881-1958), prix Nobel de physique 1937, Étasunien.]] et Germer[[ Lester Halbert Germer (1896-1971), physicien, Étasunien.]] réalisent, en 1927, une « expérience de Young » avec un faisceau d’électrons. Et ils observent un résultat tout à fait similaire : des interférences ! Un comportement ondulatoire peut donc être attribué à toutes les particules. On parle, à ce moment, de « dualité onde-corpuscules ».

Mais comment interpréter cette situation ? En physique classique, lorsque deux points matériels identiques (même masse, même charge électrique) sont dans des conditions initiales identiques, leur devenir est parfaitement identique. Ainsi, si deux billes identiques reçoivent une même impulsion depuis le même endroit et si elles ont la même vitesse initiale, elles se retrouveront exactement à la même position après un temps donné. Ce n’est manifestement pas le cas au niveau sous-moléculaire. En effet, dans l’expérience de Young (deux trous), toutes les particules identiques (électrons, par exemple) sont dans les mêmes conditions initiales. Pourtant, certaines arrivent à un endroit de l’écran et d’autres ailleurs. L’interprétation donnée est alors la suivante. À chaque particule est associée une fonction d’onde. L’évolution de cette fonction peut être calculée à partir d’une équation. À partir de cette fonction, il est possible de calculer la probabilité de présence de la particule à un endroit et à un instant donnés. Ceci permet de comprendre les résultats de l’expérience de Young. Chaque particule considérée a la même fonction d’onde et donc la même probabilité de se retrouver à tel ou tel endroit. Mais si j’ai 20 % de chances de gagner à la loterie, je gagnerai en moyenne une fois sur cinq. Pour les particules, il ne s’agit pas de gagner ou de perdre, mais de se retrouver à tel ou tel endroit (il y a donc beaucoup plus que deux possibilités). Les calculs montrent que chaque particule a une grande probabilité d’arriver à tel endroit, une probabilité plus faible à tel autre endroit et encore une probabilité nulle à un autre. Vu le grand nombre de particules identiques concernées, beaucoup se retrouvent à l’endroit de grande probabilité, moins à l’endroit de plus faible probabilité et aucune là où la probabilité est nulle.

À partir de la fonction d’onde, on peut donc parfaitement reproduire les résultats expérimentaux. Mais le prix à payer est l’introduction des probabilités. On ne peut plus parler avec certitude du destin d’une particule. L’introduction de la de probabilité comme notion fondamentale de la physique ne sera jamais acceptée par Einstein et entraînera des querelles philosophiques interminables sur le matérialisme et l’idéalisme. Nous donnons en référence[[ Une discussion entre V. Fok et Niels Bohr dans À la lumière du marxisme (recherches internationales), « Sciences et matérialisme dialectique » no 54, juillet-août 1966, p. 92-104, http://www.d-meeus.be/physique/Fok-Bohr_1957-59.html ]] les points de vue croisés de deux grands physiciens, V. Fock[[ Vladimir Fock ou Fok (1898-1974), physicien soviétique.]] et N. Bohr[[ Niels Bohr (1885-1962), prix Nobel de physique 1922, Danois.]] sur cette question, car ils sont de qualité. Ils datent de 1957-1959.
Outre les problèmes épistémologiques, il reste une difficulté pour la mécanique quantique. Dans sa formulation initiale, elle n’est pas relativiste. Cela signifie qu’elle ne prend pas en compte les lois de la relativité restreinte. En ce sens, elle ne peut décrire de manière complète le monde qui nous entoure.
Quand nous disons que la mécanique quantique ne prend pas en compte les lois de la relativité restreinte, nous faisons un raccourci. Disons qu’elle n’intègre pas dans sa formulation les équations de la relativité restreinte. Mais elle est bien obligée de tenir compte du fait que les particules de lumière (les photons) se déplacent à la vitesse de la lumière. Elles doivent donc nécessairement être de masse nulle. Par contre, la relativité restreinte impose que toute particule massive (comme l’électron ou le proton) doit se déplacer moins vite que la lumière.

Théorie quantique des champs

Indépendamment des querelles philosophiques, ce qui est peu satisfaisant dans la mécanique quantique initiale, c’est donc qu’elle n’incorpore pas les conceptions relativistes.

La mécanique quantique non relativiste appliquée à l’atome, et particulièrement à l’électron, a été inventée par Schrödinger[[ Erwin Schrödinger (1887-1961), prix Nobel de physique 1933, Autrichien.]] et Heisenberg[[ Werner Heisenberg (1901-1976), prix Nobel de physique 1932, Allemand.]]. Elle date de 1925. Elle est étendue à la mécanique quantique relativiste en 1928 par Dirac[[ Paul Adrien Maurice Dirac (1902-1984), prix Nobel de physique 1933, Britannique.]] à travers ce qui est appelé l’équation de Dirac, un monument de la physique quantique du 20e siècle. Originellement, elle est basée sur le postulat que les électrons en jeu ont une existence éternelle. Ils ne sont ni produits, ni ne disparaissent. Mais en même temps, elle prédit qu’il y a une particule de charge électrique opposée à l’électron qui existe. Elle est appelée positron, l’antiparticule de l’électron. Le positron est découvert en 1932. Et bien plus, il apparaît expérimentalement que tout comme les photons sont créés et annihilés, les électrons sont créés et annihilés quand il y a suffisamment d’énergie cinétique (énergie de mouvement) disponible. Ainsi deux photons entrant en collision avec une énergie cinétique au moins deux fois plus grande que la masse de l’électron multipliée par le carré de la vitesse de la lumière (voir formule, E = mc²) peuvent s’annihiler en créant un électron et un positron. Inversement, un électron et un positron entrant en collision peuvent s’annihiler en 2, 3, 4… photons. Toutes les particules élémentaires (photon, électron, proton, muon, etc.) ont cette caractéristique fondamentale de s’annihiler et de se créer dans les interactions entre elles. Et à chaque interaction entre elles il y a création et annihilation de ces particules. Dans la physique de Newton et successeurs, le monde est décrit en termes de trajectoires déterministes de particules. Dans la physique quantique qui tient compte de la relativité, la seule strictement correcte, les processus physiques sont décrits en termes d’annihilation et de création de particules lors des interactions entre elles. Ici l’énergie de masse (mc²) se transforme en énergie cinétique et inversement. Pour les physiciens du 21e siècle travaillant auprès de collisionneurs de particules comme le LHC au CERN à Genève, cela est une évidence de la vie quotidienne[[ En 2011, les détecteurs du LHC ont enregistré des milliers de millions de millions de collisions d’un proton contre un autre proton, qui ont conduit à la création d’un nombre bien plus grand encore de particules.]]. Cette manière de voir est aussi essentielle pour comprendre comment fonctionne le Big Bang[[ Voir par exemple, Simon Singh, Le Roman du Big Bang, JC Lattès, Paris, 2005.]].
La théorie qui rend compte de ce qui vient d’être décrit est la théorie quantique (relativiste) des champs qui naît en 1927 avec l’article fondateur de l’électrodynamique quantique : La Théorie quantique de l’émission et de l’absorption du rayonnement (électromagnétique). Œuvre de Dirac, elle est d’abord appliquée aux seuls photons. Elle sera ensuite développée et appliquée aux autres particules élémentaires comme l’électron (voir encadré 4).
Dans les mots de F. Wilczek, voici comment illustrer notre propos : « Peu d’observations sont si ordinaires que celle où la lumière peut être créée de la non-lumière, par exemple par une lampe de poche […] ou supprimée ou annihilée […]. Et traduit dans le langage des photons, ceci signifie que la théorie quantique des équations de Maxwell est une théorie de la création et de la destruction de particules (photons). En vérité, le champ électromagnétique apparaît, dans la théorie de Dirac, d’abord, comme un agent de création et de destruction. Les particules — les photons — que nous observons résultent de l’action de ce champ, qui est l’objet fondamental. Les photons vont et viennent, le champ reste. La pleine force de ce développement semble avoir échappé à Dirac, et à tous ses contemporains, pour un certain temps, peut-être précisément à cause de l’apparent cas spécial de la lumière (dichotomie !) Mais c’est en fait une construction générale, qui peut être tout aussi bien appliquée à l’objet qui apparaît dans l’équation de Dirac, l’électron. »
Ceci indique bien le sens de la théorie quantique des champs : « À la fois, les particules et la lumière sont des épiphénomènes, des manifestations en surface de réalités plus profondes et permanentes, les champs quantiques. Ces champs remplissent tout l’espace, et dans ce sens, ils sont continus. Mais les excitations qu’ils créent — soit que nous les reconnaissons comme particules de lumière, soit comme particules de matière — sont discrètes. »
À proprement parler, il n’y a pas d’espace vide, il n’y a pas de vide en physique quantique : « L’incertitude quantique, combinée avec la possibilité de processus de création et de destruction, implique un vide grouillant d’activité. Les paires de particules et antiparticules éphémères naissent et meurent ».

——-
Encadré 4

Particules et champs

La théorie quantique relativiste des champs met en avant le concept de champs qui permet de comprendre la matière de manière unifiée. Le concept de particules devient subordonné. Voici ce qu’écrit S. Weinberg[[ Steven Weinberg (1933- ), Prix Nobel de physique 1979, Étasunien]] : « La théorie des champs quantiques a été conçue originellement pour être tout simplement la théorie quantique des champs. Autrement dit, lorsque la mécanique quantique a été développée, les physiciens connaissaient déjà différents champs classiques, notamment le champ électromagnétique. Aussi qu’auraient-ils pu faire d’autre sinon la quantification du champ électromagnétique de la même manière qu’ils avaient quantifié la théorie des simples particules ? […] La théorie quantique des particules comme celle des électrons a été mise au point dans le même temps, et rendue relativiste par Dirac en 1928-1930. Pendant tout un temps, de nombreux physiciens ont pensé que le monde se composait à la fois de champs et de particules : l’électron est une particule, décrite par une version relativistiquement invariante de l’équation de Schrödinger, et le champ électromagnétique est un champ, même s’il se comporte aussi comme particules .[…] Dans sa forme mature, l’idée de la théorie quantique des champs est que les champs quantiques sont les ingrédients de base de l’univers, et les particules ne sont que des paquets d’énergie et de quantité de mouvement des champs. […] La théorie quantique des champs donc conduit à une vision plus unifiée de la nature que l’ancienne interprétation dualiste en termes de champs et de particules. Il y a ici une ironie. Bien que la bataille est terminée et que le vieux dualisme qui traitait les photons d’une manière totalement différente des électrons est, je crois, définitivement mort et ne reviendra jamais, il est un fait que certains calculs sont effectivement plus faciles à effectuer dans le vieux cadre des particules[[ Steven Weinberg, What is Quantum Field Theory, and What Did We Think It Is ? http://arxiv.org/PS_cache/hep-th/pdf/9702/9702027v1.pdf, 1997.]]. »

——–

Il est à noter que
Les relations de base de la mécanique quantique non relativiste (essentiellement l’équation de Schrödinger et les relations d’indétermination de Heisenberg) peuvent être obtenues à partir de la théorie quantique relativiste des champs dans la limite où les corpuscules massifs considérés (électrons, protons…) ont des faibles vitesses par rapport à la vitesse de la lumière, c.
Les équations de Newton peuvent être obtenues de la mécanique quantique non relativiste quand les relations d’indétermination de Heisenberg sont largement satisfaites dans le sens suivant : le produit de l’imprécision sur la quantité de mouvement d’un corps donné par l’imprécision sur sa position est beaucoup plus grande que h, la constante de Planck[[ Max Planck (1858-1947), prix Nobel de physique 1918, Allemand.]]. A contrario, il faut utiliser la mécanique quantique quand le produit de l’indétermination sur la quantité de mouvement d’un corps donné par l’indétermination sur sa position est de l’ordre de grandeur de h. (La quantité de mouvement d’un corps de masse m est le produit de sa masse par sa vitesse.)

Conclusion

Pour comprendre de manière moderne ce qu’est la matière, il faut appréhender d’abord ce qu’est la lumière et surtout sa propriété phare : la lumière est « créée » (émise) et « annihilée » (absorbée) lorsqu’elle entre en contact (ou est en interaction) avec ce qu’on appelle en général et vulgairement matière à savoir les corpuscules massifs, principalement les électrons. Ce phénomène d’absorption et d’émission de la lumière est tellement commun qu’on n’y fait généralement pas attention depuis des milliers d’années.

Ce qui est unique pour la lumière, c’est qu’elle est composée de particules appelées photons qui sont de masse nulle. C’est pourquoi on peut créer très facilement des « particules de lumière » (c’est évidemment un des phénomènes les plus courants de la vie quotidienne) alors qu’il faut dépenser des énergies colossales pour créer par exemple des électrons. Ce phénomène est réservé aux accélérateurs de particules ou aux phénomènes de la nature très violents c.-à-d. se déroulant par exemple au niveau des étoiles. La matière pesante ne disparaît pas ou n’est pas émise avec des énergies de la vie quotidienne, y compris les énergies développées par des explosifs classiques (ex. : dynamite). C’est la raison pour laquelle, la lumière mise à part, la théorie quantique relativiste des champs n’est pas évidente dans la vie de tous les jours

Il apparaît que l’Univers est fondamentalement constitué de champs. Les particules que nous observons (photons, électrons, protons, etc.) sont en quelque sorte le produit de ces champs dans des circonstances particulières. La création et la destruction des particules constituent le phénomène fondamental de la physique. En ce sens, nous voyons que la distinction traditionnelle lumière/matière ne se justifie pas : les électrons comme les photons se créent et s’annihilent en fonction des conditions énergétiques. Ce sont comme dit Wiczek des épiphénomènes. La théorie quantique des champs peut difficilement être contestée. Non seulement elle se vérifie quotidiennement dans les laboratoires spécialisés. Mais en plus, elle a de nombreuses applications dans notre monde moderne[[ Deux exemples :
a) L’explication de la table de Mendeleïev (1869) qui permet de classifier les éléments chimiques. L’explication se fait en terme de la mécanique quantique non relativiste qui le fait par la description de la dynamique des couches électroniques dans les atomes, mais aussi avec le principe d’exclusion de Pauli dont la justification est inhérente à la théorie quantique des champs. Il est à la base de toute la chimie.
b) Les horloges atomiques (souvent au césium) : ce sont des horloges qui utilisent la pérennité et l’immuabilité de la fréquence nu (énergie E = h × nu) du rayonnement électromagnétique émis par un électron lors du passage dans un atome d’un niveau donné d’énergie à un autre pour assurer l’exactitude et la stabilité du signal oscillant qu’elles produisent. Un de leurs principaux usages est le maintien du temps atomique international qui est l’échelle de temps de référence. Sans de telles horloges basées sur la physique quantique relativiste, le monde actuel serait paralysé (GPS, GSM, satellites, organisation des trafics aérien, maritime et routier, etc.)]].

Si cette prépondérance des champs est acceptée, tous les aspects « bizarres » de la physique quantique s’estompent. En effet, il n’est plus question par exemple d’invoquer des électrons qui passent par deux trous à la fois. Dans l’expérience équivalente à celle de Young, les électrons du faisceau initial sont annihilés et d’autres électrons apparaissent sur le détecteur. Il n’y a plus rien là de mystérieux. Il n’est plus nécessaire non plus d’évoquer une quelconque dualité « onde-corpuscules ». On détecte bien des corpuscules et rien d’autre dans nos détecteurs. On évoque les ondes lorsqu’on envisage un comportement collectif des particules. Bien sûr, ce qui est déroutant pour un être humain, c’est que nous ne sommes pas habitués à raisonner de la sorte. À notre échelle, la matière semble bien avoir une pérennité. En réalité, il s’agit là aussi d’un épiphénomène. Doit-on s’étonner que ça nous semble déroutant ? Pas vraiment. Comme le dit Wilczek : « Nous avons été sculptés par l’évolution pour percevoir des aspects du monde qui sont d’une manière ou d’une autre utiles pour notre survie et notre succès reproductif »

Bref, si la physique moderne nous déroute parfois, nous, êtres humains, elle n’a rien d’irrationnel. Et ne justifie aucune élucubration de fantaisistes en manque de sensationnalisme. Au contraire, le fait qu’elle nous soit intelligible en dit long sur le niveau de compréhension du monde atteint jusqu’à présent. La théorie quantique des champs évoquée ici est à la base de la physique des interactions fondamentales du 21e siècle[[ F. Wilczek, « Quantum Field Theory », Review of Modern Physics, vol. 71, 1999, p. S85-S95 ; http://www.frankwilczek.com/Wilczek_Easy_Pieces/094_Quantum_Field_Theory.pdf ]]. Elle a atteint des succès inégalés par la comparaison précise entre théorie et expérience. Elle est à la base de la vision matérialiste contemporaine du monde que ce soit en physique, chimie et en biologie. Intégrer la gravitation c.-à-d. la relativité générale dans son cadre est un des grands défis de la physique du 21e siècle. Un autre grand défi est de découvrir l’origine de la masse des particules élémentaires. Telle est la tâche principale du LHC à Genève.

Pour leurs remarques précieuses, nous remercions Sandra Ferretti, Nico Hirtt, Marcel Lambin, Maria McGavigan, Lucky Materne, Dominique Meeùs, Jacques Pestieau, Patrick Pestieau et Patricia Radelet.

Jean-Pierre Kerckhofs est professeur de physique dans l’enseignement secondaire et président de l’APED (Appel pour une école démocratique).

Jean Pestieau est professeur émérite de physique de l’Université catholique de Louvain.

Des mêmes auteurs : Einstein, la personnalité du 20e siècle, 2005