Henri Poincaré
LA SCIENCE ET L’HYPOTHÈSE
(1902)
Pour un observateur superficiel, la vérité scientifique est hors des atteintes du doute ; la logique de la science est infaillible et, si les savants se trompent quelquefois, c’est pour en avoir méconnu les règles.
Les vérités mathématiques dérivent d’un petit nombre de propositions évidentes par une chaîne de raisonnements impeccables ; elles s’imposent non seulement à nous, mais à la nature elle-même. Elles enchaînent pour ainsi dire le Créateur et lui permettent seulement de choisir entre quelques solutions relativement peu nombreuses. Il suffira alors de quelques expériences pour nous faire savoir quel choix il a fait. De chaque expérience, une foule de conséquences pourront sortir par une série de déductions mathématiques, et c’est ainsi que chacune d’elles nous fera connaître un coin de l’Univers.
Voilà quelle est pour bien des gens du monde, pour les lycéens qui reçoivent les premières notions de physique, l’origine de la certitude scientifique. Voilà comment ils comprennent le rôle de l’expérimentation et des mathématiques. C’est ainsi également que le comprenaient, il y a cent ans, beaucoup de savants qui rêvaient de construire le monde en empruntant à l’expérience aussi peu de matériaux que possible.
Quand on a un peu plus réfléchi, on a aperçu la place tenue par l’hypothèse ; on a vu que le mathématicien ne saurait s’en passer et que l’expérimentateur ne s’en passe pas davantage. Et alors, on s’est demandé si toutes ces constructions étaient bien solides et on a cru qu’un souffle allait les abattre. Être sceptique de cette façon, c’est encore être superficiel. Douter de tout ou tout croire, ce sont deux solutions également commodes, qui l’une et l’autre nous dispensent de réfléchir.
Au lieu de prononcer une condamnation sommaire, nous devons donc examiner avec soin le rôle de l’hypothèse ; nous reconnaîtrons alors, non seulement qu’il est nécessaire, mais que le plus souvent il est légitime. Nous verrons aussi qu’il y a plusieurs sortes d’hypothèses, que les unes sont vérifiables et qu’une fois confirmées par l’expérience, elles deviennent des vérités fécondes ; que les autres, sans pouvoir nous induire en erreur, peuvent nous être utiles en fixant notre pensée, que d’autres enfin ne sont des hypothèses qu’en apparence et se réduisent à des définitions ou à des conventions déguisées.
Ces dernières se rencontrent surtout dans les mathématiques et dans les sciences qui y touchent. C’est justement de là que ces sciences tirent leur rigueur ; ces conventions sont l’œuvre de la libre activité de notre esprit, qui, dans ce domaine ne reconnaît pas d’obstacle. Là, notre esprit peut affirmer parce qu’il décrète ; mais entendons-nous : ces décrets s’imposent à notre science, qui, sans eux, serait impossible ; ils ne s’imposent pas à la nature. Ces décrets, pourtant, sont-ils arbitraires ? Non, sans cela ils seraient stériles. L’expérience nous laisse notre libre choix, mais elle le guide en nous aidant à discerner le chemin le plus commode. Nos décrets sont donc comme ceux d’un prince absolu, mais sage, qui consulterait son Conseil d’État.
Quelques personnes ont été frappées de ce caractère de libre convention qu’on reconnaît dans certains principes fondamentaux des sciences. Elles ont voulu généraliser outre mesure et en même temps elles ont oublié que la liberté n’est pas l’arbitraire. Elles ont abouti ainsi à ce que l’on appelle le nominalisme et elles se sont demandé si le savant n’est pas dupe de ses définitions et si le monde qu’il croit découvrir n’est pas tout simplement créé par son caprice[1]. Dans ces conditions, la science serait certaine, mais dépourvue de portée.
S’il en était ainsi, la science serait impuissante. Or, nous la voyons chaque jour agir sous nos yeux. Cela ne pourrait être si elle ne nous faisait connaître quelque chose de la réalité ; mais ce qu’elle peut atteindre, ce ne sont pas les choses elles-mêmes, comme le pensent les dogmatistes naïfs, ce sont seulement les rapports entre les choses ; en dehors de ces rapports, il n’y a pas de réalité connaissable.
Telle est la conclusion à laquelle nous parviendrons, mais pour cela il nous faudra parcourir la série des sciences depuis l’arithmétique et la géométrie jusqu’à la mécanique et à la physique expérimentale.
Quelle est la nature du raisonnement mathématique ? Est-il réellement déductif comme on le croit d’ordinaire ? Une analyse approfondie nous montre qu’il n’en est rien, qu’il participe dans une certaine mesure de la nature du raisonnement inductif et que c’est par là qu’il est fécond. Il n’en conserve pas moins son caractère de rigueur absolue ; c’est ce que nous avions d’abord à montrer.
Connaissant mieux maintenant l’un des instruments que les mathématiques mettent entre les mains du chercheur, nous avions à analyser une autre notion fondamentale, celle de la grandeur mathématique. La trouvons-nous dans la nature, ou est-ce nous qui l’y introduisons ? Et, dans ce dernier cas, ne risquons-nous pas de tout fausser ? Comparant les données brutes de nos sens et ce concept extrêmement complexe et subtil que les mathématiciens appellent grandeur, nous sommes bien forcés de reconnaître une divergence ; ce cadre où nous voulons tout faire rentrer, c’est donc nous qui l’avons fait ; mais nous ne l’avons pas fait au hasard, nous l’avons fait pour ainsi dire sur mesure et c’est pour cela que nous pouvons y faire rentrer les faits sans dénaturer ce qu’ils ont d’essentiel.
Un autre cadre que nous imposons au monde, c’est l’espace. D’où viennent les premiers principes de la géométrie ? Nous sont-ils imposés par la logique ? Lobatchevsky a montré que non en créant les géométries non euclidiennes. L’espace nous est-il révélé par nos sens ? Non encore, car celui que nos sens pourraient nous montrer diffère absolument de celui du géomètre. La géométrie dérive-t-elle de l’expérience ? Une discussion approfondie nous montrera que non. Nous conclurons donc que ses principes ne sont que des conventions ; mais ces conventions ne sont pas arbitraires, et transportés dans un autre monde (que j’appelle le monde non euclidien et que je cherche à imaginer), nous aurions été amenés à en adopter d’autres.
En mécanique, nous serions conduits à des conclusions analogues et nous verrions que les principes de cette science, quoique plus directement appuyés sur l’expérience, participent encore du caractère conventionnel des postulats géométriques. Jusqu’ici le nominalisme triomphe, mais nous arrivons aux sciences physiques proprement dites. Ici la scène change ; nous rencontrons une autre sorte d’hypothèses et nous en voyons toute la fécondité. Sans doute, au premier abord, les théories nous semblent fragiles, et l’histoire de la science nous prouve qu’elles sont éphémères : elles ne meurent pas tout entières pourtant, et de chacune d’elles il reste quelque chose. C’est ce quelque chose qu’il faut chercher à démêler, parce que c’est là, et là seulement, qu’est la véritable réalité.
La méthode des sciences physiques repose sur l’induction qui nous fait attendre la répétition d’un phénomène quand se reproduisent les circonstances où il avait une première fois pris naissance. Si toutes ces circonstances pouvaient se reproduire à la fois, ce principe pourrait être appliqué sans crainte : mais cela n’arrivera jamais ; quelques-unes de ces circonstances feront toujours défaut. Sommes-nous absolument sûrs qu’elles sont sans importance ? Évidemment non. Cela pourra être vraisemblable, cela ne pourra pas être rigoureusement certain. De là le rôle considérable que joue dans les sciences physiques la notion de probabilité. Le calcul des probabilités n’est donc pas seulement une récréation ou un guide pour les joueurs de baccara, et nous devons chercher à en approfondir les principes. Sous ce rapport, je n’ai pu donner que des résultats bien incomplets, tant ce vague instinct, qui nous fait discerner la vraisemblance, est rebelle à l’analyse.
Après avoir étudié les conditions dans lesquelles travaille le physicien, j’ai cru qu’il fallait le montrer à l’œuvre. Pour cela j’ai pris quelques exemples dans l’histoire de l’optique et dans celle de l’électricité. Nous verrons d’où sont sorties les idées de Fresnel, celles de Maxwell, et quelles hypothèses inconscientes faisaient Ampère et les autres fondateurs de l’électrodynamique.
La possibilité même de la science mathématique semble une contradiction insoluble. Si cette science n’est déductive qu’en apparence, d’où lui vient cette parfaite rigueur que personne ne songe à mettre en doute ? Si, au contraire, toutes les propositions qu’elle énonce peuvent se tirer les unes des autres par les règles de la logique formelle, comment la mathématique ne se réduit-elle pas à une immense tautologie ? Le syllogisme ne peut rien nous apprendre d’essentiellement nouveau et, si tout devait sortir du principe d’identité, tout devrait aussi pouvoir s’y ramener. Admettra-t-on donc que les énoncés de tous ces théorèmes qui remplissent tant de volumes ne soient que des manières détournées de dire que A est A ?
Sans doute, on peut remonter aux axiomes qui sont à la source de tous les raisonnements. Si on juge qu’on ne peut les réduire au principe de contradiction, si on ne veut pas non plus y voir des faits expérimentaux qui ne pourraient participer à la nécessité mathématique, on a encore la ressource de les classer parmi les jugements synthétiques a priori. Ce n’est pas résoudre la difficulté, c’est seulement la baptiser ; et lors même que la nature des jugements synthétiques n’aurait plus pour nous de mystère, la contradiction ne se serait pas évanouie, elle n’aurait fait que reculer ; le raisonnement syllogistique reste incapable de rien ajouter aux données qu’on lui fournit ; ces données se réduisent à quelques axiomes et on ne devrait pas retrouver autre chose dans les conclusions.
Aucun théorème ne devrait être nouveau si dans sa démonstration n’intervenait un axiome nouveau ; le raisonnement ne pourrait nous rendre que les vérités immédiatement évidentes empruntées à l’intuition directe ; il ne serait plus qu’un intermédiaire parasite et dès lors n’aurait-on pas lieu de se demander si tout l’appareil syllogistique ne sert pas uniquement à dissimuler notre emprunt ? La contradiction nous frappera davantage si nous ouvrons un livre quelconque de mathématiques ; à chaque page l’auteur annoncera l’intention de généraliser une proposition déjà connue. Est-ce donc que la méthode mathématique procède du particulier au général et comment alors peut-on l’appeler déductive ?
Si enfin la science du nombre était purement analytique, ou pouvait sortir analytiquement d’un petit nombre de jugements synthétiques, il semble qu’un esprit assez puissant pourrait d’un seul coup d’œil en apercevoir toutes les vérités ; que dis-je ! on pourrait même espérer qu’un jour on inventera pour les exprimer un langage assez simple pour qu’elles apparaissent ainsi immédiatement à une intelligence ordinaire.
Si l’on se refuse à admettre ces conséquences, il faut bien concéder que le raisonnement mathématique a par lui-même une sorte de vertu créatrice et par conséquent qu’il se distingue du syllogisme.
La différence doit même être profonde. Nous ne trouverons pas par exemple la clef du mystère dans l’usage fréquent de cette règle d’après laquelle une même opération uniforme appliquée à deux nombres égaux donnera des résultats identiques.
Tous ces modes de raisonnement, qu’ils soient ou non réductibles au syllogisme proprement dit, conservent le caractère analytique et sont par cela même impuissants.
Le débat est ancien ; déjà Leibnitz cherchait à démontrer que 2 et 2 font 4 ; examinons un peu sa démonstration.
Je suppose que l’on ait défini le nombre 1 et l’opération x + 1 qui consiste à ajouter l’unité à un nombre donné x.
Ces définitions, quelles qu’elles soient, n’interviendront pas dans la suite du raisonnement.
Je définis ensuite les nombres 2, 3 et 4 par les égalités :
(1) 1 + 1 = 2 ;
(2) 2 + 1 = 3 ;
(3) 3 + 1 = 4.
Je définis de même l’opération x + 2 par la relation :
(4) x + 2 = (x + 1) + 1.
Cela posé nous avons :
2 + 2 = (2 + 1) + 1 (Définition 4)
(2 + 1) + 1 = 3 + 1 (Définition 2)
3 + 1 = 4 (Définition 3)
d’où
2 + 2 = 4 CQFD
On ne saurait nier que ce raisonnement ne soit purement analytique. Mais interrogez un mathématicien quelconque : « Ce n’est pas une démonstration proprement dite, vous répondra-t-il, c’est une vérification ». On s’est borné à rapprocher l’une de l’autre deux définitions purement conventionnelles et on a constaté leur identité, on n’a rien appris de nouveau. La vérification diffère précisément de la véritable démonstration, parce qu’elle est purement analytique et parce qu’elle est stérile. Elle est stérile parce que la conclusion n’est que la traduction des prémisses dans un autre langage. La démonstration véritable est féconde au contraire parce que la conclusion y est en un sens plus générale que les prémisses.
L’égalité 2 + 2 = 4 n’a été ainsi susceptible d’une vérification que parce qu’elle est particulière. Tout énoncé particulier en mathématiques pourra toujours être vérifié de la sorte. Mais si la mathématique devait se réduire à une suite de pareilles vérifications, elle ne serait pas une science. Ainsi un joueur d’échecs, par exemple, ne crée pas une science en gagnant une partie. Il n’y a de science que du général.
On peut même dire que les sciences exactes ont précisément pour objet de nous dispenser de ces vérifications directes.
Voyons donc le géomètre à l’œuvre et cherchons à surprendre ses procédés.
La tâche n’est pas sans difficulté ; il ne suffit pas d’ouvrir un ouvrage au hasard et d’y analyser une démonstration quelconque.
Nous devons exclure d’abord la géométrie où la question se complique des problèmes ardus relatifs au rôle des postulats, à la nature et à l’origine de la notion d’espace. Pour des raisons analogues nous ne pouvons nous adresser à l’analyse infinitésimale. Il nous faut chercher la pensée mathématique là où elle est restée pure, c’est-à-dire en arithmétique.
Encore faut-il choisir ; dans les parties les plus élevées de la théorie des nombres, les notions mathématiques primitives ont déjà subi une élaboration si profonde, qu’il devient difficile de les analyser.
C’est donc au début de l’arithmétique que nous devons nous attendre à trouver l’explication que nous cherchons, mais il arrive justement que c’est dans la démonstration des théorèmes les plus élémentaires que les auteurs des traités classiques ont déployé le moins de précision et de rigueur. Il ne faut pas leur en faire un crime ; ils ont obéi à une nécessité ; les débutants ne sont pas préparés à la véritable rigueur mathématique ; ils n’y verraient que de vaines et fastidieuses subtilités ; on perdrait son temps à vouloir trop tôt les rendre plus exigeants ; il faut qu’ils refassent rapidement, mais sans brûler d’étapes, le chemin qu’ont parcouru lentement les fondateurs de la science.
Pourquoi une si longue préparation est-elle nécessaire pour s’habituer à cette rigueur parfaite, qui, semble-t-il, devrait s’imposer naturellement à tous les bons esprits ? C’est là un problème logique et psychologique bien digne d’être médité.
Mais nous ne nous y arrêterons pas ; il est étranger à notre objet ; tout ce que je veux retenir, c’est que, sous peine de manquer notre but, il nous faut refaire les démonstrations des théorèmes les plus élémentaires et leur donner non la forme grossière qu’on leur laisse pour ne pas lasser les débutants, mais celle qui peut satisfaire un géomètre exercé.
DÉFINITION DE L’ADDITION
Je suppose qu’on ait défini préalablement l’opération x + 1 qui consiste à ajouter le nombre 1 à un nombre donné x.
Cette définition, quelle qu’elle soit d’ailleurs, ne jouera plus aucun rôle dans la suite des raisonnements.
Il s’agit maintenant de définir l’opération x + a, qui consiste à ajouter le nombre a à un nombre donné x.
Supposons que l’on ait défini l’opération :
x + (a - 1),
l’opération x + a sera définie par l’égalité :
(1) x + a = [x + (a - 1)] + 1.
Nous saurons donc ce que c’est que x + a quand nous saurons ce que c’est que x + (a - 1), et comme j’ai supposé au début que l’on savait ce que c’est que x + 1, on pourra définir successivement et « par récurrence » les opérations x + 2, x + 3, etc.
Cette définition mérite un moment d’attention, elle est d’une nature particulière qui la distingue déjà de la définition purement logique ; l’égalité (1) contient en effet une infinité de définitions distinctes, chacune d’elles n’ayant un sens que quand on connaît celle qui la précède.
PROPRIÉTÉS DE L’ADDITION.
Associativité. – Je dis que
a + (b + c) = (a + b) + c.
En effet le théorème est vrai pour c = 1 ; il s’écrit alors
a + (b + 1) = (a + b) + 1
ce qui n’est autre chose, à la différence des notations près, que l’égalité (1) par laquelle je viens de définir l’addition.
Supposons que le théorème soit vrai pour c = γ, je dis qu’il sera vrai pour c = γ + 1, soit en effet
(a + b) + γ = a + (b + γ),
on en déduira successivement :
[(a + b) + γ] + 1 = [a + (b + γ)] + 1,
ou en vertu de la définition (1)
(a + b) + (γ + 1) = a + (b + γ + 1) = a + [b + (γ + 1)],
ce qui montre, par une série de déductions purement analytiques, que le théorème est vrai pour γ + 1.
Étant vrai pour c = 1, on verrait ainsi successivement qu’il l’est pour c = 2, pour c = 3, etc.
Commutativité. – 1° Je dis que :
a + 1 = 1 + a.
Le théorème est évidemment vrai pour a = 1, on pourrait vérifier par des raisonnements purement analytiques que s’il est vrai pour a = γ, il le sera pour a = γ + 1 ; or il l’est pour a = 1, il le sera donc pour a = 2, pour a = 3, etc. ; c’est ce qu’on exprime en disant que la proposition énoncée est démontrée par récurrence.
2° Je dis que :
a + b = b + a.
Le théorème vient d’être démontré pour b = 1, on peut vérifier analytiquement que s’il est vrai pour b = β, il le sera pour b = β + 1.
La proposition est donc établie par récurrence.
DÉFINITION DE LA MULTIPLICATION.
Nous définirons la multiplication par les égalités :
(1) a * 1 = a
(2) a * b = [a * (b-1)] + a.
L’égalité (2) renferme comme l’égalité (1) une infinité de définitions ; ayant défini a * 1, elle permet de définir successivement a * 2, a * 3, etc.
PROPRIÉTÉS DE LA MULTIPLICATION.
Distributivité. – Je dis que
(a + b) * c = (a * c) + (b * c).
On vérifie analytiquement que l’égalité est vraie pour c = 1 ; puis que si le théorème est vrai pour c = γ, il sera vrai pour c = γ + 1.
La proposition est encore démontrée par récurrence.
Commutativité. – 1°Je dis que :
a * 1 = 1 * a
Le théorème est évident pour a = 1.
On vérifie analytiquement que s’il est vrai pour a = α, il sera vrai pour a = α + 1.
2°Je dis que :
a * b = b * a.
Le théorème vient d’être démontré pour b = 1. On vérifierait analytiquement que s’il est vrai pour b = β, il le sera pour b = β + 1.
J’arrête là cette série monotone de raisonnements. Mais cette monotonie même a mieux fait ressortir le procédé qui est uniforme et qu’on retrouve à chaque pas.
Ce procédé est la démonstration par récurrence. On établit d’abord un théorème pour n = 1 ; on montre ensuite que s’il est vrai de n - 1, il est vrai de n et on en conclut qu’il est vrai pour tous les nombres entiers.
On vient de voir comment on peut s’en servir pour démontrer les règles de l’addition et de la multiplication, c’est-à-dire les règles du calcul algébrique ; ce calcul est un instrument de transformation qui se prête à beaucoup plus de combinaisons diverses que le simple syllogisme ; mais c’est encore un instrument purement analytique et incapable de rien nous apprendre de nouveau. Si les mathématiques n’en avaient pas d’autre elles seraient donc tout de suite arrêtées dans leur développement ; mais elles ont de nouveau recours au même procédé, c’est-à-dire au raisonnement par récurrence et elles peuvent continuer leur marche en avant.
À chaque pas, si on y regarde bien, on retrouve ce mode de raisonnement, soit sous la forme simple que nous venons de lui donner, soit sous une forme plus ou moins modifiée.
C’est donc bien là le raisonnement mathématique par excellence et il nous faut l’examiner de plus près.
Le caractère essentiel du raisonnement par récurrence c’est qu’il contient, condensés pour ainsi dire en une formule unique, une infinité de syllogismes.
Pour qu’on s’en puisse mieux rendre compte, je vais énoncer les uns après les autres ces syllogismes qui sont, si l’on veut me passer l’expression, disposés en cascade.
Ce sont bien entendu des syllogismes hypothétiques.
Le théorème est vrai du nombre 1.
Or s’il est vrai de 1, il est vrai de 2.
Donc il est vrai de 2.
Or s’il est vrai de 2, il est vrai de 3.
Donc il est vrai de 3, et ainsi de suite.
On voit que la conclusion de chaque syllogisme sert de mineure au suivant.
De plus les majeures de tous nos syllogismes peuvent être ramenées à une formule unique.
Si le théorème est vrai de n - 1, il l’est de n.
On voit donc que, dans les raisonnements par récurrence, on se borne à énoncer la mineure du premier syllogisme, et la formule générale qui contient comme cas particuliers toutes les majeures.
Cette suite de syllogismes qui ne finirait jamais se trouve ainsi réduite à une phrase de quelques lignes.
Il est facile maintenant de comprendre pourquoi toute conséquence particulière d’un théorème peut, comme je l’ai expliqué plus haut, être vérifiée par des procédés purement analytiques.
Si au lieu de montrer que notre théorème est vrai de tous les nombres, nous voulons seulement faire voir qu’il est vrai du nombre 6 par exemple, il nous suffira d’établir les 5 premiers syllogismes de notre cascade ; il nous en faudrait 9 si nous voulions démontrer le théorème pour le nombre 10 ; il nous en faudrait davantage encore pour un nombre plus grand ; mais quelque grand que soit ce nombre nous finirions toujours par l’atteindre, et la vérification analytique serait possible.
Et cependant, quelque loin que nous allions ainsi, nous ne nous élèverions jamais jusqu’au théorème général, applicable à tous les nombres, qui seul peut être objet de science. Pour y arriver, il faudrait une infinité de syllogismes, il faudrait franchir un abîme que la patience de l’analyste, réduit aux seules ressources de la logique formelle, ne parviendra jamais à combler.
Je demandais au début pourquoi on ne saurait concevoir un esprit assez puissant pour apercevoir d’un seul coup d’œil l’ensemble des vérités mathématiques.
La réponse est aisée maintenant ; un joueur d’échecs peut combiner quatre coups, cinq coups d’avance, mais, si extraordinaire qu’on le suppose, il n’en préparera jamais qu’un nombre fini ; s’il applique ses facultés à l’arithmétique, il ne pourra en apercevoir les vérités générales d’une seule intuition directe ; pour parvenir au plus petit théorème, il ne pourra s’affranchir de l’aide du raisonnement par récurrence parce que c’est un instrument qui permet de passer du fini à l’infini.
Cet instrument est toujours utile, puisque, nous faisant franchir d’un bond autant d’étapes que nous le voulons, il nous dispense de vérifications longues, fastidieuses et monotones qui deviendraient rapidement impraticables. Mais il devient indispensable dès qu’on vise au théorème général, dont la vérification analytique nous rapprocherait sans cesse, sans nous permettre de l’atteindre.
Dans ce domaine de l’arithmétique, on peut se croire bien loin de l’analyse infinitésimale, et, cependant, nous venons de le voir, l’idée de l’infini mathématique joue déjà un rôle prépondérant, et sans elle il n’y aurait pas de science parce qu’il n’y aurait rien de général.
Le jugement sur lequel repose le raisonnement par récurrence peut être mis sous d’autres formes ; on peut dire par exemple que dans une collection infinie de nombres entiers différents, il y en a toujours un qui est plus petit que tous les autres.
On pourra passer facilement d’un énoncé à l’autre et se donner ainsi l’illusion qu’on a démontré la légitimité du raisonnement par récurrence. Mais on sera toujours arrêté, on arrivera toujours à un axiome indémontrable qui ne sera au fond que la proposition à démontrer traduite dans un autre langage.
On ne peut donc se soustraire à cette conclusion que la règle du raisonnement par récurrence est irréductible au principe de contradiction.
Cette règle ne peut non plus nous venir de l’expérience ; ce que l’expérience pourrait nous apprendre, c’est que la règle est vraie pour les dix, pour les cent premiers nombres par exemple, elle ne peut atteindre la suite indéfinie des nombres, mais seulement une portion plus ou moins longue mais toujours limitée de cette suite.
Or, s’il ne s’agissait que de cela, le principe de contradiction suffirait, il nous permettrait toujours de développer autant de syllogismes que nous voudrions, c’est seulement quand il s’agit d’en enfermer une infinité dans une seule formule, c’est seulement devant l’infini que ce principe échoue, c’est également là que l’expérience devient impuissante. Cette règle, inaccessible à la démonstration analytique et à l’expérience, est le véritable type du jugement synthétique a priori. On ne saurait d’autre part songer à y voir une convention, comme pour quelques-uns des postulats de la géométrie.
Pourquoi donc ce jugement s’impose-t-il à nous avec une irrésistible évidence ? C’est qu’il n’est que l’affirmation de la puissance de l’esprit qui se sait capable de concevoir la répétition indéfinie d’un même acte dès que cet acte est une fois possible. L’esprit a de cette puissance une intuition directe et l’expérience ne peut être pour lui qu’une occasion de s’en servir et par là d’en prendre conscience.
Mais, dira-t-on, si l’expérience brute ne peut légitimer le raisonnement par récurrence, en est-il de même de l’expérience aidée de l’induction ? Nous voyons successivement qu’un théorème est vrai du nombre 1, du nombre 2, du nombre 3 et ainsi de suite, la loi est manifeste, disons-nous, et elle l’est au même titre que toute loi physique appuyée sur des observations dont le nombre est très grand, mais limité.
On ne saurait méconnaître qu’il y a là une analogie frappante avec les procédés habituels de l’induction. Mais une différence essentielle subsiste. L’induction, appliquée aux sciences physiques, est toujours incertaine, parce qu’elle repose sur la croyance à un ordre général de l’Univers, ordre qui est en dehors de nous. L’induction mathématique, c’est-à-dire la démonstration par récurrence, s’impose au contraire nécessairement, parce qu’elle n’est que l’affirmation d’une propriété de l’esprit lui-même.
Les mathématiciens, je l’ai dit plus haut, s’efforcent toujours de généraliser les propositions qu’ils ont obtenues, et pour ne pas chercher d’autre exemple, nous avons tout à l’heure démontré l’égalité :
a + 1 = 1 + a
et nous nous en sommes servi ensuite pour établir l’égalité :
a + b = b + a
qui est manifestement plus générale.
Les mathématiques peuvent donc comme les autres sciences procéder du particulier au général.
Il y a là un fait qui nous aurait paru incompréhensible au début de cette étude, mais qui n’a plus pour nous rien de mystérieux, depuis que nous avons constaté les analogies de la démonstration par récurrence avec l’induction ordinaire.
Sans doute le raisonnement mathématique récurrent et le raisonnement physique inductif reposent sur des fondements différents, mais leur marche est parallèle, ils vont dans le même sens, c’est à dire du particulier au général.
Examinons la chose d’un peu plus près.
Pour démontrer l’égalité :
(1) a + 2 = 2 + a
il nous suffit d’appliquer deux fois la règle
a + 1 = 1 + a,
et d’écrire
(2) a + 2 = a + 1 + 1 = 1 + a + 1 = 1 + 1 + a = 2 + a.
L’égalité (2) ainsi déduite par voie purement analytique de l’égalité (1) n’en est pas cependant un simple cas particulier : elle est autre chose.
On ne peut donc même pas dire que dans la partie réellement analytique et déductive des raisonnements mathématiques, on procède du général au particulier, au sens ordinaire du mot.
Les deux membres de l’égalité (2) sont simplement des combinaisons plus compliquées que les deux membres de l’égalité (1) et l’analyse ne sert qu’à séparer les éléments qui entrent dans ces combinaisons et à en étudier les rapports.
Les mathématiciens procèdent donc « par construction », ils construisent des combinaisons de plus en plus compliquées. Revenant ensuite par l’analyse de ces combinaisons, de ces ensembles, pour ainsi dire, à leurs éléments primitifs, ils aperçoivent les rapports de ces éléments et en déduisent les rapports des ensembles eux-mêmes.
C’est là une marche purement analytique, mais ce n’est pas pourtant une marche du général au particulier, car les ensembles ne sauraient évidemment être regardés comme plus particuliers que leurs éléments.
On a attaché, et à juste titre, une grande importance à ce procédé de la « construction » et on a voulu y voir la condition nécessaire et suffisante des progrès des sciences exactes.
Nécessaire, sans doute, mais suffisante, non. Pour qu’une construction puisse être utile, pour qu’elle ne soit pas une vaine fatigue pour l’esprit, pour qu’elle puisse servir de marchepied à qui veut s’élever plus haut, il faut d’abord qu’elle possède une sorte d’unité, qui permette d’y voir autre chose que la juxtaposition de ses éléments.
Ou plus exactement, il faut qu’on trouve quelque avantage à considérer la construction plutôt que ses éléments eux-mêmes.
Quel peut être cet avantage ?
Pourquoi raisonner sur un polygone par exemple, qui est toujours décomposable en triangles, et non sur les triangles élémentaires ?
C’est qu’il y a des propriétés que l’on peut démontrer pour les polygones d’un nombre quelconques de côtés et qu’on peut ensuite appliquer immédiatement à un polygone particulier quelconque.
Le plus souvent, au contraire, ce n’est qu’au prix des plus longs efforts qu’on pourrait les retrouver en étudiant directement les rapports des triangles élémentaires. La connaissance du théorème général nous épargne ces efforts.
Une construction ne devient donc intéressante que quand on peut la ranger à côté d’autres constructions analogues, formant les espèces d’un même genre.
Si le quadrilatère est autre chose que la juxtaposition de deux triangles, c’est qu’il appartient au genre polygone.
Encore faut-il qu’on puisse démontrer les propriétés du genre sans être forcé de les établir successivement pour chacune des espèces.
Pour y arriver, il faut nécessairement remonter du particulier au général, en gravissant un ou plusieurs échelons.
Le procédé analytique « par construction » ne nous oblige pas à en descendre, mais il nous laisse au même niveau.
Nous ne pouvons nous élever que par l’induction mathématique, qui seule peut nous apprendre quelque chose de nouveau. Sans l’aide de cette induction différente à certains égards de l’induction physique, mais féconde comme elle, la construction serait impuissante à créer la science.
Observons en terminant que cette induction n’est possible que si une même opération peut se répéter indéfiniment. C’est pour cela que la théorie du jeu d’échec ne pourra jamais devenir une science, puisque les différents coups d’une même partie ne se ressemblent pas.
Si l’on veut savoir ce que les mathématiciens entendent par un continu, ce n’est pas à la géométrie qu’il faut le demander. Le géomètre cherche toujours plus ou moins à se représenter les figures qu’il étudie, mais ses représentations ne sont pour lui que des instruments ; il fait de la géométrie avec de l’étendue comme il en fait avec de la craie ; aussi doit-on prendre garde d’attacher trop d’importance à des accidents qui n’en ont souvent pas plus que la blancheur de la craie.
L’analyste pur n’a pas à craindre cet écueil. Il a dégagé la science mathématique de tous les éléments étrangers, et il peut répondre à notre question. Qu’est-ce au juste que ce continu sur lequel les mathématiciens raisonnent ? Beaucoup d’entre eux, qui savent réfléchir sur leur art, l’ont fait déjà ; M. Tannery, par exemple, dans son Introduction à la théorie des Fonctions d’une variable.
Partons de l’échelle des nombres entiers ; entre deux échelons consécutifs, intercalons un ou plusieurs échelons intermédiaires, puis entre ces échelons nouveaux d’autres encore, et ainsi de suite indéfiniment. Nous aurons ainsi un nombre illimité de termes, ce seront les nombres que l’on appelle fractionnaires, rationnels ou commensurables. Mais ce n’est pas assez encore ; entre ces termes qui sont pourtant déjà en nombre infini, il faut encore en intercaler d’autres, que l’on appelle irrationnels ou incommensurables.
Avant d’aller plus loin, faisons une première remarque. Le continu ainsi conçu n’est plus qu’une collection d’individus rangés dans un certain ordre, en nombre infini, il est vrai, mais extérieurs les uns aux autres. Ce n’est pas là la conception ordinaire, où l’on suppose entre les éléments du continu une sorte de lieu intime qui en fait un tout, où le point ne préexiste pas à la ligne, mais la ligne au point. De la célèbre formule, le continu est l’unité dans la multiplicité, la multiplicité seule subsiste, l’unité a disparu. Les analystes n’en ont pas moins raison de définir leur continu comme ils le font, puisque c’est toujours sur celui-là qu’ils raisonnent depuis qu’ils se piquent de rigueur. Mais c’est assez pour nous avertir que le véritable continu mathématique est tout autre chose que celui des physiciens et celui des métaphysiciens.
On dira peut-être aussi que les mathématiciens qui se contentent de cette définition sont dupes de mots, qu’il faudrait dire d’une façon précise ce que sont chacun de ces échelons intermédiaires, expliquer comment il faut les intercaler et démontrer qu’il est possible de le faire. Mais ce serait à tort ; la seule propriété de ces échelons qui intervienne dans leurs raisonnements[2], c’est celle de se trouver avant ou après tels autres échelons ; elle doit donc seule aussi intervenir dans la définition.
Ainsi, il n’y a pas à s’inquiéter de la manière dont on doit intercaler les termes intermédiaires ; d’autre part, personne ne doutera que cette opération ne soit possible, à moins d’oublier que ce dernier mot, dans le langage des géomètres, signifie simplement exempt de contradiction.
Notre définition, toutefois, n’est pas complète encore, et j’y reviens après cette trop longue digression.
DÉFINITION DES INCOMMENSURABLES.
Les mathématiciens de l’École de Berlin, M. Kronecker en particulier, se sont préoccupés de construire cette échelle continue des nombres fractionnaires et irrationnels sans se servir d’autres matériaux que du nombre entier. Le continu mathématique serait, dans cette manière de voir, une pure création de l’esprit, où l’expérience n’aurait aucune part.
La notion du nombre rationnel ne leur semblant pas présenter de difficulté, ils se sont surtout efforcés de définir le nombre incommensurable. Mais avant de reproduire ici leur définition, je dois faire une observation, afin de prévenir l’étonnement qu’elle ne manquerait pas de provoquer chez les lecteurs peu familiers avec les habitudes des géomètres.
Les mathématiciens n’étudient pas des objets, mais des relations entre les objets ; il leur est donc indifférent de remplacer ces objets par d’autres, pourvu que les relations ne changent pas. La matière ne leur importe pas, la forme seule les intéresse.
Si l’on ne s’en souvenait, on ne comprendrait pas que M. Dedekind désigne par le nom de nombre incommensurable un simple symbole, c’est-à-dire quelque chose de très différent de l’idée que l’on croit se faire d’une quantité, qui doit être mesurable et presque tangible.
Voici maintenant quelle est la définition de M. Dedekind :
On peut répartir d’une infinité de manières les nombres commensurables en deux classes, en s’assujettissant à cette condition qu’un nombre quelconque de la première classe soit plus grand qu’un nombre quelconque de la seconde classe.
Il peut arriver que parmi les nombres de la première classe, il y en ait un qui soit plus petit que tous les autres ; si, par exemple, on range dans la première classe tous les nombres plus grands que 2 et 2 lui-même, et dans la seconde classe tous les nombres plus petits que 2, il est clair que 2 sera le plus petit de tous les nombres de la première classe. Le nombre 2 pourra être choisi comme symbole de cette répartition.
Il peut se faire, au contraire, que parmi les nombres de la seconde classe, il y en ait un qui soit plus grand que tous les autres ; c’est ce qui a lieu, par exemple, si la première classe comprend tous les nombres plus grands que 2, et la seconde tous les nombres plus petits que 2 et 2 lui-même. Ici encore, le nombre 2 pourra être choisi comme symbole de cette répartition.
Mais il peut arriver également que l’on ne puisse trouver ni dans la première classe un nombre plus petit que tous les autres, ni dans la seconde un nombre plus grand que tous les autres. Supposons, par exemple, que l’on mette dans la première classe tous les nombres commensurables dont le carré est plus grand que 2 et dans la seconde tous ceux dont le carré est plus petit que 2. On sait qu’il n’y en a aucun dont le carré soit précisément égal à 2. Il n’y aura évidemment pas dans la première classe de nombre plus petit que tous les autres, car quelque voisin que le carré d’un nombre soit de 2, on pourra toujours trouver un nombre commensurable dont le carré soit encore plus rapproché que 2.
Dans la manière de voir de M. Dedekind, le nombre incommensurable :
√2
n’est autre chose que le symbole de ce mode particulier de répartition des nombres commensurables ; et à chaque mode de répartition correspond ainsi un nombre commensurable ou non, qui lui sert de symbole.
Mais se contenter de cela, ce serait trop oublier l’origine de ces symboles ; il reste à expliquer comment on a été conduit à leur attribuer une sorte d’existence concrète, et, d’autre part, la difficulté ne commence-t-elle pas pour les nombres fractionnaires eux-mêmes ? Aurions-nous la notion de ces nombres, si nous ne connaissions d’avance une matière que nous concevons comme divisible à l’infini, c’est-à-dire comme un continu ?
LE CONTINU PHYSIQUE
On en vient alors à se demander si la notion du continu mathématique n’est pas tout simplement tirée de l’expérience. Si cela était, les données brutes de l’expérience, qui sont nos sensations, seraient susceptibles de mesure. On pourrait être tenté de croire qu’il en est bien ainsi, puisque l’on s’est, dans ces derniers temps, efforcé de les mesurer et que l’on a même formulé une loi, connue sous le nom de loi de Fechner, et d’après laquelle la sensation serait proportionnelle au logarithme de l’excitation.
Mais si l’on examine de près les expériences par lesquelles on a cherché à établir cette loi, on sera conduit à une conclusion toute contraire. On a observé, par exemple, qu’un poids A de 10 grammes et un poids B de 11 grammes produisaient des sensations identiques, que le poids B ne pouvait non plus être discerné d’un poids C de 12 grammes, mais que l’on distinguait facilement le poids A du poids C. Les résultats bruts de l’expérience peuvent donc s’exprimer par les relations suivantes :
A = B, B = C, A < C,
qui peuvent être regardées comme la formule du continu physique.
Il y a là, avec le principe de contradiction, un désaccord intolérable, et c’est la nécessité de le faire cesser qui nous a contraints à inventer le continu mathématique.
On est donc forcé de conclure que cette notion a été créée de toutes pièces par l’esprit, mais que c’est l’expérience qui lui en a fourni l’occasion.
Nous ne pouvons croire que deux quantités égales à une même troisième ne soient pas égales entre elles, et c’est ainsi que nous sommes amenés à supposer que A est différent de B et B de C, mais que l’imperfection de nos sens ne nous avait pas permis de les discerner.
CRÉATION DU CONTINU MATHÉMATIQUE
Premier stade. – Jusqu’ici il pourrait nous suffire, pour rendre compte des faits, d’intercaler entre A et B un petit nombre de termes qui resteraient discrets. Qu’arrive-t-il maintenant si nous avons recours à quelque instrument pour suppléer à l’infirmité de nos sens, si par exemple nous faisons usage d’un microscope ? Des termes que nous ne pouvions discerner l’un de l’autre comme étaient tout à l’heure A et B, nous apparaissent maintenant comme distincts ; mais entre A et B devenus distincts s’intercalera un terme nouveau D, que nous ne pourrons distinguer ni de A ni de B. Malgré l’emploi des méthodes les plus perfectionnées, les résultats bruts de notre expérience présenteront toujours les caractères du continu physique avec la contradiction qui y est inhérente.
Nous n’y échapperons qu’en intercalant sans cesse des termes nouveaux entre les termes déjà discernés, et cette opération devra être poursuivie indéfiniment. Nous ne pourrions concevoir qu’on dût l’arrêter que si nous nous représentions quelque instrument assez puissant pour décomposer le continu physique en éléments discrets, comme le télescope résout la voie lactée en étoiles. Mais nous ne pouvons nous imaginer cela ; en effet, c’est toujours avec nos sens que nous nous servons de nos instruments ; c’est avec l’œil que nous observons l’image agrandie par le microscope, et cette image doit, par conséquent, toujours conserver les caractères de la sensation visuelle et par conséquent ceux du continu physique.
Rien ne distingue une longueur observée directement de la moitié de cette longueur doublée par le microscope. Le tout est homogène à la partie, c’est là une nouvelle contradiction, ou plutôt c’en serait une si le nombre des termes était supposé fini ; il est clair en effet que la partie contenant moins de termes que le tout ne saurait être semblable au tout.
La contradiction cesse dès que le nombre des termes est regardé comme infini ; rien n’empêche, par exemple, de considérer l’ensemble des nombres entiers comme semblable à l’ensemble des nombres pairs qui n’en est pourtant qu’une partie ; et, en effet, à chaque nombre entier correspond un nombre pair qui en est le double.
Mais ce n’est pas seulement pour échapper à cette contradiction contenue dans les données empiriques que l’esprit est amené à créer le concept d’un continu, formé d’un nombre indéfini de termes.
Tout se passe comme pour la suite des nombres entiers. Nous avons la faculté de concevoir qu’une unité peut être ajoutée à une collection d’unités ; c’est grâce à l’expérience que nous avons l’occasion d’exercer cette faculté et que nous en prenons conscience ; mais, dès ce moment, nous sentons que notre pouvoir n’a pas de limite et que nous pourrions compter indéfiniment, quoique nous n’ayons jamais eu à compter qu’un nombre fini d’objets.
De même, dès que nous avons été amenés à intercaler des moyens entre deux termes consécutifs d’une série, nous sentons que cette opération peut être poursuivie au delà de toute limite et qu’il n’y a pour ainsi dire aucune raison intrinsèque de s’arrêter.
Qu’on me permette, afin d’abréger le langage, d’appeler continu mathématique du premier ordre tout ensemble de termes formés d’après la même loi que l’échelle des nombres commensurables. Si nous y intercalons ensuite des échelons nouveaux d’après la loi de formation des nombres incommensurables, nous obtiendrons ce que nous appellerons un continu du deuxième ordre.
Deuxième stade – Nous n’avons fait encore que le premier pas ; nous avons expliqué l’origine des continus de premier ordre ; mais il faut voir maintenant pourquoi ils n’ont pu suffire encore et pourquoi il a fallu inventer les nombres incommensurables.
Si l’on veut s’imaginer une ligne, ce ne pourra être qu’avec les caractères du continu physique, c’est-à-dire qu’on ne pourra se la représenter qu’avec une certaine largeur. Deux lignes nous apparaîtront alors sous la forme de deux bandes étroites, et si l’on se contente de cette image grossière, il est évident que si les deux lignes se traversent, elles auront une partie commune.
Mais le géomètre pur fait un effort de plus : sans renoncer tout à fait au secours de ses sens, il veut arriver au concept de la ligne sans largeur, du point sans étendue. Il n’y peut parvenir qu’en regardant la ligne comme la limite vers laquelle tend une bande de plus en plus mince, et le point comme la limite vers laquelle tend une aire de plus en plus petite. Et alors, nos deux bandes, quelque étroites qu’elles soient, auront toujours une aire commune d’autant plus petite qu’elles seront moins larges et dont la limite sera ce que le géomètre pur appelle un point.
C’est pourquoi l’on dit que deux lignes qui se traversent ont un point commun et cette vérité paraît intuitive.
Mais elle impliquerait contradiction si l’on concevait les lignes comme des continus du premier ordre, c’est-à-dire si sur les lignes tracées par le géomètre ne devaient se trouver que des points ayant pour coordonnées des nombres rationnels. La contradiction serait manifeste dès qu’on affirmerait par exemple l’existence des droites et des cercles.
Il est clair, on effet, que si les points dont les coordonnées sont commensurables étaient seuls regardés comme réels, le cercle inscrit dans un carré et la diagonale de ce carré ne se couperaient pas, puisque les coordonnées du point d’intersection sont incommensurables.
Cela ne serait pas encore assez, car on n’aurait ainsi que certains nombres incommensurables et non pas tous ces nombres.
Mais représentons-nous une droite divisée en deux demi-droites. Chacune de ces demi-droites apparaîtra à notre imagination comme une bande d’une certaine largeur ; ces bandes empiéteront d’ailleurs l’une sur l’autre, puisqu’entre elles il ne doit pas y avoir d’intervalle. La partie commune nous apparaîtra comme un point qui subsistera toujours quand nous voudrons imaginer nos bandes de plus en plus minces, de sorte que nous admettrons comme une vérité intuitive que si une droite est partagée en deux demi-droites, la frontière commune de ces deux droites est un point ; nous reconnaissons là la conception de Kronecker, où un nombre incommensurable était regardé comme la frontière commune de deux classes de nombres rationnels.
Telle est l’origine du continu du deuxième ordre, qui est le continu mathématique proprement dit.
Résumé. – En résumé, l’esprit a la faculté de créer des symboles, et c’est ainsi qu’il a construit le continu mathématique, qui n’est qu’un système particulier de symboles. Sa puissance n’est limitée que par la nécessité d’éviter toute contradiction ; mais l’esprit n’en use que si l’expérience lui en fournit une raison.
Dans le cas qui nous occupe, cette raison était la notion du continu physique, tirée des données brutes des sens. Mais cette notion conduit à une série de contradictions dont il faut s’affranchir successivement. C’est ainsi que nous sommes contraints à imaginer un système de symboles de plus en plus compliqué. Celui auquel nous nous arrêterons est non seulement exempt de contradiction interne, il en était déjà ainsi à toutes les étapes que nous avons franchies, mais il n’est pas non plus en contradiction avec diverses propositions dites intuitives et qui sont tirées de notions empiriques plus ou moins élaborées.
LA GRANDEUR MESURABLE
Les grandeurs que nous avons étudiées jusqu’ici ne sont pas mesurables ; nous savons bien dire si telle de ces grandeurs est plus grande que telle autre, mais non si elle est deux fois ou trois fois plus grande.
Je ne me suis en effet préoccupé jusqu’ici que de l’ordre dans lequel nos termes sont rangés. Mais cela ne suffit pas pour la plupart des applications. Il faut apprendre à comparer l’intervalle qui sépare deux termes quelconques. C’est à cette condition seulement que le continu devient une grandeur mesurable et qu’on peut lui appliquer les opérations de l’arithmétique.
Cela ne peut se faire qu’à l’aide d’une convention nouvelle et spéciale. On conviendra que dans tel cas l’intervalle compris entre les termes A et B est égal à l’intervalle qui sépare C et D. Par exemple au début de notre travail, nous sommes partis de l’échelle des nombres entiers et nous avons supposé que l’on intercalait entre deux échelons consécutifs n échelons intermédiaires ; eh bien, ces échelons nouveaux seront par convention regardés comme équidistants.
C’est là une façon de définir l’addition de deux grandeurs ; car si l’intervalle AB est par définition égale à l’intervalle CD, l’intervalle AD sera par définition la somme des intervalles AB et AC.
Cette définition est arbitraire dans une très large mesure. Pourtant elle ne l’est pas complètement. Elle est assujettie à certaines conditions et par exemple aux règles de commutativité et d’associativité de l’addition. Mais pourvu que la définition choisie satisfasse à ces règles, le choix est indifférent et il est inutile de le préciser.
REMARQUES DIVERSES
Nous pouvons nous poser plusieurs questions importantes :
1°La puissance créatrice de l’esprit est-elle épuisée par la création du continu mathématique ?
Non : les travaux de Du Bois-Reymond le démontrent d’une manière frappante.
On sait que les mathématiciens distinguent des infiniment petits de différents ordres et que ceux du deuxième ordre sont infiniment petits non seulement d’une manière absolue, mais encore par rapport à ceux du premier ordre. Il n’est pas difficile d’imaginer des infiniment petits d’ordre fractionnaire ou même irrationnel, et nous retrouvons ainsi cette échelle du continu mathématique qui a fait l’objet des pages qui précèdent.
Mais il y a plus ; il existe des infiniment petits qui sont infiniment petits par rapport à ceux du premier ordre et infiniment grands, au contraire, par rapport à ceux de l’ordre 1 + ε, et cela quelque petit que soit ε. Voilà donc des termes nouveaux intercalés dans notre série, et si l’on veut me permettre de revenir au langage que j’employais tout à l’heure et qui est assez commode bien qu’il ne soit pas consacré par l’usage, je dirai que l’on a créé ainsi une sorte de continu du troisième ordre.
Il serait aisé d’aller plus loin, mais ce serait un vain jeu de l’esprit ; on n’imaginerait que des symboles sans application possible, et personne ne s’en avisera. Le continu du troisième ordre auquel conduit la considération des divers ordres d’infiniment petits est lui-même trop peu utile pour avoir conquis droit de cité, et les géomètres ne le regardent que comme une simple curiosité. L’esprit n’use de sa faculté créatrice que quand l’expérience lui en impose la nécessité.
2°Une fois en possession du concept du continu mathématique, est-on à l’abri de contradictions analogues à celles qui lui ont donné naissance ?
Non, et j’en vais donner un exemple.
Il faut être bien savant pour ne pas regarder comme évident que toute courbe a une tangente et en effet si l’on se représente cette courbe et une droite comme deux bandes étroites, on pourra toujours les disposer de façon qu’elles aient une partie commune sans se traverser. Que l’on imagine ensuite la largeur de ces deux bandes diminuant indéfiniment, cette partie commune pourra toujours subsister et, à la limite pour ainsi dire, les deux lignes auront un point commun sans se traverser, c’est-à-dire qu’elles se toucheront.
Le géomètre qui raisonnerait de la sorte, consciemment ou non, ne ferait pas autre chose que ce que nous avons fait plus haut pour démontrer que deux lignes qui se traversent ont un point commun, et son intuition pourrait paraître tout aussi légitime.
Elle le tromperait cependant. On peut démontrer qu’il y a des courbes qui n’ont pas de tangente, si cette courbe est définie comme un continu analytique de deuxième ordre.
Sans doute quelque artifice analogue à ceux que nous avons étudiés plus haut aurait permis de lever la contradiction, mais, comme celle-ci ne se rencontre que dans des cas très exceptionnels, on ne s’en est pas préoccupé. Au lieu de chercher à concilier l’intuition avec l’analyse, on s’est contenté de sacrifier l’une des deux, et comme l’analyse doit rester impeccable, c’est à l’intuition que l’on a donné tort.
LE CONTINU PHYSIQUE À PLUSIEURS DIMENSIONS
J’ai étudié plus haut le continu physique tel qu’il ressort des données immédiates de nos sens, ou, si l’on veut, des résultats bruts des expériences de Fechner ; j’ai montré que ces résultats sont résumés dans les formules contradictoires.
A = B, B = C, A < C
Voyons maintenant comment cette notion s’est généralisée et comment a pu en sortir le concept des continus à plusieurs dimensions.
Considérons deux ensembles quelconques de sensations. Ou bien nous pourrons les discerner l’un de l’autre, ou bien nous ne le pourrons pas, de même que dans les expériences de Fechner un poids de 10 grammes pouvait se distinguer d’un poids de 12 grammes, mais pas d’un poids de 11 grammes. Je n’ai pas besoin d’autre chose pour construire le continu à plusieurs dimensions.
Appelons élément un de ces ensembles de sensations. Ce sera quelque chose d’analogue au point des mathématiciens ; ce ne sera pas tout à fait la même chose cependant. Nous ne pouvons pas dire que notre élément soit sans étendue, puisque nous ne savons pas le distinguer des éléments voisins et qu’il est ainsi entouré d’une sorte de brouillard.
Si l’on veut me permettre cette comparaison astronomique, nos « éléments » seraient comme des nébuleuses, tandis que les points mathématiques seraient comme des étoiles.
Cela posé, un système d’éléments formera un continu, si l’on peut passer d’un quelconque d’entre eux à un autre également quelconque, par une série d’éléments consécutifs enchaînés de telle sorte que chacun d’eux ne puisse se discerner du précédent. Cette chaîne est à la ligne du mathématicien ce qu’un élément isolé était au point.
Avant d’aller plus loin, il faut que j’explique ce que c’est qu’une coupure. Envisageons un continu et enlevons-lui certains de ses éléments que pour un instant nous regarderons comme n’appartenant plus à ce continu. L’ensemble des éléments ainsi enlevés s’appellera une coupure. Il pourra se faire que grâce à cette coupure, C soit subdivisé en plusieurs continus distincts, l’ensemble des éléments restants cessant de former un continu unique.
Alors il y aura sur C deux éléments, A et B, que l’on devra regarder comme appartenant à deux continus distincts et on le reconnaîtra parce qu’il sera impossible de trouver une chaîne d’éléments consécutifs de C partant de A et allant en B, et chaque élément étant indiscernable du précédent, à moins que l’un des éléments de cette chaîne ne soit indiscernable de l’un des éléments de la coupure et ne doive par suite être exclu.
Il pourra se faire au contraire que la coupure établie soit insuffisante pour subdiviser le continu C. Pour classer les continus physiques, nous examinerons précisément quelles sont les coupures qu’il est nécessaire d’y faire pour les subdiviser.
Si on peut subdiviser un continu physique C par une coupure se réduisant à un nombre fini d’éléments tous discernables les uns des autres (et ne formant par conséquent ni un continu, ni plusieurs continus), nous dirons que C est un continu à une dimension.
Si au contraire C ne peut être subdivisé que par des coupures qui soient elles-mêmes des continus, nous dirons que C a plusieurs dimensions. S’il suffit de coupures qui soient des continus à une dimension, nous dirons que C a deux dimensions, s’il suffit de coupures à deux dimensions, nous dirons que C a trois dimensions, et ainsi de suite. Ainsi se trouve définie la notion du continu physique à plusieurs dimensions, grâce à ce fait très simple que deux ensembles de sensations peuvent être discernables ou indiscernables.
LE CONTINU MATHÉMATIQUE À PLUSIEURS DIMENSIONS
Celle du continu mathématique à n dimensions en est sortie tout naturellement par un processus tout pareil à celui que nous avons étudié au début de ce chapitre. Un point d’un pareil continu nous apparaît, on le sait, comme défini par un système de n grandeurs distinctes que l’on appelle ses coordonnées.
Il n’est pas toujours nécessaire que ces grandeurs soient mesurables et il y a par exemple une branche de la géométrie où on fait abstraction de la mesure de ces grandeurs, où on se préoccupe seulement de savoir par exemple si sur une courbe ABC, le point B est entre les points A et C et non de savoir si l’arc AB est égal à l’arc BC ou s’il est deux fois plus grand. C’est ce qu’on appelle l’Analysis Situs.
C’est tout un corps de doctrine qui a attiré l’attention des plus grands géomètres et où l’on voit sortir les uns des autres une série de théorèmes remarquables. Ce qui distingue ces théorèmes de ceux de la géométrie ordinaire, c’est qu’ils sont purement qualitatifs et qu’ils resteraient vrais si les figures étaient copiées par un dessinateur malhabile qui en altérerait grossièrement les proportions et remplacerait les droites par un trait plus ou moins courbe.
C’est quand on a voulu introduire la mesure dans le continu que nous venons de définir que ce continu est devenu l’espace et que la géométrie est née. Mais je réserve cette étude pour la deuxième partie.
Toute conclusion suppose des prémisses ; ces prémisses elles-mêmes ou bien sont évidentes par elles-mêmes et n’ont pas besoin de démonstration, ou bien ne peuvent être établies qu’en s’appuyant sur d’autres propositions, et comme on ne saurait remonter ainsi à l’infini, toute science déductive, et en particulier la géométrie, doit reposer sur un certain nombre d’axiomes indémontrables. Tous les traités de géométrie débutent donc par l’énoncé de ces axiomes. Mais il y a entre eux une distinction à faire : quelques-uns, comme celui-ci par exemple : « deux quantités égales à une même troisième sont égales entre elles », ne sont pas des propositions de géométrie, mais des propositions d’analyse. Je les regarde comme des jugements analytiques a priori, je ne m’en occuperai pas.
Mais je dois insister sur d’autres axiomes qui sont spéciaux à la géométrie. La plupart des traités en énoncent trois explicitement :
1° Par deux points ne peut passer qu’une droite ;
2° La ligne droite est le plus court chemin d’un point à un autre ;
3° Par un point on ne peut faire passer qu’une parallèle à une droite donnée.
Bien que l’on se dispense généralement de démontrer le second de ces axiomes, il serait possible de le déduire des deux autres et de ceux, beaucoup plus nombreux, que l’on admet implicitement sans les énoncer, ainsi que je l’expliquerai plus loin.
On a longtemps cherché en vain à démontrer également le troisième axiome, connu sous le nom de postulatum d’Euclide. Ce qu’on a dépensé d’efforts dans cet espoir chimérique est vraiment inimaginable. Enfin au commencement du siècle et à peu près en même temps, deux savants, un Russe et un Hongrois, Lobatchevsky et Bolyai établirent d’une façon irréfutable que cette démonstration est impossible ; ils nous ont à peu près débarrassés des inventeurs de géométries sans postulatum ; depuis lors l’Académie des Sciences ne reçoit plus guère qu’une ou deux démonstrations nouvelles par an.
La question n’était pas épuisée ; elle ne tarda pas à faire un grand pas par la publication du célèbre mémoire de Riemann intitulé : Ueber die Hypothesen welche der Geometrie zum Grunde liegen. Cet opuscule a inspiré la plupart des travaux récents dont je parlerai plus loin et parmi lesquels il convient de citer ceux de Beltrami et de Helmholtz.
LA GÉOMÉTRIE DE LOBATCHEVSKY
S’il était possible de déduire le postulatum d’Euclide des autres axiomes, il arriverait évidemment qu’en niant le postulatum, et en admettant les autres axiomes, on serait conduit à des conséquences contradictoires ; il serait donc impossible d’appuyer sur de telles prémices une géométrie cohérente.
Or c’est précisément ce qu’a fait Lobatchevsky. Il suppose au début que :
L’on peut par un point mener plusieurs parallèles à une droite donnée.
Et il conserve d’ailleurs tous les autres axiomes d’Euclide. De ces hypothèses, il déduit une suite de théorèmes entre lesquels il est impossible de relever aucune contradiction et il construit une géométrie dont l’impeccable logique ne le cède en rien à celle de la géométrie euclidienne.
Les théorèmes sont, bien entendu, très différents de ceux auxquels nous sommes accoutumés et ils ne laissent pas de déconcerter un peu d’abord.
Ainsi la somme des angles d’un triangle est toujours plus petite que deux droits et la différence entre cette somme et deux droits est proportionnelle à la surface du triangle.
Il est impossible de construire une figure semblable à une figure donnée mais de dimensions différentes.
Si l’on divise une circonférence en n parties égales, et qu’on mène des tangentes aux points de division, ces n tangentes formeront un polygone si le rayon de la circonférence est assez petit ; mais si ce rayon est assez grand, elles ne se rencontreront pas.
Il est inutile de multiplier ces exemples ; les propositions de Lobatchevsky n’ont plus aucun rapport avec celles d’Euclide, mais elles ne sont pas moins logiquement reliées les unes aux autres.
LA GÉOMÉTRIE DE RIEMANN
Imaginons un monde uniquement peuplé d’êtres dénués d’épaisseur ; et supposons que ces animaux « infiniment plats » soient tous dans un même plan et n’en puissent sortir. Admettons de plus que ce monde soit assez éloigné des autres pour être soustrait à leur influence. Pendant que nous sommes en train de faire des hypothèses, il ne nous en coûte pas plus de douer ces êtres de raisonnement et de les croire capables de faire de la géométrie. Dans ce cas, ils n’attribueront certainement à l’espace que deux dimensions.
Mais supposons maintenant que ces animaux imaginaires, tout en restant dénués d’épaisseur, aient la forme d’une figure sphérique, et non d’une figure plane et soient tous sur une même sphère sans pouvoir s’en écarter. Quelle géométrie pourront-ils construire ? Il est clair d’abord qu’ils n’attribueront à l’espace que deux dimensions ; ce qui jouera pour eux le rôle de la ligne droite, ce sera le plus court chemin d’un point à un autre sur la sphère, c’est-à-dire un arc de grand cercle, en un mot leur géométrie sera la géométrie sphérique.
Ce qu’ils appelleront l’espace, ce sera cette sphère d’où ils ne peuvent sortir et sur laquelle se passent tous les phénomènes dont ils peuvent avoir connaissance. Leur espace sera donc sans limites puisqu’on peut sur une sphère aller toujours devant soi sans jamais être arrêté, et cependant il sera fini ; on n’en trouvera jamais le bout, mais on pourra en faire le tour.
Eh bien, la géométrie de Riemann, c’est la géométrie sphérique étendue à trois dimensions. Pour la construire, le mathématicien allemand a dû jeter par-dessus bord, non seulement le postulatum d’Euclide, mais encore le premier axiome : Par deux points on ne peut faire passer qu’une droite.
Sur une sphère, par deux points donnés on ne peut faire en général passer qu’un grand cercle (qui, comme nous venons de le voir, jouerait le rôle de la droite pour nos êtres imaginaires), mais il y a une exception : si les deux points donnés sont diamétralement opposés, on pourra faire passer par ces deux points une infinité de grands cercles.
De même dans la géométrie de Riemann (au moins sous une de ses formes), par deux points ne passera en général qu’une seule droite ; mais il y a des cas exceptionnels où par deux points pourront passer une infinité de droites.
Il y a une sorte d’opposition entre la géométrie de Riemann et celle de Lobatchevsky.
Ainsi la somme des angles d’un triangle est :
– Égale à deux droits dans la géométrie d’Euclide.
– Plus petite que deux droits dans celle de Lobatchevsky.
– Plus grande que deux droits dans celle de Riemann.
Le nombre des parallèles qu’on peut mener à une droite donnée par un point donné est égal :
– à un dans la géométrie d’Euclide,
– à zéro dans celle de Riemann,
– à l’infini dans celle de Lobatchevsky.
Ajoutons que l’espace de Riemann est fini, quoique sans limite, au sens donné plus haut à ces deux mots.
LES SURFACES À COURBURE CONSTANTE
Une objection restait possible cependant. Les théorèmes de Lobatchevsky et de Riemann ne présentent aucune contradiction ; mais quelque nombreuses que soient les conséquences que ces deux géomètres ont tirées de leurs hypothèses, ils ont dû s’arrêter avant de les avoir toutes épuisées, car le nombre en serait infini ; qui nous dit alors que s’ils avaient poussé plus loin leurs déductions, ils n’auraient pas fini par arriver à quelque contradiction ?
Cette difficulté n’existe pas pour la géométrie de Riemann, pourvu qu’on se borne à deux dimensions ; la géométrie de Riemann à deux dimensions ne diffère pas en effet, nous l’avons vu, de la géométrie sphérique, qui n’est qu’une branche de la géométrie ordinaire et qui est par conséquent en dehors de toute discussion.
M. Beltrami, en ramenant de même la géométrie de Lobatchevsky à deux dimensions à ne plus être qu’une branche de la géométrie ordinaire, a réfuté également l’objection en ce qui la concerne.
Voici comment il y est parvenu. Considérons sur une surface une figure quelconque. Imaginons que cette figure soit tracée sur une toile flexible et inextensible appliquée sur cette surface, de telle façon que quand la toile se déplace et se déforme, les diverses lignes de cette figure puissent changer de forme, sans changer de longueur. En général, cette figure flexible et inextensible ne pourra se déplacer sans quitter la surface ; mais il y a certaines surfaces particulières pour lesquelles un pareil mouvement serait possible : ce sont les surfaces à courbure constante.
Si nous reprenons la comparaison que nous faisions plus haut et que nous imaginions des êtres sans épaisseur vivant sur une de ces surfaces, ils regarderont comme possible le mouvement d’une figure dont toutes les lignes conservent une longueur constante. Un pareil mouvement paraîtrait absurde, au contraire, à des animaux sans épaisseur vivant sur une surface à courbure variable.
Ces surfaces à courbure constante sont de deux sortes :
Les unes sont à courbure positive, et peuvent être déformées de façon à être appliquées sur une sphère. La géométrie de ces surfaces se réduit donc à la géométrie sphérique, qui est celle de Riemann.
Les autres sont à courbure négative. M. Beltrami a fait voir que la géométrie de ces surfaces n’est autre que celle de Lobatchevsky. Les géométries à deux dimensions de Riemann et de Lobatchevsky se trouvent donc rattachées à la géométrie euclidienne.
INTERPRÉTATION DES GÉOMÉTRIES NON EUCLIDIENNES
Ainsi s’évanouit l’objection en ce qui concerne les géométries à deux dimensions.
Il serait aisé d’étendre le raisonnement de M. Beltrami aux géométries à trois dimensions. Les esprits que ne rebute pas l’espace à quatre dimensions n’y verront aucune difficulté, mais ils sont peu nombreux. Je préfère donc procéder autrement.
Considérons un certain plan que j’appellerai fondamental et construisons une sorte de dictionnaire, en faisant correspondre chacun à chacun une double suite de termes écrits dans deux colonnes, de la même façon que se correspondent dans les dictionnaires ordinaires les mots de deux langues dont la signification est la même :
Espace : Portion de l’espace située au-dessus du plan fondamental.
Plan : Sphère coupant orthogonalement le plan fondamental.
Droite : Cercle coupant orthogonalement le plan fondamental.
Sphère : Sphère.
Cercle : Cercle.
Angle : Angle.
Distance de deux points : Logarithme du rapport anharmonique de ces deux points et des intersections du plan fondamental avec un cercle passant par ces deux points et le coupant orthogonalement
etc.…
Prenons ensuite les théorèmes de Lobatchevsky et traduisons-les à l’aide de ce dictionnaire comme nous traduirions un texte allemand à l’aide d’un dictionnaire allemand-français. Nous obtiendrons ainsi des théorèmes de la géométrie ordinaire.
Par exemple, ce théorème de Lobatchevsky « la somme des angles d’un triangle est plus petite que deux droits » se traduit ainsi : « Si un triangle curviligne a pour côtés des arcs de cercle qui prolongés iraient couper orthogonalement le plan fondamental, la somme des angles de ce triangle curviligne sera plus petite que deux droits ». Ainsi, quelque loin que l’on pousse les conséquences des hypothèses de Lobatchevsky, on ne sera jamais conduit à une contradiction. En effet, si deux théorèmes de Lobatchevsky étaient contradictoires, il en serait de même des traductions de ces deux théorèmes, faites à l’aide de notre dictionnaire, mais ces traductions sont des théorèmes de géométrie ordinaire et personne ne doute que la géométrie ordinaire ne soit exempte de contradiction. D’où nous vient cette certitude et est-elle justifiée ? C’est la une question que je ne saurais traiter ici, car elle exigerait quelques développements. Il ne reste donc plus rien de l’objection que j’ai formulée plus haut.
Ce n’est pas tout. La géométrie de Lobatchevsky, susceptible d’une interprétation concrète, cesse d’être un vain exercice de logique et peut recevoir des applications ; je n’ai pas le temps de parler ici de ces applications ni du parti que M. Klein et moi en avons tiré pour l’intégration des équations linéaires.
Cette interprétation n’est d’ailleurs pas unique, et l’on pourrait établir plusieurs dictionnaires analogues à celui qui précède et qui tous permettraient par une simple « traduction » de transformer les théorèmes de Lobatchevsky en théorèmes de géométrie ordinaire.
LES AXIOMES IMPLICITES
Les axiomes explicitement énoncés dans les traités sont-ils les seuls fondements de la géométrie ? On peut être assuré du contraire en voyant qu’après les avoir successivement abandonnés on laisse encore debout quelques propositions communes aux théories d’Euclide, de Lobatchevsky et de Riemann. Ces propositions doivent reposer sur quelques prémisses que les géomètres admettent sans les énoncer. Il est intéressant de chercher à les dégager des démonstrations classiques.
Stuart Mill a prétendu que toute définition contient un axiome, puisqu’en définissant on affirme implicitement l’existence de l’objet défini. C’est aller beaucoup trop loin ; il est rare qu’en mathématiques on donne une définition sans la faire suivre par la démonstration de l’existence de l’objet défini, et quand on s’en dispense, c’est généralement que le lecteur y peut aisément suppléer. Il ne faut pas oublier que le mot existence n’a pas le même sens quand il s’agit d’un être mathématique et quand il est question d’un objet matériel. Un être mathématique existe, pourvu que sa définition n’implique pas contradiction, soit en elle-même, soit avec les propositions antérieurement admises.
Mais si l’observation de Stuart Mill ne saurait s’appliquer à toutes les définitions, elle n’en est pas moins juste pour quelques-unes d’entre elles. On définit quelquefois le plan de la manière suivante :
Le plan est une surface telle que la droite qui joint deux quelconques de ses points est tout entière sur cette surface.
Cette définition cache manifestement un nouvel axiome ; on pourrait, il est vrai, la changer, et cela vaudrait mieux, mais alors il faudrait énoncer l’axiome explicitement.
D’autres définitions peuvent donner lieu à des réflexions non moins importantes.
Telle est par exemple celle de l’égalité de deux figures : deux figures sont égales quand on peut les superposer ; pour les superposer il faut déplacer l’une d’elles jusqu’à ce qu’elle coïncide avec l’autre ; mais comment faut-il la déplacer ? Si nous le demandions, on nous répondrait sans doute qu’on doit le faire sans la déformer et à la façon d’un solide invariable. Le cercle vicieux serait alors évident.
En fait, cette définition ne définit rien ; elle n’aurait aucun sens pour un être qui habiterait un monde où il n’y aurait que des fluides. Si elle nous semble claire, c’est que nous sommes habitués aux propriétés des solides naturels qui ne diffèrent pas beaucoup de celles des solides idéaux dont toutes les dimensions sont invariables.
Cependant, tout imparfaite qu’elle soit, cette définition implique un axiome.
La possibilité du mouvement d’une figure invariable n’est pas une vérité évidente par elle-même, ou du moins elle ne l’est qu’à la façon du postulatum d’Euclide et non comme le serait un jugement analytique à priori.
D’ailleurs, en étudiant les définitions et les démonstrations de la géométrie, on voit qu’on est obligé d’admettre, sans les démontrer, non seulement la possibilité de ce mouvement, mais encore quelques-unes de ses propriétés.
C’est ce qui ressort d’abord de la définition de la ligne droite. On en a donné beaucoup de défectueuses, mais la véritable est celle qui est sous-entendue dans toutes les démonstrations où la ligne droite intervient :
« Il peut arriver que le mouvement d’une figure invariable soit tel que tous les points d’une ligne appartenant à cette figure restent immobiles pendant que tous les points situés en dehors de cette ligne se meuvent. Une pareille ligne s’appellera une ligne droite ». Nous avons à dessein, dans cet énoncé, séparé la définition de l’axiome qu’elle implique.
Beaucoup de démonstrations, telles que celles des cas d’égalité des triangles, de la possibilité d’abaisser une perpendiculaire d’un point sur une droite, supposent des propositions qu’on se dispense d’énoncer, puisqu’elles obligent à admettre qu’il est possible de transporter une figure dans l’espace d’une certaine manière.
LA QUATRIÈME GÉOMÉTRIE
Parmi ces axiomes implicites, il en est un qui me semble mériter quelque attention, parce qu’en l’abandonnant, on peut construire une quatrième géométrie aussi cohérente que celles d’Euclide, de Lobatchevsky et de Riemann.
Pour démontrer que l’on peut toujours élever en un point A une perpendiculaire à une droite AB, on considère une droite AC mobile autour du point A et primitivement confondue avec la droite fixe AB ; et on la fait tourner autour du point A jusqu’à ce qu’elle vienne dans le prolongement de AB.
On suppose ainsi deux propositions : d’abord qu’une pareille rotation est possible, et ensuite qu’elle peut se continuer jusqu’à ce que les deux droites viennent dans le prolongement l’une de l’autre.
Si l’on admet le premier point et que l’on rejette le second, on est conduit à une suite de théorèmes encore plus étranges que ceux de Lobatchevsky et de Riemann, mais également exempts de contradiction.
Je ne citerai qu’un de ces théorèmes et je ne choisirai pas le plus singulier : une droite réelle peut être perpendiculaire à elle-même.
LE THÉORÈME DE LIE
Le nombre des axiomes implicitement introduits dans les démonstrations classiques est plus grand qu’il ne serait nécessaire, et on a cherché à le réduire au minimum. M. Hilbert semble avoir donné la solution définitive de ce problème. On pouvait a priori se demander d’abord si cette réduction est possible, si le nombre des axiomes nécessaires et celui des géométries imaginables n’est pas infini.
Un théorème de M. Sophus Lie domine toute cette discussion. On peut l’énoncer ainsi :
Supposons qu’on admette les prémisses suivantes :
1° L’espace a n dimensions ;
2° Le mouvement d’une figure invariable est possible.
3° Il faut p conditions pour déterminer la position de cette figure dans l’espace.
Le nombre des géométries compatibles avec ces prémisses sera limité.
Je puis même ajouter que si n est donné, on peut assigner à p une limite supérieure.
Si donc on admet la possibilité du mouvement, on ne pourra inventer qu’un nombre fini (et même assez restreint) de géométries à trois dimensions.
LES GÉOMÉTRIES DE RIEMANN
Cependant ce résultat semble contredit par Riemann, car ce savant construit une infinité de géométries différentes, et celle à laquelle on donne ordinairement son nom n’en est qu’un cas particulier.
Tout dépend, dit-il, de la façon dont on définit la longueur d’une courbe. Or il y a une infinité de manières de définir cette longueur, et chacune d’elles peut devenir le point de départ d’une nouvelle géométrie.
Cela est parfaitement exact, mais la plupart de ces définitions sont incompatibles avec le mouvement d’une figure invariable, que l’on suppose possible dans le théorème de Lie. Ces géométries de Riemann, si intéressantes à divers titres, ne pourraient donc jamais être que purement analytiques et ne se prêteraient pas à des démonstrations analogues à celles d’Euclide.
LES GÉOMÉTRIES DE HILBERT
Enfin M. Veronese et M. Hilbert ont imaginé de nouvelles géométries plus étranges encore, qu’ils appellent non-archimédiennes. Ils les construisent en rejetant l’axiome d’Archimède en vertu duquel toute longueur donnée, multipliée par un entier suffisamment grand, finira par surpasser toute autre longueur donnée si grande qu’elle soit. Sur une droite non archimédienne, les points de notre géométrie ordinaire existent tous, mais il y en a une infinité d’autres qui viennent s’intercaler entre eux, de telle sorte qu’entre deux segments, que les géomètres de la vieille école auraient regardés comme contigus, on puisse caser une infinité de points nouveaux. En un mot, l’espace non archimédien n’est plus un continu du second ordre, pour employer le langage du chapitre précédent, mais un continu du troisième ordre.
DE LA NATURE DES AXIOMES
La plupart des mathématiciens ne regardent la géométrie de Lobatchevsky que comme une simple curiosité logique ; quelques-uns d’entre eux sont allés plus loin cependant. Puisque plusieurs géométries sont possibles, est-il certain que ce soit la nôtre qui soit vraie ? L’expérience nous apprend sans doute que la somme des angles d’un triangle est égale à deux droits ; mais c’est parce que nous n’opérons que sur des triangles trop petits ; la différence, d’après Lobatchevsky, est proportionnelle à la surface du triangle : ne pourra-t-elle devenir sensible quand nous opérerons sur des triangles plus grands ou quand nos mesures deviendront plus précises ? La géométrie euclidienne ne serait ainsi qu’une géométrie provisoire.
Pour discuter cette opinion, nous devons d’abord nous demander quelle est la nature des axiomes géométriques.
Sont-ce des jugements synthétiques a priori, comme disait Kant ?
Ils s’imposeraient alors à nous avec une telle force, que nous ne pourrions concevoir la proposition contraire, ni bâtir sur elle un édifice théorique. Il n’y aurait pas de géométrie non euclidienne.
Pour s’en convaincre, qu’on prenne un véritable jugement synthétique a priori, par exemple celui-ci, dont nous avons vu au chapitre premier le rôle prépondérant :
Si un théorème est vrai pour le nombre 1, si on a démontré qu’il est vrai de n + 1, pourvu qu’il le soit de n, il sera vrai de tous les nombres entiers positifs.
Qu’on essaie ensuite de s’y soustraire et de fonder, en niant cette proposition, une fausse arithmétique analogue à la géométrie non euclidienne, – on n’y pourra pas parvenir ; on serait même tenté au premier abord de regarder ces jugements comme analytiques.
D’ailleurs, reprenons notre fiction des animaux sans épaisseur ; nous ne pouvons guère admettre que ces êtres, s’ils ont l’esprit fait comme nous, adopteraient la géométrie euclidienne qui serait contredite par toute leur expérience ?
Devons-nous donc conclure que les axiomes de la géométrie sont des vérités expérimentales ? Mais on n’expérimente pas sur des droites ou des circonférences idéales ; on ne peut le faire que sur des objets matériels. Sur quoi porteraient donc les expériences qui serviraient de fondement à la géométrie ? La réponse est facile.
Nous avons vu plus haut que l’on raisonne constamment comme si les figures géométriques se comportaient à la manière des solides. Ce que la géométrie emprunterait à l’expérience, ce seraient donc les propriétés de ces corps.
Les propriétés de la lumière et sa propagation rectiligne ont été aussi l’occasion d’où sont sorties quelques-unes des propositions de la géométrie, et en particulier celles de la géométrie projective, de sorte qu’à ce point de vue on serait tenté de dire que la géométrie métrique est l’étude des solides et que la géométrie projective est celle de la lumière.
Mais une difficulté subsiste, et elle est insurmontable. Si la géométrie était une science expérimentale, elle ne serait pas une science exacte, elle serait soumise à une continuelle révision. Que dis-je ? elle serait dès aujourd’hui convaincue d’erreur puisque nous savons qu’il n’existe pas de solide rigoureusement invariable.
Les axiomes géométriques ne sont donc ni des jugements esthétiques a priori, ni des faits expérimentaux.
Ce sont des conventions ; notre choix, parmi toutes les conventions possibles, est guidé par des faits expérimentaux ; mais il reste libre et n’est limité que par la nécessité d’éviter toute contradiction. C’est ainsi que les postulats peuvent rester rigoureusement vrais quand même les lois expérimentales qui ont déterminé leur adoption ne sont qu’approximatives.
En d’autres termes, les axiomes de la géométrie (je ne parle pas de ceux de l’arithmétique) ne sont que des définitions déguisées.
Dès lors, que doit-on penser de cette question : La géométrie euclidienne est-elle vraie ?
Elle n’a aucun sens.
Autant demander si le système métrique est vrai et les anciennes mesures fausses ; si les coordonnées cartésiennes sont vraies et les coordonnées polaires fausses. Une géométrie ne peut pas être plus vraie qu’une autre ; elle peut seulement être plus commode.
Or la géométrie euclidienne est et restera la plus commode :
1° Parce qu’elle est la plus simple ; et elle n’est pas telle seulement par suite de nos habitudes d’esprit ou de je ne sais quelle intuition directe que nous aurions de l’espace euclidien ; elle est la plus simple en soi de même qu’un polynôme du premier degré est plus simple qu’un polynôme du second degré ; les formules de la trigonométrie sphérique sont plus compliquées que celles de la trigonométrie rectiligne, et elles paraîtraient encore telles à un analyste qui en ignorerait la signification géométrique.
2° Parce qu’elle s’accorde assez bien avec les propriétés des solides naturels, ces corps dont se rapprochent nos membres et notre œil et avec lesquels nous faisons nos instruments de mesure.
Commençons par un petit paradoxe.
Des êtres dont l’esprit serait fait comme le nôtre et qui auraient les mêmes sens que nous, mais qui n’auraient reçu aucune éducation préalable, pourraient recevoir d’un monde extérieur convenablement choisi des impressions telles qu’ils seraient amenés à construire une géométrie autre que celle d’Euclide et à localiser les phénomènes de ce monde extérieur dans un espace non euclidien ou même dans un espace à quatre dimensions.
Pour nous, dont l’éducation a été faite par notre monde actuel, si nous étions brusquement transportés dans ce monde nouveau, nous n’aurions pas de difficulté à en rapporter les phénomènes à notre espace euclidien. Inversement, si ces êtres étaient transportés chez nous, ils seraient amenés à rapporter nos phénomènes à l’espace non euclidien.
Que dis-je ; avec un peu d’efforts nous pourrions le faire également. Quelqu’un qui y consacrerait son existence pourrait peut-être arriver à se représenter la quatrième dimension.
L’ESPACE GÉOMÉTRIQUE ET L’ESPACE REPRÉSENTATIF
On dit souvent que les images des objets extérieurs sont localisées dans l’espace, que même elles ne peuvent se former qu’à cette condition. On dit aussi que cet espace, qui sert ainsi de cadre tout préparé à nos sensations et à nos représentations, est identique à celui des géomètres dont il possède toutes les propriétés.
À tous les bons esprits qui pensent ainsi, la phrase précédente a dû paraître bien extraordinaire. Mais il convient de voir s’ils ne subissent pas quelque illusion qu’une analyse approfondie pourrait dissiper.
Quelles sont d’abord les propriétés de l’espace proprement dit ? je veux dire de celui qui fait l’objet de la géométrie et que j’appellerai l’espace géométrique. Voici quelques-unes des plus essentielles :
1° Il est continu ;
2° Il est infini ;
3° Il a trois dimensions ;
4° Il est homogène, c’est-à-dire que tous ses points sont identiques entre eux ;
5° Il est isotrope, c’est-à-dire que toutes les droites qui passent par un même point sont identiques entre elles.
Comparons le maintenant au cadre de nos représentations et de nos sensations, que je pourrais appeler l’espace représentatif.
L’ESPACE VISUEL
Considérons d’abord une impression purement visuelle, due à une image qui se forme sur le fond de la rétine.
Une analyse sommaire nous montre cette image comme continue, mais comme possédant seulement deux dimensions, cela distingue déjà de l’espace géométrique ce que l’on peut appeler l’espace visuel pur.
D’autre part cette image est enfermée dans un cadre limité.
Enfin il y a une autre différence non moins importante : cet espace visuel pur n’est pas homogène. Tous les points de la rétine, abstraction faite des images qui s’y peuvent former, ne jouent pas le même rôle. La tache jaune ne peut à aucun titre être regardée comme identique à un point du bord de la rétine. Non seulement en effet le même objet y produit des impressions beaucoup plus vives, mais dans tout cadre limité le point qui occupe le centre du cadre n’apparaîtra pas comme identique à un point voisin de l’un des bords.
Une analyse plus approfondie nous montrerait sans doute que cette continuité de l’espace visuel et ses deux dimensions ne sont non plus qu’une illusion ; elle l’éloignerait donc encore davantage de l’espace géométrique, mais passons sur cette remarque dont les conséquences ont été suffisamment examinées au chapitre II.
Cependant la vue nous permet d’apprécier les distances et par conséquent de percevoir une troisième dimension. Mais chacun sait que cette perception de la troisième dimension se réduit au sentiment de l’effort d’accommodation qu’il faut faire, et à celui de la convergence qu’il faut donner aux deux yeux, pour percevoir un objet distinctement.
Ce sont là des sensations musculaires tout à fait différentes des sensations visuelles qui nous ont donné la notion des deux premières dimensions. La troisième dimension ne nous apparaîtra donc pas comme jouant le même rôle que les deux autres. Ce que l’on peut appeler l’espace visuel complet n’est donc pas un espace isotrope.
Il a, il est vrai, précisément trois dimensions ; cela veut dire que les éléments de nos sensations visuelles (ceux du moins qui concourent à former la notion de l’étendue, seront complètement définis quand on connaîtra trois d’entre eux ; pour employer le langage mathématique, ce seront des fonctions de trois variables indépendantes.
Mais examinons la chose d’un peu plus près. La troisième dimension nous est révélée de deux manières différentes : par l’effort d’accommodation et par la convergence des yeux.
Sans doute ces deux indications sont toujours concordantes, il y a entre elles une relation constante, ou en termes mathématiques, les deux variables qui mesurent ces deux sensations musculaires ne nous apparaissent pas comme indépendantes, ou bien encore nous pouvons pour éviter un appel à des notions mathématiques déjà assez raffinées revenir au langage du chapitre II et énoncer le même fait comme il suit : si deux sensations de convergence A et B sont indiscernables, les deux sensations d’accommodation A’ et B’ qui les accompagneront respectivement seront également indiscernables.
Mais c’est là pour ainsi dire un fait expérimental ; rien n’empêche a priori de supposer le contraire, et si le contraire a lieu, si ces deux sensations musculaires varient indépendamment l’une de l’autre, nous aurons à tenir compte d’une variable indépendante de plus et l’espace visuel complet nous apparaîtra comme un continu physique à quatre dimensions.
C’est là même, ajouterai-je, un fait d’expérience externe. Rien n’empêche de supposer qu’un être ayant l’esprit fait comme nous, ayant les mêmes organes des sens que nous, soit placé dans un monde où la lumière ne lui parviendrait qu’après avoir traversé des milieux réfringents de forme compliquée. Les deux indications qui nous servent à apprécier les distances, cesseraient d’être liées par une relation constante. Un être qui ferait dans un pareil monde l’éducation de ses sens, attribuerait sans doute quatre dimensions à l’espace visuel complet.
L’ESPACE TACTILE ET L’ESPACE MOTEUR
« L’espace tactile » est plus compliqué encore que l’espace visuel et s’éloigne davantage de l’espace géométrique. Il est inutile de répéter, pour le toucher, la discussion que j’ai faite pour la vue.
Mais en dehors des données de la vue et du toucher, il y d’autres sensations qui contribuent autant et plus qu’elles a la genèse de la notion d’espace. Ce sont celles que tout le monde connaît, qui accompagnent tous nos mouvements et que l’on appelle ordinairement musculaires.
Le cadre correspondant constitue ce que l’on peut appeler l’espace moteur.
Chaque muscle donne naissance à une sensation spéciale susceptible d’augmenter ou de diminuer, de sorte que l’ensemble de nos sensations musculaires dépendra d’autant de variables que nous avons de muscles. À ce point de vue, l’espace moteur aurait autant de dimensions que nous avons de muscles.
Je sais qu’on va dire que si les sensations musculaires contribuent à former la notion d’espace, c’est que nous avons le sentiment de la direction de chaque mouvement et qu’il fait partie intégrante de la sensation. S’il en était ainsi, si une sensation musculaire ne pouvait naître qu’accompagnée de ce sentiment géométrique de la direction, l’espace géométrique serait bien une forme imposée à notre sensibilité.
Mais c’est ce que je n’aperçois pas du tout quand j’analyse mes sensations.
Ce que je vois, c’est que les sensations qui correspondent à des mouvements de même direction sont liées dans mon esprit par une simple association d’idées. C’est à cette association que se ramène ce que nous appelons « le sentiment de la direction ». On ne saurait donc retrouver ce sentiment dans une sensation unique.
Cette association est extrêmement complexe, puisque la contraction d’un même muscle peut correspondre, selon la position des membres, à des mouvements de direction très différente.
Elle est d’ailleurs évidemment acquise ; elle est, comme toutes les associations d’idées, le résultat d’une habitude ; cette habitude résulte elle-même d’expériences très nombreuses ; sans aucun doute, si l’éducation de nos sens s’était faite dans un milieu différent, où nous aurions subi des impressions différentes, des habitudes contraires auraient pris naissance et nos sensations musculaires se seraient associées selon d’autres lois.
CARACTÈRES DE L’ESPACE REPRÉSENTATIF
Ainsi l’espace représentatif, sous sa triple forme, visuelle, tactile et motrice, est essentiellement différent de l’espace géométrique.
Il n’est ni homogène, ni isotrope ; on ne peut même pas dire qu’il ait trois dimensions.
On dit souvent que nous projetons dans l’espace géométrique les objets de notre perception externe ; que nous les « localisons ».
Cela a-t-il un sens et quel sens cela a-t-il ?
Cela veut-il dire que nous nous représentons les objets extérieurs dans l’espace géométrique ?
Nos représentations ne sont que la reproduction de nos sensations, elles ne peuvent donc se ranger que dans le même cadre qu’elles, c’est-à-dire dans l’espace représentatif.
Il nous est aussi impossible de nous représenter les corps extérieurs dans l’espace géométrique, qu’il est impossible à un peintre de peindre, sur un tableau plan, des objets avec leurs trois dimensions.
L’espace représentatif n’est qu’une image de l’espace géométrique, image déformée par une sorte de perspective, et nous ne pouvons nous représenter les objets qu’en les pliant aux lois de cette perspective.
Nous ne nous représentons donc pas les corps extérieurs dans l’espace géométrique, mais nous raisonnons sur ces corps, comme s’ils étaient situés dans l’espace géométrique.
Quand on dit d’autre part que nous « localisons » tel objet en tel point de l’espace, qu’est-ce que cela veut dire ?
Cela signifie simplement que nous nous représentons les mouvements qu’il faut faire pour atteindre cet objet ; et qu’on ne dise pas que pour se représenter ces mouvements, il faut les projeter eux-mêmes dans l’espace et que la notion d’espace doit, par conséquent, préexister.
Quand je dis que nous nous représentons ces mouvements, je veux dire seulement que nous nous représentons les sensations musculaires qui les accompagnent et qui n’ont aucun caractère géométrique, qui par conséquent n’impliquent nullement la préexistence de la notion d’espace.
CHANGEMENTS D’ÉTAT ET CHANGEMENTS DE POSITION
Mais, dira-t-on, si l’idée de l’espace géométrique ne s’impose pas à notre esprit, si d’autre part aucune de nos sensations ne peut nous la fournir, comment a-t-elle pu prendre naissance ?
C’est ce que nous avons maintenant à examiner et cela nous demandera quelque temps, mais je puis résumer en quelques mots la tentative d’explication que je vais développer.
Aucune de nos sensations, isolée, n’aurait pu nous conduire à l’idée de l’espace, nous y sommes amenés seulement en étudiant les lois suivant lesquelles ces sensations se succèdent.
Nous voyons d’abord que nos impressions sont sujettes au changement ; mais parmi les changements que nous constatons, nous sommes bientôt conduits à faire une distinction.
Nous disons tantôt que les objets, causes de ces impressions, ont changé d’état, tantôt qu’ils ont changé de position, qu’ils se sont seulement déplacés.
Qu’un objet change d’état ou seulement de position, cela se traduit toujours pour nous de la même manière : par une modification dans un ensemble d’impressions.
Comment donc avons-nous pu être amenés à les distinguer ? Il est facile de s’en rendre compte. S’il y a eu seulement changement de position, nous pouvons restaurer l’ensemble primitif d’impressions en faisant des mouvements qui nous replacent vis-à-vis de l’objet mobile dans la même situation relative. Nous corrigeons ainsi la modification qui s’est produite et nous rétablissons l’état initial par une modification inverse.
S’il s’agit par exemple de la vue et si un objet se déplace devant notre œil, nous pouvons le « suivre de l’œil » et maintenir son image en un même point de la rétine par des mouvements appropriés du globe oculaire.
Ces mouvements, nous en avons conscience parce qu’ils sont volontaires et parce qu’ils sont accompagnés de sensations musculaires, mais cela ne veut pas dire que nous nous les représentons dans l’espace géométrique.
Ainsi ce qui caractérise le changement de position, ce qui le distingue du changement d’état, c’est qu’il peut être corrigé par ce moyen.
Il peut donc arriver que l’on passe de l’ensemble d’impressions A à l’ensemble B de deux manières différentes :
1° involontairement et sans éprouver de sensations musculaires, c’est ce qui arrive quand c’est l’objet qui se déplace ;
2° volontairement et avec des sensations musculaires, c’est ce qui arrive quand l’objet est immobile, mais que nous nous déplaçons, de telle façon que l’objet a par rapport à nous un mouvement relatif.
S’il en est ainsi, le passage de l’ensemble A à l’ensemble B n’est qu’un changement de position.
Il résulte de là que la vue et le toucher ne nous auraient pu donner la notion d’espace sans le secours du « sens musculaire ».
Non seulement cette notion ne pouvait dériver d’une sensation unique, mais d’une suite de sensations, mais encore un être immobile n’aurait pu jamais l’acquérir puisque, ne pouvant corriger par ses mouvements les effets des changements de position des objets extérieurs, il n’aurait eu aucune raison de les distinguer des changements d’état. Il n’aurait pu l’acquérir non plus si ses mouvements n’étaient pas volontaires ou s’ils n’étaient pas accompagnés de sensations quelconques.
CONDITIONS DE LA COMPENSATION
Comment une pareille compensation est-elle possible de telle façon que deux changements, d’ailleurs indépendants l’un de l’autre, se corrigent réciproquement ?
Un esprit qui saurait déjà la géométrie raisonnerait comme il suit :
Pour que la compensation se produise, il faut évidemment que les diverses parties de l’objet extérieur d’une part, les divers organes de nos sens d’autre part, se retrouvent, après le double changement, dans la même position relative. Et pour cela il faut que les diverses parties de l’objet extérieur aient également conservé, les unes par rapport aux autres, la même position relative et qu’il en soit de même des diverses parties de notre corps les unes par rapport aux autres.
En d’autres termes, l’objet extérieur, dans le premier changement, doit se déplacer à la façon d’un solide invariable et il en doit être de même de l’ensemble de notre corps dans le second changement qui corrige le premier.
À ces conditions, la compensation peut se produire.
Mais nous qui ne savons pas encore la géométrie, puisque pour nous la notion d’espace n’est pas encore formée, nous ne pouvons pas raisonner de la sorte, nous ne pouvons pas prévoir à priori si la compensation est possible. Mais l’expérience nous apprend qu’elle se fait quelquefois et c’est de ce fait expérimental que nous partons pour distinguer les changements d’état des changements de position.
LES CORPS SOLIDES ET LA GÉOMÉTRIE
Parmi les objets qui nous entourent, il y en a qui éprouvent fréquemment des déplacements susceptibles d’être ainsi corrigés par un mouvement corrélatif de notre propre corps, ce sont les corps solides.
Les autres objets, dont la forme est variable, ne subissent qu’exceptionnellement de semblables déplacements (changement de position sans changement de forme). Quand un corps s’est déplacé en se déformant, nous ne pouvons plus, par des mouvements appropriés, ramener les organes de nos sens dans la même situation relative par rapport à ce corps ; nous ne pouvons plus par conséquent rétablir l’ensemble primitif d’impressions.
Ce n’est que plus tard, et à la suite d’expériences nouvelles, que nous apprenons à décomposer les corps de forme variable en éléments plus petits tels que chacun d’eux se déplace à peu près suivant les mêmes lois que les corps solides. Nous distinguons ainsi les « déformations » des autres changements d’état ; dans ces déformations chaque élément subit un simple changement de position, qui peut être corrigé, mais la modification subie par l’ensemble est plus profonde et n’est plus susceptible d’être corrigée par un mouvement corrélatif.
Une pareille notion est déjà très complexe et n’a pu apparaître que d’une façon relativement tardive ; elle n’aurait pu naître d’ailleurs si l’observation des corps solides ne nous avait appris déjà à distinguer les changements de position.
Si donc il n’y avait pas de corps solides dans la nature, il n’y aurait pas de géométrie.
Une autre remarque mérite aussi un instant d’attention. Supposons un corps solide occupant d’abord la position α et passant ensuite à la position β ; dans sa première position, il causera sur nous l’ensemble d’impressions A, et dans sa seconde position l’ensemble d’impressions B. Soit maintenant un second corps solide, ayant des qualités entièrement différentes du premier, par exemple de couleur différente. Supposons encore qu’il passe de la position α, où il cause sur nous l’ensemble d’impressions A’, à la position β, où il cause sur nous l’ensemble d’impressions B’.
En général, l’ensemble A n’aura rien de commun avec l’ensemble A’, ni l’ensemble B avec l’ensemble B’. Le passage de l’ensemble A à l’ensemble B et celui de l’ensemble A’ à l’ensemble B’ sont donc deux changements qui en soi n’ont en général rien de commun.
Et cependant, ces deux changements, nous les regardons l’un et l’autre comme des déplacements et mieux encore, nous les considérons comme le même déplacement. Comment cela se fait-il ?
C’est simplement parce qu’ils peuvent être l’un et l’autre corrigés par le même mouvement corrélatif de notre corps.
C’est donc le « mouvement corrélatif » qui constitue le seul lien entre deux phénomènes qu’autrement nous n’aurions jamais songé à rapprocher.
D’autre part, notre corps, grâce au nombre de ses articulations et de ses muscles, peut prendre une foule de mouvements différents ; mais tous ne sont pas susceptibles de « corriger » une modification des objets extérieurs ; ceux-là seulement en seront capables où tout notre corps, ou tout au moins tous ceux des organes de nos sens qui entrent en jeu se déplacent d’un bloc, c’est-à-dire sans que leurs positions relatives varient, à la façon d’un corps solide.
En résumé :
1° Nous sommes amenés d’abord à distinguer deux catégories de phénomènes :
Les uns, involontaires, non accompagnés de sensations musculaires, sont attribués par nous aux objets extérieurs ; ce sont les changements externes.
Les autres, dont les caractères sont opposés et que nous attribuons aux mouvements de notre propre corps, sont les changements internes.
2° Nous remarquons que certains changements de chacune de ces catégories peuvent être corrigés par un changement corrélatif de l’autre catégorie.
3° Nous distinguons, parmi les changements externes, ceux qui ont ainsi un corrélatif dans l’autre catégorie, c’est ce que nous appelons les déplacements ; et de même parmi les changements internes, nous distinguons ceux qui ont un corrélatif dans la première catégorie.
Ainsi se trouve définie, grâce à cette réciprocité, une classe particulière de phénomènes que nous appelons déplacements. Ce sont les lois de ces phénomènes qui font l’objet de la géométrie.
LOI D’HOMOGÉNÉITÉ
La première de ces lois est celle de l’homogénéité.
Supposons que, par un changement externe α, nous passions de l’ensemble d’impressions A à l’ensemble B, puis que ce changement α soit corrigé par un mouvement corrélatif volontaire β, et de façon que nous soyons ramenés à l’ensemble A.
Supposons maintenant qu’un autre changement externe α’ nous fasse de nouveau passer de l’ensemble A à l’ensemble B.
L’expérience nous apprend alors que ce changement α’ est, comme α, susceptible d’être corrigé par un mouvement corrélatif volontaire β’ et que ce mouvement β’ correspond aux mêmes sensations musculaires que le mouvement β qui corrigeait α.
C’est ce fait que l’on énonce d’ordinaire on disant que l’espace est homogène et isotrope.
On peut dire aussi qu’un mouvement qui s’est produit une fois peut se répéter une seconde fois, une troisième fois, et ainsi de suite, sans que ses propriétés varient.
Dans le chapitre premier, où nous avons étudié la nature du raisonnement mathématique, nous avons vu l’importance qu’on doit attribuer à la possibilité de répéter indéfiniment une même opération.
C’est de cette répétition que le raisonnement mathématique tire sa vertu ; c’est donc grâce à la loi d’homogénéité qu’il a prise sur les faits géométriques.
Pour être complet, il conviendrait d’adjoindre à la loi d’homogénéité une foule d’autres lois analogues dans le détail desquelles je ne veux pas entrer, mais que les mathématiciens résument d’un mot en disant que les déplacements forment « un groupe ».
LE MONDE NON EUCLIDIEN
Si l’espace géométrique était un cadre imposé à chacune de nos représentations, considérée individuellement, il serait impossible de se représenter une image dépouillée de ce cadre, et nous ne pourrions rien changer à notre géométrie.
Mais il n’en est pas ainsi, la géométrie n’est que le résumé des lois suivant lesquelles se succèdent ces images. Rien n’empêche alors d’imaginer une série de représentations, de tout point semblables à nos représentations ordinaires, mais se succédant d’après des lois différentes de celles auxquelles nous sommes accoutumés.
On conçoit alors que des êtres dont l’éducation se ferait dans un milieu où ces lois seraient ainsi bouleversées pourraient avoir une géométrie très différente de la nôtre.
Supposons, par exemple, un monde renfermé dans une grande sphère et soumis aux lois suivantes :
La température n’y est pas uniforme ; elle est maxima au centre, et elle diminue à mesure qu’on s’en éloigne, pour se réduire au zéro absolu quand on atteint la sphère où ce monde est renfermé.
Je précise davantage la loi suivant laquelle varie cette température. Soit R le rayon de la sphère limite ; soit r la distance du point considéré au centre de cette sphère. La température absolue sera proportionnelle à R2 - r2.
Je supposerai de plus que, dans ce monde, tous les corps aient même coefficient de dilatation, de telle façon que la longueur d’une règle quelconque soit proportionnelle à sa température absolue.
Je supposerai enfin qu’un objet transporté d’un point à un autre, dont la température est différente, se met immédiatement en équilibre calorifique avec son nouveau milieu.
Rien dans ces hypothèses n’est contradictoire ou inimaginable.
Un objet mobile deviendra alors de plus en plus petit à mesure qu’on se rapprochera de la sphère limite.
Observons d’abord que, si ce monde est limité au point de vue de notre géométrie habituelle, il paraîtra infini à ses habitants.
Quand ceux-ci, en effet, veulent se rapprocher de la sphère limite, ils se refroidissent et deviennent de plus en plus petits. Les pas qu’ils font sont donc aussi de plus en plus petits, de sorte qu’ils ne peuvent jamais atteindre la sphère limite.
Si, pour nous, la géométrie n’est que l’étude des lois suivant lesquelles se meuvent les solides invariables, pour ces êtres imaginaires, ce sera l’étude des lois suivant lesquelles se meuvent les solides déformés par ces différences de température dont je viens de parler.
Sans doute, dans notre monde, les solides naturels éprouvent également des variations de forme et de volume dues à l’échauffement ou au refroidissement. Mais nous négligeons ces variations en jetant les fondements de la géométrie ; car, outre qu’elles sont très faibles, elles sont irrégulières et nous paraissent par conséquent accidentelles.
Dans ce monde hypothétique, il n’en serait plus de même, et ces variations suivraient des lois régulières et très simples.
D’autre part, les diverses pièces solides dont se composerait le corps de ses habitants, subiraient les mêmes variations de forme et volume.
Je ferai encore une autre hypothèse ; je supposerai que la lumière traverse des milieux diversement réfringents et de telle sorte que l’indice de réfraction soit inversement proportionnel à R2 - r2. Il est aisé de voir que, dans ces conditions, les rayons lumineux ne seraient pas rectilignes, mais circulaires.
Pour justifier ce qui précède, il me reste à montrer que certains changements survenus dans la position des objets extérieurs peuvent être corrigés par des mouvements corrélatifs des êtres sentants qui habitent ce monde imaginaire ; et cela de façon à restaurer l’ensemble primitif des impressions subies par ces êtres sentants.
Supposons en effet qu’un objet se déplace, en se déformant, non comme un solide invariable, mais comme un solide éprouvant des dilatations inégales exactement conformes à la loi de température que j’ai supposée plus haut. Qu’on me permette pour abréger le langage, d’appeler un pareil mouvement déplacement non euclidien.
Si un être sentant se trouve dans le voisinage, ses impressions seront modifiées par le déplacement de l’objet, mais il pourra les rétablir en se mouvant lui-même d’une manière convenable, il suffit que finalement l’ensemble de l’objet et de l’être sentant, considéré comme formant un seul corps, ait éprouvé un de ces déplacements particuliers que je viens d’appeler non euclidiens. Cela est possible si l’on suppose que les membres de ces êtres se dilatent d’après la même loi que les autres corps du monde qu’ils habitent.
Bien qu’au point de vue de notre géométrie habituelle les corps se soient déformés dans ce déplacement et que leurs diverses parties ne se retrouvent plus dans la même situation relative, cependant nous allons voir que les impressions de l’être sentant sont redevenues les mêmes.
En effet, si les distances mutuelles des diverses parties ont pu varier, néanmoins les parties primitivement en contact sont revenues en contact. Les impressions tactiles n’ont donc pas changé.
D’autre part, en tenant compte de l’hypothèse faite plus haut au sujet de la réfraction et de la courbure des rayons lumineux, les impressions visuelles seront aussi restées les mêmes.
Ces êtres imaginaires seront donc comme nous conduits à classer les phénomènes dont ils seront témoins et à distinguer parmi eux, les « changements de position » susceptibles d’être corrigés par un mouvement volontaire corrélatif.
S’ils fondent une géométrie, ce ne sera pas comme la nôtre, l’étude des mouvements de nos solides invariables ; ce sera celle des changements de position qu’ils auront ainsi distingués, et qui ne sont autres que les « déplacements non euclidiens », ce sera la géométrie non Euclidienne.
Ainsi des êtres comme nous, dont l’éducation se ferait dans un pareil monde, n’auraient pas la même géométrie que nous.
LE MONDE À QUATRE DIMENSIONS
De même qu’un monde non euclidien, on peut se représenter un monde à quatre dimensions.
Le sens de la vue, même avec un seul œil, joint aux sensations musculaires relatives aux mouvements du globe oculaire, pourrait suffire pour nous faire connaître l’espace à trois dimensions.
Les images des objets extérieurs viennent se peindre sur la rétine qui est un tableau à deux dimensions ; ce sont des perspectives.
Mais, comme ces objets sont mobiles, comme il en est de même de notre œil, nous voyons successivement diverses perspectives d’un même corps, prises de plusieurs points de vue différents.
Nous constatons en même temps que le passage d’une perspective à une autre est souvent accompagné de sensations musculaires.
Si le passage de la perspective A à la perspective B, et celui de la perspective A’ à la perspective B’ sont accompagnés des mêmes sensations musculaires, nous les rapprochons l’un de l’autre comme des opérations de même nature.
Étudiant ensuite les lois d’après lesquelles se combinent ces opérations, nous reconnaissons qu’elles forment un groupe, qui a même structure que celui des mouvements des solides invariables.
Or nous avons vu que c’est des propriétés de ce groupe que nous avons tiré la notion de l’espace géométrique et celle des trois dimensions.
Nous comprenons ainsi comment l’idée d’un espace à trois dimensions a pu naître du spectacle de ces perspectives, bien que chacune d’elles n’ait que deux dimensions, parce quelles se succèdent suivant certaines lois.
Eh bien, de même qu’on peut faire sur un plan la perspective d’une figure à trois dimensions, on peut faire celle d’une figure à quatre dimensions sur un tableau à trois (ou à deux) dimensions. Ce n’est qu’un jeu pour le géomètre.
On peut même prendre d’une même figure plusieurs perspectives de plusieurs points de vue différents.
Nous pouvons facilement nous représenter ces perspectives puisqu’elles n’ont que trois dimensions.
Imaginons que les diverses perspectives d’un même objet se succèdent les unes aux autres ; que le passage de l’une à l’autre soit accompagné de sensations musculaires.
On considérera bien entendu deux de ces passages comme deux opérations de même nature quand ils seront associés aux mêmes sensations musculaires.
Rien n’empêche alors d’imaginer que ces opérations se combinent suivant telle loi que nous voudrons, par exemple de façon à former un groupe qui ait même structure que celui des mouvements d’un solide invariable à quatre dimensions.
Il n’y a rien là qu’on ne puisse se représenter et pourtant ces sensations sont précisément celles qu’éprouverait un être muni d’une rétine à deux dimensions et qui pourrait se déplacer dans l’espace à quatre dimensions.
C’est dans ce sens qu’il est permis de dire qu’on pourrait se représenter la quatrième dimension.
Il ne serait pas possible de se représenter de cette façon l’espace de M. Hilbert dont nous parlions au chapitre précédent, parce que cet espace n’est plus un continu du second ordre. Il diffère donc beaucoup trop profondément de notre espace ordinaire.
CONCLUSIONS
On voit que l’expérience joue un rôle indispensable dans la genèse de la géométrie ; mais ce serait une erreur d’en conclure que la géométrie est une science expérimentale, même en partie.
Si elle était expérimentale, elle ne serait qu’approximative et provisoire. Et quelle approximation grossière !
La géométrie ne serait que l’étude des mouvements des solides ; mais elle ne s’occupe pas en réalité des solides naturels, elle a pour objet certains solides idéaux, absolument invariables, qui n’en sont qu’une image simplifiée et bien lointaine.
La notion de ces corps idéaux est tirée de toutes pièces de notre esprit et l’expérience n’est qu’une occasion qui nous engage à l’en faire sortir.
Ce qui est l’objet de la géométrie, c’est l’étude d’un « groupe » particulier ; mais le concept général de groupe préexiste dans notre esprit au moins en puissance. Il s’impose à nous, non comme forme de notre sensibilité, mais comme forme de notre entendement.
Seulement, parmi tous les groupes possibles, il faut choisir celui qui sera pour ainsi dire l’étalon auquel nous rapporterons les phénomènes naturels.
L’expérience nous guide dans ce choix qu’elle ne nous impose pas ; elle nous fait reconnaître non quelle est la géométrie la plus vraie, mais quelle est la plus commode.
On remarquera que j’ai pu décrire les mondes fantaisistes que j’ai imaginés plus haut, sans cesser d’employer le langage de la géométrie ordinaire.
Et, en effet, nous n’aurions pas à en changer si nous y étions transportés.
Des êtres qui y feraient leur éducation trouveraient sans doute plus commode de créer une géométrie différente de la nôtre, qui s’adapterait mieux à leurs impressions. Quant à nous, en face des mêmes impressions, il est certain que nous trouverions plus commode de ne pas changer nos habitudes.
1. – Dans les lignes qui précèdent, j’ai déjà à diverses reprises cherché à montrer que les principes de la géométrie ne sont pas des faits expérimentaux et qu’en particulier le postulatum d’Euclide ne saurait être démontré par l’expérience.
Quelque péremptoires que me paraissent les raisons déjà données, je crois devoir insister parce qu’il y a là une idée fausse profondément enracinée dans bien des esprits.
2. – Qu’on réalise un cercle matériel, qu’on en mesure le rayon et la circonférence, et qu’on cherche à voir si le rapport de ces deux longueurs est égal à π, qu’aura-t-on fait ? On aura fait une expérience, non sur les propriétés de l’espace, mais sur celles de la matière avec laquelle on a réalisé ce rond, et de celle dont est fait le mètre qui a servi aux mesures.
3. – La géométrie et l’astronomie. – On a également posé la question d’une autre manière. Si la géométrie de Lobatchevsky est vraie, la parallaxe d’une étoile très éloignée sera finie ; si celle de Riemann est vraie, elle sera négative. Ce sont là des résultats qui semblent accessibles à l’expérience et on a espéré que les observations astronomiques pourraient permettre de décider entre les trois géométries.
Mais ce qu’on appelle ligne droite en astronomie, c’est simplement la trajectoire du rayon lumineux. Si donc, par impossible, on venait à découvrir des parallaxes négatives, ou à démontrer que toutes les parallaxes sont supérieures à une certaine limite, on aurait le choix entre deux conclusions : nous pourrions renoncer à la géométrie euclidienne ou bien modifier les lois de l’optique et admettre que la lumière ne se propage pas rigoureusement en ligne droite.
Inutile d’ajouter que tout le monde regarderait cette solution comme plus avantageuse.
La géométrie euclidienne n’a donc rien à craindre d’expériences nouvelles.
4. – Peut-on soutenir que certains phénomènes, possibles dans l’espace euclidien, seraient impossibles dans l’espace non euclidien, de sorte que l’expérience, en constatant ces phénomènes, contredirait directement l’hypothèse non euclidienne ? Pour moi, une pareille question ne peut se poser. À mon sens elle équivaut tout à fait à la suivante, dont l’absurdité saute aux yeux de tous : y a-t-il des longueurs que l’on peut exprimer en mètres et centimètres, mais que l’on ne saurait mesurer en toises, pieds et pouces, de sorte que l’expérience, en constatant l’existence de ces longueurs, contredirait directement cette hypothèse qu’il y a des toises partagées en six pieds ?
Examinons la question de plus près. Je suppose que la ligne droite possède dans l’espace euclidien deux propriétés quelconques que j’appellerai A et B ; que dans l’espace non euclidien elle possède encore la propriété A, mais ne possède plus la propriété B ; je suppose enfin que, tant dans l’espace euclidien que dans l’espace non euclidien, la ligue droite soit la seule ligne qui possède la propriété A.
S’il en était ainsi, l’expérience pourrait être apte à décider entre l’hypothèse d’Euclide et celle de Lobatchevsky. On constaterait que tel objet concret, accessible à l’expérience, par exemple un pinceau de rayons lumineux, possède la propriété A ; on en conclurait qu’il est rectiligne et on chercherait ensuite s’il possède ou non la propriété B.
Mais il n’en est pas ainsi, il n’existe pas de propriété qui puisse, comme cette propriété A, être un critère absolu permettant de reconnaître la ligne droite et de la distinguer de toute autre ligne.
Dira-t-on par exemple : « cette propriété sera la suivante : la ligne droite est une ligne telle qu’une figure dont fait partie cette ligne ne peut se mouvoir sans que les distances mutuelles de ses points varient et de telle sorte que tous les points de cette ligne restent fixes ? »
Voilà en effet une propriété qui, dans l’espace euclidien ou non euclidien, appartient à la droite et n’appartient qu’à elle. Mais comment reconnaîtra-t-on par expérience si elle appartient à tel ou tel objet concret ? Il faudra mesurer des distances, et comment saura-t-on que telle grandeur concrète que j’ai mesurée avec mon instrument matériel représente bien la distance abstraite ?
On n’a fait que reculer la difficulté.
En réalité la propriété que je viens d’énoncer n’est pas une propriété de la ligne droite seule, c’est une propriété de la ligne droite et de la distance. Pour qu’elle pût servir de critère absolu, il faudrait que l’on pût établir non seulement qu’elle n’appartient pas aussi à une autre ligne que la ligne droite et à la distance, mais encore qu’elle n’appartient pas à une autre ligne que la ligne droite et à une autre grandeur que la distance. Or cela n’est pas vrai.
Il est donc impossible d’imaginer une expérience concrète qui puisse être interprétée dans le système euclidien et qui ne puisse pas l’être dans le système lobatchevskien, de sorte que je puis conclure :
Aucune expérience ne sera jamais en contradiction avec le postulatum d’Euclide ; en revanche aucune expérience ne sera jamais en contradiction avec le postulatum de Lobatchevsky.
5. Mais il ne suffit pas que la géométrie euclidienne (ou non euclidienne) ne puisse jamais être directement contredite par l’expérience. Ne pourrait-il pas se faire qu’elle ne puisse s’accorder avec l’expérience qu’en violant le principe de raison suffisante et celui de la relativité de l’espace ?
Je m’explique : considérons un système matériel quelconque ; nous aurons à envisager d’une part « l’état » des divers corps de ce système (par exemple leur température, leur potentiel électrique, etc.), et d’autre part leur position dans l’espace ; et parmi les données qui permettent de définir cette position, nous distinguerons encore les distances mutuelles de ces corps qui définissent leurs positions relatives, et les conditions qui définissent la position absolue du système et son orientation absolue dans l’espace.
Les lois des phénomènes qui se produiront dans ce système pourront dépendre de l’état de ces corps et de leurs distances mutuelles ; mais, à cause de la relativité et de la passivité de l’espace, elles ne dépendront pas de la position et de l’orientation absolues du système.
En d’autres termes, l’état des corps et leurs distances mutuelles à un instant quelconque dépendront seulement de l’état de ces mêmes corps et de leurs distances mutuelles à l’instant initial, mais ne dépendront nullement de la position absolue initiale du système et de son orientation absolue initiale. C’est ce que je pourrai appeler, pour abréger le langage, la loi de relativité.
J’ai parlé jusqu’ici comme un géomètre euclidien. Mais je l’ai dit, une expérience, quelle qu’elle soit, comporte une interprétation dans l’hypothèse euclidienne ; mais elle en comporte une également dans l’hypothèse non euclidienne. Eh bien, nous avons fait une série d’expériences, nous les avons interprétées dans l’hypothèse euclidienne, et nous avons reconnu que ces expériences ainsi interprétées ne violent pas cette « loi de relativité ».
Nous les interprétons maintenant dans l’hypothèse non euclidienne : cela est toujours possible ; seulement les distances non euclidiennes de nos différents corps dans cette interprétation nouvelle ne seront généralement pas les mêmes que les distances euclidiennes dans l’interprétation primitive.
Nos expériences, interprétées de cette manière nouvelle, seront-elles encore d’accord avec notre « loi de relativité » ? Et si cet accord n’avait pas lieu, n’aurait-on pas encore le droit de dire que l’expérience a prouvé la fausseté de la géométrie non euclidienne.
Il est aisé de voir que cette crainte est vaine ; en effet, pour qu’on puisse appliquer la loi de relativité en toute rigueur, il faut l’appliquer à l’univers entier. Car si on considérait seulement une partie de cet univers, et si la position absolue de cette partie venait à varier, les distances aux autres corps de l’univers varieraient également, leur influence sur la partie de l’univers envisagée pourrait par conséquent augmenter ou diminuer, ce qui pourrait modifier les lois des phénomènes qui s’y passent.
Mais si notre système est l’univers entier, l’expérience est impuissante à nous renseigner sur sa position et son orientation absolues dans l’espace. Tout ce que nos instruments, si perfectionnés qu’ils soient, pourront nous faire connaître, ce sera l’état des diverses parties de l’univers et leurs distances mutuelles.
De sorte que notre loi de relativité pourra s’énoncer ainsi :
Les lectures que nous pourrons faire sur nos instruments, à un instant quelconque, dépendront seulement des lectures que nous aurions pu faire sur ces mêmes instruments à l’instant initial.
Or un pareil énoncé est indépendant de toute interprétation des expériences. Si la loi est vraie dans l’interprétation euclidienne, elle sera vraie aussi dans l’interprétation non-euclidienne.
Qu’on me permette à ce sujet une petite digression. J’ai parlé plus haut des données qui définissent la position des divers corps de système ; j’aurais dû parler également de celles qui définissent leurs vitesses ; j’aurais eu alors à distinguer la vitesse avec laquelle varient les distance mutuelles des divers corps ; et d’autre part les vitesses de translation et de rotation du système, c’est-à-dire les vitesses avec lesquelles varient sa position et son orientation absolues.
Pour que l’esprit fût pleinement satisfait, il aurait fallu que la loi de relativité pût s’énoncer ainsi :
L’état des corps et leurs distances mutuelles à un instant quelconque, ainsi que les vitesses avec lesquelles varient ces distances à ce même instant, dépendront seulement de l’état de ces corps et de leurs distances mutuelles à l’instant initial, ainsi que des vitesses avec lesquelles variaient ces distances à cet instant initial, mais elles ne dépendront ni de la position absolue initiale du système, ni de son orientation absolue, ni des vitesses avec lesquelles variaient cette position et cette orientation absolues à l’instant initial.
Malheureusement la loi ainsi énoncée n’est pas d’accord avec les expériences, au moins telles qu’on les interprète d’ordinaire.
Qu’un homme soit transporté sur une planète dont le ciel serait constamment couvert d’un épais rideau de nuages, de telle façon qu’on ne puisse jamais apercevoir les autres astres ; sur cette planète on vivra comme si elle était isolée dans l’espace. Cet homme pourra cependant s’apercevoir qu’elle tourne, soit en mesurant l’aplatissement (ce qu’on fait ordinairement en s’aidant d’observations astronomiques, mais ce qui pourrait se faire par des moyens purement géodésiques), soit en répétant l’expérience du pendule de Foucault. La rotation absolue de cette planète pourrait donc être mise en évidence.
Il y a là un fait qui choque le philosophe, mais que le physicien est bien forcé d’accepter.
On sait que, de ce fait, Newton a conclu à l’existence de l’espace absolu ; je ne puis en aucune façon adopter cette manière de voir, j’expliquerai pourquoi dans la troisième partie. Pour le moment je n’ai pas voulu aborder cette difficulté.
J’ai donc dû me résigner, dans l’énoncé de la loi de relativité, à confondre les vitesses de toutes sortes parmi les données qui définissent l’état des corps.
Quoi qu’il en soit, cette difficulté est la même pour la géométrie d’Euclide et pour celle de Lobatchevsky ; je n’ai donc pas à m’en inquiéter et je n’en ai parlé qu’incidemment.
Ce qui importe, c’est la conclusion : l’expérience ne peut décider entre Euclide et Lobatchevsky.
En résumé, de quelque façon qu’on se retourne, il est impossible de découvrir à l’empirisme géométrique un sens raisonnable.
6. – Les expériences ne nous font connaître que les rapports des corps entre eux ; aucune d’elles ne porte, ni ne peut porter, sur les rapports des corps avec l’espace, ou sur les rapports mutuels des diverses parties de l’espace.
« Oui, répondez-vous à cela, une expérience unique est insuffisante, parce qu’elle ne me donne qu’une seule équation avec plusieurs inconnues ; mais quand j’aurai fait assez d’expériences, j’aurai assez d’équations pour calculer toutes mes inconnues. »
Connaître la hauteur du grand mât, cela ne suffit pas pour calculer l’âge du capitaine. Quand vous aurez mesuré tous les morceaux de bois du navire, vous aurez beaucoup d’équations, mais vous ne connaîtrez pas mieux cet âge. Toutes vos mesures ayant porté sur vos morceaux de bois ne peuvent rien vous révéler que ce qui concerne ces morceaux de bois. De même vos expériences, quelque nombreuses qu’elles soient, n’ayant porté que sur les rapports des corps entre eux, ne nous révéleront rien sur les rapports mutuels des diverses parties de l’espace.
7. – Direz-vous que, si les expériences portent sur les corps, elles portent du moins sur les propriétés géométriques des corps ?
Et d’abord, qu’entendez-vous par propriétés géométriques des corps ? Je suppose qu’il s’agit des rapports des corps avec l’espace ; ces propriétés sont donc inaccessibles à des expériences qui ne portent que sur les rapports des corps entre eux. Cela seul suffirait pour montrer que ce n’est pas d’elles qu’il peut être question.
Commençons toutefois par nous entendre sur le sens de ce mot : propriétés géométriques des corps. Quand je dis qu’un corps se compose de plusieurs parties, je suppose que je n’énonce pas là une propriété géométrique, et cela resterait vrai, même si je convenais de donner le nom impropre de points aux parties les plus petites que j’envisage.
Quand je dis que telle partie de tel corps est en contact avec telle partie de tel autre corps, j’énonce une proposition qui concerne les rapports mutuels de ces deux corps et non pas leurs rapports avec l’espace.
Je suppose que vous m’accorderez que ce ne sont pas là des propriétés géométriques ; je suis sûr au moins que vous m’accorderez que ces propriétés sont indépendantes de toute connaissance de la géométrie métrique.
Cela posé, j’imagine que l’on ait un corps solide formé de huit tiges minces de fer OA, OB, OC, OD, OE, OF, OG, OH, réunies par une de leurs extrémités O. Nous aurons d’autre part un second corps solide, par exemple un morceau de bois sur lequel on remarquera trois petites taches d’encre que j’appellerai α, β, γ. Je suppose ensuite que l’on constate que l’on peut amener en contact : αβγ avec AGO (je veux dire par là α avec A, en même temps que β avec G et γ avec O), puisqu’on peut amener successivement en contact αβγ avec BGO, CGO, DGO, EGO, FGO, puis avec AHO, BHO, CHO, DHO, EHO, FHO, puis αγ successivement avec AB, BC, CD, DE, EF, FA.
Voilà des constatations que l’on peut faire sans avoir d’avance aucune notion sur la forme ou sur les propriétés métriques de l’espace. Elles ne portent nullement sur les « propriétés géométriques des corps ». Et ces constatations ne seront pas possibles si les corps sur lesquels on a expérimenté se meuvent suivant un groupe ayant même structure que le groupe lobatchevskien (je veux dire d’après les mêmes lois que les corps solides dans la géométrie de Lobatchevsky). Elles suffisent donc pour prouver que ces corps se meuvent suivant le groupe euclidien, ou tout au moins qu’ils ne se meuvent pas suivant le groupe lobatchevskien.
Qu’elles soient compatibles avec le groupe euclidien, c’est ce qu’il est aisé de voir.
Car on pourrait les faire si le corps αβγ était un solide invariable de notre géométrie ordinaire présentant la forme d’un triangle rectangle et si les points A B C D E F G H étaient les sommets d’un polyèdre formé de deux pyramides hexagonales régulières de notre géométrie ordinaire, ayant pour base commune A B C D E F et pour sommets l’une G et l’autre H.
Supposons maintenant qu’au lieu des constatations précédentes, on observe qu’on peut comme tout à l’heure appliquer αβγ successivement sur AGO, BGO, CGO, DGO, EGO, FGO, AHO, BHO, CHO, DHO, EHO, FHO, puis qu’on peut appliquer αβ (et non plus αγ successivement sur AB, BC, CD, DE, EF et FA.
Ce sont les constatations que l’on pourrait faire si la géométrie non euclidienne était vraie, si les corps αβγ, O A B C D E F G H étaient des solides invariables, si le premier était un triangle rectangle et le second une double pyramide hexagonale régulière de dimensions convenables.
Ces constatations nouvelles ne sont donc pas possibles si les corps se meuvent suivant le groupe euclidien ; mais elles le deviennent si l’on suppose que les corps se meuvent suivant le groupe lobatchevskien. Elles suffiraient donc (si on les faisait) pour prouver que les corps en question ne se meuvent pas suivant le groupe euclidien.
Ainsi, sans faire aucune hypothèse sur la forme, sur la nature de l’espace, sur les rapports des corps avec l’espace, sans attribuer aux corps aucune propriété géométrique, j’ai fait des constatations qui m’ont permis de montrer dans un cas que les corps expérimentés se meuvent suivant un groupe dont la structure est euclidienne, dans l’autre cas qu’ils se meuvent suivant un groupe dont la structure est lobatchevskienne.
Et qu’on ne dise pas que le premier ensemble de constatations constituerait une expérience prouvant que l’espace est euclidien, et le second une expérience prouvant que l’espace est non euclidien.
Et en effet on pourrait imaginer (je dis imaginer) des corps se mouvant de manière à rendre possible la seconde série de constatations. Et la preuve c’est que le premier mécanicien venu pourrait en construire, s’il voulait s’en donner la peine et y mettre le prix. Vous n’en conclurez pas pourtant que l’espace est non euclidien.
Et même, comme les corps solides ordinaires continueraient à exister quand le mécanicien aurait construit les corps étranges dont je viens de parler, il faudrait conclure que l’espace est à la fois euclidien et non euclidien.
Supposons par exemple que nous ayons une grande sphère de rayon R et que la température décroisse du centre à la surface de cette sphère suivant la loi dont j’ai parlé en décrivant le monde non euclidien.
Nous pourrions avoir des corps dont la dilatation sera négligeable et qui se comporteront comme des solides invariables ordinaires ; et d’autre part des corps très dilatables et qui se comporteraient comme des solides non euclidiens. Nous pourrions avoir deux doubles pyramides O A B C D E F G H et O’ A’ B’ C’ D’ E’ F’ G’ H’ et deux triangles αβγ et α’β’γ’. La première double pyramide serait rectiligne et la seconde curviligne ; le triangle αβγ serait fait d’une matière indilatable et l’autre d’une matière très dilatable.
On pourrait alors faire les premières constatations avec la double pyramide OAH et le triangle αβγ, et les secondes avec la double pyramide O’H’A’ et le triangle α’β’γ’. Et alors l’expérience semblerait prouver d’abord que la géométrie euclidienne est vraie et ensuite qu’elle est fausse.
Les expériences ont donc porté, non sur l’espace, mais sur les corps.
8. – Pour être complet, je devrais parler d’une question très délicate et qui demanderait de longs développements ; je me bornerai à résumer ici ce que j’ai exposé dans la Revue de Métaphysique et de Morale et dans The Monist. Quand nous disons que l’espace a trois dimensions, que voulons-nous dire ?
Nous avons vu l’importance de ces « changements internes » qui nous sont révélés par nos sensations musculaires. Ils peuvent servir à caractériser les diverses attitudes de notre corps. Prenons arbitrairement pour origine une de ces attitudes A. Quand nous passons de cette attitude initiale à une autre attitude quelconque B, nous éprouvons une série S de sensations musculaires et cette série S définira B. Observons toutefois que nous regarderons souvent deux séries S et S’ comme définissant une même attitude B (puisque les attitudes initiale et finale A et B restant les mêmes, les attitudes intermédiaires et les sensations correspondantes peuvent différer). Comment donc reconnaîtrons-nous l’équivalence de ces deux séries ? Parce qu’elles peuvent servir à compenser un même changement externe, ou plus généralement parce que, quand il s’agit de compenser un changement externe, une des séries peut être remplacée par l’autre.
Parmi ces séries, nous avons distingué celles qui peuvent à elles seules compenser un changement externe et que nous avons appelées « déplacements ». Comme nous ne pouvons discerner deux déplacements qui sont trop voisins, l’ensemble de ces déplacements présente les caractères d’un continu physique ; l’expérience nous enseigne que ce sont ceux d’un continu physique à six dimensions ; mais nous ne savons pas encore combien l’espace lui-même a de dimensions, il nous faut résoudre une autre question.
Qu’est-ce qu’un point de l’espace ? Tout le monde croit le savoir, mais c’est une illusion. Ce que nous voyons, quand nous cherchons à nous représenter un point de l’espace, c’est une tache noire sur du papier blanc, une tache de craie sur un tableau noir, c’est toujours un objet. La question doit donc être entendue comme il suit :
Que veux-je dire quand je dis que l’objet B est au même point qu’occupait tout à l’heure l’objet A ? On encore quel critère me permettra de le reconnaître ?
Je veux dire que, bien que je n’aie pas bougé (ce que m’enseigne mon sens musculaire), mon premier doigt, qui tout à l’heure touchait l’objet A, touche maintenant l’objet B. J’aurais pu me servir d’autres critères, par exemple d’un autre doigt ou du sens de la vue. Mais le premier critère est suffisant ; je sais que s’il répond oui, tous les autres critères donneront la même réponse. Je le sais par expérience, je ne puis le savoir à priori. C’est aussi pour cela que je dis que le toucher ne peut s’exercer à distance, c’est une autre manière d’énoncer le même fait expérimental. Et, si je dis au contraire que la vue s’exerce à distance, cela veut dire que le critère fourni par la vue peut répondre oui, tandis que les autres répondent non.
Et en effet l’objet, bien que s’étant éloigné, peut former son image au même point de la rétine. La vue répond oui, l’objet est resté au même point, et le toucher répond non, car mon doigt qui tout à l’heure touchait l’objet, ne le touche plus maintenant. Si l’expérience nous avait montré qu’un doigt peut répondre non quand l’autre dit oui, nous dirions de même que le toucher s’exerce à distance.
En résumé, pour chaque attitude de mon corps, mon premier doigt détermine un point et c’est cela, et cela seulement qui définit un point de l’espace.
À chaque attitude correspond de la sorte un point ; mais il arrive souvent que le même point correspond à plusieurs attitudes différentes (c’est dans ce cas que nous disons que notre doigt n’a pas bougé, mais que le reste du corps a bougé). Nous distinguons donc parmi les changement d’attitude ceux où le doigt ne bouge pas. Comment y sommes-nous conduits ? C’est parce que souvent nous remarquons que dans ces changements l’objet qui est au contact du doigt ne quitte pas ce contact.
Rangeons donc dans une même classe toutes les attitudes qui se déduisent les unes des autres par un des changements que nous avons ainsi distingués. À toutes les attitudes d’une même classe correspondra le même point de l’espace. Donc à chaque classe correspondra un point et à chaque point une classe. Mais on peut dire que, ce que l’expérience atteint, ce n’est pas le point, c’est cette classe de changements, ou mieux la classe de sensations musculaires correspondante.
Et alors quand nous disons que l’espace a trois dimensions, nous voulons dire simplement que l’ensemble de ces classes nous apparaît avec les caractères d’un continu physique à trois dimensions.
On pourrait être tenté de conclure que c’est l’expérience qui nous a appris combien l’espace a de dimensions. Mais en réalité ici encore nos expériences ont porté, non sur l’espace, mais sur notre corps et ses rapports avec les objets voisins. De plus elles sont excessivement grossières.
Dans notre esprit préexistait l’idée latente d’un certain nombre de groupes ; ce sont ceux dont Lie a fait la théorie. Lequel choisirons-nous pour en faire une sorte d’étalon auquel nous comparerons les phénomènes naturels ? Et, ce groupe choisi, quel est celui de ses sous-groupes que nous prendrons pour caractériser un point de l’espace ? L’expérience nous a guidés en nous montrant quel choix s’adapte le mieux aux propriétés de notre corps. Mais son rôle s’est borné là.
L’expérience ancestrale.
On a dit souvent que si l’expérience individuelle n’a pu créer la géométrie, il n’en est pas de même de l’expérience ancestrale. Mais qu’entend-on par là ? Veut-on dire que nous ne pouvons démontrer expérimentalement le postulatum d’Euclide, mais que nos ancêtres ont pu le faire ? Pas le moins du monde. On veut dire que par sélection naturelle notre esprit s’est adapté aux conditions du monde extérieur, qu’il a adopté la géométrie la plus avantageuse à l’espèce ; ou en d’autres termes la plus commode. Cela est tout à fait conforme à nos conclusions, la géométrie n’est pas vraie, elle est avantageuse.
Les Anglais enseignent la mécanique comme une science expérimentale ; sur le continent, on l’expose toujours plus ou moins comme une science déductive et a priori. Ce sont les Anglais qui ont raison, cela va sans dire ; mais comment a-t-on pu persévérer si longtemps dans d’autres errements ? Pourquoi les savants continentaux, qui ont cherché à échapper aux habitudes de leurs devanciers, n’ont-ils pas pu le plus souvent s’en affranchir complètement ?
D’autre part, si les principes de la mécanique n’ont d’autre source que l’expérience, ne sont-ils donc qu’approchés et provisoires ? Des expériences nouvelles ne pourront-elles un jour nous conduire à les modifier ou même à les abandonner ?
Telles sont les questions qui se posent naturellement, et la difficulté de la solution provient principalement de ce que les traités de mécanique ne distinguent pas bien nettement ce qui est expérience, ce qui est raisonnement mathématique, ce qui est convention, ce qui est hypothèse.
Ce n’est pas tout :
1° Il n’y a pas d’espace absolu et nous ne concevons que des mouvements relatifs ; cependant on énonce le plus souvent les faits mécaniques comme s’il y avait un espace absolu auquel on pourrait les rapporter.
2° Il n’y a pas de temps absolu ; dire que deux durées sont égales, c’est une assertion qui n’a par elle-même aucun sens et qui n’en peut acquérir un que par convention.
3° Non seulement nous n’avons pas l’intuition directe de l’égalité de deux durées, mais nous n’avons même pas celle de la simultanéité de deux événements qui se produisent sur des théâtres différents ; c’est ce que j’ai expliqué dans un article intitulé la Mesure du temps[3].
4° Enfin notre géométrie euclidienne n’est elle-même qu’une sorte de convention de langage ; nous pourrions énoncer les faits mécaniques en les rapportant à un espace non euclidien qui serait un repère moins commode, mais tout aussi légitime que notre espace ordinaire ; l’énoncé deviendrait ainsi beaucoup plus compliqué ; mais il resterait possible.
Ainsi l’espace absolu, le temps absolu, la géométrie même ne sont pas des conditions qui s’imposent à la mécanique ; toutes ces choses ne préexistent pas plus à la mécanique que la langue française ne préexiste logiquement aux vérités que l’on exprime en français.
On pourrait chercher à énoncer les lois fondamentales de la mécanique dans un langage qui serait indépendant de toutes ces conventions ; on se rendrait mieux compte ainsi sans doute de ce que ces lois sont en soi ; c’est ce que M. Andrade a tenté de faire, au moins en partie, dans ses Leçons de Mécanique physique.
L’énoncé de ces lois deviendrait bien entendu beaucoup plus compliqué, puisque toutes ces conventions ont été précisément imaginées pour abréger et simplifier cet énoncé.
Quant à moi, sauf en ce qui concerne l’espace absolu, je laisserai de côté toutes ces difficultés ; non que je les méconnaisse, loin de la ; mais nous en avons suffisamment examinées dans les deux premières parties.
J’admettrai donc provisoirement le temps absolu et la géométrie euclidienne.
LE PRINCIPE D’INERTIE
Un corps qui n’est soumis à aucune force ne peut avoir qu’un mouvement rectiligne et uniforme.
Est-ce la une vérité qui s’impose à priori à l’esprit ? S’il en était ainsi, comment les Grecs l’auraient-ils méconnue ? Comment auraient-ils pu croire que le mouvement s’arrête dès que cesse la cause qui lui avait donné naissance ? ou bien encore que tout corps, si rien ne vient le contrarier, prendra un mouvement circulaire, le plus noble de tous les mouvements ?
Si l’on dit que la vitesse d’un corps ne peut changer, s’il n’y a pas de raison pour qu’elle change, ne pourrait-on soutenir tout aussi bien que la position de ce corps ne peut changer, ou que la courbure de sa trajectoire ne peut changer, si une cause extérieure ne vient les modifier ?
Le principe d’inertie, qui n’est pas une vérité a priori, est-il donc un fait expérimental ? Mais a-t-on jamais expérimenté sur des corps soustraits à l’action de toute force, et si on l’a fait, comment a-t-on su que ces corps n’étaient soumis à aucune force ? On cite ordinairement l’exemple d’une bille roulant un temps très long sur une table de marbre ; mais pourquoi disons-nous qu’elle n’est soumise à aucune force ? Est-ce parce qu’elle est trop éloignée de tous les autres corps pour pouvoir en éprouver aucune action sensible ? Elle n’est pas cependant plus loin de la terre que si on la lançait librement dans l’air ; et chacun sait que dans ce cas elle subirait l’influence de la pesanteur due à l’attraction de la terre.
Les professeurs de mécanique ont l’usage de passer rapidement sur l’exemple de la bille ; mais ils ajoutent que le principe d’inertie est vérifié indirectement par ses conséquences. Ils s’expriment mal ; ils veulent dire évidemment que l’on peut vérifier diverses conséquences d’un principe plus général, dont celui de l’inertie n’est qu’un cas particulier.
Je proposerai pour ce principe général l’énoncé suivant :
L’accélération d’un corps ne dépend que de la position de ce corps et des corps voisins et de leurs vitesses.
Les mathématiciens diraient que les mouvements de toutes les molécules matérielles de l’univers dépendent d’équations différentielles du second ordre.
Pour faire comprendre que c’est bien là la généralisation naturelle de la loi d’inertie, je demanderai qu’on me permette une fiction. La loi d’inertie, je l’ai dit plus haut, ne s’impose pas à nous à priori ; d’autres lois seraient, tout aussi bien qu’elle, compatibles avec le principe de raison suffisante. Si un corps n’est soumis à aucune force, au lieu de supposer que sa vitesse ne change pas, on pourrait supposer que c’est sa position, ou encore son accélération qui ne doit pas changer.
Eh bien, imaginons pour un instant que l’une de ces deux lois hypothétiques soit celle de la nature et remplace notre loi d’inertie. Quelle en serait la généralisation naturelle ? Une minute de réflexion nous le fera voir.
Dans le premier cas, on devrait supposer que la vitesse d’un corps ne dépend que de sa position et de celle des corps voisins ; dans le second cas, que la variation de l’accélération d’un corps ne dépend que de la position de ce corps et des corps voisins, de leurs vitesses et de leurs accélérations.
Ou bien, pour parler le langage mathématique, les équations différentielles du mouvement seraient du premier ordre dans le premier cas, et du troisième ordre dans le deuxième cas.
Modifions un peu notre fiction. Je suppose un monde analogue à notre système solaire, mais où, par un singulier hasard, les orbites de toutes les planètes soient sans excentricité et sans inclinaison. Je suppose de plus que les masses de ces planètes soient trop faibles pour que leurs perturbations mutuelles soient sensibles. Les astronomes qui habiteraient l’une de ces planètes ne manqueraient pas de conclure que l’orbite d’un astre ne peut être que circulaire et parallèle à un certain plan ; la position d’un astre à un instant donné suffirait alors pour déterminer sa vitesse et toute sa trajectoire. La loi d’inertie qu’ils adopteraient serait la première des deux lois hypothétiques dont je viens de parler.
Imaginons maintenant que ce système vienne un jour à être traversé avec une grande vitesse par un corps de grande masse, venu de constellations lointaines. Toutes les orbites seront profondément troublées. Nos astronomes ne seraient pas encore trop étonnés ; ils devineraient bien que cet astre nouveau est seul coupable de tout le mal. Mais, diraient-ils, quand il se sera éloigné, l’ordre se rétablira de lui-même ; sans aucun doute les distances des planètes au soleil ne redeviendront pas ce qu’elles étaient avant le cataclysme, mais quand l’astre perturbateur ne sera plus là, les orbites redeviendront circulaires.
Ce serait seulement quand le corps troublant serait loin et quand cependant les orbites, au lieu de redevenir circulaires, deviendraient elliptiques, ce serait alors seulement que ces astronomes s’apercevraient de leur erreur et de la nécessité de refaire toute leur mécanique.
J’ai un peu insisté sur ces hypothèses ; car il me semble qu’on ne peut bien comprendre ce que c’est que notre loi d’inertie généralisée, qu’en l’opposant à une hypothèse contraire.
Eh bien maintenant, cette loi d’inertie généralisée, a-t-elle été vérifiée par l’expérience et peut-elle l’être ? Quand Newton a écrit les Principes, il regardait bien cette vérité comme acquise et démontrée expérimentalement. Elle l’était à ses yeux, non seulement par l’idole anthropomorphique dont nous reparlerons, mais par les travaux de Galilée. Elle l’était aussi par les lois de Képler elles-mêmes ; d’après ces lois, en effet, la trajectoire d’une planète est entièrement déterminée par sa position et par sa vitesse initiales ; c’est bien là ce qu’exige notre principe d’inertie généralisé.
Pour que ce principe ne fût vrai qu’en apparence, pour qu’on pût craindre d’avoir un jour à le remplacer par un des principes analogues que je lui opposais tout à l’heure, il faudrait que nous eussions été trompés par quelque surprenant hasard, comme celui qui, dans la fiction que je développais plus haut, avait induit en erreur nos astronomes imaginaires.
Une pareille hypothèse est trop invraisemblable pour que l’on s’y arrête. Personne ne croira qu’il puisse y avoir de tels hasards ; sans doute la probabilité pour que deux excentricités soient précisément toutes deux nulles, aux erreurs près d’observation, n’est pas plus petite que la probabilité pour que l’une soit précisément égale à 0,1 par exemple et l’autre à 0,2 aux erreurs près d’observation. La probabilité d’un événement simple n’est pas plus petite que celle d’un événement compliqué ; et pourtant si le premier se produit, nous ne voudrons pas croire que la nature ait fait exprès de nous tromper. L’hypothèse d’une erreur de ce genre étant écartée, on peut donc admettre qu’en ce qui concerne l’astronomie, notre loi a été vérifiée par l’expérience.
Mais l’astronomie n’est pas la physique tout entière.
Ne pourrait-on craindre que quelque expérience nouvelle ne vint un jour mettre la loi en défaut dans quelque canton de la Physique ? Une loi expérimentale est toujours soumise à la révision ; on doit toujours s’attendre à la voir remplacée par une autre loi plus précise.
Personne cependant ne redoute sérieusement que celle dont nous parlons doive être jamais abandonnée ou amendée. Pourquoi ? Précisément parce qu’on ne pourra jamais la soumettre à une épreuve décisive.
Tout d’abord, pour que cette épreuve fût complète, il faudrait qu’après un certain temps tous les corps de l’univers reviennent à leurs positions initiales avec leurs vitesses initiales. On verrait alors si, à partir de ce moment, ils reprennent les trajectoires qu’ils ont déjà suivies une fois.
Mais cette épreuve est impossible, on ne peut la faire que partiellement, et, si bien qu’on la fasse, il y aura toujours quelques corps qui ne reviendront pas à leur position initiale ; ainsi toute dérogation à la loi trouvera facilement son explication.
Ce n’est pas tout : en Astronomie, nous voyons les corps dont nous étudions les mouvements, et nous admettons le plus souvent qu’ils ne subissent pas l’action d’autres corps invisibles. Dans ces conditions, il faut bien que notre loi se vérifie ou ne se vérifie pas.
Mais en Physique, il n’en est pas de même : si les phénomènes physiques sont dus à des mouvements, c’est aux mouvements de molécules que nous ne voyons pas. Si alors l’accélération d’un des corps que nous voyons nous paraît dépendre d’autre chose que des positions ou des vitesses des autres corps visibles ou des molécules invisibles dont nous avons été amenés antérieurement à admettre l’existence, rien ne nous empêchera de supposer que cette autre chose est la position ou la vitesse d’autres molécules dont nous n’avions pas jusque-là soupçonné la présence. La loi se trouvera sauvegardée.
Qu’on me permette d’employer un instant le langage mathématique pour exprimer la même pensée sous une autre forme. Je suppose que nous observions n molécules et que nous constations que leurs 3n coordonnées satisfont à un système de 3n équations différentielles du quatrième ordre (et non du deuxième ordre, comme l’exigerait la loi d’inertie). Nous savons qu’en introduisant 3n variables auxiliaires, un système de 3n équations du quatrième ordre peut être ramené à un système de 6n équations de deuxième ordre. Si alors nous supposons que ces 3n variables auxiliaires représentent les coordonnées de n molécules invisibles, le résultat est de nouveau conforme à la loi d’inertie.
En résumé, cette loi, vérifiée expérimentalement dans quelques cas particuliers, peut être étendue sans crainte aux cas les plus généraux, parce que nous savons que dans ces cas généraux l’expérience ne peut plus ni la confirmer, ni la contredire.
LA LOI DE L’ACCÉLÉRATION
L’accélération d’un corps est égale à la force qui agit sur lui divisée par sa masse.
Cette loi peut-elle être vérifiée par l’expérience ? Pour cela, il faudrait mesurer les trois grandeurs qui figurent dans l’énoncé : accélération, force et masse.
J’admets qu’on puisse mesurer l’accélération, parce que je passe sur la difficulté provenant de la mesure du temps. Mais comment mesurer la force, ou la masse ? Nous ne savons même pas ce que c’est.
Qu’est-ce que la masse ? C’est, répond Newton, le produit du volume par la densité. – Il vaudrait mieux dire, répondent Thomson et Tait, que la densité est le quotient de la masse par le volume. – Qu’est-ce que la force ? C’est, répond Lagrange, une cause qui produit le mouvement d’un corps ou qui tend à le reproduire. – C’est, dira Kirchhoff, le produit de la masse par l’accélération. Mais alors, pourquoi ne pas dire que la masse est le quotient de la force par l’accélération ?
Ces difficultés sont inextricables.
Quand on dit que la force est la cause d’un mouvement, on fait de la métaphysique, et cette définition, si on devait s’en contenter, serait absolument stérile. Pour qu’une définition puisse servir à quelque chose, il faut qu’elle nous apprenne à mesurer la force ; cela suffit d’ailleurs, il n’est nullement nécessaire qu’elle nous apprenne ce que c’est que la force en soi, ni si elle est la cause ou l’effet du mouvement.
Il faut donc définir d’abord l’égalité de deux forces. Quand dira-t-on que deux forces sont égales ? C’est, répondra-t-on, quand, appliquées à une même masse, elles lui impriment une même accélération, ou quand, opposées directement l’une à l’autre, elles se font équilibre. Cette définition n’est qu’un trompe-l’œil. On ne peut pas décrocher une force appliquée à un corps pour l’accrocher à un autre corps, comme on décroche une locomotive pour l’atteler à un autre train. Il est donc impossible de savoir quelle accélération telle force, appliquée à tel corps, imprimerait à tel autre corps, si elle lui était appliquée. Il est impossible de savoir comment se comporteraient deux forces qui ne sont pas directement opposées, si elles étaient directement opposées.
C’est cette définition que l’on cherche à matérialiser, pour ainsi dire, quand on mesure une force avec un dynamomètre, ou en l’équilibrant par un poids. Deux forces F et F’, que je supposerai verticales et dirigées de bas en haut pour simplifier, sont respectivement appliquées à deux corps C et C’ ; je suspends un même corps pesant P d’abord au corps C, puis au corps C’ ; si l’équilibre a lieu dans les deux cas, je conclurai que les deux forces F et F’ sont égales entre elles, puisqu’elles sont égales toutes deux au poids du corps P.
Mais suis-je sûr que le corps P a conservé le même poids quand je l’ai transporté du premier corps au second ? Loin de là, je suis sûr du contraire ; je sais que l’intensité de la pesanteur varie d’un point à un autre, et qu’elle est plus forte, par exemple, au pôle qu’à l’équateur. Sans doute la différence est très faible et, dans la pratique, je n’en tiendrai pas compte, mais une définition bien faite devrait avoir une rigueur mathématique : cette rigueur n’existe pas. Ce que je dis du poids s’appliquerait évidemment à la force du ressort d’un dynamomètre, que la température et une foule de circonstances peuvent faire varier.
Ce n’est pas tout : on ne peut pas dire que le poids du corps P soit appliqué au corps C et équilibre directement la force F. Ce qui est appliqué au corps C, c’est l’action A du corps P sur le corps C ; le corps P est soumis de son côté, d’une part à son poids, d’autre part à la réaction R du corps C sur P. En définitive, la force F est égale à la force A, parce qu’elle lui fait équilibre ; la force A est égale à R, en vertu du principe de l’égalité de l’action et de la réaction ; enfin, la force R est égale au poids de P, parce qu’elle lui fait équilibre. C’est de ces trois égalités que nous déduisons comme conséquence l’égalité de F et du poids de P.
Nous sommes donc obligés de faire intervenir dans la définition de l’égalité de deux forces, le principe même de l’égalité de l’action et de la réaction ; à ce compte, ce principe ne devrait plus être regardé comme une loi expérimentale, mais comme une définition.
Nous voici donc, pour reconnaître l’égalité de deux forces, en possession de deux règles : égalité de deux forces qui se font équilibre ; égalité de l’action et de la réaction. Mais, nous l’avons vu plus haut, ces deux règles sont insuffisantes ; nous sommes obligés de recourir à une troisième règle et d’admettre que certaines forces comme, par exemple, le poids d’un corps, sont constantes en grandeur et en direction. Mais cette troisième règle, je l’ai dit, est une loi expérimentale ; elle n’est qu’approximativement vraie, elle est une mauvaise définition.
Nous sommes donc ramenés à la définition de Kirchhoff : la force est égale à la masse multipliée par l’accélération. Cette « loi de Newton » cesse à son tour d’être regardée comme une loi expérimentale, elle n’est plus qu’une définition. Mais cette définition est encore insuffisante, puisque nous ne savons pas ce que c’est que la masse. Elle nous permet sans doute de calculer le rapport de deux forces appliquées à un même corps à des instants différents ; elle ne nous apprend rien sur le rapport de deux forces appliquées à deux corps différents.
Pour la compléter, il faut de nouveau recourir à la troisième loi de Newton (égalité de l’action et de la réaction), regardée encore, non comme une loi expérimentale, mais comme une définition. Deux corps A et B agissent l’un sur l’autre ; l’accélération de A multipliée par la masse de A est égale à l’action de B sur A ; de même, le produit de l’accélération de B par sa masse est égal à la réaction de A sur B. Comme, par définition, l’action est égale à la réaction, les masses de A et de B sont en raison inverse des accélérations de ces deux corps. Voilà le rapport de ces deux masses défini et c’est à l’expérience à vérifier que ce rapport est constant.
Cela serait très bien si les deux corps A et B étaient seuls en présence et soustraits à l’action du reste du monde. Il n’en est rien ; l’accélération de A n’est pas due seulement à l’action de B, mais à celle d’une foule d’autres corps C, D… Pour appliquer la règle précédente, il faut donc décomposer l’accélération de A en plusieurs composantes, et discerner quelle est celle de ces composantes qui est due à l’action de B.
Cette décomposition serait encore possible, si nous admettions que l’action de C sur A s’ajoute simplement à celle de B sur A, sans que la présence du corps C modifie l’action de B sur A, ou que la présence de B modifie l’action de C sur A ; si nous admettions, par conséquent, que deux corps quelconques s’attirent, que leur action mutuelle est dirigée suivant la droite qui les joint et ne dépend que de leur distance ; si nous admettions, en un mot, l’hypothèse des forces centrales.
On sait que, pour déterminer les masses des corps célestes, on se sert d’un principe tout différent. La loi de la gravitation nous apprend que l’attraction de deux corps est proportionnelle à leurs masses ; si r est leur distance, m et m’ leurs masses, k une constante, leur attraction sera :
kmm’ / r2
Ce qu’on mesure alors, ce n’est pas la masse, rapport de la force à l’accélération, c’est la masse attirante ; ce n’est pas l’inertie du corps, c’est son pouvoir attirant.
C’est là un procédé indirect, dont l’emploi n’est pas théoriquement indispensable. Il aurait très bien pu se faire que l’attraction fût inversement proportionnelle au carré de la distance, sans être proportionnelle au produit des masses, qu’elle fût égale à :
f / r2
mais sans que l’on eût :
f = kmm’.
S’il en était ainsi, on pourrait néanmoins, par l’observation des mouvements relatifs des corps célestes mesurer les masses de ces corps.
Mais avons-nous le droit d’admettre l’hypothèse des forces centrales ? Cette hypothèse est-elle rigoureusement exacte ? Est-il certain qu’elle ne sera jamais contredite par l’expérience ? Qui oserait l’affirmer ? Et si nous devons abandonner cette hypothèse, tout l’édifice si laborieusement élevé s’écroulera.
Nous n’avons plus le droit de parler de la composante de l’accélération de A qui est due à l’action de B. Nous n’avons aucun moyen de la discerner de celle qui est due à l’action de C ou d’un autre corps. La règle pour la mesure des masses devient inapplicable.
Que reste-t-il alors du principe de l’égalité de l’action et de la réaction ? Si l’hypothèse des forces centrales est rejetée, ce principe doit évidemment s’énoncer ainsi : la résultante géométrique de toutes les forces appliquées aux divers corps d’un système soustrait à toute action extérieure, sera nulle. Ou, en d’autres termes, le mouvement du centre de gravité de ce système sera rectiligne et uniforme.
Voilà, semble-t-il, un moyen de définir la masse ; la position du centre de gravité dépend évidemment des valeurs attribuées aux masses ; il faudra disposer de ces valeurs de façon que le mouvement de ce centre de gravité soit rectiligne et uniforme ; cela sera toujours possible si la troisième loi de Newton est vraie, et cela ne sera possible en général que d’une seule manière.
Mais il n’existe pas de système soustrait à toute action extérieure ; toutes les parties de l’univers subissent plus ou moins fortement l’action de toutes les autres parties. La loi du mouvement du centre de gravité n’est rigoureusement vraie que si on l’applique à l’univers tout entier.
Mais alors il faudrait, pour en tirer les valeurs des masses, observer le mouvement du centre de gravité de l’Univers. L’absurdité de cette conséquence est manifeste ; nous ne connaissons que des mouvements relatifs ; le mouvement du centre de gravité de l’univers restera pour nous une éternelle inconnue.
Il ne reste donc rien et nos efforts ont été infructueux ; nous sommes acculés à la définition suivante, qui n’est qu’un aveu d’impuissance : les masses sont des coefficients qu’il est commode d’introduire dans les calculs.
Nous pourrions refaire toute la mécanique en attribuant à toutes les masses des valeurs différentes. Cette mécanique nouvelle ne serait en contradiction ni avec l’expérience, ni avec les principes généraux de la dynamique (principe de l’inertie, proportionnalité des forces aux masses et aux accélérations, égalité de l’action et de la réaction, mouvement rectiligne et uniforme du centre de gravité, principe des aires).
Seulement les équations de cette mécanique nouvelle seraient moins simples. Entendons-nous bien : ce seraient seulement les premiers termes qui seraient moins simples, c’est-à-dire ceux que l’expérience nous a déjà fait connaître ; peut-être pourrait on altérer les masses de petites quantités sans que les équations complètes gagnent ou perdent en simplicité.
Hertz s’est demandé si les principes de la mécanique sont rigoureusement vrais. « Dans l’opinion de beaucoup de physiciens, dit-il, il apparaîtra comme inconcevable que l’expérience la plus éloignée puisse jamais changer quelque chose aux inébranlables principes de la mécanique ; et cependant ce qui sort de l’expérience peut toujours être rectifié par l’expérience. »
Après ce que nous venons de dire, ces craintes paraîtront superflues. Les principes de la dynamique nous apparaissaient d’abord comme des vérités expérimentales ; mais nous avons été obligés de nous en servir comme définitions. C’est par définition que la force est égale au produit de la masse par l’accélération ; voilà un principe qui est désormais placé hors de l’atteinte d’aucune expérience ultérieure. C’est de même par définition que l’action est égale à la réaction.
Mais alors, dira-t-on, ces principes invérifiables sont absolument vides de toute signification ; l’expérience ne peut les contredire ; mais ils ne peuvent rien nous apprendre d’utile ; à quoi bon alors étudier la dynamique ?
Cette condamnation trop rapide serait injuste. Il n’y a pas, dans la nature, de système parfaitement isolé, parfaitement soustrait à toute action extérieure ; mais il y a des systèmes à peu près isolés.
Si l’on observe un pareil système, on peut étudier non seulement le mouvement relatif de ses diverses parties l’une par rapport à l’autre, mais le mouvement de son centre de gravité par rapport aux autres parties de l’univers. On constate alors que le mouvement de ce centre de gravité est à peu près rectiligne et uniforme, conformément à la troisième loi de Newton.
C’est là une vérité expérimentale, mais elle ne pourra être infirmée par l’expérience ; que nous apprendrait en effet une expérience plus précise ? Elle nous apprendrait que la loi n’était qu’à peu près vraie ; mais, cela, nous le savions déjà.
On s’explique maintenant comment l’expérience a pu servir de base aux principes de la mécanique et cependant ne pourra jamais les contredire.
LA MÉCANIQUE ANTHROPOMORPHIQUE
Kirchhoff, dira-t-on, n’a fait qu’obéir à la tendance générale des mathématiciens au nominalisme ; son habileté de physicien ne l’en a pas préservé. Il a tenu à avoir une définition de la force, et il a pris pour cela la première proposition venue ; mais une définition de la force, nous n’en avons pas besoin : l’idée de force est une notion primitive, irréductible, indéfinissable ; nous savons tous ce que c’est, nous en avons l’intuition directe. Cette intuition directe provient de la notion d’effort, qui nous est familière depuis l’enfance.
Mais d’abord, quand même cette intuition directe nous ferait connaître la véritable nature de la force en soi, elle serait insuffisante pour fonder la Mécanique ; elle serait d’ailleurs tout à fait inutile. Ce qui importe, ce n’est pas de savoir ce que c’est que la force, c’est de savoir la mesurer.
Tout ce qui ne nous apprend pas à la mesurer est aussi inutile au mécanicien, que l’est, par exemple, la notion subjective de chaud et de froid au physicien qui étudie la chaleur. Cette notion subjective ne peut se traduire en nombres, donc elle ne sert à rien ; un savant dont la peau serait absolument mauvaise conductrice de la chaleur et qui, par conséquent, n’aurait jamais éprouvé, ni sensations de froid, ni sensations de chaud, pourrait regarder un thermomètre tout aussi bien qu’un autre, et cela lui suffirait pour construire toute la théorie de la chaleur.
Or cette notion immédiate d’effort ne peut nous servir à mesurer la force ; il est clair, par exemple que j’éprouverai plus de fatigue en soulevant un poids de cinquante kilos qu’un homme habitué à porter des fardeaux.
Mais il y a plus : cette notion d’effort ne nous fait pas connaître la véritable nature de la force ; elle se réduit en définitive à un souvenir de sensations musculaires, et on ne soutiendra pas que le soleil éprouve une sensation musculaire quand il attire la terre.
Tout ce qu’on peut y chercher, c’est un symbole, moins précis et moins commode que les flèches dont se servent les géomètres, mais tout aussi éloigné de la réalité.
L’anthropomorphisme a joué un rôle historique considérable dans la genèse de la mécanique ; peut-être fournira-t-il encore quelquefois un symbole qui paraîtra commode à quelques esprits ; mais il ne peut rien fonder qui ait un caractère vraiment scientifique, ou un caractère vraiment philosophique.
« L’ÉCOLE DU FIL. »
M. Andrade, dans ses Leçons de Mécanique physique, a rajeuni la mécanique anthropomorphique. À l’école de mécaniciens dont fait partie Kirchhoff, il oppose ce qu’il appelle assez bizarrement l’école du fil.
Cette école cherche à tout ramener à « la considération de certains systèmes matériels de masse négligeable, envisagés à l’état de tension et capables de transmettre des effets considérables à des corps éloignés, système dont le type idéal est le fil. »
Un fil qui transmet une force quelconque, s’allonge légèrement sous l’action de cette force ; la direction du fil nous fait connaître la direction de la force, dont la grandeur est mesurée par l’allongement du fil.
On peut alors concevoir une expérience telle que celle-ci. Un corps A est attaché à un fil ; à l’autre extrémité du fil on fait agir une force quelconque que l’on fait varier jusqu’à ce que le fil prenne un allongement α, on note l’accélération du corps A ; on détache A et on attache le corps B au même fil, on fait agir de nouveau la force, ou une autre force, et on la fait varier jusqu’à ce que le fil reprenne l’allongement α ; on note l’accélération du corps B. On recommence l’expérience tant avec le corps A qu’avec le corps B, mais de façon que le fil prenne l’allongement β. Les quatre accélérations observées doivent être proportionnelles. On a ainsi une vérification expérimentale de la loi d’accélération énoncée plus haut.
Ou bien encore on soumet un corps à l’action simultanée de plusieurs fils identiques également tendus, et on cherche par l’expérience quelles doivent être les orientations de tous ces fils pour que le corps demeure en équilibre. On a alors une vérification expérimentale de la règle de la composition des forces.
Mais, en somme, qu’avons-nous fait ? Nous avons défini la force à laquelle le fil est soumis par la déformation subie par ce fil, ce qui est assez raisonnable ; nous avons admis ensuite que si un corps est attaché à ce fil, l’effort qui lui est transmis par le fil est égal à l’action que ce corps exerce sur ce fil ; en définitive, nous nous sommes servis du principe de l’égalité de l’action et de la réaction, en le considérant, non comme une vérité d’expérience, mais comme la définition même de la force.
Cette définition est tout aussi conventionnelle que celle de Kirchhoff, mais elle est beaucoup moins générale.
Toutes les forces ne sont pas transmises par des fils (encore faudrait-il pour qu’on pût les comparer qu’elles le fussent toutes par des fils identiques). Si l’on admettait même que la terre est attachée au soleil par quelque fil invisible, du moins conviendrait-on que nous n’avons aucun moyen d’en mesurer l’allongement.
Neuf fois sur dix, par conséquent, notre définition serait en défaut ; on ne pourrait lui attribuer aucune espèce de sens, et il faudrait en revenir à celle de Kirchhoff.
Pourquoi alors prendre ce détour ? Vous admettez une certaine définition de la force qui n’a de sens que dans certains cas particuliers. Dans ces cas vous vérifiez par l’expérience qu’elle conduit à la loi de l’accélération. Autorisés par cette expérience, vous prenez ensuite la loi de l’accélération comme définition de la force dans tous les autres cas.
Ne serait-il pas plus simple de considérer la loi de l’accélération comme une définition dans tous les cas, et de regarder les expériences en question, non comme des vérifications de cette loi, mais comme des vérifications du principe de réaction, ou comme démontrant que les déformations d’un corps élastique ne dépendent que des forces auxquelles ce corps est soumis ?
Sans compter que les conditions dans lesquelles votre définition pourrait être acceptée ne sont jamais remplies qu’imparfaitement, qu’un fil n’est jamais sans masse, qu’il n’est jamais soustrait à toute autre force que la réaction des corps attachés à ses extrémités.
Les idées de M. Andrade n’en sont pas moins très intéressantes ; si elles ne satisfont pas notre besoin de logique, elles nous font mieux comprendre la genèse historique des notions mécaniques fondamentales. Les réflexions qu’elles nous suggèrent nous montrent comment l’esprit humain s’est élevé d’un anthropomorphisme naïf aux conceptions actuelles de la science.
Nous voyons au point de départ une expérience très particulière et en somme assez grossière ; au point d’arrivée, une loi tout à fait générale, tout à fait précise, et dont nous regardons la certitude comme absolue. Cette certitude, c’est nous qui la lui avons conférée pour ainsi dire librement, en la regardant comme une convention.
La loi de l’accélération, la règle de la composition des forces ne sont-elles donc que des conventions arbitraires ? Conventions, oui ; arbitraires, non ; elles le seraient si on perdait de vue les expériences qui ont conduit les fondateurs de la science à les adopter, et qui, si imparfaites qu’elles soient, suffisent pour les justifier. Il est bon que, de temps en temps, on ramène notre attention sur l’origine expérimentale de ces conventions.
LE PRINCIPE DU MOUVEMENT RELATIF
On a quelquefois cherché à rattacher la loi de l’accélération à un principe plus général. Le mouvement d’un système quelconque doit obéir aux mêmes lois, qu’on le rapporte à des axes fixes, ou à des axes mobiles entraînés dans un mouvement rectiligne et uniforme. C’est la le principe du mouvement relatif, qui s’impose à nous pour deux raisons : d’abord, l’expérience la plus vulgaire le confirme, et ensuite l’hypothèse contraire répugnerait singulièrement à l’esprit.
Admettons-le donc, et considérons un corps soumis à une force ; le mouvement relatif de ce corps, par rapport à un observateur animé d’une vitesse uniforme égale à la vitesse initiale du corps, devra être identique à ce que serait son mouvement absolu s’il partait du repos. On en conclut que son accélération ne doit pas dépendre de sa vitesse absolue, on a même cherché à tirer de là une démonstration de la loi d’accélération.
Il y a eu longtemps des traces de cette démonstration dans les programmes du baccalauréat ès sciences. Il est évident que cette tentative est vaine. L’obstacle qui nous empêchait de démontrer la loi d’accélération, c’est que nous n’avions pas de définition de la force ; cet obstacle subsiste tout entier, puisque le principe invoqué ne nous a pas fourni la définition qui nous manquait.
Le principe du mouvement relatif n’en est pas moins fort intéressant et mérite d’être étudié pour lui-même. Cherchons d’abord à l’énoncer d’une façon précise.
Nous avons dit plus haut que les accélérations des différents corps qui font partie d’un système isolé ne dépendent que de leurs vitesses et de leurs positions relatives, et non de leurs vitesses et de leurs positions absolues, pourvu que les axes mobiles auxquels le mouvement relatif est rapporté soient entraînés dans un mouvement rectiligne et uniforme. Ou, si l’on aime mieux, leurs accélérations ne dépendent que des différences de leurs vitesses et des différences de leurs coordonnées, et non des valeurs absolues de ces vitesses et de ces coordonnées.
Si ce principe est vrai pour les accélérations relatives, ou mieux pour les différences d’accélération, en le combinant avec la loi de la réaction, on en déduira qu’il est vrai encore pour les accélérations absolues.
Il reste donc à voir comment on peut démontrer que les différences des accélérations ne dépendent que des différences des vitesses et des coordonnées, ou, pour parler le langage mathématique, que ces différences de coordonnées satisfont à des équations différentielles du second ordre.
Cette démonstration peut-elle être déduite d’expériences ou de considérations a priori ?
En se rappelant ce que nous avons dit plus haut, le lecteur fera de lui-même la réponse.
Ainsi énoncé, en effet, le principe du mouvement relatif ressemble singulièrement à ce que j’appelais plus haut le principe de l’inertie généralisé ; ce n’est pas tout à fait la même chose, puisqu’il s’agit des différences de coordonnées et non des coordonnées elles-mêmes. Le nouveau principe nous apprend donc quelque chose de plus que l’ancien, mais la même discussion s’y applique et conduirait aux mêmes conclusions ; il est inutile d’y revenir.
L’ARGUMENT DE NEWTON
Ici, nous rencontrons une question fort importante et même un peu troublante. J’ai dit que le principe du mouvement relatif n’était pas seulement pour nous un résultat d’expérience, et qu’a priori toute hypothèse contraire répugnerait à l’esprit.
Mais alors, pourquoi le principe n’est-il vrai que si le mouvement des axes mobiles est rectiligne et uniforme ? Il semble qu’il devrait s’imposer à nous avec la même force, si ce mouvement est varié ou tout au moins s’il se réduit à une rotation uniforme. Or, dans ces deux cas, le principe n’est pas vrai.
Je n’insisterai pas longtemps sur le cas où le mouvement des axes est rectiligne sans être uniforme ; le paradoxe ne résiste pas à un instant d’examen. Si je suis en wagon, et si le train, heurtant un obstacle quelconque, s’arrête brusquement, je serai projeté sur la banquette opposée, bien que je n’aie été soumis directement à aucune force. Il n’y a rien là de mystérieux ; si je n’ai subi l’action d’aucune force extérieure, le train, lui, a éprouvé un choc extérieur. Que le mouvement relatif de deux corps se trouve troublé, dès que le mouvement de l’un ou de l’autre est modifié par une cause extérieure, il ne peut rien y avoir là de paradoxal.
Je m’arrêterai plus longtemps sur le cas des mouvements relatifs rapportés à des axes qui tournent d’une rotation uniforme. Si le ciel était sans cesse couvert de nuages, si nous n’avions aucun moyen d’observer les astres, nous pourrions, néanmoins, conclure que la terre tourne ; nous en serions avertis par son aplatissement, ou bien encore par l’expérience du pendule de Foucault.
Et pourtant, dans ce cas, dire que la terre tourne, cela aurait-il un sens ? S’il n’y a pas d’espace absolu, peut-on tourner sans tourner par rapport à quelque chose, et d’autre part comment pourrions-nous admettre la conclusion de Newton et croire à l’espace absolu ?
Mais il ne suffit pas de constater que toutes les solutions possibles nous choquent également ; il faut analyser pour chacune d’elles, les raisons de notre répugnance, afin de faire notre choix en connaissance de cause. On excusera donc la longue discussion qui va suivre.
Reprenons notre fiction : d’épais nuages cachent les astres aux hommes, qui ne peuvent les observer et en ignorent même l’existence ; comment ces hommes sauront-ils que la terre tourne ? Plus encore que nos ancêtres sans doute, ils regarderont le sol qui les porte comme fixe et inébranlable ; ils attendront bien plus longtemps l’avènement d’un Copernic. Mais enfin ce Copernic finirait par venir ; comment viendrait-il ?
Les mécaniciens de ce monde ne se heurteraient pas d’abord à une contradiction absolue. Dans la théorie du mouvement relatif, on envisage, en dehors des forces réelles, deux forces fictives que l’on appelle la force centrifuge ordinaire et la force centrifuge composée. Nos savants imaginaires pourraient donc tout expliquer en regardant ces deux forces comme réelles, et ils ne verraient pas là de contradiction avec le principe de l’inertie généralisé, car ces forces dépendraient, l’une des positions relatives des diverses parties du système, comme les attractions réelles, l’autre de leurs vitesses relatives, comme les frottements réels.
Bien des difficultés cependant ne tarderaient pas à éveiller leur attention ; s’ils réussissaient à réaliser un système isolé, le centre de gravité de ce système n’aurait pas une trajectoire à peu près rectiligne. Ils pourraient invoquer, pour expliquer ce fait, les forces centrifuges qu’ils regarderaient comme réelles et qu’ils attribueraient sans doute aux actions mutuelles des corps. Seulement ils ne verraient pas ces forces s’annuler aux grandes distances, c’est-à-dire à mesure que l’isolement serait mieux réalisé ; loin de là : la force centrifuge croit indéfiniment avec la distance.
Cette difficulté leur semblerait déjà assez grande ; et pourtant elle ne les arrêterait pas longtemps : ils imagineraient bientôt quelque milieu très subtil, analogue à notre éther, où tous les corps baigneraient et qui exerceraient sur eux une action répulsive.
Mais ce n’est pas tout. L’espace est symétrique, et pourtant les lois du mouvement ne présenteraient pas de symétrie ; elles devraient distinguer entre la droite et la gauche. On verrait par exemple que les cyclones tournent toujours dans le même sens, tandis que par raison de symétrie ces météores devraient tourner indifféremment dans un sens et dans l’autre. Si nos savants étaient parvenus à force de travail à rendre leur univers parfaitement symétrique, cette symétrie ne subsisterait pas, bien qu’il n’y ait aucune raison apparente pour qu’elle soit troublée dans un sens plutôt que dans l’autre.
Ils s’en tireraient sans aucun doute, ils inventeraient quelque chose qui ne serait pas plus extraordinaire que les sphères de verre de Ptolémée, et on irait ainsi, accumulant les complications, jusqu’à ce que le Copernic attendu les balaye toutes d’un seul coup, en disant : Il est bien plus simple d’admettre que la terre tourne.
Et de même que notre Copernic à nous nous a dit : il est plus commode de supposer que la terre tourne, parce qu’on exprime ainsi les lois de l’astronomie dans un langage bien plus simple ; celui-là dirait : Il est plus commode de supposer que la terre tourne, parce qu’on exprime ainsi les lois de la mécanique dans un langage bien plus simple.
Cela n’empêche pas que l’espace absolu, c’est-à-dire le repère auquel il faudrait rapporter la terre pour savoir si réellement elle tourne, n’a aucune existence objective. Dès lors, cette affirmation : « la terre tourne », n’a aucun sens, puisqu’aucune expérience ne permettra de la vérifier ; puisqu’une telle expérience, non seulement ne pourrait être ni réalisée, ni rêvée par le Jules Verne le plus hardi, mais ne peut être conçue sans contradiction ; ou plutôt ces deux propositions : « la terre tourne », et : « il est plus commode de supposer que la terre tourne », ont un seul et même sens ; il n’y a rien de plus dans l’une que dans l’autre.
Peut-être ne se contentera-t-on pas encore de cela, et trouvera-t-on déjà choquant que, parmi toutes les hypothèses ou plutôt toutes les conventions que nous pouvons faire à ce sujet, il y en ait une qui soit plus commode que les autres.
Mais si on l’a admis sans peine quand il s’agissait des lois de l’astronomie, pourquoi s’en choquerait-on en ce qui concerne la mécanique ?
Nous avons vu que les coordonnées des corps sont déterminées par des équations différentielles du second ordre, et qu’il en est de même des différences de ces coordonnées. C’est ce que nous avons appelé le principe d’inertie généralisé et le principe du mouvement relatif. Si les distances de ces corps étaient déterminées de même par des équations du second ordre, il semble que l’esprit devrait être entièrement satisfait. Dans quelle mesure l’esprit reçoit-il cette satisfaction, et pourquoi ne s’en contente-t-il pas ?
Pour nous en rendre compte, il vaut mieux prendre un exemple simple. Je suppose un système analogue à notre système solaire, mais d’où l’on ne puisse apercevoir des étoiles fixes étrangères à ce système, de telle façon que les astronomes ne puissent observer que les distances mutuelles des planètes et du soleil, et non les longitudes absolues des planètes. Si nous déduisons directement de la loi de Newton les équations différentielles qui définissent la variation de ces distances, ces équations ne seront pas du second ordre. Je veux dire que si, outre la loi de Newton, on connaissait les valeurs initiales de ces distances et de leurs dérivées par rapport au temps, cela ne suffirait pas pour déterminer les valeurs de ces mêmes distances à un instant ultérieur. Il manquerait encore une donnée, et cette donnée, ce pourrait être par exemple ce que les astronomes appellent la constante des aires.
Mais ici, on peut se placer à deux points de vue différents ; nous pouvons distinguer deux sortes de constantes. Aux yeux du physicien, le monde se réduit à une série de phénomènes, dépendant uniquement, d’une part, des phénomènes initiaux, d’autre part, des lois qui lient les conséquents aux antécédents. Si alors l’observation nous apprend qu’une certaine quantité est une constante, nous aurons le choix entre deux manières de voir.
Ou bien nous admettrons qu’il y a une loi qui veut que cette quantité ne puisse varier, mais que c’est par hasard qu’elle s’est trouvée avoir, à l’origine des siècles, telle valeur plutôt que telle autre, valeur qu’elle a dû conserver depuis. Cette quantité pourrait alors s’appeler une constante accidentelle.
Ou bien nous admettrons au contraire qu’il y a une loi de la nature qui impose à cette quantité telle valeur et non pas telle autre. Nous aurons alors ce qu’on peut appeler une constante essentielle.
Par exemple, en vertu des lois de Newton, la durée de la révolution de la terre doit être constante. Mais si elle est égale à 366 jours sidéraux et quelque chose et non à 800 ou à 400, c’est par suite de je ne sais quel hasard initial. C’est une constante accidentelle. Si au contraire l’exposant de la distance qui figure dans l’expression de la force attractive, est égal à -2 et non pas à -3, ce n’est pas par hasard, c’est parce que la loi de Newton l’exige. C’est une constante essentielle.
Je ne sais si cette manière de faire au hasard sa part est légitime en soi, et si cette distinction n’a pas quelque chose d’artificiel ; il est certain du moins que, tant que la nature aura des secrets, elle sera dans l’application fortement arbitraire et toujours précaire.
En ce qui concerne la constante des aires, nous avons coutume de la regarder comme accidentelle. Est-il certain que nos astronomes imaginaires en feraient autant ? S’ils avaient pu comparer deux systèmes solaires différents, ils auraient l’idée que cette constante peut avoir plusieurs valeurs différentes ; mais j’ai justement supposé au début que leur système apparaissait comme isolé, et qu’ils n’observaient aucun astre qui y fut étranger. Dans ces conditions, ils ne pourraient voir qu’une constante unique qui aurait une valeur unique absolument invariable ; ils seraient portés sans aucun doute à la regarder comme une constante essentielle.
Un mot en passant pour prévenir une objection : les habitants de ce monde fictif ne pourraient ni observer ni définir la constante des aires comme nous le faisons, puisque les longitudes absolues leur échappent ; cela n’empêcherait pas qu’ils seraient rapidement amenés à remarquer une certaine constante qui s’introduirait naturellement dans leurs équations et qui ne serait autre chose que ce que nous appelons la constante des aires.
Mais alors voici ce qui va se passer. Si la constante des aires est regardée comme essentielle, comme dépendant d’une loi de la nature, il suffira, pour calculer les distances des planètes à un instant quelconque, de connaître les valeurs initiales de ces distances et celles de leurs dérivées premières. À ce point de vue nouveau, les distances seront régies par des équations différentielles du deuxième ordre.
L’esprit de ces astronomes serait-il cependant satisfait complètement ? Je ne le crois pas ; d’abord, ils s’apercevraient bientôt qu’en différenciant leurs équations, de façon à en élever l’ordre, ces équations deviennent bien plus simples. Et surtout ils seraient frappés de la difficulté qui provient de la symétrie. Il faudrait admettre des lois différentes, selon que l’ensemble des planètes présenterait la figure d’un certain polyèdre ou bien du polyèdre symétrique, et on n’échapperait à cette conséquence qu’en regardant la constante des aires comme accidentelle.
J’ai pris un exemple bien particulier, puisque j’ai supposé des astronomes qui ne s’occuperaient pas du tout de mécanique terrestre et dont la vue serait bornée au système solaire. Mais nos conclusions s’appliquent à tous les cas. Notre univers est plus étendu que le leur, puisque nous avons des étoiles fixes, mais il est cependant limité, lui aussi, et alors nous pourrions raisonner sur l’ensemble de notre univers, comme ces astronomes sur leur système solaire.
On voit ainsi qu’en définitive on serait conduit à conclure que les équations qui définissent les distances sont d’ordre supérieur au second. Pourquoi en serions-nous choqués, pourquoi trouvons-nous tout naturel que la suite des phénomènes dépende des valeurs initiales des dérivées premières de ces distances, tandis que nous hésitons à admettre qu’elles puissent dépendre des valeurs initiales des dérivées secondes ? Ce ne peut être qu’à cause des habitudes d’esprit créées en nous par l’étude constante du principe d’inertie généralisé et de ses conséquences.
Les valeurs des distances à un instant quelconque dépendent de leurs valeurs initiales, de celles de leurs dérivées premières et encore d’autre chose. Qu’est-ce que cette autre chose ?
Si l’on ne veut pas que ce soit tout simplement l’une des dérivées secondes, on n’a que le choix des hypothèses. Supposer, comme on le fait d’ordinaire, que cette autre chose c’est l’orientation absolue de l’univers dans l’espace, ou la rapidité avec laquelle cette orientation varie, cela peut être, cela est certainement la solution la plus commode pour le géomètre ; ce n’est pas la plus satisfaisante pour le philosophe, puisque cette orientation n’existe pas.
On peut supposer que cette autre chose est la position ou la vitesse de quelque corps invisible ; c’est ce qu’ont fait certaines personnes qui l’ont même appelé le corps alpha, bien que nous soyons destinés à ne jamais rien savoir de ce corps que son nom. C’est là un artifice tout à fait analogue à celui dont je parlais à la fin du paragraphe consacré à mes réflexions sur le principe d’inertie.
Mais en somme la difficulté est artificielle. Pourvu que les indications futures de nos instruments ne puissent dépendre que des indications qu’ils nous ont données ou qu’ils auraient pu donner autrefois, c’est tout ce qu’il faut. Or, sous ce rapport nous pouvons être tranquilles.
LE SYSTÈME ÉNERGÉTIQUE
Les difficultés soulevées par la mécanique classique ont conduit certains esprits à lui préférer un système nouveau qu’ils appellent énergétique.
Le système énergétique a pris naissance à la suite de la découverte du principe de la conservation de l’énergie. C’est Helmholtz qui lui a donné sa forme définitive.
On commence par définir deux quantités qui jouent le rôle fondamental dans cette théorie. Ces deux quantités sont : d’une part, l’énergie cinétique ou force vive ; d’autre part, l’énergie potentielle.
Tous les changements que peuvent subir les corps de la nature sont régis par deux lois expérimentales :
1°La somme de l’énergie cinétique et de l’énergie potentielle est une constante. C’est le principe de la conservation de l’énergie.
2°Si un système de corps est dans la situation A à l’époque t0 et dans la situation B à l’époque t1, il va toujours de la première situation à la seconde par un chemin tel que la valeur moyenne de la différence entre les deux sortes d’énergie, dans l’intervalle de temps qui sépare les deux époques t0 et t1, soit aussi petite que possible.
C’est là le principe de Hamilton, qui est une des formes du principe de moindre action.
La théorie énergétique présente sur la théorie classique les avantages suivants :
1° Elle est moins incomplète ; c’est-à-dire que les principes de la conservation de l’énergie et de Hamilton nous apprennent plus que les principes fondamentaux de la théorie classique et excluent certains mouvements que la nature ne réalise pas et qui seraient compatibles avec la théorie classique ;
2° Elle nous dispense de l’hypothèse des atomes, qu’il était presque impossible d’éviter avec la théorie classique.
Mais elle soulève à son tour de nouvelles difficultés :
Les définitions des deux sortes d’énergie sont à peine plus aisées que celles de la force et de la masse dans le premier système. Cependant on s’en tirerait plus facilement, au moins dans les cas les plus simples.
Supposons un système isolé formé d’un certain nombre de points matériels ; supposons que ces points soient soumis à des forces ne dépendant que de leur position relative et de leurs distances mutuelles et indépendantes de leurs vitesses. En vertu du principe de la conservation de l’énergie, il devra y avoir une fonction des forces.
Dans ce cas simple, l’énoncé du principe de la conservation de l’énergie est d’une extrême simplicité. Une certaine quantité, accessible à l’expérience, doit demeurer constante. Cette quantité est la somme de deux termes ; le premier dépend seulement de la position des points matériels et est indépendant de leurs vitesses ; le second est proportionnel au carré de ces vitesses. Cette décomposition ne peut se faire que d’une seule manière.
Le premier de ces termes, que j’appellerai U, sera l’énergie potentielle ; le second, que j’appellerai T, sera l’énergie cinétique.
Il est vrai que si T + U est une constante, il en est de même d’une fonction quelconque de T + U,
φ(T + U).
Mais cette fonction φ(T + U) ne sera pas la somme de deux termes l’un indépendant des vitesses, l’autre proportionnel au carré de ces vitesses. Parmi les fonctions qui demeurent constantes, il n’y en a qu’une qui jouisse de cette propriété, c’est T + U (ou une fonction linéaire de T + U, ce qui ne fait rien, puisque cette fonction linéaire peut toujours être ramenée à T + U par un changement d’unité et d’origine). C’est alors ce que nous appellerons l’énergie ; c’est le premier terme que nous appellerons l’énergie potentielle et le second qui sera l’énergie cinétique. La définition des deux sortes d’énergie peut donc être poussée jusqu’au bout sans aucune ambiguïté.
Il en est de même de la définition des masses. L’énergie cinétique ou force vive s’exprime très simplement à l’aide des masses et des vitesses relatives de tous les points matériels, par rapport à l’un d’entre eux. Ces vitesses relatives sont accessibles à l’observation, et, quand nous aurons l’expression de l’énergie cinétique en fonction de ces vitesses relatives, les coefficients de cette expression nous donneront les masses.
Ainsi, dans ce cas simple, on peut définir les notions fondamentales sans difficulté. Mais les difficultés reparaissent dans les cas plus compliqués et, par exemple, si les forces, au lieu de dépendre seulement des distances, dépendent aussi des vitesses. Par exemple, Weber suppose que l’action mutuelle de deux molécules électriques dépend non seulement de leur distance, mais de leur vitesse et de leur accélération. Si les points matériels s’attiraient d’après une loi analogue, U dépendrait de la vitesse, et il pourrait contenir un terme proportionnel au carré de la vitesse.
Parmi les termes proportionnels aux carrés des vitesses, comment discerner ceux qui proviennent de T ou de U ? Comment, par conséquent, distinguer les deux parties de l’énergie ?
Mais il y a plus, Comment définir l’énergie elle-même ? Nous n’avons plus aucune raison de prendre comme définition T + U plutôt que toute autre fonction de T + U, quand a disparu la propriété qui caractérisait T + U, celle d’être la somme de deux termes d’une forme particulière.
Mais ce n’est pas tout, il faut tenir compte, non seulement de l’énergie mécanique proprement dite, mais des autres formes de l’énergie, chaleur, énergie chimique, énergie électrique, etc. Le principe de la conservation de l’énergie doit s’écrire :
T + U + Q = const.
où T représenterait l’énergie cinétique sensible, U l’énergie potentielle de position, dépendant seulement de la position des corps, Q l’énergie interne moléculaire, sous la forme thermique, chimique ou électrique.
Tout irait bien si ces trois termes étaient absolument distincts, si T était proportionnel au carré des vitesses, U indépendant de ces vitesses et de l’état des corps, Q indépendant des vitesses et des positions des corps et dépendant seulement de leur état interne.
L’expression de l’énergie ne pourrait se décomposer que d’une seule manière en trois termes de cette forme.
Mais il n’en est pas ainsi ; considérons des corps électrisés : l’énergie électrostatique due à leur action mutuelle dépendra évidemment de leur charge, c’est-à-dire de leur état ; mais elle dépendra également de leur position. Si ces corps sont en mouvement, ils agiront l’un sur l’autre électrodynamiquement et l’énergie électrodynamique dépendra non seulement de leur état et de leur position, mais de leurs vitesses.
Nous n’avons donc plus aucun moyen de faire le triage des termes qui doivent faire partie de T, de U et de Q et de séparer les trois parties de l’énergie.
Si (T + U + Q) est constant, il en est de même d’une fonction quelconque.
φ(T + U + Q).
Si T + U + Q était de la forme particulière que j’ai envisagée plus haut, il n’en résulterait pas d’ambiguïté ; parmi les fonctions φ(T + U + Q) qui demeurent constantes, il n’y en aurait qu’une qui serait de cette forme particulière, et ce serait celle-là que je conviendrais d’appeler énergie.
Mais je l’ai dit, il n’en est pas rigoureusement ainsi ; parmi les fonctions qui demeurent constantes, il n’y en a pas qui puissent rigoureusement se mettre sous cette forme particulière ; dès lors, comment choisir parmi elles celle qui doit s’appeler l’énergie ? Nous n’avons plus rien qui puisse nous guider dans notre choix.
Il ne nous reste plus qu’un énoncé pour le principe de la conservation de l’énergie ; il y a quelque chose qui demeure constant. Sous cette forme, il se trouve à son tour hors des atteintes de l’expérience et se réduit à une sorte de tautologie. Il est clair que si le monde est gouverné par des lois, il y aura des quantités qui demeureront constantes. Comme les principes de Newton, et pour une raison analogue, le principe de la conservation de l’énergie, fondé sur l’expérience, ne pourrait plus être infirmé par elle.
Cette discussion montre qu’en passant du système classique au système énergétique, on a réalisé un progrès ; mais elle montre, en même temps, que ce progrès est insuffisant.
Une autre objection me semble encore plus grave : le principe de moindre action est applicable aux phénomènes réversibles ; mais il n’est nullement satisfaisant en ce qui concerne les phénomènes irréversibles ; la tentative de Helmholtz pour l’étendre à ce genre de phénomènes n’a pas réussi et ne pouvait réussir : sous ce rapport tout reste à faire.
L’énoncé même du principe de moindre action a quelque chose de choquant pour l’esprit. Pour se rendre d’un point à un autre, une molécule matérielle, soustraite à l’action de toute force, mais assujettie à se mouvoir sur une surface, prendra la ligne géodésique, c’est-à-dire le chemin le plus court.
Cette molécule semble connaître le point où on veut la mener, prévoir le temps qu’elle mettra à l’atteindre en suivant tel et tel chemin, et choisir ensuite le chemin le plus convenable. L’énoncé nous la présente pour ainsi dire comme un être animé et libre. Il est clair qu’il vaudrait mieux le remplacer par un énoncé moins choquant, et où, comme diraient les philosophes, les causes finales ne sembleraient pas se substituer aux causes efficientes.
THERMODYNAMIQUE[4]
Le rôle des deux principes fondamentaux de la thermodynamique dans toutes les branches de la philosophie naturelle devient de jour en jour plus important. Abandonnant les théories ambitieuses d’il y a quarante ans, encombrées d’hypothèses moléculaires, nous cherchons aujourd’hui à élever sur la Thermodynamique seule l’édifice tout entier de la physique mathématique. Les deux principes de Meyer et de Clausius lui assureront-ils des fondations assez solides pour qu’il dure quelque temps ? Personne n’en doute ; mais d’où nous vient cette confiance ?
Un physicien éminent me disait un jour à propos de la loi des erreurs : Tout le monde y croit fermement parce que les mathématiciens s’imaginent que c’est un fait d’observation, et les observateurs que c’est un théorème de mathématiques. Il en a été longtemps ainsi pour le principe de la conservation de l’énergie. Il n’en est plus de même aujourd’hui ; personne n’ignore que c’est un fait expérimental.
Mais alors qui nous donne le droit d’attribuer au principe lui-même plus de généralité et plus de précision qu’aux expériences qui ont servi à le démontrer ? C’est là demander s’il est légitime, comme on le fait tous les jours, de généraliser les données empiriques, et je n’aurai pas l’outrecuidance de discuter cette question, après que tant de philosophes se sont vainement efforcés de la trancher. Une seule chose est certaine : si cette faculté nous était refusée, la science ne pourrait exister ou, du moins, réduite à une sorte d’inventaire, à la constatation des faits isolés, elle n’aurait pour nous aucun prix, puisqu’elle ne pourrait donner satisfaction à notre besoin d’ordre et d’harmonie et qu’elle serait en même temps incapable de prévoir. Comme les circonstances qui ont précédé un fait quelconque ne se reproduiront vraisemblablement jamais toutes à la fois, il faut déjà une première généralisation pour prévoir si ce fait se renouvellera encore dès que la moindre de ces circonstances sera changée.
Mais toute proposition peut être généralisée d’une infinité de manières. Parmi toutes les généralisations possibles, il faut bien que nous choisissions et nous ne pouvons choisir que la plus simple. Nous sommes donc conduits à agir comme si une loi simple était, toutes choses égales d’ailleurs, plus probable qu’une loi compliquée.
Il y a un demi-siècle on le confessait franchement et on proclamait que la nature aime la simplicité ; elle nous a donné depuis trop de démentis. Aujourd’hui on n’avoue plus cette tendance et on n’en conserve que ce qui est indispensable pour que la science ne devienne pas impossible.
En formulant une loi générale, simple et précise après des expériences relativement peu nombreuses et qui présentent certaines divergences, nous n’avons donc fait qu’obéir à une nécessité à laquelle l’esprit humain ne peut se soustraire.
Mais il y a quelque chose de plus et c’est pourquoi j’insiste.
Personne ne doute que le principe de Meyer ne soit appelé à survivre à toutes les lois particulières d’où on l’a tiré de même que la loi de Newton a survécu aux lois de Képler, d’où elle était sortie, et qui ne sont plus qu’approximatives, si l’on tient compte des perturbations.
Pourquoi ce principe occupe-t-il ainsi une sorte de place privilégiée parmi toutes les lois physiques ? il y a à cela beaucoup de petites raisons.
Tout d’abord on croit que nous ne pourrions le rejeter ou même douter de sa rigueur absolue sans admettre la possibilité du mouvement perpétuel ; nous nous défions bien entendu d’une telle perspective et nous nous croyons moins téméraires en affirmant qu’en niant.
Cela n’est peut-être pas tout à fait exact ; l’impossibilité du mouvement perpétuel n’entraîne la conservation de l’énergie que pour les phénomènes réversibles.
L’imposante simplicité du principe de Meyer contribue également à affermir notre foi. Dans une loi déduite immédiatement de l’expérience, comme celle de Mariotte, cette simplicité nous paraîtrait plutôt une raison de méfiance : mais ici il n’en est plus de même ; nous voyons des éléments disparates au premier coup d’œil, se ranger dans un ordre inattendu et former un tout harmonieux ; et nous nous refusons à croire qu’une harmonie imprévue soit un simple effet du hasard. Il semble que notre conquête nous soit d’autant plus chère qu’elle nous a coûté plus d’efforts ou que nous soyons d’autant plus sûrs d’avoir arraché à la nature son vrai secret qu’elle a paru plus jalouse de nous le dérober.
Mais ce ne sont là que de petites raisons ; pour ériger la loi de Meyer en principe absolu, il faudrait une discussion plus approfondie. Mais si on essaye de la faire, on voit que ce principe absolu n’est même pas facile à énoncer.
Dans chaque cas particulier on voit bien ce que c’est que l’énergie et on en peut donner une définition au moins provisoire ; mais il est impossible d’en trouver une définition générale.
Si l’on veut énoncer le principe dans toute sa généralité et en l’appliquant à l’univers, on le voit pour ainsi dire s’évanouir et il ne reste plus que ceci : il y a quelque chose qui demeure constant.
Mais cela même a-t-il un sens ? Dans l’hypothèse déterministe, l’état de l’univers est déterminé par un nombre excessivement grand n de paramètres que j’appellerai x1, x2, …, xn. Dès que l’on connaît à un instant quelconque les valeurs de ces n paramètres, on connaît également leurs dérivées par rapport au temps et on peut calculer par conséquent les valeurs de ces mêmes paramètres à un instant antérieur ou ultérieur. En d’autres termes, ces n paramètres satisfont à n équations différentielles du premier ordre.
Ces équations admettent n - 1 intégrales et il y a par conséquent n-1 fonctions de x1, x2, …, xn , qui demeurent constantes. Si nous disons alors qu’il y a quelque chose qui demeure constant, nous ne faisons qu’énoncer une tautologie. On serait même embarrassé de dire quelle est parmi toutes nos intégrales celle qui doit conserver le nom d’énergie.
Ce n’est pas d’ailleurs en ce sens que l’on entend le principe de Meyer quand on l’applique à un système limité.
On admet alors que p de nos n paramètres varient d’une manière indépendante, de sorte que nous avons seulement n - p relations, généralement linéaires, entre nos n paramètres et leurs dérivées.
Supposons pour simplifier l’énoncé que la somme des travaux des forces extérieures soit nulle ainsi que celle des quantités de chaleur cédées au dehors. Voici alors quelle sera la signification de notre principe.
Il y a une combinaison de ces n - p relations dont le premier membre est une différentielle exacte ; et alors cette différentielle étant nulle en vertu de nos n - p relations, son intégrale est une constante et c’est cette intégrale qu’on appelle l’énergie.
Mais comment peut-il se faire qu’il y ait plusieurs paramètres dont les variations soient indépendantes ? Cela ne peut avoir lieu que sous l’influence des forces extérieures (bien que nous ayons supposé, pour simplifier, que la somme algébrique des travaux de ces forces soit nulle). Si en effet le système était complètement soustrait à toute action extérieure, les valeurs de nos n paramètres à un instant donné suffiraient pour déterminer l’état du système à un instant ultérieur quelconque, pourvu toutefois que nous restions dans l’hypothèse déterministe ; nous retomberions donc sur la même difficulté que plus haut.
Si l’état futur du système n’est pas entièrement déterminé par son état actuel, c’est qu’il dépend en outre de l’état des corps extérieurs au système. Mais alors est-il vraisemblable qu’il existe entre les paramètres x qui définissent l’état du système des équations indépendantes de cet état des corps extérieurs ; et si dans certains cas nous croyons pouvoir en trouver, n’est-ce pas uniquement par suite de notre ignorance et parce que l’influence de ces corps est trop faible pour que notre expérience puisse la déceler ?
Si le système n’est pas regardé comme complètement isolé, il est probable que l’expression rigoureusement exacte de son énergie interne devra dépendre de l’état des corps extérieurs. Encore ai-je supposé plus haut que la somme des travaux extérieurs était nulle, et si l’on veut s’affranchir de cette restriction un peu artificielle l’énoncé devient encore plus difficile.
Pour formuler le principe de Meyer en lui donnant un sens absolu, il faut donc l’étendre à tout l’univers et alors on se retrouve en face de cette même difficulté que l’on cherchait à éviter.
En résumé, et pour employer le langage ordinaire, la loi de la conservation de l’énergie ne peut avoir qu’une signification, c’est qu’il y a une propriété commune à tous les possibles ; mais dans l’hypothèse déterministe il n’y a qu’un seul possible et alors la loi n’a plus de sens.
Dans l’hypothèse indéterministe, au contraire, elle en prendrait un, même si on voulait l’entendre dans un sens absolu ; elle apparaîtrait comme une limite imposée à la liberté.
Mais ce mot m’avertit que je m’égare et que je vais sortir du domaine des mathématiques et de la physique. Je m’arrête donc et je ne veux retenir de toute cette discussion qu’une impression, c’est que la loi de Meyer est une forme assez souple pour qu’on y puisse faire rentrer presque tout ce que l’on veut. Je ne veux pas dire par là qu’elle ne correspond à aucune réalité objective ni qu’elle se réduise à une simple tautologie, puisque, dans chaque cas particulier, et pourvu qu’on ne veuille pas pousser jusqu’à l’absolu, elle a un sens parfaitement clair.
Cette souplesse est une raison de croire à sa longue durée, et comme, d’autre part, elle ne disparaîtra que pour se fondre dans une harmonie supérieure, nous pouvons travailler avec confiance en nous appuyant sur elle, certains d’avance que notre travail ne sera pas perdu.
Presque tout ce que je viens de dire s’applique au principe de Clausius. Ce qui le distingue, c’est qu’il s’exprime par une inégalité. On dira peut-être qu’il en est de même de toutes les lois physiques, puisque leur précision est toujours limitée par des erreurs d’observation. Mais elles affichent du moins la prétention d’être de premières approximations et on a l’espoir de les remplacer peu à peu par des lois de plus en plus précises. Si, au contraire, le principe de Clausius se réduit à une inégalité, ce n’est pas l’imperfection de nos moyens d’observation qui en est la cause, mais la nature même de la question.
Les principes de la mécanique se présentent donc à nous sous deux aspects différents. D’une part, ce sont des vérités fondées sur l’expérience et vérifiées d’une façon très approchée en ce qui concerne des systèmes presque isolés. D’autre part, ce sont des postulats applicables à l’ensemble de l’univers et regardés comme rigoureusement vrais.
Si ces postulats possèdent une généralité et une certitude qui faisaient défaut aux vérités expérimentales d’où ils sont tirés, c’est qu’ils se réduisent en dernière analyse à une simple convention que nous avons le droit de faire, parce que nous sommes certains d’avance qu’aucune expérience ne viendra la contredire.
Cette convention n’est pourtant pas absolument arbitraire ; elle ne sort pas de notre caprice ; nous l’adoptons parce que certaines expériences nous ont montré qu’elle serait commode.
On s’explique ainsi comment l’expérience a pu édifier les principes de la mécanique, et pourquoi cependant elle ne pourra les renverser.
Comparons avec la géométrie. Les propositions fondamentales de la géométrie, comme par exemple le postulatum d’Euclide, ne sont non plus que des conventions, et il est tout aussi déraisonnable de chercher si elles sont vraies ou fausses que de demander si le système métrique est vrai ou faux.
Seulement ces conventions sont commodes, et cela, ce sont certaines expériences qui nous l’apprennent.
Au premier abord, l’analogie est complète ; le rôle de l’expérience semble le même. On sera donc tenté de dire : ou bien la mécanique doit être regardée comme une science expérimentale, et alors il doit en être de même de la géométrie ; ou bien au contraire la géométrie est une science déductive, et alors on peut en dire autant de la mécanique.
Une pareille conclusion serait illégitime. Les expériences qui nous ont conduits à adopter comme plus commodes les conventions fondamentales de la géométrie portent sur des objets qui n’ont rien de commun avec ceux qu’étudie la géométrie ; elles portent sur les propriétés des corps solides, sur la propagation rectiligne de la lumière. Ce sont des expériences de mécanique, des expériences d’optique ; on ne peut à aucun titre les regarder comme des expériences de géométrie. Et même la principale raison pour laquelle notre géométrie nous semble commode, c’est que les différentes parties de notre corps, notre œil, nos membres, jouissent précisément des propriétés des corps solides. À ce compte, nos expériences fondamentales sont avant tout des expériences de physiologie, qui portent, non sur l’espace qui est l’objet que doit étudier le géomètre, mais sur son corps, c’est-à-dire sur l’instrument dont il doit se servir pour cette étude.
Au contraire, les conventions fondamentales de la mécanique et les expériences qui nous démontrent qu’elles sont commodes portent bien sur les mêmes objets ou sur des objets analogues. Les principes conventionnels et généraux sont la généralisation naturelle et directe des principes expérimentaux et particuliers.
Qu’on ne dise pas que je trace ainsi des frontières artificielles entre les sciences ; que si je sépare par une barrière la géométrie proprement dite de l’étude des corps solides, je pourrais tout aussi bien en élever une entre la mécanique expérimentale et la mécanique conventionnelle des principes généraux. Qui ne voit en effet qu’en séparant ces deux sciences je les mutile l’une et l’autre, et que ce qui restera de la mécanique conventionnelle quand elle sera isolée ne sera que bien peu de chose, et ne pourra nullement être comparé à ce superbe corps de doctrine que l’on appelle géométrie ?
On comprend maintenant pourquoi l’enseignement de la mécanique doit rester expérimental.
C’est ainsi seulement qu’il pourra nous faire comprendre la genèse de la science, et cela est indispensable pour l’intelligence complète de la science elle-même.
D’ailleurs, si on étudie la mécanique, c’est pour l’appliquer ; et on ne peut l’appliquer que si elle reste objective. Or, ainsi que nous l’avons vu, ce que les principes gagnent en généralité et en certitude, ils le perdent en objectivité. C’est donc surtout avec le côté objectif des principes qu’il convient de se familiariser de bonne heure, et on ne peut le faire qu’en allant du particulier au général, au lieu de suivre la marche inverse.
Les principes sont des conventions et des définitions déguisées. Ils sont cependant tirés de lois expérimentales, ces lois ont été pour ainsi dire érigées en principes auxquels notre esprit attribue une valeur absolue.
Quelques philosophes ont trop généralisé ; ils ont cru que les principes étaient toute la science et par conséquent que toute la science était conventionnelle.
Cette doctrine paradoxale, qu’on a appelée le nominalisme, ne soutient pas l’examen.
Comment une loi peut-elle devenir un principe ? Elle exprimait un rapport entre deux termes réels A et B. Mais elle n’était pas rigoureusement vraie, elle n’était qu’approchée. Nous introduisons arbitrairement un terme intermédiaire C plus ou moins fictif et C est par définition ce qui a avec A exactement la relation exprimée par la loi.
Alors notre loi s’est décomposée en un principe absolu et rigoureux qui exprime le rapport de A à C et une loi expérimentale approchée et révisable qui exprime le rapport de C à B. Il est clair que si loin que l’on pousse cette décomposition, il restera toujours des lois.
Nous allons entrer maintenant dans le domaine des lois proprement dites.
RÔLE DE L’EXPÉRIENCE ET DE LA GÉNÉRALISATION
L’expérience est la source unique de la vérité : elle seule peut nous apprendre quelque chose de nouveau ; elle seule peut nous donner la certitude. Voilà deux points que nul ne peut contester.
Mais alors si l’expérience est tout, quelle place restera-t-il pour la physique mathématique ? Qu’est-ce que la physique expérimentale a à faire d’un tel auxiliaire qui semble inutile et peut-être même dangereux ?
Et pourtant la physique mathématique existe ; elle a rendu des services indéniables ; il y a là un fait qu’il est nécessaire d’expliquer.
C’est qu’il ne suffit pas d’observer, il faut se servir de ses observations, et pour cela il faut généraliser. C’est ce que l’on a fait de tout temps ; seulement, comme le souvenir des erreurs passées a rendu l’homme de plus en plus circonspect, on a observé de plus en plus et généralisé de moins en moins.
Chaque siècle se moquait du précédent, l’accusant d’avoir généralisé trop vite et trop naïvement. Descartes avait pitié des Ioniens ; Descartes à son tour nous fait sourire ; sans aucun doute nos fils riront de nous quelque jour.
Mais alors ne pouvons-nous aller tout de suite jusqu’au bout ? N’est-ce pas le moyen d’échapper à ces railleries que nous prévoyons ? Ne pouvons-nous nous contenter de l’expérience toute nue ?
Non, cela est impossible ; ce serait méconnaître complètement le véritable caractère de la science. Le savant doit ordonner ; on fait la science avec des faits comme une maison avec des pierres ; mais une accumulation de faits n’est pas plus une science qu’un tas de pierres n’est une maison.
Et avant tout le savant doit prévoir. Carlyle a écrit quelque part quelque chose comme ceci :
« Le fait seul importe ; Jean sans Terre a passé par ici, voilà ce qui est admirable, voilà une réalité pour laquelle je donnerais toutes les théories du monde ». Carlyle était un compatriote de Bacon ; mais Bacon n’aurait pas dit cela. C’est là le langage de l’historien. Le physicien dirait plutôt : « Jean sans Terre a passé par ici ; cela m’est bien égal, puisqu’il n’y repassera plus ».
Nous savons tous qu’il y a de bonnes expériences et qu’il y en a de mauvaises. Celles-ci s’accumuleront en vain ; qu’on en ait fait cent, qu’on en ait fait mille, un seul travail d’un vrai maître, d’un Pasteur par exemple, suffira pour les faire tomber dans l’oubli. Bacon aurait bien compris cela, c’est lui qui a inventé le mot experimentum crucis. Mais Carlyle ne devait pas le comprendre. Un fait est un fait ; un écolier a lu tel nombre sur son thermomètre, il n’avait pris aucune précaution ; n’importe, il l’a lu, et s’il n’y a que le fait qui compte, c’est là une réalité au même titre que les pérégrinations du roi Jean sans Terre. Pourquoi le fait que cet écolier a fait cette lecture est-il sans intérêt, tandis que le fait qu’un physicien habile aurait fait une autre lecture serait au contraire très important ? C’est que de la première lecture nous ne pouvons rien conclure. Qu’est-ce donc qu’une bonne expérience ? C’est celle qui nous fait connaître autre chose qu’un fait isolé ; c’est celle qui nous permet de prévoir, c’est-à-dire celle qui nous permet de généraliser.
Car sans généralisation, la prévision est impossible. Les circonstances où l’on a opéré ne se reproduiront jamais toutes à la fois. Le fait observé ne recommencera donc jamais ; la seule chose que l’on puisse affirmer, c’est que dans des circonstances analogues, un fait analogue se produira. Pour prévoir il faut donc au moins invoquer l’analogie, c’est-à-dire déjà généraliser.
Si timide que l’on soit, il faut bien que l’on interpole ; l’expérience ne nous donne qu’un certain nombre de points isolés, il faut les réunir par un trait continu ; c’est la une véritable généralisation. Mais on fait plus, la courbe que l’on tracera passera entre les points observés et près de ces points ; elle ne passera pas par ces points eux-mêmes. Ainsi on ne se borne pas à généraliser l’expérience, on la corrige ; et le physicien qui voudrait s’abstenir de ces corrections et se contenter vraiment de l’expérience toute nue serait forcé d’énoncer des lois bien extraordinaires.
Les faits tout nus ne sauraient donc nous suffire ; c’est pourquoi il nous faut la science ordonnée ou plutôt organisée.
On dit souvent qu’il faut expérimenter sans idée préconçue. Cela n’est pas possible ; non seulement ce serait rendre toute expérience stérile, mais on le voudrait qu’on ne le pourrait pas. Chacun porte en soi sa conception du monde dont il ne peut se défaire si aisément. Il faut bien, par exemple, que nous nous servions du langage, et notre langage n’est pétri que d’idées préconçues et ne peut l’être d’autre chose. Seulement ce sont des idées préconçues inconscientes, mille fois plus dangereuses que les autres.
Dirons-nous que si nous en faisons intervenir d’autres, dont nous aurons pleine conscience, nous ne ferons qu’aggraver le mal ! je ne le crois pas ; j’estime plutôt qu’elles se serviront mutuellement de contrepoids, j’allais dire d’antidote ; elles s’accorderont généralement mal entre elles ; elles entreront en conflit les unes avec les autres et par là elles nous forceront à envisager les choses sous différents aspects. C’est assez pour nous affranchir : on n’est plus esclave quand on peut choisir son maître.
Ainsi, grâce à la généralisation, chaque fait observé nous en fait prévoir un grand nombre ; seulement nous ne devons pas oublier que le premier seul est certain, que tous les autres ne sont que probables. Si solidement assise que puisse nous paraître une prévision, nous ne sommes jamais sûrs absolument que l’expérience ne la démentira pas, si nous entreprenons de la vérifier. Mais la probabilité est souvent assez grande pour que pratiquement nous puissions nous on contenter. Mieux vaut prévoir sans certitude que de ne pas prévoir du tout.
On ne doit donc jamais dédaigner de faire une vérification, quand l’occasion s’en présente. Mais toute expérience est longue et difficile, les travailleurs sont peu nombreux ; et le nombre des faits que nous avons besoin de prévoir est immense ; auprès de cette masse, le nombre des vérifications directes que nous pourrons faire ne sera jamais qu’une quantité négligeable.
De ce peu que nous pouvons directement atteindre, il faut tirer le meilleur parti ; il faut que chaque expérience nous permette le plus grand nombre possible de prévisions et avec le plus haut degré de probabilité qu’il se pourra. Le problème est pour ainsi dire d’augmenter le rendement de la machine scientifique.
Qu’on me permette de comparer la Science à une bibliothèque qui doit s’accroître sans cesse ; le bibliothécaire ne dispose pour ses achats que de crédits insuffisants ; il doit s’efforcer de ne pas les gaspiller.
C’est la physique expérimentale qui est chargée des achats ; elle seule peut donc enrichir la bibliothèque.
Quant à la physique mathématique, elle aura pour mission de dresser le catalogue. Si ce catalogue est bien fait, la bibliothèque n’en sera pas plus riche. Mais il pourra aider le lecteur à se servir de ces richesses.
Et même en montrant au bibliothécaire les lacunes de ses collections, il lui permettra de faire de ses crédits un emploi judicieux ; ce qui est d’autant plus important que ces crédits sont tout à fait insuffisants.
Tel est donc le rôle de la physique mathématique ; elle doit guider la généralisation de façon à augmenter ce que j’appelais tout à l’heure le rendement de la science. Par quels moyens y parvient-elle, et comment peut-elle le faire sans danger, c’est ce qu’il nous reste à examiner.
L’UNITÉ DE LA NATURE
Observons d’abord que toute généralisation suppose dans une certaine mesure la croyance à l’unité et à la simplicité de la nature. Pour l’unité il ne peut pas y avoir de difficulté. Si les diverses parties de l’univers n’étaient pas comme les organes d’un même corps, elles n’agiraient pas les unes sur les autres, elles s’ignoreraient mutuellement ; et nous, en particulier, nous n’en connaîtrions qu’une seule. Nous n’avons donc pas à nous demander si la nature est une, mais comment elle est une.
Pour le second point, cela ne va pas si aisément. Il n’est pas sûr que la nature soit simple. Pouvons-nous sans danger faire comme si elle l’était ?
Il fut un temps où la simplicité de la loi de Mariotte était un argument invoqué en faveur de son exactitude ; où Fresnel lui-même, après avoir dit, dans une conversation avec Laplace, que la nature ne se soucie pas des difficultés analytiques, se croyait obligé de donner des explications pour ne pas trop heurter l’opinion régnante.
Aujourd’hui les idées ont bien changé ; et cependant ceux qui ne croient pas que les lois naturelles doivent être simples, sont encore obligés souvent de faire comme s’ils le croyaient. Ils ne pourraient se soustraire entièrement à cette nécessité sans rendre impossible toute généralisation et par conséquent toute science.
Il est clair qu’un fait quelconque peut se généraliser d’une infinité de manières, et il s’agit de choisir ; le choix ne peut être guidé que par des considérations de simplicité. Prenons le cas le plus banal, celui de l’interpolation. Nous faisons passer un trait continu, aussi régulier que possible, entre les points donnés par l’observation. Pourquoi évitons-nous les points anguleux, les inflexions trop brusques ? Pourquoi ne faisons-nous pas décrire à notre courbe les zigzags les plus capricieux ? C’est parce que nous savons d’avance, ou que nous croyons savoir que la loi à exprimer ne peut pas être si compliquée que cela.
On peut déduire la masse de Jupiter soit des mouvements de ses satellites, soit des perturbations des grosses planètes, soit de celles des petites planètes. Si l’on prend la moyenne des déterminations obtenues par ces trois méthodes, on trouve trois nombres très voisins mais différents. On pourrait interpréter ce résultat en supposant que le coefficient de la gravitation n’est pas le même dans les trois cas ; les observations seraient certainement beaucoup mieux représentées. Pourquoi rejetons-nous cette interprétation ? Ce n’est pas qu’elle soit absurde, c’est qu’elle est inutilement compliquée. On ne l’acceptera que le jour où elle s’imposera, et elle ne s’impose pas encore.
En résumé, le plus souvent, toute loi est réputée simple jusqu’à preuve du contraire.
Cette habitude est imposée aux physiciens par les raisons que je viens d’expliquer ; mais comment la justifier en présence des découvertes qui nous montrent chaque jour de nouveaux détails plus riches et plus complexes ? Comment même la concilier avec le sentiment de l’unité de la nature ? car si tout dépend de tout, des rapports où interviennent tant d’objets divers ne peuvent plus être simples.
Si nous étudions l’histoire de la science, nous voyons se produire deux phénomènes pour ainsi dire inverses : tantôt c’est la simplicité qui se cache sous des apparences complexes, tantôt c’est au contraire la simplicité qui est apparente et qui dissimule des réalités extrêmement compliquées.
Quoi de plus compliqué que les mouvements troublés des planètes, quoi de plus simple que la loi de Newton ? Là, la nature, se jouant, comme disait Fresnel, des difficultés analytiques, n’emploie que des moyens simples et engendre, par leur combinaison, je ne sais quel écheveau inextricable. C’est là la simplicité cachée, celle qu’il faut découvrir.
Les exemples du contraire abondent. Dans la théorie cinétique des gaz, on envisage des molécules animées de grandes vitesses, dont les trajectoires, déformées par des chocs incessants, ont les formes les plus capricieuses, et sillonnent l’espace dans tous les sens. Le résultat observable est la loi simple de Mariotte ; chaque fait individuel était compliqué ; la loi des grands nombres a rétabli la simplicité dans la moyenne. Ici la simplicité n’est qu’apparente, et la grossièreté de nos sens nous empêche seule d’apercevoir la complexité.
Bien des phénomènes obéissent à une loi de proportionnalité ; mais pourquoi ? Parce que dans ces phénomènes il y a quelque chose qui est très petit. La loi simple observée n’est alors qu’une traduction de cette règle analytique générale, d’après laquelle l’accroissement infiniment petit d’une fonction est proportionnel à l’accroissement de la variable. Comme en réalité nos accroissements ne sont pas infiniment petits, mais très petits, la loi de proportionnalité n’est qu’approchée et la simplicité n’est qu’apparente. Ce que je viens de dire s’applique à la règle de la superposition des petits mouvements, dont l’emploi est si fécond et qui est le fondement de l’optique.
Et la loi de Newton elle-même ? sa simplicité, si longtemps cachée, n’est peut-être qu’apparente. Qui sait si elle n’est pas due à quelque mécanisme compliqué, au choc de quelque matière subtile animée de mouvements irréguliers, et si elle n’est devenue simple que par le jeu des moyennes et des grands nombres ? En tout cas il est difficile de ne pas supposer que la loi véritable contient des termes complémentaires, qui deviendraient sensibles aux petites distances. Si en astronomie, ils sont négligeables devant celui de Newton et si la loi retrouve ainsi sa simplicité, ce serait uniquement à cause de l’énormité des distances célestes.
Sans doute, si nos moyens d’investigation devenaient de plus en plus pénétrants, nous découvririons le simple sous le complexe, puis le complexe sous le simple, puis de nouveau le simple sous le complexe, et ainsi de suite, sans que nous puissions prévoir quel sera le dernier terme.
Il faut bien s’arrêter quelque part, et pour que la science soit possible, il faut s’arrêter quand on a trouvé la simplicité. C’est là le seul terrain sur lequel nous pourrons élever l’édifice de nos généralisations. Mais, cette simplicité n’étant qu’apparente, ce terrain sera-t-il assez solide ? C’est ce qu’il convient de rechercher.
Pour cela, voyons quel rôle joue dans nos généralisations la croyance à la simplicité. Nous avons vérifié une loi simple dans un assez grand nombre de cas particuliers ; nous nous refusons à admettre que cette rencontre, si souvent répétée, soit un simple effet du hasard et nous en concluons que la loi doit être vraie dans le cas général.
Képler remarque que les positions d’une planète observées par Tycho sont toutes sur une même ellipse. Il n’a pas un seul instant la pensée que, par un jeu singulier du hasard, Tycho n’a jamais regardé le ciel qu’au moment où la trajectoire véritable de la planète venait couper cette ellipse.
Qu’importe alors que la simplicité soit réelle, ou qu’elle recouvre une vérité complexe ? Qu’elle soit due à l’influence des grands nombres, qui nivelle les différences individuelles, qu’elle soit due à la grandeur ou à la petitesse de certaines quantités qui permet de négliger certains termes, dans tous les cas, elle n’est pas due au hasard. Cette simplicité, réelle ou apparente, a toujours une cause. Nous pourrons donc toujours faire le même raisonnement, et si une loi simple a été observée dans plusieurs cas particuliers, nous pourrons légitimement supposer qu’elle sera encore vraie dans les cas analogues. Nous y refuser serait attribuer au hasard un rôle inadmissible.
Cependant il y a une différence. Si la simplicité était réelle et profonde, elle résisterait à la précision croissante de nos moyens de mesure ; si donc nous croyons la nature profondément simple, nous devrions conclure d’une simplicité approchée à une simplicité rigoureuse. C’est ce qu’on faisait autrefois ; c’est ce que nous n’avons plus le droit de faire.
La simplicité des lois de Képler, par exemple, n’est qu’apparente. Cela n’empêche pas qu’elles s’appliqueront, à fort peu près, à tous les systèmes analogues au système solaire, mais cela empêche qu’elles soient rigoureusement exactes.
RÔLE DE L’HYPOTHÈSE
Toute généralisation est une hypothèse ; l’hypothèse a donc un rôle nécessaire que personne n’a jamais contesté. Seulement elle doit toujours être, le plus tôt possible et le plus souvent possible, soumise à la vérification. Il va sans dire que, si elle ne supporte pas cette épreuve, on doit l’abandonner sans arrière-pensée. C’est bien ce qu’on fait en général, mais quelquefois avec une certaine mauvaise humeur.
Eh bien, cette mauvaise humeur même n’est pas justifiée ; le physicien qui vient de renoncer à une de ses hypothèses devrait être, au contraire, plein de joie, car il vient de trouver une occasion inespérée de découverte. Son hypothèse, j’imagine, n’avait pas été adoptée à la légère ; elle tenait compte de tous les facteurs connus qui semblaient pouvoir intervenir dans le phénomène. Si la vérification ne se fait pas c’est qu’il y a quelque chose d’inattendu, d’extraordinaire ; c’est qu’on va trouver de l’inconnu et du nouveau.
L’hypothèse ainsi renversée a-t-elle donc été stérile ? Loin de là, ou peut dire qu’elle a rendu plus de services qu’une hypothèse vraie ; non seulement elle a été l’occasion de l’expérience décisive, mais on aurait fait cette expérience par hasard, sans avoir fait l’hypothèse, qu’on n’en aurait rien tiré ; on n’y aurait rien vu d’extraordinaire ; on n’aurait catalogué qu’un fait de plus sans en déduire la moindre conséquence.
Maintenant à quelle condition l’usage de l’hypothèse est-il sans danger ?
Le ferme propos de se soumettre à l’expérience ne suffit pas ; il y a encore des hypothèses dangereuses ; ce sont d’abord, ce sont surtout celles qui sont tacites et inconscientes. Puisque nous les faisons sans le savoir, nous sommes impuissants à les abandonner. C’est donc là encore un service que peut nous rendre la physique mathématique. Par la précision qui lui est propre, elle nous oblige à formuler toutes les hypothèses que nous ferions sans elle, mais sans nous en douter.
Remarquons, d’autre part, qu’il importe de ne pas multiplier les hypothèses outre mesure et de ne les faire que l’une après l’autre. Si nous construisons une théorie fondée sur des hypothèses multiples, et, si l’expérience la condamne, quelle est parmi nos prémisses celle qu’il est nécessaire de changer ? Il sera impossible de le savoir. Et inversement, si l’expérience réussit, croira-t-on avoir vérifié toutes ces hypothèses à la fois ? Croira-t-on avec une seule équation avoir déterminé plusieurs inconnues ?
Il faut également avoir soin de distinguer entre les différentes sortes d’hypothèses. Il y a d’abord celles qui sont toutes naturelles et auxquelles on ne peut guère se soustraire. Il est difficile de ne pas supposer que l’influence des corps très éloignés est tout à fait négligeable, que les petits mouvements obéissent à une loi linéaire, que l’effet est une fonction continue de sa cause. J’en dirai autant des conditions imposées par la symétrie. Toutes ces hypothèses forment pour ainsi dire le fonds commun de toutes les théories de la physique mathématique. Ce sont les dernières que l’on doit abandonner.
Il y a une seconde catégorie d’hypothèses que je qualifierai d’indifférentes. Dans la plupart des questions, l’analyste suppose, au début de son calcul, soit que la matière est continue, soit, inversement, qu’elle est formée d’atomes. Il aurait fait le contraire que ses résultats n’en auraient pas été changés ; il aurait eu plus de peine à les obtenir, voilà tout. Si alors l’expérience confirme ses conclusions, pensera-t-il avoir démontré, par exemple, l’existence réelle des atomes ?
Dans les théories optiques s’introduisent deux vecteurs que l’on regarde, l’un comme une vitesse, l’autre comme un tourbillon. C’est là encore une hypothèse indifférente, puisqu’on serait arrivé aux mêmes conclusions en faisant précisément le contraire ; le succès de l’expérience ne peut donc prouver que le premier vecteur est bien une vitesse ; il ne prouve qu’une chose, c’est que c’est un vecteur ; c’est là la seule hypothèse qu’on ait réellement introduite dans les prémisses. Pour lui donner cette apparence concrète qu’exige la faiblesse de notre esprit, il a bien fallu le considérer, soit comme une vitesse, soit comme un tourbillon ; de même qu’il a fallu le représenter par une lettre, soit par x, soit par y ; mais le résultat, quelqu’il soit, ne prouvera pas que l’on a eu raison ou tort de le regarder comme une vitesse ; pas plus qu’il ne prouvera que l’on a eu raison ou tort de l’appeler x et non pas y.
Ces hypothèses indifférentes ne sont jamais dangereuses, pourvu qu’on n’en méconnaisse pas le caractère. Elles peuvent être utiles, soit comme artifices de calcul, soit pour soutenir notre entendement par des images concrètes, pour fixer les idées, comme on dit. Il n’y a donc pas lieu de les proscrire.
Les hypothèses de la troisième catégorie sont les véritables généralisations. Ce sont elles que l’expérience doit confirmer ou infirmer. Vérifiées on condamnées, elles pourront être fécondes. Mais, pour les raisons que j’ai exposées, elles ne le seront que si on ne les multiplie pas.
ORIGINE DE LA PHYSIQUE MATHÉMATIQUE
Pénétrons plus avant et étudions de plus près les conditions qui ont permis le développement de la physique mathématique. Nous reconnaissons du premier coup que les efforts des savants ont toujours tendu à résoudre le phénomène complexe donné directement par l’expérience en un nombre très grand de phénomènes élémentaires.
Et cela de trois manières différentes : d’abord dans le temps. Au lieu d’embrasser dans son ensemble le développement progressif d’un phénomène, on cherche simplement à relier chaque instant à l’instant immédiatement antérieur ; on admet que l’état actuel du monde ne dépend que du passé le plus proche, sans être directement influencé pour ainsi dire par le souvenir d’un passé lointain. Grâce à ce postulat, au lieu d’étudier directement toute la succession des phénomènes, on peut se borner à en écrire « l’équation différentielle » ; aux lois de Képler, on substitue celle de Newton.
Ensuite, on cherche à décomposer le phénomène dans l’espace. Ce que l’expérience nous donne, c’est un ensemble confus de faits se produisant sur un théâtre d’une certaine étendue ; il faut tâcher de discerner le phénomène élémentaire qui sera, au contraire, localisé dans une région très petite de l’espace.
Quelques exemples feront peut-être mieux comprendre ma pensée. Si l’on voulait étudier dans toute sa complexité la distribution de la température dans un solide qui se refroidit, on n’y pourrait jamais parvenir. Tout devient simple si l’on réfléchit qu’un point du solide ne peut directement céder de chaleur à un point éloigné ; il n’en cédera immédiatement qu’aux points les plus voisins, et c’est de proche en proche que le flux de chaleur pourra atteindre d’autres portions du solide. Le phénomène élémentaire, c’est l’échange de chaleur entre deux points contigus ; il est strictement localisé, et il est relativement simple, si l’on admet, comme il est naturel, qu’il n’est pas influencé par la température des molécules dont la distance est sensible.
Je ploie une verge ; elle va prendre une forme très compliquée dont l’étude directe serait impossible ; mais je pourrai l’aborder cependant, si j’observe que sa flexion n’est que la résultante de la déformation des éléments très petits de la verge, et que la déformation de chacun de ces éléments ne dépend que des forces qui lui sont directement appliquées et nullement de celles qui peuvent agir sur les autres éléments.
Dans tous ces exemples, que je pourrais multiplier sans peine, on admet qu’il n’y a pas d’action à distance ou du moins à grande distance. C’est là une hypothèse ; elle n’est pas toujours vraie, la loi de la gravitation nous le prouve ; il faut donc la soumettre à la vérification ; si elle est confirmée, même approximativement, elle est précieuse, car elle va nous permettre de faire de la physique mathématique au moins par approximations successives.
Si elle ne résiste pas à l’épreuve, il faut chercher autre chose d’analogue, car il y a encore d’autres moyens d’arriver au phénomène élémentaire. Si plusieurs corps agissent simultanément, il peut arriver que leurs actions soient indépendantes et s’ajoutent simplement les unes aux autres, soit à la façon des vecteurs, soit à la façon des quantités scalaires. Le phénomène élémentaire est alors l’action d’un corps isolé. Ou bien encore on a affaire à de petits mouvements, ou plus généralement à de petites variations, qui obéissent à la loi bien connue de la superposition. Le mouvement observé sera alors décomposé en mouvements simples, par exemple le son en ses harmoniques, la lumière blanche en ses composantes monochromatiques.
Quand on a discerné de quel côté il convient de chercher le phénomène élémentaire, par quels moyens peut-on l’atteindre ?
D’abord, il arrivera souvent que, pour le deviner, ou plutôt pour en deviner ce qui nous est utile, il ne sera pas nécessaire d’en pénétrer le mécanisme ; la loi des grands nombres suffira. Reprenons l’exemple de la propagation de la chaleur ; chaque molécule rayonne vers chaque molécule voisine ; suivant quelle loi, nous n’avons pas besoin de le savoir ; si nous supposions quelque chose à cet égard, ce serait une hypothèse indifférente et par conséquent inutile et invérifiable. Et, en effet, par l’action des moyennes et grâce à la symétrie du milieu, toutes les différences se nivellent et, quelle que soit l’hypothèse faite, le résultat est toujours le même.
La même circonstance se présente dans la théorie de l’élasticité, dans celle de la capillarité ; les molécules voisines s’attirent et se repoussent ; nous n’avons pas besoin de savoir d’après quelle loi ; il nous suffit que cette attraction ne soit sensible qu’aux petites distances, que les molécules soient très nombreuses, que le milieu soit symétrique et nous n’aurons plus qu’à laisser agir la loi des grands nombres.
Ici encore la simplicité du phénomène élémentaire se cachait sous la complication du phénomène résultant observable ; mais, à son tour, cette simplicité n’était qu’apparente et dissimulait un mécanisme très complexe.
Le meilleur moyen d’arriver au phénomène élémentaire serait évidemment l’expérience. Il faudrait, par des artifices expérimentaux, dissocier le faisceau complexe que la nature offre à nos recherches et en étudier avec soin les éléments aussi purifiés que possible ; par exemple, on décomposera la lumière blanche naturelle en lumières monochromatiques à l’aide du prisme et en lumières polarisées à l’aide du polariseur.
Malheureusement, cela n’est ni toujours possible, ni toujours suffisant et il faut quelque fois que l’esprit devance l’expérience. Je n’en citerai qu’un exemple qui m’a toujours vivement frappé.
Si je décompose la lumière blanche, je pourrai isoler une petite portion du spectre, mais, si petite qu’elle soit, elle conservera une certaine largeur. De même, les lumières naturelles dites monochromatiques nous donnent une raie très fine, mais qui n’est pas cependant infiniment fine. On pourrait supposer qu’en étudiant expérimentalement les propriétés de ces lumières naturelles, en opérant avec des raies spectrales de plus en plus fines, et en passant enfin à la limite, pour ainsi dire, on arrivera à connaître les propriétés d’une lumière rigoureusement monochromatique.
Cela ne serait pas exact. Je suppose que deux rayons émanent d’une même source, qu’on les polarise d’abord dans deux plans rectangulaires, qu’on les ramène ensuite au même plan de polarisation et qu’on cherche à les faire interférer. Si la lumière était rigoureusement monochromatique, ils interféreraient ; mais, avec nos lumières à peu près monochromatiques, il n’y aura pas d’interférence, et cela si étroite que soit la raie ; il faudrait, pour qu’il en fût autrement, qu’elle fût plusieurs millions de fois plus étroite que les plus fines raies connues.
Ici donc, le passage à la limite nous aurait trompés ; il a fallu que l’esprit devançât l’expérience et, s’il l’a fait avec succès, c’est qu’il s’est laissé guider par l’instinct de la simplicité.
La connaissance du fait élémentaire nous permet de mettre le problème en équation ; il ne reste plus qu’à en déduire par combinaison le fait complexe observable et vérifiable. C’est ce qu’on appelle l’intégration ; c’est là l’affaire du mathématicien.
On peut se demander pourquoi, dans les sciences physiques, la généralisation prend volontiers la forme mathématique. La raison est maintenant facile à voir ; ce n’est pas seulement parce que l’on a à exprimer des lois numériques ; c’est parce que le phénomène observable est dû à la superposition d’un grand nombre de phénomènes élémentaires tous semblables entre eux ; ainsi s’introduisent tout naturellement les équations différentielles.
Il ne suffit pas que chaque phénomène élémentaire obéisse à des lois simples, il faut que tous ceux que l’on a à combiner obéissent à la même loi. C’est alors seulement que l’intervention des mathématiques peut être utile ; les mathématiques nous apprennent, en effet, à combiner le semblable au semblable. Leur but est de deviner le résultat d’une combinaison, sans avoir besoin de refaire cette combinaison pièce à pièce. Si l’on a à répéter plusieurs fois une même opération, elles nous permettent d’éviter cette répétition en nous en faisant connaître d’avance le résultat par une sorte d’induction. Je l’ai expliqué plus haut, dans le chapitre sur le raisonnement mathématique.
Mais, pour cela, il faut que toutes ces opérations soient semblables entre elles ; dans le cas contraire, il faudrait évidemment se résigner à les faire effectivement l’une après l’autre et les mathématiques deviendraient inutiles.
C’est donc grâce à l’homogénéité approchée de la matière étudiée par les physiciens que la physique mathématique a pu naître.
Dans les sciences naturelles, on ne retrouve plus ces conditions : homogénéité, indépendance relative des parties éloignées, simplicité du fait élémentaire, et c’est pour cela que les naturalistes sont obligés de recourir à d’autres modes de généralisation.
SIGNIFICATION DES THÉORIES PHYSIQUES
Les gens du monde sont frappés de voir combien les théories scientifiques sont éphémères. Après quelques années de prospérité, ils les voient successivement abandonnées ; ils voient les ruines s’accumuler sur les ruines ; ils prévoient que les théories aujourd’hui à la mode devront succomber à leur tour à bref délai et ils en concluent qu’elles sont absolument vaines. C’est ce qu’ils appellent la faillite de la science.
Leur scepticisme est superficiel ; ils ne se rendent nul compte du but et du rôle des théories scientifiques, sans cela ils comprendraient que les ruines peuvent être encore bonnes à quelque chose.
Nulle théorie ne semblait plus solide que celle de Fresnel qui attribuait la lumière aux mouvements de l’éther. Cependant, on lui préfère maintenant celle de Maxwell. Cela veut-il dire que l’œuvre de Fresnel a été vaine ? Non, car le but de Fresnel n’était pas de savoir s’il y a réellement un éther, s’il est ou non formé d’atomes, si ces atomes se meuvent réellement dans tel ou tel sens ; c’était de prévoir les phénomènes optiques.
Or, cela, la théorie de Fresnel le permet toujours, aujourd’hui aussi bien qu’avant Maxwell. Les équations différentielles sont toujours vraies ; on peut toujours les intégrer par les mêmes procédés et les résultats de cette intégration conservent toujours toute leur valeur.
Et qu’on ne dise pas que nous réduisons ainsi les théories physiques au rôle de simples recettes pratiques ; ces équations expriment des rapports et, si les équations restent vraies, c’est que ces rapports conservent leur réalité. Elles nous apprennent, après comme avant, qu’il y a tel rapports entre quelque chose et quelque autre chose ; seulement, ce quelque chose nous l’appelions autrefois mouvement, nous l’appelons maintenant courant électrique. Mais ces appellations n’étaient que des images substituées aux objets réels que la nature nous cachera éternellement. Les rapports véritable entre ces objets réels sont la seule réalité que nous puissions atteindre, et la seule condition, c’est qu’il y ait les mêmes rapports entre ces objets qu’entre les images que nous sommes forcés de mettre à leur place. Si ces rapports nous sont connus, qu’importe si nous jugeons commode de remplacer une image par une autre.
Que tel phénomène périodique (une oscillation électrique, par exemple) soit réellement dû à la vibration de tel atome qui, se comportant comme un pendule, se déplace véritablement dans tel ou tel sens, voilà ce qui n’est ni certain ni intéressant. Mais qu’il y ait entre l’oscillation électrique, le mouvement du pendule et tous les phénomènes périodiques une parenté intime qui correspond à une réalité profonde ; que cette parenté, cette similitude, ou plutôt ce parallélisme se poursuive dans le détail ; qu’elle soit une conséquence de principes plus généraux, celui de l’énergie et celui de la moindre action ; voilà ce que nous pouvons affirmer ; voilà la vérité qui restera toujours la même sous tous les costumes dont nous pourrons juger utile de l’affubler.
On a proposé de nombreuses théories de la dispersion ; les premières étaient imparfaites et ne contenaient qu’une faible part de vérité. Ensuite est venue celle de Helmholtz ; puis on l’a modifiée de diverses manières et son auteur lui-même en a imaginé une autre fondée sur les principes de Maxwell. Mais, chose remarquable, tous les savants qui sont venus après Helmholtz sont arrivés aux mêmes équations, en partant de points de départ on apparence très éloignés. J’oserai dire que ces théories sont toutes vraies à la fois, non seulement parce qu’elles nous font prévoir les mêmes phénomènes, mais parce qu’elles mettent en évidence un rapport vrai, celui de l’absorption et de la dispersion anormale. Dans les prémisses de ces théories, ce qu’il y a de vrai, c’est ce qui est commun à tous les auteurs ; c’est l’affirmation de tel ou tel rapport entre certaines choses que les uns appellent d’un nom et les autres d’un autre.
La théorie cinétique des gaz a donné lieu à bien des objections, auxquelles on pourrait difficilement répondre si l’on avait la prétention d’y voir la vérité absolue. Mais toutes ces objections n’empêcheront pas qu’elle a été utile et qu’elle l’a été en particulier en nous révélant un rapport vrai et sans elle profondément caché, celui de la pression gazeuse et de la pression osmotique. En ce sens, on peut donc dire qu’elle est vraie.
Quand un physicien constate une contradiction entre deux théories qui lui sont également chères, il dit quelquefois : Ne nous inquiétons pas de cela mais tenons fermement les deux bouts de la chaîne bien que les anneaux intermédiaires nous soient cachés. Cet argument de théologien embarrassé serait ridicule si l’on devait attribuer aux théories physiques le sens que leur donnent les gens du monde. En cas de contradiction, l’une d’elles au moins devrait alors être regardée comme fausse. Il n’en est plus de même si l’on y cherche seulement ce qu’on y doit chercher. Il peut se faire qu’elles expriment l’une et l’autre des rapports vrais et qu’il n’y ait de contradiction que dans les images dont nous avons habillé la réalité.
À ceux qui trouvent que nous restreignons trop le domaine accessible au savant, je répondrai : Ces questions, que nous vous interdisons et que vous regrettez, ne sont pas seulement insolubles, elles sont illusoires et dépourvues de sens.
Tel philosophe prétend que toute la physique s’explique par les chocs mutuels des atomes. S’il veut dire simplement qu’il y a entre les phénomènes physiques les mêmes rapports qu’entre les chocs mutuels d’un grand nombre de billes, rien de mieux, cela est vérifiable, cela est peut-être vrai. Mais il veut dire quelque chose de plus ; et nous croyons le comprendre parce que nous croyons savoir ce que c’est que le choc en soi ; pourquoi ? Tout simplement parce que nous avons vu souvent des parties de billard. Entendrons-nous que Dieu, en contemplant son œuvre, éprouve les mêmes sensations que nous en présence d’un match de billard ? Si nous ne voulons pas donner à son assertion ce sens bizarre, si nous ne voulons pas non plus du sens restreint que j’expliquais tout à l’heure et qui est le bon, elle n’en a plus aucun.
Les hypothèses de ce genre n’ont donc qu’un sens métaphorique. Le savant ne doit pas plus se les interdire, que le poète ne s’interdit les métaphores ; mais il doit savoir ce qu’elles valent. Elles peuvent être utiles pour donner une satisfaction à l’esprit, et elles ne seront pas nuisibles pourvu qu’elles ne soient que des hypothèses indifférentes.
Ces considérations nous expliquent pourquoi certaines théories, que l’on croyait abandonnées et définitivement condamnées par l’expérience, renaissent tout à coup de leurs cendres et recommencent une vie nouvelle. C’est qu’elles exprimaient des rapports vrais ; et qu’elles n’avaient pas cessé de le faire quand, pour une raison ou pour une autre, nous avions cru devoir énoncer les mêmes rapports dans un autre langage. Elles avaient ainsi conservé une sorte de vie latente.
Il y a quinze ans à peine, y avait-il rien de plus ridicule, de plus naïvement vieux jeu que les fluides de Coulomb ? Et pourtant les voilà qui reparaissent sous le nom d’électrons. En quoi ces molécules électrisées d’une façon permanente diffèrent-elles des molécules électriques de Coulomb ? Il est vrai que, dans les électrons, l’électricité est supportée par un peu de matière, mais si peu ; en d’autres termes, elles ont une masse (et encore voilà qu’aujourd’hui on la leur conteste) ; mais Coulomb ne refusait pas la masse à ses fluides, ou, s’il le faisait, ce n’était qu’à regret. Il serait téméraire d’affirmer que la croyance aux électrons ne subira plus d’éclipse ; il n’en était pas moins curieux de constater cette renaissance inattendue.
Mais l’exemple le plus frappant est le principe de Carnot. Carnot l’a établi en partant d’hypothèses fausses ; quand on s’aperçut que la chaleur n’est pas indestructible, mais peut être transformée en travail, on abandonna complètement ses idées ; puis Clausius y revint et les fit définitivement triompher. La théorie de Carnot, sous sa forme primitive, exprimait, à côté de rapports véritables, d’autres rapports inexacts, débris des vieilles idées ; mais la présence de ces derniers n’altérait pas la réalité des autres. Clausius n’a eu qu’à les écarter comme on émonde des branches mortes.
Le résultat a été la seconde loi fondamentale de la thermodynamique. C’étaient toujours les mêmes rapports ; quoique ces rapports n’eussent plus lieu, au moins on apparence, entre les mêmes objets. C’en était assez pour que le principe conservât sa valeur. Et même les raisonnements de Carnot n’ont pas péri pour cela ; ils s’appliquaient à une matière entachée d’erreur ; mais leur forme (c’est-à-dire l’essentiel) demeurait correcte.
Ce que je viens de dire éclaire en même temps le rôle des principes généraux tels que le principe de moindre action, ou celui de la conservation de l’énergie.
Ces principes ont une très haute valeur ; on les a obtenus en cherchant ce qu’il y avait de commun dans l’énoncé de nombreuses lois physiques ; ils représentent donc comme la quintessence d’innombrables observations.
Toutefois, de leur généralité même résulte une conséquence sur laquelle j’ai appelé l’attention dans le chapitre VIII, c’est qu’ils ne peuvent plus ne pas être vérifiés. Comme nous ne pouvons pas donner de l’énergie une définition générale, le principe de la conservation de l’énergie signifie simplement qu’il y a quelque chose qui demeure constant. Eh bien, quelles que soient les notions nouvelles que les expériences futures nous donneront sur le monde, nous sommes sûrs d’avance qu’il y aura quelque chose qui demeurera constant et que nous pourrons appeler énergie.
Est-ce à dire que le principe n’a aucun sens et s’évanouit en une tautologie ? Nullement, il signifie que les différentes choses auxquelles nous donnons le nom d’énergie sont liées par une parenté véritable ; il affirme entre elles un rapport réel. Mais alors si ce principe a un sens, il peut être faux ; il peut se faire qu’on n’ait pas le droit d’en étendre indéfiniment les applications et cependant il est assuré d’avance d’être vérifié dans l’acception stricte du mot ; comment donc serons-nous avertis quand il aura atteint toute l’extension qu’on peut légitimement lui donner ? C’est tout simplement quand il cessera de nous être utile, c’est-à-dire de nous faire prévoir sans nous tromper des phénomènes nouveaux. Nous serons sûrs en pareil cas que le rapport affirmé n’est plus réel ; car sans cela il serait fécond ; l’expérience, sans contredire directement une nouvelle extension du principe, l’aura cependant condamnée.
LA PHYSIQUE ET LE MÉCANISME
La plupart des théoriciens ont une prédilection constante pour les explications empruntées à la mécanique ou à la dynamique. Les uns seraient satisfaits s’ils pouvaient rendre compte de tous les phénomènes par les mouvements de molécules s’attirant mutuellement suivant certaines lois. Les autres sont plus exigeants, ils voudraient supprimer les attractions à distance ; leurs molécules suivraient des trajectoires rectilignes dont elles ne pourraient être déviées que par des chocs. D’autres encore, comme Hertz, suppriment aussi les forces, mais supposent leurs molécules soumises à des liaisons géométriques analogues, par exemple, à celles de nos systèmes articulés ; ils veulent ainsi réduire la dynamique à une sorte de cinématique.
Tous, en un mot, veulent plier la nature à une certaine forme en dehors de laquelle leur esprit ne saurait être satisfait. La nature sera-t-elle assez flexible pour cela ?
Nous examinerons la question au chapitre XII à propos de la théorie de Maxwell. Toutes les fois que les principes de l’énergie et de la moindre action sont satisfaits, nous verrons non seulement qu’il y a toujours une explication mécanique possible, mais qu’il y en a toujours une infinité. Grâce à un théorème bien connu de M. Königs sur les systèmes articulés, on pourrait montrer qu’on peut d’une infinité de manières, tout expliquer par des liaisons à la manière de Hertz, ou encore par des forces centrales. On démontrerait sans doute aussi facilement que tout peut toujours s’expliquer avec de simples chocs.
Pour cela, il faut, bien entendu, ne pas se contenter de la matière vulgaire, de celle qui tombe sous nos sens et dont nous observons directement les mouvements. Ou bien on supposera que cette matière vulgaire est formée d’atomes dont les mouvements intestins nous échappent, le déplacement d’ensemble restant seul accessible à nos sens. Ou bien on imaginera quelqu’un de ces fluides subtils qui, sous le nom d’éther ou sous d’autres noms, ont joué de tout temps un si grand rôle dans les théories physiques.
Souvent on va plus loin et l’on regarde l’éther comme la seule matière primitive ou même comme la seule matière véritable. Les plus modérés considèrent la matière vulgaire comme de l’éther condensé, ce qui n’a rien de choquant ; mais d’autres en réduisent plus encore l’importance et n’y voient plus que le lieu géométrique des singularités de l’éther. Par exemple, pour Lord Kelvin, ce que nous appelons matière n’est que le lieu des points où l’éther est animé de mouvements tourbillonnaires ; pour Riemann, c’était le lieu des points ou l’éther est constamment détruit ; pour d’autres auteurs plus récents, Wiechert ou Larmor, c’est le lieu des points où l’éther subit une sorte de torsion d’une nature toute particulière. Si l’on veut se placer à un de ces points de vue, je me demande de quel droit on étendra à l’éther, sous prétexte que c’est de la vraie matière, les propriétés mécaniques observées sur la matière vulgaire, qui n’est que de la fausse matière.
Les anciens fluides, calorique, électricité, etc., ont été abandonnés quand on s’est aperçu que la chaleur n’est pas indestructible. Mais ils l’ont été aussi pour une autre raison. En les matérialisant, on accentuait pour ainsi dire leur individualité, on creusait entre eux une sorte d’abîme. Il a bien fallu le combler quand on a eu un sentiment plus vif de l’unité de la nature, et qu’on a aperçu les relations intimes qui en relient toutes les parties. Non seulement les anciens physiciens, en multipliant les fluides, créaient des êtres sans nécessité, mais ils rompaient des liens véritables.
Il ne suffit pas qu’une théorie n’affirme pas des rapports faux, il faut qu’elle ne dissimule pas des rapports vrais.
Et notre éther, existe-t-il réellement ?
On sait d’où nous vient la croyance à l’éther. Si la lumière nous arrive d’une étoile éloignée, pendant plusieurs années, elle n’est plus sur l’étoile et elle n’est pas encore sur la terre, il faut bien qu’alors elle soit quelque part et soutenue, pour ainsi dire, par quelque support matériel.
On peut exprimer la même idée sous une forme plus mathématique et plus abstraite. Ce que nous constatons ce sont les changements subis par les molécules matérielles ; nous voyons, par exemple, que notre plaque photographique éprouve les conséquences des phénomènes dont la masse incandescente de l’étoile a été le théâtre plusieurs années auparavant. Or, dans la mécanique ordinaire, l’état du système étudié ne dépend que de son état à un instant immédiatement antérieur ; le système satisfait donc à des équations différentielles. Au contraire, si nous ne croyions pas à l’éther, l’état de l’univers matériel dépendrait non seulement de l’état immédiatement antérieur, mais d’états beaucoup plus anciens ; le système satisferait à des équations aux différences finies. C’est pour échapper à cette dérogation aux lois générales de la mécanique que nous avons inventé l’éther.
Cela ne nous obligerait encore qu’à remplir, avec l’éther le vide interplanétaire, mais non de le faire pénétrer au sein des milieux matériels eux-mêmes. L’expérience de Fizeau va plus loin. Par l’interférence des rayons qui ont traversé de l’air ou de l’eau en mouvement, elle semble nous montrer deux milieux différents se pénétrant et pourtant se déplaçant l’un par rapport à l’autre. On croit toucher l’éther du doigt.
On peut concevoir cependant des expériences qui nous le feraient toucher de plus près encore. Supposons que le principe de Newton, de l’égalité de l’action et de la réaction, ne soit plus vrai si on l’applique à la matière seule et qu’on vienne à le constater. La somme géométrique de toutes les forces appliquées à toutes les molécules matérielles ne serait plus nulle. Il faudrait bien, si on ne voulait changer toute la mécanique, introduire l’éther, pour que cette action que la matière paraîtrait subir fût contrebalancée par la réaction de la matière sur quelque chose.
Ou bien encore je suppose que l’on reconnaisse que les phénomènes optiques et électriques sont influencés par le mouvement de la terre. On serait conduit à conclure que ces phénomènes pourraient nous révéler non seulement les mouvements relatifs des corps matériels, mais ce qui semblerait être leurs mouvements absolus. Il faudrait bien encore qu’il y eut un éther, pour que ces soi-disant mouvements absolus ne fussent pas leurs déplacements par rapport à un espace vide, mais leurs déplacements par rapport à quelque chose de concret.
En arrivera-t-on jamais là ? Je n’ai pas cette espérance, je dirai tout à l’heure pourquoi, et cependant elle n’est pas si absurde, puisque d’autres l’ont eue.
Par exemple, si la théorie de Lorentz, dont je parlerai plus loin en détail au chapitre XIII, était vraie, le principe de Newton ne s’appliquerait pas à la matière seule et la différence ne serait pas très loin d’être accessible à l’expérience.
D’un autre côté, on a fait bien des recherches sur l’influence du mouvement de la terre. Les résultats ont toujours été négatifs. Mais si l’on a entrepris ces expériences, c’est qu’on n’en était pas sûr d’avance, et même, d’après les théories régnantes, la compensation ne serait qu’approchée, et l’on devrait s’attendre à voir des méthodes précises donner des résultats positifs.
Je crois qu’une telle espérance est illusoire ; il n’en était pas moins curieux de montrer qu’un succès de ce genre nous ouvrirait, en quelque sorte, un monde nouveau.
Et maintenant il faut qu’on me permette une digression ; je dois expliquer, en effet, pourquoi je ne crois pas, malgré Lorentz, que des observations plus précises puissent jamais mettre en évidence autre chose que les déplacements relatifs des corps matériels. On a fait des expériences qui auraient dû déceler les termes du premier ordre ; les résultats ont été négatifs ; cela pouvait-il être par hasard ? Personne ne l’a admis ; on a cherché une explication générale, et Lorentz l’a trouvée ; il a montré que les termes du premier ordre devaient se détruire, mais il n’en était pas de même de ceux du second. Alors on a fait des expériences plus précises ; elles ont aussi été négatives ; ce ne pouvait non plus être l’effet du hasard ; il fallait une explication ; on l’a trouvée ; on en trouve toujours ; les hypothèses, c’est le fonds qui manque le moins.
Mais ce n’est pas assez ; qui ne sent que c’est encore là laisser au hasard un trop grand rôle ? Ne serait-ce pas aussi un hasard que ce singulier concours qui ferait qu’une certaine circonstance viendrait juste à point pour détruire les termes du premier ordre, et qu’une autre circonstance, tout à fait différente, mais tout aussi opportune, se chargerait de détruire ceux du second ordre ? Non, il faut trouver une même explication pour les uns et pour les autres, et alors tout nous porte à penser que cette explication vaudra également pour les termes d’ordre supérieur, et que la destruction mutuelle de ces termes sera rigoureuse et absolue.
ÉTAT ACTUEL DE LA SCIENCE
Dans l’histoire du développement de la physique, on distingue deux tendances inverses. D’une part, ou découvre à chaque instant des liens nouveaux entre des objets qui semblaient devoir rester à jamais séparés ; les faits épars cessent d’être étrangers les uns aux autres ; ils tendent à s’ordonner en une imposante synthèse. La science marche vers l’unité et la simplicité.
D’autre part, l’observation nous révèle tous les jours des phénomènes nouveaux ; il faut qu’ils attendent longtemps leur place et quelquefois, pour leur en faire une, on doit démolir un coin de l’édifice. Dans les phénomènes connus eux-mêmes, où nos sens grossiers nous montraient l’uniformité, nous apercevons des détails de jour en jour plus variés ; ce que nous croyions simple redevient complexe et la science paraît marcher vers la variété et la complication.
De ces deux tendances inverses, qui semblent triompher tour à tour, laquelle l’emportera ? Si c’est la première, la science est possible ; mais rien ne le prouve à priori, et l’on peut craindre qu’après avoir fait de vains efforts pour plier la nature malgré elle à notre idéal d’unité, débordés par le flot toujours montant de nos nouvelles richesses, nous ne devions renoncer à les classer, abandonner notre idéal, et réduire la science à l’enregistrement d’innombrables recettes.
À cette question, nous ne pouvons répondre. Tout ce que nous pouvons faire, c’est d’observer la science d’aujourd’hui et de la comparer à celle d’hier. De cet examen nous pourrons sans doute tirer quelques présomptions.
Il y a un demi-siècle, on avait conçu les plus grandes espérances. La découverte de la conservation de l’énergie et de ses transformations venait de nous révéler l’unité de la force. Elle montrait ainsi que les phénomènes de la chaleur pouvaient s’expliquer par des mouvements moléculaires. Quelle était la nature de ces mouvements, on ne le savait pas au juste, mais on ne doutait pas qu’on le sût bientôt. Pour la lumière la tâche semblait complètement accomplie. En ce qui concerne l’électricité, on était moins avancé. L’électricité venait de s’annexer le magnétisme. C’était un pas considérable vers l’unité, un pas définitif. Mais comment l’électricité rentrerait-elle à son tour dans l’unité générale, comment se ramènerait-elle au mécanisme universel ? On n’en avait aucune idée. La possibilité de cette réduction n’était cependant mise en doute par personne, on avait la foi. Enfin, en ce qui concerne les propriétés moléculaires des corps matériels, la réduction semblait encore plus facile, mais tout le détail restait dans un brouillard. En un mot, les espérances étaient vastes, elles étaient vives, mais elles étaient vagues.
Aujourd’hui que voyons-nous ?
D’abord un premier progrès, progrès immense. Les rapports de l’électricité et de la lumière sont maintenant connus ; les trois domaines de la lumière, de l’électricité et du magnétisme, autrefois séparés, n’en forment plus qu’un ; et cette annexion semble définitive.
Cette conquête, toutefois, nous a coûté quelques sacrifices. Les phénomènes optiques rentrent comme cas particuliers dans les phénomènes électriques ; tant qu’ils restaient isolés, il était aisé de les expliquer par des mouvements qu’on croyait connaître dans tous leurs détails, cela allait tout seul ; mais maintenant une explication, pour être acceptable, doit s’étendre sans peine au domaine électrique tout entier. Or, cela ne marche pas sans difficultés.
Ce que nous avons de plus satisfaisant, c’est la théorie de Lorentz qui, ainsi que nous le verrons au dernier chapitre, explique les courants électriques par les mouvements de petites particules électrisées ; c’est sans contredit celle qui rend le mieux compte des faits connus, celle qui met en lumière le plus grand nombre de rapports vrais, celle dont on retrouvera le plus de traces dans la construction définitive. Néanmoins elle a encore un défaut grave, que j’ai signalé plus haut ; elle est contraire au principe de Newton, de l’égalité de l’action et de la réaction ; ou plutôt ce principe, aux yeux de Lorentz, ne serait pas applicable à la matière seule ; pour qu’il fût vrai, il faudrait tenir compte des actions exercées par l’éther sur la matière et de la réaction de la matière sur l’éther. Or, jusqu’à nouvel ordre, il est vraisemblable que les choses ne se passent pas ainsi.
Quoi qu’il en soit, grâce à Lorentz, les résultats de Fizeau sur l’optique des corps en mouvement, les lois de la dispersion normale et anormale et de l’absorption se trouvent rattachés entre eux et aux autres propriétés de l’éther par des liens qui sans aucun doute ne se rompront plus. Voyez la facilité avec laquelle le phénomène nouveau de Zeeman a trouvé sa place toute prête, et a même aidé à classer la rotation magnétique de Faraday qui était restée rebelle aux efforts de Maxwell ; cette facilité prouve bien que la théorie de Lorentz n’est pas un assemblage artificiel destiné à se dissoudre. On devra probablement la modifier, mais non la détruire.
Mais Lorentz n’avait d’autre ambition que d’embrasser dans un même ensemble toute l’optique et l’électrodynamique des corps en mouvement ; il n’avait pas la prétention d’en donner une explication mécanique. Larmor va plus loin ; conservant la théorie de Lorentz dans ce qu’elle a d’essentiel, il y greffe pour ainsi dire les idées de Mac-Cullagh sur la direction des mouvements de l’éther. Pour lui la vitesse de l’éther aurait même direction et même grandeur que la force magnétique. Cette vitesse nous est donc connue puisque la force magnétique est accessible à l’expérience. Quelque ingénieuse que soit cette tentative, le défaut de la théorie de Lorentz subsiste et même il s’aggrave. L’action n’est pas égale à la réaction. Avec Lorentz, nous ne savions pas quels sont les mouvements de l’éther ; grâce à cette ignorance, nous pouvions les supposer tels que, compensant ceux de la matière, ils rétablissent l’égalité de l’action et de la réaction. Avec Larmor, nous connaissons les mouvements de l’éther et nous pouvons constater que la compensation ne se fait pas.
Si Larmor a à mon sens échoué, cela veut-il dire qu’une explication mécanique est impossible ? Loin de là : j’ai dit plus haut que dès qu’un phénomène obéit aux deux principes de l’énergie et de la moindre action, il comporte une infinité d’explications mécaniques ; il en est donc ainsi des phénomènes optiques et électriques.
Mais cela ne suffit pas ; pour qu’une explication mécanique soit bonne, il faut qu’elle soit simple ; il faut que, pour la choisir entre toutes celles qui sont possibles, on ait d’autres raison que la nécessité de faire un choix. Eh bien, une théorie qui satisfasse à cette condition et par conséquent qui puisse servir à quelque chose, nous n’en avons pas encore. Devons-nous nous en plaindre ? Ce serait oublier quel est le but poursuivi ; ce n’est pas le mécanisme, le vrai, le seul but, c’est l’unité.
Nous devons donc borner notre ambition ; ne cherchons pas à formuler une explication mécanique ; contentons-nous de montrer que nous pourrions toujours en trouver une si nous le voulions. À cela, nous avons réussi ; le principe de la conservation de l’énergie n’a reçu que des confirmations ; un second principe est venu s’y joindre, celui de la moindre action, mis sous la forme qui convient à la physique. Lui aussi a toujours été vérifié, au moins en ce qui concerne les phénomènes réversibles qui obéissent ainsi aux équations de Lagrange, c’est-à-dire aux lois les plus générales de la mécanique.
Les phénomènes irréversibles sont beaucoup plus rebelles. Eux aussi cependant s’ordonnent et tendent à rentrer dans l’unité ; la lumière qui les a éclairés nous est venue du principe de Carnot. Longtemps la thermodynamique s’est confinée dans l’étude de la dilatation des corps et de leurs changements d’état. Depuis quelque temps, elle s’est enhardie et elle a considérablement élargi son domaine. Nous lui devons la théorie de la pile, celle des phénomènes thermoélectriques ; il n’est pas dans toute la physique de coin qu’elle n’ait exploré et elle s’est attaquée à la chimie elle-même. Partout règnent les mêmes lois ; partout, sous la diversité des apparences, on retrouve le principe de Carnot ; partout aussi ce concept si prodigieusement abstrait de l’entropie, qui est aussi universel que celui de l’énergie et semble comme lui recouvrir une réalité. La chaleur rayonnante paraissait devoir lui échapper ; on l’a vue récemment plier sous les mêmes lois.
Par là nous sont révélées des analogies nouvelles, qui souvent se poursuivent dans le détail ; la résistance ohmique ressemble à la viscosité des liquides ; l’hystérésis ressemblerait plutôt au frottement des solides. Dans tous les cas, le frottement paraît le type sur lequel se calquent les phénomènes irréversibles les plus divers, et cette parenté est réelle et profonde.
On a cherché aussi une explication mécanique proprement dite de ces phénomènes. Ils ne s’y prêtaient guère. Pour la trouver, il a fallu supposer que l’irréversibilité n’est qu’une apparence, que les phénomènes élémentaires sont réversibles et obéissent aux lois connues de la dynamique. Mais les éléments sont extrêmement nombreux et se mêlent de plus en plus, de sorte que pour nos yeux grossiers tout paraît tendre vers l’uniformité, c’est-à-dire que tout semble marcher dans le même sens, sans espoir de retour. L’irréversibilité apparente n’est ainsi qu’un effet de la loi des grands nombres. Seul un être dont les sens seraient infiniment subtils, comme le démon imaginaire de Maxwell, pourrait démêler cet écheveau inextricable et ramener le monde en arrière.
Cette conception, qui se rattache à la théorie cinétique des gaz, a coûté de grands efforts et a été en somme assez peu féconde ; elle pourra le devenir. Ce n’est pas ici le lieu d’examiner si elle ne conduit pas à des contradictions et si elle est bien conforme à la véritable nature des choses.
Signalons toutefois les idées originales de M. Gouy sur le mouvement brownien. D’après ce savant, ce singulier mouvement échapperait au principe de Carnot. Les particules qu’il met en branle seraient plus petites que les mailles de cet écheveau si serré ; elles seraient donc en mesure de les démêler et par là de faire marcher le monde à contre-courant. On croirait voir à l’œuvre le démon de Maxwell.
En résumé, les phénomènes anciennement connus se classent de mieux en mieux ; mais des phénomènes nouveaux viennent réclamer leur place ; la plupart d’entre eux, comme celui de Zeemann, l’ont trouvée tout de suite.
Mais nous avons les rayons cathodiques, les rayons X, ceux de l’uranium et du radium. Il y a là tout un monde que nul ne soupçonnait. Que d’hôtes inattendus il faut caser !
Personne ne peut encore prévoir la place qu’ils occuperont. Mais je ne crois pas qu’ils détruiront l’unité générale, je crois plutôt qu’ils la compléteront. D’une part, en effet, les radiations nouvelles semblent liées aux phénomènes de luminescence ; non seulement elles excitent la fluorescence, mais elles prennent naissance quelquefois dans les mêmes conditions qu’elle.
Elles ne sont pas non plus sans parenté avec les causes qui font éclater l’étincelle sous l’action de la lumière ultraviolette.
Enfin, et surtout, on croit retrouver dans tous ces phénomènes de véritables ions animés, il est vrai, de vitesses incomparablement plus fortes que dans les électrolytes.
Tout cela est bien vague, mais tout cela se précisera.
La phosphorescence, l’action de la lumière sur l’étincelle, c’étaient la des cantons un peu isolés, et par suite un peu délaissés par les chercheurs. On peut espérer maintenant qu’on va construire une nouvelle ligne qui facilitera leurs communications avec la science universelle.
Non seulement nous découvrons des phénomènes nouveaux, mais dans ceux que nous croyions connaître, se révèlent des aspects imprévus. Dans l’éther libre, les lois conservent leur majestueuse simplicité ; mais la matière proprement dite semble de plus en plus complexe ; tout ce qu’on en dit n’est jamais qu’approché et à chaque instant nos formules exigent de nouveaux termes.
Néanmoins les cadres ne sont pas rompus ; les rapports que nous avions reconnus entre des objets que nous croyions simples, subsistent encore entre ces mêmes objets quand nous connaissons leur complexité, et c’est cela seul qui importe. Nos équations deviennent de plus en plus compliquées, c’est vrai, afin de serrer de plus près la complication de la nature ; mais rien n’est changé aux relations qui permettent de déduire ces équations les unes des autres. En un mot, la forme de ces équations a résisté.
Prenons pour exemple les lois de la réflexion. Fresnel les avait établies par une théorie simple et séduisante que l’expérience semblait confirmer. Depuis, des recherches plus précises ont prouvé que cette vérification n’était qu’approximative ; elles ont montré partout des traces de polarisation elliptique. Mais, grâce à l’appui que nous prêtait la première approximation, on a trouvé tout de suite la cause de ces anomalies, qui est la présence d’une couche de passage ; et la théorie de Fresnel a subsisté dans ce qu’elle avait d’essentiel.
Seulement on ne peut s’empêcher de faire une réflexion. Tous ces rapports seraient demeurés inaperçus si l’on s’était douté d’abord de la complexité des objets qu’ils relient. Il y a longtemps qu’on l’a dit : Si Tycho avait eu des instruments dix fois plus précis, il n’y aurait jamais eu ni Képler, ni Newton, ni Astronomie. C’est un malheur pour une science de prendre naissance trop tard, quand les moyens d’observation sont devenus trop parfaits. C’est ce qui arrive aujourd’hui à la physico-chimie ; ses fondateurs sont gênés dans leurs aperçus par la troisième et la quatrième décimales ; heureusement, ce sont des hommes d’une foi robuste.
À mesure qu’on connaît mieux les propriétés de la matière, on y voit régner la continuité. Depuis les travaux d’Andrews et de Van del Wals, on se rend compte de la façon dont se fait le passage de l’état liquide à l’état gazeux et que ce passage n’est pas brusque. De même il n’y a pas un abîme entre les états liquide et solide, et dans les comptes rendus d’un Congrès récent on voyait à côté d’un travail sur la rigidité des liquides, un mémoire sur l’écoulement des solides.
À cette tendance la simplicité perd sans doute ; tel phénomène était représenté par plusieurs droites : il faut raccorder ces droites par des courbes plus ou moins compliquées. En revanche l’unité y gagne beaucoup. Ces catégories tranchées reposaient l’esprit, mais elles ne le satisfaisaient pas.
Enfin les méthodes de la physique ont envahi un domaine nouveau, celui de la chimie ; la physico-chimie est née. Elle est encore bien jeune, mais on voit déjà qu’elle nous permettra de relier entre eux des phénomènes tels que l’électrolyse, l’osmose, les mouvements des ions.
De ce rapide exposé, que conclurons-nous ?
Tout compte fait, on s’est rapproché de l’unité, on n’a pas été aussi vite qu’on l’espérait il y a cinquante ans, on n’a pas toujours pris le chemin prévu ; mais, en définitive, on a gagné beaucoup de terrain.
On s’étonnera sans doute de trouver à cette place des réflexions sur le calcul des probabilités. Qu’a-t-il à faire avec la méthode des sciences physiques ?
Et pourtant les questions que je vais soulever, sans les résoudre, se posent naturellement au philosophe qui veut réfléchir sur la physique.
Et c’est à tel point que dans les deux chapitres précédents j’ai été amené plusieurs fois à prononcer les mots de probabilité et de hasard.
« Les faits prévus, ai-je dit plus haut, ne peuvent être que probables. Si solidement assise que puisse nous paraître une prévision, nous ne sommes jamais absolument sûrs que l’expérience ne la démentira pas. Mais la probabilité est souvent assez grande pour que pratiquement nous puissions nous en contenter. »
Et un peu plus loin, j’ai ajouté : « Voyons quel rôle joue dans nos généralisations la croyance à la simplicité. Nous avons vérifié une loi simple dans un grand nombre de cas particuliers ; nous nous refusons à admettre que cette rencontre, si souvent répétée, soit un simple effet du hasard… »
Ainsi, dans une foule de circonstances, le physicien se trouve dans la même position que le joueur qui suppute ses chances. Toutes les fois qu’il raisonne par induction, il fait plus ou moins consciemment usage du calcul des probabilités.
Et voilà pourquoi je suis obligé d’ouvrir une parenthèse et d’interrompre notre étude de la méthode dans les sciences physiques, pour examiner d’un peu plus près ce que vaut ce calcul et quelle confiance il mérite.
Le nom seul de calcul des probabilités est un paradoxe : la probabilité opposée à la certitude, c’est ce qu’on ne sait pas, et comment peut-on calculer ce que l’on ne connaît pas ? Cependant, beaucoup de savants éminents se sont occupés de ce calcul, et l’on ne saurait nier que la science n’en ait tiré quelque profit. Comment expliquer cette apparente contradiction ?
La probabilité a-t-elle été définie ? Peut-elle même être définie ? Et, si elle ne peut l’être, comment ose-t-on en raisonner ? La définition, dira-t-on, est bien simple : la probabilité d’un événement est le rapport du nombre de cas favorables à cet événement au nombre total des cas possibles.
Un exemple simple va faire comprendre combien cette définition est incomplète. Je jette deux dés ; quelle est la probabilité pour que l’un des deux dés au moins amène un six ? Chaque dé peut amener six points différents : le nombre des cas possibles est 6 * 6 = 36 ; le nombre des cas favorables est 11 ; la probabilité est 11/36.
C’est la solution correcte. Mais ne pourrais-je pas dire tout aussi bien : Les points amenés par les deux dés peuvent former (6 * 7)/2 = 21 combinaisons différentes ? Parmi ces combinaisons, 6 sont favorables ; la probabilité est 6/21.
Pourquoi la première manière d’énumérer les cas possibles est-elle plus légitime que la seconde ? En tout cas, ce n’est pas notre définition qui nous l’apprend.
On est donc réduit à compléter cette définition en disant : « … au nombre total des cas possibles, pourvu que ces cas soient également probables ». Nous voilà donc réduits à définir le probable par le probable.
Comment saurons-nous que deux cas possibles sont également probables ? Sera-ce par une convention ? Si nous plaçons au début de chaque problème une convention explicite, tout ira bien, nous n’aurons plus qu’à appliquer les règles de l’arithmétique et de l’algèbre et nous irons jusqu’au bout du calcul sans que notre résultat puisse laisser place au doute ; mais dès que nous en voudrons faire la moindre application, il faudra démontrer que notre convention était légitime, et nous nous retrouverons en face de la difficulté que nous avions cru éluder.
Dira-t-on que le bon sens suffit pour nous apprendre quelle convention il faut faire ? Hélas ! M. Bertrand s’est amusé à traiter un problème simple : « quelle est la probabilité pour que, dans une circonférence, une corde soit plus grande que le côté du triangle équilatéral inscrit ? » L’illustre géomètre a adopté successivement deux conventions que le bon sens semblait également imposer, et il a trouvé avec l’une 1/2, avec l’autre 1/3.
La conclusion qui semble résulter de tout cela, c’est que le calcul des probabilités est une science vaine, qu’il faut se défier de cet instinct obscur que nous nommions bon sens et auquel nous demandions de légitimer nos conventions.
Mais, cette conclusion, nous ne pouvons non plus y souscrire ; cet instinct obscur, nous ne pouvons nous en passer ; sans lui la science serait impossible, sans lui nous ne pourrions ni découvrir une loi, ni l’appliquer. Avons-nous le droit, par exemple, d’énoncer la loi de Newton ? Sans doute, de nombreuses observations sont en concordance avec elle ; mais n’est-ce pas là un simple effet du hasard ? Comment savons-nous d’ailleurs si cette loi, vraie depuis tant de siècles, le sera encore l’an prochain ? À cette objection, vous ne trouverez rien à répondre, sinon : « Cela est bien peu probable ».
Mais admettons la loi ; grâce à elle, je crois pouvoir calculer la position de Jupiter dans un an. En ai-je le droit ? Qui me dit qu’une masse gigantesque, animée d’une vitesse énorme, ne va pas d’ici là passer près du système solaire et produire des perturbations imprévues ? Ici encore il n’y a rien à répondre, sinon : « Cela est bien peu probable ».
À ce compte, toutes les sciences ne seraient que des applications inconscientes du calcul des probabilités ; condamner ce calcul, ce serait condamner la science tout entière.
J’insisterai moins sur les problèmes scientifiques où l’intervention du calcul des probabilités est plus évidente. Tel est en première ligne celui de l’interpolation, où, connaissant un certain nombre de valeurs d’une fonction, on cherche à deviner les valeurs intermédiaires.
Je citerai également la célèbre théorie des erreurs d’observation, sur laquelle je reviendrai plus loin, la théorie cinétique des gaz, hypothèse bien connue, où chaque molécule gazeuse est supposée décrire une trajectoire extrêmement compliquée, mais où, par l’effet des grands nombres, les phénomènes moyens, seuls observables, obéissent à des lois simples qui sont celles de Mariotte et de Gay-Lussac.
Toutes ces théories reposent sur les lois des grands nombres, et le calcul des probabilités les entraînerait évidemment dans sa ruine. Il est vrai qu’elles n’ont qu’un intérêt particulier et que sauf en ce qui concerne l’interpolation, ce sont là des sacrifices auxquels on pourrait se résigner.
Mais, je l’ai dit plus haut, ce ne serait pas seulement de ces sacrifices partiels qu’il s’agirait, ce serait la science tout entière dont la légitimité serait révoquée en doute.
Je vois bien ce qu’on pourrait dire : « Nous sommes ignorants et pourtant nous devons agir. Pour agir, nous n’avons pas le temps de nous livrer à une enquête suffisante pour dissiper notre ignorance ; d’ailleurs, une pareille enquête exigerait un temps infini. Nous devons donc nous décider sans savoir ; il faut bien le faire au petit bonheur et suivre des règles sans trop y croire. Ce que je sais, ce n’est pas que telle chose est vraie, mais que le mieux pour moi est encore d’agir comme si elle était vraie ». Le calcul des probabilités, et par conséquent la science, n’aurait plus qu’une valeur pratique.
Malheureusement la difficulté ne disparaît pas ainsi : un joueur veut tenter un coup ; il me demande conseil. Si je le lui donne, je m’inspirerai du calcul des probabilités, mais je ne lui garantirai pas le succès. C’est là ce que j’appellerai la probabilité subjective. Dans ce cas, on pourrait se contenter de l’explication que je viens d’esquisser. Mais je suppose qu’un observateur assiste au jeu, qu’il en note tous les coups et que le jeu se prolonge longtemps ; quand il fera le relevé de son carnet, il constatera que les événements se sont répartis conformément aux lois du calcul des probabilités. C’est là ce que j’appellerai la probabilité objective, et c’est ce phénomène qu’il faudrait expliquer.
Il existe de nombreuses sociétés d’assurances qui appliquent les règles du calcul des probabilités, et elles distribuent à leurs actionnaires des dividendes dont la réalité objective ne saurait être contestée. Il ne suffit pas, pour les expliquer, d’invoquer notre ignorance et la nécessité d’agir.
Ainsi, le scepticisme absolu n’est pas de mise ; nous devons nous méfier, mais nous ne pouvons condamner en bloc ; il est nécessaire de discuter.
Pour classer les problèmes qui se présentent à propos des probabilités, on peut se placer à plusieurs points de vue différents, et d’abord au point de vue de la généralité. J’ai dit plus haut que la probabilité est le rapport du nombre des cas favorables au nombre des cas possibles. Ce que, faute d’un meilleur terme, j’appelle la généralité, croîtra avec le nombre des cas possibles. Ce nombre peut être fini ; comme, par exemple, si l’on envisage un coup de dés où le nombre des cas possibles est 36. C’est là le premier degré de généralité.
Mais, si nous demandons, par exemple, quelle est la probabilité pour qu’un point intérieur d’un cercle soit intérieur au carré inscrit, il y a autant de cas possibles que de points dans le cercle, c’est-à-dire une infinité. C’est le second degré de généralité. La généralité peut être poussée plus loin encore : on peut se demander la probabilité pour qu’une fonction satisfasse à une condition donnée ; il y a alors autant de cas possibles qu’on peut imaginer de fonctions différentes. C’est le troisième degré de généralité, auquel on s’élève, par exemple, quand on cherche à deviner la loi la plus probable d’après un nombre fini d’observations.
On peut se placer à un point de vue tout différent. Si nous n’étions pas ignorants, il n’y aurait pas de probabilité, il n’y aurait de place que pour la certitude ; mais notre ignorance ne peut être absolue, sans quoi il n’y aurait pas non plus de probabilité, puisqu’il faut encore un peu de lumière pour parvenir même à cette science incertaine. Les problèmes de probabilité peuvent ainsi se classer d’après la profondeur plus ou moins grande de cette ignorance.
En mathématiques, on peut déjà se proposer des problèmes de probabilité. Quelle est la probabilité pour que la 5e décimale d’un logarithme pris au hasard dans une table soit un 9 ? On n’hésitera pas à répondre que cette probabilité est 1/10. Ici nous possédons toutes les données du problème ; nous saurions calculer notre logarithme sans recourir à la table ; mais nous ne voulons pas nous en donner la peine. C’est le premier degré de l’ignorance.
Dans les sciences physiques, notre ignorance est déjà plus grande. L’état d’un système, à un instant donné, dépend de deux choses : son état initial et la loi d’après laquelle cet état varie. Si nous connaissions à la fois cette loi et cet état initial, nous n’aurions plus qu’un problème mathématique à résoudre et nous retomberions sur le premier degré d’ignorance.
Mais il arrive souvent qu’on connaisse la loi et qu’on ne connaisse pas l’état initial. On demande, par exemple, quelle est la distribution actuelle des petites planètes ; nous savons que, de tout temps, elles ont obéi aux lois de Képler, mais nous ignorons quelle était leur distribution initiale.
Dans la théorie cinétique des gaz, on suppose que les molécules gazeuses suivent des trajectoires rectilignes et obéissent aux lois du choc des corps élastiques ; mais, comme on ne sait rien de leurs vitesses initiales, on ne sait rien de leurs vitesses actuelles.
Seul, le calcul des probabilités permet de prévoir les phénomènes moyens qui résulteront de la combinaison de ces vitesses. C’est là le second degré d’ignorance.
Il est possible, enfin, que non seulement les conditions initiales, mais les lois elles-mêmes, soient inconnues ; on atteint alors le troisième degré de l’ignorance et, généralement, on ne peut plus rien affirmer du tout au sujet de la probabilité d’un phénomène.
Il arrive souvent qu’au lieu de chercher à deviner un événement d’après une connaissance plus ou moins imparfaite de la loi, on connaisse les événements et qu’on cherche à deviner la loi ; qu’au lieu de déduire les effets des causes, on veuille déduire les causes des effets. Ce sont là les problèmes dits de probabilité des causes, les plus intéressants au point de vue de leurs applications scientifiques.
Je joue à l’écarté avec un monsieur que je sais parfaitement honnête ; il va donner ; quelle est la probabilité pour qu’il tourne le roi ? c’est 1/8 ; c’est là un problème de probabilité des effets. Je joue avec un monsieur que je ne connais pas ; il a donné 10 fois et il a tourné 6 fois le roi ; quelle est la probabilité pour que ce soit un grec ? c’est là un problème de probabilité des causes.
On peut dire que c’est le problème essentiel de la méthode expérimentale. J’ai observé n valeurs de x et les valeurs correspondantes de y ; j’ai constaté que le rapport des secondes aux premières est sensiblement constant. Voilà l’événement ; quelle est la cause ?
Est-il probable qu’il y ait une loi générale d’après laquelle y serait proportionnel à x et que les petites divergences soient dues à des erreurs d’observations ? Voilà un genre de question qu’on est sans cesse amené à se poser et qu’on résout inconsciemment toutes les fois que l’on fait de la science.
Je vais maintenant passer en revue ces différentes catégories de problèmes en envisageant successivement ce que j’ai appelé plus haut la probabilité subjective et ce que j’ai appelé la probabilité objective.
L’impossibilité de la quadrature du cercle est démontrée depuis 1883 ; mais, bien avant cette date récente, tous les géomètres considéraient cette impossibilité comme tellement « probable », que l’Académie des sciences rejetait sans examen les mémoires, hélas trop nombreux, que quelques malheureux fous lui envoyaient tous les ans sur ce sujet.
L’Académie avait-elle tort ? Évidemment non, et elle savait bien qu’en agissant ainsi, elle ne risquait nullement d’étouffer une découverte sérieuse. Elle n’aurait pu démontrer qu’elle avait raison ; mais elle savait bien que son instinct ne la trompait pas. Si vous aviez interrogé les académiciens, ils vous auraient répondu : « Nous avons comparé la probabilité pour qu’un savant inconnu ait trouvé ce qu’on cherche vainement depuis si longtemps, et celle pour qu’il y ait un fou de plus sur la terre ; la seconde nous a paru plus grande. » Ce sont là de très bonnes raisons, mais elles n’ont rien de mathématique, elles sont purement psychologiques.
Et si vous les aviez pressés davantage, ils auraient ajouté : « Pourquoi voulez-vous qu’une valeur particulière d’une fonction transcendante soit un nombre algébrique ; et si π était racine d’une équation algébrique, pourquoi voulez-vous que cette racine soit une période de la fonction sin (2x) et qu’il n’en soit pas de même des autres racines de cette même équation ? » En somme, ils auraient invoqué le principe de raison suffisante sous sa forme la plus vague.
Mais que pouvaient-ils en tirer ? Tout au plus une règle de conduite pour l’emploi de leur temps, plus utilement dépensé à leurs travaux ordinaires qu’à la lecture d’une élucubration qui leur inspirait une légitime défiance. Mais ce que j’appelais plus haut la probabilité objective n’a rien à voir avec ce premier problème.
Il en est autrement du second problème.
Envisageons les 10 000 premiers logarithmes que je trouve dans une table. Parmi ces 10 000 logarithmes, j’en prends un au hasard ; quelle est la probabilité pour que sa troisième décimale soit un nombre pair ? Vous n’hésiterez pas à répondre 1/2, et, en effet, si vous relevez dans une table les troisièmes décimales de ces 10 000 nombres, vous trouverez à peu près autant de chiffres pairs que de chiffres impairs.
Ou si l’on préfère, écrivons 10 000 nombres correspondant à nos 10 000 logarithmes ; chacun de ces nombres étant égal à + 1 si la troisième décimale du logarithme correspondant est paire, et à -1 dans le contraire. Prenons ensuite la moyenne de ces 10 000 nombres.
Je n’hésiterai pas à dire que la moyenne de ces 10 000 nombres est probablement nulle, et, si je la calculais effectivement, je vérifierais qu’elle est très petite.
Mais cette vérification même est inutile ; j’aurais pu démontrer rigoureusement que cette moyenne est plus petite que 0,003. Pour établir ce résultat, il m’aurait fallu un assez long calcul qui ne saurait trouver place ici et pour lequel je me borne à renvoyer à un article que j’ai publié dans la Revue générale des Sciences, le 15 avril 1899. Le seul point sur lequel je dois attirer l’attention, c’est le suivant : dans ce calcul, je n’aurais eu besoin que de m’appuyer sur deux faits, à savoir que les dérivées première et seconde du logarithme restent, dans l’intervalle considéré, comprises entre certaines limites.
D’où cette première conséquence que la propriété est vraie non seulement du logarithme, mais d’une fonction continue quelconque, puisque les dérivées de toute fonction continue sont limitées.
Si j’étais certain d’avance du résultat, c’est d’abord que j’avais souvent observé des faits analogues pour d’autres fonctions continues ; c’est ensuite parce que je faisais dans mon for intérieur, d’une façon plus ou moins inconsciente et imparfaite, le raisonnement qui m’a conduit aux inégalités précédentes, comme un calculateur exercé qui, avant d’avoir achevé une multiplication, se rend compte que « cela va faire à peu près tant ».
Et d’ailleurs, comme ce que j’appelais mon intuition n’était qu’un aperçu incomplet d’un véritable raisonnement, on s’explique que l’observation ait confirmé mes prévisions, que la probabilité objective ait été d’accord avec la probabilité subjective.
Comme troisième exemple, je choisirai le problème suivant : Un nombre u est pris au hasard, n est un entier donné très grand ; quelle est la valeur probable de sin(nu) ? Ce problème n’a aucun sens par lui-même. Pour lui en donner un, il faut une convention ; nous conviendrons que la probabilité pour que le nombre u soit compris entre a et a + da est égale à φ(a) da ; qu’elle est par conséquent proportionnelle à l’étendue de l’intervalle infiniment petit da et égale à cette étendue multipliée par une fonction φ(a) ne dépendant que de a. Quant à cette fonction, je la choisis arbitrairement, mais il faut bien que je la suppose continue. La valeur de sin(nu) restant la même quand u augmente de 2π je puis, sans restreindre la généralité, supposer que n est compris entre 0 et 2π et je serai ainsi conduit à supposer que φ(a) est une fonction périodique dont la période est 2π.
La valeur probable cherchée s’exprime aisément par une intégrale simple, et il est aisé de montrer que cette intégrale est plus petite que
(2πMk) / nk
Mk étant la plus grande valeur de la dérivée kième de φ(u). On voit donc que si la dérivée kième est finie, notre valeur probable tendra vers zéro quand n croîtra indéfiniment et cela plus vite que 1 / nk-1.
La valeur probable de sin(nu) pour n très grand est donc nulle ; pour définir cette valeur, j’ai eu besoin d’une convention ; mais le résultat reste le même quelle que soit cette convention. Je ne me suis imposé que de faibles restrictions en supposant que la fonction φ(a) est continue et périodique, et ces hypothèses sont tellement naturelles qu’on se demande comment on pourrait y échapper.
L’examen des trois exemples précédents, si différents à tous égards, nous a fait déjà entrevoir d’une part le rôle de ce que les philosophes appellent le principe de raison suffisante, et d’autre part l’importance de ce fait que certaines propriétés sont communes à toutes les fonctions continues. L’étude de la probabilité dans les sciences physiques nous conduira au même résultat.
Arrivons maintenant aux problèmes qui se rapportent à ce que j’ai appelé plus haut le second degré d’ignorance ; ce sont ceux où l’on connaît la loi, mais où on ignore l’état initial du système. Je pourrais multiplier les exemples, je n’en prendrai qu’un : Quelle est la distribution actuelle probable des petites planètes sur le zodiaque ?
Nous savons qu’elles obéissent aux lois de Képler ; nous pouvons même, sans rien changer à la nature du problème, supposer que leurs orbites sont toutes circulaires et situées dans un même plan et que nous le sachions. En revanche, nous ignorons absolument quelle était leur distribution initiale. Cependant nous n’hésitons pas à affirmer qu’aujourd’hui cette distribution est à peu près uniforme. Pourquoi ?
Soit b la longitude d’une petite planète à l’époque initiale, c’est-à-dire à l’époque zéro ; soit a son moyen mouvement ; sa longitude à l’époque actuelle, c’est-à-dire à l’époque t, sera at + b. Dire que la distribution actuelle est uniforme, c’est dire que la valeur moyenne des sinus et des cosinus des multiples de at + b est nulle. Pourquoi l’affirmons-nous ?
Représentons chaque petite planète par un point dans un plan, à savoir par le point dont les coordonnées sont précisément a et b. Tous ces points représentatifs seront contenus dans une certaine région du plan, mais comme ils sont très nombreux, cette région paraîtra criblée de points. Nous ne savons rien d’ailleurs de la distribution de ces points.
Que fait-on quand on veut appliquer le calcul des probabilités à une semblable question ? Quelle est la probabilité pour qu’un ou plusieurs points représentatifs se trouvent dans telle partie du plan ? Dans notre ignorance nous sommes réduits à faire une hypothèse arbitraire. Pour faire comprendre la nature de cette hypothèse, qu’on me permette d’employer au lieu d’une formule mathématique, une image grossière, mais concrète. Imaginons qu’on ait répandu sur la surface de notre plan une matière fictive dont la densité sera variable mais variera d’une manière continue. Nous conviendrons alors de dire que le nombre probable de points représentatifs qui se trouvent sur une partie du plan est proportionnel à la quantité de matière fictive qui s’y trouve. Si l’on a alors deux régions du plan de même étendue, les probabilités pour qu’un point représentatif de l’une de nos petites planètes se trouve dans l’une ou dans l’autre de ces régions seront entre elles comme les densités moyennes de la matière fictive dans l’une et l’autre région.
Voilà donc deux distributions, l’une réelle, où les points représentatifs sont très nombreux, très serrés, mais discrets comme les molécules de la matière dans l’hypothèse atomique ; l’autre, éloignée de la réalité, où nos points représentatifs sont remplacés par une matière fictive continue. Cette dernière, nous savons qu’elle ne peut être réelle, mais notre ignorance nous condamne à l’adopter.
Si encore nous avions quelque idée de la distribution réelle des points représentatifs, nous pourrions nous arranger pour que, dans une région de quelque étendue, la densité de cette matière fictive continue soit à peu près proportionnelle au nombre de points représentatifs, ou si l’on veut, des atomes qui sont contenus dans cette région. Cela même est impossible et notre ignorance est si grande que nous sommes forcés de choisir arbitrairement la fonction qui définit la densité de notre matière fictive. Nous serons astreints seulement à une hypothèse à laquelle nous ne pourrions guère nous soustraire, nous supposerons que cette fonction est continue. Cela suffit, comme nous allons le voir, pour nous permettre une conclusion.
Quelle est à l’instant t la distribution probable des petites planètes ? Ou bien, quelle est la valeur probable du sinus de la longitude, à l’instant t, c’est-à-dire de sin(at + b) ? Nous avons fait au début une convention arbitraire, mais, si nous l’adoptons, cette valeur probable est entièrement définie. Décomposons le plan en éléments de surface. Considérons la valeur de sin(at + b) au centre de chacun de ces éléments ; multiplions cette valeur par la surface de l’élément et par la densité correspondante de la matière fictive ; faisons ensuite la somme pour tous les éléments du plan. Cette somme sera, par définition, la valeur moyenne probable cherchée, qui se trouvera ainsi exprimée par une intégrale double.
On peut croire d’abord que cette valeur moyenne dépendra du choix de la fonction φ qui définit la densité de la matière fictive et que comme cette fonction φ est arbitraire, nous pourrons, suivant le choix arbitraire que nous ferons, obtenir une valeur moyenne quelconque. Il n’en est rien.
Un calcul simple montre que notre intégrale double décroît très rapidement quand t augmente.
Ainsi, je ne savais trop quelle hypothèse faire au sujet de la probabilité de telle ou telle distribution initiale ; mais, quelle que soit l’hypothèse faite, le résultat sera le même et c’est ce qui me tire d’embarras.
Quelle que soit la fonction φ la valeur moyenne tend vers zéro quand t augmente, et comme les petites planètes ont certainement accompli un très grand nombre de révolutions, je puis affirmer que cette valeur moyenne est très petite.
Je puis choisir φ comme je le veux, sauf une restriction toutefois : cette fonction doit être continue ; et, en effet, au point de vue de la probabilité subjective, le choix d’une fonction discontinue aurait été déraisonnable ; quelle raison pourrai-je avoir, par exemple, de supposer que la longitude initiale peut être égale à 0 juste, mais qu’elle ne peut être comprise entre 0°et 1°?
Mais la difficulté reparaît si l’on se place au point de vue de la probabilité objective ; si l’on passe de notre distribution imaginaire où la matière fictive était supposée continue à la distribution réelle où nos points représentatifs forment comme des atomes discrets.
La valeur moyenne de sin(at + b) sera représentée tout simplement par
1/n Σ sin(at + b).
n étant le nombre des petites planètes. Au lieu d’une intégrale double portant sur une fonction continue, nous avons une somme de termes discrets. Et pourtant personne ne doutera sérieusement que cette valeur moyenne ne soit effectivement très petite.
C’est que, nos points représentatifs étant très serrés, notre somme discrète différera en général très peu d’une intégrale.
Une intégrale est la limite vers laquelle tend une somme de termes quand le nombre de ces termes croît indéfiniment. Si les termes sont très nombreux, la somme différera très peu de sa limite, c’est-à-dire de l’intégrale, et ce que j’ai dit de cette dernière sera encore vrai de la somme elle-même.
Il y a des cas d’exception néanmoins. Si, par exemple, l’on avait pour toutes les petites planètes :
b = (π/2) - at,
toutes les planètes à l’instant t se trouveraient avoir pour longitude π/2 et la valeur moyenne serait évidemment égale à 1. Pour cela, il faudrait qu’à l’époque 0, les petites planètes eussent été toutes placées sur une sorte de spirale d’une forme particulière à spires extrêmement serrées. Tout le monde jugera qu’une pareille distribution initiale est extrêmement improbable (et, même en la supposant réalisée, la distribution ne serait pas uniforme à l’époque actuelle, par exemple le 1er janvier 1900, mais elle le redeviendrait quelques années plus tard).
Toutefois, pourquoi jugeons-nous cette distribution initiale improbable ? Il est nécessaire de l’expliquer, car, si nous n’avions pas de raison de rejeter comme invraisemblable cette hypothèse saugrenue, tout s’écroulerait et nous ne pourrions plus rien affirmer au sujet de la probabilité de telle ou telle distribution actuelle.
Ce que nous invoquerons, c’est encore le principe de raison suffisante, auquel il faut toujours revenir. Nous pourrions admettre qu’à l’origine les planètes étaient distribuées à peu près en ligne droite ; nous pourrions admettre qu’elles étaient irrégulièrement distribuées ; mais il nous semble qu’il n’y a pas de raison suffisante pour que la cause inconnue qui leur a donné naissance ait agi suivant une courbe si régulière et pourtant si compliquée, et qui paraîtrait précisément avoir été choisie exprès pour que la distribution actuelle ne fût pas uniforme.
Les questions soulevées par les jeux de hasard, comme celui de la roulette, sont, au fond, tout à fait analogues à celles que nous venons de traiter.
Par exemple, un cadran est partagé en un grand nombre de subdivisions égales, alternativement rouges et noires ; une aiguille est lancée avec force, et, après avoir fait un grand nombre de tours, elle s’arrête devant une de ces subdivisions. La probabilité pour que cette division soit rouge, est évidemment 1/2.
L’aiguille va tourner d’un angle θ, comprenant plusieurs circonférences ; j’ignore quelle est la probabilité pour que l’aiguille soit lancée avec une force telle que cet angle soit compris entre θ et θ + dθ ; mais, je puis faire une convention ; je puis supposer que cette probabilité est φ(θ) dθ ; quant à la fonction φ(θ) , je puis la choisir d’une façon entièrement arbitraire ; il n’y a rien qui puisse me guider dans mon choix ; cependant, je suis naturellement conduit à supposer cette fonction continue.
Soit ε la longueur (comptée sur la circonférence de rayon 1) de chaque subdivision rouge ou noire.
Il faut calculer l’intégrale de φ(θ) dθ en l’étendant, d’une part, à toutes les divisions rouges, d’autre part, à toutes les divisions noires, et comparer les résultats.
Considérons un intervalle 2ε, comprenant une division rouge et la division noire qui la suit. Soit M et m, la plus grande et la plus petite valeur de la fonction φ(θ) dans cet intervalle. L’intégrale étendue aux divisions rouges sera plus petite que ΣMε ; l’intégrale étendue aux divisions noires sera plus grande que Σmε ; la différence sera donc plus petite que Σ(M-m)ε. Mais, si la fonction φ est supposée continue ; si, d’autre part, l’intervalle ε est très petit par rapport à l’angle total parcouru par l’aiguille, la différence M - m sera très petite. La différence des deux intégrales sera donc très petite, et la probabilité sera très voisine de 1/2.
On comprend que, sans rien savoir de la fonction φ, je doive agir comme si la probabilité était 1/2. On s’explique, d’autre part, pourquoi, si, me plaçant au point de vue objectif, j’observe un certain nombre de coups, l’observation me donnera à peu près autant de coups noirs que de coups rouges.
Tous les joueurs connaissent cette loi objective ; mais elle les entraîne dans une singulière erreur, qui a été souvent relevée, et dans laquelle ils retombent toujours. Quand la rouge est sortie, par exemple, six fois de suite, ils mettent sur la noire, croyant jouer à coup sûr ; parce que, disent-ils, il est bien rare que la rouge sorte sept fois de suite.
En réalité, leur probabilité de gain reste 1/2. L’observation montre, il est vrai, que les séries de sept rouges consécutives sont très rares ; mais, les séries de six rouges suivies d’une noire sont tout aussi rares. Ils ont remarqué la rareté des séries de sept rouges ; s’ils n’ont pas remarqué la rareté des séries de six rouges et une noire, c’est uniquement parce que de pareilles séries frappent moins l’attention.
J’arrive aux problèmes de probabilité des causes, les plus importants au point de vue des applications scientifiques. Deux étoiles, par exemple, sont très rapprochées sur la sphère céleste ; ce rapprochement apparent est-il un pur effet du hasard et ces étoiles, quoique à peu près sur un même rayon visuel, sont-elles placées à des distances très différentes de la Terre et, par conséquent, très éloignées l’une et l’autre ? Ou bien correspond-il à un rapprochement réel ? C’est là un problème de probabilité des causes.
Je rappelle d’abord qu’au début de tous les problèmes de probabilité des effets qui nous ont occupés jusqu’ici, nous avons toujours dû placer une convention plus ou moins justifiée. Et, si le plus souvent le résultat était, dans une certaine mesure, indépendant de cette convention, ce n’était qu’à la condition de certaines hypothèses qui nous permettaient de rejeter a priori les fonctions discontinues, par exemple, ou certaines conventions saugrenues.
Nous retrouverons quelque chose d’analogue, en nous occupant de la probabilité des causes. Un effet peut être produit par la cause A ou par la cause B. L’effet vient d’être observé ; on demande la probabilité pour qu’il soit dû à la cause A ; c’est la probabilité de la cause a posteriori. Mais, je ne pourrais la calculer, si une convention plus ou moins justifiée ne me faisait connaître d’avance quelle est la probabilité a priori, pour que la cause A entre en action ; je veux dire la probabilité de cet événement, pour quelqu’un qui n’aurait pas encore observé l’effet.
Pour mieux m’expliquer, je reviens à l’exemple du jeu d’écarté, cité plus haut ; mon adversaire donne pour la première fois et il tourne le roi ; quelle est la probabilité pour que ce soit un grec ? Les formules ordinairement enseignées donnent 8/9, résultat évidemment bien surprenant. Si on les examine de plus près, on voit qu’on fait le calcul comme si, avant de nous asseoir à la table de jeu, j’avais considéré qu’il y avait une chance sur deux pour que mon adversaire ne fût pas honnête. Hypothèse absurde, puisque, dans ce cas, je n’aurais certainement pas joué avec lui ; et c’est ce qui explique l’absurdité de la conclusion.
La convention sur la probabilité a priori était injustifiée ; c’est pour cela que le calcul de la probabilité a posteriori m’avait conduit à un résultat inadmissible. On voit l’importance de cette convention préalable ; j’ajouterai même que, si l’on n’en faisait aucune, le problème de la probabilité a posteriori n’aurait aucun sens ; il faut toujours le faire, soit explicitement, soit tacitement.
Passons à un exemple d’un caractère plus scientifique. Je veux déterminer une loi expérimentale ; cette loi, quand je la connaîtrai, pourra être représentée par une courbe ; je fais un certain nombre d’observations isolées ; chacune d’elles sera représentée par un point. Quand j’ai obtenu ces différents points, je fais passer une courbe entre ces points on m’efforçant de m’en écarter le moins possible et, cependant, de conserver à ma courbe une forme régulière, sans points anguleux, sans inflexions trop accentuées, sans variation brusque du rayon de courbure. Cette courbe me représentera la loi probable, et j’admets, non seulement qu’elle me fait connaître les valeurs de la fonction intermédiaires entre celles qui ont été observées, mais encore qu’elle me fait connaître les valeurs observées elles-mêmes plus exactement que l’observation directe (c’est pour cela que je la fais passer près de mes points et non pas par ces points eux-mêmes).
C’est là un problème de probabilité des causes. Les effets, ce sont les mesures que j’ai enregistrées ; ils dépendent de la combinaison de deux causes : la loi véritable du phénomène et les erreurs d’observations. Il s’agit, connaissant les effets, de chercher la probabilité pour que le phénomène obéisse à telle loi, et pour que les observations aient été affectées de telle erreur. La loi la plus probable correspond alors à la courbe tracée, et l’erreur la plus probable d’une observation est représentée par la distance du point correspondant à cette courbe.
Mais, le problème n’aurait aucun sens si, avant toute observation, je ne me faisais une idée à priori de la probabilité de telle ou telle loi, et des chances d’erreur auxquelles je suis exposé.
Si mes instruments sont bons (et cela, je le savais avant d’avoir observé), je ne permettrai pas à ma courbe de s’écarter beaucoup des points qui représentent les mesures brutes. S’ils sont mauvais, je pourrai m’en éloigner un peu plus, afin d’obtenir une courbe moins sinueuse ; je sacrifierai davantage à la régularité.
Pourquoi donc est-ce que je cherche à tracer une courbe sans sinuosités ? C’est parce que je considère a priori une loi représentée par une fonction continue (ou par une fonction dont les dérivées d’ordre élevé sont petites), comme plus probable qu’une loi ne satisfaisant pas à ces conditions. Sans cette croyance, le problème dont nous parlons n’aurait aucun sens ; l’interpolation serait impossible ; on ne pourrait déduire une loi d’un nombre fini d’observations ; la science n’existerait pas.
Il y a cinquante ans, les physiciens considéraient une loi simple comme plus probable qu’une loi compliquée, toutes choses égales d’ailleurs. Ils invoquaient même ce principe en faveur de la loi de Mariotte contre les expériences de Regnault. Aujourd’hui, ils ont répudié cette croyance ; que de fois pourtant ne sont-ils pas obligés d’agir comme s’ils l’avaient conservée ! Quoi qu’il en soit, ce qui reste de cette tendance, c’est la croyance à la continuité, et nous venons de voir que, si cette croyance disparaissait à son tour, la science expérimentale deviendrait impossible.
Nous sommes ainsi amenés à parler de la théorie des erreurs, qui se rattache directement au problème de la probabilité des causes. Ici encore nous constatons des effets, à savoir un certain nombre d’observations discordantes, et nous cherchons à deviner les causes, qui sont d’une part la véritable valeur de la quantité à mesurer, d’autre part l’erreur commise dans chaque observation isolée. Il faudrait calculer quelle est a posteriori la grandeur probable de chaque erreur, et, par conséquent, la valeur probable de la quantité à mesurer.
Mais, ainsi que je viens de l’expliquer, on ne saurait entreprendre ce calcul, si l’on n’admettait a priori, c’est-à-dire avant toute observation, une loi de probabilité des erreurs. Y a-t-il une loi des erreurs ?
La loi des erreurs admise par tous les calculateurs est la loi de Gauss, qui est représentée par une certaine courbe transcendante connue sous le nom de « courbe en cloche ».
Mais d’abord il convient de rappeler la distinction classique entre les erreurs systématiques et accidentelles. Si nous mesurons une longueur avec un mètre trop long, nous trouverons toujours un nombre trop faible et il ne servira à rien de recommencer la mesure plusieurs fois ; c’est là une erreur systématique. Si nous la mesurons avec un mètre exact, nous pourrons nous tromper cependant, mais nous nous tromperons tantôt en plus, tantôt en moins, et, quand nous ferons la moyenne d’un grand nombre de mesures, l’erreur tendra à s’atténuer. Ce sont là des erreurs accidentelles.
Il est évident d’abord que les erreurs systématiques ne peuvent satisfaire à la loi de Gauss ; mais les erreurs accidentelles y satisfont-elles ? On a tenté un grand nombre de démonstrations ; presque toutes sont de grossiers paralogismes. On peut néanmoins démontrer la loi de Gauss en partant des hypothèses suivantes : l’erreur commise est la résultante d’un très grand nombre d’erreurs partielles et indépendantes ; chacune des erreurs partielles est très petite et obéit d’ailleurs à une loi de probabilité quelconque, sauf que la probabilité d’une erreur positive est la même que celle d’une erreur égale et de signe contraire. Il est évident que ces conditions seront remplies souvent, mais pas toujours, et nous pourrons réserver le nom d’accidentelles aux erreurs qui y satisfont.
On voit que la méthode des moindres carrés n’est pas légitime dans tous les cas ; en général, les physiciens s’en défient plus que les astronomes. Cela tient sans doute à ce que ces derniers, outre les erreurs systématiques qu’ils rencontrent comme les physiciens, ont à lutter avec une cause d’erreur extrêmement importante et qui est tout à fait accidentelle ; je veux parler des ondulations atmosphériques. Aussi il est très curieux d’entendre un physicien discuter avec un astronome au sujet d’une méthode d’observation : le physicien, persuadé qu’une bonne mesure vaut mieux que beaucoup de mauvaises, se préoccupe avant tout d’éliminer à force de précautions les dernières erreurs systématiques et l’astronome lui répond : « Mais vous ne pourrez observer ainsi qu’un petit nombre d’étoiles ; les erreurs accidentelles ne disparaîtront pas ».
Que devons-nous conclure ? Faut-il continuer à appliquer la méthode des moindres carrés ? Nous devons distinguer : nous avons éliminé toutes les erreurs systématiques que nous avons pu soupçonner ; nous savons bien qu’il y en a encore, mais nous ne pouvons les découvrir ; cependant, il faut prendre un parti et adopter une valeur définitive, qui sera regardée comme la valeur probable ; pour cela, il est évident que ce que nous avons de mieux à faire, c’est d’appliquer la méthode de Gauss. Nous n’avons fait qu’appliquer une règle pratique se rapportant à la probabilité subjective. Il n’y a rien à dire.
Mais l’on veut aller plus loin et affirmer que non seulement la valeur probable est de tant, mais que l’erreur probable commise sur le résultat est de tant. Cela est absolument illégitime ; cela ne serait vrai que si nous étions sûrs que toutes les erreurs systématiques sont éliminées, et nous n’en savons absolument rien. Nous avons deux séries d’observations ; en appliquant la règle des moindres carrés, nous trouvons que l’erreur probable sur la première série est deux fois plus faible que sur la seconde. La seconde série peut cependant être meilleure que la première parce que la première est peut-être affectée d’une grosse erreur systématique. Tout ce que nous pouvons dire, c’est que la première série est probablement meilleure que la seconde, puisque son erreur accidentelle est plus faible, et que nous n’avons aucune raison d’affirmer que l’erreur systématique est plus grande pour une des séries que pour l’autre, notre ignorance à ce sujet étant absolue.
Dans les lignes qui précèdent, j’ai posé bien des problèmes sans en résoudre aucun. Je ne regrette pas cependant de les avoir écrites, car elles inviteront peut-être le lecteur à réfléchir sur ces délicates questions.
Quoi qu’il en soit, il y a certains points qui semblent bien établis. Pour entreprendre un calcul quelconque de probabilité, et même pour que ce calcul ait un sens, il faut admettre, comme point de départ, une hypothèse ou une convention qui comporte toujours un certain degré d’arbitraire. Dans le choix de cette convention, nous ne pouvons être guidés que par le principe de raison suffisante. Malheureusement, ce principe est bien vague et bien élastique et, dans l’examen rapide que nous venons de faire, nous l’avons vu prendre bien des formes différentes. La forme sous laquelle nous l’avons rencontré le plus souvent, c’est la croyance à la continuité, croyance qu’il serait difficile de justifier par un raisonnement apodictique, mais sans laquelle toute science serait impossible. Enfin, les problèmes où le calcul des probabilités peut être appliqué avec profit sont ceux où le résultat est indépendant de l’hypothèse faite au début, pourvu seulement que cette hypothèse satisfasse à la condition de continuité.
LA THÉORIE DE FRESNEL.
Le meilleur exemple[5] que l’on puisse choisir est la théorie de la lumière et ses rapports avec la théorie de l’électricité. Grâce à Fresnel, l’optique est la partie la plus avancée de la physique ; la théorie dite des ondulations forme un ensemble vraiment satisfaisant pour l’esprit ; mais il ne faut pas lui demander ce qu’elle ne peut nous donner.
Les théories mathématiques n’ont pas pour objet de nous révéler la véritable nature des choses ; ce serait là une prétention déraisonnable. Leur but unique est de coordonner les lois physiques que l’expérience nous fait connaître, mais que sans le secours des mathématiques nous ne pourrions même énoncer.
Peu nous importe que l’éther existe réellement, c’est l’affaire des métaphysiciens ; l’essentiel pour nous c’est que tout se passe comme s’il existait et que cette hypothèse est commode pour l’explication des phénomènes. Après tout, avons-nous d’autre raison de croire à l’existence des objets matériels ? Ce n’est là aussi qu’une hypothèse commode ; seulement elle ne cessera jamais de l’être, tandis qu’un jour viendra sans doute ou l’éther sera rejeté comme inutile.
Mais ce jour-là même, les lois de l’optique et les équations qui les traduisent analytiquement resteront vraies, au moins comme première approximation. Il sera donc toujours utile d’étudier une doctrine qui relie entre elles toutes ces équations.
La théorie des ondulations repose sur une hypothèse moléculaire ; pour les uns qui croient découvrir ainsi la cause sous la loi, c’est un avantage ; pour les autres, c’est une raison de méfiance ; mais cette méfiance me paraît aussi peu justifiée que l’illusion des premiers.
Ces hypothèses ne jouent qu’un rôle secondaire. On pourrait les sacrifier ; on ne le fait pas d’ordinaire parce que l’exposition y perdrait en clarté, mais cette raison est la seule.
En effet, si on y regardait de près, on verrait qu’on n’emprunte aux hypothèses moléculaires que deux choses : le principe de la conservation de l’énergie et la forme linéaire des équations qui est la loi générale des petits mouvements, comme de toutes les petites variations.
C’est ce qui explique pourquoi la plupart des conclusions de Fresnel subsistent sans changement quand on adopte la théorie électromagnétique de la lumière.
LA THÉORIE DE MAXWELL
C’est, on le sait, Maxwell qui a rattaché par un lien étroit deux parties de la physique, jusque-là complètement étrangères l’une à l’autre, l’optique et l’électricité. En se fondant ainsi dans un ensemble plus vaste, dans une harmonie supérieure, l’optique de Fresnel n’a pas cessé d’être vivante. Ses diverses parties subsistent, et leurs rapports mutuels sont toujours les mêmes. Seulement, le langage dont nous nous servons pour les exprimer a changé, et d’autre part, Maxwell nous a révélé d’autres rapports, jusqu’à lui insoupçonnés, entre les différentes parties de l’optique et le domaine de l’électricité.
La première fois qu’un lecteur français ouvre le livre de Maxwell, un sentiment de malaise, et souvent même de défiance se mêle d’abord à son admiration. Ce n’est qu’après un commerce prolongé et au prix de beaucoup d’efforts, que ce sentiment se dissipe. Quelques esprits éminents le conservent même toujours.
Pourquoi les idées du savant anglais ont-elles tant de peine à s’acclimater chez nous ? C’est sans doute que l’éducation reçue par la plupart des Français éclairés les dispose à goûter la précision et la logique avant toute autre qualité.
Les anciennes théories de la physique mathématique nous donnaient à cet égard une satisfaction complète. Tous nos maîtres, depuis Laplace jusqu’à Cauchy, ont procédé de la même manière. Partant d’hypothèses nettement énoncées ils en ont déduit toutes les conséquences avec une rigueur mathématique, et les ont comparées ensuite avec l’expérience. Ils semblent vouloir donner à chacune des branches de la physique la même précision qu’à la mécanique céleste.
Pour un esprit accoutumé à admirer de tels modèles, une théorie est difficilement satisfaisante. Non seulement il n’y tolérera pas la moindre apparence de contradiction, mais il exigera que les diverses parties en soient logiquement reliées les unes aux autres et que le nombre des hypothèses distinctes soit réduit au minimum.
Ce n’est pas tout, il aura encore d’autres exigences qui me paraissent moins raisonnables. Derrière la matière qu’atteignent nos sens et que l’expérience nous fait connaître, il voudra voir une autre matière, la seule véritable à ses yeux, qui n’aura plus que des qualités purement géométriques et dont les atomes ne seront plus que des points mathématiques soumis aux seules lois de la dynamique. Et pourtant ces atomes invisibles et sans couleur, il cherchera, par une inconsciente contradiction, à se les représenter et par conséquent à les rapprocher le plus possible de la matière vulgaire.
C’est alors seulement qu’il sera pleinement satisfait et s’imaginera avoir pénétré le secret de l’univers. Si cette satisfaction est trompeuse, il n’en est pas moins pénible d’y renoncer.
Ainsi, en ouvrant Maxwell, un Français s’attend à y trouver un ensemble théorique aussi logique et aussi précis que l’optique physique fondée sur l’hypothèse de l’éther ; il se prépare ainsi une déception que je voudrais éviter au lecteur en l’avertissant tout de suite de ce qu’il doit chercher dans Maxwell et de ce qu’il n’y saurait trouver.
Maxwell ne donne pas une explication mécanique de l’électricité et du magnétisme ; il se borne à démontrer que cette explication est possible.
Il montre également que les phénomènes optiques ne sont qu’un cas particulier des phénomènes électromagnétiques. De toute théorie de l’électricité, on pourra donc déduire immédiatement une théorie de la lumière.
La réciproque n’est malheureusement pas vraie ; d’une explication complète de la lumière, il n’est pas toujours aisé de tirer une explication complète des phénomènes électriques. Cela n’est pas facile, en particulier, si l’on veut partir de la théorie de Fresnel ; cela ne serait sans doute pas impossible ; mais on n’en arrive pas moins à se demander si l’on ne va pas être forcé de renoncer à d’admirables résultats que l’on croyait définitivement acquis. Cela semble un pas en arrière ; et beaucoup de bons esprits ne veulent pas s’y résigner.
Quand le lecteur aura consenti à borner ses espérances, il se heurtera encore à d’autres difficultés ; le savant anglais ne cherche pas à construire un édifice unique, définitif et bien ordonné, il semble plutôt qu’il élève un grand nombre de constructions provisoires et indépendantes, entre lesquelles les communications sont difficiles et quelquefois impossibles.
Prenons comme exemple le chapitre où l’on explique les attractions électrostatiques par des pressions et des tensions qui régneraient dans le milieu diélectrique. Ce chapitre pourrait être supprimé sans que le reste du volume en devînt moins clair et moins complet, et d’un autre côté il contient une théorie qui se suffit à elle-même et on pourrait le comprendre sans avoir lu une seule des lignes qui précèdent ou qui suivent. Mais il n’est pas seulement indépendant du reste de l’ouvrage ; il est difficile de le concilier avec les idées fondamentales du livre. Maxwell ne tente même pas cette conciliation, il se borne à dire « I have not been able to make the next step, namely, to account by mechanical considerations for these stresses in the dielectric. »
Cet exemple suffira pour faire comprendre ma pensée ; je pourrais en citer beaucoup d’autres. Ainsi, qui se douterait en lisant les pages consacrées à la polarisation rotatoire magnétique qu’il y a identité entre les phénomènes optiques et magnétiques ?
On ne doit donc pas se flatter d’éviter toute contradiction ; mais il faut en prendre son parti. Deux théories contradictoires peuvent en effet, pourvu qu’on ne les mêle pas, et qu’on n’y cherche pas le fond des choses, être toutes deux d’utiles instruments de recherches, et peut-être la lecture de Maxwell serait-elle moins suggestive s’il ne nous avait pas ouvert tant de voies nouvelles divergentes.
Mais l’idée fondamentale se trouve de la sorte un peu masquée. Elle l’est si bien, que dans la plupart des ouvrages de vulgarisation, elle est le seul point qui soit complètement laissé de côté.
Je crois donc devoir, pour en mieux faire ressortir l’importance, expliquer en quoi consiste cette idée fondamentale. Mais pour cela une courte digression est nécessaire.
DE L’EXPLICATION MÉCANIQUE DES PHÉNOMÈNES PHYSIQUES
Dans tout phénomène physique, il y a un certain nombre de paramètres que l’expérience atteint directement et qu’elle permet de mesurer. Je les appellerai les paramètres q.
L’observation nous fait connaître ensuite les lois des variations de ces paramètres et ces lois peuvent généralement se mettre sous la forme d’équations différentielles qui lient entre eux les paramètres q et le temps.
Que faut-il faire pour donner une interprétation mécanique d’un pareil phénomène ?
On cherchera à l’expliquer soit par les mouvements de la matière ordinaire, soit par ceux d’un ou de plusieurs fluides hypothétiques.
Ces fluides seront considérés comme formés d’un très grand nombre de molécules isolées m.
Quand dirons-nous alors que nous avons une explication mécanique complète du phénomène ? Ce sera d’une part quand nous connaîtrons les équations différentielles auxquelles satisfont les coordonnées de ces molécules hypothétiques m, équations qui d’ailleurs devront être conformes aux principes de la dynamique ; et d’autre part quand nous connaîtrons les relations qui définissent les coordonnées des molécules m en fonctions des paramètres q, accessibles à l’expérience.
Ces équations, je l’ai dit, doivent être conformes aux principes de la dynamique et en particulier au principe de la conservation de l’énergie et au principe de moindre action.
Le premier de ces deux principes nous apprend que l’énergie totale est constante et que cette énergie se divise en deux parties :
1° L’énergie cinétique ou force vive qui dépend des masses des molécules hypothétiques m et de leurs vitesses, et que j’appellerai T ;
2° Et l’énergie potentielle qui dépend seulement des coordonnées de ces molécules et que j’appellerai U.
C’est la somme des deux énergies T et U qui est constante.
Que nous enseigne maintenant le principe de moindre action ? Il nous enseigne que pour passer de la situation initiale qu’il occupe à l’instant t0 à la situation finale qu’il occupe à l’instant t1, le système doit prendre un chemin tel que, dans l’intervalle de temps qui s’écoule entre les deux instants t0 et t1 la valeur moyenne de « l’action » (c’est-à-dire de la différence entre les deux énergies T et U) soit aussi petite que possible. Le premier des deux principes est d’ailleurs une conséquence du second.
Si l’on connaît les deux fonctions T et U, ce principe suffit pour déterminer les équations du mouvement.
Parmi tous les chemins qui permettent de passer d’une situation à une autre, il y en a évidemment un pour lequel la valeur moyenne de l’action est plus petite que pour tous les autres. Il n’y en a d’ailleurs qu’un, et il en résulte que le principe de moindre action suffit pour déterminer le chemin suivi et par conséquent les équations du mouvement.
On obtient ainsi ce qu’on appelle les équations de Lagrange. Dans ces équations, les variables indépendantes sont les coordonnées des molécules hypothétiques m ; mais je suppose maintenant que l’on prenne pour variables les paramètres q directement accessibles à l’expérience.
Les deux parties de l’énergie devront alors s’exprimer en fonction des paramètres q et de leurs dérivées ; ce sera évidemment sous cette forme qu’elles apparaîtront à l’expérimentateur. Celui-ci cherchera naturellement à définir l’énergie potentielle et l’énergie cinétique à l’aide des quantités qu’il peut directement observer[6].
Cela posé, le système ira toujours d’une situation à une autre par un chemin tel que l’action moyenne soit minima.
Peu importe que T et U soient maintenant exprimés à l’aide des paramètres q et de leurs dérivées ; peu importe que ce soit également par le moyen de ces paramètres que nous définissions les situations initiale et finale ; le principe de moindre action reste toujours vrai.
Or, ici encore, de tous les chemins qui mènent d’une situation à une autre, il y en a un pour lequel l’action moyenne est minima et il n’y en a qu’un. Le principe de moindre action suffit donc pour déterminer les équations différentielles qui définissent les variations des paramètres q.
Les équations ainsi obtenues sont une autre forme des équations de Lagrange.
Pour former ces équations, nous n’avons pas besoin de connaître les relations qui lient les paramètres q aux coordonnées des molécules hypothétiques, ni les masses de ces molécules, ni l’expression de U en fonction des coordonnées de ces molécules. Tout ce que nous avons besoin de connaître, c’est l’expression de U en fonction des q et celle de T en fonction des q et de leurs dérivées, c’est-à-dire les expressions de l’énergie cinétique et de l’énergie potentielle en fonctions des données expérimentales.
Alors de deux choses l’une, ou bien pour un choix convenable des fonctions T et U, les équations de Lagrange, construites comme nous venons de le dire, seront identiques aux équations différentielles déduites des expériences ; ou bien il n’existera pas de fonctions T et U, pour lesquelles cet accord ait lieu. Dans ce dernier cas, il est clair qu’aucune explication mécanique n’est possible.
La condition nécessaire pour qu’une explication mécanique soit possible, c’est donc que l’on puisse choisir les fonctions T et U, de façon à satisfaire au principe de la moindre action, entraînant celui de la conservation de l’énergie.
Cette condition est d’ailleurs suffisante ; supposons en effet qu’on ait trouvé une fonction U des paramètres q, qui représente une des parties de l’énergie, qu’une autre partie de l’énergie que nous représenterons par T soit une fonction des q et de leurs dérivées, et qu’elle soit un polynôme homogène du second degré par rapport à ces dérivées ; et enfin que les équations de Lagrange formées à l’aide de ces deux fonctions T et U soient conformes aux données de l’expérience.
Que faut-il pour déduire de là une explication mécanique ? Il faut que U puisse être regardé comme l’énergie potentielle d’un système et T comme la force vive de ce même système.
Pas de difficulté on ce qui concerne U ; mais T pourra-t-il être regardé comme la force vive d’un système matériel ?
Il est aisé de montrer que cela est toujours possible, et même d’une infinité de manières. Je me bornerai à renvoyer pour plus de détails à la préface de mon ouvrage : Électricité et optique.
Ainsi si on ne peut pas satisfaire au principe de moindre action, il n’y a pas d’explication mécanique possible ; si on y peut satisfaire, il y en a non seulement une, mais une infinité, d’où il résulte que dès qu’il y en a une, il y en a une infinité d’autres.
Une observation encore.
Parmi les quantités que l’expérience nous fait directement atteindre, nous regarderons les unes comme des fonctions des coordonnées de nos molécules hypothétiques ; ce sont celles-là qui seront nos paramètres q ; nous envisagerons les autres comme dépendant non seulement des coordonnées, mais des vitesses, ou, ce qui revient au même, des dérivées des paramètres q, ou comme des combinaisons de ces paramètres et de leurs dérivées.
Et alors une question se pose : parmi toutes ces quantités mesurées expérimentalement, quelles sont celles que nous choisirons pour représenter les paramètres q ? Quelles sont celles que nous préférerons regarder comme les dérivées de ces paramètres ? Ce choix reste arbitraire dans une très large mesure, mais il suffit qu’on puisse le faire de façon à rester d’accord avec le principe de moindre action pour qu’une explication mécanique soit possible.
Et alors Maxwell s’est demandé s’il pouvait faire ce choix et celui des deux énergies T et U, de façon que les phénomènes électriques satisfassent à ce principe. L’expérience nous montre que l’énergie d’un champ électromagnétique se décompose en deux parties, l’énergie électrostatique et l’énergie électrodynamique. Maxwell a reconnu que si l’on regarde la première comme représentant l’énergie potentielle U, la seconde comme représentant l’énergie cinétique T ; si, d’autre part, les charges électrostatiques des conducteurs sont considérées comme des paramètres q et les intensités de courants comme les dérivées d’autres paramètres q ; dans ces conditions, dis-je, Maxwell a reconnu que les phénomènes électriques satisfont au principe de moindre action. Il était certain, dès lors, de la possibilité d’une explication mécanique.
S’il avait exposé cette idée au début de son livre au lieu de la reléguer dans un coin du second volume, elle n’aurait pas échappé à la plupart des lecteurs.
Si donc un phénomène comporte une explication mécanique complète, il en comportera une infinité d’autres qui rendront également bien compte de toutes les particularités révélées par l’expérience.
Et cela est confirmé par l’histoire de toutes les parties de la physique ; en optique, par exemple, Fresnel croit la vibration perpendiculaire au plan de polarisation ; Newmann la regarde comme parallèle à ce plan. On a cherché longtemps un « experimentum crucis » qui permit de décider entre ces deux théories et on n’a pu le trouver.
De même, sans sortir du domaine de l’électricité, nous pouvons constater que la théorie des deux fluides et celle du fluide unique rendent toutes deux compte d’une façon également satisfaisante de toutes les lois observées en électrostatique.
Tous ces faits s’expliquent aisément, grâce aux propriétés des équations de Lagrange que je viens de rappeler.
Il est facile de comprendre maintenant quelle est l’idée fondamentale de Maxwell.
Pour démontrer la possibilité d’une explication mécanique de l’électricité, nous n’avons pas à nous préoccuper de trouver cette explication elle-même, il nous suffit de connaître l’expression des deux fonctions T et U, qui sont les deux parties de l’énergie, de former avec ces deux fonctions les équations de Lagrange et de comparer ensuite ces équations avec les lois expérimentales.
Entre toutes ces explications possibles, comment faire un choix pour lequel le secours de l’expérience nous fait défaut ? Un jour viendra peut-être où les physiciens se désintéresseront de ces questions, inaccessibles aux méthodes positives, et les abandonneront aux métaphysiciens. Ce jour n’est pas venu ; l’homme ne se résigne pas si aisément à ignorer éternellement le fond des choses.
Notre choix ne peut donc être guidé que par des considérations où la part de l’appréciation personnelle est très grande ; il y a cependant des solutions que tout le monde rejettera à cause de leur bizarrerie et d’autres que tout le monde préférera à cause de leur simplicité.
En ce qui concerne l’électricité et le magnétisme, Maxwell s’abstient de faire aucun choix. Ce n’est pas qu’il dédaigne systématiquement tout ce que ne peuvent atteindre les méthodes positives ; le temps qu’il a consacré à la théorie cinétique des gaz en fait suffisamment foi. J’ajouterai que si, dans son grand ouvrage, il ne développe aucune explication complète, il avait antérieurement tenté d’en donner une dans un article du Philosophical Magazine. L’étrangeté et la complication des hypothèses qu’il avait été obligé de faire, l’avaient amené ensuite à y renoncer.
Le même esprit se retrouve dans tout l’ouvrage. Ce qu’il y a d’essentiel, c’est-à-dire ce qui doit rester commun à toutes les théories, est mis en lumière ; tout ce qui ne conviendrait qu’à une théorie particulière est presque toujours passé sous silence. Le lecteur se trouve ainsi en présence d’une forme presque vide de matière qu’il est d’abord tenté de prendre pour une ombre fugitive et insaisissable. Mais les efforts auxquels il est ainsi condamné le forcent à penser et il finit par comprendre ce qu’il y avait souvent d’un peu artificiel dans les ensembles théoriques qu’il admirait autrefois.
L’histoire de l’électrodynamique est particulièrement instructive à notre point de vue.
Ampère a intitulé son immortel ouvrage « Théorie des phénomènes électrodynamiques, uniquement fondée sur l’expérience ». Il s’imaginait donc qu’il n’avait fait aucune hypothèse ; il en avait fait pourtant, nous ne tarderons pas à le voir ; seulement il les avait faites sans s’en apercevoir.
Ceux qui vinrent après lui, les aperçurent au contraire, parce que leur attention fut attirée par les points faibles de la solution d’Ampère. Ils firent des hypothèses nouvelles, dont ils eurent cette fois pleine conscience ; mais combien de fois il fallut en changer avant d’arriver au système classique d’aujourd’hui qui n’est peut-être pas encore définitif ; c’est ce que nous allons voir.
Quand Ampère a étudié expérimentalement les actions mutuelles des courants, il n’a opéré et il ne pouvait opérer que sur des courants fermés.
Ce n’est pas qu’il niât la possibilité des courants ouverts. Si deux conducteurs sont chargés d’électricité de nom contraire et si on les met en communication par un fil, il s’établit un courant allant de l’un à l’autre et qui dure jusqu’à ce que les deux potentiels soient devenus égaux. Dans les idées qui régnaient du temps d’Ampère, c’était là un courant ouvert ; on voyait bien le courant aller du premier conducteur au second, on ne le voyait pas revenir du second au premier.
Ainsi, Ampère considérait comme ouverts les courants de cette nature, par exemple les courants de décharge des condensateurs, mais il ne pouvait en faire l’objet de ses expériences, parce que la durée en est trop courte.
On peut imaginer aussi une autre sorte de courant ouvert. Je suppose deux conducteurs, A et B, reliés par un fil AMB. De petites masses conductrices en mouvement se mettent d’abord en contact avec le conducteur B, lui empruntent une charge électrique, quittent le contact de B, se mettent en mouvement en suivant le chemin BNA, et, en transportant avec elles leur charge, viennent au contact de A et leur abandonnent leur charge, qui revient ensuite en B en suivant le fil AMB.
On a bien là en un sens un circuit fermé, puisque l’électricité décrit le circuit fermé BNAMB ; mais les deux parties de ce courant sont très différentes : dans le fil AMB l’électricité se déplace à travers un conducteur fixe, à la façon d’un courant voltaïque, en surmontant une résistance ohmique et en développant de la chaleur ; on dit qu’elle se déplace par conduction ; dans la partie BNA, l’électricité est transportée par un conducteur mobile ; on dit qu’elle se déplace par convection.
Si, alors, le courant de convection est considéré comme tout à fait analogue au courant de conduction, le circuit BNAMB est fermé ; si, au contraire, le courant de convection n’est pas « un vrai courant », et, par exemple, n’agit pas sur les aimants, il ne reste plus que le courant de conduction AMB, qui est ouvert.
Par exemple, si l’on réunit par un fil les deux pôles d’une machine de Holtz, le plateau tournant chargé transporte d’un pôle à l’autre par convection de l’électricité, qui revient au premier pôle par conduction à travers le fil.
Mais des courants de cette espèce sont très difficiles à réaliser avec une intensité appréciable. Avec les moyens dont disposait Ampère, on peut dire que c’était impossible.
En résumé, Ampère pouvait concevoir l’existence de deux espèces de courants ouverts, mais il ne pouvait opérer ni sur les uns ni sur les autres, parce qu’ils étaient trop intenses ou parce qu’ils duraient trop peu de temps.
L’expérience ne pouvait donc lui montrer que l’action d’un courant fermé sur un courant fermé, ou, à la rigueur, l’action d’un courant fermé sur une portion de courant, parce qu’on peut faire parcourir à un courant un circuit fermé composé d’une partie mobile et d’une partie fixe. On peut alors étudier les déplacements de la partie mobile sous l’action d’un autre courant fermé.
En revanche, Ampère n’avait aucun moyen d’étudier l’action d’un courant ouvert, soit sur un courant fermé, soit sur un autre courant ouvert.
1. Cas des courants fermés. – Dans le cas de l’action mutuelle de deux courants fermés, l’expérience révéla à Ampère des lois remarquablement simples.
Je rappelle rapidement ici celles qui nous seront utiles dans la suite.
1° Si l’intensité des courants est maintenue constante, et si les deux circuits, après avoir subi des déplacements et des déformations quelconques, reviennent finalement à leurs positions initiales, le travail total des actions électrodynamiques sera nul.
En d’autres termes, il y a un potentiel électrodynamique des deux circuits proportionnel au produit des intensités et dépendant de la forme et de la position relative des circuits ; le travail des actions électrodynamiques est égal à la variation de ce potentiel ;
2° L’action d’un solénoïde fermé est nulle.
3° L’action d’un circuit C sur un autre circuit voltaïque C’ ne dépend que du « champ magnétique » développé par ce circuit C. En chaque point de l’espace, on peut, en effet, définir en grandeur et direction une certaine force appelée force magnétique et qui jouit des propriétés suivantes :
a) La force exercée par C sur un pôle magnétique est appliquée à ce pôle ; elle est égale à la force magnétique multipliée par la masse magnétique du pôle ;
b) Une aiguille aimantée très courte tend à prendre la direction de la force magnétique, et le couple qui tend à l’y ramener est proportionnel au produit de la force magnétique, du moment magnétique de l’aiguille et du sinus de l’angle d’écart ;
c) Si le circuit C’ se déplace, le travail de l’action électrodynamique exercée par C sur C’ sera égal à l’accroissement du « flux de force magnétique » qui traverse ce circuit.
2. Action d’un courant fermé sur une portion de courant. – Ampère n’ayant pu réaliser de courant ouvert proprement dit, n’avait qu’un moyen d’étudier l’action d’un courant fermé sur une portion de courant.
C’était d’opérer sur un circuit C’ composé de deux parties, l’une fixe, l’autre mobile. La partie mobile était par exemple un fil mobile αβ dont les extrémités α et β pouvaient glisser le long d’un fil fixe. Dans une des positions du fil mobile, l’extrémité α reposait sur le point A du fil fixe et l’extrémité β sur le point B du fil fixe. Le courant circulait de α en β, c’est-à-dire de A en B le long du fil mobile, et il revenait ensuite de B en A en suivant le fil fixe. Ce courant était donc fermé.
Dans une seconde position, le fil mobile ayant glissé, l’extrémité α reposait sur un autre point A’ du fil fixe et l’extrémité β sur un autre point B’ du fil fixe. Le courant circulait alors de α en β, c’est-à-dire de A’ en B’ le long du fil mobile, et il revenait ensuite de B’ en B, puis de B en A, puis enfin de A en A’, toujours en suivant le fil fixe. Le courant était donc encore fermé.
Si un semblable circuit est soumis à l’action d’un courant fermé C, la partie mobile se déplacera comme si elle subissait l’action d’une force. Ampère admet que la force apparente à laquelle cette partie mobile AB semble ainsi soumise, représentant l’action de C sur la portion αβ du courant, est la même que si αβ était parcouru par un courant ouvert qui s’arrêterait en α et en β, au lieu de l’être par un courant fermé qui, après être arrivé en β, revient en α à travers la partie fixe du circuit.
Cette hypothèse peut sembler assez naturelle et Ampère la fait sans s’en apercevoir ; néanmoins, elle ne s’impose pas, puisque nous verrons plus tard que Helmholtz l’a rejetée. Quoi qu’il en soit, elle permit à Ampère, bien qu’il n’ait pu jamais réaliser un courant ouvert, d’énoncer des lois de l’action d’un courant fermé sur un courant ouvert, ou même sur un élément de courant.
Les lois restent simples :
1° La force qui agit sur un élément de courant est appliquée à cet élément ; elle est normale à l’élément et à la force magnétique et proportionnelle à la composante de cette force magnétique qui est normale à l’élément.
2° L’action d’un solénoïde fermé sur un élément de courant reste nulle.
Mais il n’y a plus de potentiel électrodynamique, c’est-à-dire que, quand un courant fermé et un courant ouvert, dont les intensités ont été maintenues constantes, reviennent à leurs positions initiales, le travail total n’est pas nul.
3. Rotations continues. – Parmi les expériences électrodynamiques, les plus curieuses sont celles où l’on a pu réaliser des rotations continues et qu’on appelle quelquefois expériences d’induction unipolaire. Un aimant peut tourner autour de son axe ; un courant parcourt d’abord un fil fixe, entre dans l’aimant par le pôle N par exemple, parcourt la moitié de l’aimant, en sort par un contact glissant et rentre dans le fil fixe.
L’aimant entre alors en rotation continue sans pouvoir jamais atteindre une position d’équilibre. C’est l’expérience de Faraday.
Comment cela est-il possible ? Si l’on avait affaire à deux circuits de forme invariable, l’un fixe C, l’autre C’ mobile autour d’un axe, ce dernier ne pourrait jamais prendre de rotation continue ; en effet, il existe un potentiel électrodynamique ; il y aura donc forcément une position d’équilibre, ce sera celle où ce potentiel sera maximum.
Les rotations continues ne sont donc possibles que si le circuit C’ se compose de deux parties : l’une fixe, l’autre mobile autour d’un axe, comme cela a lieu dans l’expérience de Faraday. Encore convient-il de faire une distinction. Le passage de la partie fixe à la partie mobile ou inversement peut se faire, soit par un contact simple (le même point de la partie mobile restant constamment en contact avec le même point de la partie fixe), soit par un contact glissant (le même point de la partie mobile venant successivement en contact avec divers points de la partie fixe).
C’est seulement dans le second cas qu’il peut y avoir rotation continue. Voici ce qui arrive alors : le système tend bien à prendre une position d’équilibre ; mais, quand elle va être atteinte, le contact glissant met la partie mobile en communication avec un nouveau point de la partie fixe ; elle change les connexions, elle change donc les conditions d’équilibre, de sorte que, la position d’équilibre fuyant, pour ainsi dire, devant le système qui cherche à l’atteindre, la rotation peut se poursuivre indéfiniment.
Ampère admet que l’action du circuit sur la partie mobile de C’ est la même que si la partie fixe de C’ n’existait pas et si, par conséquent, le courant qui circule dans la partie mobile était ouvert.
Il conclut donc que l’action d’un courant fermé sur un courant ouvert, ou inversement celle d’un courant ouvert sur un courant fermé, peut donner lieu à une rotation continue.
Mais cette conclusion dépend de l’hypothèse que je viens d’énoncer et qui, ainsi que je l’ai dit plus haut, n’est pas admise par Helmholtz.
4. Action mutuelle de deux courants ouverts. – En ce qui concerne l’action mutuelle de deux courants ouverts et, en particulier, celle de deux éléments de courant, toute expérience fait défaut. Ampère a recours à l’hypothèse. Il suppose :
1° que l’action mutuelle de deux éléments se réduit à une force dirigée suivant la droite qui les joint ;
2° que l’action de deux courants fermés est la résultante des actions mutuelles de leurs divers éléments, lesquelles sont, d’ailleurs, les mêmes que si ces éléments étaient isolés.
Ce qui est remarquable, c’est qu’ici encore Ampère fait ces deux hypothèses sans s’en apercevoir.
Quoi qu’il en soit, ces deux hypothèses, jointes aux expériences sur les courants fermés, suffisent pour déterminer complètement la loi de l’action mutuelle de deux éléments.
Mais alors, la plupart des lois simples que nous avons rencontrées dans le cas des courants fermés ne sont plus vraies.
D’abord, il n’y a pas de potentiel électrodynamique ; il n’y en avait d’ailleurs pas non plus, comme nous l’avons vu, dans le cas d’un courant fermé agissant sur un courant ouvert.
Ensuite, il n’y a plus, à proprement parler, de force magnétique.
Et, en effet, nous avons donné plus haut de cette force trois définitions différentes :
1° par l’action subie par un pôle magnétique ;
2° par le couple directeur qui oriente l’aiguille aimantée ;
3° par l’action subie par un élément de courant.
Or, dans le cas qui nous occupe maintenant, non seulement ces trois définitions ne concordent plus, mais chacune d’elles est dépourvue de sens, et en effet :
1° Un pôle magnétique n’est plus simplement soumis à une force unique appliquée à ce pôle. Nous avons vu, en effet, que la force due à l’action d’un élément de courant sur un pôle n’est pas appliquée au pôle, mais à l’élément ; elle peut, d’ailleurs, être remplacée par une force appliquée au pôle et par un couple ;
2° Le couple qui agit sur l’aiguille aimantée n’est plus un simple couple directeur ; car son moment par rapport à l’axe de l’aiguille n’est pas nul. Il se décompose en un couple directeur proprement dit et un couple supplémentaire qui tend à produire la rotation continue dont j’ai parlé plus haut ;
3° Enfin, la force subie par un élément de courant n’est pas normale à cet élément.
En d’autres termes, l’unité de la force magnétique a disparu.
Voici en quoi consiste cette unité. Deux systèmes qui exercent la même action sur un pôle magnétique, exerceront aussi la même action sur une aiguille aimantée infiniment petite, ou sur un élément de courant, placés au même point de l’espace où était ce pôle.
Eh bien, cela est vrai si ces deux systèmes ne contiennent que des courants fermés ; cela ne serait plus vrai, d’après Ampère, si ces systèmes contenaient des courants ouverts.
Il suffit de remarquer, par exemple, que, si un pôle magnétique est placé en A et un élément en B, la direction de l’élément étant sur le prolongement de la droite AB, cet élément, qui n’exercera aucune action sur ce pôle, en exercera une, au contraire, soit sur une aiguille aimantée placée au point A, soit sur un élément de courant placé au point A.
5. Induction. – On sait que la découverte de l’induction électrodynamique ne tarda pas à suivre les immortels travaux d’Ampère.
Tant qu’il ne s’agit que de courants fermés, il n’y a aucune difficulté, et Helmholtz a même remarqué que le principe de la conservation de l’énergie pouvait suffire pour déduire les lois de l’induction des lois électrodynamiques d’Ampère. A une condition toutefois, M. Bertrand l’a bien montré, c’est qu’on admette en outre un certain nombre d’hypothèses.
Le même principe permet encore cette déduction dans le cas des courants ouverts, quoique, bien entendu, on ne puisse soumettre le résultat au contrôle de l’expérience, puisque l’on ne peut réaliser de pareils courants.
Si l’on veut appliquer ce mode d’analyse à la théorie d’Ampère sur les courants ouverts, on arrive à des résultats bien faits pour nous surprendre.
D’abord, l’induction ne peut se déduire de la variation du champ magnétique d’après la formule bien connue des savants et des praticiens, et en effet, comme nous l’avons dit, il n’y a plus à proprement parler de champ magnétique.
Mais il y a plus. Si un circuit C est soumis à l’induction d’un système voltaïque variable S ; si ce système S se déplace et se déforme d’une manière quelconque, que l’intensité des courants de ce système varie suivant une loi quelconque, mais qu’après ces variations, le système revienne finalement à sa situation initiale, il semble naturel de supposer que la force électromotrice moyenne induite dans le circuit C est nulle.
Cela est vrai si le circuit C est fermé et si le système S ne renferme que des courants fermés. Cela ne serait plus vrai, si l’on accepte la théorie d’Ampère, dès qu’il y aurait des courants ouverts. De sorte que, non seulement l’induction ne sera plus la variation du flux de force magnétique dans aucun des sens habituels de ce mot, mais elle ne pourra pas être représentée par la variation de quoi que ce soit.
J’ai insisté sur les conséquences de la théorie d’Ampère et de sa façon de comprendre l’action des courants ouverts.
Il est difficile de méconnaître le caractère paradoxal et artificiel des propositions auxquelles on est ainsi conduit ; on est amené à penser que « ça ne doit pas être ça ».
On conçoit donc qu’Helmholtz ait été amené à chercher autre chose.
Helmholtz rejette l’hypothèse fondamentale d’Ampère, à savoir que l’action mutuelle de deux éléments de courant se ramène à une force dirigée suivant la droite qui les joint.
Il admet qu’un élément de courant n’est pas soumis à une force unique, mais à une force et à un couple. C’est même ce qui a donné lieu à la polémique célèbre de Bertrand et d’Helmholtz.
Helmholtz remplace l’hypothèse d’Ampère par la suivante : deux éléments de courant admettent toujours un potentiel électrodynamique, dépendant uniquement de leur position et de leur orientation, et le travail des forces qu’ils exercent l’un sur l’autre est égal à la variation de ce potentiel. Ainsi Helmholtz ne peut pas plus qu’Ampère se passer de l’hypothèse ; mais au moins il ne la fait pas sans l’énoncer explicitement.
Dans le cas des courants fermés, seul accessible à l’expérience, les deux théories concordent : dans tous les autres cas, elles différent.
D’abord, contrairement à ce que supposait Ampère la force à laquelle semble soumise la portion mobile d’un courant fermé n’est pas la même que cette portion mobile subirait si elle était isolée et constituait un courant ouvert.
Revenons au circuit C’ dont nous avons parlé plus haut et qui était formé d’un fil mobile αβ glissant sur un fil fixe ; dans la seule expérience réalisable, la portion mobile αβ n’est pas isolée, mais fait partie d’un circuit fermé. Quand elle vient de AB en A’B’, le potentiel électrodynamique total varie pour deux raisons :
1° il subit un premier accroissement parce que le potentiel de A’B’ par rapport au circuit C n’est pas le même que celui de AB ;
2° il subit un second accroissement, parce qu’il faut l’augmenter des potentiels des éléments AA’ et B’B par rapport à C.
C’est ce double accroissement qui représente le travail de la force à laquelle la portion AB semble soumise.
Si, au contraire, αβ était isolé, le potentiel ne subirait que le premier accroissement, et c’est ce premier accroissement seulement qui mesurerait le travail de la force qui agit sur AB.
En second lieu, il ne peut pas y avoir de rotation continue sans contact glissant ; et, en effet, c’est là, comme nous l’avons vu à propos des courants fermés, une conséquence immédiate de l’existence d’un potentiel électrodynamique.
Dans l’expérience de Faraday, si l’aimant est fixe et si la partie du courant extérieure à l’aimant parcourt un fil mobile, cette partie mobile pourra subir une rotation continue. Mais cela ne veut pas dire que si l’on supprimait les contacts du fil avec l’aimant et qu’on fit parcourir le fil par un courant ouvert, le fil prendrait encore un mouvement de rotation continue.
Je viens de dire, en effet, qu’un élément isolé ne subit pas la même action qu’un élément mobile faisant partie d’un circuit fermé.
Autre différence : l’action d’un solénoïde fermé sur un courant fermé est nulle d’après l’expérience et d’après les deux théories ; son action sur un courant ouvert serait nulle d’après Ampère ; elle ne serait pas nulle d’après Helmholtz.
D’où une conséquence importante. Nous avons donné plus haut trois définitions de la force magnétique ; la troisième n’a ici aucun sens puisqu’un élément de courant n’est plus soumis à une force unique. La première n’en a pas non plus. Qu’est-ce, en effet, qu’un pôle magnétique ? C’est l’extrémité d’un aimant linéaire indéfini. Cet aimant peut être remplacé par un solénoïde indéfini. Pour que la définition de la force magnétique eût un sens, il faudrait que l’action exercée par un courant ouvert sur un solénoïde indéfini ne dépendît que de la position de l’extrémité de ce solénoïde, c’est-à-dire que l’action sur un solénoïde fermé fût nulle. Or, nous venons de voir que ce n’était pas vrai.
En revanche, rien n’empêche d’adopter la deuxième définition, celle qui est fondée sur la mesure du couple directeur qui tend à orienter une aiguille aimantée.
Mais, si on l’adopte, ni les effets d’induction ni les effets électrodynamiques ne dépendront uniquement de la distribution des lignes de force de ce champ magnétique.
La théorie de Helmholtz est un progrès sur celle d’Ampère ; il s’en faut cependant que toutes les difficultés soient aplanies. Dans l’une comme dans l’autre, le mot champ magnétique n’a pas de sens, ou, si on lui en donne un par une convention plus ou moins artificielle, les lois ordinaires, si familières à tous les électriciens, ne s’appliquent plus ; c’est ainsi que la force électromotrice induite dans un fil n’est plus mesurée par le nombre des lignes de force rencontrées par ce fil.
Et nos répugnances ne proviennent pas seulement de ce qu’il est difficile de renoncer à des habitudes invétérées de langage et de pensée. Il y a quelque chose de plus. Si nous ne croyons pas aux actions à distance, il faut expliquer les phénomènes électrodynamiques par une modification du milieu. C’est précisément cette modification que l’on appelle champ magnétique, et alors les effets électrodynamiques ne devraient dépendre que de ce champ.
Toutes ces difficultés proviennent de l’hypothèse des courants ouverts.
Telles étaient les difficultés soulevées par les théories régnantes quand parut Maxwell, qui, d’un trait de plume, les fit toutes disparaître. Dans ses idées, en effet, il n’y a plus que des courants fermés.
Maxwell admet que, si, dans un diélectrique, le champ électrique vient à varier, ce diélectrique devient le siège d’un phénomène particulier agissant sur le galvanomètre comme un courant et qu’il appelle courant de déplacement.
Si alors deux conducteurs portant des charges contraires sont mis en communication par un fil, il règne dans ce fil pendant la décharge un courant de conduction ouvert ; mais il se produit en même temps, dans le diélectrique ambiant, des courants de déplacement qui ferment ce courant de conduction.
On sait que la théorie de Maxwell conduit à l’explication des phénomènes optiques, qui seraient dus à des oscillations électriques extrêmement rapides.
À cette époque une pareille conception n’était qu’une hypothèse hardie qui ne pouvait s’appuyer d’aucune expérience.
Au bout de vingt ans, les idées de Maxwell reçurent la confirmation de l’expérience. Hertz parvint à produire des systèmes d’oscillations électriques qui reproduisent toutes les propriétés de la lumière et n’en diffèrent que par la longueur d’onde, c’est-à-dire comme le violet diffère du rouge. Il fit en quelque sorte la synthèse de la lumière. C’est de là comme chacun sait qu’est sortie la télégraphie sans fil.
On pourrait dire que Hertz n’a pas démontré directement l’idée fondamentale de Maxwell, l’action du courant de déplacement sur le galvanomètre. C’est vrai dans un sens, et ce qu’il a montré directement, en somme, c’est que l’induction électromagnétique ne se propage pas instantanément comme en le croyait, mais avec la vitesse de la lumière.
Seulement, supposer qu’il n’y a pas de courant de déplacement et que l’induction se propage avec la vitesse de la lumière ; ou bien, supposer que les courants de déplacement produisent des effets d’induction et que l’induction se propage instantanément, cela est la même chose.
C’est ce qu’on ne voit pas au premier abord, mais ce que l’on démontre par une analyse que je ne puis même songer à résumer ici.
Mais, je l’ai dit plus haut, il y a deux sortes de courants de conduction ouverts : il y a d’abord les courants de décharge d’un condensateur ou d’un conducteur quelconque.
Il y a aussi les cas où des charges électriques décrivent un contour fermé, en se déplaçant par conduction dans une partie du circuit et par convection dans l’autre partie.
Pour les courants ouverts de la première sorte, la question pouvait être regardée comme résolue : ils étaient fermés par les courants de déplacement.
Pour les courants ouverts de la deuxième sorte, la solution paraissait encore plus simple ; si le courant était fermé, ce ne pouvait être, semblait-il, que par le courant de convection lui-même. Pour cela, il suffisait d’admettre qu’un « courant de convection », c’est-à-dire un conducteur chargé en mouvement, pouvait agir sur le galvanomètre. Mais la confirmation expérimentale manquait. Il paraissait difficile, en effet, d’obtenir une intensité suffisante, même en augmentant autant que possible la charge et la vitesse des conducteurs.
Ce fut Rowland, un expérimentateur extrêmement habile, qui le premier triompha de ces difficultés. Un disque recevait une forte charge électrostatique et une très grande vitesse de rotation. Un système magnétique astatique, placé à côté du disque, subissait des déviations.
L’expérience fut faite deux fois par Rowland : une fois à Berlin, une fois à Baltimore ; elle fut ensuite reprise par Himstedt. Ces physiciens crurent même pouvoir annoncer qu’ils avaient pu effectuer des mesures quantitatives.
Cette loi de Rowland fut admise sans contestation par tous les physiciens.
Tout, d’ailleurs, paraissait la confirmer. L’étincelle produit certainement un effet magnétique ; or, ne semble-t-il pas vraisemblable que la décharge par étincelle est due à des particules arrachées à l’une des électrodes et transportées sur l’autre électrode avec leur charge ? Le spectre même de l’étincelle, où l’on reconnaît les raies du métal de l’électrode n’en est-il pas une preuve ? L’étincelle serait alors un véritable courant de convection.
D’un autre côté, on admet aussi que, dans un électrolyte, l’électricité est convoyée par les ions en mouvement. Le courant dans un électrolyte serait donc aussi un courant de convection ; or, il agit sur l’aiguille aimantée.
De même pour les rayons cathodiques ; Crookes attribue ces rayons à l’effet d’une matière très subtile, chargée d’électricité négative et animée d’une très grande vitesse ; il les regarde, en d’autres termes, comme des courants de convection et sa façon de voir, un instant contestée, est aujourd’hui adoptée partout. Or, ces rayons cathodiques sont déviés par l’aimant. En vertu du principe de l’action et de la réaction, ils doivent à leur tour dévier l’aiguille aimantée.
Il est vrai que Hertz crut avoir démontré que les rayons cathodiques ne convoient pas d’électricité négative et qu’ils n’agissent pas sur l’aiguille aimantée. Mais Hertz se trompait ; d’abord Perrin a pu recueillir l’électricité transportée par ces rayons et dont Hertz niait l’existence ; le savant allemand paraît avoir été trompé par des effets dus à l’action des rayons X, qui n’étaient pas encore découverts. Ensuite, et tout récemment, on a mis en évidence l’action des rayons cathodiques sur l’aiguille aimantée et reconnu la cause de l’erreur commise par Hertz.
Ainsi, tous ces phénomènes regardés comme des courants de convection, étincelles, courants électrolytiques, rayons cathodiques, agissent de la même manière sur le galvanomètre et conformément à la loi de Rowland.
On ne tarda pas à aller plus loin. D’après la théorie de Lorentz, les courants de conduction eux-mêmes seraient de véritables courants de convection : l’électricité resterait indissolublement attachée à certaines particules matérielles appelées électrons ; ce serait la circulation de ces électrons à travers les corps qui produirait les courants voltaïques, et ce qui distinguerait les conducteurs des isolants, c’est que les uns se laisseraient traverser par ces électrons, tandis que les autres arrêteraient leurs mouvements.
La théorie de Lorentz est très séduisante, elle donne une explication très simple de certain phénomènes dont les anciennes théories, même celle de Maxwell sous sa forme primitive, ne pouvaient rendre compte d’une façon satisfaisante, par exemple, l’aberration de la lumière, l’entraînement partiel des ondes lumineuses, la polarisation magnétique, l’expérience de Zeeman.
Quelques objections subsistaient encore. Les phénomènes dont un système est le siège semblaient devoir dépendre de la vitesse absolue de translation du centre de gravité de ce système, ce qui est contraire à l’idée que nous nous faisons de la relativité de l’espace. À la soutenance de M. Crémieu, M. Lippmann a mis cette objection sous une forme saisissante. Supposons deux conducteurs chargés, animés d’une même vitesse de translation. Ils sont en repos relatif ; cependant, chacun d’eux équivalant à un courant de convection, ils doivent s’attirer, et on pourrait, en mesurant cette attraction, mesurer leur vitesse absolue.
Non, répondaient les partisans de Lorentz ; ce que l’on mesurerait ainsi, ce n’est pas leur vitesse absolue, mais leur vitesse relative par rapport à l’éther, de sorte que le principe de relativité est sauf. Depuis, Lorentz a d’ailleurs trouvé une réponse plus subtile, mais beaucoup plus satisfaisante.
Quoi qu’il en soit de ces dernières objections, l’édifice de l’électrodynamique semble, au moins dans ses grandes lignes, définitivement construit ; tout se présente sous l’aspect le plus satisfaisant ; les théories d’Ampère et de Helmholtz, faites pour les courants ouverts qui n’existent plus, ne semblent plus avoir qu’un intérêt purement historique.
L’histoire de ces variations n’en sera pas moins instructive ; elle nous apprendra à quels pièges le savant est exposé, et comment il peut avoir l’espoir d’y échapper.
L’une des découvertes les plus étonnantes que les physiciens aient annoncées dans ces dernières années, c’est que la matière n’existe pas. Hâtons-nous de dire que cette découverte n’est pas encore définitive. L’attribut essentiel de la matière, c’est sa masse, son inertie. La masse est ce qui partout et toujours demeure constant, ce qui subsiste quand une transformation chimique a altéré toutes les qualités sensibles de la matière et semble en avoir fait un autre corps. Si donc on venait à démontrer que la masse, l’inertie de la matière ne lui appartiennent pas en réalité, que c’est un luxe d’emprunt dont elle se pare, que cette masse, la constante par excellence, est elle-même susceptible d’altération, ou pourrait bien dire que la matière n’existe pas. Or, c’est là précisément ce qu’on annonce.
Les vitesses que nous avions pu observer jusqu’ici étaient bien faibles, puisque les corps célestes, qui laissent bien loin derrière eux toutes nos automobiles, font à peine du 60 ou du 100 « kilomètres » à la seconde ; la lumière, il est vrai, va 3 000 fois plus vite, mais ce n’est pas une matière qui se déplace, c’est une perturbation qui chemine à travers une substance relativement immobile comme une vague à la surface de l’océan. Toutes les observations faites avec ces faibles vitesses montraient la constance de la masse, et personne ne s’était demandé s’il en serait encore de même avec des vitesses plus grandes.
Ce sont les infiniment petits qui ont battu le record de Mercure, la planète la plus rapide : je veux parler des corpuscules dont les mouvements produisent les rayons cathodiques et les rayons du radium. On sait que ces radiations sont dues à un véritable bombardement moléculaire. Les projectiles lancés dans ce bombardement sont chargés d’électricité négative, et on peut s’en assurer en recueillant cette électricité dans un cylindre de Faraday. À cause de leur charge ils sont déviés tant par un champ magnétique que par un champ électrique, et la comparaison de ces déviations peut nous faire connaître leur vitesse et le rapport de leur charge à leur masse.
Or, ces mesures nous ont révélé d’une part que leur vitesse est énorme, qu’elle est le dixième ou le tiers de celle de la lumière, mille fois celle des planètes, et d’autre part que leur charge est très considérable par rapport à leur masse. Chaque corpuscule en mouvement représente donc un courant électrique notable. Mais nous savons que les courants électriques présentent une sorte d’inertie spéciale appelée self-induction. Un courant une fois établi tend à se maintenir, et c’est pour cela que quand on veut rompre un courant, en coupant le conducteur qu’il traverse, on voit jaillir une étincelle au point de rupture. Ainsi le courant tend à conserver son intensité de même qu’un corps en mouvement tend à conserver sa vitesse. Donc notre corpuscule cathodique résistera aux causes qui pourraient altérer sa vitesse pour deux raisons : par son inertie proprement dite d’abord, et ensuite par sa self-induction, parce que toute altération de la vitesse serait en même temps une altération du courant correspondant. Le corpuscule – l’électron, comme on dit – aura donc deux inerties : l’inertie mécanique, et l’inertie électromagnétique.
MM. Abraham et Kaufmann, l’un calculateur, l’autre expérimentateur, ont uni leurs efforts pour déterminer la part de l’une et de l’autre. Ils ont été pour cela obligés d’admettre une hypothèse ; ils ont pensé que tous les électrons négatifs sont identiques, qu’ils portent la même charge, essentiellement constante, que les dissemblances que l’on constate entre eux proviennent uniquement des vitesses différentes dont ils sont animés. Quand la vitesse varie, la masse réelle, la masse mécanique, demeure constante, c’est pour ainsi dire sa définition même ; mais l’inertie électromagnétique, qui contribue à former la masse apparente, croît avec la vitesse suivant une certaine loi. Il doit donc y avoir une relation entre la vitesse et le rapport de la masse à la charge, quantités que l’on peut calculer, nous l’avons dit, en observant les déviations des rayons sous l’action d’un aimant ou d’un champ électrique ; et l’étude de cette relation permet de déterminer la part des deux inerties. Le résultat est tout à fait surprenant : la masse réelle est nulle. Il est vrai qu’il faut admettre l’hypothèse faite au début, mais la concordance de la courbe théorique et de la courbe expérimentale est assez grande pour rendre cette hypothèse fort vraisemblable.
Ainsi ces électrons négatifs n’ont pas de masse proprement dite ; s’ils semblent doués d’inertie c’est qu’ils ne sauraient changer de vitesse sans déranger l’éther. Leur inertie apparente n’est qu’un emprunt, elle n’est pas à eux, elle est à l’éther. Mais ces électrons négatifs ne sont pas toute la matière ; on pourrait donc admettre qu’en dehors d’eux il y a une vraie matière douée d’une inertie propre. Il y a certaines radiations – comme les rayons-canal de Goldstein, les rayons α du radium – qui sont dues aussi à une pluie de projectiles, mais de projectiles chargés positivement ; ces électrons positifs sont-ils eux aussi dépourvus de masse ? Il est impossible de le dire, parce qu’ils sont beaucoup plus lourds et beaucoup moins rapides que les électrons négatifs. Et alors deux hypothèses restent admissibles : ou bien les électrons sont plus lourds, parce qu’en dehors de leur inertie électromagnétique empruntée ils ont une inertie mécanique propre, et alors ce sont eux qui sont la vraie matière ; ou bien ils sont sans masse comme les autres, et s’ils nous paraissent plus lourds, c’est parce qu’ils sont plus petits. Je dis bien plus petits, quoique cela puisse paraître paradoxal ; car dans cette conception le corpuscule ne serait qu’un vide dans l’éther, seul réel, seul doué d’inertie.
Jusqu’ici la matière n’est pas trop compromise ; nous pouvons encore adopter la première hypothèse, ou même croire qu’en dehors des électrons positifs et négatifs, il y a des atomes neutres. Les récentes recherches de Lorentz vont nous enlever cette dernière ressource. Nous sommes entraînés dans le mouvement de la Terre, qui est très rapide ; les phénomènes optiques et électriques ne vont-ils pas être altérés par cette translation ? On l’a cru longtemps, et on a supposé que les observations décèleraient des différences, suivant l’orientation des appareils par rapport au mouvement de la Terre. Il n’en a rien été, et les mesures les plus délicates n’ont rien montré de semblable. Et en cela les expériences justifiaient une répugnance commune à tous les physiciens ; si on avait trouvé quelque chose en effet, on aurait pu connaître non seulement le mouvement relatif de la Terre par rapport au Soleil, mais son mouvement absolu dans l’éther. Or, beaucoup de personnes ont peine à croire qu’aucune expérience puisse donner autre chose qu’un mouvement relatif ; elles accepteraient plus volontiers de croire que la matière n’a pas de masse.
On ne fut donc pas trop étonné des résultats négatifs obtenus ; ils étaient contraires aux théories enseignées, mais ils flattaient un instinct profond, antérieur à toutes ces théories. Encore fallait-il modifier ces théories en conséquence, pour les mettre en harmonie avec les faits. C’est ce qu’a fait Fitzgerald, par une hypothèse surprenante : il admet que tous les corps subissent une contraction d’un cent-millionième environ dans la direction du mouvement de la Terre. Une sphère parfaite devient un ellipsoïde aplati, et si on la fait tourner, elle se déforme de façon que le petit axe de l’ellipsoïde reste toujours parallèle à la vitesse de la Terre. Comme les instruments de mesure subissent les mêmes déformations que les objets à mesurer, on ne s’aperçoit de rien, à moins qu’on ne s’avise de déterminer le temps que met la lumière pour parcourir la longueur de l’objet.
Cette hypothèse rend compte des faits observés. Mais ce n’est pas assez ; on fera un jour des observations plus précises encore ; les résultats seront-ils cette fois positifs ; nous mettront-ils en mesure de déterminer le mouvement absolu de la Terre ? Lorentz ne l’a pas pensé ; il croit que cette détermination sera toujours impossible ; l’instinct commun de tous les physiciens, les insuccès éprouvés jusqu’ici le lui garantissent suffisamment. Considérons donc cette impossibilité comme une loi générale de la nature ; admettons-la comme postulat. Quelles en seront les conséquences ? C’est ce qu’a cherché Lorentz, et il a trouvé que tous les atomes, tous les électrons positifs ou négatifs, devaient avoir une inertie variable avec la vitesse, et précisément d’après les mêmes lois. Ainsi tout atome matériel serait formé d’électrons positifs, petits et lourds, et d’électrons négatifs, gros et légers, et si la matière sensible ne nous paraît pas électrisée, c’est que les deux sortes d’électrons sont à peu près en nombre égal. Les uns et les autres sont dépourvus de masse et n’ont qu’une inertie d’emprunt. Dans ce système il n’y a pas de vraie matière, il n’y a plus que des trous dans l’éther.
Pour M. Langevin, la matière serait de l’éther liquéfié, et ayant perdu ses propriétés ; quand la matière se déplacerait, ce ne serait pas cette masse liquéfiée qui cheminerait à travers l’éther ; mais la liquéfaction s’étendrait de proche en proche à de nouvelles portions de l’éther, pendant qu’en arrière les parties d’abord liquéfiées reprendraient leur état primitif. La matière en se mouvant ne conserverait pas son identité.
Voilà où en était la question il y a quelque temps ; mais voici que M. Kaufmann annonce de nouvelles expériences. L’électron négatif, dont la vitesse est énorme, devrait éprouver la contraction de Fitzgerald, et la relation entre la vitesse et la masse s’en trouverait modifiée ; or, les expériences récentes ne confirment pas cette prévision ; tout s’écroulerait alors, et la matière reprendrait ses droits à l’existence. Mais les expériences sont délicates, et une conclusion définitive serait aujourd’hui prématurée.
Texte libre de droits.
Corrections, édition, conversion informatique et publication par le groupe :
Ebooks libres et gratuits
http://fr.groups.yahoo.com/group/ebooksgratuits
Adresse du site web du groupe :
http://www.ebooksgratuits.com/
—
Octobre 2011
—
– Élaboration de ce livre électronique :
Les membres de Ebooks libres et gratuits qui ont participé à l’élaboration de ce livre, sont : Jean-Marc, LaureH, PatriceC, Coolmicro.
– Dispositions :
Les livres que nous mettons à votre disposition, sont des textes libres de droits, que vous pouvez utiliser librement, à une fin non commerciale et non professionnelle. Tout lien vers notre site est bienvenu…
– Qualité :
Les textes sont livrés tels quels sans garantie de leur intégrité parfaite par rapport à l'original. Nous rappelons que c'est un travail d'amateurs non rétribués et que nous essayons de promouvoir la culture littéraire avec de maigres moyens.
Votre aide est la bienvenue !
VOUS POUVEZ NOUS AIDER À FAIRE CONNAÎTRE CES CLASSIQUES LITTÉRAIRES.
[1] Voir M. Le Roy, Science et Philosophie. (Revue de Métaphysique et de morale, 1901)
[2] Avec celles qui sont contenues dans les conventions spéciales qui servent à définir l’addition et dont nous parlerons plus loin.
[3] Revue de Métaphysique et de Morale, janvier 1898.
[4] Les lignes qui vont suivre sont la reproduction partielle de la préface de mon ouvrage Thermodynamique.
[5] Ce chapitre est la reproduction partielle des préfaces de deux de mes ouvrages : Théorie mathématique de la lumière (Paris, Naud, 1889) et Électricité et Optique (Paris, Naud, 1901)
[6] Ajoutons que U dépendra seulement des q, que T dépendra des q et de leurs dérivées par rapport au temps et sera un polynôme homogène du second degré par rapport à ces dérivées.
[7] Voir l’Évolution de la Matière par Gustave Le Bon.