L'hypothèse clandestine et dirimante de la géométrie.

Auteur : Jacques Lavau.

1 .        L’hypothèse macroscopique clandestine.

2 .        Topologie plus grossière que prévue.

3 .        Bavures sur le temps.

4 .        Conclusion.

Bibliographie :

Annexe : Jeter le fatas et le pathos.

 

L'hypothèse clandestine et dirimante de la géométrie

Auteur : Jacques Lavau. Août 1999.

 

1 .        L’hypothèse macroscopique clandestine.

Notre profession (de mathématiciens) a pris l'habitude de ne plus jamais reconnaître ses dettes envers le monde concret de la technologie, auquel pourtant nous sommes redevables des concepts que nous enseignons aux enfants. A force de nier cet héritage fondateur, nous nous sommes rendus négligents envers le processus d'abstraction, qui est devenu un sous-entendu, exempté de toutes lois et de tout contrôle, et même de toute définition. Parallèlement, nous proclamions notre autarcie totale envers le restant de l'humanité, par la proclamation de l'axiomatique comme seul fondement des mathématiques : tout théorème devant se déduire d'un jeu d'axiomes, et de concepts fondamentaux non définis, qui eux, tombent directement du ciel abstrait, et sont censés ne plus jamais rien devoir à notre expérience sensorielle, au monde concret et historique...

C'est ainsi que nous nous sommes rendus collectivement aveugles à l'énorme hypothèse technologique qui fonde la géométrie que nous enseignons à nos bambins et à nos étudiants.

Nous verrons dans cet article, les conséquences désastreuses que le caractère inconscient et clandestin de cette énorme hypothèse injustifiable, a eu sur le développement de la physique fondamentale, depuis soixante-dix ans (en 1997... soixante-dix-neuf ans en 2006).

Les concepts premiers de notre géométrie sont fondés sur l’aventure technologique multimillénaire suivante : "On a toujours réussi à faire un pointage plus précis que le précédent, à faire un repérage géodésique, ou sur machine-outil, plus précis que le précédent, à tracer un trait ou usiner une arête, plus fins que les précédents, à dresser un marbre plus plan que le marbre précédent. » Nous crûmes correct d’en déduire : « Donc nous avons bien raison d'extrapoler qu'on pourra toujours faire mieux, plus fin, plus précis... NOUS NE BUTERONS JAMAIS SUR L'ATOMICITÉ DE LA MATIERE NI DE LA LUMIERE ! Donc nous avons raison de tabler sur les termes ultimes de notre extrapolation, que nous hypostasions : points, droites, lignes, plans, surfaces, positions, coordonnées, hypothèse du continu, suites de Cauchy, autosimilitude à toute échelle, et il y a autant de points sur l'ongle d'un bébé que dans l’Univers entier, etc. etc. etc. "

C'est ce que dénommerons l'HYPOTHESE MACROSCOPIQUE (HM) : "Nous sommes tellement loin de la limite atomique, que nous ne l'atteindrons jamais." L'ennui, c'est que depuis un siècle, nous autres physiciens, et depuis quelques cinquante ans nous autres ingénieurs, butons en plein sur cette limite atomique. L’aventure technologique multimillénaire est épuisée !

Familiarisons-nous avec les conséquences quotidiennes dans l'enseignement et dans la vulgarisation, de cette HM clandestine :

Toute bonne animation vidéo, concernant des atomes et des électrons, nous amuse les yeux avec des petits grumeaux mauves, figurant les noyaux, encerclés de petites billes vertes, qui tourbillonnent autour, et qui sont censées figurer les électrons, conformément au modèle de Rutherford, conçu en 1911, et connu comme définitivement invalide quinze ans plus tard. C'est tellement mignon et fascinant, qu'on adore y croire... Sauf que tout y sacrifie à l'HM ! Pour que nous puissions ainsi voir  les petites billes, avec une position, une forme, des ombres et des reflets, et même une couleur, il est indispensable qu'il existe quelque chose de plus petit que lesdites "billes", pour explorer des telles propriétés supposées (position, taille, forme), et les transmettre à notre œil. Pour les objets macroscopiques que peut manipuler notre main nue depuis 70 millions d'années (je désigne là notre ancêtre Purgatorius, présimien arboricole), cet informateur plus petit existe : c'est la lumière visible. En effet, la longueur d'onde de la lumière visible, et donc son pouvoir séparateur, est de l'ordre du demi micromètre. Mais cette lumière visible est bien incapable de nous renseigner sur les détails d'un atome : elle est au moins un million de fois trop grosse pour cela. Autant espérer être renseigné sur un bouchon qui flotte sur la mer, en observant comment est diffractée une macro-houle, dont l'intercrête soit de plusieurs kilomètres (de telles houles existent, et même d'encore plus longues ; j'en ai chronométrée une, d'une période de trois minutes et demi, en septembre 1965, dans le port de Lampaul, minuscule port d'Ouessant).

En réalité, nous sommes en butée sur la limite atomique : il n'existe rien de plus petit qu'un électron, ni qu’un photon, et qui soit assez durable pour être accessible à nos expériences. Il n’est rien qui puisse nous définir la structure, la forme, ni la taille d'un électron, comme la lumière visible nous renseigne sur la forme d'une fleur, et sur sa réflectance spectrale (ses « couleurs », en termes humains). Et si on emploie de la lumière plus petite ? Des photons gammas, dont la longueur d’onde est plus petite, permettraient au moins de localiser l’électron ? Catastrophe ! Voilà que sous l’impact avec l’électron, ces gammas peuvent se matérialiser en une paire électron-positron, de masses positives ! Et tous les trois partent dans des directions différentes ! Fichu, le renseignement espéré sur la position de l’électron-cible, considéré comme un corpuscule à la Newton ! Plus grave encore : presque tous les calculs que l'on enseigne, permettant d'estimer un "diamètre classique de l'électron", ou ce genre de choses, sont basés sur l'HM, donc invalides dès le départ. Même le concept de "corpuscule" hérité de Newton et de son "point matériel", est entièrement dépendant de l'HM. Le concept de "corpuscule" est tout aussi invalide et indéfendable que l'HM, dès qu'on aborde la physique fondamentale. Malheureusement, il est enseigné partout, notamment sous la forme du "dualisme onde-corpuscule", commis par Einstein vers 1905, et transporté tel quel dans la vulgate de Copenhague, notamment par Niels Bohr. Il nous encombre donc partout.

Nous avons commis l'erreur infantile de croire que, bien que physiquement rien au monde ne put nous renseigner sur la structure, la forme, ni même la taille d'un électron, néanmoins ce genre de choses devaient exister et avoir un sens. Si nous étions des mathématiciens conséquents et rigoureux, nous aurions depuis longtemps posé cette question embarrassante: "ET VOUS DÉMONTREZ CELA COMMENT ? que ce genre de trucs soient pourvus de sens ? ".

Car justement, cette conviction héritée, n'a aucun fondement, et n'en aura jamais. Tous les jours, aussi bien l'expérience, que la cohérence interne du formalisme quantique, démentent tout espoir de validité de l'HM, et de ses conséquences : existence de position, forme, taille, etc. des particules élémentaires telles que photons, électrons, ou neutrinos. Toute la gent mathématicienne a oublié de procéder à un inventaire critique de l’héritage platonicien, selon lequel « l’idée » est plus forte que la réalité matérielle, et peut donc se passer de toute épreuve de réalité : on prétend n’avoir pas besoin qu’il existât une opération expérimentale, puisqu’il nous suffit d’imaginer. Autrement dit : l’hallucination (ici: des points matériels, et corpuscules, et de leurs coordonnées ayant la puissance du continu) vaut mieux que l’expérience vérifiable, et par conséquent, nous en dispense !

Si le formalisme quantique réussit si bien à produire des calculs de prédictions statistiques valides, à partir d'hypothèses invalides, c’est parce qu'il n’utilise en fait jamais les hypothèses invalides, strictement hallucinées, par lesquelles on l'enseigne. Le formalisme quantique est strictement ondulatoire : il n’y a QUE des ondes. Tandis que nous, êtres macroscopiques et massifs, résidons à distance inaccessible des périodes brogliennes où battent ces ondes brogliennes :

Tau0 =  = 4,4016 . 10-24 s/cycle pour un neutron à basse vitesse. Nous sommes réduits à ne constater que le résultat global et durable de transactions entre émetteur et récepteur qui se sont déroulés en des durées qui nous inaccessibles. Ce résultat global à notre échelle humaine, est quantifié. Toutefois, l’exactitude des calculs a exigé que nous tenions compte de ces transactions ondulatoires, par le biais du concept de « particules virtuelles, hors de leur couche de masse ». Nous sommes comme un observateur de Sirius qui se demanderait comment font les camions (les objets les plus fins qu’il puisse discerner) pour découvrir leurs clients à livrer, et solvables, s’imaginant qu’ils partent en maraude sur les routes (en maraude sur les rails, pour les wagons de marchandises), et ignorant tout des flux d’écriture et de voix, de télex ou fax entre fournisseurs, clients et banquiers; il aurait peut-être inventé lui aussi le concept de « camions virtuels et wagons virtuels ». Ou du point de vue de la puéricultrice qui saurait tenir la comptabilité des arrivées et départs de bébés dans sa crèche, tout en ignorant tout de l’amour et de la biologie de la reproduction : elle pourrait suppléer à son ignorance de tous les flirts et brouilles, de toutes les péripéties sentimentales et sexuelles de ses contemporains, de leurs orages et de leurs deuils, par la théorie des « bébés virtuels ».

 

2 .        Topologie plus grossière que prévue.

Nous nous sommes vus buter sur une contradiction : il n’existe rien de plus petit que les électrons, les photons, et quelques autres entités similaires, qui puisse définir ce que pourrait bien signifier « petit », dans notre espace-temps humain. L’espace de la réalité physique est donc topologiquement bien moins fin que la droite R, et aussi moins fin que le principe d’exclusion de Pauli. Nous sommes incapables de localiser ni d’individualiser les deux électrons S d’un atome d’hélium neutre. Ils occupent à eux deux le même « emplacement géométrique » (au sens de notre espace-temps macroscopique, qui n’a aucune compétence prouvée à leur échelle) dont on connaît assez bien le flou et l’étalement gaussien. Seul le principe d’exclusion les sépare : spins opposés. De même, on est incapables de localiser les électrons de conduction d’un métal : chacun occupe à peu près tout le métal, et sa longueur d’onde dépasse largement les distances interatomiques.

Il arrive encore une autre mésaventure à notre espace-temps humain : les quarks ne s’y individualisent jamais, ne s’y déconfinent jamais. On sait faire des expériences où les jets de hadrons trahissent un début de séparation de quarks, mais ça s’arrête là. La « couleur », et le principe d’exclusion de Pauli sont plus fins (au sens topologique) que notre espace macroscopique. Ces damnés quarks sont donc plus « petits » que le sens même du mot « petit ». En disant cela, on n’a pas vraiment dit quelque chose sur ce que les quarks sont ou ne sont pas; on a dit quelque chose sur ce que notre espace macroscopique humain n’est pas.

 

3 .        Bavures sur le temps

Habitués à l’autosimilitude par l’analyse sur la droite R, nous avons aussi transporté sans méfiance cette présomption d’autosimilitude sur la dimension temps. Ainsi, nous nous sommes dispensés de toute espèce de preuve quant au transport du postulat d’irréversibilité du temps macroscopique, qui est d’origine statistique (et qui dans le domaine statistique, est bel et bien un théorème démontré), vers le temps individuel de chaque particule. C’est l’HM temporelle. Toutes les expériences démontrent le contraire, mais qu’importe ! Nous sommes obstinés; et aveugles à la demande.

Chez les mathématiciens, pas d’ambivalence : le formalisme est présumé avoir toujours raison contre les objections qui s’appuient sur des faiblesses dans les significations. Nous sommes même facilement outrecuidants à ce sujet, n’extrapolant que les success stories de l’histoire de l’algèbre.

Chez les physiciens, l’ambivalence se module selon les spécialités. En fait, la coupure historique vient de Dirac, de son équation pour l’électron (1928), de ses solutions à énergies négatives qui embarrassaient tout le monde, jusqu’à la découverte expérimentale du positron en 1932. Mais on a conservé complet, l’oubli des solutions à masses négatives, pourtant elles aussi présentes dès les équations de la Relativité restreinte de 1905, réécrites vers 1908 dans les concepts géométriques de Minkowski, et aussitôt oubliées  :   
E2  =  m2c4 + p2c2 .   On en jugeait la signification absurde. Seulement absurde si on regarde en macroscopique, soumis à la thermodynamique statistique. Mais certainement pas absurde si l’on se rappelle qu’à l’échelle d’une particule d’onde, d’une entité d’onde quantique en cours de propagation (fut-elle stationnaire), la causalité s’écoule simultanément depuis les deux réactions quantiques sommitales : la réaction de création, et la réaction d’annihilation. De nombreuses expériences (à commencer par celles d’Aspect & al. vers 1982) ont tranché : la réaction de création est inséparable de la réaction d’annihilation. Dire qu’un écran a reçu un électron de masse positive, est exactement la même chose que de dire qu’il a émis un antiélectron, de charge positive, d’énergie négative, et de masse négative, à rebours du temps macroscopique, et donc à fréquence négative. Les deux descriptions sont physiquement équivalentes. Mais seule la seconde description résout les paradoxes sur lesquels butait l’imaginaire de la quantique : l’onde électronique peut très bien se concentrer à sa réaction d’annihilation, tout en ayant été assez diluée dans l’espace, durant le trajet entre les deux réactions quantiques ; elle a donc pu se prêter à tous les phénomènes d’interférences constatés expérimentalement. Le principe de Fermat implique une certaine largeur des fuseaux de cohérence de phase, qui est facile à calculer. J’ai montré ailleurs[1] comment calculer la largeur des fuseaux de Fermat selon la longueur d’onde, et la longueur du trajet enjambé :

= (1 +  +   + ...). Où z est la flèche au milieu du fuseau, a est la demi-corde, ou demi-distance entre émetteur et récepteur considérés comme ponctuels, e est le quotient de la longueur d’onde par a.

Simplifions la formule en négligeant les termes d'ordre supérieur :
z² = 3/16 a . lambda 
lambda est la longueur d'onde .     On en prend la racine carrée :
z = Racine(3 . a . lambda) / 4

Second exemple : dire qu’une molécule (grande de 5 Å environ) a absorbé un photon infrarouge un million de fois plus grand qu’elle, est la même chose que de dire qu’elle a émis un photon d’énergie négative, à rebrousse temps. Et vous avez résolu le problème de la convergence de cet immense photon sur cette minuscule molécule : au signe près, c’est le même que celui de la divergence de l’émission de l’antiphoton, d’énergie négative. En radioélectricité, le phénomène est bien connu : une antenne réceptrice concentre le champ dans son voisinage, et modifie l’impédance vue par l’émetteur. Mais l’orgueil corporatif est ainsi fait, que l’information ne percole pas des techniciens vers les théoriciens : un singe de rang élevé, est incapable de rien apprendre qui lui vienne d'un singe de rang hiérarchique inférieur. Cela a été amplement prouvé chez les macaques du Japon, et c'est vrai aussi des humains...

Oui, bien sûr, les physiciens avaient une seconde excuse pour oublier des choses aussi simples : il avaient peur qu’on les confonde avec les diseuses de bonne aventure, et être aussitôt exclus du club, s’ils osaient raisonner trop ouvertement et clairement sur la causalité microscopique à rebrousse temps. Mais si vous ne leur aviez pas martelé à ce point, dès l’enfance, le dogme de l’autosimilitude à toute échelle de la droite R, ils se seraient autorisés à distinguer l’échelle macroscopique de l’échelle particulaire, ce qu’ils ne savent toujours pas faire clairement. En particulier, ils sont à ce jour (1999) encore incapables de discerner entre l’échelle anthropocentrique, où l’on traite statistiquement des événements d’échelle quantique, et où l’on calcule des ondes d’ignorance statistique (à la dilution fulgurante), et l’échelle quantique, où aucune onde quantique individuelle ne diverge au hasard, mais a bien une destination définie. D’où leur malaise secret envers des concepts aussi pathologiques que la « réduction du paquet d’onde ». Concepts pathologiques, car issus de non-sens confusionnels. Là encore, non seulement on a cru que la topologie fine de la droite R, convenait pour décrire la partie temporelle de l’espace-temps, mais en plus, on a cru que ce temps est universellement partagé, « cinématiquement compatible » partout. Or, il n’y a rien de cinématiquement compatible entre les divers « grains » du temps. Voici l’exemple de grains d’espace-temps qui s’étalent sur une quinzaine de milliards de nos années macroscopiques : des photons du rayonnement fossile à 2,7 K, qui n’avaient plus interagi avec rien depuis que l’Univers leur est devenu transparent, arrivent maintenant dans nos radiotélescopes. Et pour eux, à temps propre nul, l’émission et la réception sont simultanées : c’est un seul et même grain de temps, individuel. Notre temps macroscopique, avec sa thermodynamique irréversible, n’est qu’une émergence statistique d’un immense réseau de granules tous discordants entre eux.

Vous eussiez dû rappeler aux physiciens qu’en théorie des graphes, tout arc joint deux sommets... car en diagrammes de Feynman, quatre arcs sur cinq n’ont qu’un seul sommet. La faute de logique est ouvertement dessinée, aux yeux de tous. Mais l’aveuglement de chapelle isolationniste, joue à plein.

Dans un diagramme de Feynman, la réaction quantique correspond aux apex du graphe. Deux apex sont reliés par un propagateur : propagation d'un photon, existence d'un électron, etc. Mais tout propagateur devrait relier deux apex, et on l’oublie.

La dissidence, fondée par Einstein, Schrödinger, Louis de Broglie, envers le camp majoritaire de la quantique, fondé par Born et Heisenberg, a entièrement échoué, car elle était totalement subjuguée par l’HM de leurs années de lycée, et croyait dur comme fer aux coordonnées, aux trajectoires, à la validité de l’espace-temps dans le domaine particulaire. Une opposition éclairée aurait, au contraire, reproché au camp majoritaire d’être resté au milieu du gué, de n’avoir PAS ASSEZ abandonné ces hallucinations intenables, s’obligeant alors à se les concilier par une hypothèse d’indéterminisme (or l’hypothèse d’indéterminisme repose sur la confusion entre le macroscopique et le microscopique).  Alors se serait instituée une dialectique saine, produisant des progrès substantiels. Il n’en fut rien, hélas. Certes, les calculs progressèrent spectaculairement, laissant les conceptions dans une épaisse fumée. On s’en contenta. Le recrutement des physiciens se modela sur l’accommodement facile à cette fumée épaisse : Calculez ! Et ne demandez pas sur quoi ! Les recettes empiriques suffisent...

Du point de vue du psychosociologue enquêtant sur les hallucinations et les convictions collectives, il n’y a pas grandes différences entre les « probabilités d’apparition de corpuscule néo-newtonien-sans-le-dire », et les « probabilités d’apparition de la Vierge à Fatima ». Du point de vue du psychologue cogniticien, la différence est que la seconde conviction repose sur la confusion entre l’hallucination intrapsychique, et le monde extérieur que notre système nerveux est chargé de se représenter, tandis que la première conviction repose sur la confusion entre l’échelle macroscopique et anthropocentrée du laboratoire, et l’échelle particulaire, autrement dit « ondulatoire individuelle ». Mais dans les deux cas, la confusion reste néo-platonicienne : l’idée et le culte de l’idée ont la suprématie sur l’exploration humble du réel. La référence reste dans l’idée, surtout pas dans des expériences.

 

 

4 .        Conclusion

Roger Penrose a montré dans plusieurs articles, hélas de lecture fort difficile, que notre espace-temps humain est une émergence statistique, dans les réseaux de beaucoup de spineurs, de particules dotées de spin et d’impulsion. J’espère avoir rendu intelligible cette idée, en prouvant que l’état actuel des dogmes avec autosimilitude à toute échelle, est physiquement intenable, et dépourvu de sens. Ce dogme a produit d’énormes dégâts chez nos clients, utilisateurs de mathématiques.

Si nous mathématiciens, nous redéfinissions comme fournisseurs de méthodes de raisonnement réutilisables avec sécurité par toutes sortes de professions, alors nous devons devenir attentifs aux conditions de réemploi avec sécurité, donc aux conditions aux limites de validité, exactement comme une équipe d’analystes et de programmeurs établit une hiérarchie de classes et sous-classes. L’une des conditions d’une telle politique de qualité dans nos fournitures, de qualité industrielle, est de devenir attentifs aux procédures exactes d’abstraction, et (inséparable dans la même dialectique) d’enracinement dans le concret et dans le sensoriel. L’un des guides interprofessionnels qu’il est urgent d’établir, est une hiérarchie normalisée des niveaux d’abstraction-enracinement, analogue à ce que l’ISO a établi dans plusieurs domaines du génie logiciel. Nos clients nous en sauraient grand gré, de nous discipliner ainsi, et de discipliner nos communications vers une bien meilleure lisibilité interprofessionnelle, bien plus fiable.

En vous racontant les conséquences désastreuses d’une des hallucinations que depuis deux siècles nous propageons à nos enfants et à nos étudiants, je préconise une politique de qualité, un respect nouveau de nos clients, une attitude citoyenne, et enfin d’établir les moyens techniques pour cela. Plus encore que pour beaucoup d’autres adultes, la profession d’enseignant nous confère des responsabilités qui dépassent de loin notre petite personne. Voilà pourquoi je vous ai exposé les responsabilités encourues par les générations de mathématiciens qui nous ont précédés, et pourquoi je préconise une prise de conscience nouvelle, et des curiosités envers nos clients, dont nous ne sommes pas encore coutumiers.

Et à court terme ? Recherchez, encouragez vos élèves à trouver et énoncer les limites de validité de chaque abstraction enseignée ! Ce sera déjà une innovation salutaire.

Exemple : dans la classe d’à côté, en géographie, si l’on trace un triangle équilatéral de 10 000 km de côté, ses trois angles sont droits. Et un triangle équilatéral de 13 333 km de côté ? Ses trois angles sont plats; on peut les répartir sur un méridien, ou sur l’équateur. Et le pire ? Prenez un triangle équilatéral tellement grand qu’il occupe presque toute la surface de la Terre, complémentaire d’un petit triangle de 5 m de côté que vous tracerez dans la cour du collège. Ses angles valent alors 300° chacun. Leur somme vaut dix droits. Vous êtes tous capables d’écrire la formule qui relie la somme des angles d’un triangle au quotient de son aire par l’aire de la sphère terrestre.

La géométrie que nous enseignons dans les collèges n’a qu’un domaine de validité ainsi limité :

- que ce ne soit pas trop grand par rapport à nos mains, très petit par rapport à la Terre,

- que ce ne soit pas trop petit par rapport à nos mains, assez grand devant un atome, et que cela fasse intervenir de nombreuses réactions quantiques, si nombreuses qu’elles décohèrent entre elles,

-  que tout soit sensiblement aussi lent, et aussi faiblement accéléré que nos mains,

-  que nous soyons à la surface d’un astre où la gravité est faible, Terre, Lune, ou dans leurs banlieues, mais certainement pas sur le Soleil, et encore moins sur une étoile à neutrons.

 

Bibliographie :

Accessible : F. David Peat. Superstrings and the Search for the Theory of Everything. Contemporary Books. Chicago 1988.

Difficiles :

Roger Penrose. Angular Momentum : an Approach to Combinatorial Space-Time. pp 151 - 180, in Quantum Theory and Beyond. Edited by T. Bastin. Cambridge University Press, 1971.

Roger Penrose. Twistor theory, its aims and achievements. pp 268 - 407, in Quantum gravity, an Oxford Symposium. ed . by  C.J. Isham, R. Penrose, D.W. Sciama. Clarendon Press, Oxford 1975.

Roger Penrose. On the nature of Quantum Geometry. pp 333 - 354, in Magic without Magic : J. A. Wheeler, edited by J. R. Klander, Freeman 1972.

 



[1] Jacques Lavau. Mise en perspective historique des obstacles anthropocentriques à la conceptualisation et à l’heuristique en microphysique quantique. Propositions pour une proposition pédagogique. Mémoire de recherche Université Claude Bernard à Lyon, non publié, mai 1998.

Auteur : Jacques Lavau.

 

 

Annexe : Le secret heuristique : jeter le fatras et le pathos.

 

Il faut prendre connaissance du dossier complet des travaux précédents, afin de repérer les impasses. Puis prendre le contre-pied de ces impasses bien repérées.

 

1900, Planck, 1905, Einstein. Au moins pour les ondes électromagnétiques, elles ne s'achètent et se vendent que par quanta. L'énergie transférée est rigidement liée à la fréquence par la constante de Planck h : E = h . nu. La fréquence étant en cycles par seconde, h est donc en joule . seconde par cycle.

On garde.

 

Vers 1907-1908, Relation de Pythagore-Einstein : E² = m² . c4 + p² .c²

Ce formalisme autorise les masses négatives et les énergies négatives. C'est le formalisme qui est le plus savant.

Il implique que dans la formule 1, la fréquence peut être négative, et la propagation à rebrousse-temps.

On garde.

 

1923, Compton. Le photon a bien la quantité de mouvement déductible de Clerk Maxwell et de Planck-Einstein. L'électron a bien la fréquence, et donc en mouvement la longueur d'onde, que Broglie en déduira l'année suivante. Le tout réagit dans des collisions quantiques, avec conservation de l'impulsion et de l'énergie totale.

On garde ! Oups ! Correction : Schrödinger publiera bien cet article en 1927 : Über den Comptoneffekt. Or en 1927 il ne disposait pas encore de la bonne équidistance, qu'il ne découvrira qu'en 1930, sous l'équation d'onde électronique de Dirac.

Correction connue de Dirac en 1933 dans sa conférence Nobel, mais inconnue partout ailleurs, et que je redécouvrirai en 2011.

 

1924, Louis de Broglie. La relation d'Einstein E = h . nu est valide aussi pour les particules massives, donc l'électron. E est l'énergie totale, y incluse la masse au repos.

Nous ignorons encore à quoi ressemble l'espace-temps propre d’une telle particule, mais comme elle est massive, la transformation de Lorentz pour voir comment se transforme son ombre dans notre espace-temps macroscopique, est du moins valide.

Donc toute particule massive est un oscillateur intrinsèque et perpétuel.

S'il est "immobile", alors la vitesse de phase de son onde broglienne est infinie – tout comme la trace d’une onde incidente normale au plan du dioptre, en construction de Snell. Donc toute son ombre sur notre espace palpite en phase, quelle que soit son étendue.

Louis de Broglie n'y avait pas pensé, mais tout cela implique partout un énorme bruit de fond : toutes les particules sont en interactions constantes par leurs ondes brogliennes. Les transactions avortées échouent à une fréquence qui échappe à nos moyens d’investigation. Nous ne pourrons percevoir que les états d'une durée et d'une stabilité notables.

On garde.

 

1926, Schrödinger. En négligeant provisoirement son spin, l'onde électronique prévue par Broglie a désormais une équation, qui depuis a un grand succès en chimie. L'équation de Schrödinger s'autoquantifie dans tous les états stationnaires.

On garde.

 

1926, Schrödinger fait une théorie de l’émission EM par un atome excité, par battement entre deux niveaux d’énergie (et donc de fréquence). Mais il s'arrête au milieu du gué, en oubliant d'étendre la même théorie à l'absorbeur. Il ne fait pas la théorie du transfert synchrone entre émetteur et absorbeur.

On déplore ces deux omissions, qui ne seront rattrapées que soixante ans plus tard, par John Cramer.

 

1927, descente en flammes de Schrödinger par ses concurrents. Heisenberg prouve que si l'on postule que toute onde a un émetteur mais pas d’absorbeur, alors elle se dilue dans tout l'espace à vitesse foudroyante.

On jette le postulat clandestin de Heisenberg et de son époque : pas d'absorbeur, postulaient-ils…

 

1927, Born et Heisenberg font le grand écart entre des échelles d'analyse incompatibles, séparées par de nombreux ordres de grandeur. La notion élémentaire de réaction quantique est effacée, remplacée par une mystique solipsiste de la mesure et de la connaissance. Une mystique augustinienne est imposée : tu ne soulèveras pas les jupes du quanton, et tu croiras à l'indéterminisme. L'école de Copenhague est incapable de jeter à la poubelle le corpuscule néo-newtonien, et se prend les pieds dans la barbe à l’aide d'un "dualisme onde-corpuscule".

On jette.

 

Tout le pathos sur la cruelle incertitude, on jette. Les ondes font déjà tout ce qu'il faut : un paquet d'ondes ne peut simultanément être totalement défini en position et en fréquence… La transformation de Fourier en est garante avec précision.

 

1928, Dirac. Equation relativiste de l’électron, avec quatre composantes dans son onde, dont deux à rebrousse-temps, à énergie négative. On garde.

 

1930, en posant d’autres questions à l'équation de Dirac, Schrödinger prouve que la célérité de l'électron est toujours luminique, plus ou moins c. Mais elle change constamment de sens de propagation, à la fréquence double de la fréquence broglienne, soit à : nu = 2H/h.

Autrement dit, il faut deux périodes de Dirac pour faire une période de Broglie.

On garde.

 

Dès (les années 30) selon Georges Lochak, mais seulement en 1999 par mes propres moyens, il est prouvé que les directions propres de la transformation de Lorentz sont sur le cône de lumière. Rapprochement : les directions propres d’une rotation ordinaire de l'espace ordinaire, sont complexes, et non pas réelles.

Conclusion : notre espace-temps humain et macroscopique est frappé d'incompétence définitive pour décrire quoi ce soit de fondamental, même macroscopique.

Jeter cet espace-temps humain et macroscopique. Attendre une traduction plus claire, moins matheuse, des résultats de R. Penrose.

 

Années 80 : Travaux de Zurek sur la décohérence en cas de nombreuses réactions quantiques.

On garde.

1981 et la suite : l'équipe d'Orsay autour d'Alain Aspect, liquide le cas du paradoxe d'Einstein, Rosen et Podolski.

Cela permet de jeter définitivement les postulats de compétence de notre espace-temps macroscopique, chers à Einstein (et à de Broglie).

Si on jetait l'expérience, nous serions bons pour les petites maisons…

 

1998 : renonçant à démêler mes erreurs de calcul du transfert synchrone entre un émetteur et un absorbeur de photon (pas grave : Cramer avait déjà entre temps publié la solution, mais à Lyon tout le monde l'ignorait), je me rabats sur le calcul élémentaire de la largeur maximale du fuseau de Fermat entre émetteur et absorbeur.

Les fuseaux de Fermat retrouvent tout ce qu’on savait déjà empiriquement sur les conditions d'interférences.

On garde.

 23 août 2003 : grâce à William Beaty, et à son site http://amasci.com/amasci.html#am
Omettre ce qui concerne Tesla et la religion Tesla : (http://amasci.com/tesla/tesla.html : Nikola Tesla Page, tesla coils.
http://amasci.com/tesla/tmistk.html : TESLA'S BIG MISTAKE ?
http://www.amasci.com/tesla/tesceive.html : 'Energy-sucking' Radio Antennas. N. Tesla's Power Receiver
http://www.amasci.com/tesla/nearfld1.html : ON THE POSSIBILITY THAT KNOWN PHENOMENA REGARDING THE ELECTROMAGNETIC NEARFIELD REGION CONTAINS A BLATANT VIOLATION OF FUNDAMENTAL LAWS OF PHYSICS )
William J. Beaty 8/28/99

Mais bien regarder Paul, Fischer, Bohren, Cramer  : http://www.amasci.com/freenrg/sukdynam.html : On the Possibility That Electromagnetic Radiation Lacks Quanta of Any Kind
- or - Photon dies screaming. William Beaty, 9/9/99.

http://www.amasci.com/tesla/dipole1.html :
C. F. Bohren, "How can a particle absorb more than the light incident on it?", Am J Phys, 51 #4, pp323 Apr 1983

ABSTRACT
A particle can indeed absorb more than the light incident on it. Metallic particles at ultraviolet frequencies are one class of such particles, and insulating particles at infrared frequencies are another. In the former, strong absorption is associated with excitation of surfaces plasmons; in the latter it is associated with excitation of surface phonons. In both instances, the target area a particle presents to incident light can be much greater than its geometrical cross-sectional area. This is strikingly evident from the field lines of the Poynting vector in the vicinity of a small sphere illuminated by a plane wave.

H. Paul and R. Fischer "Light Absorption by a dipole", SOV. PHYS. USP., 26(10) Oct. 1983 pp 923-926

ABSTRACT
In semiclassical radiation theory, the electric dipole moment induced on an atom by a strong incident field absorbs much more energy, per sec, than is flowing through its geometrical cross section. This means that the atom has the capability to "suck up" electromagnetic energy from a spatial region that is by far larger than its own volume. An intuitive understanding of this effect is provided by studying, in the framework of classical electrodynamics, the energy flow in the total field made up by superposition of the incident wave and the field that is generated by the dipole also in the absorptive case.

http://www.amasci.com/freenrg/a-vectFE.html : COLER/SWEET DEVICES EXPLAINED?!

et sur Journal of Chemical Education : http://jchemed.chem.wisc.edu/JCEWWW/Articles/DynaPub/DynaPub.html :
How a Photon Is Created or Absorbed
by : Giles Henderson, Eastern Illinois University, Charleston, IL 61920
Robert C. Rittenhouse, Walla Walla College, College Place, WA 99324
John C. Wright and Jon L. Holmes, University of Wisconsin-Madison, Madison, WI 53706.

Je découvre alors qu'à l'exception du calcul de la largeur des fuseaux de Fermat, mes travaux étaient largement antériorisés, notamment par John G. Cramer.
http://www.npl.washington.edu/npl/int_rep/tiqm/TI_toc.html : The Transactional Interpretation of Quantum Mechanics. John G. Cramer

Lien à jour : https://web.archive.org/web/20040705081325/http://www.npl.washington.edu/npl/int_rep/tiqm/TI_toc.html


http://mist.npl.washington.edu/npl/int_rep/gat_80/ : Generalized absorber theory and the Einstein-Podolsky-Rosen paradox. John G. Cramer. http://mist.npl.washington.edu/npl/int_rep/ti_over/ti_over.html : An Overview of the Transactional Interpretation. J. G. Cramer. https://www.researchgate.net/publication/235536650_Generalized_absorber_theory_and_the_Einstein-Podolsky-Rosen_paradox/link/54f74ba80cf28d6dec9e6cb6/download

ou http://cds.cern.ch/record/111654/files/vol1p195-200_001.pdf

http://mist.npl.washington.edu/npl/int_rep/VelRev/VelRev.html : Velocity Reversal and the Arrows of Time. John G. Cramer.

http://exvacuo.free.fr/div/Sciences/Dossiers/Time/J%20G%20Cramer%20-%20Velocity%20reversal%20and%20the%20arrows%20of%20time%20-%20.pdf


Quant à Willis Lamb, il a été longtemps  très difficile à trouver en ligne, et il a fallu faire appel au cache de Google pour trouver son paragraphe : There is no such thing as a photon. L'adresse est redevenue disponible : http://www.aro.army.mil/phys/proceed.htm#W.%20Lamb
 
Dear Dr. Everitt:

Thank you for your letters of Dec. 9th about the Workshop meeting at OSC on February 15 to consider quantum cryptography. You may have heard that I have strongly negative views about any misuse of quantum mechanics. However, I could always be wrong, and I will be happy to attend the meetings to learn how. Hopefully, I will learn some things that I ought to know. I will attend the discussions on the next morning if it seems appropriate.

You suggested that I should summarize my ideas on quantum mechanics in twenty minutes. I would not be able to do that in such a short time. I do not think that you can give adequate time for this during the conference. However, I would like to be as helpful as I can in regard to your program, and hence will make a suggestion as outlined below.

Over a period of over fifty years, I have come to a number of conclusions about quantum mechanics. I will enumerate some of them as eight numbered statements:

(1). Anyone wanting to discuss a quantum mechanical problem had better understand and learn to apply quantum mechanics to that problem. Quantum mechanics is able to provide answers to various kinds of questions. At the most primitive level, a system is a well defined and highly isolated dynamical entity with a certain number of degrees of freedom. Initially it is in a state described by a known wave function. There are methods for dealing with the case in which the state is not so well known, but there is a price to be paid for ignorance. All disturbances of the system have to be considered. Measurements not only involve disturbances, but add to the number of degrees of freedom of the combined system plus measurement system.

(2). To talk of the "quantum theory of the universe" is to make a bad play on words.

(3). Reliance on Bohr's Correspondence Principle, Heisenberg's Uncertainty Principle or Bohr's Principle of Complementarity, or Wave Particle - Duality are sure signs of misunderstanding of quantum mechanics.

(4). Commonly held notions about wave function collapse or wave packet reduction have no validity whatsoever.

(5). The ideas of Dirac on the measurement of observables were very naive. Von Neumann had similar ideas, as expressed in Chapter III of his 1932 book. Neither of them gave any indication of how a measurement was to be made. Furthermore, any such measurements would be very disruptive and the results would be of no use for later studies of the system of interest. In Chapter VI, on the last two pages of his book, Von Neumann did outline a model for a meter for making position measurements, but he never made any use of it. The next reference to this work came only 33 years later in a short note of Arthurs and Kelly.

(6). A discussion of measurements on a quantum mechanical system has to be based on a realistic quantum mechanical analysis of that system in interaction with another system (a meter of some kind used for the measurable). It is also necessary to have a good understanding of the borderland between quantum and classical physics.

(7). Quantum mechanics is a theory dealing with probabilities, and there is no way around that fact.

(8). There is no such thing as a photon. There is a quantum theory of radiation, and conservation laws for energy, momentum and angular momentum are built into it. Only in very simple special cases, hard to realize in practice does it make sense to talk about photons.

I have written a number of papers on the interpretation of quantum mechanics and the theory of radiative processes. Two of the most recent of these are called "Suppose Newton had discovered wave mechanics" in American Journal of Physics, March, 1984, and "Anti-Photon", to be published in Applied Physics B. Postscript versions of these papers can be had on Internet via anonymous ftp from secundus.opt-sci.arizona.edu (128.196.206.2) in the directory /pub/submissions . The files can be transferred easily, but must be printed on a Postscript enabled (laser) printer. The first two of these papers has references to my published papers on the quantum theory of measurement. Several, hopefully better, papers on that subject remain to be published.

I would suggest that participants in the Workshop should be given a copy of the above statements. It may be that no one will think that there is any conflict between my views and the ideas needed for Quantum Cryptography. In that case, there would be no need for a talk from me. If it turns out otherwise, I would be prepared to try to defend my views on the disputed statements.

Looking forward to meeting you, and attendance at an interesting Workshop,

Yours sincerely,
Willis Lamb

I hope that my suggestion makes more sense in an ungarbled form. I can't help feeling that to be able to believe anyting about Q.C. requires that a definite model be explored using standard quantum mechanics. If radiation is involved, then the QT of R has to be brought into the discussion. My Q. T. of M. has only involved simple mechanical systems, and not the radiation field operators E and B. I don't think there is anything very hard, but it is time consuming to put in the necessary complexity to consider the extra degree of freedom corresponding to the two transverse polarization of the light. I have strong doubts that merely attenuating incoherent pulses will entitle one to think reliably of "one photon" states. This is spelled out in my Anti-photon" paper.

Expérience d'Afshar :

http://www.irims.org/quant-ph/030503/
http://www.irims.org/quant-ph/030503/Afshar%20Complementarity%20All.PDF

-- Jacques Lavau
http://lavaujac.club.fr http://jacques.lavau.deonto-ethique.eu l'adresse actuelle réelle.

 

Et au sottisier des désaffranchis rageurs :

 Quant au principe de complémentarité, l’expérience d’Afshar ne le contredit pas, elle cherche seulement à prouver que les photons (utilisés dans l’expérience) présentent un comportement d’onde ET de particule dans la même expérience, ce que Bohr avait considéré comme un paradoxe (cf. : Afshar experiment ) . 

Adresse : http://www.algerie-dz.com/forums/showthread.php?t=37076&page=2&pp=10
Ce n'est juste que le contraire. Rien de plus que le contraire... Mais pas grave, hein ! Du moment qu'il y a par ci ou par là, un ou deux mots qui se rapportent au sujet, l'élève aura la moyenne, hein...

 

Retour à l’accueil

Retour à l’accueil Maths, Physique, Didactique.