L'hypothèse clandestine et dirimante de la géométrie.
1 . L’hypothèse macroscopique clandestine.
2 . Topologie plus grossière que prévue.
Annexe : Jeter le fatas et le pathos.
Notre profession (de mathématiciens) a pris l'habitude de ne plus jamais reconnaître ses dettes envers le monde concret de la technologie, auquel pourtant nous sommes redevables des concepts que nous enseignons aux enfants. A force de nier cet héritage fondateur, nous nous sommes rendus négligents envers le processus d'abstraction, qui est devenu un sous-entendu, exempté de toutes lois et de tout contrôle, et même de toute définition. Parallèlement, nous proclamions notre autarcie totale envers le restant de l'humanité, par la proclamation de l'axiomatique comme seul fondement des mathématiques : tout théorème devant se déduire d'un jeu d'axiomes, et de concepts fondamentaux non définis, qui eux, tombent directement du ciel abstrait, et sont censés ne plus jamais rien devoir à notre expérience sensorielle, au monde concret et historique...
C'est ainsi que nous nous sommes rendus collectivement aveugles à l'énorme hypothèse technologique qui fonde la géométrie que nous enseignons à nos bambins et à nos étudiants.
Nous verrons dans cet article, les conséquences désastreuses que le caractère inconscient et clandestin de cette énorme hypothèse injustifiable, a eu sur le développement de la physique fondamentale, depuis soixante-dix ans (en 1997... soixante-dix-neuf ans en 2006).
Les concepts premiers de notre géométrie sont fondés sur l’aventure technologique multimillénaire suivante : "On a toujours réussi à faire un pointage plus précis que le précédent, à faire un repérage géodésique, ou sur machine-outil, plus précis que le précédent, à tracer un trait ou usiner une arête, plus fins que les précédents, à dresser un marbre plus plan que le marbre précédent. » Nous crûmes correct d’en déduire : « Donc nous avons bien raison d'extrapoler qu'on pourra toujours faire mieux, plus fin, plus précis... NOUS NE BUTERONS JAMAIS SUR L'ATOMICITÉ DE LA MATIERE NI DE LA LUMIERE ! Donc nous avons raison de tabler sur les termes ultimes de notre extrapolation, que nous hypostasions : points, droites, lignes, plans, surfaces, positions, coordonnées, hypothèse du continu, suites de Cauchy, autosimilitude à toute échelle, et il y a autant de points sur l'ongle d'un bébé que dans l’Univers entier, etc. etc. etc. "
C'est ce que dénommerons l'HYPOTHESE MACROSCOPIQUE (HM) : "Nous sommes tellement loin de la limite atomique, que nous ne l'atteindrons jamais." L'ennui, c'est que depuis un siècle, nous autres physiciens, et depuis quelques cinquante ans nous autres ingénieurs, butons en plein sur cette limite atomique. L’aventure technologique multimillénaire est épuisée !
Familiarisons-nous avec les conséquences quotidiennes dans l'enseignement et dans la vulgarisation, de cette HM clandestine :
Toute bonne animation vidéo, concernant des atomes et des électrons, nous amuse les yeux avec des petits grumeaux mauves, figurant les noyaux, encerclés de petites billes vertes, qui tourbillonnent autour, et qui sont censées figurer les électrons, conformément au modèle de Rutherford, conçu en 1911, et connu comme définitivement invalide quinze ans plus tard. C'est tellement mignon et fascinant, qu'on adore y croire... Sauf que tout y sacrifie à l'HM ! Pour que nous puissions ainsi voir les petites billes, avec une position, une forme, des ombres et des reflets, et même une couleur, il est indispensable qu'il existe quelque chose de plus petit que lesdites "billes", pour explorer des telles propriétés supposées (position, taille, forme), et les transmettre à notre œil. Pour les objets macroscopiques que peut manipuler notre main nue depuis 70 millions d'années (je désigne là notre ancêtre Purgatorius, présimien arboricole), cet informateur plus petit existe : c'est la lumière visible. En effet, la longueur d'onde de la lumière visible, et donc son pouvoir séparateur, est de l'ordre du demi micromètre. Mais cette lumière visible est bien incapable de nous renseigner sur les détails d'un atome : elle est au moins un million de fois trop grosse pour cela. Autant espérer être renseigné sur un bouchon qui flotte sur la mer, en observant comment est diffractée une macro-houle, dont l'intercrête soit de plusieurs kilomètres (de telles houles existent, et même d'encore plus longues ; j'en ai chronométrée une, d'une période de trois minutes et demi, en septembre 1965, dans le port de Lampaul, minuscule port d'Ouessant).
En réalité, nous sommes en butée sur la limite atomique : il n'existe rien de plus petit qu'un électron, ni qu’un photon, et qui soit assez durable pour être accessible à nos expériences. Il n’est rien qui puisse nous définir la structure, la forme, ni la taille d'un électron, comme la lumière visible nous renseigne sur la forme d'une fleur, et sur sa réflectance spectrale (ses « couleurs », en termes humains). Et si on emploie de la lumière plus petite ? Des photons gammas, dont la longueur d’onde est plus petite, permettraient au moins de localiser l’électron ? Catastrophe ! Voilà que sous l’impact avec l’électron, ces gammas peuvent se matérialiser en une paire électron-positron, de masses positives ! Et tous les trois partent dans des directions différentes ! Fichu, le renseignement espéré sur la position de l’électron-cible, considéré comme un corpuscule à la Newton ! Plus grave encore : presque tous les calculs que l'on enseigne, permettant d'estimer un "diamètre classique de l'électron", ou ce genre de choses, sont basés sur l'HM, donc invalides dès le départ. Même le concept de "corpuscule" hérité de Newton et de son "point matériel", est entièrement dépendant de l'HM. Le concept de "corpuscule" est tout aussi invalide et indéfendable que l'HM, dès qu'on aborde la physique fondamentale. Malheureusement, il est enseigné partout, notamment sous la forme du "dualisme onde-corpuscule", commis par Einstein vers 1905, et transporté tel quel dans la vulgate de Copenhague, notamment par Niels Bohr. Il nous encombre donc partout.
Nous avons commis l'erreur infantile de croire que, bien que physiquement rien au monde ne put nous renseigner sur la structure, la forme, ni même la taille d'un électron, néanmoins ce genre de choses devaient exister et avoir un sens. Si nous étions des mathématiciens conséquents et rigoureux, nous aurions depuis longtemps posé cette question embarrassante: "ET VOUS DÉMONTREZ CELA COMMENT ? que ce genre de trucs soient pourvus de sens ? ".
Car justement, cette conviction héritée, n'a aucun fondement, et n'en aura jamais. Tous les jours, aussi bien l'expérience, que la cohérence interne du formalisme quantique, démentent tout espoir de validité de l'HM, et de ses conséquences : existence de position, forme, taille, etc. des particules élémentaires telles que photons, électrons, ou neutrinos. Toute la gent mathématicienne a oublié de procéder à un inventaire critique de l’héritage platonicien, selon lequel « l’idée » est plus forte que la réalité matérielle, et peut donc se passer de toute épreuve de réalité : on prétend n’avoir pas besoin qu’il existât une opération expérimentale, puisqu’il nous suffit d’imaginer. Autrement dit : l’hallucination (ici: des points matériels, et corpuscules, et de leurs coordonnées ayant la puissance du continu) vaut mieux que l’expérience vérifiable, et par conséquent, nous en dispense !
Si le formalisme quantique réussit si bien à produire des calculs de prédictions statistiques valides, à partir d'hypothèses invalides, c’est parce qu'il n’utilise en fait jamais les hypothèses invalides, strictement hallucinées, par lesquelles on l'enseigne. Le formalisme quantique est strictement ondulatoire : il n’y a QUE des ondes. Tandis que nous, êtres macroscopiques et massifs, résidons à distance inaccessible des périodes brogliennes où battent ces ondes brogliennes :
Tau0 = = 4,4016 . 10-24 s/cycle pour un neutron à basse vitesse. Nous sommes réduits à ne constater que le résultat global et durable de transactions entre émetteur et récepteur qui se sont déroulés en des durées qui nous inaccessibles. Ce résultat global à notre échelle humaine, est quantifié. Toutefois, l’exactitude des calculs a exigé que nous tenions compte de ces transactions ondulatoires, par le biais du concept de « particules virtuelles, hors de leur couche de masse ». Nous sommes comme un observateur de Sirius qui se demanderait comment font les camions (les objets les plus fins qu’il puisse discerner) pour découvrir leurs clients à livrer, et solvables, s’imaginant qu’ils partent en maraude sur les routes (en maraude sur les rails, pour les wagons de marchandises), et ignorant tout des flux d’écriture et de voix, de télex ou fax entre fournisseurs, clients et banquiers; il aurait peut-être inventé lui aussi le concept de « camions virtuels et wagons virtuels ». Ou du point de vue de la puéricultrice qui saurait tenir la comptabilité des arrivées et départs de bébés dans sa crèche, tout en ignorant tout de l’amour et de la biologie de la reproduction : elle pourrait suppléer à son ignorance de tous les flirts et brouilles, de toutes les péripéties sentimentales et sexuelles de ses contemporains, de leurs orages et de leurs deuils, par la théorie des « bébés virtuels ».
Nous nous sommes vus buter sur une contradiction : il n’existe rien de plus petit que les électrons, les photons, et quelques autres entités similaires, qui puisse définir ce que pourrait bien signifier « petit », dans notre espace-temps humain. L’espace de la réalité physique est donc topologiquement bien moins fin que la droite R, et aussi moins fin que le principe d’exclusion de Pauli. Nous sommes incapables de localiser ni d’individualiser les deux électrons S d’un atome d’hélium neutre. Ils occupent à eux deux le même « emplacement géométrique » (au sens de notre espace-temps macroscopique, qui n’a aucune compétence prouvée à leur échelle) dont on connaît assez bien le flou et l’étalement gaussien. Seul le principe d’exclusion les sépare : spins opposés. De même, on est incapables de localiser les électrons de conduction d’un métal : chacun occupe à peu près tout le métal, et sa longueur d’onde dépasse largement les distances interatomiques.
Il arrive encore une autre mésaventure à notre espace-temps humain : les quarks ne s’y individualisent jamais, ne s’y déconfinent jamais. On sait faire des expériences où les jets de hadrons trahissent un début de séparation de quarks, mais ça s’arrête là. La « couleur », et le principe d’exclusion de Pauli sont plus fins (au sens topologique) que notre espace macroscopique. Ces damnés quarks sont donc plus « petits » que le sens même du mot « petit ». En disant cela, on n’a pas vraiment dit quelque chose sur ce que les quarks sont ou ne sont pas; on a dit quelque chose sur ce que notre espace macroscopique humain n’est pas.
Habitués à l’autosimilitude par l’analyse sur la droite R, nous avons aussi transporté sans méfiance cette présomption d’autosimilitude sur la dimension temps. Ainsi, nous nous sommes dispensés de toute espèce de preuve quant au transport du postulat d’irréversibilité du temps macroscopique, qui est d’origine statistique (et qui dans le domaine statistique, est bel et bien un théorème démontré), vers le temps individuel de chaque particule. C’est l’HM temporelle. Toutes les expériences démontrent le contraire, mais qu’importe ! Nous sommes obstinés; et aveugles à la demande.
Chez les mathématiciens, pas d’ambivalence : le formalisme est présumé avoir toujours raison contre les objections qui s’appuient sur des faiblesses dans les significations. Nous sommes même facilement outrecuidants à ce sujet, n’extrapolant que les success stories de l’histoire de l’algèbre.
Chez
les physiciens,
l’ambivalence se module selon les
spécialités. En
fait, la coupure historique vient de Dirac, de son équation
pour l’électron (1928), de ses solutions
à
énergies négatives qui embarrassaient tout le
monde,
jusqu’à la découverte
expérimentale du
positron en 1932. Mais on a conservé complet,
l’oubli
des solutions à masses négatives, pourtant elles
aussi
présentes dès les équations de la
Relativité
restreinte de 1905, réécrites vers 1908 dans les
concepts géométriques de Minkowski, et
aussitôt oubliées
:
E2 = m2c4
+ p2c2 .
On en jugeait la
signification absurde. Seulement absurde si on
regarde en
macroscopique, soumis à la thermodynamique statistique. Mais
certainement pas absurde si l’on se rappelle
qu’à
l’échelle d’une particule
d’onde, d’une
entité d’onde quantique en cours de propagation
(fut-elle stationnaire), la causalité
s’écoule
simultanément depuis les deux réactions
quantiques
sommitales : la réaction de création, et la
réaction
d’annihilation. De nombreuses expériences
(à
commencer par celles d’Aspect & al. vers 1982) ont
tranché
: la réaction de création est
inséparable de la
réaction d’annihilation. Dire qu’un
écran a
reçu un électron de masse positive, est
exactement la
même chose que de dire qu’il a émis un
antiélectron, de charge positive,
d’énergie
négative, et de masse négative, à
rebours du
temps macroscopique, et donc à fréquence
négative.
Les deux descriptions sont physiquement équivalentes. Mais
seule la seconde description résout les paradoxes sur
lesquels
butait l’imaginaire de la quantique : l’onde
électronique
peut très bien se concentrer à sa
réaction
d’annihilation, tout en ayant
été assez
diluée dans l’espace, durant le trajet entre les
deux
réactions quantiques ; elle a donc pu se prêter
à
tous les phénomènes
d’interférences
constatés expérimentalement. Le principe de
Fermat
implique une certaine largeur des fuseaux de cohérence de
phase, qui est facile à calculer. J’ai
montré
ailleurs[1]
comment calculer la
largeur des fuseaux de Fermat selon la longueur d’onde, et la
longueur du trajet enjambé :
= (1 + + + ...). Où z est la flèche au milieu du fuseau, a est la demi-corde, ou demi-distance entre émetteur et récepteur considérés comme ponctuels, e est le quotient de la longueur d’onde par a.
Simplifions la formule en négligeant les
termes d'ordre supérieur :
z² = 3/16 a . lambda
où lambda est la
longueur d'onde . On en prend la racine
carrée :
z = Racine(3 . a . lambda) / 4
Second exemple : dire qu’une molécule (grande de 5 Å environ) a absorbé un photon infrarouge un million de fois plus grand qu’elle, est la même chose que de dire qu’elle a émis un photon d’énergie négative, à rebrousse temps. Et vous avez résolu le problème de la convergence de cet immense photon sur cette minuscule molécule : au signe près, c’est le même que celui de la divergence de l’émission de l’antiphoton, d’énergie négative. En radioélectricité, le phénomène est bien connu : une antenne réceptrice concentre le champ dans son voisinage, et modifie l’impédance vue par l’émetteur. Mais l’orgueil corporatif est ainsi fait, que l’information ne percole pas des techniciens vers les théoriciens : un singe de rang élevé, est incapable de rien apprendre qui lui vienne d'un singe de rang hiérarchique inférieur. Cela a été amplement prouvé chez les macaques du Japon, et c'est vrai aussi des humains...
Oui, bien sûr, les physiciens avaient une seconde excuse pour oublier des choses aussi simples : il avaient peur qu’on les confonde avec les diseuses de bonne aventure, et être aussitôt exclus du club, s’ils osaient raisonner trop ouvertement et clairement sur la causalité microscopique à rebrousse temps. Mais si vous ne leur aviez pas martelé à ce point, dès l’enfance, le dogme de l’autosimilitude à toute échelle de la droite R, ils se seraient autorisés à distinguer l’échelle macroscopique de l’échelle particulaire, ce qu’ils ne savent toujours pas faire clairement. En particulier, ils sont à ce jour (1999) encore incapables de discerner entre l’échelle anthropocentrique, où l’on traite statistiquement des événements d’échelle quantique, et où l’on calcule des ondes d’ignorance statistique (à la dilution fulgurante), et l’échelle quantique, où aucune onde quantique individuelle ne diverge au hasard, mais a bien une destination définie. D’où leur malaise secret envers des concepts aussi pathologiques que la « réduction du paquet d’onde ». Concepts pathologiques, car issus de non-sens confusionnels. Là encore, non seulement on a cru que la topologie fine de la droite R, convenait pour décrire la partie temporelle de l’espace-temps, mais en plus, on a cru que ce temps est universellement partagé, « cinématiquement compatible » partout. Or, il n’y a rien de cinématiquement compatible entre les divers « grains » du temps. Voici l’exemple de grains d’espace-temps qui s’étalent sur une quinzaine de milliards de nos années macroscopiques : des photons du rayonnement fossile à 2,7 K, qui n’avaient plus interagi avec rien depuis que l’Univers leur est devenu transparent, arrivent maintenant dans nos radiotélescopes. Et pour eux, à temps propre nul, l’émission et la réception sont simultanées : c’est un seul et même grain de temps, individuel. Notre temps macroscopique, avec sa thermodynamique irréversible, n’est qu’une émergence statistique d’un immense réseau de granules tous discordants entre eux.
Vous eussiez dû rappeler aux physiciens qu’en théorie des graphes, tout arc joint deux sommets... car en diagrammes de Feynman, quatre arcs sur cinq n’ont qu’un seul sommet. La faute de logique est ouvertement dessinée, aux yeux de tous. Mais l’aveuglement de chapelle isolationniste, joue à plein.
Dans un diagramme de Feynman, la réaction quantique correspond aux apex du graphe. Deux apex sont reliés par un propagateur : propagation d'un photon, existence d'un électron, etc. Mais tout propagateur devrait relier deux apex, et on l’oublie. |
La dissidence, fondée par Einstein, Schrödinger, Louis de Broglie, envers le camp majoritaire de la quantique, fondé par Born et Heisenberg, a entièrement échoué, car elle était totalement subjuguée par l’HM de leurs années de lycée, et croyait dur comme fer aux coordonnées, aux trajectoires, à la validité de l’espace-temps dans le domaine particulaire. Une opposition éclairée aurait, au contraire, reproché au camp majoritaire d’être resté au milieu du gué, de n’avoir PAS ASSEZ abandonné ces hallucinations intenables, s’obligeant alors à se les concilier par une hypothèse d’indéterminisme (or l’hypothèse d’indéterminisme repose sur la confusion entre le macroscopique et le microscopique). Alors se serait instituée une dialectique saine, produisant des progrès substantiels. Il n’en fut rien, hélas. Certes, les calculs progressèrent spectaculairement, laissant les conceptions dans une épaisse fumée. On s’en contenta. Le recrutement des physiciens se modela sur l’accommodement facile à cette fumée épaisse : Calculez ! Et ne demandez pas sur quoi ! Les recettes empiriques suffisent...
Du point de vue du psychosociologue enquêtant sur les hallucinations et les convictions collectives, il n’y a pas grandes différences entre les « probabilités d’apparition de corpuscule néo-newtonien-sans-le-dire », et les « probabilités d’apparition de la Vierge à Fatima ». Du point de vue du psychologue cogniticien, la différence est que la seconde conviction repose sur la confusion entre l’hallucination intrapsychique, et le monde extérieur que notre système nerveux est chargé de se représenter, tandis que la première conviction repose sur la confusion entre l’échelle macroscopique et anthropocentrée du laboratoire, et l’échelle particulaire, autrement dit « ondulatoire individuelle ». Mais dans les deux cas, la confusion reste néo-platonicienne : l’idée et le culte de l’idée ont la suprématie sur l’exploration humble du réel. La référence reste dans l’idée, surtout pas dans des expériences.
Roger Penrose a montré dans plusieurs articles, hélas de lecture fort difficile, que notre espace-temps humain est une émergence statistique, dans les réseaux de beaucoup de spineurs, de particules dotées de spin et d’impulsion. J’espère avoir rendu intelligible cette idée, en prouvant que l’état actuel des dogmes avec autosimilitude à toute échelle, est physiquement intenable, et dépourvu de sens. Ce dogme a produit d’énormes dégâts chez nos clients, utilisateurs de mathématiques.
Si nous mathématiciens, nous redéfinissions comme fournisseurs de méthodes de raisonnement réutilisables avec sécurité par toutes sortes de professions, alors nous devons devenir attentifs aux conditions de réemploi avec sécurité, donc aux conditions aux limites de validité, exactement comme une équipe d’analystes et de programmeurs établit une hiérarchie de classes et sous-classes. L’une des conditions d’une telle politique de qualité dans nos fournitures, de qualité industrielle, est de devenir attentifs aux procédures exactes d’abstraction, et (inséparable dans la même dialectique) d’enracinement dans le concret et dans le sensoriel. L’un des guides interprofessionnels qu’il est urgent d’établir, est une hiérarchie normalisée des niveaux d’abstraction-enracinement, analogue à ce que l’ISO a établi dans plusieurs domaines du génie logiciel. Nos clients nous en sauraient grand gré, de nous discipliner ainsi, et de discipliner nos communications vers une bien meilleure lisibilité interprofessionnelle, bien plus fiable.
En vous racontant les conséquences désastreuses d’une des hallucinations que depuis deux siècles nous propageons à nos enfants et à nos étudiants, je préconise une politique de qualité, un respect nouveau de nos clients, une attitude citoyenne, et enfin d’établir les moyens techniques pour cela. Plus encore que pour beaucoup d’autres adultes, la profession d’enseignant nous confère des responsabilités qui dépassent de loin notre petite personne. Voilà pourquoi je vous ai exposé les responsabilités encourues par les générations de mathématiciens qui nous ont précédés, et pourquoi je préconise une prise de conscience nouvelle, et des curiosités envers nos clients, dont nous ne sommes pas encore coutumiers.
Et à court terme ? Recherchez, encouragez vos élèves à trouver et énoncer les limites de validité de chaque abstraction enseignée ! Ce sera déjà une innovation salutaire.
Exemple : dans la classe d’à côté, en géographie, si l’on trace un triangle équilatéral de 10 000 km de côté, ses trois angles sont droits. Et un triangle équilatéral de 13 333 km de côté ? Ses trois angles sont plats; on peut les répartir sur un méridien, ou sur l’équateur. Et le pire ? Prenez un triangle équilatéral tellement grand qu’il occupe presque toute la surface de la Terre, complémentaire d’un petit triangle de 5 m de côté que vous tracerez dans la cour du collège. Ses angles valent alors 300° chacun. Leur somme vaut dix droits. Vous êtes tous capables d’écrire la formule qui relie la somme des angles d’un triangle au quotient de son aire par l’aire de la sphère terrestre.
La géométrie que nous enseignons dans les collèges n’a qu’un domaine de validité ainsi limité :
- que ce ne soit pas trop grand par rapport à nos mains, très petit par rapport à la Terre,
- que ce ne soit pas trop petit par rapport à nos mains, assez grand devant un atome, et que cela fasse intervenir de nombreuses réactions quantiques, si nombreuses qu’elles décohèrent entre elles,
- que tout soit sensiblement aussi lent, et aussi faiblement accéléré que nos mains,
- que nous soyons à la surface d’un astre où la gravité est faible, Terre, Lune, ou dans leurs banlieues, mais certainement pas sur le Soleil, et encore moins sur une étoile à neutrons.
Accessible : F. David Peat. Superstrings and the Search for the Theory of Everything. Contemporary Books. Chicago 1988.
Difficiles :
Roger Penrose. Angular Momentum : an Approach to Combinatorial Space-Time. pp 151 - 180, in Quantum Theory and Beyond. Edited by T. Bastin. Cambridge University Press, 1971.
Roger Penrose. Twistor theory, its aims and achievements. pp 268 - 407, in Quantum gravity, an Oxford Symposium. ed . by C.J. Isham, R. Penrose, D.W. Sciama. Clarendon Press, Oxford 1975.
Roger Penrose. On the nature of Quantum Geometry. pp 333 - 354, in Magic without Magic : J. A. Wheeler, edited by J. R. Klander, Freeman 1972.
[1] Jacques Lavau. Mise en perspective historique des obstacles anthropocentriques à la conceptualisation et à l’heuristique en microphysique quantique. Propositions pour une proposition pédagogique. Mémoire de recherche Université Claude Bernard à Lyon, non publié, mai 1998.
Auteur : Jacques Lavau.
Il faut prendre connaissance du dossier complet des travaux précédents, afin de repérer les impasses. Puis prendre le contre-pied de ces impasses bien repérées.
1900, Planck, 1905, Einstein. Au moins pour les ondes électromagnétiques, elles ne s'achètent et se vendent que par quanta. L'énergie transférée est rigidement liée à la fréquence par la constante de Planck h : E = h . nu. La fréquence étant en cycles par seconde, h est donc en joule . seconde par cycle.
On garde.
Vers 1907-1908, Relation de Pythagore-Einstein : E² = m² . c4 + p² .c²
Ce formalisme autorise les masses négatives et les énergies négatives. C'est le formalisme qui est le plus savant.
Il implique que dans la formule 1, la fréquence peut être négative, et la propagation à rebrousse-temps.
On garde.
1923, Compton. Le photon a bien la quantité de mouvement déductible de Clerk Maxwell et de Planck-Einstein. L'électron a bien la fréquence, et donc en mouvement la longueur d'onde, que Broglie en déduira l'année suivante. Le tout réagit dans des collisions quantiques, avec conservation de l'impulsion et de l'énergie totale.
On garde ! Oups ! Correction : Schrödinger publiera bien cet article en 1927 : Über den Comptoneffekt. Or en 1927 il ne disposait pas encore de la bonne équidistance, qu'il ne découvrira qu'en 1930, sous l'équation d'onde électronique de Dirac.
Correction connue de Dirac en 1933 dans sa conférence Nobel, mais inconnue partout ailleurs, et que je redécouvrirai en 2011.
1924, Louis de Broglie. La relation d'Einstein E = h . nu est valide aussi pour les particules massives, donc l'électron. E est l'énergie totale, y incluse la masse au repos.
Nous ignorons encore à quoi ressemble l'espace-temps propre d’une telle particule, mais comme elle est massive, la transformation de Lorentz pour voir comment se transforme son ombre dans notre espace-temps macroscopique, est du moins valide.
Donc toute particule massive est un oscillateur intrinsèque et perpétuel.
S'il est "immobile", alors la vitesse de phase de son onde broglienne est infinie – tout comme la trace d’une onde incidente normale au plan du dioptre, en construction de Snell. Donc toute son ombre sur notre espace palpite en phase, quelle que soit son étendue.
Louis de Broglie n'y avait pas pensé, mais tout cela implique partout un énorme bruit de fond : toutes les particules sont en interactions constantes par leurs ondes brogliennes. Les transactions avortées échouent à une fréquence qui échappe à nos moyens d’investigation. Nous ne pourrons percevoir que les états d'une durée et d'une stabilité notables.
On garde.
1926, Schrödinger. En négligeant provisoirement son spin, l'onde électronique prévue par Broglie a désormais une équation, qui depuis a un grand succès en chimie. L'équation de Schrödinger s'autoquantifie dans tous les états stationnaires.
On garde.
1926, Schrödinger fait une théorie de l’émission EM par un atome excité, par battement entre deux niveaux d’énergie (et donc de fréquence). Mais il s'arrête au milieu du gué, en oubliant d'étendre la même théorie à l'absorbeur. Il ne fait pas la théorie du transfert synchrone entre émetteur et absorbeur.
On déplore ces deux omissions, qui ne seront rattrapées que soixante ans plus tard, par John Cramer.
1927, descente en flammes de Schrödinger par ses concurrents. Heisenberg prouve que si l'on postule que toute onde a un émetteur mais pas d’absorbeur, alors elle se dilue dans tout l'espace à vitesse foudroyante.
On jette le postulat clandestin de Heisenberg et de son époque : pas d'absorbeur, postulaient-ils…
1927, Born et Heisenberg font le grand écart entre des échelles d'analyse incompatibles, séparées par de nombreux ordres de grandeur. La notion élémentaire de réaction quantique est effacée, remplacée par une mystique solipsiste de la mesure et de la connaissance. Une mystique augustinienne est imposée : tu ne soulèveras pas les jupes du quanton, et tu croiras à l'indéterminisme. L'école de Copenhague est incapable de jeter à la poubelle le corpuscule néo-newtonien, et se prend les pieds dans la barbe à l’aide d'un "dualisme onde-corpuscule".
On jette.
Tout le pathos sur la cruelle incertitude, on jette. Les ondes font déjà tout ce qu'il faut : un paquet d'ondes ne peut simultanément être totalement défini en position et en fréquence… La transformation de Fourier en est garante avec précision.
1928, Dirac. Equation relativiste de l’électron, avec quatre composantes dans son onde, dont deux à rebrousse-temps, à énergie négative. On garde.
1930, en posant d’autres questions à l'équation de Dirac, Schrödinger prouve que la célérité de l'électron est toujours luminique, plus ou moins c. Mais elle change constamment de sens de propagation, à la fréquence double de la fréquence broglienne, soit à : nu = 2H/h.
Autrement dit, il faut deux périodes de Dirac pour faire une période de Broglie.
On garde.
Dès (les années 30) selon Georges Lochak, mais seulement en 1999 par mes propres moyens, il est prouvé que les directions propres de la transformation de Lorentz sont sur le cône de lumière. Rapprochement : les directions propres d’une rotation ordinaire de l'espace ordinaire, sont complexes, et non pas réelles.
Conclusion : notre espace-temps humain et macroscopique est frappé d'incompétence définitive pour décrire quoi ce soit de fondamental, même macroscopique.
Jeter cet espace-temps humain et macroscopique. Attendre une traduction plus claire, moins matheuse, des résultats de R. Penrose.
Années 80 : Travaux de Zurek sur la décohérence en cas de nombreuses réactions quantiques.
On garde.
1981 et la suite : l'équipe d'Orsay autour d'Alain Aspect, liquide le cas du paradoxe d'Einstein, Rosen et Podolski.
Cela permet de jeter définitivement les postulats de compétence de notre espace-temps macroscopique, chers à Einstein (et à de Broglie).
Si on jetait l'expérience, nous serions bons pour les petites maisons…
1998 : renonçant à démêler mes erreurs de calcul du transfert synchrone entre un émetteur et un absorbeur de photon (pas grave : Cramer avait déjà entre temps publié la solution, mais à Lyon tout le monde l'ignorait), je me rabats sur le calcul élémentaire de la largeur maximale du fuseau de Fermat entre émetteur et absorbeur.
Les fuseaux de Fermat retrouvent tout ce qu’on savait déjà empiriquement sur les conditions d'interférences.
On garde.
23 août 2003 :
grâce à
William Beaty, et à son site http://amasci.com/amasci.html#am
Omettre ce qui concerne Tesla et la religion Tesla : (http://amasci.com/tesla/tesla.html : Nikola Tesla Page, tesla coils.
http://amasci.com/tesla/tmistk.html : TESLA'S BIG MISTAKE ?
http://www.amasci.com/tesla/tesceive.html : 'Energy-sucking' Radio
Antennas. N. Tesla's Power Receiver
http://www.amasci.com/tesla/nearfld1.html : ON THE POSSIBILITY THAT
KNOWN PHENOMENA REGARDING THE ELECTROMAGNETIC NEARFIELD REGION CONTAINS
A BLATANT VIOLATION OF FUNDAMENTAL LAWS OF PHYSICS )
William J. Beaty 8/28/99
Mais bien regarder Paul, Fischer, Bohren, Cramer : http://www.amasci.com/freenrg/sukdynam.html : On the Possibility That
Electromagnetic Radiation Lacks Quanta of Any Kind
- or - Photon dies screaming. William Beaty, 9/9/99.
http://www.amasci.com/tesla/dipole1.html :
C. F. Bohren, "How can a particle absorb
more than the
light incident on it?", Am J Phys, 51 #4, pp323 Apr 1983
ABSTRACT
A particle can indeed absorb more than the light incident on it.
Metallic particles at ultraviolet frequencies are one class of such
particles, and insulating particles at infrared frequencies are
another. In the former, strong absorption is associated with excitation
of surfaces plasmons; in the latter it is associated with excitation of
surface phonons. In both instances, the target area a particle presents
to incident light can be much greater than its geometrical
cross-sectional area. This is strikingly evident from the field lines
of the Poynting vector in the vicinity of a small sphere illuminated by
a plane wave.
H. Paul and R. Fischer "Light Absorption by a dipole", SOV. PHYS. USP.,
26(10) Oct. 1983 pp 923-926
ABSTRACT
In semiclassical radiation theory, the electric dipole moment induced
on an atom by a strong incident field absorbs much more energy, per
sec, than is flowing through its geometrical cross section. This means
that the atom has the capability to "suck up" electromagnetic energy
from a spatial region that is by far larger than its own volume. An
intuitive understanding of this effect is provided by studying, in the
framework of classical electrodynamics, the energy flow in the total
field made up by superposition of the incident wave and the field that
is generated by the dipole also in the absorptive case.
http://www.amasci.com/freenrg/a-vectFE.html : COLER/SWEET DEVICES EXPLAINED?!
et sur Journal of Chemical Education :
http://jchemed.chem.wisc.edu/JCEWWW/Articles/DynaPub/DynaPub.html :
How a Photon Is Created or Absorbed
by : Giles Henderson,
Eastern Illinois University, Charleston, IL 61920
Robert C. Rittenhouse, Walla Walla College, College Place, WA 99324
John C. Wright and Jon L. Holmes,
University of Wisconsin-Madison, Madison, WI 53706.
Je découvre alors
qu'à
l'exception du calcul de la largeur des fuseaux de Fermat, mes
travaux étaient largement
antériorisés, notamment
par John G. Cramer.
http://www.npl.washington.edu/npl/int_rep/tiqm/TI_toc.html : The Transactional Interpretation
of Quantum Mechanics. John G. Cramer
Lien à jour : https://web.archive.org/web/20040705081325/http://www.npl.washington.edu/npl/int_rep/tiqm/TI_toc.html
http://mist.npl.washington.edu/npl/int_rep/gat_80/ : Generalized absorber theory and the Einstein-Podolsky-Rosen paradox. John G. Cramer. http://mist.npl.washington.edu/npl/int_rep/ti_over/ti_over.html : An Overview of the Transactional Interpretation. J. G. Cramer. https://www.researchgate.net/publication/235536650_Generalized_absorber_theory_and_the_Einstein-Podolsky-Rosen_paradox/link/54f74ba80cf28d6dec9e6cb6/download
ou http://cds.cern.ch/record/111654/files/vol1p195-200_001.pdf
http://mist.npl.washington.edu/npl/int_rep/VelRev/VelRev.html : Velocity Reversal and the Arrows of Time. John G. Cramer.
http://exvacuo.free.fr/div/Sciences/Dossiers/Time/J%20G%20Cramer%20-%20Velocity%20reversal%20and%20the%20arrows%20of%20time%20-%20.pdf
Quant à Willis Lamb, il a été
longtemps
très difficile à
trouver en ligne, et il a fallu faire appel au cache de Google pour
trouver son paragraphe : There is no such thing as a photon. L'adresse
est redevenue disponible
: http://www.aro.army.mil/phys/proceed.htm#W.%20Lamb
Dear Dr. Everitt:
Thank you for your letters of Dec. 9th about the Workshop meeting at
OSC on February 15 to consider quantum cryptography. You may have heard
that I have strongly negative views about any misuse of quantum
mechanics. However, I could always be wrong, and I will be happy to
attend the meetings to learn how. Hopefully, I will learn some things
that I ought to know. I will attend the discussions on the next morning
if it seems appropriate.
You suggested that I should summarize my ideas on quantum mechanics in
twenty minutes. I would not be able to do that in such a short time. I
do not think that you can give adequate time for this during the
conference. However, I would like to be as helpful as I can in regard
to your program, and hence will make a suggestion as outlined below.
Over a period of over fifty years, I have come to a number of
conclusions about quantum mechanics. I will enumerate some of them as
eight numbered statements:
(1). Anyone wanting to discuss a quantum mechanical problem had better
understand and learn to apply quantum mechanics to that problem.
Quantum mechanics is able to provide answers to various kinds of
questions. At the most primitive level, a system is a well defined and
highly isolated dynamical entity with a certain number of degrees of
freedom. Initially it is in a state described by a known wave function.
There are methods for dealing with the case in which the state is not
so well known, but there is a price to be paid for ignorance. All
disturbances of the system have to be considered. Measurements not only
involve disturbances, but add to the number of degrees of freedom of
the combined system plus measurement system.
(2). To talk of the "quantum theory of the universe" is to make a bad
play on words.
(3). Reliance on Bohr's Correspondence Principle, Heisenberg's
Uncertainty Principle or Bohr's Principle of Complementarity, or Wave
Particle - Duality are sure signs of misunderstanding of quantum
mechanics.
(4). Commonly held notions about wave function collapse or wave packet
reduction have no validity whatsoever.
(5). The ideas of Dirac on the measurement of observables were very
naive. Von Neumann had similar ideas, as expressed in Chapter III of
his 1932 book. Neither of them gave any indication of how a measurement
was to be made. Furthermore, any such measurements would be very
disruptive and the results would be of no use for later studies of the
system of interest. In Chapter VI, on the last two pages of his book,
Von Neumann did outline a model for a meter for making position
measurements, but he never made any use of it. The next reference to
this work came only 33 years later in a short note of Arthurs and
Kelly.
(6). A discussion of measurements on a quantum mechanical system has to
be based on a realistic quantum mechanical analysis of that system in
interaction with another system (a meter of some kind used for the
measurable). It is also necessary to have a good understanding of the
borderland between quantum and classical physics.
(7). Quantum mechanics is a theory dealing with probabilities, and
there is no way around that fact.
(8). There is no such thing as a photon. There is a quantum theory of
radiation, and conservation laws for energy, momentum and angular
momentum are built into it. Only in very simple special cases, hard to
realize in practice does it make sense to talk about photons.
I have written a number of papers on the interpretation of quantum
mechanics and the theory of radiative processes. Two of the most recent
of these are called "Suppose Newton had discovered wave mechanics" in
American Journal of Physics, March, 1984, and "Anti-Photon", to be
published in Applied Physics B. Postscript versions of these papers can
be had on Internet via anonymous ftp from secundus.opt-sci.arizona.edu
(128.196.206.2) in the directory /pub/submissions . The files can be
transferred easily, but must be printed on a Postscript enabled (laser)
printer. The first two of these papers has references to my published
papers on the quantum theory of measurement. Several, hopefully better,
papers on that subject remain to be published.
I would suggest that participants in the Workshop should be given a
copy of the above statements. It may be that no one will think that
there is any conflict between my views and the ideas needed for Quantum
Cryptography. In that case, there would be no need for a talk from me.
If it turns out otherwise, I would be prepared to try to defend my
views on the disputed statements.
Looking forward to meeting you, and attendance at an interesting
Workshop,
Yours sincerely,
Willis Lamb
I hope that my suggestion makes more sense in an ungarbled form. I
can't help feeling that to be able to believe anyting about Q.C.
requires that a definite model be explored using standard quantum
mechanics. If radiation is involved, then the QT of R has to be brought
into the discussion. My Q. T. of M. has only involved simple mechanical
systems, and not the radiation field operators E and B. I don't think
there is anything very hard, but it is time consuming to put in the
necessary complexity to consider the extra degree of freedom
corresponding to the two transverse polarization of the light. I have
strong doubts that merely attenuating incoherent pulses will entitle
one to think reliably of "one photon" states. This is spelled out in my
Anti-photon" paper.
Expérience d'Afshar :
http://www.irims.org/quant-ph/030503/
http://www.irims.org/quant-ph/030503/Afshar%20Complementarity%20All.PDF
-- Jacques Lavau
http://lavaujac.club.fr http://jacques.lavau.deonto-ethique.eu l'adresse actuelle réelle.
Quant au principe de complémentarité, l’expérience d’Afshar ne le contredit pas, elle cherche seulement à prouver que les photons (utilisés dans l’expérience) présentent un comportement d’onde ET de particule dans la même expérience, ce que Bohr avait considéré comme un paradoxe (cf. : Afshar experiment ) .
Adresse : http://www.algerie-dz.com/forums/showthread.php?t=37076&page=2&pp=10