doclabidouille
B 202 : METTONS LES CHOSES AU CLAIR
Le 28/04/2025
Je vais me contenter de citer des passages de 2 ouvrages, on retrouve la même argumentation dans tous les autres. Et je vais les discuter.
Le premier ouvrage est intitulé "Propriétés de la matière", il a été publié aux éditions Dunod en 1969, dans le cadre de la maitrise d'électronique/électrotechnique/automatique. L'auteur en était alors Maurice Gaudaire, chargé de recherche à l'Institut d'Electronique Fondamentale de la Faculté des Sciences d'Orsay. Un physicien, donc, à l'origine.
Le second ouvrage est "Analyse de Fourier et applications", il a été rédigé par deux "mataplis" (matheux appliqués), Claude Gasquet et Patrick Witomski, tous deux de l'Université Joseph Fourier (Grenoble 1), aux éditions Masson, en 1990.
Commençons par Maurice Gaudaire, qui donne une excellente approche de cette "mécanique quantique", très concise, très claire.
Chapitre 2, Apports principaux de la mécanique quantique.
§ 2.1, Constante de Planck : "Il est nécessaire d'utiliser la mécanique quantique pour aborder l'étude des systèmes microscopiques".
NON. C'était effectivement l'idée DE DEPART mais le développement des techniques d'astronomie et d'astrophysique, intimement liées d'ailleurs à celui de la physique des milieux désordonnés, a révélé (là aussi, par l'étude des spectres fréquentiels) que les objets stellaires dits "froids", c'est-à-dire, dont l'existence s'est prolongée au-delà de leur "séquence principale", acquièrent des propriétés QUANTIQUES. Or, nous parlons là d'objets on ne peut plus macroscopiques. Donc (et de l'avis de l'ensemble de la communauté physique internationale), la découverte de ces objets a forcé à revoir l'idée première que les phénomènes quantiques n'auraient été l'apanage que du domaine microscopique. En fait, alliée au processus de changement d'état, la quantique s'étend de l'infiniment petit à l'infiniment grand lors d'une transition de phase qui fait diverger la longueur de corrélation (statistique) entre constituants d'un même système physique.
Je pense que ce qu'entendait l'auteur par là était que la mécanique "classique" n'était plus en mesure de décrire adéquatement les phénomènes physiques microscopiques. Pas qu'elle se cantonnait à ce domaine. Dans ce chapitre, il se borne en effet à la mécanique. Il n'aborde la physique statistique qu'au chapitre 5. Donc, d'un point de vue purement mécanique, il est vrai que, si l'action d'un système physique est très grande par rapport à celle de Planck, l'approche "classique" suffit. Mais, dès qu'elle devient de l'ordre de h, il faut une "nouvelle approche".
Autrement dit : le classique équivaut à poser h = 0 ; le quantique tient compte de ce que h -> 0, mais h > 0.
Et, mine de rien, la différence est énorme. Si vous prenez toutes les constantes de Planck constructibles à partir du "quantum d'action" h, de la constante gravitationnelle de Newton G et de la vitesse de la lumière dans le vide c, le "rayon de Planck" rpl est de l'ordre de 10-35 m, ce qui n'a aucune incidence notable, même dans le domaine sub-nucléaire. Pour la "durée de Planck" tpl = rpl/c, de l'ordre de 10-43 s, c'est encore plus vrai. Par contre, en ce qui concerne la température de Planck Tpl, elle tombe soudainement de l'ordre de 1032 K en quantique à 0 K en classique... Il est clair qu'un tel écart n'est pas admissible, aucun corps physique observable ne pouvant atteindre ce seuil de température. L'approche "classique" n'est donc pas suffisante.
§ 2.2, Nature ondulatoire des particules : "C'est, historiquement, une des raisons qui a entraîné 'l'invention' de la mécanique quantique. Expérimentalement, il s'agit du phénomène de diffraction d'électrons par un cristal. (...) La répartition dans l'espace des électrons receuillis après l'interaction avec le cristal est exactement celle d'une figure de diffraction obtenue avec une onde lumineuse."
Personne ne conteste cela, ça fait partie des observations. Des constats.
"Il faut associer à une particule matérielle une onde : c'est la dualité entre onde et corpuscule".
EH NON... C'est ici que le bât blesse : ON NE PEUT PAS ASSOCIER ENTRE EUX DEUX CHOSES DE NATURE DIFFERENTE...
Vous pouvez apparier deux particules de caractéristiques différentes, parce qu'elles forment toutes deux des corps. Par exemple, un photon (masse et charge électrique au repos nulles, spin 1) avec un électron (masse me ~ 10-31 kg, qe ~ -10-19 C, spin 1/2), pas de problème. Les appariements de "super-partenaires" en supersymétrie sont admissibles. De même, vous pouvez former des "paires de Cooper" entre fermions de spins opposés.
Vous pouvez apparier deux mouvements : si vous avez un champ f : RD1 -> RD2, x -> f(x) et un champ g : RD3 -> RD4, y -> g(y), vous pouvez toujours former un champ h : RD1 xc RD3 -> RD2 xc RD4, (x,y) -> (h0,h1)(x,y) tel que h0(x,y) se réduise à f(x) et h1(x,y), à g(y). Ce ne sera qu'un cas particulier de champs h plus généraux à 2 composantes et 2 systèmes de variables.
MAIS VOUS NE POUVEZ PAS APPARIER UN CORPS, OBJET STATIQUE, AVEC UN MOUVEMENT, OBJET DYNAMIQUE, CAR CE NE SONT PAS DES OBJETS DE MÊME NATURE.
il ne s'agit pas de confondre un corps (ou, plus généralement, un milieu physique), qui occupe un volume V(t) d'espace à l'instant t, avec un mouvement. Même si vous prenez ses caractéristiques physiques, ce sont généralement des mouvements : par exemple, la densité de masse m(x,t) d'un milieu physique modélise la masse de l'une de ses "particules" située en x à l'instant t et, dès que ce milieu ne sera plus homogène (i.e. constitué d'espèces chimiques différentes) et/ou présentera des discontinuités, il n'y aura plus aucune raison pour que la masse de cette particule soit la même que celle d'une autre, située en x' au même instant, ni même qu'elle reste la même à tout instant. Si m(x,t) peut évoluer à la fois d'un point à un autre de l'espace et au cours du temps (ou même si l'on se borne à son évolution temporelle), on a bien un objet dynamique, un mouvement (dans l'espace fictif des masses)... Vous n'allez pas confondre le corps avec sa masse : nous sommes bien d'accord que ce sont deux choses différentes...
C'est à partir de là que ça ne va plus : les calculs effectués par Louis de Broglie sur la base de la relativité restreinte ont abouti à associer une particule avec une "onde" f(x,t). Mais les transformations de référentiels de Poincaré-Lorentz... sont DEJA des mouvements... : les formules font clairement apparaître la VITESSE de déplacement du corpuscule...
On est d'accord sur les calculs. Sur le fait de relier un mouvement dans l'espace-temps de Minkowski à un mouvement ondulatoire. C'EST L'ASSOCIATION QUI EST FAUSSE... et donc, le RAISONNEMENT...
Personne n'ira non plus contester le fait que Pauli découvrit les spins demi-entiers, parce que les rapports gyromagnétiques sur les fermions sont doubles de ceux des bosons : il y a les observations d'une part et le raisonnement, L'INTERPRETATION QUE L'ON DONNE A CES OBSERVATIONS, d'autre part. Contester les observations serait contester les faits.
§ 2.3, Incertitude des mesures de position et d'impulsions : "C'est une deuxième notion essentielle de la mécanique quantique ; elle découle de la dualité entre onde et corpuscule".
NON, NON ET NON !!! ABSOLUMENT PAS. C'est une propriété GENERALE des signaux.
Gasquet et Witomski, leçon n°22, § 22.3, Le Principe d'Incertitude :
"Nous allons voir dans ce paragraphe la relation qui existe entre la localisation d'un signal et celle de son spectre.
Etant donné f : R -> C une fonction telle que f, xf et x*f* soient dans L²(R) [je me permets de changer les notations, n'ayant pas l'alphabet grec sur ce blog - l'étoile désigne donc ici la transformée de Fourier], on note :
<x²f> = SR x²|f(x)|²dx (dispersion d'énergie de f, en temps)
<x*²f*> = SR x*²|f*(x*)|²dx* (dispersion d'énergie en fréquence)
et Ef = SR |f(x)|²dx (énergie de f).
On appelle durée utile du signal f la quantité dt définie par
dt² = <x²f>/Ef
et bande utile du signal la quantité dl définie par
dl² = <x*²f*>/Ef
Le principe d'incertitude est une relation entre dt et dl qui indique que l'on ne peut pas localiser finement et le signal et sa fréquence. Cette relation est :
dt.dl >= 1/4pi
et résulte de [RESULTE DE !]
22.3.1. Proposition. Soit f : R -> C une fonction C1(R) telle que f, f' et xf soient dans L²(R). On a <x²f><x*²f*> >= (Ef/4pi)².
La proposition suivante montre que, pour une bande utile donnée, un signal gaussien a une durée utile minimum.
22.3.1. Proposition. Soit dl une bande utile fixée. Le signal f(t) = ae-(2pidl)²t² minimise la durée utile."
En mathématiques, une "proposition" n'est pas une suggestion, mais un résultat prouvable. Il est donc bien formellement démontré que le Principe d'Incertitude qui, aux dires de Richard P. Feynman, "soutient toute la mécanique quantique", s'applique A TOUTE LA PHYSIQUE.
Leçon n°1, § 1.1, Généralités : "La notion de signal est très extensive. Il ressort de l'observation d'un phénomène certaines quantités qui dépendent du temps (de l'espace, d'une fréquence, ou d'autre chose !). Ces quantités, supposées mesurables, seront appelées des signaux. Elles correspondent, en mathématiques, à la notion de fonction (d'une ou plusieurs variables : temps, espace, etc.) qui en constitue donc une modélisation. Nous verrons par la suite que la notion de distribution est une modélisation à la fois plus générale et plus satisfaisante des signaux."
TRES EXTENSIVE... Elle touche à TOUS les domaines des sciences physiques. Et les quantités en question sont bien évidemment SUPPOSEES MESURABLES, sinon, l'observation NE SERT A RIEN... Or, ce n'est pas avec l'Ecole de Copenhague que l'on parvient à faire de la "mesure quantique"... tout juste des pronostics... Parce qu'au départ, cette "mise en dualité" des "corpuscules" et des "ondes", des corps et des mouvements, de la statique et de la dynamique, N'EST PAS POSSIBLE.
A positionnement contradictoire, incohérences et paradoxes. "L'état quantique" d'un système physique étant modélisé sur ce mode de raisonnement, il échappe totalement à la compréhension...
"C'EST LA LOGIQUE MÊME", pourrait-on dire...
Du coup, on s'est tourné vers la statistique comme "échappatoire à l'apparente absurdité des faits"...
Et on en revient à notre estimable confrère Maurice :
§ 5.12, Populations d'un ensemble de particules : "Pour tous les résultats précédents, les grandeurs introduites se rapportent à l'ensemble macroscopique du système étudié. C'est évident pour les grandeurs thermodynamiques : l'entropie S, l'énergie E (ou, ce qui revient au même, <E>), etc. C'est aussi le cas pour les énergies En (ou EnNi pour des nombres variables de particules) : ces niveaux d'énergie sont ceux calculés pour l'ensemble macroscopique. Pratiquement, ce calcul est impossible et même impensable, à cause du nombre extraordinairement grand de particules élémentaires (atomes, molécules) qui composent un système macroscopique."
Jusqu'ici, ça va. C'est après que ça commence à déraper, d'abord légèrement. Je vais mettre en gras les passages les plus "savoureux".
"Toutefois, les formules établies précédemment sont utiles : elles permettent, dans certains cas, de pouvoir calculer toutes les grandeurs macroscopiques, non pas en fonction des caractéristiques du système macroscopique lui-même (niveaux d'énergie En) mais en fonction des caractéristiques d'une seule particule, dont un très grand nombre constitue le système étudié. Or, le calcul des niveaux d'énergie pour un seul objet microscopique est possible : c'est le rôle de la mécanique quantique."
Il est vrai que, comme personne n'a cherché à résoudre l'équation de Schrödinger avec potentiel, dès que l'on dépasse le niveau de l'atome d'hydrogène, on doit faire face à des calculs pas possibles et à des APPROXIMATIONS...
Ainsi, les "certains cas" en question concernent-ils surtout les milieux PARFAITEMENT HOMOGENES constitués D'UNE SEULE ET MÊME ESPECE DE PARTICULES, TOUTES IDENTIQUES.
Genre, "t'en n'as pas grand chose à foutre en pratique"...
Mais, là ou ça dérape GRAVE vers le fossé, c'est :
"Ces cas particuliers, où les propriétés de l'ensemble peuvent être rattachées aux propriétés d'un seul constituant, sont les systèmes de particules dont les forces d'interaction sont suffisamment petites."
On se croirait revenu au temps de Newton, quand on ramenait les corps à leur centre de gravité...
Mais c'est sur ces CONDITIONS que sont calculées les distributions de Bose-Einstein et de Fermi-Dirac : gaz raréfiés parfaitement homogènes, sans la moindre impureté.
Le genre, cette fois, "tellement simplifié qu'il ne correspond plus beaucoup à la réalité"...
Comme le modèle des "sphères dures"...
On part d'un CONSTAT EXPERIMENTAL (un seul fermion sur chaque niveau d'énergie, un nombre quelconque de bosons sur ce niveau), on pose ces SIMPLIFICATIONS EXTREMES et on utilise LA FONCTION DE PARTITION DE LA STATISTIQUE CLASSIQUE pour établir une "statistique QUANTIQUE"... avec des nombres totaux de particules calculés sur ces bases QU'ABSOLUMENT RIEN NE PERMET D'ASSURER DE RESTER ENTIERS... sinon "qu'aux fluctuations des variations saisonnières près"...
Tout ce que je dis dans cet article figure, plus ou moins bien expliqué, dans TOUS les ouvrages sur la mécanique quantique, SANS EXCEPTION. Et encore, Gaudaire ajoute qu'en mécanique "quantique", il y a DEUX sortes de moyennes, ce qu'on ne retrouve pas dans tous les ouvrages sur le sujet : la moyenne "macroscopique" et la moyenne "microscopique" :
§ 5.1.2 : "Il apparaît ici deux valeurs moyennes : la première est intrinsèquement liée à la mécanique quantique et est définie pour un seul objet ; la seconde est liée à la présence d'un très grand nombre d'objets identiques et est la même que celle qui a été définie pour la mécanique classique."
La "microscopique" ou "moyenne quantique" résulte du Principe d'Incertitude. La "macrocopique" ou "moyenne thermique", de la loi des grands nombres.
Voilà. Maintenant, si vous êtes toujours persuadés faire "de la quantique"... Moi, je ne fais que me référer à ses "créateurs" qui affirmaient publiquement que leur "fonction d'onde" pour l'un et leur "Principe d'Incertitude" pour l'autre N'AVAIENT RIEN DE QUANTIQUE... et reconnaissaient tous unanimement avoir un SERIEUX PROBLEME DE MESURE...
Or, nous l'avons vu avec MM Gasquet et Witomski : si vous ne parvenez pas à mesurer correctement un signal, même en temps réel, QU'ESPEREZ-VOUS DONC EN FAIRE ?...
Si vous INTERPRETEZ des transformées de Fourier comme autant "d'opérateurs de quantification" agissant, soit sur des "vecteurs d'état" à la Schrödinger, soit sur des niveaux d'énergie (chez les oscillateurs harmoniques) ?...
Si vous INTERPRETEZ des états d'énergie NEGATIVE comme des "trous" d'énergie POSITIVE ?...
Si vous mélangez des DEGRES DE LIBERTE DE MOUVEMENTS avec des dimensions PHYSIQUES ?...
Si vous faites appel à des groupes de symétries AUSSI BANCALS QUE VOS "PROCEDURES DE QUANTIFICATION" ?...
Si vous introduisez un "isospin" différent du spin, ALORS QUE LE NOMBRE QUANTIQUE DE SPIN EST SANS UNITE ET PEUT DONC REPRESENTER N'IMPORTE QUELLE GRANDEUR PHYSIQUE ?...
PAS ETONNANT QU'ILS SE TRANSFORMENT DE LA MÊME MANIERE (Clebtsch-Gordan) ! Que vous fassiez un rapport de charge, de masse ou d'action, c'est un rapport dénué d'unités physiques...
J'ai beau regarder partout, je ne vois de "quantique" que la non-nullité de h. Tout le reste, c'est de la statistique et de la théorie du signal.
C'est la raison pour laquelle IL FAUT TOUT REPRENDRE DEPUIS LE DEPART : parce qu'à partir de 1927, c'est parti complètement en vrille...
Le premier ouvrage est intitulé "Propriétés de la matière", il a été publié aux éditions Dunod en 1969, dans le cadre de la maitrise d'électronique/électrotechnique/automatique. L'auteur en était alors Maurice Gaudaire, chargé de recherche à l'Institut d'Electronique Fondamentale de la Faculté des Sciences d'Orsay. Un physicien, donc, à l'origine.
Le second ouvrage est "Analyse de Fourier et applications", il a été rédigé par deux "mataplis" (matheux appliqués), Claude Gasquet et Patrick Witomski, tous deux de l'Université Joseph Fourier (Grenoble 1), aux éditions Masson, en 1990.
Commençons par Maurice Gaudaire, qui donne une excellente approche de cette "mécanique quantique", très concise, très claire.
Chapitre 2, Apports principaux de la mécanique quantique.
§ 2.1, Constante de Planck : "Il est nécessaire d'utiliser la mécanique quantique pour aborder l'étude des systèmes microscopiques".
NON. C'était effectivement l'idée DE DEPART mais le développement des techniques d'astronomie et d'astrophysique, intimement liées d'ailleurs à celui de la physique des milieux désordonnés, a révélé (là aussi, par l'étude des spectres fréquentiels) que les objets stellaires dits "froids", c'est-à-dire, dont l'existence s'est prolongée au-delà de leur "séquence principale", acquièrent des propriétés QUANTIQUES. Or, nous parlons là d'objets on ne peut plus macroscopiques. Donc (et de l'avis de l'ensemble de la communauté physique internationale), la découverte de ces objets a forcé à revoir l'idée première que les phénomènes quantiques n'auraient été l'apanage que du domaine microscopique. En fait, alliée au processus de changement d'état, la quantique s'étend de l'infiniment petit à l'infiniment grand lors d'une transition de phase qui fait diverger la longueur de corrélation (statistique) entre constituants d'un même système physique.
Je pense que ce qu'entendait l'auteur par là était que la mécanique "classique" n'était plus en mesure de décrire adéquatement les phénomènes physiques microscopiques. Pas qu'elle se cantonnait à ce domaine. Dans ce chapitre, il se borne en effet à la mécanique. Il n'aborde la physique statistique qu'au chapitre 5. Donc, d'un point de vue purement mécanique, il est vrai que, si l'action d'un système physique est très grande par rapport à celle de Planck, l'approche "classique" suffit. Mais, dès qu'elle devient de l'ordre de h, il faut une "nouvelle approche".
Autrement dit : le classique équivaut à poser h = 0 ; le quantique tient compte de ce que h -> 0, mais h > 0.
Et, mine de rien, la différence est énorme. Si vous prenez toutes les constantes de Planck constructibles à partir du "quantum d'action" h, de la constante gravitationnelle de Newton G et de la vitesse de la lumière dans le vide c, le "rayon de Planck" rpl est de l'ordre de 10-35 m, ce qui n'a aucune incidence notable, même dans le domaine sub-nucléaire. Pour la "durée de Planck" tpl = rpl/c, de l'ordre de 10-43 s, c'est encore plus vrai. Par contre, en ce qui concerne la température de Planck Tpl, elle tombe soudainement de l'ordre de 1032 K en quantique à 0 K en classique... Il est clair qu'un tel écart n'est pas admissible, aucun corps physique observable ne pouvant atteindre ce seuil de température. L'approche "classique" n'est donc pas suffisante.
§ 2.2, Nature ondulatoire des particules : "C'est, historiquement, une des raisons qui a entraîné 'l'invention' de la mécanique quantique. Expérimentalement, il s'agit du phénomène de diffraction d'électrons par un cristal. (...) La répartition dans l'espace des électrons receuillis après l'interaction avec le cristal est exactement celle d'une figure de diffraction obtenue avec une onde lumineuse."
Personne ne conteste cela, ça fait partie des observations. Des constats.
"Il faut associer à une particule matérielle une onde : c'est la dualité entre onde et corpuscule".
EH NON... C'est ici que le bât blesse : ON NE PEUT PAS ASSOCIER ENTRE EUX DEUX CHOSES DE NATURE DIFFERENTE...
Vous pouvez apparier deux particules de caractéristiques différentes, parce qu'elles forment toutes deux des corps. Par exemple, un photon (masse et charge électrique au repos nulles, spin 1) avec un électron (masse me ~ 10-31 kg, qe ~ -10-19 C, spin 1/2), pas de problème. Les appariements de "super-partenaires" en supersymétrie sont admissibles. De même, vous pouvez former des "paires de Cooper" entre fermions de spins opposés.
Vous pouvez apparier deux mouvements : si vous avez un champ f : RD1 -> RD2, x -> f(x) et un champ g : RD3 -> RD4, y -> g(y), vous pouvez toujours former un champ h : RD1 xc RD3 -> RD2 xc RD4, (x,y) -> (h0,h1)(x,y) tel que h0(x,y) se réduise à f(x) et h1(x,y), à g(y). Ce ne sera qu'un cas particulier de champs h plus généraux à 2 composantes et 2 systèmes de variables.
MAIS VOUS NE POUVEZ PAS APPARIER UN CORPS, OBJET STATIQUE, AVEC UN MOUVEMENT, OBJET DYNAMIQUE, CAR CE NE SONT PAS DES OBJETS DE MÊME NATURE.
il ne s'agit pas de confondre un corps (ou, plus généralement, un milieu physique), qui occupe un volume V(t) d'espace à l'instant t, avec un mouvement. Même si vous prenez ses caractéristiques physiques, ce sont généralement des mouvements : par exemple, la densité de masse m(x,t) d'un milieu physique modélise la masse de l'une de ses "particules" située en x à l'instant t et, dès que ce milieu ne sera plus homogène (i.e. constitué d'espèces chimiques différentes) et/ou présentera des discontinuités, il n'y aura plus aucune raison pour que la masse de cette particule soit la même que celle d'une autre, située en x' au même instant, ni même qu'elle reste la même à tout instant. Si m(x,t) peut évoluer à la fois d'un point à un autre de l'espace et au cours du temps (ou même si l'on se borne à son évolution temporelle), on a bien un objet dynamique, un mouvement (dans l'espace fictif des masses)... Vous n'allez pas confondre le corps avec sa masse : nous sommes bien d'accord que ce sont deux choses différentes...
C'est à partir de là que ça ne va plus : les calculs effectués par Louis de Broglie sur la base de la relativité restreinte ont abouti à associer une particule avec une "onde" f(x,t). Mais les transformations de référentiels de Poincaré-Lorentz... sont DEJA des mouvements... : les formules font clairement apparaître la VITESSE de déplacement du corpuscule...
On est d'accord sur les calculs. Sur le fait de relier un mouvement dans l'espace-temps de Minkowski à un mouvement ondulatoire. C'EST L'ASSOCIATION QUI EST FAUSSE... et donc, le RAISONNEMENT...
Personne n'ira non plus contester le fait que Pauli découvrit les spins demi-entiers, parce que les rapports gyromagnétiques sur les fermions sont doubles de ceux des bosons : il y a les observations d'une part et le raisonnement, L'INTERPRETATION QUE L'ON DONNE A CES OBSERVATIONS, d'autre part. Contester les observations serait contester les faits.
§ 2.3, Incertitude des mesures de position et d'impulsions : "C'est une deuxième notion essentielle de la mécanique quantique ; elle découle de la dualité entre onde et corpuscule".
NON, NON ET NON !!! ABSOLUMENT PAS. C'est une propriété GENERALE des signaux.
Gasquet et Witomski, leçon n°22, § 22.3, Le Principe d'Incertitude :
"Nous allons voir dans ce paragraphe la relation qui existe entre la localisation d'un signal et celle de son spectre.
Etant donné f : R -> C une fonction telle que f, xf et x*f* soient dans L²(R) [je me permets de changer les notations, n'ayant pas l'alphabet grec sur ce blog - l'étoile désigne donc ici la transformée de Fourier], on note :
<x²f> = SR x²|f(x)|²dx (dispersion d'énergie de f, en temps)
<x*²f*> = SR x*²|f*(x*)|²dx* (dispersion d'énergie en fréquence)
et Ef = SR |f(x)|²dx (énergie de f).
On appelle durée utile du signal f la quantité dt définie par
dt² = <x²f>/Ef
et bande utile du signal la quantité dl définie par
dl² = <x*²f*>/Ef
Le principe d'incertitude est une relation entre dt et dl qui indique que l'on ne peut pas localiser finement et le signal et sa fréquence. Cette relation est :
dt.dl >= 1/4pi
et résulte de [RESULTE DE !]
22.3.1. Proposition. Soit f : R -> C une fonction C1(R) telle que f, f' et xf soient dans L²(R). On a <x²f><x*²f*> >= (Ef/4pi)².
La proposition suivante montre que, pour une bande utile donnée, un signal gaussien a une durée utile minimum.
22.3.1. Proposition. Soit dl une bande utile fixée. Le signal f(t) = ae-(2pidl)²t² minimise la durée utile."
En mathématiques, une "proposition" n'est pas une suggestion, mais un résultat prouvable. Il est donc bien formellement démontré que le Principe d'Incertitude qui, aux dires de Richard P. Feynman, "soutient toute la mécanique quantique", s'applique A TOUTE LA PHYSIQUE.
Leçon n°1, § 1.1, Généralités : "La notion de signal est très extensive. Il ressort de l'observation d'un phénomène certaines quantités qui dépendent du temps (de l'espace, d'une fréquence, ou d'autre chose !). Ces quantités, supposées mesurables, seront appelées des signaux. Elles correspondent, en mathématiques, à la notion de fonction (d'une ou plusieurs variables : temps, espace, etc.) qui en constitue donc une modélisation. Nous verrons par la suite que la notion de distribution est une modélisation à la fois plus générale et plus satisfaisante des signaux."
TRES EXTENSIVE... Elle touche à TOUS les domaines des sciences physiques. Et les quantités en question sont bien évidemment SUPPOSEES MESURABLES, sinon, l'observation NE SERT A RIEN... Or, ce n'est pas avec l'Ecole de Copenhague que l'on parvient à faire de la "mesure quantique"... tout juste des pronostics... Parce qu'au départ, cette "mise en dualité" des "corpuscules" et des "ondes", des corps et des mouvements, de la statique et de la dynamique, N'EST PAS POSSIBLE.
A positionnement contradictoire, incohérences et paradoxes. "L'état quantique" d'un système physique étant modélisé sur ce mode de raisonnement, il échappe totalement à la compréhension...
"C'EST LA LOGIQUE MÊME", pourrait-on dire...
Du coup, on s'est tourné vers la statistique comme "échappatoire à l'apparente absurdité des faits"...
Et on en revient à notre estimable confrère Maurice :
§ 5.12, Populations d'un ensemble de particules : "Pour tous les résultats précédents, les grandeurs introduites se rapportent à l'ensemble macroscopique du système étudié. C'est évident pour les grandeurs thermodynamiques : l'entropie S, l'énergie E (ou, ce qui revient au même, <E>), etc. C'est aussi le cas pour les énergies En (ou EnNi pour des nombres variables de particules) : ces niveaux d'énergie sont ceux calculés pour l'ensemble macroscopique. Pratiquement, ce calcul est impossible et même impensable, à cause du nombre extraordinairement grand de particules élémentaires (atomes, molécules) qui composent un système macroscopique."
Jusqu'ici, ça va. C'est après que ça commence à déraper, d'abord légèrement. Je vais mettre en gras les passages les plus "savoureux".
"Toutefois, les formules établies précédemment sont utiles : elles permettent, dans certains cas, de pouvoir calculer toutes les grandeurs macroscopiques, non pas en fonction des caractéristiques du système macroscopique lui-même (niveaux d'énergie En) mais en fonction des caractéristiques d'une seule particule, dont un très grand nombre constitue le système étudié. Or, le calcul des niveaux d'énergie pour un seul objet microscopique est possible : c'est le rôle de la mécanique quantique."
Il est vrai que, comme personne n'a cherché à résoudre l'équation de Schrödinger avec potentiel, dès que l'on dépasse le niveau de l'atome d'hydrogène, on doit faire face à des calculs pas possibles et à des APPROXIMATIONS...
Ainsi, les "certains cas" en question concernent-ils surtout les milieux PARFAITEMENT HOMOGENES constitués D'UNE SEULE ET MÊME ESPECE DE PARTICULES, TOUTES IDENTIQUES.
Genre, "t'en n'as pas grand chose à foutre en pratique"...
Mais, là ou ça dérape GRAVE vers le fossé, c'est :
"Ces cas particuliers, où les propriétés de l'ensemble peuvent être rattachées aux propriétés d'un seul constituant, sont les systèmes de particules dont les forces d'interaction sont suffisamment petites."
On se croirait revenu au temps de Newton, quand on ramenait les corps à leur centre de gravité...
Mais c'est sur ces CONDITIONS que sont calculées les distributions de Bose-Einstein et de Fermi-Dirac : gaz raréfiés parfaitement homogènes, sans la moindre impureté.
Le genre, cette fois, "tellement simplifié qu'il ne correspond plus beaucoup à la réalité"...
Comme le modèle des "sphères dures"...
On part d'un CONSTAT EXPERIMENTAL (un seul fermion sur chaque niveau d'énergie, un nombre quelconque de bosons sur ce niveau), on pose ces SIMPLIFICATIONS EXTREMES et on utilise LA FONCTION DE PARTITION DE LA STATISTIQUE CLASSIQUE pour établir une "statistique QUANTIQUE"... avec des nombres totaux de particules calculés sur ces bases QU'ABSOLUMENT RIEN NE PERMET D'ASSURER DE RESTER ENTIERS... sinon "qu'aux fluctuations des variations saisonnières près"...
Tout ce que je dis dans cet article figure, plus ou moins bien expliqué, dans TOUS les ouvrages sur la mécanique quantique, SANS EXCEPTION. Et encore, Gaudaire ajoute qu'en mécanique "quantique", il y a DEUX sortes de moyennes, ce qu'on ne retrouve pas dans tous les ouvrages sur le sujet : la moyenne "macroscopique" et la moyenne "microscopique" :
§ 5.1.2 : "Il apparaît ici deux valeurs moyennes : la première est intrinsèquement liée à la mécanique quantique et est définie pour un seul objet ; la seconde est liée à la présence d'un très grand nombre d'objets identiques et est la même que celle qui a été définie pour la mécanique classique."
La "microscopique" ou "moyenne quantique" résulte du Principe d'Incertitude. La "macrocopique" ou "moyenne thermique", de la loi des grands nombres.
Voilà. Maintenant, si vous êtes toujours persuadés faire "de la quantique"... Moi, je ne fais que me référer à ses "créateurs" qui affirmaient publiquement que leur "fonction d'onde" pour l'un et leur "Principe d'Incertitude" pour l'autre N'AVAIENT RIEN DE QUANTIQUE... et reconnaissaient tous unanimement avoir un SERIEUX PROBLEME DE MESURE...
Or, nous l'avons vu avec MM Gasquet et Witomski : si vous ne parvenez pas à mesurer correctement un signal, même en temps réel, QU'ESPEREZ-VOUS DONC EN FAIRE ?...
Si vous INTERPRETEZ des transformées de Fourier comme autant "d'opérateurs de quantification" agissant, soit sur des "vecteurs d'état" à la Schrödinger, soit sur des niveaux d'énergie (chez les oscillateurs harmoniques) ?...
Si vous INTERPRETEZ des états d'énergie NEGATIVE comme des "trous" d'énergie POSITIVE ?...
Si vous mélangez des DEGRES DE LIBERTE DE MOUVEMENTS avec des dimensions PHYSIQUES ?...
Si vous faites appel à des groupes de symétries AUSSI BANCALS QUE VOS "PROCEDURES DE QUANTIFICATION" ?...
Si vous introduisez un "isospin" différent du spin, ALORS QUE LE NOMBRE QUANTIQUE DE SPIN EST SANS UNITE ET PEUT DONC REPRESENTER N'IMPORTE QUELLE GRANDEUR PHYSIQUE ?...
PAS ETONNANT QU'ILS SE TRANSFORMENT DE LA MÊME MANIERE (Clebtsch-Gordan) ! Que vous fassiez un rapport de charge, de masse ou d'action, c'est un rapport dénué d'unités physiques...
J'ai beau regarder partout, je ne vois de "quantique" que la non-nullité de h. Tout le reste, c'est de la statistique et de la théorie du signal.
C'est la raison pour laquelle IL FAUT TOUT REPRENDRE DEPUIS LE DEPART : parce qu'à partir de 1927, c'est parti complètement en vrille...
Commentaires textes : Écrire
B 201 : UNE THEORIE DE TOUT (ce qui est connu)
Le 04/07/2024
On commence par un constat mathématique (pas seulement physique) très général, dont la preuve me semble établie depuis longtemps. Nous adopterons la convention de sommation d'Einstein pour condenser les formules, mais en précisant tout de même les bornes des indices.
En notant ND = N/DN = {1,2,...,D} l'ensemble des entiers naturels strictement positifs modulo D, soit :
(1) x : ND -> C , a -> x(a) = xa
l'application qui définit un C-espace vectoriel ou affine de dimension entière FINIE D. Alors, x est nécessairement périodique de période D :
(2) x(a + D) = x(a)
et admet une décomposition de Fourier,
(3) x(a) = xa = ½ x(1-2A)n(D)[q(D)](1-2A)na (A = 0,1 ; 1 =< a =< D ; n dans N)
avec,
(4) q(D) = e2ipi/D = "quantum dimensionnel" (D-ième racine de l'unité)
(5) x(1-2A)n(D) = D-1Sa=1D x(a)[q(D)](2A-1)na
Le mode fondamental est la moyenne arithmétique des x(a) :
(6) x0(D) = D-1Sa=1D x(a)
Regardons bien l'expression (3). Les modes x(1-2A)n(D) ne dépendent que de la dimension totale du cadre. Ils pondèrent les puissances du quantum dimensionnel (4). Laissons momentanément de côté l'exposant (1 - 2A)n. La direction a s'obtient par auto-couplage du quantum a fois. C'est donc q(D) qui est fondamental. A partir de lui, i.e. D'UNE SEULE DIMENSION (a = 1), toutes les autres se construisent en le couplant avec lui-même : x1 utilise q(D) ; x2, q2(D) ; x3, q3(D) ; etc.
Dans le cas des espaces PHYSIQUES, spin-signature dit que c'est le nombre quantique de spin associé au cadre, i.e. le nombre total de ses états de configuration possibles, qui détermine leur dimension. Pour les espaces quantiques, c'est D(s) = 22s. Partant de q[D(s)], ses auto-couplages successifs iront donc jusqu'à qD(s)[D(s)] = 1. D'après (4) et de Moivre, pour 1 =< a =< D(s),
(7) qa[D(s)] = cos[2pia/D(s)] + isin[2pia/D(s)]
va générer un quantum dans la direction a. Hormis pour a = 1, ce quantum-là N'EST PLUS FONDAMENTAL. Du point de vue ensembliste, il est à rapprocher de l'auto-couplage tensoriel Cxta de C qui, on le sait, reste de dimension 1. Ici, q est dans C et qa[D(s)] y reste.
Si je prends maintenant 2 directions a et b dans ND(s), (7) me conduit à :
(8) qa[D(s)]qb[D(s)] = q[a+b modulo D(s)][D(s)]
Pour s = 0, N1 = {1} et q2(1) = q[2 modulo 1](1) = q(1) = 1.
Pour s = ½, N2 = {1,2}, on obtient la table :
[q1(2)]2 = q[2 modulo 2](2) = [q2(2)]2 = q[4 modulo 2](2) = q2(2)
q1(2)q2(2) = q[3 modulo 2](2) = q1(2) = q(2) = -1
Essayons encore pour s = 1 : N4 = {1,2,3,4}, la table est,
q1(4)q4(4) = q2(4)q3(4) = q1(4) = q(4) = i
[q1(4)]2 = [q3(4)]2 = q2(4)q4(4) = q2(4) = -1
q1(4)q2(4) = q3(4)q4(4) = q3(4) = -i
[q2(4)]2 = [q4(4)]2 = q1(4)q3(4) = q4(4) = 1
Voilà comment s'échangent les directions dans les espaces quantiques : par auto-couplages du quantum MODULO la dimension.
Par contre, nous avons une faculté propre à ces espaces qui n'a aucune signification en géométrie réelle.
On appellera "dimension négative" la dimension générée par le quantum CONJUGUé q*[D(s)]. On aura alors :
(9) q-1[D(s)] = q*[D(s)]
Ce nom provient du fait que, pour 1 =< a =< D(s), q-a[D(s)] = {qa[D(s)]}* se comporte COMME SI -D =< -a =< -1. En réalité, il n'y a pas de "dimension négative" : il est impossible d'avoir "moins de dimension qu'aucune", ça n'a pas de sens. Mais, en géométrie réelle, q* = q, alors qu'en géométrie complexe, on a q ET q*. Qui ne sont PAS en opposition de phase. Résultat : le couplage interactif de q et de q* donne,
(10) q[D(s)]q*[D(s)] = q*[D(s)]q[D(s)] = q0[D(s)] = 1 = "DIMENSION ZERO"
Or, (5) montre bien que TOUS les modes de xa sont indépendants de a, car obtenus comme des MOYENNES DIMENSIONNELLES. Ce sont donc des invariants du même type. Si l'on rejetait la "dimension zéro", il n'y aurait plus de mode fondamental. On est donc bien obligé d'en tenir compte, même si on ne l'incorpore pas à ND(s).
LA DIMENSION ZERO EST REPRESENTATIVE DE L'ETAT DE VIDE (absence de quanta).
Elle n'est donc pas si "ésotérique" qu'elle en a l'air... Qu'est-ce, en fin de compte ? Rien d'autre que L'AMPLITUDE de q[D(s)]. La phase du quantum dimensionnel a été annulée.
Nous pouvons à présent calculer x1 pour s = 0. D'après (4), q(1) = 1 et d'après (3) :
x(1) = x1 = x0(1) + ½ Sn=1+oo [xn(1) + x-n(1)]
Mais (6) donne déjà x0(1) = x(1). La somme restante est donc nulle, ce qui n'est possible que ssi tous les modes excités sont nuls, même si (5) semble dire le contraire. Le paradoxe se lève en se disant que qn(1) génère la direction n. Or, il n'y a qu'une seule direction dans C et elle est retenue par le fondamental. Par conséquent, x(1) = x1 = x0(1) se réduit à ce mode. (5) est inopérante parce que les modes excités N'EXISTENT PAS...
Je vous ai déjà dit que la cosmologie quantique, l'étude de la structure intime de l'espace (et du temps), c'était encore plus fort que la magie ?... Il me semble. On découvre des trucs de dingues...
La TRACE de (8) est L'INVARIANT DIMENSIONNEL :
(11) ||q[D(s)]||² = Sa=1D(s) {qa[D(s)]}² = Sa=1D(s) q[2a modulo D(s)][D(s)]
Ça reste une quantité complexe. Le calcul donne :
||q(1)||² = q2(1) = q(1) = 1 ;
(12) ||q(2)||² = q2(2) + q4(2) = q2(2) + q2(2) = 2q2(2) = 2 ;
||q[D(s)]||² = 2q2[D(s)]{1 + q[D(s]}/{1 - q[D(s)]}
= 2iq2[D(s)]cotan[pi/D(s)] [s >= 1 , D(s) >= 4]
Toujours d'après (3), le carré de la norme de xa sera donc :
(13a) ||x(1)||² = [x0(1)]²
(13b) ||x[D(s)]||² = ¼ x(1-2A)n1[D(s)]x(1-2B)n2[D(s)]Sa=1D(s) q(1-2A)n1a[D(s)]q(1-2B)n2a[D(s)]
= ¼ x²(1-2A)n1,(1-2B)n2[D(s)]Sa=1D(s) q[(1-2A)n1 + (1-2B)n2]a[D(s)]
[s >= ½ , D(s) >= 2]
Cette métrique est complexe, laissée invariante par le groupe des rotations SO[D(s),C] à D(s)[D(s) - 1]/2 paramètres complexes. Pour D(0) = 1, c'est O(1,C).
Le reste a déjà été fait : la RG comme paradigme, le théorème spin-signature,...
Il suffit de se placer dans un CD(s) euclidien. Le Cp(s),q(s) pseudo-euclidien s'en déduit (et réciproquement) via l'algèbre des matrices MD(s)(C). Dans la procédure ascendante, l'objet de départ est le champ de contraintes Tab(x) appliqué à CD(s). Il est de spin 2s, de même que le champ des courbures de Ricci, Rab(x). Par contre, leurs invariants respectifs T(x) et R(x) sont de spin 0. Les courbures de Riemann Rabcd(x) forment un champ de spin 4s. Dans le Modèle Standard, elles sont entièrement déterminées par la donnée des Tab(x), la métrique de base étant celle de CD(s), Idab. Chez Yang-Mills, ces Rabcd(x) jouent le rôle des "intensités du champ de jauge", les "potentiels" de ce champ étant représentés par les Cabc(x) de Christoffel. Ces derniers étant universels, ils peuvent être spécialisés à n'importe quel contexte, suivant le type de charges auxquelles on s'intéresse. Quant à la métrique de l'Univers quantique UD(s) obtenu par déformation de CD(s), elle est donné par la résolution des équations de la RG, c'est un gab(x) symétrique de spin 2s. Pour terminer, les "potentiels de déformation eab(x) forment un champ de 2-tenseurs asymétriques de spin 2s et la forme de la source s'en déduit par intégration (curviligne), c'est un Xb(x) de même spin s que le cadre.
Il n'y a rien d'autre à ajouter. C3,1 est un espace-temps quantique de dimension 4, spin 1, qui serait donc renormalisable au sens de 't Hooft, si l'on raisonnait en diagrammes de Feynman. Dans ce cadre-là, il y a 16 "potentiels de Yang-Mills" Ca(x), complexes, donc assez pour regrouper les 4 interactions fondamentales et la matière du Modèle Standard.
Pour ce qui est de la structure "locale" des espaces physiques, on se fixe un dx = (dx1,...,dxD(s)) dont la norme ||dx[D(s)]|| est donnée par (13b). En euclidien, on considère que, du point de vue de la mesure, ce dx est MINIMAL : il représente "la plus petite distance accessible par l'instrument" ou encore "l'échelle de résolution de l'espace". Poursuivant sur ce principe, on en déduit qu'entre 0 et ||dx[D(s)]||, plus aucune distance n'est accessible à l'observation et donc, que du point de vue de la mesure et uniquement de ce point de vue, l'intervalle fermé [0,dxa] dans la direction a se résume au couple de points {0,dxa} (vu qu'il n'est plus possible d'accéder aux autres) et donc, que le "pavé" D(s)-dimensionnel (xc)a=1D(s) {0,dxa} constitue une "boite noire" de volume dD(s)x = dx1...dxD(s). Aussi, si l'on veut éviter de rejeter ce volume du cadre physique, il faut changer le mode de description des objets, ne plus les considérer comme "ponctuels" mais, au contraire, de "longueurs caractéristiques" dxa. Ce qui oblige à passer de l'analyse conventionnelle à la théorie des ensembles.
Par exemple, si une variable réelle x a pour "taille" dx, en réponse, l'application :
(14a) f : R -> R , x -> f(x)
aura pour "taille"
(14b) df(x) = f(x + dx) - f(x)
Il s'agit donc de remplacer les objets PONCTUELS que sont x et f par les couples booléens {x,dx} et {f,df}, qui forment des ensembles à DEUX points. En place de (14a), on trouvera :
(15a) {f,df} : {x,dx} -> {f(x),df(x)}
C'est (14a) et (14b) regroupés en un même schéma. Mais pas à 2 variables : à 2 points. Plus correctement : une seule variable DE TAILLE dx et une seule application DE TAILLE df.
Il s'agit bien d'une opération ensembliste, puisque l'ensemble {f,df} transforme l'ensemble {x,dx} en l'ensemble {f(x),df(x)} :
(15b) {f,df}({x,dx}) = {f(x),df(x)}
Par exemple, pour f(x) = x², {f,df}({x,dx}) = {x² , 2xdx + dx²}. C'est une déformation parabolique du booléen {x,dx}. Qui tient compte de la taille des objets.
Une application a beau constituer elle-même un ensemble, cela reste insuffisant du point de vue de la mesure. Pour les maths traditionnelles, les espaces réels comme complexes sont des espaces de POINTS. Seule la topologie parle de "boules", "d'ouverts", de "fermés" (et même "d'ouvert-fermés" - perso, je n'ai jamais compris ce concept...), dans le but de définir des espaces "métrisables".
Eh bien, tout cela s'applique, par extension, aux applications à plusieurs variables et donc, aux champs physiques. Il y a toutefois une différence assez nette avec le concept de distribution, car f(x)dx est le produit d'une FONCTION par un étalon de mesure : on conserve l'environnement fonctionnel que l'on généralise en le "localisant". Dans ce cadre-là, dx tend d'ordinaire vers zéro. Dans le contexte ensembliste que je viens très brièvement de décrire, les différentielles peuvent être quelconques, entraînant forcément des non-linéarités [comme on le voit dans df(x) = 2xdx + dx²].
A tout objet géométrique, il faut adjoindre sa "taille" et former des couples booléens. Susceptibles d'agir sur d'autres. Ce n'est qu'une question d'accessibilité des objets à leur mesure.
Sinon, l'espace de travail de départ est C3,1. Il est amplement suffisant.
THEOREME DIMENSIONNEL
En notant ND = N/DN = {1,2,...,D} l'ensemble des entiers naturels strictement positifs modulo D, soit :
(1) x : ND -> C , a -> x(a) = xa
l'application qui définit un C-espace vectoriel ou affine de dimension entière FINIE D. Alors, x est nécessairement périodique de période D :
(2) x(a + D) = x(a)
et admet une décomposition de Fourier,
(3) x(a) = xa = ½ x(1-2A)n(D)[q(D)](1-2A)na (A = 0,1 ; 1 =< a =< D ; n dans N)
avec,
(4) q(D) = e2ipi/D = "quantum dimensionnel" (D-ième racine de l'unité)
(5) x(1-2A)n(D) = D-1Sa=1D x(a)[q(D)](2A-1)na
Le mode fondamental est la moyenne arithmétique des x(a) :
(6) x0(D) = D-1Sa=1D x(a)
Regardons bien l'expression (3). Les modes x(1-2A)n(D) ne dépendent que de la dimension totale du cadre. Ils pondèrent les puissances du quantum dimensionnel (4). Laissons momentanément de côté l'exposant (1 - 2A)n. La direction a s'obtient par auto-couplage du quantum a fois. C'est donc q(D) qui est fondamental. A partir de lui, i.e. D'UNE SEULE DIMENSION (a = 1), toutes les autres se construisent en le couplant avec lui-même : x1 utilise q(D) ; x2, q2(D) ; x3, q3(D) ; etc.
Dans le cas des espaces PHYSIQUES, spin-signature dit que c'est le nombre quantique de spin associé au cadre, i.e. le nombre total de ses états de configuration possibles, qui détermine leur dimension. Pour les espaces quantiques, c'est D(s) = 22s. Partant de q[D(s)], ses auto-couplages successifs iront donc jusqu'à qD(s)[D(s)] = 1. D'après (4) et de Moivre, pour 1 =< a =< D(s),
(7) qa[D(s)] = cos[2pia/D(s)] + isin[2pia/D(s)]
va générer un quantum dans la direction a. Hormis pour a = 1, ce quantum-là N'EST PLUS FONDAMENTAL. Du point de vue ensembliste, il est à rapprocher de l'auto-couplage tensoriel Cxta de C qui, on le sait, reste de dimension 1. Ici, q est dans C et qa[D(s)] y reste.
Si je prends maintenant 2 directions a et b dans ND(s), (7) me conduit à :
(8) qa[D(s)]qb[D(s)] = q[a+b modulo D(s)][D(s)]
Pour s = 0, N1 = {1} et q2(1) = q[2 modulo 1](1) = q(1) = 1.
Pour s = ½, N2 = {1,2}, on obtient la table :
[q1(2)]2 = q[2 modulo 2](2) = [q2(2)]2 = q[4 modulo 2](2) = q2(2)
q1(2)q2(2) = q[3 modulo 2](2) = q1(2) = q(2) = -1
Essayons encore pour s = 1 : N4 = {1,2,3,4}, la table est,
q1(4)q4(4) = q2(4)q3(4) = q1(4) = q(4) = i
[q1(4)]2 = [q3(4)]2 = q2(4)q4(4) = q2(4) = -1
q1(4)q2(4) = q3(4)q4(4) = q3(4) = -i
[q2(4)]2 = [q4(4)]2 = q1(4)q3(4) = q4(4) = 1
Voilà comment s'échangent les directions dans les espaces quantiques : par auto-couplages du quantum MODULO la dimension.
Par contre, nous avons une faculté propre à ces espaces qui n'a aucune signification en géométrie réelle.
DEFINITION : DIMENSION NEGATIVE
On appellera "dimension négative" la dimension générée par le quantum CONJUGUé q*[D(s)]. On aura alors :
(9) q-1[D(s)] = q*[D(s)]
Ce nom provient du fait que, pour 1 =< a =< D(s), q-a[D(s)] = {qa[D(s)]}* se comporte COMME SI -D =< -a =< -1. En réalité, il n'y a pas de "dimension négative" : il est impossible d'avoir "moins de dimension qu'aucune", ça n'a pas de sens. Mais, en géométrie réelle, q* = q, alors qu'en géométrie complexe, on a q ET q*. Qui ne sont PAS en opposition de phase. Résultat : le couplage interactif de q et de q* donne,
(10) q[D(s)]q*[D(s)] = q*[D(s)]q[D(s)] = q0[D(s)] = 1 = "DIMENSION ZERO"
Or, (5) montre bien que TOUS les modes de xa sont indépendants de a, car obtenus comme des MOYENNES DIMENSIONNELLES. Ce sont donc des invariants du même type. Si l'on rejetait la "dimension zéro", il n'y aurait plus de mode fondamental. On est donc bien obligé d'en tenir compte, même si on ne l'incorpore pas à ND(s).
LA DIMENSION ZERO EST REPRESENTATIVE DE L'ETAT DE VIDE (absence de quanta).
Elle n'est donc pas si "ésotérique" qu'elle en a l'air... Qu'est-ce, en fin de compte ? Rien d'autre que L'AMPLITUDE de q[D(s)]. La phase du quantum dimensionnel a été annulée.
Nous pouvons à présent calculer x1 pour s = 0. D'après (4), q(1) = 1 et d'après (3) :
x(1) = x1 = x0(1) + ½ Sn=1+oo [xn(1) + x-n(1)]
Mais (6) donne déjà x0(1) = x(1). La somme restante est donc nulle, ce qui n'est possible que ssi tous les modes excités sont nuls, même si (5) semble dire le contraire. Le paradoxe se lève en se disant que qn(1) génère la direction n. Or, il n'y a qu'une seule direction dans C et elle est retenue par le fondamental. Par conséquent, x(1) = x1 = x0(1) se réduit à ce mode. (5) est inopérante parce que les modes excités N'EXISTENT PAS...
Je vous ai déjà dit que la cosmologie quantique, l'étude de la structure intime de l'espace (et du temps), c'était encore plus fort que la magie ?... Il me semble. On découvre des trucs de dingues...
La TRACE de (8) est L'INVARIANT DIMENSIONNEL :
(11) ||q[D(s)]||² = Sa=1D(s) {qa[D(s)]}² = Sa=1D(s) q[2a modulo D(s)][D(s)]
Ça reste une quantité complexe. Le calcul donne :
||q(1)||² = q2(1) = q(1) = 1 ;
(12) ||q(2)||² = q2(2) + q4(2) = q2(2) + q2(2) = 2q2(2) = 2 ;
||q[D(s)]||² = 2q2[D(s)]{1 + q[D(s]}/{1 - q[D(s)]}
= 2iq2[D(s)]cotan[pi/D(s)] [s >= 1 , D(s) >= 4]
Toujours d'après (3), le carré de la norme de xa sera donc :
(13a) ||x(1)||² = [x0(1)]²
(13b) ||x[D(s)]||² = ¼ x(1-2A)n1[D(s)]x(1-2B)n2[D(s)]Sa=1D(s) q(1-2A)n1a[D(s)]q(1-2B)n2a[D(s)]
= ¼ x²(1-2A)n1,(1-2B)n2[D(s)]Sa=1D(s) q[(1-2A)n1 + (1-2B)n2]a[D(s)]
[s >= ½ , D(s) >= 2]
Cette métrique est complexe, laissée invariante par le groupe des rotations SO[D(s),C] à D(s)[D(s) - 1]/2 paramètres complexes. Pour D(0) = 1, c'est O(1,C).
Le reste a déjà été fait : la RG comme paradigme, le théorème spin-signature,...
Il suffit de se placer dans un CD(s) euclidien. Le Cp(s),q(s) pseudo-euclidien s'en déduit (et réciproquement) via l'algèbre des matrices MD(s)(C). Dans la procédure ascendante, l'objet de départ est le champ de contraintes Tab(x) appliqué à CD(s). Il est de spin 2s, de même que le champ des courbures de Ricci, Rab(x). Par contre, leurs invariants respectifs T(x) et R(x) sont de spin 0. Les courbures de Riemann Rabcd(x) forment un champ de spin 4s. Dans le Modèle Standard, elles sont entièrement déterminées par la donnée des Tab(x), la métrique de base étant celle de CD(s), Idab. Chez Yang-Mills, ces Rabcd(x) jouent le rôle des "intensités du champ de jauge", les "potentiels" de ce champ étant représentés par les Cabc(x) de Christoffel. Ces derniers étant universels, ils peuvent être spécialisés à n'importe quel contexte, suivant le type de charges auxquelles on s'intéresse. Quant à la métrique de l'Univers quantique UD(s) obtenu par déformation de CD(s), elle est donné par la résolution des équations de la RG, c'est un gab(x) symétrique de spin 2s. Pour terminer, les "potentiels de déformation eab(x) forment un champ de 2-tenseurs asymétriques de spin 2s et la forme de la source s'en déduit par intégration (curviligne), c'est un Xb(x) de même spin s que le cadre.
Il n'y a rien d'autre à ajouter. C3,1 est un espace-temps quantique de dimension 4, spin 1, qui serait donc renormalisable au sens de 't Hooft, si l'on raisonnait en diagrammes de Feynman. Dans ce cadre-là, il y a 16 "potentiels de Yang-Mills" Ca(x), complexes, donc assez pour regrouper les 4 interactions fondamentales et la matière du Modèle Standard.
Pour ce qui est de la structure "locale" des espaces physiques, on se fixe un dx = (dx1,...,dxD(s)) dont la norme ||dx[D(s)]|| est donnée par (13b). En euclidien, on considère que, du point de vue de la mesure, ce dx est MINIMAL : il représente "la plus petite distance accessible par l'instrument" ou encore "l'échelle de résolution de l'espace". Poursuivant sur ce principe, on en déduit qu'entre 0 et ||dx[D(s)]||, plus aucune distance n'est accessible à l'observation et donc, que du point de vue de la mesure et uniquement de ce point de vue, l'intervalle fermé [0,dxa] dans la direction a se résume au couple de points {0,dxa} (vu qu'il n'est plus possible d'accéder aux autres) et donc, que le "pavé" D(s)-dimensionnel (xc)a=1D(s) {0,dxa} constitue une "boite noire" de volume dD(s)x = dx1...dxD(s). Aussi, si l'on veut éviter de rejeter ce volume du cadre physique, il faut changer le mode de description des objets, ne plus les considérer comme "ponctuels" mais, au contraire, de "longueurs caractéristiques" dxa. Ce qui oblige à passer de l'analyse conventionnelle à la théorie des ensembles.
Par exemple, si une variable réelle x a pour "taille" dx, en réponse, l'application :
(14a) f : R -> R , x -> f(x)
aura pour "taille"
(14b) df(x) = f(x + dx) - f(x)
Il s'agit donc de remplacer les objets PONCTUELS que sont x et f par les couples booléens {x,dx} et {f,df}, qui forment des ensembles à DEUX points. En place de (14a), on trouvera :
(15a) {f,df} : {x,dx} -> {f(x),df(x)}
C'est (14a) et (14b) regroupés en un même schéma. Mais pas à 2 variables : à 2 points. Plus correctement : une seule variable DE TAILLE dx et une seule application DE TAILLE df.
Il s'agit bien d'une opération ensembliste, puisque l'ensemble {f,df} transforme l'ensemble {x,dx} en l'ensemble {f(x),df(x)} :
(15b) {f,df}({x,dx}) = {f(x),df(x)}
Par exemple, pour f(x) = x², {f,df}({x,dx}) = {x² , 2xdx + dx²}. C'est une déformation parabolique du booléen {x,dx}. Qui tient compte de la taille des objets.
Une application a beau constituer elle-même un ensemble, cela reste insuffisant du point de vue de la mesure. Pour les maths traditionnelles, les espaces réels comme complexes sont des espaces de POINTS. Seule la topologie parle de "boules", "d'ouverts", de "fermés" (et même "d'ouvert-fermés" - perso, je n'ai jamais compris ce concept...), dans le but de définir des espaces "métrisables".
Eh bien, tout cela s'applique, par extension, aux applications à plusieurs variables et donc, aux champs physiques. Il y a toutefois une différence assez nette avec le concept de distribution, car f(x)dx est le produit d'une FONCTION par un étalon de mesure : on conserve l'environnement fonctionnel que l'on généralise en le "localisant". Dans ce cadre-là, dx tend d'ordinaire vers zéro. Dans le contexte ensembliste que je viens très brièvement de décrire, les différentielles peuvent être quelconques, entraînant forcément des non-linéarités [comme on le voit dans df(x) = 2xdx + dx²].
A tout objet géométrique, il faut adjoindre sa "taille" et former des couples booléens. Susceptibles d'agir sur d'autres. Ce n'est qu'une question d'accessibilité des objets à leur mesure.
Sinon, l'espace de travail de départ est C3,1. Il est amplement suffisant.
Commentaires textes : Écrire
B 200 : CHAMPS DE YANG-MILLS EN TQRC
Le 23/06/2024
Le Modèle Standard regroupe les "théories de jauge" : électromagnétisme, interaction nucléaire "faible", interaction nucléaire "forte", "spineurs" et gravitation einsteinienne. Hormis les "spineurs", qui décrivent la "matière", les interactions y sont décrites comme des "champs de Yang-Mills" (C.N. Yang, R. Mills, 1956). Je vais y revenir. Mais avant, un petit rappel des symétries présentes en physique quantique.
La notion de symétrie est devenue centrale en physique depuis le théorème d'Emmy Noether, qui lie une symétrie à une loi de conservation (invariance par translation temporelle => conservation de l'énergie ; par translation spatiale => de la quantité de mouvement ; par rotation => du moment cinétique et du spin, etc.). On distingue deux grandes catégories de symétries : les externes, qui portent sur les translations, les rotations, les inversions et les changements d'échelle (les "homothéties") et les internes, qui concernent les propriétés physiques des corps, indépendamment de leurs mouvements (masse, charge électrique, étrangeté, charge "de couleur", "saveurs",...). Ce qui pourrait "faciliter" l'unification, c'est le constat que bon nombre de ces symétries internes imitent le spin. C'est pour cette raison qu'a été inventé "l'isospin". Par exemple, le proton et le neutron ne se distingue nettement que par leur charge électrique : à des corrections de nature électromagnétique dites "radiatives" près, ils ont sensiblement même masse et peuvent donc être regroupés en une seule particule appelée "nucléon". Cette particule a isospin ½, traduisant le fait que le nucléon se présente sous DEUX "états quantiques" ou "configurations internes", le proton et le neutron. Cet isospin ½ présente les mêmes propriétés mathématiques que le spin : il s'associe de la même manière, se transforme de la même manière.
Preuve supplémentaire que le nombre quantique de spin, même s'il s'exprime en unité d'action (Js) N'EST PAS, à proprement parler, un véritable moment cinétique, mais une quantité exprimant le nombre total d'états de configuration d'un système quantique.
Les théories "de jauge" (ou de Yang-Mills) ont été élaborées sur le modèle de la RG d'Einstein. Le cadre ambiant est l'espace-temps de Minkowski classique R1,3 [avec métrique c²dt² - (dx² + dy² + dz²) "du genre temps", c'est-à-dire, positive pour des vitesses =< c]. Les symétries externes sont donc représentées par :
- le groupe des rotations SO(3,1) de Lorentz, qui se subdivise en un sous-groupe SOs(3) des rotations spatiales et un sous-groupe SOst(3) des rotations spatio-temporelles ; on dénombre 3 angles de rotation dans chaque sous-groupe, ce qui fait 6 angles de rotation pour R1,3 [SO(3,1) = SOs(3) xc SOst(3)] ; du point de vue topologique, les deux sous-groupes sont compactes (ils sont équivalents à des sphères), mais pas le groupe de Lorentz, la métrique spatio-temporelle étant hyperbolique ;
- le groupe des translations T(3,1), qui représente les translations dans l'espace et dans le temps et qui possède donc 4 paramètres réels ;
- le groupe des inversions I(3,1), qui inverse les longueurs (4 paramètres également) ;
- enfin, le groupe des "homothéties", qui dilate ou contracte les longueurs (1 seul paramètre).
L'association de SO(3,1) et de T(3,1) donne le groupe de Poincaré P(3,1) des "rotations + translations" ou "vissages" à 6 + 4 = 10 paramètres. Associé lui-même à I(3,1) et au groupe des homothéties, il donne le groupe "conforme" C(3,1) à 10 + 4 + 1 = 15 paramètres au total. C'est le plus gros groupe de symétries externes dans R1,3. Il regroupe toutes les symétries de cette nature. On appelle dimension d'un groupe le nombre total de ses paramètres.
Passons aux symétries internes. Là, ce sont assez généralement des groupes complexes (plus exactement, hermitiens).
Pour l'électrodynamique quantique (QED), c'est U(1), le groupe des "rotations" de C, c'est-à-dire, de la forme eia, où a est une phase. Comme eia = cos(a) + isin(a), ce groupe est équivalent au groupe des rotations du plan réel R2 : si (x0,x1) est une coordonnée sur R2, une rotation des axes d'un angle a les fait passer en,
(1) x'0 = x0cos(a) + x1sin(a) , x'1 = -x0sin(a) + x1cos(a)
On remarque qu'en vertu de l'identité cos²(.) + sin²(.) = 1 :
(2) (x'0)² + (x'1)² = (x0)² + (x1)²
C'est bien ce que traduit le principe d'invariance de jauge (ici, "de 1ère espèce") : une rotation n'affecte pas la métrique, ce qui veut dire que je peux définir mes coordonnées (x0,x1) "à une rotation près d'angle quelconque". Vus de cette manière, une indétermination est introduite dans la description puisque, si x = x0 + ix1 est le complexe de C construit à partir des réels de R2, x* = x0 - ix1 est son conjugué et (2) traduit alors le fait que, si j'applique la transformation :
(3) x -> x' = xeia
à x, alors l'amplitude de x n'est pas affectée par l'action de U(1),
(4) |x'|² = x'x'* = xx* = |x|²
J'appelle eia le "facteur de jauge" de x. U(1) est un groupe "hermitien", parce qu'il est complexe, MAIS préserve l'amplitude de x, qui est une quantité REELLE (et jamais négative). Autrement dit, dans notre langage, U(1), le "groupe unitaire" à une seule dimension (1 seul angle) est un sous-groupe QUANTIQUE qui préserve une quantité CLASSIQUE. On l'utilise pour décrire l'interaction électromagnétique en théorie quantique parce qu'il n'y a qu'une seule sorte de charge électrique.
Ce n'est plus le cas des autres interactions.
Pour la nucléaire "faible", c'est SU(2), le groupe des rotations de C2. Ce groupe décrit l'isospin ½ du nucléon : il y a deux "charges faibles", celle du proton et celle du neutron. Elles sont à distinguer de la charge électrique, même si elles s'expriment dans la même unité (le Coulomb C). SU(2) a même dimension que SO(3), il se ramène à 3 angles de rotation réels. En tant que groupe unitaire, il est hermitien et préserve les amplitudes. On le dit "spécial unitaire" uniquement parce que la matrice de rotation y a déterminant 1 [il n'existe pas de SU(1) : dans U(1), l'amplitude de eia est toujours de 1]. Le fait que SU(2) soit de dimension (réelle) 3 a incité les physiciens à penser que l'interaction faible était véhiculée par TROIS "bosons de jauge" : 2 électriquement chargés (le W+ et le W-) et un neutre (le Z0). Contre un seul pour QED (le photon g0 - pour "gamma neutre"). Comme quoi, les symétries sont essentielles, car elles permettent de découvrir de nouvelles particules.
Dans le modèle unifié "électrofaible" de Glashow-Salam-Weinberg (GSW), qui regroupe interaction nucléaire faible et électromagnétisme, le groupe interne est SUw(2) xc U(1). On précise le "w" ("weak") parce qu'il y a des spécificités physiques. Etant donné que le produit euclidien additionne les dimensions (au contraire du tensoriel, qui les multiplie, nous le verrons plus loin), le groupe GSW possède 3 + 1 = 4 paramètres réels, soit (W+,W-,Z0,g0).
Pour l'interaction forte, c'est encore différent. Il y a DEUX modèles en un : celui des quarks, qui sont des fermions (des particules de "matière") et celui des gluons, qui sont des bosons et les vecteurs de l'interaction. Les deux modèles utilisent le même groupe spécial unitaire SU(3), mais avec ses spécificités physiques propres. Il y a SUs(3) de "saveurs" pour les quarks et SUc(3) de "couleurs" pour les gluons. Ces deux groupes ont dimension réelle 8. Ils ne sont plus assimilables à des rotations réelles. Ils ont été proposé par Gell-Mann et al pour rendre compte de la "hiérarchie hadronique" : il y a chez les "hadrons" (les particules subissant l'interaction forte) une classification en "multiplets" et même "super-multiplets" qui peut s'expliquer au moyen de 6 quarks regroupés en 3 paires et de 8 gluons vecteurs. C'est un modèle moins précis que la symétrie SU(2), mais ça reste le seul, à ce jour, qui donne des résultats satisfaisants. Les quarks porteurs de l'une des 6 "saveurs" (u,d,s,c,b,t) y interagissent en échangeant leur "couleur" (R,B,G) via les gluons, chacun porteurs de 2 "couleurs" (ou charges nucléaires fortes). Les processus sont assez complexes et les schémas d'interaction ("diagrammes de Feynman") ne sont pas toujours "convergents" (i.e. ne donnent de résultats physiques que sous certaines conditions). La faute à la constante de couplage forte, la plus importante de toutes.
Voilà pour les 3 interactions fondamentales, la 4ème étant la gravitation.
Il faut se placer dans le contexte encore actuellement admis que la RG est une théorie de l'interaction gravitationnelle et que les 3 autres n'ont pas besoin d'un cadre courbe pour comprendre le mérite qu'ont eu Chen Ning Yang et Robert Mills de s'inspirer du modèle déjà connu de Yukawa des mésons pi vecteurs de l'interaction nucléaire pour proposer une géométrisation des champs "non gravitationnels" à l'image de la gravitation einsteinienne. Au lieu de courber le cadre (ce qui avait déjà été réalisé par Einstein), ils suggérèrent de s'appuyer sur la géométrie DES GROUPES pour courber les "espaces de champs". Symétries externes, symétries internes : dans le Modèle Standard, l'espace-temps "externe" R3,1, c'est le domaine de la gravitation "classique" ; les espaces "internes" ou "iso-espaces" (isospin !), ce sont les groupes de symétries internes (plus correctement, leurs algèbres, mais elles ont même dimension).
[Pour l'anecdote, le modèle de Yukawa de l'interaction forte était, lui aussi, basé sur le groupe SU(2) plus précis que SU(3). Malheureusement, il ne rendait pas compte de la hiérarchie hadronique. Il fallut donc le remplacer.]
A partir de là, ça devient technique, on peut difficilement faire autrement. Je vais essayer d'expliquer au mieux.
Supposez que vous ayiez un ensemble de charges caractérisant un type d'interaction fondamentale. Cet ensemble forme le groupe des symétries internes de l'interaction en question. Appelons-le G. La dimension dim(G) de G représente alors le nombre total de ces charges. Pour les 3 interactions fondamentales "non gravitationnelles", G est un groupe de transformations continues (groupe de Lie) : U(1) pour l'électromagnétisme, SU(2) pour l'interaction faible et SU(3) pour la forte. A l'exception de U(1), la dimension des SU(n) est n² - 1. Donc, dans les modèles basés sur des SU(n), la dimension de l'isoespace sera n² - 1. Maintenant, les potentiels de ces 3 interactions sont tous considérés comme ayant autant de composantes EXTERNES qu'il y a de dimensions à R3,1, soit 4, le reste des composantes étant INTERNE. Comme il y a dim(G) composantes internes pour CHAQUE direction externe, on dénombre au total (produit tensoriel) 4dim(G) potentiels de champ Aia(x) dans l'espace-temps de Minkowski [i = 0,1,2,3 = indice externe ; a = 1,...,dim(G) = indice interne]. Pour U(1), on retrouve les 4 potentiels Ai(x) du champ électromagnétique de Maxwell ; pour SU(2), on a 4 x 3 = 12 potentiels nucléaires faibles [Ai1(x),Ai2(x),Ai3(x)] ; 4 x 8 = 32 potentiels "gluoniques" pour SUc(3) de couleur [Ai1(x),...,Ai8(x)].
Pour décrire la dynamique d'une l'interaction, on se tourne vers la mécanique. Dans le vide, l'interaction "pure" se propage avec une action :
(5) S = S £[A(x),F(x),x]d3xdt
à la fois minimale (principe de moindre action) et invariante sous l'action des groupes de symétries (ce principe-là d'invariance remplace l'ancienne notion "d'absolu" : une quantité physique est invariante si elle ne change pas de valeur lorsque les systèmes de coordonnées changent. En d'autres termes, il n'y a pas de "référentiel physique" spécifique - principe de relativité). Ceci n'est possible que si et seulement si la densité de lagrangien de l'interaction :
(6) £[A(x),F(x),x] = Fija(x)Fija(x)/2mu
est solution des équations de Lagrange en variables de champs Aia(x) et reste invariante sous l'action combinée du groupe SO(3,1) des rotations de Lorentz ET du groupe interne G. mu est une constante de couplage caractéristique de la capacité du vide à propager l'interaction. Les Fija(x) sont les intensités du champ. Ce sont les variations spatio-temporelles des potentiels Aia(x). Dans le cas de U(1), il n'y a pas de géométrie intéressante et les Fij(x) se réduisent simplement à ceux de Maxwell :
(7a) Fij(x) = diAj(x) - djAi(x) pour QED.
Si je les décale au moyen de la translation :
(7b) Ai(x) -> Ai(x) + dif(x)
je ne modifie pas mes intensités de champ,
(7c) Fij(x) -> Fij(x)
parce que la "matrice dérivation" didj = djdi est symétrique (que je prenne la variation dans la direction i, puis une autre dans la direction j ou que j'intervertisse les deux directions donne le même résultat).
Une transformation telle que (7b) est encore une transformation de jauge, dite "de 2nde espèce". Celles de 1ère espèce portent sur les SOURCES ; celles de 2nde espèce, sur les champs produits par ces sources.
Pour les interactions nucléaires, ce n'est plus aussi simple (faut bien trouver à s'amuser, sinon, ce serait ennuyeux...) : les groupes SU(n) sont des groupes MATRICIELS et, à ce titre, NE SONT PLUS COMMUTATIFS VIS-A-VIS DU PRODUIT MATRICIEL. A la place de (7a), je vais trouver :
(8) Fija(x) = diAja(x) - djAia(x) - KfbcaAib(x)Ajc(x)
K est une constante de couplage propre à l'interaction. Les fbca sont les constantes de structure du groupe. Et elles sont antisymétriques : fcba = -fbca. En plus des variations spatio-temporelles des potentiels, il y a un auto-couplage [les constantes de structure de U(1) sont nulles]. C'est cet auto-couplage qui traduit la géométrie de l'isoespace. Elle n'est pas sans rappeler celle de Riemann, utilisée en Relativité Générale (et c'est tout SAUF une coïncidence). Chez Riemann, la courbure de l'espace s'exprime au moyen d'une "dérivation covariante" de Lévi-Civita D(LC)i qui s'applique à des champs de vecteurs Vj(x) par :
(9a) D(LC)iVj(x) = diVj(x) + Cikj(x)Vk(x)
Le commutateur :
(9b) [D(LC)i , D(LC)j]Vk(x) = (D(LC)iD(LC)j - D(LC)jD(LC)i)Vk(x) = Rijkl(x)Vl(x)
donne alors la courbure de Riemann Rijkl(x) de l'espace en fonction des "potentiels de Christoffel" Cikj(x). Lorsque l'espace est plan, ces Cikj(x) sont partout nuls, D(LC)i se réduit à la dérivation habituelle di = d/dxi dans la direction i et (on s'en doute) Rijkl(x) = 0.
Il en va pareillement chez Yang et Mills. A la place de Lévi-Civita, on trouve une dérivation covariante de la forme :
(10a) D(YM)i = di - i(q/h)Ai(x)
Le '"i" de i(q/h) est l'unité imaginaire. q est une charge. Les potentiels Ai(x) sont MATRICIELS, à l'instar des Cikj(x) de Christoffel vis-à-vis du groupe externe SO(3,1) : si les Xa représentent les générateurs du groupe interne G, Aia(x) = Aiab(x)Xb. On retrouve une configuration géométrique similaire. Si j'applique le commutateur (9b) à (10a), j'obtiens ni plus ni moins que (8) avec K = i(q/h) :
(10b) [D(YM)i , D(YM)j] = -i(q/h)Fija(x)Xa
Cette dérivation covariante de Yang-Mills ne s'applique plus à des champs de vecteurs dans l'espace-temps classique de Minkowski, mais à des champs de particules fa(x) à dim(G) composantes. Ces champs-là ne sont plus réels, comme en RG classique, mais complexes : ce sont des paquets d'ondes. Si je les couple à l'interaction, ils me donnent :
D(YM)ifa(x) = difa(x) - i(q/h)Aiab(x)fb(x)
On reconnait bien le produit matriciel Aiab(x)fb(x). Si je leur applique une transformation de jauge de 1ère espèce,
fa(x) -> Uab(x)fb(x) = exp[iUPSab(x)]fb(x),
D(YM)ifa(x) -> exp[iUPSab(x)]difb(x) + ifb(x)diUPSac(x)exp[iUPScb(x)]
- i(q/h)Aiab(x)exp[iUPSbc(x)]fc(x)
Si j'applique une transformation de jauge de 2nde espèce aux Aiab(x) :
Aiab(x) -> Aiab(x) + diwab(x),
D(YM)ifa(x) -> exp[iUPSab(x)]difb(x) + ifb(x)diUPSac(x)exp[iUPScb(x)]
- i(q/h)exp[iUPSbc(x)][Aiab(x)fc(x) + fc(x)diwab(x)]
Aussi, en prenant :
(10c) UPSab(x) = (q/h)wab(x)
j'ai
D(YM)ifa(x) -> exp[iUPSab(x)]difb(x) - i(q/h)exp[iUPScb(x)]Aiac(x)fb(x)
= exp[iUPScb(x)][Idacdi - i(q/h)Aiac(x)]fb(x)
= Uab(x)D(YM)ifb(x)
Lorsque je vais former le produit [D(YM)ifa(x)][D(YM)jfb(x)]*, il va se transformer en :
[D(YM)ifa(x)][D(YM)jfb(x)]* -> Uac(x)[Ubd(x)]*[D(YM)ifc(x)][D(YM)jfd(x)]*
Si je contracte "extérieurement" par g(0)ij et "intérieurement" par Idab, j'obtiens le scalaire hermitien :
g(0)ijIdab[D(YM)ifa(x)][D(YM)jfb(x)]* = [D(YM)ifa(x)][D(YM)ifa(x)]*
qui va se transformer en,
g(0)ijIdabUac(x)[Ubd(x)]*[D(YM)ifc(x)][D(YM)jfd(x)]* =
= Uac(x)[Uad(x)]*[D(YM)ifc(x)][D(YM)ifd(x)]*
Cette expression sera égale à [D(YM)ifa(x)][D(YM)ifa(x)]* pour :
(10d) Uac(x)[Uad(x)]* = Idcd
autrement dit, lorsque le conjugué de U(x) sera aussi son inverse. Or, c'est précisément ce qu'il se passe pour les groupes spéciaux unitaires. En conséquence, la combinaison des transformations de jauge de 1ère et de 2nde espèce laisse invariante la densité de lagrangien :
(10e) £[f(x),D(YM)f(x),x] = -(h²/2m)[D(YM)ifa(x)][D(YM)ifa(x)]*
Les composantes du champ de particules comme du champ d'interaction se déterminent à une phase MATRICIELLE près.
Il y a une analogie plus que frappante entre les champs de particules fa(x) et des champs de vecteurs Vi(x) dans R3,1, ainsi qu'entre les potentiels d'interaction Aiab(x) et les champs de Christoffel Cijk(x) de la RG et pour cause :
LA RELATIVITE GENERALE EST UNE THEORIE DE YANG-MILLS A GROUPE SO(3,1).
Autrement dit, YM INCLUT la RG : son contexte est "plus générale que la Relativité Générale", parce qu'il s'applique à n'importe quel groupe de symétrie, qu'il soit "externe" ou "interne". Nous en avons déjà vu un exemple lorsque j'ai proposé un modèle unifié de la gravitation et de l'électromagnétisme : les rapports (q/h)Aiab(x) et (m/h)Giab(x) sont en m-1, ce sont des champs de Christoffel. Dans B 167, le groupe était SO(p,q) pour un espace-temps de dimension D = p + q et de signature (p,q), ce qui correspond à une situation spécifique. Mais, YM ne fait pas de distinction entre "symétries externes" et "symétries internes". C'est une théorie géométrique. Elle parle de géométries COURBES construites comme des DEFORMATIONS d'espaces plans. Exactement comme la RG, exactement comme l'ensemble du programme élasticité. Dans la représentation dite "tensorielle", vous y trouverez des symétries "externes" ; dans la représentation "matricielle", des symétries "internes". En termes physiques, il devient donc possible, chez YM, de regrouper les propriétés liées aux mouvements des corps à leurs propriétés physiques. Il suffit pour cela de se donner des applications d'un espace E de dimension D dans un groupe G de dimension D'. En géométrie, on appelle cela réaliser une fibration de base E, d'espace total E xc G de dimension D + D' et de groupe structural G.
Par exemple, f : R3,1 -> U(1) réalise une fibration, de base l'espace-temps de Minkowski, dans le groupe de QED. Ce groupe étant de dimension 1, l'espace total de la fibration est de dimension 5 : 4 ddls "externes" xi, 1 ddl "interne" (la phase). Le champ f(x) est dans l'algèbre u(1) du groupe : c'est un espace de dimension 1 (f n'a qu'une seule composante). Le fait de pouvoir définir ce champ de particules à un facteur de phase près signifie que l'on peut même se limiter à son amplitude. En TQRC, cette amplitude, c'est la racine carrée de la probabilité de présence d'une particule du champ au point x de l'espace-temps.
Un peu plus généralement, pour un groupe structural SU(n), le champ f aura n² - 1 composantes et il y aura 4 + (n² - 1) = n² + 3 degrés de liberté.
Ce n'est qu'une question de langage... :) Il y a celui des physiciens et celui des géomètres. Pour décrire les mêmes objets.
Ensuite, il s'agit de représentation des groupes. Si vous représentez le champ de Christoffel d'après ses projections sur les axes de R3,1, vous obtenez la représentation tensorielle Cijk(x). Si vous le représentez vis-à-vis du groupe de Lorentz, vous l'écrivez sous la forme Ciab(x) qui est une "matrice de champs vectoriels Ci(x)". La matrice en question sera relative au groupe des rotations SO(3,1) de l'espace-temps 4D. C'est le même objet qui apparaît sous des formes différentes. Mais ça permet de NE PAS se limiter à un seul groupe de symétrie.
Aussi, ce que nous venons d'établir, l'invariance de jauge des densités de lagrangiens (et donc, des actions) vis-à-vis des transformations de 1ère et de 2nde espèce s'applique tout autant à la Relativité Générale...
Avec, toutefois, une "petite" différence. La théorie de la gravitation telle que proposée par Einstein se fondait sur l'axiome géométrique de Riemann qui dit que, dans un voisinage infinitésimal autour de chaque point, il est toujours possible de trouver un système de coordonnées dans lequel l'espace apparaît PLAN. Einstein a utilisé cet axiome pour traduire l'idée que la gravitation n'était pas une véritable force, mais une PSEUDO-force : un simple effet inertiel, géométrique, qui pouvait s'effacer dans un référentiel physique dit "galiléen". Mais l'axiome de Riemann N'EST PAS le seul axiome de la géométrie : comme il existait préalablement les axiomes de Gauss et de Lobatchevski, il existe AUSSI celui de Grassmann. L'axiome de Gauss concerne les géométries elliptiques ; celui de Lobatchevski, les géométries hyperboliques. L'axiome de Riemann, lui, implique la SYMETRIE Cjik(x) = Cijk(x) sur les champs de Christoffel. Cette condition DISPARAIT dans les représentations matricielles Ciab(x) : elle n'a plus rien "d'indispensable". Au contraire, elle s'avère plutôt contraignante. Surtout vis-à-vis de groupes DE SPIN, qui sont typiquement grassmanniens. C'est pourquoi les théoriciens de la supersymétrie, qui ont cherché à rassembler "matière fermionique" et "rayonnement bosonique" dans un même cadre qui serait dès lors DEPOURVUS DE SOURCES, ont pris leurs distances avec l'axiome de Riemann pour inclure le cas de champs de Christoffel ANTI-symétriques Cjik(x) = -Cijk(x), ce qui implique que les espaces-temps se "tordent", i.e. qu'ils font une différence entre "gauche" et "droite" : parce que les spins demi-entiers "se reflètent dans le miroir", au contraire des spins entiers. On a donc débouché sur les géométries COMPLEXES, métrique de Kähler, etc.
Vous avez PLETHORE de tentatives d'unification : des interactions fondamentales, de la matière. Je ne retiendrais que les 3 principales : les modèles supersymétriques, les supercordes (qui sont des cordes supersymétriques) et le modèle de Coleman-Glashow basé sur le groupe SU(5) à 24 dimensions. Pourquoi celui-ci en particulier ? Parce qu'une décomposition possible (ce n'est pas la seule) de SU(5) est :
SU(5) = SUc(3) xc SUs(3) xc SUw(2) xc U(1) xc Spin(1)
C'est une théorie "de grande unification" (GUT - pas de gravitation) : QCD (interaction forte) + GSW (électrofaible) + spin ½ (fermions élémentaires). Rassemblés dans un même groupe de symétrie.
Voilà, résumé du mieux que j'ai pu trouver, les raisons qui nous ont amenées à la géométrie COMPLEXE : parce que c'est le cadre adapté au quantique et qu'on y retrouve automatiquement Yang-Mills et la supersymétrie. Si vous remplacez R3,1 par C3,1 et le groupe de Lorentz SOR(3,1) par son complexifié SOC(3,1), groupe des rotations dans l'espace-temps de Minkowski QUANTIQUE, vous obtenez immédiatement une fibration :
(11) F : C3,1 -> SOC(3,1)
xm = x0m + ix1m -> Fa(xm) = F0a(x0m,x1m) + iF1a(x0m,x1m)
et une dérivation de Yang-Mills à groupe SOC(3,1) sur ce fibré,
(12a) DiFa(xm) = [Idbadi + Ciba(xm)]Fb(xm)
= (DiFa)0(x0m,x1m) + i(DiFa)1(x0m,x1m)
(12b) (DiFa)0 = (Idbad0i + C0iba)F0b + (Idbad1i - C1iba)F1b
(12c) (DiFa)1 = (Idbad0i + C0iba)F1b - (Idbad1i - C1iba)F0b
L'alternance de signe devant les composantes réelles résulte tout naturellement de ce que i² = -1.
Contrairement à Riemann, chez Yang-Mills, IL N'Y A PLUS nécessité de trouver des potentiels "plus fondamentaux" que les Ciba(xm) de Christoffel, qui en dériveraient par variation dans la base : les potentiels interactifs SONT représentés par les Ciba(xm). Qu'ils se transforment comme des tenseurs ou pas N'A PLUS D'IMPORTANCE : de toute façon, ils se transforment comme des holeurs plus généraux... Ce sont les règles du calcul tensoriel qui sont trop exigeantes, comme l'est le produit matriciel, c'est tout.
Une autre histoire de simple langage est que, dans la représentation tensorielle, les commutateurs (9b) et (10b) sont appelés "crochets de Schouten" et, dans la représentation de groupe, "crochets de Lie". Dans les deux cas, ils vont donner les intensités de champ interactif :
(13a) [Di,Dj]-Fa = (Rijba - IdbaSijkDk)Fb
où l'on reconnait la courbure de Riemann, cette fois, DU FIBRé (celle de la base étant nulle),
(13b) Rijba = diCjba - djCiba + CicaCjbc - CjcaCibc
et où l'on voit apparaître un "tenseur torsion",
(13c) Sijk = Cijk - Cjik
qu'il est possible, par conversion, de relier aux constantes de structure du groupe (qui, je le rappelle, sont bien ANTI-symétriques : fbac = -fabc).
C'est cette "torsion" (qui n'a rien à voir avec la torsion géodésique d'un espace riemannien) qui est utilisée en super-symétrie pour incorporer la "matière fermionique" au rayonnement. Chez Yang-Mills, on voit bien qu'elle n'est pas spécifique aux spins demi-entiers, mais qu'elle est en relation directe avec les groupes de symétries. SI ces groupes sont des Spin(2s) avec 2s impair, ALORS Sijk est associée à des spineurs. SINON, les seuls groupes de Lie qui n'induisent pas de torsion sont SOR(2) et U(1). Tous les autres ont des constantes de structure non nulles, provoquant de la torsion.
Vous voyez donc à quel point l'axiome de Riemann se révèle LIMITé, dès que l'on passe de la représentation tensorielle à une représentation de groupe : même ses propres groupes de symétries ont des constantes de structure dès la dimension réelle 3 et complexe 2. Localement, les espaces courbes peuvent bel et bien être ramenés à des "plans microscopiques" MAIS en y distinguant généralement la direction "droite" de la direction "gauche" : il y a une RUPTURE DE SYMETRIE qui se produit quasi-systématiquement chez Yang-Mills et qui est absente chez Riemann. Elle n'est pas forcément due aux charges que portent les corps (masses incluses), elle est également produites par leurs mouvements.
Eh bien, toutes ces "complications" supplémentaires s'expliquent très simplement dans le contexte quantique par la CONJUGAISON COMPLEXE xm = x0m + ix1m <-> (xm)* = x0m - ix1m : si la partie "réelle" x0m d'une quantité complexe QUELCONQUE n'est pas affectée par l'opération du fait que cos(.) est une fonction paire (= "à parité P = +1" en langage de physicien), la partie "imaginaire" x1m est CHANGEE DE SIGNE car sin(.) est une fonction IMPAIRE (P = -1). En d'autres termes, cos(.) est SYMETRIQUE, alors que sin(.) est ANTISYMETRIQUE. Par conséquent, cos(.) est en relation avec l'axiome DE RIEMANN et sin(.) avec celui DE GRASSMANN. Soit encore, de manière équivalente, cos(.) avec les spins ENTIERS et sin(.), avec les DEMI-ENTIERS. C'est le fait que la mécanique quantique IMPOSE de ne plus se limiter aux parties réelles des grandeurs, mais de prendre aussi leurs parties imaginaires sur le même pied d'égalité qui introduit de la "torsion", une "SYMETRIE MIROIR", dans les espaces(-temps).
Si vous raisonnez "quantique", vous n'avez PLUS cette brisure de symétrie, vous trouvez, au contraire, une NOUVELLE SYMETRIE qui est la conjugaison complexe.
Originellement, le phénomène de brisure (spontanée) de symétrie est de nature thermodynamique : au-dessus d'une température critique, un milieu physique présente une certaine symétrie, qui est "brisée" lorsque la température baisse en dessous de cette valeur critique. Mais, chez Yang-Mills, elle s'avère tout autant MECANIQUE : nous n'avons introduit aucun paramètre thermodynamique dans la description et, pourtant, la brisure SPONTANEE de symétrie est OMNI-présente. Elle a donc une toute autre signification : mécaniquement, elle indique que le cadre dans lequel on s'est placé EST TROP RESTREINT et qu'il faut en sortir.
La brisure MECANIQUE de symétrie n'est due qu'au fait que l'on décompose une géométrie COMPLEXE en ses composantes REELLES. C'est pour cette raison que la symétrie miroir est caractéristique des géométries hermitiennes : parce que leurs propriétés métriques y sont REELLES... :) Si vous vous placez dans des espaces métrisables COMPLEXES, vous n'avez plus ce problème... En revanche, il vous faut travailler avec des actions COMPLEXES. C'est normal : vous êtes quantiques... tout est complexifié, tout a une phase, tout est "paquet d'ondes", les cadres supports (même plans), les champs, les groupes, tout.
Si vous complexifiez une action s(x), que vous donne la dualité onde-corpuscule ? Une exponentielle exp[s(x)/h]. Si vous DECOMPOSEZ votre action en ses composantes réelles, alors :
exp[s(x)/h] = exp[s0(x0,x1)/h]exp[is1(x0,x1)/h]
Vous retrouvez le facteur de phase exp[is1(x0,x1)/h] de l'analogie opto-mécanique, parce que s1(x0,x1) est une action classique dans un espace(-temps) classique de dimension dédoublée, mais vous trouvez en même temps une AMPLITUDE exp[s0(x0,x1)/h] toujours >= 1, là encore, parce que s0(x0,x1) est une action classique complémentaire.
Du point de vue quantique, vous n'avez QUE exp[s(x)/h], AVEC une symétrie {exp[s(x)/h]}* = exp{[s(x)]*/h}, alors que, du point de vue classique, vous avez une RUPTURE DE LA SYMETRIE DES RÔLES ATTRIBUéS A s0(x0,x1) et à s1(x0,x1) : la première se retrouve dans le facteur D'AMPLIFICATION ; la seconde, dans le facteur DE PHASE.
La notion de symétrie est devenue centrale en physique depuis le théorème d'Emmy Noether, qui lie une symétrie à une loi de conservation (invariance par translation temporelle => conservation de l'énergie ; par translation spatiale => de la quantité de mouvement ; par rotation => du moment cinétique et du spin, etc.). On distingue deux grandes catégories de symétries : les externes, qui portent sur les translations, les rotations, les inversions et les changements d'échelle (les "homothéties") et les internes, qui concernent les propriétés physiques des corps, indépendamment de leurs mouvements (masse, charge électrique, étrangeté, charge "de couleur", "saveurs",...). Ce qui pourrait "faciliter" l'unification, c'est le constat que bon nombre de ces symétries internes imitent le spin. C'est pour cette raison qu'a été inventé "l'isospin". Par exemple, le proton et le neutron ne se distingue nettement que par leur charge électrique : à des corrections de nature électromagnétique dites "radiatives" près, ils ont sensiblement même masse et peuvent donc être regroupés en une seule particule appelée "nucléon". Cette particule a isospin ½, traduisant le fait que le nucléon se présente sous DEUX "états quantiques" ou "configurations internes", le proton et le neutron. Cet isospin ½ présente les mêmes propriétés mathématiques que le spin : il s'associe de la même manière, se transforme de la même manière.
Preuve supplémentaire que le nombre quantique de spin, même s'il s'exprime en unité d'action (Js) N'EST PAS, à proprement parler, un véritable moment cinétique, mais une quantité exprimant le nombre total d'états de configuration d'un système quantique.
Les théories "de jauge" (ou de Yang-Mills) ont été élaborées sur le modèle de la RG d'Einstein. Le cadre ambiant est l'espace-temps de Minkowski classique R1,3 [avec métrique c²dt² - (dx² + dy² + dz²) "du genre temps", c'est-à-dire, positive pour des vitesses =< c]. Les symétries externes sont donc représentées par :
- le groupe des rotations SO(3,1) de Lorentz, qui se subdivise en un sous-groupe SOs(3) des rotations spatiales et un sous-groupe SOst(3) des rotations spatio-temporelles ; on dénombre 3 angles de rotation dans chaque sous-groupe, ce qui fait 6 angles de rotation pour R1,3 [SO(3,1) = SOs(3) xc SOst(3)] ; du point de vue topologique, les deux sous-groupes sont compactes (ils sont équivalents à des sphères), mais pas le groupe de Lorentz, la métrique spatio-temporelle étant hyperbolique ;
- le groupe des translations T(3,1), qui représente les translations dans l'espace et dans le temps et qui possède donc 4 paramètres réels ;
- le groupe des inversions I(3,1), qui inverse les longueurs (4 paramètres également) ;
- enfin, le groupe des "homothéties", qui dilate ou contracte les longueurs (1 seul paramètre).
L'association de SO(3,1) et de T(3,1) donne le groupe de Poincaré P(3,1) des "rotations + translations" ou "vissages" à 6 + 4 = 10 paramètres. Associé lui-même à I(3,1) et au groupe des homothéties, il donne le groupe "conforme" C(3,1) à 10 + 4 + 1 = 15 paramètres au total. C'est le plus gros groupe de symétries externes dans R1,3. Il regroupe toutes les symétries de cette nature. On appelle dimension d'un groupe le nombre total de ses paramètres.
Passons aux symétries internes. Là, ce sont assez généralement des groupes complexes (plus exactement, hermitiens).
Pour l'électrodynamique quantique (QED), c'est U(1), le groupe des "rotations" de C, c'est-à-dire, de la forme eia, où a est une phase. Comme eia = cos(a) + isin(a), ce groupe est équivalent au groupe des rotations du plan réel R2 : si (x0,x1) est une coordonnée sur R2, une rotation des axes d'un angle a les fait passer en,
(1) x'0 = x0cos(a) + x1sin(a) , x'1 = -x0sin(a) + x1cos(a)
On remarque qu'en vertu de l'identité cos²(.) + sin²(.) = 1 :
(2) (x'0)² + (x'1)² = (x0)² + (x1)²
C'est bien ce que traduit le principe d'invariance de jauge (ici, "de 1ère espèce") : une rotation n'affecte pas la métrique, ce qui veut dire que je peux définir mes coordonnées (x0,x1) "à une rotation près d'angle quelconque". Vus de cette manière, une indétermination est introduite dans la description puisque, si x = x0 + ix1 est le complexe de C construit à partir des réels de R2, x* = x0 - ix1 est son conjugué et (2) traduit alors le fait que, si j'applique la transformation :
(3) x -> x' = xeia
à x, alors l'amplitude de x n'est pas affectée par l'action de U(1),
(4) |x'|² = x'x'* = xx* = |x|²
J'appelle eia le "facteur de jauge" de x. U(1) est un groupe "hermitien", parce qu'il est complexe, MAIS préserve l'amplitude de x, qui est une quantité REELLE (et jamais négative). Autrement dit, dans notre langage, U(1), le "groupe unitaire" à une seule dimension (1 seul angle) est un sous-groupe QUANTIQUE qui préserve une quantité CLASSIQUE. On l'utilise pour décrire l'interaction électromagnétique en théorie quantique parce qu'il n'y a qu'une seule sorte de charge électrique.
Ce n'est plus le cas des autres interactions.
Pour la nucléaire "faible", c'est SU(2), le groupe des rotations de C2. Ce groupe décrit l'isospin ½ du nucléon : il y a deux "charges faibles", celle du proton et celle du neutron. Elles sont à distinguer de la charge électrique, même si elles s'expriment dans la même unité (le Coulomb C). SU(2) a même dimension que SO(3), il se ramène à 3 angles de rotation réels. En tant que groupe unitaire, il est hermitien et préserve les amplitudes. On le dit "spécial unitaire" uniquement parce que la matrice de rotation y a déterminant 1 [il n'existe pas de SU(1) : dans U(1), l'amplitude de eia est toujours de 1]. Le fait que SU(2) soit de dimension (réelle) 3 a incité les physiciens à penser que l'interaction faible était véhiculée par TROIS "bosons de jauge" : 2 électriquement chargés (le W+ et le W-) et un neutre (le Z0). Contre un seul pour QED (le photon g0 - pour "gamma neutre"). Comme quoi, les symétries sont essentielles, car elles permettent de découvrir de nouvelles particules.
Dans le modèle unifié "électrofaible" de Glashow-Salam-Weinberg (GSW), qui regroupe interaction nucléaire faible et électromagnétisme, le groupe interne est SUw(2) xc U(1). On précise le "w" ("weak") parce qu'il y a des spécificités physiques. Etant donné que le produit euclidien additionne les dimensions (au contraire du tensoriel, qui les multiplie, nous le verrons plus loin), le groupe GSW possède 3 + 1 = 4 paramètres réels, soit (W+,W-,Z0,g0).
Pour l'interaction forte, c'est encore différent. Il y a DEUX modèles en un : celui des quarks, qui sont des fermions (des particules de "matière") et celui des gluons, qui sont des bosons et les vecteurs de l'interaction. Les deux modèles utilisent le même groupe spécial unitaire SU(3), mais avec ses spécificités physiques propres. Il y a SUs(3) de "saveurs" pour les quarks et SUc(3) de "couleurs" pour les gluons. Ces deux groupes ont dimension réelle 8. Ils ne sont plus assimilables à des rotations réelles. Ils ont été proposé par Gell-Mann et al pour rendre compte de la "hiérarchie hadronique" : il y a chez les "hadrons" (les particules subissant l'interaction forte) une classification en "multiplets" et même "super-multiplets" qui peut s'expliquer au moyen de 6 quarks regroupés en 3 paires et de 8 gluons vecteurs. C'est un modèle moins précis que la symétrie SU(2), mais ça reste le seul, à ce jour, qui donne des résultats satisfaisants. Les quarks porteurs de l'une des 6 "saveurs" (u,d,s,c,b,t) y interagissent en échangeant leur "couleur" (R,B,G) via les gluons, chacun porteurs de 2 "couleurs" (ou charges nucléaires fortes). Les processus sont assez complexes et les schémas d'interaction ("diagrammes de Feynman") ne sont pas toujours "convergents" (i.e. ne donnent de résultats physiques que sous certaines conditions). La faute à la constante de couplage forte, la plus importante de toutes.
Voilà pour les 3 interactions fondamentales, la 4ème étant la gravitation.
Il faut se placer dans le contexte encore actuellement admis que la RG est une théorie de l'interaction gravitationnelle et que les 3 autres n'ont pas besoin d'un cadre courbe pour comprendre le mérite qu'ont eu Chen Ning Yang et Robert Mills de s'inspirer du modèle déjà connu de Yukawa des mésons pi vecteurs de l'interaction nucléaire pour proposer une géométrisation des champs "non gravitationnels" à l'image de la gravitation einsteinienne. Au lieu de courber le cadre (ce qui avait déjà été réalisé par Einstein), ils suggérèrent de s'appuyer sur la géométrie DES GROUPES pour courber les "espaces de champs". Symétries externes, symétries internes : dans le Modèle Standard, l'espace-temps "externe" R3,1, c'est le domaine de la gravitation "classique" ; les espaces "internes" ou "iso-espaces" (isospin !), ce sont les groupes de symétries internes (plus correctement, leurs algèbres, mais elles ont même dimension).
[Pour l'anecdote, le modèle de Yukawa de l'interaction forte était, lui aussi, basé sur le groupe SU(2) plus précis que SU(3). Malheureusement, il ne rendait pas compte de la hiérarchie hadronique. Il fallut donc le remplacer.]
A partir de là, ça devient technique, on peut difficilement faire autrement. Je vais essayer d'expliquer au mieux.
Supposez que vous ayiez un ensemble de charges caractérisant un type d'interaction fondamentale. Cet ensemble forme le groupe des symétries internes de l'interaction en question. Appelons-le G. La dimension dim(G) de G représente alors le nombre total de ces charges. Pour les 3 interactions fondamentales "non gravitationnelles", G est un groupe de transformations continues (groupe de Lie) : U(1) pour l'électromagnétisme, SU(2) pour l'interaction faible et SU(3) pour la forte. A l'exception de U(1), la dimension des SU(n) est n² - 1. Donc, dans les modèles basés sur des SU(n), la dimension de l'isoespace sera n² - 1. Maintenant, les potentiels de ces 3 interactions sont tous considérés comme ayant autant de composantes EXTERNES qu'il y a de dimensions à R3,1, soit 4, le reste des composantes étant INTERNE. Comme il y a dim(G) composantes internes pour CHAQUE direction externe, on dénombre au total (produit tensoriel) 4dim(G) potentiels de champ Aia(x) dans l'espace-temps de Minkowski [i = 0,1,2,3 = indice externe ; a = 1,...,dim(G) = indice interne]. Pour U(1), on retrouve les 4 potentiels Ai(x) du champ électromagnétique de Maxwell ; pour SU(2), on a 4 x 3 = 12 potentiels nucléaires faibles [Ai1(x),Ai2(x),Ai3(x)] ; 4 x 8 = 32 potentiels "gluoniques" pour SUc(3) de couleur [Ai1(x),...,Ai8(x)].
Pour décrire la dynamique d'une l'interaction, on se tourne vers la mécanique. Dans le vide, l'interaction "pure" se propage avec une action :
(5) S = S £[A(x),F(x),x]d3xdt
à la fois minimale (principe de moindre action) et invariante sous l'action des groupes de symétries (ce principe-là d'invariance remplace l'ancienne notion "d'absolu" : une quantité physique est invariante si elle ne change pas de valeur lorsque les systèmes de coordonnées changent. En d'autres termes, il n'y a pas de "référentiel physique" spécifique - principe de relativité). Ceci n'est possible que si et seulement si la densité de lagrangien de l'interaction :
(6) £[A(x),F(x),x] = Fija(x)Fija(x)/2mu
est solution des équations de Lagrange en variables de champs Aia(x) et reste invariante sous l'action combinée du groupe SO(3,1) des rotations de Lorentz ET du groupe interne G. mu est une constante de couplage caractéristique de la capacité du vide à propager l'interaction. Les Fija(x) sont les intensités du champ. Ce sont les variations spatio-temporelles des potentiels Aia(x). Dans le cas de U(1), il n'y a pas de géométrie intéressante et les Fij(x) se réduisent simplement à ceux de Maxwell :
(7a) Fij(x) = diAj(x) - djAi(x) pour QED.
Si je les décale au moyen de la translation :
(7b) Ai(x) -> Ai(x) + dif(x)
je ne modifie pas mes intensités de champ,
(7c) Fij(x) -> Fij(x)
parce que la "matrice dérivation" didj = djdi est symétrique (que je prenne la variation dans la direction i, puis une autre dans la direction j ou que j'intervertisse les deux directions donne le même résultat).
Une transformation telle que (7b) est encore une transformation de jauge, dite "de 2nde espèce". Celles de 1ère espèce portent sur les SOURCES ; celles de 2nde espèce, sur les champs produits par ces sources.
Pour les interactions nucléaires, ce n'est plus aussi simple (faut bien trouver à s'amuser, sinon, ce serait ennuyeux...) : les groupes SU(n) sont des groupes MATRICIELS et, à ce titre, NE SONT PLUS COMMUTATIFS VIS-A-VIS DU PRODUIT MATRICIEL. A la place de (7a), je vais trouver :
(8) Fija(x) = diAja(x) - djAia(x) - KfbcaAib(x)Ajc(x)
K est une constante de couplage propre à l'interaction. Les fbca sont les constantes de structure du groupe. Et elles sont antisymétriques : fcba = -fbca. En plus des variations spatio-temporelles des potentiels, il y a un auto-couplage [les constantes de structure de U(1) sont nulles]. C'est cet auto-couplage qui traduit la géométrie de l'isoespace. Elle n'est pas sans rappeler celle de Riemann, utilisée en Relativité Générale (et c'est tout SAUF une coïncidence). Chez Riemann, la courbure de l'espace s'exprime au moyen d'une "dérivation covariante" de Lévi-Civita D(LC)i qui s'applique à des champs de vecteurs Vj(x) par :
(9a) D(LC)iVj(x) = diVj(x) + Cikj(x)Vk(x)
Le commutateur :
(9b) [D(LC)i , D(LC)j]Vk(x) = (D(LC)iD(LC)j - D(LC)jD(LC)i)Vk(x) = Rijkl(x)Vl(x)
donne alors la courbure de Riemann Rijkl(x) de l'espace en fonction des "potentiels de Christoffel" Cikj(x). Lorsque l'espace est plan, ces Cikj(x) sont partout nuls, D(LC)i se réduit à la dérivation habituelle di = d/dxi dans la direction i et (on s'en doute) Rijkl(x) = 0.
Il en va pareillement chez Yang et Mills. A la place de Lévi-Civita, on trouve une dérivation covariante de la forme :
(10a) D(YM)i = di - i(q/
Le '"i" de i(q/
(10b) [D(YM)i , D(YM)j] = -i(q/
Cette dérivation covariante de Yang-Mills ne s'applique plus à des champs de vecteurs dans l'espace-temps classique de Minkowski, mais à des champs de particules fa(x) à dim(G) composantes. Ces champs-là ne sont plus réels, comme en RG classique, mais complexes : ce sont des paquets d'ondes. Si je les couple à l'interaction, ils me donnent :
D(YM)ifa(x) = difa(x) - i(q/
On reconnait bien le produit matriciel Aiab(x)fb(x). Si je leur applique une transformation de jauge de 1ère espèce,
fa(x) -> Uab(x)fb(x) = exp[iUPSab(x)]fb(x),
D(YM)ifa(x) -> exp[iUPSab(x)]difb(x) + ifb(x)diUPSac(x)exp[iUPScb(x)]
- i(q/
Si j'applique une transformation de jauge de 2nde espèce aux Aiab(x) :
Aiab(x) -> Aiab(x) + diwab(x),
D(YM)ifa(x) -> exp[iUPSab(x)]difb(x) + ifb(x)diUPSac(x)exp[iUPScb(x)]
- i(q/
Aussi, en prenant :
(10c) UPSab(x) = (q/
j'ai
D(YM)ifa(x) -> exp[iUPSab(x)]difb(x) - i(q/
= exp[iUPScb(x)][Idacdi - i(q/
= Uab(x)D(YM)ifb(x)
Lorsque je vais former le produit [D(YM)ifa(x)][D(YM)jfb(x)]*, il va se transformer en :
[D(YM)ifa(x)][D(YM)jfb(x)]* -> Uac(x)[Ubd(x)]*[D(YM)ifc(x)][D(YM)jfd(x)]*
Si je contracte "extérieurement" par g(0)ij et "intérieurement" par Idab, j'obtiens le scalaire hermitien :
g(0)ijIdab[D(YM)ifa(x)][D(YM)jfb(x)]* = [D(YM)ifa(x)][D(YM)ifa(x)]*
qui va se transformer en,
g(0)ijIdabUac(x)[Ubd(x)]*[D(YM)ifc(x)][D(YM)jfd(x)]* =
= Uac(x)[Uad(x)]*[D(YM)ifc(x)][D(YM)ifd(x)]*
Cette expression sera égale à [D(YM)ifa(x)][D(YM)ifa(x)]* pour :
(10d) Uac(x)[Uad(x)]* = Idcd
autrement dit, lorsque le conjugué de U(x) sera aussi son inverse. Or, c'est précisément ce qu'il se passe pour les groupes spéciaux unitaires. En conséquence, la combinaison des transformations de jauge de 1ère et de 2nde espèce laisse invariante la densité de lagrangien :
(10e) £[f(x),D(YM)f(x),x] = -(
Les composantes du champ de particules comme du champ d'interaction se déterminent à une phase MATRICIELLE près.
Il y a une analogie plus que frappante entre les champs de particules fa(x) et des champs de vecteurs Vi(x) dans R3,1, ainsi qu'entre les potentiels d'interaction Aiab(x) et les champs de Christoffel Cijk(x) de la RG et pour cause :
LA RELATIVITE GENERALE EST UNE THEORIE DE YANG-MILLS A GROUPE SO(3,1).
Autrement dit, YM INCLUT la RG : son contexte est "plus générale que la Relativité Générale", parce qu'il s'applique à n'importe quel groupe de symétrie, qu'il soit "externe" ou "interne". Nous en avons déjà vu un exemple lorsque j'ai proposé un modèle unifié de la gravitation et de l'électromagnétisme : les rapports (q/
Par exemple, f : R3,1 -> U(1) réalise une fibration, de base l'espace-temps de Minkowski, dans le groupe de QED. Ce groupe étant de dimension 1, l'espace total de la fibration est de dimension 5 : 4 ddls "externes" xi, 1 ddl "interne" (la phase). Le champ f(x) est dans l'algèbre u(1) du groupe : c'est un espace de dimension 1 (f n'a qu'une seule composante). Le fait de pouvoir définir ce champ de particules à un facteur de phase près signifie que l'on peut même se limiter à son amplitude. En TQRC, cette amplitude, c'est la racine carrée de la probabilité de présence d'une particule du champ au point x de l'espace-temps.
Un peu plus généralement, pour un groupe structural SU(n), le champ f aura n² - 1 composantes et il y aura 4 + (n² - 1) = n² + 3 degrés de liberté.
Ce n'est qu'une question de langage... :) Il y a celui des physiciens et celui des géomètres. Pour décrire les mêmes objets.
Ensuite, il s'agit de représentation des groupes. Si vous représentez le champ de Christoffel d'après ses projections sur les axes de R3,1, vous obtenez la représentation tensorielle Cijk(x). Si vous le représentez vis-à-vis du groupe de Lorentz, vous l'écrivez sous la forme Ciab(x) qui est une "matrice de champs vectoriels Ci(x)". La matrice en question sera relative au groupe des rotations SO(3,1) de l'espace-temps 4D. C'est le même objet qui apparaît sous des formes différentes. Mais ça permet de NE PAS se limiter à un seul groupe de symétrie.
Aussi, ce que nous venons d'établir, l'invariance de jauge des densités de lagrangiens (et donc, des actions) vis-à-vis des transformations de 1ère et de 2nde espèce s'applique tout autant à la Relativité Générale...
Avec, toutefois, une "petite" différence. La théorie de la gravitation telle que proposée par Einstein se fondait sur l'axiome géométrique de Riemann qui dit que, dans un voisinage infinitésimal autour de chaque point, il est toujours possible de trouver un système de coordonnées dans lequel l'espace apparaît PLAN. Einstein a utilisé cet axiome pour traduire l'idée que la gravitation n'était pas une véritable force, mais une PSEUDO-force : un simple effet inertiel, géométrique, qui pouvait s'effacer dans un référentiel physique dit "galiléen". Mais l'axiome de Riemann N'EST PAS le seul axiome de la géométrie : comme il existait préalablement les axiomes de Gauss et de Lobatchevski, il existe AUSSI celui de Grassmann. L'axiome de Gauss concerne les géométries elliptiques ; celui de Lobatchevski, les géométries hyperboliques. L'axiome de Riemann, lui, implique la SYMETRIE Cjik(x) = Cijk(x) sur les champs de Christoffel. Cette condition DISPARAIT dans les représentations matricielles Ciab(x) : elle n'a plus rien "d'indispensable". Au contraire, elle s'avère plutôt contraignante. Surtout vis-à-vis de groupes DE SPIN, qui sont typiquement grassmanniens. C'est pourquoi les théoriciens de la supersymétrie, qui ont cherché à rassembler "matière fermionique" et "rayonnement bosonique" dans un même cadre qui serait dès lors DEPOURVUS DE SOURCES, ont pris leurs distances avec l'axiome de Riemann pour inclure le cas de champs de Christoffel ANTI-symétriques Cjik(x) = -Cijk(x), ce qui implique que les espaces-temps se "tordent", i.e. qu'ils font une différence entre "gauche" et "droite" : parce que les spins demi-entiers "se reflètent dans le miroir", au contraire des spins entiers. On a donc débouché sur les géométries COMPLEXES, métrique de Kähler, etc.
Vous avez PLETHORE de tentatives d'unification : des interactions fondamentales, de la matière. Je ne retiendrais que les 3 principales : les modèles supersymétriques, les supercordes (qui sont des cordes supersymétriques) et le modèle de Coleman-Glashow basé sur le groupe SU(5) à 24 dimensions. Pourquoi celui-ci en particulier ? Parce qu'une décomposition possible (ce n'est pas la seule) de SU(5) est :
SU(5) = SUc(3) xc SUs(3) xc SUw(2) xc U(1) xc Spin(1)
C'est une théorie "de grande unification" (GUT - pas de gravitation) : QCD (interaction forte) + GSW (électrofaible) + spin ½ (fermions élémentaires). Rassemblés dans un même groupe de symétrie.
Voilà, résumé du mieux que j'ai pu trouver, les raisons qui nous ont amenées à la géométrie COMPLEXE : parce que c'est le cadre adapté au quantique et qu'on y retrouve automatiquement Yang-Mills et la supersymétrie. Si vous remplacez R3,1 par C3,1 et le groupe de Lorentz SOR(3,1) par son complexifié SOC(3,1), groupe des rotations dans l'espace-temps de Minkowski QUANTIQUE, vous obtenez immédiatement une fibration :
(11) F : C3,1 -> SOC(3,1)
xm = x0m + ix1m -> Fa(xm) = F0a(x0m,x1m) + iF1a(x0m,x1m)
et une dérivation de Yang-Mills à groupe SOC(3,1) sur ce fibré,
(12a) DiFa(xm) = [Idbadi + Ciba(xm)]Fb(xm)
= (DiFa)0(x0m,x1m) + i(DiFa)1(x0m,x1m)
(12b) (DiFa)0 = (Idbad0i + C0iba)F0b + (Idbad1i - C1iba)F1b
(12c) (DiFa)1 = (Idbad0i + C0iba)F1b - (Idbad1i - C1iba)F0b
L'alternance de signe devant les composantes réelles résulte tout naturellement de ce que i² = -1.
Contrairement à Riemann, chez Yang-Mills, IL N'Y A PLUS nécessité de trouver des potentiels "plus fondamentaux" que les Ciba(xm) de Christoffel, qui en dériveraient par variation dans la base : les potentiels interactifs SONT représentés par les Ciba(xm). Qu'ils se transforment comme des tenseurs ou pas N'A PLUS D'IMPORTANCE : de toute façon, ils se transforment comme des holeurs plus généraux... Ce sont les règles du calcul tensoriel qui sont trop exigeantes, comme l'est le produit matriciel, c'est tout.
Une autre histoire de simple langage est que, dans la représentation tensorielle, les commutateurs (9b) et (10b) sont appelés "crochets de Schouten" et, dans la représentation de groupe, "crochets de Lie". Dans les deux cas, ils vont donner les intensités de champ interactif :
(13a) [Di,Dj]-Fa = (Rijba - IdbaSijkDk)Fb
où l'on reconnait la courbure de Riemann, cette fois, DU FIBRé (celle de la base étant nulle),
(13b) Rijba = diCjba - djCiba + CicaCjbc - CjcaCibc
et où l'on voit apparaître un "tenseur torsion",
(13c) Sijk = Cijk - Cjik
qu'il est possible, par conversion, de relier aux constantes de structure du groupe (qui, je le rappelle, sont bien ANTI-symétriques : fbac = -fabc).
C'est cette "torsion" (qui n'a rien à voir avec la torsion géodésique d'un espace riemannien) qui est utilisée en super-symétrie pour incorporer la "matière fermionique" au rayonnement. Chez Yang-Mills, on voit bien qu'elle n'est pas spécifique aux spins demi-entiers, mais qu'elle est en relation directe avec les groupes de symétries. SI ces groupes sont des Spin(2s) avec 2s impair, ALORS Sijk est associée à des spineurs. SINON, les seuls groupes de Lie qui n'induisent pas de torsion sont SOR(2) et U(1). Tous les autres ont des constantes de structure non nulles, provoquant de la torsion.
Vous voyez donc à quel point l'axiome de Riemann se révèle LIMITé, dès que l'on passe de la représentation tensorielle à une représentation de groupe : même ses propres groupes de symétries ont des constantes de structure dès la dimension réelle 3 et complexe 2. Localement, les espaces courbes peuvent bel et bien être ramenés à des "plans microscopiques" MAIS en y distinguant généralement la direction "droite" de la direction "gauche" : il y a une RUPTURE DE SYMETRIE qui se produit quasi-systématiquement chez Yang-Mills et qui est absente chez Riemann. Elle n'est pas forcément due aux charges que portent les corps (masses incluses), elle est également produites par leurs mouvements.
Eh bien, toutes ces "complications" supplémentaires s'expliquent très simplement dans le contexte quantique par la CONJUGAISON COMPLEXE xm = x0m + ix1m <-> (xm)* = x0m - ix1m : si la partie "réelle" x0m d'une quantité complexe QUELCONQUE n'est pas affectée par l'opération du fait que cos(.) est une fonction paire (= "à parité P = +1" en langage de physicien), la partie "imaginaire" x1m est CHANGEE DE SIGNE car sin(.) est une fonction IMPAIRE (P = -1). En d'autres termes, cos(.) est SYMETRIQUE, alors que sin(.) est ANTISYMETRIQUE. Par conséquent, cos(.) est en relation avec l'axiome DE RIEMANN et sin(.) avec celui DE GRASSMANN. Soit encore, de manière équivalente, cos(.) avec les spins ENTIERS et sin(.), avec les DEMI-ENTIERS. C'est le fait que la mécanique quantique IMPOSE de ne plus se limiter aux parties réelles des grandeurs, mais de prendre aussi leurs parties imaginaires sur le même pied d'égalité qui introduit de la "torsion", une "SYMETRIE MIROIR", dans les espaces(-temps).
Si vous raisonnez "quantique", vous n'avez PLUS cette brisure de symétrie, vous trouvez, au contraire, une NOUVELLE SYMETRIE qui est la conjugaison complexe.
Originellement, le phénomène de brisure (spontanée) de symétrie est de nature thermodynamique : au-dessus d'une température critique, un milieu physique présente une certaine symétrie, qui est "brisée" lorsque la température baisse en dessous de cette valeur critique. Mais, chez Yang-Mills, elle s'avère tout autant MECANIQUE : nous n'avons introduit aucun paramètre thermodynamique dans la description et, pourtant, la brisure SPONTANEE de symétrie est OMNI-présente. Elle a donc une toute autre signification : mécaniquement, elle indique que le cadre dans lequel on s'est placé EST TROP RESTREINT et qu'il faut en sortir.
La brisure MECANIQUE de symétrie n'est due qu'au fait que l'on décompose une géométrie COMPLEXE en ses composantes REELLES. C'est pour cette raison que la symétrie miroir est caractéristique des géométries hermitiennes : parce que leurs propriétés métriques y sont REELLES... :) Si vous vous placez dans des espaces métrisables COMPLEXES, vous n'avez plus ce problème... En revanche, il vous faut travailler avec des actions COMPLEXES. C'est normal : vous êtes quantiques... tout est complexifié, tout a une phase, tout est "paquet d'ondes", les cadres supports (même plans), les champs, les groupes, tout.
Si vous complexifiez une action s(x), que vous donne la dualité onde-corpuscule ? Une exponentielle exp[s(x)/
exp[s(x)/
Vous retrouvez le facteur de phase exp[is1(x0,x1)/
Du point de vue quantique, vous n'avez QUE exp[s(x)/
B 199 : QUANTIFICATION DES TRAJECTOIRES ET DES CHAMPS
Le 21/06/2024
La quantification des trajectoires et des champs est une procédure qui se fait en 3 étapes. La théorie des ensembles permet de s'y retrouver. Pour un déplacement dans l'espace 3D au cours du temps, on aura une application composite,
(1) R -> C -> R3 -> C3
qui se décompose en :
- une première quantification du temps,
(2a) T : R -> C , t -> T = T(t) = S0t exp[is(t')/h]dt'
(2b) T(t1) = T(t0) + T(t1 - t0) pour t1 > t0,
l'intégration étant une application linéaire (S0t1 = S0t0 + St0t1 = S0t0 + S0t1-t0) ;
- une extension du mouvement classique en temps QUANTIQUE,
(3) x : C -> R3 , T -> x = x(T)
et une seconde quantification de l'espace,
(4) X : R3 -> C3 , Xa = Xa(x) = S0xa exp[is(x')/h]dx'a (a = 1,2,3)
C'est le prix fixé par l'analogie opto-mécanique.
Détaillons la dynamique (3). Pour T donné par (2a), x est une fonctionnelle x[T(t)] du temps classique, qui renvoie à une fonction xt(t) = x[T(t)] de t. Ce déplacement s'effectue à la vitesse :
(5) v[T(t)] = dx[T(t)]/dT(t) = exp[-is(t)/h]dx[T(t)]/dt = exp[-is(t)/h]vt(t)
Les masses deviennent des fonctions m[T(t)] = mt(t) du temps classique. L'impulsion est :
(6) p[T(t)] = m[T(t)]v[T(t)] = exp[-is(t)/h]mt(t)vt(t) = exp[-is(t)/h]pt(t)
Les équations de mouvement s'écrivent :
(7a) dp[T(t)]/dT(t) = exp[-is(t)/h]dp[T(t)]/dt
= exp[-2is(t)/h][d/dt - (i/h)ds(t)/dt]pt(t)
= f[T(t)] = exp[-2is(t)/h]ft(t)
avec s(t), l'action classique en temps classique, d'où,
(7b) ds(t)/dt = l[x(t),dx(t)/dt,t]
Par contre, le lagrangien en temps quantique sera de la forme :
(8) lq{x[T(t)],v[T(t)],T(t)} = ½ m[T(t)]v²[T(t)] + f[T(t)].x[T(t)]
= exp[-2is(t)/h][½ mt(t)vt²(t) + ft(t).xt(t)]
= exp[-2is(t)/h]lt[xt(t),vt(t),t]
Lt étant évidemment différent de (7b) (ça se voit). Puisque T(0) = 0, l'action correspondante sera :
(9a) sq[T(t)] = S0T(t) lq{x[T'(t)],v[T'(t)],T'(t)}dT'(t)
= S0t exp[-2is(t')/h]lt[xt(t'),vt(t'),t']dt' = st(t)
(9b) sq[T(0)] = sq(0) = st(0) = 0
C'est xt = xt(t) = x[T(t)] qui vient se substituer à x dans dXa(x) = exp[is(x)/h]dx'a, donnant :
(10) Xta = Xta(xt) = S0xta exp[is(xt')/h]dxt'a
Du point de vue fonctionnel, on assiste à une encapsulation des variables :
(11) t -> T(t) -> x[T(t)] -> X{x[T(t)]}
Le temps classique est transformé en temps quantique ; le temps quantique, en distances quasi-classiques et celles-ci, en distances quantiques. En théorie des fonctions complexes de variables complexes, nous aurions simplement X(T). Mais l'analogie opto-mécanique transforme des variables en paquets d'ondes. Et nous devons tenir compte de ce fait physique. La description ne peut dès lors plus être aussi simple, elle doit porter sur des signaux fonctions d'autres signaux.
Je tiens tout de même à préciser que, s'agissant d'espaces(-temps) physiques, la contrainte est que les cadres quantiques soient de spin s et donc, de dimension classique D(s) et quantique D(s)/2 = D(s - ½), avec signature [p(s),q(s)]. Aussi, quitte à annuler des composantes de champ pour réduire leur nombre, mieux vaut travailler sur des trajectoires :
(12) R -> C -> R3,1 -> C3,1
avec des temps PROPRES t = (g(0)abxaxb)½/c et T = (g(0)abXaXb)½/c, (a,b = 0,1,2,3), d'autant plus que la quantification se moque éperduement que t soit réel ou pas, couvrant ainsi tout le domaine du mouvement physique.
Même en biophysique, il sera préférable de se placer dans le cadre (12), puis de poser, en fin de calculs, c -> +oo : c'est plus correct, les cadres physiques étant 4D, non 3D.
La quantification des champs suivra la même procédure, en partant de R3,1 au lieu de R, étant donné que l'on passe de 1 à 4 paramètres classiques. On aura une succession de liens fonctionnels :
(13) R3,1 -> C3,1 -> Rp(s'),q(s') -> Cp(s'),q's')
(x,ct) -> [X(x,ct),cT(x,ct)] -> fA1...A2s'+1[X(x,ct),cT(x,ct)] ->
-> FA1...A2s'+1{fB1...B2s'+1[X(x,ct),cT(x,ct)]}
Quantification de l'espace-temps (x,ct) -> [X(x,ct),cT(x,ct)] ; champ quasi-classique f de spin s' dans l'espace-temps quantique ; champ quantique F correspondant (donc, de même spin).
Pour la quantification de l'espace-temps, nous venons de le voir dans la bidouille précédente : on passe par une densité d'action s(x,ct). Le "point d'univers" classique (x,ct) est envoyé sur le "point d'univers" quantique (X,cT) = [X(x,ct),cT(x,ct)], lequel est transformé en des "coordonnées de champ" :
fA1...A2s'+1 = fx,ctA1...A2s'+1(x,ct) = fA1...A2s'+1[X(x,ct),cT(x,ct)]
dans un espace-temps classique de dimension 22s'+1 et signature [p(s'),q(s')]. Enfin, ces dernières sont quantifiées à leur tour en les :
FA1...A2s'+1{f0...0,...,f1...1} = S0fA1...A2s'+1 exp[is(f)/h]dfA1...A2s'+1
Par exemple, pour s' = 0, vous aurez :
fA1 = fx,ctA1(x,ct) = fA1[X(x,ct),cT(x,ct)]
FA1(f0,f1) = S0fA1 exp[is(f0,f1)/h]dfA1
Pour s' = ½ :
fA1A2 = fx,ctA1A2(x,ct) = fA1A2[X(x,ct),cT(x,ct)]
FA1A2(f00,f01,f10,f11) = S0fA1A2 exp[is(f00,f01,f10,f11)/h]dfA1A2
et ainsi de suite.
Comprenons-nous bien : toute la technique déversée dans ces bidouilles ne sert qu'à CONSTRUIRE le quantique à partir du classique, qui nous est beaucoup plus familier. EN REALITE, temps, espace, corps, champs, milieux physiques : TOUT EST QUANTIQUE. Seulement, nous ne le percevons pas dans la vie de tous les jours, nous ne percevons que le classique. Je l'avoue très simplement : je me passerais volontiers de toutes ces démonstrations techniques... Mais, en recherche scientifique, on DEMONTRE les choses, on les PROUVE, on les DECRIT.
Toutes ces grandeurs quantiques sont des quantités complexes, avec amplitude et phase. De la plus petite échelle à la plus grande, ce sont toutes des paquets d'ondes. Ils n'ont simplement pas même amplitude ni phase à toutes les échelles de description, à moins d'être invariants d'échelle, ce qui concerne les structures fractales. Si leur phase est multiple entier de pi radians, elles se réduisent à des grandeurs classiques. Si elle est multiple impair de pi/2 radians, ces quantités se ramènent encore à des grandeurs classiques mais, en quadrature de phase. C'est la seule chose qu'il faut retenir : que le classique n'est qu'une REDUCTION du quantique. On quantifie au moyen de l'analogie opto-mécanique parce qu'on a découvert le quantique que beaucoup plus tard. Si l'inverse s'était produit, on serait parti de grandeurs COMPLEXES et on en aurait DEDUIT le classique comme VALEURS PARTICULIERES DES PHASES. On n'aurait sans doute pas eu besoin de tout cet arsenal mathématique : il est beaucoup plus facile de passer d'une situation générale à des cas particuliers que de généraliser des particularités...
Je peux fort bien me limiter à décrire, disons, le temps quantique par le seul nombre complexe T = |T|eiTAU. A condition que je me mette à la place d'un observateur quantique. Si je me pose comme observateur CLASSIQUE, cette description est insuffisante, je DOIS utiliser le paquet d'ondes intégral (2a), ce qui complique considérablement les choses, vu qu'il ne s'exprime pas au moyen de fonctions élémentaires.
Le problème n'est donc pas de faire de la "mécanique quantique" : il suffirait de "copier-coller" le formalisme de Lagrange-Hamilton-Jacobi en y remplaçant toutes les grandeurs, réelles, par des homologues complexes. La difficulté est de faire ce type de mécanique du point de vue d'un observateur classique. Un observateur avec une perception REDUITE des choses, restreinte à la manifestation CORPUSCULAIRE de la matière. Pour lui, la "matière", c'est du "palpable". Mais la matière PHYSIQUE, ce n'est pas ça... Les atomes s'associent par liaisons chimiques. Ces liaisons, c'est de l'ondulatoire... C'est comme ça que se constitue sa "matière palpable" : avec de l'impalpable... :) Pour lui, le "passe-muraille", c'est de la science-fiction ; dans le monde quantique, il n'y a QUE du passe-muraille... Il n'y a PAS d'obstacle matériel. La difficulté, c'est de retrouver le paquet d'ondes initial à la sortie. Parce que la traversée d'un milieu physique le DEFORME : son amplitude n'a plus même forme et il est déphasé. Il contient la même information qu'en entrée, parce qu'il n'y a pas de viscosité, mais il n'a plus "la même tronche". Donc, vous voyez : même dans le monde quantique, il n'est pas aussi facile qu'on le penserait de "traverser des portails", il faut encore être doté de la faculté de se reconstituer sa forme d'origine en sortie...
Eh bien, ça, c'est un exemple de capacité autonome qu'on n'a pas encore observé à ce jour, parce qu'on n'a observé que de l'inerte. Les systèmes biologiques classiques atteignent des niveaux de complexité MOLECULAIRE qui leur permettent de développer des facultés d'autonomie, il en va de même (et conjointement) pour les paquets d'ondes, qui s'associent suivant les lois ondulatoires, jusqu'à développer des structures de plus en plus sophistiquées, avec des fonctions ONDULATOIRES de plus en plus compliquées, jusqu'à l'autonomie.
On sait former aujourd'hui des alliages chimiquement assez complexes qui sont isolants au-dessus de leur point de Curie et supraconducteurs en dessous, mais ils restent ridiculement simples comparés à une machinerie vivante.
Ce que nous apprend l'observation physique, c'est que le corpusculaire est INDISSOCIABLE de l'ondulatoire. La déduction me semble évidente : si le corpusculaire EVOLUE dans la complexité, il en va de même de l'ondulatoire... On aboutit donc aussi bien à une autonomie MOLECULAIRE qu'à une autonomie ONDULATOIRE... parce que le vivant se construit à partir de l'inerte et que l'inerte est QUANTIQUE par nature.
Ensuite, ce sont des comportements thermodynamiques : au-dessus du point de Curie, le "palpable" masque complètement "l'impalpable", principalement à cause de l'agitation thermique ; mais en-dessous de ce point, il n'y a plus suffisamment d'activité thermique et c'est l'impalpable qui prend le dessus.
On a le droit de croire ce qu'on veut : c'est le Libre Arbitre. Mais les gens qui ne croient pas en "la vie après la vie" (biologique) rejettent tout simplement des FAITS D'OBSERVATION PHYSIQUES...
Nous ne sommes plus dans le domaine du fantasme, plus depuis la découverte des comportements quantiques...
C'est pour ça : faire le con de son "vivant" en se disant qu'il faut en profiter parce qu'ensuite "y a plus rien"... chacun voit midi à sa porte... Nous, nous rapportons ce que nous observons. Dans nos labos, dans l'Univers.
La vie "d'après", on se la construit ICI... ce n'est pas un aboutissement, ce n'est que le point de départ. On n'est "palpable" que parce que l'on développe une activité thermique interne, qui occassionne des chocs moléculaires, qui produisent des frottements, lesquels dissipent une partie de l'énergie et se manifestent, à grande échelle, sous forme de viscosité. Baissez suffisamment l'activité thermique sans la supprimer pour autant : les échanges énergétiques se réorganisent, suivant des lois physiques différentes ; l'ondulatoire se met en cohérence et forme des motifs macroscopiques à viscosité NULLE. Plus de viscosité, plus de frottements internes, plus de dissipation d'énergie, plus d'usure mécanique ni de vieillissement : c'est le domaine du "mouvement perpétuel".
Je tiens d'ailleurs à préciser que le "choc moléculaire" n'est qu'une représentation "en sphères dures". En réalité, les molécules ne s'entrechoquent pas, parce qu'elles sont entourées par leur paquet d'ondes respectif. Ce n'est pas comme deux véhicules qui entrent en collision : elles "rebondissent" plutôt au moment de la rencontre. C'est la représentation "en sphères molles".
Seulement, il faut savoir tout ça, avant d'affirmer que, dans le trou, y a plus de son, plus d'image... Dans le trou, y a une carcasse biologique qui se décompose. Une "enveloppe". Qui continue d'obéir aux lois de la thermodynamique MOLECULAIRE (dégradation de l'énergie !). Il n'y a pas non plus de "résurrection d'entre les morts", les lois physiques ne fonctionnent pas comme ça.
La quantité de CONNERIES qu'on a pu sortir au fil des siècles pour des raisons purement POLITIQUES... :|
Pendant qu'on faisait griller les chimistes et les physiciens "non orthodoxes" sur les bûchers pour "sorcellerie"...
On en a perdu, du temps et des connaissances !... Si vous aviez le malheur de sortir des choses à contre-courant, soit des idées reçues, soit de la "bienséance auto-proclamée", c'était censure immédiate...
C'est d'ailleurs toujours le cas... lol Combien de fois je me suis fait interdire de publication pour avoir oser "critiquer le travail des maitres" ?... Si j'ai lancé ce blog... c'est pour pouvoir publier LIBREMENT... :)
Pas pour éviter les critiques. La critique et L'AUTO-critique font partie intégrante du travail du théoricien : t'as pas la science infuse...
(1) R -> C -> R3 -> C3
qui se décompose en :
- une première quantification du temps,
(2a) T : R -> C , t -> T = T(t) = S0t exp[is(t')/
(2b) T(t1) = T(t0) + T(t1 - t0) pour t1 > t0,
l'intégration étant une application linéaire (S0t1 = S0t0 + St0t1 = S0t0 + S0t1-t0) ;
- une extension du mouvement classique en temps QUANTIQUE,
(3) x : C -> R3 , T -> x = x(T)
et une seconde quantification de l'espace,
(4) X : R3 -> C3 , Xa = Xa(x) = S0xa exp[is(x')/
C'est le prix fixé par l'analogie opto-mécanique.
Détaillons la dynamique (3). Pour T donné par (2a), x est une fonctionnelle x[T(t)] du temps classique, qui renvoie à une fonction xt(t) = x[T(t)] de t. Ce déplacement s'effectue à la vitesse :
(5) v[T(t)] = dx[T(t)]/dT(t) = exp[-is(t)/
Les masses deviennent des fonctions m[T(t)] = mt(t) du temps classique. L'impulsion est :
(6) p[T(t)] = m[T(t)]v[T(t)] = exp[-is(t)/
Les équations de mouvement s'écrivent :
(7a) dp[T(t)]/dT(t) = exp[-is(t)/
= exp[-2is(t)/
= f[T(t)] = exp[-2is(t)/
avec s(t), l'action classique en temps classique, d'où,
(7b) ds(t)/dt = l[x(t),dx(t)/dt,t]
Par contre, le lagrangien en temps quantique sera de la forme :
(8) lq{x[T(t)],v[T(t)],T(t)} = ½ m[T(t)]v²[T(t)] + f[T(t)].x[T(t)]
= exp[-2is(t)/
= exp[-2is(t)/
Lt étant évidemment différent de (7b) (ça se voit). Puisque T(0) = 0, l'action correspondante sera :
(9a) sq[T(t)] = S0T(t) lq{x[T'(t)],v[T'(t)],T'(t)}dT'(t)
= S0t exp[-2is(t')/
(9b) sq[T(0)] = sq(0) = st(0) = 0
C'est xt = xt(t) = x[T(t)] qui vient se substituer à x dans dXa(x) = exp[is(x)/
(10) Xta = Xta(xt) = S0xta exp[is(xt')/
Du point de vue fonctionnel, on assiste à une encapsulation des variables :
(11) t -> T(t) -> x[T(t)] -> X{x[T(t)]}
Le temps classique est transformé en temps quantique ; le temps quantique, en distances quasi-classiques et celles-ci, en distances quantiques. En théorie des fonctions complexes de variables complexes, nous aurions simplement X(T). Mais l'analogie opto-mécanique transforme des variables en paquets d'ondes. Et nous devons tenir compte de ce fait physique. La description ne peut dès lors plus être aussi simple, elle doit porter sur des signaux fonctions d'autres signaux.
Je tiens tout de même à préciser que, s'agissant d'espaces(-temps) physiques, la contrainte est que les cadres quantiques soient de spin s et donc, de dimension classique D(s) et quantique D(s)/2 = D(s - ½), avec signature [p(s),q(s)]. Aussi, quitte à annuler des composantes de champ pour réduire leur nombre, mieux vaut travailler sur des trajectoires :
(12) R -> C -> R3,1 -> C3,1
avec des temps PROPRES t = (g(0)abxaxb)½/c et T = (g(0)abXaXb)½/c, (a,b = 0,1,2,3), d'autant plus que la quantification se moque éperduement que t soit réel ou pas, couvrant ainsi tout le domaine du mouvement physique.
Même en biophysique, il sera préférable de se placer dans le cadre (12), puis de poser, en fin de calculs, c -> +oo : c'est plus correct, les cadres physiques étant 4D, non 3D.
La quantification des champs suivra la même procédure, en partant de R3,1 au lieu de R, étant donné que l'on passe de 1 à 4 paramètres classiques. On aura une succession de liens fonctionnels :
(13) R3,1 -> C3,1 -> Rp(s'),q(s') -> Cp(s'),q's')
(x,ct) -> [X(x,ct),cT(x,ct)] -> fA1...A2s'+1[X(x,ct),cT(x,ct)] ->
-> FA1...A2s'+1{fB1...B2s'+1[X(x,ct),cT(x,ct)]}
Quantification de l'espace-temps (x,ct) -> [X(x,ct),cT(x,ct)] ; champ quasi-classique f de spin s' dans l'espace-temps quantique ; champ quantique F correspondant (donc, de même spin).
Pour la quantification de l'espace-temps, nous venons de le voir dans la bidouille précédente : on passe par une densité d'action s(x,ct). Le "point d'univers" classique (x,ct) est envoyé sur le "point d'univers" quantique (X,cT) = [X(x,ct),cT(x,ct)], lequel est transformé en des "coordonnées de champ" :
fA1...A2s'+1 = fx,ctA1...A2s'+1(x,ct) = fA1...A2s'+1[X(x,ct),cT(x,ct)]
dans un espace-temps classique de dimension 22s'+1 et signature [p(s'),q(s')]. Enfin, ces dernières sont quantifiées à leur tour en les :
FA1...A2s'+1{f0...0,...,f1...1} = S0fA1...A2s'+1 exp[is(f)/
Par exemple, pour s' = 0, vous aurez :
fA1 = fx,ctA1(x,ct) = fA1[X(x,ct),cT(x,ct)]
FA1(f0,f1) = S0fA1 exp[is(f0,f1)/
Pour s' = ½ :
fA1A2 = fx,ctA1A2(x,ct) = fA1A2[X(x,ct),cT(x,ct)]
FA1A2(f00,f01,f10,f11) = S0fA1A2 exp[is(f00,f01,f10,f11)/
et ainsi de suite.
Comprenons-nous bien : toute la technique déversée dans ces bidouilles ne sert qu'à CONSTRUIRE le quantique à partir du classique, qui nous est beaucoup plus familier. EN REALITE, temps, espace, corps, champs, milieux physiques : TOUT EST QUANTIQUE. Seulement, nous ne le percevons pas dans la vie de tous les jours, nous ne percevons que le classique. Je l'avoue très simplement : je me passerais volontiers de toutes ces démonstrations techniques... Mais, en recherche scientifique, on DEMONTRE les choses, on les PROUVE, on les DECRIT.
Toutes ces grandeurs quantiques sont des quantités complexes, avec amplitude et phase. De la plus petite échelle à la plus grande, ce sont toutes des paquets d'ondes. Ils n'ont simplement pas même amplitude ni phase à toutes les échelles de description, à moins d'être invariants d'échelle, ce qui concerne les structures fractales. Si leur phase est multiple entier de pi radians, elles se réduisent à des grandeurs classiques. Si elle est multiple impair de pi/2 radians, ces quantités se ramènent encore à des grandeurs classiques mais, en quadrature de phase. C'est la seule chose qu'il faut retenir : que le classique n'est qu'une REDUCTION du quantique. On quantifie au moyen de l'analogie opto-mécanique parce qu'on a découvert le quantique que beaucoup plus tard. Si l'inverse s'était produit, on serait parti de grandeurs COMPLEXES et on en aurait DEDUIT le classique comme VALEURS PARTICULIERES DES PHASES. On n'aurait sans doute pas eu besoin de tout cet arsenal mathématique : il est beaucoup plus facile de passer d'une situation générale à des cas particuliers que de généraliser des particularités...
Je peux fort bien me limiter à décrire, disons, le temps quantique par le seul nombre complexe T = |T|eiTAU. A condition que je me mette à la place d'un observateur quantique. Si je me pose comme observateur CLASSIQUE, cette description est insuffisante, je DOIS utiliser le paquet d'ondes intégral (2a), ce qui complique considérablement les choses, vu qu'il ne s'exprime pas au moyen de fonctions élémentaires.
Le problème n'est donc pas de faire de la "mécanique quantique" : il suffirait de "copier-coller" le formalisme de Lagrange-Hamilton-Jacobi en y remplaçant toutes les grandeurs, réelles, par des homologues complexes. La difficulté est de faire ce type de mécanique du point de vue d'un observateur classique. Un observateur avec une perception REDUITE des choses, restreinte à la manifestation CORPUSCULAIRE de la matière. Pour lui, la "matière", c'est du "palpable". Mais la matière PHYSIQUE, ce n'est pas ça... Les atomes s'associent par liaisons chimiques. Ces liaisons, c'est de l'ondulatoire... C'est comme ça que se constitue sa "matière palpable" : avec de l'impalpable... :) Pour lui, le "passe-muraille", c'est de la science-fiction ; dans le monde quantique, il n'y a QUE du passe-muraille... Il n'y a PAS d'obstacle matériel. La difficulté, c'est de retrouver le paquet d'ondes initial à la sortie. Parce que la traversée d'un milieu physique le DEFORME : son amplitude n'a plus même forme et il est déphasé. Il contient la même information qu'en entrée, parce qu'il n'y a pas de viscosité, mais il n'a plus "la même tronche". Donc, vous voyez : même dans le monde quantique, il n'est pas aussi facile qu'on le penserait de "traverser des portails", il faut encore être doté de la faculté de se reconstituer sa forme d'origine en sortie...
Eh bien, ça, c'est un exemple de capacité autonome qu'on n'a pas encore observé à ce jour, parce qu'on n'a observé que de l'inerte. Les systèmes biologiques classiques atteignent des niveaux de complexité MOLECULAIRE qui leur permettent de développer des facultés d'autonomie, il en va de même (et conjointement) pour les paquets d'ondes, qui s'associent suivant les lois ondulatoires, jusqu'à développer des structures de plus en plus sophistiquées, avec des fonctions ONDULATOIRES de plus en plus compliquées, jusqu'à l'autonomie.
On sait former aujourd'hui des alliages chimiquement assez complexes qui sont isolants au-dessus de leur point de Curie et supraconducteurs en dessous, mais ils restent ridiculement simples comparés à une machinerie vivante.
Ce que nous apprend l'observation physique, c'est que le corpusculaire est INDISSOCIABLE de l'ondulatoire. La déduction me semble évidente : si le corpusculaire EVOLUE dans la complexité, il en va de même de l'ondulatoire... On aboutit donc aussi bien à une autonomie MOLECULAIRE qu'à une autonomie ONDULATOIRE... parce que le vivant se construit à partir de l'inerte et que l'inerte est QUANTIQUE par nature.
Ensuite, ce sont des comportements thermodynamiques : au-dessus du point de Curie, le "palpable" masque complètement "l'impalpable", principalement à cause de l'agitation thermique ; mais en-dessous de ce point, il n'y a plus suffisamment d'activité thermique et c'est l'impalpable qui prend le dessus.
On a le droit de croire ce qu'on veut : c'est le Libre Arbitre. Mais les gens qui ne croient pas en "la vie après la vie" (biologique) rejettent tout simplement des FAITS D'OBSERVATION PHYSIQUES...
Nous ne sommes plus dans le domaine du fantasme, plus depuis la découverte des comportements quantiques...
C'est pour ça : faire le con de son "vivant" en se disant qu'il faut en profiter parce qu'ensuite "y a plus rien"... chacun voit midi à sa porte... Nous, nous rapportons ce que nous observons. Dans nos labos, dans l'Univers.
La vie "d'après", on se la construit ICI... ce n'est pas un aboutissement, ce n'est que le point de départ. On n'est "palpable" que parce que l'on développe une activité thermique interne, qui occassionne des chocs moléculaires, qui produisent des frottements, lesquels dissipent une partie de l'énergie et se manifestent, à grande échelle, sous forme de viscosité. Baissez suffisamment l'activité thermique sans la supprimer pour autant : les échanges énergétiques se réorganisent, suivant des lois physiques différentes ; l'ondulatoire se met en cohérence et forme des motifs macroscopiques à viscosité NULLE. Plus de viscosité, plus de frottements internes, plus de dissipation d'énergie, plus d'usure mécanique ni de vieillissement : c'est le domaine du "mouvement perpétuel".
Je tiens d'ailleurs à préciser que le "choc moléculaire" n'est qu'une représentation "en sphères dures". En réalité, les molécules ne s'entrechoquent pas, parce qu'elles sont entourées par leur paquet d'ondes respectif. Ce n'est pas comme deux véhicules qui entrent en collision : elles "rebondissent" plutôt au moment de la rencontre. C'est la représentation "en sphères molles".
Seulement, il faut savoir tout ça, avant d'affirmer que, dans le trou, y a plus de son, plus d'image... Dans le trou, y a une carcasse biologique qui se décompose. Une "enveloppe". Qui continue d'obéir aux lois de la thermodynamique MOLECULAIRE (dégradation de l'énergie !). Il n'y a pas non plus de "résurrection d'entre les morts", les lois physiques ne fonctionnent pas comme ça.
La quantité de CONNERIES qu'on a pu sortir au fil des siècles pour des raisons purement POLITIQUES... :|
Pendant qu'on faisait griller les chimistes et les physiciens "non orthodoxes" sur les bûchers pour "sorcellerie"...
On en a perdu, du temps et des connaissances !... Si vous aviez le malheur de sortir des choses à contre-courant, soit des idées reçues, soit de la "bienséance auto-proclamée", c'était censure immédiate...
C'est d'ailleurs toujours le cas... lol Combien de fois je me suis fait interdire de publication pour avoir oser "critiquer le travail des maitres" ?... Si j'ai lancé ce blog... c'est pour pouvoir publier LIBREMENT... :)
Pas pour éviter les critiques. La critique et L'AUTO-critique font partie intégrante du travail du théoricien : t'as pas la science infuse...
B 198 : RAPPELS DE BIOPHYSIQUE
Le 20/06/2024
Nous allons faire un petit point intermédiaire pour savoir ce qui a déjà été accompli et ce qu'il reste encore à faire (et je crains qu'il y ait encore pas mal à faire...).
Je l'ai sans doute déjà dit : l'objectif d'une théorie physique est 1) de rendre compte le mieux possible des données d'observatioon recueillies et de les regrouper dans un cadre commun ; 2) d'expliquer les mécanismes sous-jacents menant à ces observations et, pourquoi pas, 3) de prédire des comportements non encore observés.
Une théorie physique ne se contente pas de décrire l'existant, elle doit aussi permettre d'envisager l'avenir.
La biodynamique n'échappe pas à cette règle. Son but est de décrire le plus fidèlement possible l'évolution des organismes vivants dans l'espace au cours du temps. Par "vivant", on entend des ensembles COHERENTS de constituants capables de S'AUTO-GERER. C'est la différence essentielle avec l'inerte : le vivant PART de l'inerte et atteint un "seuil de développement" au-delà duquel l'inerte devient AUTONOME. Les organismes végétaux ou animaux savent gérer leurs dépenses énergétiques parce que leurs constituants de base, les cellules, ont atteint un niveau de complexité qui les rend aptes à le faire d'elles-mêmes. Il se constitue une forme "d'intelligence cellulaire", biochimique, très différente de notre conception courante de l'intelligence neurologique, mais d'une redoutable efficacité. Les plantes, par exemple, sont dépourvues de système nerveux, propre aux animaux, mais communiquent sans cesse entre elles via des échanges biochimiques, certains nocifs (incompatibilités), d'autres participatifs. Dans une foret, même un sous-bois, les arbres sont solidaires. Si vous déforestez trop, vous mettez l'ensemble du massif en difficulté.
Les modèles bio-mathématiques généralement employés pour décrire ce type d'évolution se basent sur l'étude des variations : spatiales, temporelles, spatio-temporelles (mais au sens de Galilée, pas d'Einstein - la vitesse de la lumière n'est pas d'une grande utilité en biophysique). La description fait appel à la notion d'échelle. On commence par définir ce que l'on va s'employer à étudier : la cellule vivante, un tissu, un organe ou un organisme. S'il s'agit d'une cellule, les petites échelles vont porter sur les molécules simples, voire les atomes ; les échelles intermédiaires, sur les macro-molécules, les protéines, les constituants de la cellule ; l'échelle "macroscopique", sur la cellule elle-même. S'il s'agit d'un tissu, ces "niveaux de description" vont se décaler, la cellule passant à l'échelon "intermédiaire", "mésoscopique". Pour un organe, ce sera le tissu. Et pour un organisme, l'organe.
Aussi, si l'on cherche à décrire la biodynamique d'un organisme complet, le constituant de base, la cellule, n'y apparaîtra pas plus gros qu'un grain de sable. Il faudra un microscope optique pour l'observer. Le théoricien traitera alors la cellule comme un "point matériel", un "corpuscule", sans se préoccuper de sa structure interne à cette échelle. Pour lui, l'organisme se composera d'un très grand nombre de "constituants cellulaires réduits à leur centre de gravité (cdg)". A l'échelle de l'organisme, ce mode de description schématique n'occasionnera pas d'erreurs majeures. Le passage à des échelles inférieures, à des résolutions moins grossières, permettra d'affiner les résultats obtenus à grande échelle.
Notre théoricien partira donc du fait qu'il a à gérer un ensemble de N "corpuscules" en mouvement et en interaction les uns avec les autres. Pour 1 =< n =< N, le corpuscule "n° n" se trouvera à la position xn(t) dans l'espace 3D à l'instant t. La variation de cette position au cours du temps sera décrite par un champ de vitesses assez compliqué :
(1) dxn(t)/dt = vn[x1(t),...,xN(t),t,a1,...,aP] (1 =< n =< N)
dépendant des positions de TOUS les corpuscules constituants l'ensemble, du temps naturellement (le paramètre mécanique), mais aussi de P paramètres thermodynamiques et chimiques (a1,...,aP). Il va sans dire qu'un tel système dynamique est quasi-impossible à résoudre dans les situations réalistes avec les outils d'analyse actuels. Même en recourant à des algorithmes numériques performants, les interactions cellulaires ont tendance à augmenter exponentiellement le volume des calculs. Sans compter que, pour des valeurs "critiques" des paramètres a, de tels systèmes entrent en "chaos déterministe" dès l'ordre 2, c'est-à-dire, dès l'interaction cellulaire deux à deux et ce, même pour de petits ensembles de constituants.
De toute façon, les cellules baignent généralement dans des liquides amniotiques, comme vous pouvez le voir dans un simple microscope optique acheté dans le commerce, ce qui rend leur mouvement très rapidement erratique.
A moins de former un ensemble cohérent. A ce moment-là, le mouvement individuel de CHAQUE cellule n'est plus libre. Les N cellules font partie d'un système, une sorte de "tout" au sein duquel le mouvement de l'une quelconque des N cellules dépend de celui de toutes les autres à chaque instant : c'est le système dynamique (1).
Maintenant, ce système peut aussi être commandé. On obtient alors une régulation. La régulation permet de stabiliser un système en mouvement. La modélisation se complique encore plus, puisqu'aux positions variables xn(t), il faut adjoindre N vecteurs commande un(t). (1) devient :
(2a) dxn(t)/dt = vn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
(2b) dun(t)/dt = wn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
qu'il est possible de ramener à une forme similaire à (1) en égalisant les systèmes d'unités et en remplaçant les 3N positions xn(t) de (1) par les 6N variables [xn(t),un(t)]. C'est de la mathématique.
Comment fonctionne un système régulé ? Au départ, vous avez un processus biochimique, généralement complexe (au sens de complexité) que nous modéliserons par un opérateur b^(t,a1,...,aP). Si vous laissez le système agir librement, il évoluera de la manière qu'il souhaitera. Si, au contraire, vous voulez qu'il se comporte d'une certaine manière, vous imposerez une "consigne" en entrée c(t) = [c1(t),...,cN(t)]. La réponse m(t) = [m1(t),...,mN(t)] en sortie du système sera alors comparée à cette consigne :
(3) e(t) = [e1(t),...,eN(t)] = c(t) - m(t) = [c1(t) - m1(t),...,cN(t) - mN(t)]
donnant un vecteur "erreur". Cette erreur sera corrigée par un correcteur r^(t,a1,...,aP) qui la transformera en la commande [u1(t),...,uN(t)] :
(4) r^(t,a1,...,aP).e(t) = u(t)
La correction est "adaptative", voire "auto-adaptative", c'est-à-dire qu'elle s'adapte au cours du temps ainsi que selon la valeur des paramètres thermo-chimiques. C'est cette commande qui va être appliquée au processus biochimique et qui va rectifier la mesure en sortie m(t) :
(5) b^(t,a1,...,aP).u(t) = m(t)
et la forcer à s'aligner sur la consigne c(t). Lorsque le résultat souhaité est atteint, i.e. aussi longtemps que c(t) = m(t), soit e(t) = 0, la commande s'annule : elle n'est plus nécessaire, le processus est régulé. S'il se dérégule, la correction reprend.
Si vous regroupez les équations (3), (4) et (5), il vient :
u(t) = r^(t,a1,...,aP).[c(t) - b^(t,a1,...,aP).u(t)]
ce qui vous donne le vecteur commande sous la forme (très théorique),
(6) u(t) = [Id + b^(t,a1,...,aP)]-1.r^(t,a1,...,aP).c(t)
où Id est l'opérateur identité (qui change une fonction en elle-même). Il s'agit donc de prendre l'inverse de l'opérateur Id + b^ et d'appliquer le résultat au correcteur r^. Si c'est VOUS qui fixez la consigne, c'est VOUS qui régulez le système. Si c'est le système qui s'applique sa propre consigne, il se fixe son propre objectif et il s'auto-régule.
En pratique, les opérateurs biochimiques deviennent rapidement très compliqués et ne se modélisent au mieux que très schématiquement et de manière empirique (= par des données d'observation). Ils ne sont quasiment jamais linéaires, plutôt "stochastiques" (aléatoires). Mathématiquement, l'inverse de Id + b^ s'obtient à l'aide de la série infinie :
(Id + b^)-1 = Sn=0+oo (-1)n(b^)n
Mais, même si (6) vous donne théoriquement la commande à partir de la consigne, il vous faut encore résoudre le système des équations d'évolution (2a-2b). La tâche est tout sauf simple, à la hauteur de la complexité des systèmes à l'étude.
Et encore, nous ne venons d'aborder la question que pour un nombre FINI de constituants. Or, à l'échelle d'un organisme, les cellules forment un milieu "continu", surtout dans les tissus (eux-mêmes constituants des organes). A ce niveau de description là, le théoricien va donc poser que N est "infini". On va entrer dans le cadre de ce que l'on appelle les modèles "phénoménologiques" : les systèmes dynamiques "discrets" (i.e. à nombres FINIS de constituants) vont être remplacés par des équations aux dérivées partielles (EDPs), voire des systèmes d'EDPs, ce qui va compliquer considérablement la tâche du théoricien quant à leur résolution. Dans (1) avec commande intégrée ou pas, on va substituer à l'entier n les variables de position x elles-mêmes. Il va donc falloir changer les trajectoires individuelles xn(t) en une champ de positions X(x,t) et considérer les variations de ce champ aussi bien dans le temps que dans l'espace. La loi de la diffusion dite "moléculaire", par exemple, va être décrite par l'EDP de type parabolique :
(7) (d/dt + Dd²/dxadxa)X(x,t) = Q(x,t) (a = 1,2,3)
où Q(x,t) est la perturbation source et D, un coefficient de diffusion en m²/s, qui dépend généralement des caractéristiques physico-chimiques du milieu. Mais je viens de donner l'un des exemples les plus simples. Nombre de phénomènes macroscopiques ne peuvent se décrire qu'à l'aide de modèles différentiels NON linéaires ou intégro-différentiels,... sans évoquer les conditions aux limites, qui peuvent être elles-mêmes non linéaires.
Bref, la biophysique n'est peut-être pas l'astrophysique ni la cosmologie quantique, mais elle reste tout de même l'une des branches de la physique la plus compliquée de toutes. La dynamique cellulaire est extrêmement compliquée à modéliser. Les cellules communiquent entre elles en s'échangeant des informations chimiques au moyen de protéines, d'enzymes en tous genres et d'ARN messager. Les cascades enzymatiques impressionnent même les biologistes... On a beau disposer désormais de la carte génétique complète du patrimoine humain, ça ne permet pas de résoudre tous les problèmes à la fois... Pourquoi ? Parce que c'est une chose de décomposer les structures complexes en éléments simples et c'en est une toute autre de les recomposer. Ce fut déjà une tâche ardue que de décrypter le génome humain, c'en est une encore plus difficile de reconstituer un organisme avec ses réactions biochimiques interactives, qui sapent totalement tout espoir de déterminisme. La seule chose que le biologiste sait, c'est qu'il est dans le diffus, le stochastique, l'aléatoire, le chaotique. Sans entrer dans les détails très techniques de la dynamique "hyperbolique", il se forme des "bassins d'attractions" où les trajectoires convergent. Ces bassins d'attractions ne sont pas tous "étranges". Mais ils font tous partie des solutions CONVERGENTES des équations dynamiques pour des valeurs critiques des paramètres biochimiques. Eh bien, tout ça, les systèmes dynamiques, les situations de chaos, les équations aux dérivées partielles, ça se recoupe... C'est déjà un défi technique que d'établir des équations aux variations dans le temps et dans l'espace, c'en est un encore plus difficile de résoudre ces équations. Ça fait partie de la phase de test des modèles théoriques : soit vous êtes dans les clous avec une marge d'imprécision tolérable, soit vous êtes complètement à côté de la plaque et il n'y a plus qu'à tout recommencer... C'est la seule chose qui ne soit pas compliquée : le test. Les simulations numériques. Elles vous disent rapidement si vous avez travaillé pour rien ou pas...
Et nous, qu'avons-nous obtenus jusqu'ici ?
La quantification du temps, de l'espace et de l'espace-temps. C'est déjà bien, mais... avons-nous au moins égratigné l'iceberg ?... Nous avons transformé des VARIABLES classiques en SIGNAUX quantiques de même nature et, pour ce faire, l'analogie opto-mécanique nous a obligé à passer par des FONCTIONS. Des fonctions issues de l'intégration (!) de fonctionnelles classiques (les lagrangiens et densités de lagrangiens). Ici, nous venons de voir que la biophysique étudie DES TRAJECTOIRES ET DES CHAMPS. Avons-nous quantifié des courbes, des surfaces, des volumes,... ? NON... Il nous reste à quantifier des FONCTIONS. C'est-à-dire, l'essentiel de l'analyse.
Ce n'est pas parce que nous avons passé les étapes :
T(t) = S0t exp[is(t')/h]dt' et Xa(x) = S0xa exp[is(x')/h]dx'a (a = 1,2,3)
que cela nous permet de quantifier x(t). Pour quantifier une fonction f(t) du temps, il faudrait une action s[f(t)]. Mais, non : le lagrangien classique est fonction de x(t), de v(t) et de t, pas de x[f(t)], de v[f(t)] et de f(t), à moins que f ne soit elle-même une fonction qui transforme le temps en un autre temps. A ce moment-là, df(t) = f(1)(t)dt et on a une intégrale :
S0f(t) exp{is[f'(t')]/h}df'(t') = S0t exp[is'(t')/h]f(1)(t')dt'
avec f(1)(t) sans unité, puisque, dans ce cas, f(t) est en secondes. C'est déjà mieux. Mais alors...
ON EST DANS LE DOMAINE DE LA RG ! lol
Et ça, c'est sans doute la meilleure, parce que le "programme déformation" lancé par l'école du géomètre Français André Lichnerowicz dans les années 1950 proposait de quantifier l'espace-temps courbe au moyen d'une déformation induite par un paramètre, l'action de Planck h. A présent, c'est L'INVERSE : c'est LA RG qui va permettre la quantification... :))
Nous l'avons vu en B 193 : la quantification par analogie opto-mécanique n'est ni plus ni moins qu'une DEFORMATION (du temps, de l'espace, de l'espace-temps,...), bref, du CADRE DE TRAVAIL.
Je l'ai sans doute déjà dit : l'objectif d'une théorie physique est 1) de rendre compte le mieux possible des données d'observatioon recueillies et de les regrouper dans un cadre commun ; 2) d'expliquer les mécanismes sous-jacents menant à ces observations et, pourquoi pas, 3) de prédire des comportements non encore observés.
Une théorie physique ne se contente pas de décrire l'existant, elle doit aussi permettre d'envisager l'avenir.
La biodynamique n'échappe pas à cette règle. Son but est de décrire le plus fidèlement possible l'évolution des organismes vivants dans l'espace au cours du temps. Par "vivant", on entend des ensembles COHERENTS de constituants capables de S'AUTO-GERER. C'est la différence essentielle avec l'inerte : le vivant PART de l'inerte et atteint un "seuil de développement" au-delà duquel l'inerte devient AUTONOME. Les organismes végétaux ou animaux savent gérer leurs dépenses énergétiques parce que leurs constituants de base, les cellules, ont atteint un niveau de complexité qui les rend aptes à le faire d'elles-mêmes. Il se constitue une forme "d'intelligence cellulaire", biochimique, très différente de notre conception courante de l'intelligence neurologique, mais d'une redoutable efficacité. Les plantes, par exemple, sont dépourvues de système nerveux, propre aux animaux, mais communiquent sans cesse entre elles via des échanges biochimiques, certains nocifs (incompatibilités), d'autres participatifs. Dans une foret, même un sous-bois, les arbres sont solidaires. Si vous déforestez trop, vous mettez l'ensemble du massif en difficulté.
Les modèles bio-mathématiques généralement employés pour décrire ce type d'évolution se basent sur l'étude des variations : spatiales, temporelles, spatio-temporelles (mais au sens de Galilée, pas d'Einstein - la vitesse de la lumière n'est pas d'une grande utilité en biophysique). La description fait appel à la notion d'échelle. On commence par définir ce que l'on va s'employer à étudier : la cellule vivante, un tissu, un organe ou un organisme. S'il s'agit d'une cellule, les petites échelles vont porter sur les molécules simples, voire les atomes ; les échelles intermédiaires, sur les macro-molécules, les protéines, les constituants de la cellule ; l'échelle "macroscopique", sur la cellule elle-même. S'il s'agit d'un tissu, ces "niveaux de description" vont se décaler, la cellule passant à l'échelon "intermédiaire", "mésoscopique". Pour un organe, ce sera le tissu. Et pour un organisme, l'organe.
Aussi, si l'on cherche à décrire la biodynamique d'un organisme complet, le constituant de base, la cellule, n'y apparaîtra pas plus gros qu'un grain de sable. Il faudra un microscope optique pour l'observer. Le théoricien traitera alors la cellule comme un "point matériel", un "corpuscule", sans se préoccuper de sa structure interne à cette échelle. Pour lui, l'organisme se composera d'un très grand nombre de "constituants cellulaires réduits à leur centre de gravité (cdg)". A l'échelle de l'organisme, ce mode de description schématique n'occasionnera pas d'erreurs majeures. Le passage à des échelles inférieures, à des résolutions moins grossières, permettra d'affiner les résultats obtenus à grande échelle.
Notre théoricien partira donc du fait qu'il a à gérer un ensemble de N "corpuscules" en mouvement et en interaction les uns avec les autres. Pour 1 =< n =< N, le corpuscule "n° n" se trouvera à la position xn(t) dans l'espace 3D à l'instant t. La variation de cette position au cours du temps sera décrite par un champ de vitesses assez compliqué :
(1) dxn(t)/dt = vn[x1(t),...,xN(t),t,a1,...,aP] (1 =< n =< N)
dépendant des positions de TOUS les corpuscules constituants l'ensemble, du temps naturellement (le paramètre mécanique), mais aussi de P paramètres thermodynamiques et chimiques (a1,...,aP). Il va sans dire qu'un tel système dynamique est quasi-impossible à résoudre dans les situations réalistes avec les outils d'analyse actuels. Même en recourant à des algorithmes numériques performants, les interactions cellulaires ont tendance à augmenter exponentiellement le volume des calculs. Sans compter que, pour des valeurs "critiques" des paramètres a, de tels systèmes entrent en "chaos déterministe" dès l'ordre 2, c'est-à-dire, dès l'interaction cellulaire deux à deux et ce, même pour de petits ensembles de constituants.
De toute façon, les cellules baignent généralement dans des liquides amniotiques, comme vous pouvez le voir dans un simple microscope optique acheté dans le commerce, ce qui rend leur mouvement très rapidement erratique.
A moins de former un ensemble cohérent. A ce moment-là, le mouvement individuel de CHAQUE cellule n'est plus libre. Les N cellules font partie d'un système, une sorte de "tout" au sein duquel le mouvement de l'une quelconque des N cellules dépend de celui de toutes les autres à chaque instant : c'est le système dynamique (1).
Maintenant, ce système peut aussi être commandé. On obtient alors une régulation. La régulation permet de stabiliser un système en mouvement. La modélisation se complique encore plus, puisqu'aux positions variables xn(t), il faut adjoindre N vecteurs commande un(t). (1) devient :
(2a) dxn(t)/dt = vn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
(2b) dun(t)/dt = wn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
qu'il est possible de ramener à une forme similaire à (1) en égalisant les systèmes d'unités et en remplaçant les 3N positions xn(t) de (1) par les 6N variables [xn(t),un(t)]. C'est de la mathématique.
Comment fonctionne un système régulé ? Au départ, vous avez un processus biochimique, généralement complexe (au sens de complexité) que nous modéliserons par un opérateur b^(t,a1,...,aP). Si vous laissez le système agir librement, il évoluera de la manière qu'il souhaitera. Si, au contraire, vous voulez qu'il se comporte d'une certaine manière, vous imposerez une "consigne" en entrée c(t) = [c1(t),...,cN(t)]. La réponse m(t) = [m1(t),...,mN(t)] en sortie du système sera alors comparée à cette consigne :
(3) e(t) = [e1(t),...,eN(t)] = c(t) - m(t) = [c1(t) - m1(t),...,cN(t) - mN(t)]
donnant un vecteur "erreur". Cette erreur sera corrigée par un correcteur r^(t,a1,...,aP) qui la transformera en la commande [u1(t),...,uN(t)] :
(4) r^(t,a1,...,aP).e(t) = u(t)
La correction est "adaptative", voire "auto-adaptative", c'est-à-dire qu'elle s'adapte au cours du temps ainsi que selon la valeur des paramètres thermo-chimiques. C'est cette commande qui va être appliquée au processus biochimique et qui va rectifier la mesure en sortie m(t) :
(5) b^(t,a1,...,aP).u(t) = m(t)
et la forcer à s'aligner sur la consigne c(t). Lorsque le résultat souhaité est atteint, i.e. aussi longtemps que c(t) = m(t), soit e(t) = 0, la commande s'annule : elle n'est plus nécessaire, le processus est régulé. S'il se dérégule, la correction reprend.
Si vous regroupez les équations (3), (4) et (5), il vient :
u(t) = r^(t,a1,...,aP).[c(t) - b^(t,a1,...,aP).u(t)]
ce qui vous donne le vecteur commande sous la forme (très théorique),
(6) u(t) = [Id + b^(t,a1,...,aP)]-1.r^(t,a1,...,aP).c(t)
où Id est l'opérateur identité (qui change une fonction en elle-même). Il s'agit donc de prendre l'inverse de l'opérateur Id + b^ et d'appliquer le résultat au correcteur r^. Si c'est VOUS qui fixez la consigne, c'est VOUS qui régulez le système. Si c'est le système qui s'applique sa propre consigne, il se fixe son propre objectif et il s'auto-régule.
En pratique, les opérateurs biochimiques deviennent rapidement très compliqués et ne se modélisent au mieux que très schématiquement et de manière empirique (= par des données d'observation). Ils ne sont quasiment jamais linéaires, plutôt "stochastiques" (aléatoires). Mathématiquement, l'inverse de Id + b^ s'obtient à l'aide de la série infinie :
(Id + b^)-1 = Sn=0+oo (-1)n(b^)n
Mais, même si (6) vous donne théoriquement la commande à partir de la consigne, il vous faut encore résoudre le système des équations d'évolution (2a-2b). La tâche est tout sauf simple, à la hauteur de la complexité des systèmes à l'étude.
Et encore, nous ne venons d'aborder la question que pour un nombre FINI de constituants. Or, à l'échelle d'un organisme, les cellules forment un milieu "continu", surtout dans les tissus (eux-mêmes constituants des organes). A ce niveau de description là, le théoricien va donc poser que N est "infini". On va entrer dans le cadre de ce que l'on appelle les modèles "phénoménologiques" : les systèmes dynamiques "discrets" (i.e. à nombres FINIS de constituants) vont être remplacés par des équations aux dérivées partielles (EDPs), voire des systèmes d'EDPs, ce qui va compliquer considérablement la tâche du théoricien quant à leur résolution. Dans (1) avec commande intégrée ou pas, on va substituer à l'entier n les variables de position x elles-mêmes. Il va donc falloir changer les trajectoires individuelles xn(t) en une champ de positions X(x,t) et considérer les variations de ce champ aussi bien dans le temps que dans l'espace. La loi de la diffusion dite "moléculaire", par exemple, va être décrite par l'EDP de type parabolique :
(7) (d/dt + Dd²/dxadxa)X(x,t) = Q(x,t) (a = 1,2,3)
où Q(x,t) est la perturbation source et D, un coefficient de diffusion en m²/s, qui dépend généralement des caractéristiques physico-chimiques du milieu. Mais je viens de donner l'un des exemples les plus simples. Nombre de phénomènes macroscopiques ne peuvent se décrire qu'à l'aide de modèles différentiels NON linéaires ou intégro-différentiels,... sans évoquer les conditions aux limites, qui peuvent être elles-mêmes non linéaires.
Bref, la biophysique n'est peut-être pas l'astrophysique ni la cosmologie quantique, mais elle reste tout de même l'une des branches de la physique la plus compliquée de toutes. La dynamique cellulaire est extrêmement compliquée à modéliser. Les cellules communiquent entre elles en s'échangeant des informations chimiques au moyen de protéines, d'enzymes en tous genres et d'ARN messager. Les cascades enzymatiques impressionnent même les biologistes... On a beau disposer désormais de la carte génétique complète du patrimoine humain, ça ne permet pas de résoudre tous les problèmes à la fois... Pourquoi ? Parce que c'est une chose de décomposer les structures complexes en éléments simples et c'en est une toute autre de les recomposer. Ce fut déjà une tâche ardue que de décrypter le génome humain, c'en est une encore plus difficile de reconstituer un organisme avec ses réactions biochimiques interactives, qui sapent totalement tout espoir de déterminisme. La seule chose que le biologiste sait, c'est qu'il est dans le diffus, le stochastique, l'aléatoire, le chaotique. Sans entrer dans les détails très techniques de la dynamique "hyperbolique", il se forme des "bassins d'attractions" où les trajectoires convergent. Ces bassins d'attractions ne sont pas tous "étranges". Mais ils font tous partie des solutions CONVERGENTES des équations dynamiques pour des valeurs critiques des paramètres biochimiques. Eh bien, tout ça, les systèmes dynamiques, les situations de chaos, les équations aux dérivées partielles, ça se recoupe... C'est déjà un défi technique que d'établir des équations aux variations dans le temps et dans l'espace, c'en est un encore plus difficile de résoudre ces équations. Ça fait partie de la phase de test des modèles théoriques : soit vous êtes dans les clous avec une marge d'imprécision tolérable, soit vous êtes complètement à côté de la plaque et il n'y a plus qu'à tout recommencer... C'est la seule chose qui ne soit pas compliquée : le test. Les simulations numériques. Elles vous disent rapidement si vous avez travaillé pour rien ou pas...
Et nous, qu'avons-nous obtenus jusqu'ici ?
La quantification du temps, de l'espace et de l'espace-temps. C'est déjà bien, mais... avons-nous au moins égratigné l'iceberg ?... Nous avons transformé des VARIABLES classiques en SIGNAUX quantiques de même nature et, pour ce faire, l'analogie opto-mécanique nous a obligé à passer par des FONCTIONS. Des fonctions issues de l'intégration (!) de fonctionnelles classiques (les lagrangiens et densités de lagrangiens). Ici, nous venons de voir que la biophysique étudie DES TRAJECTOIRES ET DES CHAMPS. Avons-nous quantifié des courbes, des surfaces, des volumes,... ? NON... Il nous reste à quantifier des FONCTIONS. C'est-à-dire, l'essentiel de l'analyse.
Ce n'est pas parce que nous avons passé les étapes :
T(t) = S0t exp[is(t')/
que cela nous permet de quantifier x(t). Pour quantifier une fonction f(t) du temps, il faudrait une action s[f(t)]. Mais, non : le lagrangien classique est fonction de x(t), de v(t) et de t, pas de x[f(t)], de v[f(t)] et de f(t), à moins que f ne soit elle-même une fonction qui transforme le temps en un autre temps. A ce moment-là, df(t) = f(1)(t)dt et on a une intégrale :
S0f(t) exp{is[f'(t')]/
avec f(1)(t) sans unité, puisque, dans ce cas, f(t) est en secondes. C'est déjà mieux. Mais alors...
ON EST DANS LE DOMAINE DE LA RG ! lol
Et ça, c'est sans doute la meilleure, parce que le "programme déformation" lancé par l'école du géomètre Français André Lichnerowicz dans les années 1950 proposait de quantifier l'espace-temps courbe au moyen d'une déformation induite par un paramètre, l'action de Planck h. A présent, c'est L'INVERSE : c'est LA RG qui va permettre la quantification... :))
Nous l'avons vu en B 193 : la quantification par analogie opto-mécanique n'est ni plus ni moins qu'une DEFORMATION (du temps, de l'espace, de l'espace-temps,...), bref, du CADRE DE TRAVAIL.
Lire les commentaires textes
Un post qui marque par sa qualité.