blogs.fr: Blog multimédia 100% facile et gratuit

doclabidouille

Blog multimédia 100% facile et gratuit

 

BLOGS

Blog dans la catégorie :
Sciences

 

Statistiques

 




Signaler un contenu illicite

 

doclabidouille

B 187 : PROPAGATEURS DANS M2(R), INTRODUCTION

Le 21/08/2023

Dans cette bidouille, nous allons utiliser l'isomorphisme d'espaces vectoriels M2(R) ~ R4 ~ C2 ~ H.

Si nous reprenons les propriétés de base des unités fondamentales de M2(R) établies en [B178, (25-28)], nous recevons déjà confirmation que l'unité antisymétrique s0 se comporte bien comme l'unité imaginaire i de C :

(1a)     (s0)-1 = -s0  <->  i-1 = -i  ,  (s0)² = -Id = -s3  <->  i² = -1

Pour s1, c'est plus subtil. [B178, (25) et (26)] établissent que (s1)-1 = s1 et (s1)² = Id = s3. s1 semble donc se comporter de la même manière que s3 vis-à-vis de l'inversion et de l'élévation au carré, puisque (s3)-1 = s3 et (s3)² = s3. Aussi, si l'on tente de faire correspondre ces deux matrices unités à l'unité de C, on se retrouve avec une assimilation ambigüe :

(1b)     (s1)-1 = s1  <-> 1-1 = 1  ,  (s1)² = Id = s3  <->  1² = 1

mais aussi et en même temps,

(1c)     (s3)-1 = s3  <-> 1-1 = 1  ,  (s3)² = Id = s3  <->  1² = 1.


En d'autres termes, il semble y avoir coïncidence entre les rôles de s1 et s3 dans M2(R) et celui de 1 dans C. Il n'est pas possible d'attribuer s1 à -1, étant donné que (-1)-1 = -1. Le fait de passer du corps algébrique C, anneau unitaire, à l'algèbre M2(R) à deux unités s0 et s1 lève cette ambiguité, puisque non seulement s1 = (0,1,1,0) se distingue nettement de s3 = (1,0,0,1), mais leurs invariants ne sont pas du tout les mêmes : Tr(s1) = 0, Tr(s3) = 2, Det(s1) = -Det(s3) = -1. s1 se diagonalise d'ailleurs en s2 = (1,0,0,-1) (et s0 en is2 dans C - s0 n'est pas diagonalisable dans R). Pour s'y retrouver, on se tourne vers les relations de commutation [B178, (28)], qui donnent les correspondances :

(1d)     (s0)²s1 = s1(s0)² = -s1  <->  i².1 = 1.i² = -1  ,  s0(s1)² = (s1)²s0 = s0  <->  i.1 = 1.i = i.

C'est donc bien s1 qui joue le rôle de 1 dans C et non s3.

On peut affirmer cela pour deux raisons : les propriétés [B178, (28)] conduisent aux relations de commutativité comme d'anti-commutativité entre les 4 unités de M2(R) et s3 n'est pas fondamentale. L'ambiguité dans C est levée dans M2(R) et elle n'est pas en faveur de s3. Comme quoi, les apparences peuvent s'avérer plus que trompeuses... En résumé :

(1e)     s0  <->  i  ,  s1  <->  1  ,  (s0)² = -(s1)²  <->  i² = -1  ,  (s0)4 = (s1)4  <->  i4 = 1.

Ce qui ne conduit pas pour autant à s0 = is1, même dans C.

La structure de M2(R) se révèle donc plus riche que celle de C et pas seulement en raison de l'isomorphisme entre M2(R) et C2, qui l'assimilerait au corps des quaternions d'Hamilton H. En fait, on est parti du principe, somme toute assez logique, que s3 était l'homologue de 1 dans M2(R) parce que s3 réalise l'opération identique à l'instar de 1 qui ne change pas le résultat d'une multiplication et que s3 reproduisait, le long de sa diagonale, l'unité 1 des réels. Seulement, ces arguments, qui ne sont après tout que des hypothèses, ne se révèlent pas seulement insuffisants, mais faux. Cela peut paraître choquant sur le plan conceptuel, mais c'est bel et bien (0,1,1,0) qui représente le nombre 1 : l'anti-diagonale, pas la diagonale... s1 est une racine carrée de s3. Or, la racine carrée correspondante de 1 est 1, d'où l'ambiguïté...

Ça change tout pour la suite. La loi sur l'inversion des matrices dit que, pour toute matrice M de déterminant non nul, il existe une seule matrice notée M-1 de déterminant non nul (et donc, fini) telle que :

(2a)     M.M-1 = M-1.M
(2b)     M.M-1 = s3 = (s1

Cette dernière identité montre que s1 est la moyenne quadratique de M et de son inverse. Etant donné que :

(2c)     Det(M)Det(M-1) = Det²(s1) = +1

Le déterminant de M-1 doit être du même signe que Det(M). Effectivement, Det(M-1) = 1/Det(M).

Ce cas est une particularité (importante) de la relation beaucoup plus générale :

(2d)     M.N = P²  ,  N.M = Q²

qui montre que P et Q sont les moyennes quadratiques des matrices M et N. Si ces dernières commutent, alors Q² = P², qui n'entraîne pas systématiquement Q = +/-P. Lorsque Det(M) <> 0, N = M-1.P² et Q² = M-1.P².M est alors un changement de représentation de P² : M.Q² = P².M.

En fait, (2b) énonce que, pour toute matrice inversible M, il existe une seule matrice inverse M-1 commutant avec M telle que s1 soit la moyenne quadratique du produit de M par M-1.

Dans R, c'est comme si l'on écrivait que, pour tout réel x non nul, xx-1 = x-1x = 1². Or :

Il existe un moyen de ramener M2(R) à une structure de corps algébrique. Ce moyen n'est pas linéaire, mais (1e) montre qu'il est quadratique, puisque les deux unités linéaires de M2(R) sont reliées par l'identité quadratique :

(2e)     (s0)² + (s1)² = (s0 + s1)² = 0.

qui implique l'identité quartique :

(2f)     (s0)4 - (s1)4 = [(s0)² + (s1)²][(s0)² - (s1)²] = [(s0)² - (s1)²][(s0)² + (s1)²] = 0.

Aussi, à l'instar de "1" qui constitue la seule unité de C, s1 peut être utilisée comme unique unité de M2(R), moyennant les identités (2e) et (2f) ci-dessus, ainsi que la relation quadratique (2b). Tout cela fait alors de M2(R) une "algèbre unitaire réelle quadratique".


On peut également considérer C comme telle, puisqu'on y inclut les réels de carrés négatifs. L'identité (2e) dit que la somme des carrés des unités fondamentales de l'algèbre M2(R) est nilpotente.

s1 ne commute pas avec toutes les matrices, mais son carré, si. C'est donc lui qu'il faut utiliser dans l'exponentiation. Je rappelle que l'exponentielle d'une matrice M de M2(R) est la matrice définie au moyen de la série :

(3a)     exp(M) = Sn=0+oo Mn/n!

Pour M = 0, il convient maintenant de poser que :

(3b)     exp(0) = (s1

Ou encore, que :

(3c)     M0 = (s1)²     pour toute matrice M de M2(R).

Autrement dit, que s1 est la moyenne quadratique ("corps algébrique quadratique") de l'exponentielle de la matrice nulle ou encore, de toute matrice de M2(R) élevée à la puissance zéro. On a alors :

(3d)     exp(M) = (s1)² + Sn=1+oo Mn/n!

Soit maintenant S(x) une fonction de Jacobi à support dans R et h, la constante de Planck. On a :

exp[S(x)s0/h] = Sn=0+oo [S(x)/h]n(s0)n/n!
                    = {Sn=0+oo (-1)n[S(x)/h]2n/(2n)!}(s1)² + {Sn=0+oo (-1)n[S(x)/h]2n+1/(2n + 1)!}s0  

exp[S(x)sa/h] = Sn=0+oo [S(x)/h]n(sa)n/n!          (a = 1,2,3)
                    = {Sn=0+oo [S(x)/h]2n/(2n)!}(s1)² + {Sn=0+oo [S(x)/h]2n+1/(2n + 1)!}sa  

soit,

(4a)     exp[S(x)s0/h] = cos[S(x)/h](s1)² + sin[S(x)/h]s0  
(4b)     exp[S(x)sa/h] = ch[S(x)/h](s1)² + sh[S(x)/h]sa         (a = 1,2,3)


Ensuite,
 
(d/dx){exp[S(x)s0/h]} = [p(x)/h]{-sin[S(x)/h](s1)² + cos[S(x)/h]s0}
                              = [p(x)/h]exp[S(x)s0/h]s0  
(d/dx){exp[S(x)sa/h]} = [p(x)/h]{sh[S(x)/h](s1)² + ch[S(x)/h]sa}
                              = [p(x)/h]exp[S(x)sa/h]sa 

Donc :

(4c)     (d/dx){exp[S(x)si/h]} = [p(x)/h]exp[S(x)si/h]si         (i = 0,1,2,3)

avec p(x) = dS(x)/dx l'impulsion au point x.

Il existe une différence notoire entre l'équation limite exp[S(x)/h] = 0 dans R et l'équation matricielle exp[S(x)si/h] = 0 dans M2(R). La première implique que S(x) -> -oo ; la seconde, que exp[S(x)si/h] soit la matrice nulle. Or, s0 et s1 ne sont pas diagonales, mais anti-diagonales, tandis que (s1)² = s3 et s2 = s0s1 sont diagonales. Par conséquent, dans le cas de s0 :

exp[S(x)s0/h] = 0  =>  cos[S(x)/h] = 0  et  sin[S(x)/h] = 0.

On sait pertinnemment que ces deux relations ne peuvent jamais être satisfaites simultanément. Par conséquent, exp[S(x)s0/h] ne peut jamais tendre vers la matrice nulle. En revanche, cos(.) et sin(.) restent toujours à l'intérieur de l'intervalle [-1,+1], donc (d/dx){exp[S(x)s0/h]}, elle, peut tendre vers zéro si p(x) -> 0.

Pour s1 :

exp[S(x)s1/h] = 0  =>  ch[S(x)/h] = 0  et  sh[S(x)/h] = 0.

Or, ch(.) ne s'annule jamais. Sa valeur minimale est +1. Lorsque S(x) -> +oo, ch[S(x)/h] et sh[S(x)/h] diverge exponentiellement. Lorsque S(x) -> -oo, ch[S(x)/h] -> +oo, sh[S(x)/h] -> -oo, mais ces deux divergences ne se compensent plus, car ch[S(x)/h] figure le long de la diagonale de exp[S(x)s1/h] et sh[S(x)/h], le long de son anti-diagonale. Le résultat est donc la matrice limite (+oo)(+1,-1,-1,+1), qui est divergente. Il en ira de même pour la matrice dérivée (d/dx){exp[S(x)s1/h]}, car p(x) -> 0 moins vite que les fonctions hyperboliques divergeront.

Dans le cas de s2 :

exp[S(x)s2/h] = [eS(x)/h,0,0,e-S(x)/h]

De nouveau, l'une des deux composantes diagonales diverge forcément lorsque S(x) -> oo. Si S(x) -> +oo, le résultat est la matrice (+oo,0,0,0) ; si S(x) -> -oo, (0,0,0,+oo). Idem : p(x) ne tendra jamais vers zéro aussi vite que l'une des exponentielles divergera.

Il n'y a vraiment que s3 qui puisse converger lorsque S(x) diverge et encore, sous condition, puisque :

exp[S(x)s3/h] = exp[S(x)/h](s1)² -> 0   pour   S(x) -> -oo.

Dans ce dernier cas, (d/dx){exp[S(x)s3/h]} = [p(x)/h]exp[S(x)/h](s1)² convergera lorsque S(x) -> -oo, même si p(x) devait diverger.
 

 

B 186 : Conclusion finale sur la construction théorique

Le 09/07/2023

Quelques remarques avant de poursuivre.

1) J'ai tenu à faire les calculs en l'absence d'observateur, pour être certain que la mesure n'influe pas sur les résultats. Nous allons poursuivre sur cette voie. Cadre et champs seront donc considérés comme des continuums et on pourra poser formellement que les étalons sont nuls après calcul des taux de variation, ce qui simplifie considérablement les expressions. Mais ce n'est pas dans ce but que je me suis placé. Il s'agit vraiment de comprendre comment les choses se passent d'elles-mêmes, quand il n'y a personne pour les observer. C'est dans ce contexte, et uniquement celui-ci, que l'approximation de Leibnitz se justifie pleinement.

2) Quand on utilise la RG, il faut faire bien attention à la direction dans laquelle on effectue les calculs : si l'on part d'un champ de contraintes donné, c'est bien la métrique avant déformation qu'il faut utiliser pour remonter à la forme de la source ; mais, si l'on part de cette forme et que l'on cherche le champ de contraintes appliquées correspondant, comme c'est le cas ici, c'est la métrique après déformation qu'il faut considérer.

3) Alors, j'ai lu, dans les ouvrages consacrés à la théorie gravitationnelle d'Einstein que, pour être physiques, les potentiels métriques doivent converger à l'infini spatial, sous peine de ne pas représenter un véritable champ, mais de simples effets inertiels. Dans le contexte de la RG, c'est un peu absurde. Placez-vous dans un référentiel (x,y) où le gik est diagonal (pour simplifier). Alors, Det(g) = g00g11 et g00 = 1/g00, g11 = 1/g11. Et ceci reste valable en toute dimension. Par conséquent, si gik -> 0 pour (x² + y²)½ -> oo, gik diverge (et inversement). Or, la RG originelle d'Einstein se base sur le principe d'équivalence de Newton, qui dit qu'en tout point de l'espace où agit un champ de gravitation, il existe un référentiel dans lequel le gik est diagonalisable. Vous en déduisez ?... Que l'exigence de la théorie des champs considérés comme non liés au cadre devient absurde en RG... Pourquoi ? Une fois de plus, parce que l'on part du principe selon lequel les solutions DANS la source se propagent A L'EXTERIEUR de celle-ci et doivent donc diminuer d'intensité au fur et à mesure que l'on s'éloigne de leur centre d'émission...

Cette dernière remarque vient à point nommer. Chez Maxwell comme chez Einstein ou, plus généralement encore, Yang et Mills, les sources émettent des "ondes" qui se propagent dans l'espace-temps classique 4D. Elles servent "d'émetteurs" à d'éventuels "récepteurs". Mais qu'appelle-t-on des "ondes" ? Vous remarquerez que tous ces modèles se basent sur des (systèmes d') équations aux dérivées partielles du 2nd ordre hyperboliques en les "potentiels de champ". Même la RG n'y échappe pas et c'est d'ailleurs la raison pour laquelle Einstein s'est tourné vers la géométrie de Riemann : non seulement pour étendre le Principe d'Equivalence de Newton, mais aussi pour imiter le modèle maxwellien de l'électromagnétisme. Il s'agissait alors de décrire une "source" émettant des "potentiels de gravité" qui se propageraient ensuite dans l'espace-temps extérieur à cette "source" sous forme "d'ondes gravitationnelles".

Toute onde est évidemment un signal. Mais tout signal est loin d'être toujours une onde.

Si vous prenez "l'équation de la chaleur", qui est de type parabolique, vous débouchez sur un processus, non plus de propagation, mais de diffusion. L'information continue d'être transmise, mais plus sous la forme d'une onde. Enfin, si : par extension, on a coutume de l'appeler onde "de diffusion". Mais ses caractéristiques sont très différentes.

Si vous prenez une équation, toujours du 2nd ordre, mais de type elliptique, vous obtenez un "potentiel". Ce dernier cas est particulièrement probant dans les espaces quantiques. Prenez 22s coordonnées quantiques zi = xi + iyi. L'opérateur invariant du 2nd ordre :

(1)     d²/dzidzi = Idijd²/dzidzj = (d²/dxidxi - d²/dyidyi) + 2id²/dxidyi  
                     = (d²/dxidxi - d²/dyidyi) + ½ i[(d/dxi + d/dyi)(d/dxi + d/dyi) - (d/dxi - d/dyi)(d/dxi - d/dyi)]

donne automatiquement naissance à des opérateurs classiques hyperboliques, ce qui veut dire qu'un potentiel quantique (le membre de gauche est elliptique) produit systématiquement deux ondes classiques. Il devient dès lors inutile de rechercher des "propagateurs de type ondulatoire" dans un Cp(s-½),q(s-½), puisque le carré de l'unité imaginaire fait le travail : du point de vue classique, vous retrouverez la même situation que dans un CD(s-½). Et ceci s'explique aisément. Si vous exprimez chaque zi en représentation polaire classique zi = |z|iexp(iksii) et que vous faites varier l'angle ksii tout en conservant l'amplitude |z|i constante, vous débouchez sur deux oscillations classiques :

(2)     xi(ksii) = |z|icos(ksii)   et   yi(ksii) = |z|isin(ksii)

de même amplitude, mais en quadrature de phase. Ainsi, que vous vous placiez dans un espace quantique ou dans un espace-temps quantique, classiquement, vous obtiendrez des "ondes".

Vous voyez d'ailleurs que la "dualité onde-corpuscule" à la base de la "mécanique ondulatoire" correspond bien aux espaces complexes : si vous considérez le nombre complexe zi, il représente un "corpuscule" (ou, tout du moins, sa projection sur le i-ème axe) ; dès que vous le décomposerez en composantes classiques et que vous ferez varier l'angle ksii, vous obtiendrez des "oscillations de base". Vous pourrez faire de même avec n'importe quelle fonction quantique F(z) des variables zi, puisque celle-ci se décomposera classiquement toujours en :

(3a)     F(z) = |F|(x,y)exp[iPHI(x,y)]

A gauche, un "corpuscule image" F = F(z) ; à droite, deux "paquets d'ondes de base" classiques,

(3b)     F0(x,y) = |F|(x,y)cos[PHI(x,y)]   et   F1(x,y) = |F|(x,y)sin[PHI(x,y)]

dès que vous ferez varier PHI(x,y).

La "quantique", c'est de la géométrie complexe, parce que l'unité imaginaire i est la seule quantité "purement quantique".

Tout le reste, c'est de la statistique, liée à la mesure et à l'observabilité des processus. Schrödinger, par exemple, c'est de la statistique parce que l'amplitude du signal est une amplitude de probabilité de présence. Sinon, c'est de la diffusion. Sauf qu'elle n'est plus classique, en raison de la présence de l'unité imaginaire :

(4a)     d/dt = i(h/2m)d²/dxadxa     (a = 1,2,3)

C'est de la diffusion quantique. Tout s'explique : s'il y a i, c'est du quantique ; sinon, c'est du classique. Dans la diffusion moléculaire classique, j'ai un coefficient de diffusion D réel, en m²/s, et une équation parabolique :

(4b)     d/dt = Dd²/dxadxa     (a = 1,2,3)

Chez Schrödinger, j'ai D = i(h/2m) : un coefficient de diffusion purement imaginaire. La transmission de l'information se fait suivant le même processus, mais plus du tout de la même manière : si vous élevez l'opérateur d/dt au carré dans les deux expressions ci-dessus, vous obtenez, pour le classique,

(4c)     d²/dt² - D²d4/(dxadxa)² = 0

et pour le quantique,

(4d)     d²/dt² + (h/2m)²d4/(dxadxa)² = 0

Ce qui était monotone devient oscillant et ce qui était oscillant devient monotone.

Suivant l'équation à laquelle obéit un "potentiel de champ", l'information sera transmise de telle ou telle manière. Mais elle sera toujours transmise, du fait que ce potentiel établit une corrélation fonctionnelle (pas nécessairement statistique) entre deux points ou objets distants du même espace.

Tiens, un exemple caractéristique, même en espace classique : la vitesse de déformation du cadre sous les contraintes imposées par une source est ceij(x) = cdXj(x)/dxi. C'est aussi la vitesse de déplacement d'un point x au point image x' = X(x). Pour que toutes ces vitesses restent =< c, il faut que 0 =< |eij(x)| =< 1 : c'est tellement restrictif que ça confine presque à l'absurde... ça exige que l'espace se contracte dans toutes ses directions. Imposer la causalité partout est beaucoup trop contraignant. Et vouloir la préserver en invoquant des arguments statistiques ne me semble pas être la solution.

En conclusion, les choses semblent bien plus simples qu'elles n'y paraissent de prime abord. Toutes les difficultés techniques que nous avons rencontrés pendant des années provenaient exclusivement du fait que la construction du corps des nombres complexes était mal faite, ce qui nous a obligé à travailler en géométrie réelle, c'est-à-dire, classique. La réparation de C permet à présent de transférer les modèles d'interaction entre objets des espaces classiques RD(s) aux espaces quantiques CD(s - ½) avec, rappelons-le, D(s) = 22s+1 et donc D(s - ½) = 22s. Si les phénomènes dits "parapsychiques" ont bien une origine quantique, nous devrions être en mesure de leur trouver une explication ou de les infirmer. En effet, contrairement aux espaces classiques, qui n'acceptent que des surfaces positives ou nulles, les espaces quantiques autorisent les "surfaces négatives" en raison de i² = -1. De telles surfaces n'existent évidemment pas en réalité, elles correspondent à des surfaces purement quantiques. Mais l'omniprésence de l'unité quantique i dans les cadres comme dans les champs et les objets fait que les espaces quantiques "bouclent sur eux-mêmes" : ils sont auto-suffisants, contrairement aux espaces classiques. Cela veut dire que, si des phénomènes physiques doivent s'y produire, alors ces phénomènes sont forcément explicables par la quantique, i.e. par la géométrie complexe. Sinon, il y a de très fortes chances qu'ils n'existent pas et qu'il faille chercher la réponse au niveau comportemental.

C'est un critère de sélection fiable, mais assez sévère : "vous êtes quantiques ou vous sortez de l'imagination", sans jeu de mot.

 

B 185 : DIMENSIONS ET CORDES QUANTIQUES

Le 28/06/2023

La SEULE grandeur quantique est i, l'unité imaginaire, la racine carrée de -1. Toutes les autres en découlent. Vous prenez un nombre complexe quelconque z = x + iy = reiksi, toutes les quantités sont réelles, i.e. "classiques", de carrés positifs, seule i ne l'est pas. Nous allons donc commencer par étudier la déformation suivante de l'espace classique R2 :

(1)     x' = xch(ky)  , y' = xsh(ky)     ,     x >= 0  ,  k <> 0,

soit x0 = x, x1 = y, x'0 = x', x'1 = y'. Cette transformation n'étant pas linéaire en y, on a forcément de la courbure :

eij = dx'j/dxi =>

(2a)     e00 = ch(ky)  ,  e01 = sh(ky)  ,  e10 = kxsh(ky)  ,  e11 = kxch(ky)  
(2b)     Det(e) = kx

gij = Idkleikejl = ei0ej0 + ei1ej1 =>

(2c)     g00 = ch(2ky)  ,  g01 = kxsh(2ky)  ,  g11 = k²x²ch(2ky)  
(2d)     Det(g) = k²x²

(2e)     g00 = ch(2ky)  ,  g01 = -sh(2ky)/kx  ,  g11 = ch(2ky)/k²x²

Cij,k = ½ (-dkgij + digjk + djgik) =>

(3)     C00,0 = 0  ,  C01,0 = ksh(2ky)   ,  C11,0 = k²xch(2ky)
         C00,1 = 0  ,  C01,1 = k²xch(2ky)  ,  C11,1 = k3x²sh(2ky)
 
R0101 = d0C11,0 - d1C01,0 + g00[C00,0C11,0 - (C01,0)²] + g11[C00,1C11,1 - (C01,1)²] =>

(4a)     R0101 = -k²ch²(2ky)[ch(2ky) + 1]

Rik = gjlRijkl = g00Ri0k0 + g11Ri1k1 =>

(4b)     R00 = -ch3(2ky)[ch(2ky) + 1]/x²  ,  R01 = 0  ,  R11 = -k²ch3(2ky)[ch(2ky) + 1]

R = gikRik = g00R00 + g11R11 =>

(4c)     R = -2ch4(2ky)[ch(2ky) + 1]/x²

La courbure de Riemann et ses invariants sont tous négatifs. Elles ne s'annulent jamais, excepté asymptotiquement à l'infini de x. A noter que R11 ne dépend pas de x.

En dimension classique 2, le tenseur contraintes de la source s'exprime en J/m², ce qui donne un coefficient de couplage en J-1, soit 1/mplc² :

(5a)     Tik = mplc²Rik  
(5b)     T00 = -mplc²ch3(2ky)[ch(2ky) + 1]/x² < 0
(5c)     T11 = -mplc²k²ch3(2ky)[ch(2ky) + 1] < 0.

Les contraintes normales sont négatives, on a affaire à une dilatation.


Maintenant, on effectue la substitution k -> ik dans (1). On trouve, successivement :

(6)     x' = xcos(ky)  , y' = ixsin(ky)   

(7a)     e00 = cos(ky)  ,  e01 = isin(ky)  ,  e10 = -kxsin(ky)  ,  e11 = ikxcos(ky)  
(7b)     Det(e) = ikx

(7c)     g00 = cos(2ky)  ,  g01 = -kxsin(2ky)  ,  g11 = -k²x²cos(2ky)  
(7d)     Det(g) = -k²x²

(7e)     g00 = cos(2ky)  ,  g01 = sin(2ky)/kx  ,  g11 = -cos(2ky)/k²x²

(8)     C00,0 = 0  ,  C01,0 = -ksin(2ky)   ,  C11,0 = -k²xcos(2ky)
         C00,1 = 0  ,  C01,1 = -k²xcos(2ky)   ,  C11,1 = k3x²sin(2ky)

(9a)     R0101 = k²cos²(2ky)[cos(2ky) + 1] >= 0

(9b)     R00 = -cos3(2ky)[cos(2ky) + 1]/x²  ,  R01 = 0  ,  R11 = k²cos3(2ky)[cos(2ky) + 1]

(9c)     R = -2cos4(2ky)[cos(2ky) + 1]/x² =< 0

(10a)     T00 = -mplc²cos3(2ky)[cos(2ky) + 1]/x²
(10b)     T11 = mplc²k²cos3(2ky)[cos(2ky) + 1]

Cette fois, la courbure de Riemann est positive ou nulle, les courbures de Ricci ne sont plus de signe défini et la courbure de Gauss est négative ou nulle. Toutes ces courbures s'annulent pour :

(11)     ky = (2n + 1)pi/4  ou  ky = (2n + 1)pi/2


Elles vont alternativement changer de signe, entrainant une alternance de dilatations et de compressions.

Voilà la différence entre le classique et le quantique : la transformation (1) est dans R2, mais pas (6), qui se trouve dans C. La source (5) dilate R2 et a pour enveloppe l'hyperbole x'² - y'² = r². Elle n'est donc pas compacte et ne peut représenter une source physique réelle. Au contraire, la source (10) est oscillante. Elle n'est plus de dimension classique 2, mais de dimension quantique 1, ce qui fait que son enveloppe (6) a en fait pour équation :

(12)     x' + y' = xeiky  

avec x' classique, mais y' quantique. Classiquement, c'est un disque de rayon x vibrant à la pulsation k. Du point de vue quantique, x' + y' = z' est l'équation d'une droite. La source est donc assimilable à une corde quantique. Au gré de ses pulsations, elle impose des compressions et des dilatations dans chaque direction du plan R2. Elle déforme alternativement l'espace classique 2D. Côté énergies classiques, B 168 fournit une équivalence :

(13a)     Eik = mplc²gik  
(13b)     E00 = mplc²cos(2ky)  ,  E01 = 0  ,  E11 = -mplc²k²x²cos(2ky)

Si l'énergie appliquée à la direction x0 = x, i.e. le long de la distance radiale, reste bornée entre -Epl et +Epl, celle appliqué dans la direction x1 = y, associée à la phase de l'onde, croit comme le carré de la distance radiale en valeur absolue (on trouve 0 =< |E11| =< mplc²k²x²). Or, x représente la "longueur" de la corde. Donc, plus celle-ci "s'allonge", plus mplc²k²x² augmente. Pour une "longueur" x donnée, mplc²k²x² augmente également comme le carré de la pulsation : plus la corde de longueur x fixée vibre rapidement, plus l'énergie mplc²k²x² est importante.

La transformation (12) est ce qui définit en fait une dimension quantique. On a bien amplitude x et phase ky. L'onde classique correspondante est élémentaire. Physiquement, (12) semble donc faire le parallèle entre "corde quantique" et "dimension quantique". Dans un CD(s-½), vous trouvez D(s - ½) = 22s cordes quantiques de la forme (12), d'amplitudes xi et de phases ksii. Comme on dénombre également 22s coordonnées yi, le nombre d'onde k est remplacé par un tenseur kij, de manière à ce que l'on ait :

(14)     ksii = kijyj  

Les dimensions sont indépendantes, on conçoit donc que les cordes vibrent indépendamment les unes des autres.

 

B 184 : SUR LES ACCROISSEMENTS FINIS

Le 10/06/2023

Cette bidouille a pris du temps pour voir le jour, parce que j'ai encore essayé nombre de solutions de replâtrage. Je suis, en effet, retombé sur du travail bâclé... Je vais finir par passer pour un éternel insatisfait... Mais, quand c'est faux, c'est faux. Rien ne sert de se casser la tête à rechercher des moyens plus généraux de préserver l'acquis en cause.

Je veux parler, cette fois, de [B182, (14)]. Considérons l'équation plus générale :

(1a)     f(1)(x,dx) = g(x,dx)

où l'étalon dx de la variable apparaît explicitement (ou pas). L'analyse fonctionnelle dit que g est la dérivée de f et que f est la primitive de g (en détermination principale au moins). Lorsque g est la fonction identiquement nulle, nous avons vu en seconde partie de B 182 que la solution de :

(1b)     f(1)(x,dx) = 0     pour tout x et tout dx dans R,

N'EST PAS la fonction constante. En revanche, si f EST une fonction constante, ALORS f est automatiquement solution de (1b). Il en ressort que :

La proposition "f(1)(x) = 0 <=> f(x) = cte pour tout x et tout dx dans R" est fausse en général.

En effet, elle ne peut, au mieux, être vrai que pour les x multiples entiers du dx, ce qui restreint le support de f à l'espace arithmétique Z|dx|. Or, Card(]-|dx|,+|dx|[) est du même ordre que Card(R), c'est-à-dire, exponentiellement plus grand que celui de Card(Z|dx|) = Card(Z), même si dx est une grandeur infinitésimale. Cela veut dire que les points de R où la solution de (1) est effectivement constante sont exceptionnels et dénombrables.

Ce n'est donc pas le fait que l'on se donne un dx quelconque, même chez Leibnitz, c'est faux. Et, puisque dx reste fini :

La solution de (1b) est une fonction périodique de période dx.

Point. J'ai trouvé des échappatoires, pour tenter de sauver le calcul différentiel et intégral, c'est inutile : ce qui n'est vrai qu'en particulier est faux en général. C'est la logique mathématique.

La meilleure des preuves réside dans la signification géométrique de l'intégrale donnée en analyse fonctionnelle : elle est censée représenter la surface comprise entre la courbe [ici, g(x) = Limdx->0 g(x,dx)], l'axe des x et la valeur de cette g(x) en deux points distants x1 et x2 (avec x1 < x2). Si g est la fonction NULLE... alors, son graphe s'étend sur tout l'axe des x (il ne peut en être autrement). Comment voulez-vous, dès lors, que la surface comprise entre cet axe et lui-même soit CONSTANTE (éventuellement NON NULLE) ?... Une fois encore, comment une telle absurdité a-t-elle pu échapper à la sagacité des matheux ?... C'est incompréhensible. Toujours est-il que le fait est là : la relation f(x + dx) = f(x) ne fait que traduire le report de la valeur de f en x à tous les intervalles de longueur dx. Rien d'autre. Vous avez donc f(0) = f(dx) = f(ndx) pour n dans Z mais, par exemple, f(dx/2) = f(3dx/2) = f[(n + ½)dx]. Il est clair que la valeur f(0) est généralement différente de f(dx/2), à moins de poser formellement que dx = 0, ce qui 1) n'est pas l'hypothèse posée par Leibnitz et 2) conduit seulement à l'identité triviale f(x) = f(x) qui ne nous apprend absolument rien sur f(x).

Vous savez que je n'aime pas faire des articles trop longs, aussi allons-nous décomposer le travail. Dans cette bidouille, nous n'allons établir que des résultats sur des fonctions de base : ce qui vient remplacer les monômes xn/n! pour n dans N, la fonction exponentielle et la fonction logarithme.

La primitive d'ordre n de 1 donne, successivement :

M0(x,dx) = 1     pour tout x et tout dx dans R (fonction constante) ;
M1(x,dx) = x + f0(x,dx) ;
M2(x,dx) = x(x - dx)/2 + f0(x,dx)x + f1(x,dx) ;
M3(x,dx) = x(x - dx)(x - 2dx)/3! + f0(x,dx)x(x - dx)/2 + f1(x,dx)x + f2(x,dx), etc.

Soit, en notant P[Mn(x,dx)] la partie principale de Mn(x,dx) :

(2a)     Mn+1(x,dx) = [Pp=0n (x - pdx)]/n! + Sp=0n fp(x,dx)P[Mn-p(x,dx)]
                          = P[Mn+1(x,dx)] + Sp=0n fp(x,dx)P[Mn-p(x,dx)]


où les fp(x,dx) sont toutes de période dx. On a des propriétés intéressantes, la première étant :

(2b)     Mn+1(1)(x,dx) = Mn(x,dx)  <=> Mn+1(x,dx) primitive d'ordre n de x.

Puis, par récurrence inverse :

(2c)     Mn+1(p)(x,dx) = Mn+1-p(x,dx)  ,  0 =< p =< n
(2d)     Mn+1(n+1)(x,dx) = M0(x,dx) = 1
(2e)     Mn+1(p)(x,dx) = 0     pour tout p > n + 1.


Enfin, en différences finies, la dérivée d'une fonction de fonction continuant d'être le produit des dérivées,

{1/P[Mn(y,dy)]}(1) = -P[Mn-1(y,dy)]/P[Mn(y,dy)]{P[Mn(y,dy)] - dP[Mn(y,dy)]}
                          = -P[Mn-1(y,dy)]/P[Mn(y,dy)]{P[Mn(y,dy)] - P[Mn-1(y,dy)]dy}
                          = -1/[y - (n - 1)dy](y - ndy)P[Mn-1(y,dy)]
                          = -1/P[Mn+1(y,dy)]

d'où il ressort très facilement que :

(2f)     {1/P[Mn(y,dy)]}(p) = (-1)p/P[Mn+p(y,dy)]     pour tout p dans N.

Venons-en maintenant à l'exponentielle [B182, (15b)] :

(3a)     exp+(x,dx) = [1 + k(x,dx)dx]x/dx  ,  k de période dx.

Cette fonction, pourtant beaucoup plus complexe que ekx, k constante, continue de vérifier :

(3b)     exp+(1)(x,dx) = k(x,dx)exp+(x,dx)

Vous en déduisez par simple récurrence que :

(3c)     exp+(n)(x,dx) = kn(x,dx)exp+(x,dx)     pour tout n dans N,

et donc que les modes de exp(x,dx) sont les puissances entières de k(x,dx). En effet :

(3d)     exp+(x,dx) = Sn=0+oo kn(x,dx)P[Mn(x,dx)]

vous donne bien,

exp+(1)(x,dx) = Sn=0+oo kn(x,dx){P[Mn(x,dx)]}(1) = Sn=1+oo kn(x,dx)P[Mn-1(x,dx)]
                  = Sn=0+oo kn+1(x,dx)P[Mn(x,dx)] = k(x,dx)exp+(x,dx)

en vertu de (2b) sur les parties principales des Mn(x,dx). La récurrence va de soi : on retombe bien sur (3c).

Il serait toutefois préférable de raisonner dans C plutôt que dans R, afin que exp(x,dx) soit définie partout.

Ce qui remplace e-kx = 1/ekx est :

(3e)     exp-(x,dx) = [1 - k(x,dx)dx]x/dx = Sn=0+oo (-1)nkn(x,dx)P[Mn(x,dx)]

Il y a donc DEUX fonctions exponentielles et non une seule, selon le signe qui se trouve devant k.

A l'aide de exp+ et exp- on peut étendre les fonctions trigonométriques :

(3f)     ch(x,dx) = ½ [exp+(x,dx) + exp-(x,dx)]
                      = ½ {[1 + k(x,dx)dx]x/dx + [1 - k(x,dx)dx]x/dx}

                      = Sn=0+oo k2n(x,dx)P[M2n(x,dx)]

(3g)     sh(x,dx) = ½ [exp+(x,dx) - exp-(x,dx)]
                      = ½ {[1 + k(x,dx)dx]x/dx - [1 - k(x,dx)dx]x/dx}

                      = Sn=0+oo k2n+1(x,dx)P[M2n+1(x,dx)]

Ces exponentielles sont inversibles. D'après (3b) et (3e), de y+ = exp+(x,dx) et y- = exp-(x,dx), on tire :

dy+/y+ = -dy-/y- = k(x,dx)dx

d'où,

Ln(y+) = (x/dx)Ln(1 + dy+/y+) = (x/dx)Ln(1 - dy-/y-)
Ln(y-) = (x/dx)Ln(1 + dy-/y-) = (x/dx)Ln(1 - dy+/y+)

et

x/dx = Ln(y+)/Ln(1 + dy+/y+) = Ln(y-)/Ln(1 + dy-/y-)

Il en découle d'abord la relation symétrique suivante :

(4a)     Ln(y+)Ln(1 - dy+/y+) = Ln(y-)Ln(1 - dy-/y-)

puis,

k(x,dx)x = Ln(y+)dy+/y+Ln(1 + dy+/y+) = -Ln(y-)dy-/y-Ln(1 + dy-/y-) = Ln+(y+,dy+) = -Ln-(y-,dy-)

Ces expressions définissent les logarithmes en différences finies :

(4b)     Ln+(y+,dy+) = Ln(y+)dy+/y+Ln(1 + dy+/y+) = Ln(y+)/Ln[(1 + dy+/y+)y+/dy+]
(4c)     Ln-(y-,dy-) = Ln(y-)dy-/y-Ln(1 + dy-/y-) = Ln(y-)/Ln[(1 + dy-/y-)y-/dy-]
(4d)     Ln+(y+,dy+) = -Ln-(y-,dy-)

(4e)     dy+/y+ = -dy-/y-  

On retrouve bien Ln+(y+,0) = Ln(y+), puisque Limdy+->0 (1 + dy+/y+)y+/dy+ = e pour tout y+. D'après (4e), (dy+ -> 0) <=> (dy- -> 0) pour tout couple (y+,y-) fini. A l'autre extrémité, Limdy+->oo (1 + dy+/y+)y+/dy+ = 1 pour tout y+ => Ln(y,oo) = oo. Toujours d'après (4e), (dy+ -> oo) <=> (dy- -> oo) pour tout couple (y+,y-) fini non nul.

En utilisant la périodicité de k(x,dx),

d[k(x,dx)x] = k(x,dx)dx = dLn+(y+,dy+) = -dLn-(y-,dy-) = dy+/y+ = -dy-/y-

montre (un peu contre toute attente...) que LES fonctions logarithme continuent de vérifier l'équation :

(4f)     dLn+(y+,dy+)/dy+ = 1/y+  ,  dLn-(y-,dy-)/dy- = 1/y-  

Attention, cependant, à utiliser des variables sans unité.

En calculant les dérivées successives de Ln+(y+,dy+) entre y+ - dy+ et y+, il est facile d'établir :

(4g)     Ln+(n+1)(y+,dy+) = (1/y+)(n) = (-1)n/(n + 1)P[Mn+1(y+,dy+)]    

De l'identité y+Ln+(1)(y+,dy+) - 1 = 0 et de [y+Ln(y+,dy+)](1) = (y+ + dy+)Ln+(1)(y+,dy+) + Ln+(y+,dy+), on tire la primitive de log+ :

(4h)     Ln+(-1)(y+,dy+) = (y+ - dy+)Ln+(y+,dy+) + y+ + f1(y+,dy+)

Par une nouvelle récurrence facile, on obtient :

(4i)     Ln+(-n)(y+,dy+) = P[Ln+(-n)(y+,dy+)] + Sp=1n fp(y+,dy+)P[Mn-p(y+,dy+)]
(4j)     P[Ln+(-n)(y+,dy+)] = [Pp=1n (y+ - pdy+)]Ln+(y+,dy+)/(n + 1) + P[Mn(y+,dy+)]
                                   = n!P[Mn+1(y+,dy+)]Ln+(y+,dy+)/(n + 1)y+ + P[Mn(y+,dy+)]


les fp étant de nouveau tous de période dy+. D'après (4g),

Ln+(n+1)(y+,dy+)P[Mn+1(y+,dy+)] = (-1)n/(n + 1)

Ce résultat est indépendant de y comme de dy. Après sommation :

(4k)     Sn=0+oo Ln+(n+1)(y+,dy+)P[Mn+1(y+,dy+)] = Sn=0+oo (-1)n/(n + 1) = Ln(2)

Cette identité remarquable prouve malheureusement à elle seule que les théorèmes fondamentaux du calcul différentiel (Fermat, Rolle, Lagrange, Taylor et Cauchy) n'ont plus cours, essentiellement parce que les dérivées y sont calculées par la méthode de Leibnitz.

 

B 183 : DYNAMIQUE DANS LES ESPACES DE SPIN

Le 19/04/2023

Nous avons désormais tous les outils en main pour décrire la dynamique des corps comme des champs dans tous les espaces de spin. Nous noterons x un vecteur position dans RD(s), x son "hypothénuse" et xi = xA(1)...A(2s+1) ses composantes, l'indice i allant de 1 à D(s).

Le mouvement du cdg d'un corps dans RD(s) est une application vectorielle :

(1)     x : R -> RD(s), x -> x(x).

Sa vitesse de déplacement est :

(2)     v(x) = cdx(x)/dx

et son accélération,

(3)     a(x) = cdv(x)/dx = c²d²x(x)/dx²

Selon ce que l'on choisira pour "hypothénuse", la dynamique apparaîtra différente.

Si l'on prend :

(4)     x² = x.x 

la dynamique se fera dans des référentiels euclidiens. Si, au contraire, on opte pour :

(5)     x² = x.xt  

la dynamique restera euclidienne dans le référentiel (xi), mais apparaîtra pseudo-euclidienne de signature [p(s),q(s)] dans le référentiel (x'i) obtenu après alignement des axes de la forme quadratique x² avec ceux des coordonnées.

Ce n'est qu'une apparence. On n'a pas changé de cadre. On est toujours dans un RD(s), on n'est pas passé dans un Rp(s),q(s). Le cône qui semble se former dans le référentiel (x'i) disparait complètement dans le référentiel (xi). Il n'a donc aucun contenu physique, ce n'est qu'une structure inertielle.

Ceci ne remet pas en cause la finitude de c, ni même l'invariance du x², qui reste le même dans les deux référentiels. C'est uniquement le fait que nous avons défini, en B179, une opération de transposition pour les vecteurs, qui n'existait auparavant que pour les matrices ou tenseurs n x n, avec n >= 2, que nous avons pu regrouper les deux possibilités (4) et (5) ci-dessus dans le même espace euclidien RD(s). Et cette transposition des vecteurs nous a été imposée par la physique elle-même. Cette opération mathématique manquait. Nous l'avons simplement rajoutée pour nous conformer aux observations. Mais il s'avère qu'elle a une portée bien plus vaste que la physique, car elle dit en fait que :

En géométrie réelle, il n'y a pas d'espaces pseudo-euclidiens. Il n'y a que des espaces euclidiens qui, selon le choix de "l'hypothénuse", peuvent, soit rester euclidiens si son carré est irréductible [c'est le cas de (4)], soit prendre l'apparence d'espaces pseudo-euclidiens si son carré est réductible [c'est le cas de (5)], une fois les axes de la métrique alignés avec ceux des coordonnées, i.e. après réduction de la seconde forme quadratique de l'espace.

Ce sont les termes bilinéaires qui décident. Ils sont absents de (4), mais présents dans (5) en quantité q(s) [puisque la réduction fait apparaître q(s) signes "-"]. On ne peut pas appeler ça un théorème, sinon "d'inexistence".

Si vous choisissez (4), la dynamique est définie partout où la trajectoire x(x) ne diverge pas. Si vous choisissez (5), vous allez rencontrer une "contrainte" dans le référentiel (x'i) qui va limiter votre domaine physique, puisque dx² = dx.dxt ne sera plus de signe défini. Si vous le décomposez en :

(6)     dx² = Si=1p(s) (dx'i)² - Si=p(s)+1D(s) (dx'i)² = Si=1p(s) (dx'i)² - c²Si=1q(s) (dt'i)² = dr'² - c²dt'²

votre domaine physique se retreindra à dx² >= 0 dans le référentiel (x'i). Vous aurez alors du mal à comprendre pourquoi une telle limitation, alors qu'il n'y en a manifestement pas dans le référentiel (xi).

Localement sur la trajectoire, si l'on prend :

(7a)     dx² = dx(x).dx(x),

alors,

(7b)     v²(x) = v(x).v(x) = Si=1p(s) [vi(x)]² = c²

Si l'on prend :

(8a)     dx² = dx(x).dxt(x),

on aura,

(8b)     v²(x) = v(x).vt(x) = c²

et on verra apparaitre un "cône de lumière" dans le référentiel tangent [v'i(x)] = [dx'i(x)/dx].

Le reste est plus que connu. Si m désigne la masse du corps et que l'on part du principe qu'elle n'a pas à dépendre explicitement de x, la fonction de Lagrange est :

(9a)     L[x(x),v(x)] = ½ mv²(x) + mG[x(x)].v(x) = ½ mvi(x)vi(x) + mGi[x(x)]vi(x)

Elle s'exprime en Joules dans tous les RD(s). Tout dépend ensuite de la manière dont on décide de définir le dual vi(x) de vi(x) : soit comme Idijvj(x), auquel cas il aura les mêmes composantes, soit comme g(0)ijvj(x) de telle manière que, dans le référentiel primé, v'i(x) = g'(0)ijv'j(x), avec g'(0)ii = +1 pour i = 1 à p(s), g'(0)ii = -1 pour i = p(s)+1 à D(s) et g'(0)ij = 0 pour i différent de j. Dans les deux cas, on aura vi(x)vi(x) = c², de sorte que l'énergie cinétique sera constante :

(9b)     L[x(x),v(x)] = ½ mc² + mGi[x(x)]vi(x)

L'impulsion généralisée du corps est :

(10)     Pi[x(x)] = [d/dvi(x)]L[x(x),v(x)] = pi(x) + mGi[x(x)]

avec pi(x) = mvi(x), son impulsion libre. On a :

(11)     dvi(x)/dx = Wij[x(x)]vj(x)

avec

(12)     Wij[x(x)] = di(x)Gj[x(x)] - dj(x)Gi[x(x)]

et di(x) = d/dxi(x), la dérivée directionnelle. La fonction d'Hamilton, elle, est partout constante :

(13)     H[p(x),x(x)] = vi(x)dL/dvi(x) - L = ½ mc² = p²(x)/2m

On retrouve l'identité de la RR, p²(x) = m²c². Le mouvement est conservatif. Et, puisque nous en sommes arrivés aux champs, vous remarquerez que, dans le référentiel (xi), toutes les composantes de Gi sont de type "potentiels vecteur" et toutes celles de Wij, de type "magnétique". L'invariance des formes différentielles fait immédiatement apparaître le typage :

(14)     G = Gi(x)dxi = g(0)ijGi(x)dxj = G'i(x')dx'i = g'(0)ijG'i(x')dx'j  
                                                 = Si=1p(s) G'i(x')dx'i - cSi=1q(s) G'i+p(s)(x')dt'i   

Les G'i(x') sont de type "potentiels vecteur" et les G'i+p(s)(x'), de type "potentiels scalaires".

(15)     W = ½ Wij(x)dxi × dxj = ½ W'ij(x')dx'i × dx'j  
                                          = ½ Si=1p(s)-1Sj=i+1p(s) W'ij(x')dx'i × dx'j +
                                             + cSi=1q(s)Sj=1p(s) W'i+p(s),j(x')dt'i × dx'j +
                                             + ½ c²Si=1q(s)-1Sj=i+1q(s) W'i+p(s),j+p(s)(x')dt'i × dt'j  

Selon la terminologie en usage, les W'ij(x') sont de type "magnétique" et les W'i+p(s),j(x'), de type "électrique". Les W'i+p(s),j+p(s)(x') n'apparaissent qu'à partir de q(s) = 2, soit s = 1. Ils n'ont pas de type maxwellien défini. Si l'on adaptait la terminologie, on dirait que les W'i+p(s),j(x') sont de type "magnéto-électrique", parce qu'ils mixent les deux types à la fois et les W'i+p(s),j+p(s)(x') prendraient alors le type "électrique".

Que de complications inutiles... qui font passer à côté de plein de choses...

On croit que l'on a progressé, alors qu'en fait, on s'est confiné...

Si vous prenez dx² = dx.dx pour hypothénuse locale, il n'y a pas de problème, tout y est "magnétique". Si vous prenez dx² = dx.dxt, tout reste "magnétique" dans le référentiel (xi) et les types "exotiques" n'apparaissent que dans le référentiel (x'i). Avec la conséquence assez amusante suivante. Au lieu de considérer les potentiels de champs (14), regardons ses sources :

(16)     j = ji(x)dxi = g(0)ijji(x)dxj = j'i(x')dx'i = g'(0)ijj'i(x')dx'j  
                                                 = Si=1p(s) j'i(x')dx'i - cSi=1q(s) j'i+p(s)(x')dt'i   

Dans le référentiel (xi), vous ne trouvez que D(s) densités de courant ji(x) = q(x)vi. Que dans le référentiel (x'i), vous trouvez p(s) densités de courants et q(s) densités de charge, j'i+p(s)(x') = qi(x)c. Ces dernières disparaissent du paysage dans le référentiel (xi)... Vous en déduisez ?...

Que la notion de charge (masse incluse) est totalement inertielle.

Et là, vous commencez à vous dire que c'est peut-être la raison pour laquelle vous cherchez toujours, en 2023, l'origine de toutes ces charges... Alors qu'il suffit de partir de densités de courant (ou d'impulsion pour la masse) et de diviser par c, une superbe constante universelle, pour obtenir des équivalents charge...

ÇA PAS RIRE JAUNE ?... TOI PAS RIGOLER ?... smiley Toi, prendre tête pour pas-grand-chose...

Vous remercierez Higgs, qui complète le tableau des particules "exotiques", mais j'avais raison : masse et autres charges ne sont que des apparences. La brisure spontanée de symétrie n'explique absolument rien là-dessus (sinon, le modèle aurait prédit la masse du boson...).

Pour la RG, c'est pareil, inutile de réécrire les équations. L'unique limitation du domaine physique dans les espaces réels ') "classiques"), c'est ds² >= 0. Ça veut dire (et toi, encore rigoler !) que, partant d'un RD(s), on n'aboutit qu'à des régions super-luminiques (v² >= c²) et que les régions sub-luminiques ("causales") ne sont accessibles qu'à partir d'un CD(s), un espace euclidien complexe, c'est-à-dire, quantique... Autrement dit :

Si nous évoluons dans une région causale de l'univers 4D, c'est que cet univers est quantique et non classique. C'est un C4, ainsi que l'avais prédit Dirac.

Dans un CD(s), en effet, opère la magie de l'unité complexe i... qui change les signes... Vous y avez des coordonnées zi =  xi + iyi dont le carré euclidien vaut :

(17a)     z² = x² - y² + 2ix.y = x² - y² + ½ i[(x + y)² - (x - y)²]

-y² vous donne les régions causales. Quant au produit z.zt, il vaut :

(17b)     z.zt = (x + iy).(xt + iyt) = x.xt - y.yt + i(x.yt + xt.y)
                  = x.xt - y.yt + ½ i[(x + y).(xt + yt) - (x - y).(xt - yt)]

Dans les deux cas, vous tombez en signature [D(s),D(s)]. Mais dans le second, vous aurez un cône inférieur x'.x't, qui délimitera le domaine tachyonique "par en-dessous" et un cône supérieur y'.y't, qui délimitera le domaine causal "par au-dessus".

 

Minibluff the card game

Hotels