blogs.fr: Blog multimédia 100% facile et gratuit

doclabidouille

Blog multimédia 100% facile et gratuit

 

BLOGS

Blog dans la catégorie :
Sciences

 

Statistiques

 




Signaler un contenu illicite

 

doclabidouille

B 188 : DIFFUSEURS DANS M2(R)

Le 15/09/2023

Considérons maintenant une source dans R, toujours hors observation. C'est une distribution q(x)dx, de densité q(x). Dans les modèles linéaires d'interaction, cette source va diffuser ses informations à l'aide d'un champ de transmission F(x). La relation entre densité de source et champ sera intégrale et utilisera le "noyau de diffusion" D(x). Celui-ci se couplera à la distribution source via la formule de convolution :

(1a)     Fint(x) = KSR D(x - x')q(x')dx'

où K est un coefficient de proportionnalité > 0. Cette expression fournira l'allure du champ à l'intérieur de la source. Ce n'est plus ce qui nous intéresse. Nous voulons le champ à l'extérieur de la source. Pour l'obtenir, il faut poser :

(1b)     qext(x)dx = qd(x)dx

On trouve alors :

(1c)     Fext(x) = KqD(x)

Cette partie du champ qui transmet les informations de la source à l'extérieur de celle-ci est le produit de la constante de proportionnalité K, de la "charge topologique" q contenue dans la source et du "diffuseur" D(x). Dans M2(R), ce dernier a généralement pour expression :

(1d)     Di(x) = (d/dx){exp[S(x)si/h]} = [p(x)/h]exp[S(x)si/h]si  

pour la matrice unité si.

Il est possible de regrouper les formules [B187, (4a) et (4b)] en une seule, à condition de faire intervenir l'unité imaginaire i. Pour éviter d'éventuelles confusions entre elle et l'indice entier i qui parcourt les valeurs de 0 à 3, nous allons réindexer les matrices s au moyen d'indices binaires C et D formant le mot 2C + D. Les expressions [B187, (4a) et (4b)] nous disent que la puissance de i doit être nulle pour s0 et égale à 1 pour les 3 autres unités. Le facteur commun doit donc être de la forme i(1 - 2C - D)(2 - 2C - D)(3 - 2C - D)/3!. Comme C et D sont des binaires, on a :

(1 - 2C - D)(2 - 2C - D)(3 - 2C - D) = [2 + (2C + D)² - 3(2C + D)](3 - 2C - D)
                                                 = 2(1 - C - D + 2CD)(3 - 2C - D)
                                                 = 6(1 - C + CD - D) = 6(1 - C)(1 - D)

Ce facteur commun est donc simplement i(1 - C)(1 - D) :

(1e)     exp[S(x)sCD/h] = ch[i(1 - C)(1 - D)S(x)/h](s1)² + i-(1 - C)(1 - D)sh[i(1 - C)(1 - D)S(x)/h]sCD  

Il en résulte après dérivation :

(1f)     DCD(x) = [p(x)/h]{i(1 - C)(1 - D)sh[i(1 - C)(1 - D)S(x)/h](s1)² + ch[i(1 - C)(1 - D)S(x)/h]sCD}

Le champ de transmission correspondant est donc :

(1g)     FextCD(x) = KDCD(x)q

L'opérateur de diffusion DCD(x) étant à valeurs matricielles, la charge topologique q doit être un nombre à deux composantes q0 et q1, conformément au spin 0. Le champ résultant est alors également à 2 composantes :

(1h)     FextCD,A(x) = KDCD,AB(x)qB  

Le support, lui, par contre, reste R (pour le moment). Soient uB, les coefficients directeurs de la charge topologique :

(2a)     qB = |q|uB  

D'après (1f), on a :

(2b)     FextCD,A(x) = K|q|[p(x)/h]{i(1 - C)(1 - D)sh[i(1 - C)(1 - D)S(x)/h](s1)² +
                                               + ch[i(1 - C)(1 - D)S(x)/h]sCD}ABuB  
                            = (K/h)|qp(x)|UCD,A(x)

Les coefficients directeurs du champ FextCD(x) sont alors :

(2c)     UCD,A(x) = {i(1 - C)(1 - D)sh[i(1 - C)(1 - D)S(x)/h](s1)² + ch[i(1 - C)(1 - D)S(x)/h]sCD}ABuB  

Ils sont tous réels. Au signe de p(x) près :

(2d)     U00,A(x) = {-sin[S(x)/h](s1)² + cos[S(x)/h]s0}ABuB  
(2e)     UCD,A(x) = {sh[S(x)/h](s1)² + ch[S(x)/h]sCD}ABuB     [(C,D) <> (0,0)]

On souhaiterait que le champ de transmission ait même intensité :

(2f)     |Fext|(x) = (K/h)|qp(x)|

dans les 4 cas de figure et que ce soit plutôt la topologie qui s'adapte d'une unité à l'autre. Dans le cas de s0,

(3a)     U00,0(x) = -{sin[S(x)/h]u0 - cos[S(x)/h]u1}
(3b)     U00,1(x) = -{sin[S(x)/h]u1 + cos[S(x)/h]u0}

Dans le cas de s1,

(3c)     U01,0(x) = sh[S(x)/h]u0 + ch[S(x)/h]u1  
(3d)     U01,1(x) = sh[S(x)/h]u1 + ch[S(x)/h]u0  

Dans celui de s2,

(3e)     U10,0(x) = exp[S(x)/h]u0  
(3f)     U10,1(x) = -exp[-S(x)/h]u1  

et dans celui de s3,

(3g)     U11,A(x) = exp[S(x)/h]uA  

On aimerait que les paramétrisations sur les coefficients directeurs mènent à des identités. Pour s0, s'agissant de fonctions du cercle, on a :

(4a)     s11ABU00,A(x)U00,B(x) = s11ABuAuB = (u0)² + (u1

Le choix de :

(4b)     uA = cos(ups - Api/2) = ½ [ei(ups - Api/2) + (1 - 2A)e-i(ups + Api/2)]

mènera donc automatiquement à,

(4c)     s11ABU00,A(x)U00,B(x) = s11ABuAuB = 1
(4d)     U00,A(x) = cos[S(x)/h - ups + (3 - A)pi/2]

Pour s1, on est en présence des fonctions de l'hyperbole, suggérant l'utilisation de s2 :

(5a)     s10ABU01,A(x)U01,B(x) = -s10ABuAuB = -[(u0)² - (u1)²]

Cette fois, c'est le choix de :

(5b)     uA = ½ [eups + (1 - 2A)e-ups]

qui conduira à,

(5c)     s10ABU01,A(x)U01,B(x) = -s10ABuAuB = -1
(5d)     U01,A(x) = ½ {eS(x)/h + ups - (1 - 2A)e-[S(x)/h + ups]}

Pour s2, c'est le produit bilinéaire :

(6a)     ½ s01ABU10,A(x)U10,B(x) = -½ s01ABuAuB  

qui, via la paramétrisation,

(6b)     uA = exp[(1 - 2A)ups] = ch(ups) + (1 - 2A)sh(ups)

va donner l'identité,

(6c)     ½ s01ABU10,A(x)U10,B(x) = -½ s01ABuAuB = -1

Enfin, pour s3, c'est :

(7)     s00ABU11,A(x)U11,B(x) = s00ABuAuB = 0

qui constitue l'identité, étant donné que le coefficient exp[S(x)/h] est commun aux deux composantes.

Ces formules de trace sont invariantes et peuvent être regroupées en la formule unique :

(8)     sCDAB{U1-C,1-D,A(x)U1-C,1-D,B(x) + [1 - 2(C IAND D)]uAuB} = 0

Ainsi, à l'aide de ces topologies associées aux unités de M2(R), les éventuelles divergences des facteurs exponentiels dans les coefficients directeurs du champ de transmission peuvent être "gommées" au niveau de l'intensité des divers champs, qui conserve alors une valeur commune donnée par (2f) et qui ne dépend plus que de la charge topologique et de l'impulsion p(x). Or, dans les diffuseurs physiques, celle-ci est amenée à diminuer (en valeur absolue) au fur et à mesure que l'on s'éloigne de la source d'émission, puisque le champ de transmission est de moins en moins énergétique.

Des divergences peuvent toutefois persister dans les composantes du champ. Mais de quoi venons-nous de parler ? De paramétrisations. Il ressort nettement de (2b) et (2c) que les FextCD,A(x) sont des paramétrisations du champ FextCD(x) relatif à l'unité sCD, tout comme  les qA sont des paramétrisations de la charge topologique. Dès lors, il est tout aussi normal de trouver des facteurs divergents dans une topologie hyperbolique qu'il est normal de trouver des facteurs bornés dans une topologie circulaire. Ce ne sont pas tant les projections du champ sur ses axes de coordonnées que leur "hypothénuse" qui est importante. C'est pourquoi j'ai insisté sur l'amplitude du champ : à moins que p(x) ne présente des pôles, celle-ci ne diverge nulle part. Que les composantes FextCD,A(x) puissent diverger n'a donc pas de réelle importance, l'essentiel est que les identités (8) soient satisfaites partout, dans et hors de la source. Pour présenter les choses sous un angle légèrement différent, disons que les divergences apparaissent du fait de la topologie : dans la topologie circulaire (4b) et (4d), il n'y a pas de divergences ; dans (5b) et (5d), il y en a.

En introduisant un paramètre "temps" t, le rapport de phase S(x)/h peut être remplacé par le rapport d'inerties I(x)/ht. Comme exemple d'application des résultats établis ci-dessus dans le cas de la diffusion "libre", considérons le modèle gaussien I(x) = -½ mx², où m est la "masse topologique" de la source. On a alors :

(9a)     DCD(x,t) = (d/dx){exp[I(x)sCD/ht]} = (d/dx)[exp(-mx²sCD/2ht)]
                       = (mx/ht){i(1 - C)(1 - D)sh[i(1 - C)(1 - D)mx²/2ht](s1)² - ch[i(1 - C)(1 - D)mx²/2ht]sCD}

(9b)     FextCD,A(x,t) = K|q|(mx/ht){i(1 - C)(1 - D)sh[i(1 - C)(1 - D)mx²/2ht](s1)² -
                                                 - ch[i(1 - C)(1 - D)mx²/2ht]sCD}AB(x)qB  
(9c)     |Fext|(x,t) = (K/h)|qmx/t| = (K/h)|qm<v>|
(9d)     <v> = x/t = vitesse moyenne

Il est inutile d'aller plus loin car on se rend immédiatement compte que l'intensité du champ de diffusion va augmenter avec la distance à la source. Conclusion très différente (et même à l'antipode, on peut le dire) de celle à laquelle le modèle (d/dx)[exp(-mx²/2ht)] aboutissait dans R. L'amplitude n'était pas du tout calculée de la même manière, puisqu'elle tenait compte du facteur exponentiel, convergent. Dans M2(R), on se retrouve, au contraire, avec un "effet de rappel" d'impulsion moyenne m<v> et donc de force m<a> = mx/t². Le malheur est que la structure de M2(R) prédomine largement sur celle de R et même de C ou du corps H des quaternions d'Hamilton, parce qu'elle est beaucoup plus riche. Il semble donc que l'on ait un petit problème d'approximation dû à la vision restrictive des choses. Je ne cherche pas à imposer ma conclusion sur celle de Gauss, je ne fais que constater les différences fondamentales de comportement d'un environnement à l'autre. L'amplitude (9c) converge sur la durée, mais diverge sur la distance. A contrario, l'amplitude de Gauss (m<v>/h)exp(-mx²/2ht) convergeait sur la distance comme sur la durée (à condition de rester dans le sens présent -> futur) en raison du facteur exponentiel. Ce n'était qu'aux alentours de "l'instant présent" t = 0 qu'elle se "rétrécissait" en une "fonction densité de Dirac". Rien de tel ne se produit dans M2(R), pas même dans le cas de s3, puisque (3g) n'est qu'une paramétrisation. Autrement dit, Gauss utilise une paramétrisation exponentielle, d'où la présence du facteur exp(-mx²/2ht), que l'on retrouve d'ailleurs dans D11(x,t) et qui est commun aux deux composantes de champ Fext11,A(x,t). Alors :

a) on a fini par prendre la constante de Planck h en compte dans les calculs "quantiques", mais sans tenir compte du spin du cadre, qui mène, non pas à R, mais à R² (même pour un spin 0...) et à une algèbre d'opérateurs M2(R) ;
b) on pensait que s3 était "l'unité" de M2(R), semblable au "1" dans R, c'est en réalité s1 ;
c) on pensait également que le facteur exponentiel était "indispensable" à l'amplitude du champ de diffusion, alors qu'il ne s'agit en fait que d'une paramétrisation.

Beaucoup d'a priori et d'omissions qui conduisaient à des conclusions fort éloignées des résultats actuels. Il est tout à fait possible (et c'est même le cas) que l'on observe une diffusion gaussienne en -(mx/ht)exp(-mx²/2ht) dans R, sauf que CE N'EST PAS LE BON CADRE PHYSIQUE : IL EST TROP RESTREINT...

 

 

B 187 : PROPAGATEURS DANS M2(R), INTRODUCTION

Le 21/08/2023

Dans cette bidouille, nous allons utiliser l'isomorphisme d'espaces vectoriels M2(R) ~ R4 ~ C2 ~ H.

Si nous reprenons les propriétés de base des unités fondamentales de M2(R) établies en [B178, (25-28)], nous recevons déjà confirmation que l'unité antisymétrique s0 se comporte bien comme l'unité imaginaire i de C :

(1a)     (s0)-1 = -s0  <->  i-1 = -i  ,  (s0)² = -Id = -s3  <->  i² = -1

Pour s1, c'est plus subtil. [B178, (25) et (26)] établissent que (s1)-1 = s1 et (s1)² = Id = s3. s1 semble donc se comporter de la même manière que s3 vis-à-vis de l'inversion et de l'élévation au carré, puisque (s3)-1 = s3 et (s3)² = s3. Aussi, si l'on tente de faire correspondre ces deux matrices unités à l'unité de C, on se retrouve avec une assimilation ambigüe :

(1b)     (s1)-1 = s1  <-> 1-1 = 1  ,  (s1)² = Id = s3  <->  1² = 1

mais aussi et en même temps,

(1c)     (s3)-1 = s3  <-> 1-1 = 1  ,  (s3)² = Id = s3  <->  1² = 1.


En d'autres termes, il semble y avoir coïncidence entre les rôles de s1 et s3 dans M2(R) et celui de 1 dans C. Il n'est pas possible d'attribuer s1 à -1, étant donné que (-1)-1 = -1. Le fait de passer du corps algébrique C, anneau unitaire, à l'algèbre M2(R) à deux unités s0 et s1 lève cette ambiguité, puisque non seulement s1 = (0,1,1,0) se distingue nettement de s3 = (1,0,0,1), mais leurs invariants ne sont pas du tout les mêmes : Tr(s1) = 0, Tr(s3) = 2, Det(s1) = -Det(s3) = -1. s1 se diagonalise d'ailleurs en s2 = (1,0,0,-1) (et s0 en is2 dans C - s0 n'est pas diagonalisable dans R). Pour s'y retrouver, on se tourne vers les relations de commutation [B178, (28)], qui donnent les correspondances :

(1d)     (s0)²s1 = s1(s0)² = -s1  <->  i².1 = 1.i² = -1  ,  s0(s1)² = (s1)²s0 = s0  <->  i.1 = 1.i = i.

C'est donc bien s1 qui joue le rôle de 1 dans C et non s3.

On peut affirmer cela pour deux raisons : les propriétés [B178, (28)] conduisent aux relations de commutativité comme d'anti-commutativité entre les 4 unités de M2(R) et s3 n'est pas fondamentale. L'ambiguité dans C est levée dans M2(R) et elle n'est pas en faveur de s3. Comme quoi, les apparences peuvent s'avérer plus que trompeuses... En résumé :

(1e)     s0  <->  i  ,  s1  <->  1  ,  (s0)² = -(s1)²  <->  i² = -1  ,  (s0)4 = (s1)4  <->  i4 = 1.

Ce qui ne conduit pas pour autant à s0 = is1, même dans C.

La structure de M2(R) se révèle donc plus riche que celle de C et pas seulement en raison de l'isomorphisme entre M2(R) et C2, qui l'assimilerait au corps des quaternions d'Hamilton H. En fait, on est parti du principe, somme toute assez logique, que s3 était l'homologue de 1 dans M2(R) parce que s3 réalise l'opération identique à l'instar de 1 qui ne change pas le résultat d'une multiplication et que s3 reproduisait, le long de sa diagonale, l'unité 1 des réels. Seulement, ces arguments, qui ne sont après tout que des hypothèses, ne se révèlent pas seulement insuffisants, mais faux. Cela peut paraître choquant sur le plan conceptuel, mais c'est bel et bien (0,1,1,0) qui représente le nombre 1 : l'anti-diagonale, pas la diagonale... s1 est une racine carrée de s3. Or, la racine carrée correspondante de 1 est 1, d'où l'ambiguïté...

Ça change tout pour la suite. La loi sur l'inversion des matrices dit que, pour toute matrice M de déterminant non nul, il existe une seule matrice notée M-1 de déterminant non nul (et donc, fini) telle que :

(2a)     M.M-1 = M-1.M
(2b)     M.M-1 = s3 = (s1

Cette dernière identité montre que s1 est la moyenne quadratique de M et de son inverse. Etant donné que :

(2c)     Det(M)Det(M-1) = Det²(s1) = +1

Le déterminant de M-1 doit être du même signe que Det(M). Effectivement, Det(M-1) = 1/Det(M).

Ce cas est une particularité (importante) de la relation beaucoup plus générale :

(2d)     M.N = P²  ,  N.M = Q²

qui montre que P et Q sont les moyennes quadratiques des matrices M et N. Si ces dernières commutent, alors Q² = P², qui n'entraîne pas systématiquement Q = +/-P. Lorsque Det(M) <> 0, N = M-1.P² et Q² = M-1.P².M est alors un changement de représentation de P² : M.Q² = P².M.

En fait, (2b) énonce que, pour toute matrice inversible M, il existe une seule matrice inverse M-1 commutant avec M telle que s1 soit la moyenne quadratique du produit de M par M-1.

Dans R, c'est comme si l'on écrivait que, pour tout réel x non nul, xx-1 = x-1x = 1². Or :

Il existe un moyen de ramener M2(R) à une structure de corps algébrique. Ce moyen n'est pas linéaire, mais (1e) montre qu'il est quadratique, puisque les deux unités linéaires de M2(R) sont reliées par l'identité quadratique :

(2e)     (s0)² + (s1)² = (s0 + s1)² = 0.

qui implique l'identité quartique :

(2f)     (s0)4 - (s1)4 = [(s0)² + (s1)²][(s0)² - (s1)²] = [(s0)² - (s1)²][(s0)² + (s1)²] = 0.

Aussi, à l'instar de "1" qui constitue la seule unité de C, s1 peut être utilisée comme unique unité de M2(R), moyennant les identités (2e) et (2f) ci-dessus, ainsi que la relation quadratique (2b). Tout cela fait alors de M2(R) une "algèbre unitaire réelle quadratique".


On peut également considérer C comme telle, puisqu'on y inclut les réels de carrés négatifs. L'identité (2e) dit que la somme des carrés des unités fondamentales de l'algèbre M2(R) est nilpotente.

s1 ne commute pas avec toutes les matrices, mais son carré, si. C'est donc lui qu'il faut utiliser dans l'exponentiation. Je rappelle que l'exponentielle d'une matrice M de M2(R) est la matrice définie au moyen de la série :

(3a)     exp(M) = Sn=0+oo Mn/n!

Pour M = 0, il convient maintenant de poser que :

(3b)     exp(0) = (s1

Ou encore, que :

(3c)     M0 = (s1)²     pour toute matrice M de M2(R).

Autrement dit, que s1 est la moyenne quadratique ("corps algébrique quadratique") de l'exponentielle de la matrice nulle ou encore, de toute matrice de M2(R) élevée à la puissance zéro. On a alors :

(3d)     exp(M) = (s1)² + Sn=1+oo Mn/n!

Soit maintenant S(x) une fonction de Jacobi à support dans R et h, la constante de Planck. On a :

exp[S(x)s0/h] = Sn=0+oo [S(x)/h]n(s0)n/n!
                    = {Sn=0+oo (-1)n[S(x)/h]2n/(2n)!}(s1)² + {Sn=0+oo (-1)n[S(x)/h]2n+1/(2n + 1)!}s0  

exp[S(x)sa/h] = Sn=0+oo [S(x)/h]n(sa)n/n!          (a = 1,2,3)
                    = {Sn=0+oo [S(x)/h]2n/(2n)!}(s1)² + {Sn=0+oo [S(x)/h]2n+1/(2n + 1)!}sa  

soit,

(4a)     exp[S(x)s0/h] = cos[S(x)/h](s1)² + sin[S(x)/h]s0  
(4b)     exp[S(x)sa/h] = ch[S(x)/h](s1)² + sh[S(x)/h]sa         (a = 1,2,3)


Ensuite,
 
(d/dx){exp[S(x)s0/h]} = [p(x)/h]{-sin[S(x)/h](s1)² + cos[S(x)/h]s0}
                              = [p(x)/h]exp[S(x)s0/h]s0  
(d/dx){exp[S(x)sa/h]} = [p(x)/h]{sh[S(x)/h](s1)² + ch[S(x)/h]sa}
                              = [p(x)/h]exp[S(x)sa/h]sa 

Donc :

(4c)     (d/dx){exp[S(x)si/h]} = [p(x)/h]exp[S(x)si/h]si         (i = 0,1,2,3)

avec p(x) = dS(x)/dx l'impulsion au point x.

Il existe une différence notoire entre l'équation limite exp[S(x)/h] = 0 dans R et l'équation matricielle exp[S(x)si/h] = 0 dans M2(R). La première implique que S(x) -> -oo ; la seconde, que exp[S(x)si/h] soit la matrice nulle. Or, s0 et s1 ne sont pas diagonales, mais anti-diagonales, tandis que (s1)² = s3 et s2 = s0s1 sont diagonales. Par conséquent, dans le cas de s0 :

exp[S(x)s0/h] = 0  =>  cos[S(x)/h] = 0  et  sin[S(x)/h] = 0.

On sait pertinnemment que ces deux relations ne peuvent jamais être satisfaites simultanément. Par conséquent, exp[S(x)s0/h] ne peut jamais tendre vers la matrice nulle. En revanche, cos(.) et sin(.) restent toujours à l'intérieur de l'intervalle [-1,+1], donc (d/dx){exp[S(x)s0/h]}, elle, peut tendre vers zéro si p(x) -> 0.

Pour s1 :

exp[S(x)s1/h] = 0  =>  ch[S(x)/h] = 0  et  sh[S(x)/h] = 0.

Or, ch(.) ne s'annule jamais. Sa valeur minimale est +1. Lorsque S(x) -> +oo, ch[S(x)/h] et sh[S(x)/h] diverge exponentiellement. Lorsque S(x) -> -oo, ch[S(x)/h] -> +oo, sh[S(x)/h] -> -oo, mais ces deux divergences ne se compensent plus, car ch[S(x)/h] figure le long de la diagonale de exp[S(x)s1/h] et sh[S(x)/h], le long de son anti-diagonale. Le résultat est donc la matrice limite (+oo)(+1,-1,-1,+1), qui est divergente. Il en ira de même pour la matrice dérivée (d/dx){exp[S(x)s1/h]}, car p(x) -> 0 moins vite que les fonctions hyperboliques divergeront.

Dans le cas de s2 :

exp[S(x)s2/h] = [eS(x)/h,0,0,e-S(x)/h]

De nouveau, l'une des deux composantes diagonales diverge forcément lorsque S(x) -> oo. Si S(x) -> +oo, le résultat est la matrice (+oo,0,0,0) ; si S(x) -> -oo, (0,0,0,+oo). Idem : p(x) ne tendra jamais vers zéro aussi vite que l'une des exponentielles divergera.

Il n'y a vraiment que s3 qui puisse converger lorsque S(x) diverge et encore, sous condition, puisque :

exp[S(x)s3/h] = exp[S(x)/h](s1)² -> 0   pour   S(x) -> -oo.

Dans ce dernier cas, (d/dx){exp[S(x)s3/h]} = [p(x)/h]exp[S(x)/h](s1)² convergera lorsque S(x) -> -oo, même si p(x) devait diverger.
 

 

B 186 : Conclusion finale sur la construction théorique

Le 09/07/2023

Quelques remarques avant de poursuivre.

1) J'ai tenu à faire les calculs en l'absence d'observateur, pour être certain que la mesure n'influe pas sur les résultats. Nous allons poursuivre sur cette voie. Cadre et champs seront donc considérés comme des continuums et on pourra poser formellement que les étalons sont nuls après calcul des taux de variation, ce qui simplifie considérablement les expressions. Mais ce n'est pas dans ce but que je me suis placé. Il s'agit vraiment de comprendre comment les choses se passent d'elles-mêmes, quand il n'y a personne pour les observer. C'est dans ce contexte, et uniquement celui-ci, que l'approximation de Leibnitz se justifie pleinement.

2) Quand on utilise la RG, il faut faire bien attention à la direction dans laquelle on effectue les calculs : si l'on part d'un champ de contraintes donné, c'est bien la métrique avant déformation qu'il faut utiliser pour remonter à la forme de la source ; mais, si l'on part de cette forme et que l'on cherche le champ de contraintes appliquées correspondant, comme c'est le cas ici, c'est la métrique après déformation qu'il faut considérer.

3) Alors, j'ai lu, dans les ouvrages consacrés à la théorie gravitationnelle d'Einstein que, pour être physiques, les potentiels métriques doivent converger à l'infini spatial, sous peine de ne pas représenter un véritable champ, mais de simples effets inertiels. Dans le contexte de la RG, c'est un peu absurde. Placez-vous dans un référentiel (x,y) où le gik est diagonal (pour simplifier). Alors, Det(g) = g00g11 et g00 = 1/g00, g11 = 1/g11. Et ceci reste valable en toute dimension. Par conséquent, si gik -> 0 pour (x² + y²)½ -> oo, gik diverge (et inversement). Or, la RG originelle d'Einstein se base sur le principe d'équivalence de Newton, qui dit qu'en tout point de l'espace où agit un champ de gravitation, il existe un référentiel dans lequel le gik est diagonalisable. Vous en déduisez ?... Que l'exigence de la théorie des champs considérés comme non liés au cadre devient absurde en RG... Pourquoi ? Une fois de plus, parce que l'on part du principe selon lequel les solutions DANS la source se propagent A L'EXTERIEUR de celle-ci et doivent donc diminuer d'intensité au fur et à mesure que l'on s'éloigne de leur centre d'émission...

Cette dernière remarque vient à point nommer. Chez Maxwell comme chez Einstein ou, plus généralement encore, Yang et Mills, les sources émettent des "ondes" qui se propagent dans l'espace-temps classique 4D. Elles servent "d'émetteurs" à d'éventuels "récepteurs". Mais qu'appelle-t-on des "ondes" ? Vous remarquerez que tous ces modèles se basent sur des (systèmes d') équations aux dérivées partielles du 2nd ordre hyperboliques en les "potentiels de champ". Même la RG n'y échappe pas et c'est d'ailleurs la raison pour laquelle Einstein s'est tourné vers la géométrie de Riemann : non seulement pour étendre le Principe d'Equivalence de Newton, mais aussi pour imiter le modèle maxwellien de l'électromagnétisme. Il s'agissait alors de décrire une "source" émettant des "potentiels de gravité" qui se propageraient ensuite dans l'espace-temps extérieur à cette "source" sous forme "d'ondes gravitationnelles".

Toute onde est évidemment un signal. Mais tout signal est loin d'être toujours une onde.

Si vous prenez "l'équation de la chaleur", qui est de type parabolique, vous débouchez sur un processus, non plus de propagation, mais de diffusion. L'information continue d'être transmise, mais plus sous la forme d'une onde. Enfin, si : par extension, on a coutume de l'appeler onde "de diffusion". Mais ses caractéristiques sont très différentes.

Si vous prenez une équation, toujours du 2nd ordre, mais de type elliptique, vous obtenez un "potentiel". Ce dernier cas est particulièrement probant dans les espaces quantiques. Prenez 22s coordonnées quantiques zi = xi + iyi. L'opérateur invariant du 2nd ordre :

(1)     d²/dzidzi = Idijd²/dzidzj = (d²/dxidxi - d²/dyidyi) + 2id²/dxidyi  
                     = (d²/dxidxi - d²/dyidyi) + ½ i[(d/dxi + d/dyi)(d/dxi + d/dyi) - (d/dxi - d/dyi)(d/dxi - d/dyi)]

donne automatiquement naissance à des opérateurs classiques hyperboliques, ce qui veut dire qu'un potentiel quantique (le membre de gauche est elliptique) produit systématiquement deux ondes classiques. Il devient dès lors inutile de rechercher des "propagateurs de type ondulatoire" dans un Cp(s-½),q(s-½), puisque le carré de l'unité imaginaire fait le travail : du point de vue classique, vous retrouverez la même situation que dans un CD(s-½). Et ceci s'explique aisément. Si vous exprimez chaque zi en représentation polaire classique zi = |z|iexp(iksii) et que vous faites varier l'angle ksii tout en conservant l'amplitude |z|i constante, vous débouchez sur deux oscillations classiques :

(2)     xi(ksii) = |z|icos(ksii)   et   yi(ksii) = |z|isin(ksii)

de même amplitude, mais en quadrature de phase. Ainsi, que vous vous placiez dans un espace quantique ou dans un espace-temps quantique, classiquement, vous obtiendrez des "ondes".

Vous voyez d'ailleurs que la "dualité onde-corpuscule" à la base de la "mécanique ondulatoire" correspond bien aux espaces complexes : si vous considérez le nombre complexe zi, il représente un "corpuscule" (ou, tout du moins, sa projection sur le i-ème axe) ; dès que vous le décomposerez en composantes classiques et que vous ferez varier l'angle ksii, vous obtiendrez des "oscillations de base". Vous pourrez faire de même avec n'importe quelle fonction quantique F(z) des variables zi, puisque celle-ci se décomposera classiquement toujours en :

(3a)     F(z) = |F|(x,y)exp[iPHI(x,y)]

A gauche, un "corpuscule image" F = F(z) ; à droite, deux "paquets d'ondes de base" classiques,

(3b)     F0(x,y) = |F|(x,y)cos[PHI(x,y)]   et   F1(x,y) = |F|(x,y)sin[PHI(x,y)]

dès que vous ferez varier PHI(x,y).

La "quantique", c'est de la géométrie complexe, parce que l'unité imaginaire i est la seule quantité "purement quantique".

Tout le reste, c'est de la statistique, liée à la mesure et à l'observabilité des processus. Schrödinger, par exemple, c'est de la statistique parce que l'amplitude du signal est une amplitude de probabilité de présence. Sinon, c'est de la diffusion. Sauf qu'elle n'est plus classique, en raison de la présence de l'unité imaginaire :

(4a)     d/dt = i(h/2m)d²/dxadxa     (a = 1,2,3)

C'est de la diffusion quantique. Tout s'explique : s'il y a i, c'est du quantique ; sinon, c'est du classique. Dans la diffusion moléculaire classique, j'ai un coefficient de diffusion D réel, en m²/s, et une équation parabolique :

(4b)     d/dt = Dd²/dxadxa     (a = 1,2,3)

Chez Schrödinger, j'ai D = i(h/2m) : un coefficient de diffusion purement imaginaire. La transmission de l'information se fait suivant le même processus, mais plus du tout de la même manière : si vous élevez l'opérateur d/dt au carré dans les deux expressions ci-dessus, vous obtenez, pour le classique,

(4c)     d²/dt² - D²d4/(dxadxa)² = 0

et pour le quantique,

(4d)     d²/dt² + (h/2m)²d4/(dxadxa)² = 0

Ce qui était monotone devient oscillant et ce qui était oscillant devient monotone.

Suivant l'équation à laquelle obéit un "potentiel de champ", l'information sera transmise de telle ou telle manière. Mais elle sera toujours transmise, du fait que ce potentiel établit une corrélation fonctionnelle (pas nécessairement statistique) entre deux points ou objets distants du même espace.

Tiens, un exemple caractéristique, même en espace classique : la vitesse de déformation du cadre sous les contraintes imposées par une source est ceij(x) = cdXj(x)/dxi. C'est aussi la vitesse de déplacement d'un point x au point image x' = X(x). Pour que toutes ces vitesses restent =< c, il faut que 0 =< |eij(x)| =< 1 : c'est tellement restrictif que ça confine presque à l'absurde... ça exige que l'espace se contracte dans toutes ses directions. Imposer la causalité partout est beaucoup trop contraignant. Et vouloir la préserver en invoquant des arguments statistiques ne me semble pas être la solution.

En conclusion, les choses semblent bien plus simples qu'elles n'y paraissent de prime abord. Toutes les difficultés techniques que nous avons rencontrés pendant des années provenaient exclusivement du fait que la construction du corps des nombres complexes était mal faite, ce qui nous a obligé à travailler en géométrie réelle, c'est-à-dire, classique. La réparation de C permet à présent de transférer les modèles d'interaction entre objets des espaces classiques RD(s) aux espaces quantiques CD(s - ½) avec, rappelons-le, D(s) = 22s+1 et donc D(s - ½) = 22s. Si les phénomènes dits "parapsychiques" ont bien une origine quantique, nous devrions être en mesure de leur trouver une explication ou de les infirmer. En effet, contrairement aux espaces classiques, qui n'acceptent que des surfaces positives ou nulles, les espaces quantiques autorisent les "surfaces négatives" en raison de i² = -1. De telles surfaces n'existent évidemment pas en réalité, elles correspondent à des surfaces purement quantiques. Mais l'omniprésence de l'unité quantique i dans les cadres comme dans les champs et les objets fait que les espaces quantiques "bouclent sur eux-mêmes" : ils sont auto-suffisants, contrairement aux espaces classiques. Cela veut dire que, si des phénomènes physiques doivent s'y produire, alors ces phénomènes sont forcément explicables par la quantique, i.e. par la géométrie complexe. Sinon, il y a de très fortes chances qu'ils n'existent pas et qu'il faille chercher la réponse au niveau comportemental.

C'est un critère de sélection fiable, mais assez sévère : "vous êtes quantiques ou vous sortez de l'imagination", sans jeu de mot.

 

B 185 : DIMENSIONS ET CORDES QUANTIQUES

Le 28/06/2023

La SEULE grandeur quantique est i, l'unité imaginaire, la racine carrée de -1. Toutes les autres en découlent. Vous prenez un nombre complexe quelconque z = x + iy = reiksi, toutes les quantités sont réelles, i.e. "classiques", de carrés positifs, seule i ne l'est pas. Nous allons donc commencer par étudier la déformation suivante de l'espace classique R2 :

(1)     x' = xch(ky)  , y' = xsh(ky)     ,     x >= 0  ,  k <> 0,

soit x0 = x, x1 = y, x'0 = x', x'1 = y'. Cette transformation n'étant pas linéaire en y, on a forcément de la courbure :

eij = dx'j/dxi =>

(2a)     e00 = ch(ky)  ,  e01 = sh(ky)  ,  e10 = kxsh(ky)  ,  e11 = kxch(ky)  
(2b)     Det(e) = kx

gij = Idkleikejl = ei0ej0 + ei1ej1 =>

(2c)     g00 = ch(2ky)  ,  g01 = kxsh(2ky)  ,  g11 = k²x²ch(2ky)  
(2d)     Det(g) = k²x²

(2e)     g00 = ch(2ky)  ,  g01 = -sh(2ky)/kx  ,  g11 = ch(2ky)/k²x²

Cij,k = ½ (-dkgij + digjk + djgik) =>

(3)     C00,0 = 0  ,  C01,0 = ksh(2ky)   ,  C11,0 = k²xch(2ky)
         C00,1 = 0  ,  C01,1 = k²xch(2ky)  ,  C11,1 = k3x²sh(2ky)
 
R0101 = d0C11,0 - d1C01,0 + g00[C00,0C11,0 - (C01,0)²] + g11[C00,1C11,1 - (C01,1)²] =>

(4a)     R0101 = -k²ch²(2ky)[ch(2ky) + 1]

Rik = gjlRijkl = g00Ri0k0 + g11Ri1k1 =>

(4b)     R00 = -ch3(2ky)[ch(2ky) + 1]/x²  ,  R01 = 0  ,  R11 = -k²ch3(2ky)[ch(2ky) + 1]

R = gikRik = g00R00 + g11R11 =>

(4c)     R = -2ch4(2ky)[ch(2ky) + 1]/x²

La courbure de Riemann et ses invariants sont tous négatifs. Elles ne s'annulent jamais, excepté asymptotiquement à l'infini de x. A noter que R11 ne dépend pas de x.

En dimension classique 2, le tenseur contraintes de la source s'exprime en J/m², ce qui donne un coefficient de couplage en J-1, soit 1/mplc² :

(5a)     Tik = mplc²Rik  
(5b)     T00 = -mplc²ch3(2ky)[ch(2ky) + 1]/x² < 0
(5c)     T11 = -mplc²k²ch3(2ky)[ch(2ky) + 1] < 0.

Les contraintes normales sont négatives, on a affaire à une dilatation.


Maintenant, on effectue la substitution k -> ik dans (1). On trouve, successivement :

(6)     x' = xcos(ky)  , y' = ixsin(ky)   

(7a)     e00 = cos(ky)  ,  e01 = isin(ky)  ,  e10 = -kxsin(ky)  ,  e11 = ikxcos(ky)  
(7b)     Det(e) = ikx

(7c)     g00 = cos(2ky)  ,  g01 = -kxsin(2ky)  ,  g11 = -k²x²cos(2ky)  
(7d)     Det(g) = -k²x²

(7e)     g00 = cos(2ky)  ,  g01 = sin(2ky)/kx  ,  g11 = -cos(2ky)/k²x²

(8)     C00,0 = 0  ,  C01,0 = -ksin(2ky)   ,  C11,0 = -k²xcos(2ky)
         C00,1 = 0  ,  C01,1 = -k²xcos(2ky)   ,  C11,1 = k3x²sin(2ky)

(9a)     R0101 = k²cos²(2ky)[cos(2ky) + 1] >= 0

(9b)     R00 = -cos3(2ky)[cos(2ky) + 1]/x²  ,  R01 = 0  ,  R11 = k²cos3(2ky)[cos(2ky) + 1]

(9c)     R = -2cos4(2ky)[cos(2ky) + 1]/x² =< 0

(10a)     T00 = -mplc²cos3(2ky)[cos(2ky) + 1]/x²
(10b)     T11 = mplc²k²cos3(2ky)[cos(2ky) + 1]

Cette fois, la courbure de Riemann est positive ou nulle, les courbures de Ricci ne sont plus de signe défini et la courbure de Gauss est négative ou nulle. Toutes ces courbures s'annulent pour :

(11)     ky = (2n + 1)pi/4  ou  ky = (2n + 1)pi/2


Elles vont alternativement changer de signe, entrainant une alternance de dilatations et de compressions.

Voilà la différence entre le classique et le quantique : la transformation (1) est dans R2, mais pas (6), qui se trouve dans C. La source (5) dilate R2 et a pour enveloppe l'hyperbole x'² - y'² = r². Elle n'est donc pas compacte et ne peut représenter une source physique réelle. Au contraire, la source (10) est oscillante. Elle n'est plus de dimension classique 2, mais de dimension quantique 1, ce qui fait que son enveloppe (6) a en fait pour équation :

(12)     x' + y' = xeiky  

avec x' classique, mais y' quantique. Classiquement, c'est un disque de rayon x vibrant à la pulsation k. Du point de vue quantique, x' + y' = z' est l'équation d'une droite. La source est donc assimilable à une corde quantique. Au gré de ses pulsations, elle impose des compressions et des dilatations dans chaque direction du plan R2. Elle déforme alternativement l'espace classique 2D. Côté énergies classiques, B 168 fournit une équivalence :

(13a)     Eik = mplc²gik  
(13b)     E00 = mplc²cos(2ky)  ,  E01 = 0  ,  E11 = -mplc²k²x²cos(2ky)

Si l'énergie appliquée à la direction x0 = x, i.e. le long de la distance radiale, reste bornée entre -Epl et +Epl, celle appliqué dans la direction x1 = y, associée à la phase de l'onde, croit comme le carré de la distance radiale en valeur absolue (on trouve 0 =< |E11| =< mplc²k²x²). Or, x représente la "longueur" de la corde. Donc, plus celle-ci "s'allonge", plus mplc²k²x² augmente. Pour une "longueur" x donnée, mplc²k²x² augmente également comme le carré de la pulsation : plus la corde de longueur x fixée vibre rapidement, plus l'énergie mplc²k²x² est importante.

La transformation (12) est ce qui définit en fait une dimension quantique. On a bien amplitude x et phase ky. L'onde classique correspondante est élémentaire. Physiquement, (12) semble donc faire le parallèle entre "corde quantique" et "dimension quantique". Dans un CD(s-½), vous trouvez D(s - ½) = 22s cordes quantiques de la forme (12), d'amplitudes xi et de phases ksii. Comme on dénombre également 22s coordonnées yi, le nombre d'onde k est remplacé par un tenseur kij, de manière à ce que l'on ait :

(14)     ksii = kijyj  

Les dimensions sont indépendantes, on conçoit donc que les cordes vibrent indépendamment les unes des autres.

 

B 184 : SUR LES ACCROISSEMENTS FINIS

Le 10/06/2023

Cette bidouille a pris du temps pour voir le jour, parce que j'ai encore essayé nombre de solutions de replâtrage. Je suis, en effet, retombé sur du travail bâclé... Je vais finir par passer pour un éternel insatisfait... Mais, quand c'est faux, c'est faux. Rien ne sert de se casser la tête à rechercher des moyens plus généraux de préserver l'acquis en cause.

Je veux parler, cette fois, de [B182, (14)]. Considérons l'équation plus générale :

(1a)     f(1)(x,dx) = g(x,dx)

où l'étalon dx de la variable apparaît explicitement (ou pas). L'analyse fonctionnelle dit que g est la dérivée de f et que f est la primitive de g (en détermination principale au moins). Lorsque g est la fonction identiquement nulle, nous avons vu en seconde partie de B 182 que la solution de :

(1b)     f(1)(x,dx) = 0     pour tout x et tout dx dans R,

N'EST PAS la fonction constante. En revanche, si f EST une fonction constante, ALORS f est automatiquement solution de (1b). Il en ressort que :

La proposition "f(1)(x) = 0 <=> f(x) = cte pour tout x et tout dx dans R" est fausse en général.

En effet, elle ne peut, au mieux, être vrai que pour les x multiples entiers du dx, ce qui restreint le support de f à l'espace arithmétique Z|dx|. Or, Card(]-|dx|,+|dx|[) est du même ordre que Card(R), c'est-à-dire, exponentiellement plus grand que celui de Card(Z|dx|) = Card(Z), même si dx est une grandeur infinitésimale. Cela veut dire que les points de R où la solution de (1) est effectivement constante sont exceptionnels et dénombrables.

Ce n'est donc pas le fait que l'on se donne un dx quelconque, même chez Leibnitz, c'est faux. Et, puisque dx reste fini :

La solution de (1b) est une fonction périodique de période dx.

Point. J'ai trouvé des échappatoires, pour tenter de sauver le calcul différentiel et intégral, c'est inutile : ce qui n'est vrai qu'en particulier est faux en général. C'est la logique mathématique.

La meilleure des preuves réside dans la signification géométrique de l'intégrale donnée en analyse fonctionnelle : elle est censée représenter la surface comprise entre la courbe [ici, g(x) = Limdx->0 g(x,dx)], l'axe des x et la valeur de cette g(x) en deux points distants x1 et x2 (avec x1 < x2). Si g est la fonction NULLE... alors, son graphe s'étend sur tout l'axe des x (il ne peut en être autrement). Comment voulez-vous, dès lors, que la surface comprise entre cet axe et lui-même soit CONSTANTE (éventuellement NON NULLE) ?... Une fois encore, comment une telle absurdité a-t-elle pu échapper à la sagacité des matheux ?... C'est incompréhensible. Toujours est-il que le fait est là : la relation f(x + dx) = f(x) ne fait que traduire le report de la valeur de f en x à tous les intervalles de longueur dx. Rien d'autre. Vous avez donc f(0) = f(dx) = f(ndx) pour n dans Z mais, par exemple, f(dx/2) = f(3dx/2) = f[(n + ½)dx]. Il est clair que la valeur f(0) est généralement différente de f(dx/2), à moins de poser formellement que dx = 0, ce qui 1) n'est pas l'hypothèse posée par Leibnitz et 2) conduit seulement à l'identité triviale f(x) = f(x) qui ne nous apprend absolument rien sur f(x).

Vous savez que je n'aime pas faire des articles trop longs, aussi allons-nous décomposer le travail. Dans cette bidouille, nous n'allons établir que des résultats sur des fonctions de base : ce qui vient remplacer les monômes xn/n! pour n dans N, la fonction exponentielle et la fonction logarithme.

La primitive d'ordre n de 1 donne, successivement :

M0(x,dx) = 1     pour tout x et tout dx dans R (fonction constante) ;
M1(x,dx) = x + f0(x,dx) ;
M2(x,dx) = x(x - dx)/2 + f0(x,dx)x + f1(x,dx) ;
M3(x,dx) = x(x - dx)(x - 2dx)/3! + f0(x,dx)x(x - dx)/2 + f1(x,dx)x + f2(x,dx), etc.

Soit, en notant P[Mn(x,dx)] la partie principale de Mn(x,dx) :

(2a)     Mn+1(x,dx) = [Pp=0n (x - pdx)]/n! + Sp=0n fp(x,dx)P[Mn-p(x,dx)]
                          = P[Mn+1(x,dx)] + Sp=0n fp(x,dx)P[Mn-p(x,dx)]


où les fp(x,dx) sont toutes de période dx. On a des propriétés intéressantes, la première étant :

(2b)     Mn+1(1)(x,dx) = Mn(x,dx)  <=> Mn+1(x,dx) primitive d'ordre n de x.

Puis, par récurrence inverse :

(2c)     Mn+1(p)(x,dx) = Mn+1-p(x,dx)  ,  0 =< p =< n
(2d)     Mn+1(n+1)(x,dx) = M0(x,dx) = 1
(2e)     Mn+1(p)(x,dx) = 0     pour tout p > n + 1.


Enfin, en différences finies, la dérivée d'une fonction de fonction continuant d'être le produit des dérivées,

{1/P[Mn(y,dy)]}(1) = -P[Mn-1(y,dy)]/P[Mn(y,dy)]{P[Mn(y,dy)] - dP[Mn(y,dy)]}
                          = -P[Mn-1(y,dy)]/P[Mn(y,dy)]{P[Mn(y,dy)] - P[Mn-1(y,dy)]dy}
                          = -1/[y - (n - 1)dy](y - ndy)P[Mn-1(y,dy)]
                          = -1/P[Mn+1(y,dy)]

d'où il ressort très facilement que :

(2f)     {1/P[Mn(y,dy)]}(p) = (-1)p/P[Mn+p(y,dy)]     pour tout p dans N.

Venons-en maintenant à l'exponentielle [B182, (15b)] :

(3a)     exp+(x,dx) = [1 + k(x,dx)dx]x/dx  ,  k de période dx.

Cette fonction, pourtant beaucoup plus complexe que ekx, k constante, continue de vérifier :

(3b)     exp+(1)(x,dx) = k(x,dx)exp+(x,dx)

Vous en déduisez par simple récurrence que :

(3c)     exp+(n)(x,dx) = kn(x,dx)exp+(x,dx)     pour tout n dans N,

et donc que les modes de exp(x,dx) sont les puissances entières de k(x,dx). En effet :

(3d)     exp+(x,dx) = Sn=0+oo kn(x,dx)P[Mn(x,dx)]

vous donne bien,

exp+(1)(x,dx) = Sn=0+oo kn(x,dx){P[Mn(x,dx)]}(1) = Sn=1+oo kn(x,dx)P[Mn-1(x,dx)]
                  = Sn=0+oo kn+1(x,dx)P[Mn(x,dx)] = k(x,dx)exp+(x,dx)

en vertu de (2b) sur les parties principales des Mn(x,dx). La récurrence va de soi : on retombe bien sur (3c).

Il serait toutefois préférable de raisonner dans C plutôt que dans R, afin que exp(x,dx) soit définie partout.

Ce qui remplace e-kx = 1/ekx est :

(3e)     exp-(x,dx) = [1 - k(x,dx)dx]x/dx = Sn=0+oo (-1)nkn(x,dx)P[Mn(x,dx)]

Il y a donc DEUX fonctions exponentielles et non une seule, selon le signe qui se trouve devant k.

A l'aide de exp+ et exp- on peut étendre les fonctions trigonométriques :

(3f)     ch(x,dx) = ½ [exp+(x,dx) + exp-(x,dx)]
                      = ½ {[1 + k(x,dx)dx]x/dx + [1 - k(x,dx)dx]x/dx}

                      = Sn=0+oo k2n(x,dx)P[M2n(x,dx)]

(3g)     sh(x,dx) = ½ [exp+(x,dx) - exp-(x,dx)]
                      = ½ {[1 + k(x,dx)dx]x/dx - [1 - k(x,dx)dx]x/dx}

                      = Sn=0+oo k2n+1(x,dx)P[M2n+1(x,dx)]

Ces exponentielles sont inversibles. D'après (3b) et (3e), de y+ = exp+(x,dx) et y- = exp-(x,dx), on tire :

dy+/y+ = -dy-/y- = k(x,dx)dx

d'où,

Ln(y+) = (x/dx)Ln(1 + dy+/y+) = (x/dx)Ln(1 - dy-/y-)
Ln(y-) = (x/dx)Ln(1 + dy-/y-) = (x/dx)Ln(1 - dy+/y+)

et

x/dx = Ln(y+)/Ln(1 + dy+/y+) = Ln(y-)/Ln(1 + dy-/y-)

Il en découle d'abord la relation symétrique suivante :

(4a)     Ln(y+)Ln(1 - dy+/y+) = Ln(y-)Ln(1 - dy-/y-)

puis,

k(x,dx)x = Ln(y+)dy+/y+Ln(1 + dy+/y+) = -Ln(y-)dy-/y-Ln(1 + dy-/y-) = Ln+(y+,dy+) = -Ln-(y-,dy-)

Ces expressions définissent les logarithmes en différences finies :

(4b)     Ln+(y+,dy+) = Ln(y+)dy+/y+Ln(1 + dy+/y+) = Ln(y+)/Ln[(1 + dy+/y+)y+/dy+]
(4c)     Ln-(y-,dy-) = Ln(y-)dy-/y-Ln(1 + dy-/y-) = Ln(y-)/Ln[(1 + dy-/y-)y-/dy-]
(4d)     Ln+(y+,dy+) = -Ln-(y-,dy-)

(4e)     dy+/y+ = -dy-/y-  

On retrouve bien Ln+(y+,0) = Ln(y+), puisque Limdy+->0 (1 + dy+/y+)y+/dy+ = e pour tout y+. D'après (4e), (dy+ -> 0) <=> (dy- -> 0) pour tout couple (y+,y-) fini. A l'autre extrémité, Limdy+->oo (1 + dy+/y+)y+/dy+ = 1 pour tout y+ => Ln(y,oo) = oo. Toujours d'après (4e), (dy+ -> oo) <=> (dy- -> oo) pour tout couple (y+,y-) fini non nul.

En utilisant la périodicité de k(x,dx),

d[k(x,dx)x] = k(x,dx)dx = dLn+(y+,dy+) = -dLn-(y-,dy-) = dy+/y+ = -dy-/y-

montre (un peu contre toute attente...) que LES fonctions logarithme continuent de vérifier l'équation :

(4f)     dLn+(y+,dy+)/dy+ = 1/y+  ,  dLn-(y-,dy-)/dy- = 1/y-  

Attention, cependant, à utiliser des variables sans unité.

En calculant les dérivées successives de Ln+(y+,dy+) entre y+ - dy+ et y+, il est facile d'établir :

(4g)     Ln+(n+1)(y+,dy+) = (1/y+)(n) = (-1)n/(n + 1)P[Mn+1(y+,dy+)]    

De l'identité y+Ln+(1)(y+,dy+) - 1 = 0 et de [y+Ln(y+,dy+)](1) = (y+ + dy+)Ln+(1)(y+,dy+) + Ln+(y+,dy+), on tire la primitive de log+ :

(4h)     Ln+(-1)(y+,dy+) = (y+ - dy+)Ln+(y+,dy+) + y+ + f1(y+,dy+)

Par une nouvelle récurrence facile, on obtient :

(4i)     Ln+(-n)(y+,dy+) = P[Ln+(-n)(y+,dy+)] + Sp=1n fp(y+,dy+)P[Mn-p(y+,dy+)]
(4j)     P[Ln+(-n)(y+,dy+)] = [Pp=1n (y+ - pdy+)]Ln+(y+,dy+)/(n + 1) + P[Mn(y+,dy+)]
                                   = n!P[Mn+1(y+,dy+)]Ln+(y+,dy+)/(n + 1)y+ + P[Mn(y+,dy+)]


les fp étant de nouveau tous de période dy+. D'après (4g),

Ln+(n+1)(y+,dy+)P[Mn+1(y+,dy+)] = (-1)n/(n + 1)

Ce résultat est indépendant de y comme de dy. Après sommation :

(4k)     Sn=0+oo Ln+(n+1)(y+,dy+)P[Mn+1(y+,dy+)] = Sn=0+oo (-1)n/(n + 1) = Ln(2)

Cette identité remarquable prouve malheureusement à elle seule que les théorèmes fondamentaux du calcul différentiel (Fermat, Rolle, Lagrange, Taylor et Cauchy) n'ont plus cours, essentiellement parce que les dérivées y sont calculées par la méthode de Leibnitz.

 

Minibluff the card game

Hotels