blogs.fr: Blog multimédia 100% facile et gratuit

doclabidouille

Blog multimédia 100% facile et gratuit

 

BLOGS

Blog dans la catégorie :
Sciences

 

Statistiques

 




Signaler un contenu illicite

 

doclabidouille

B 163: HYPERCHAMPS

Le 25/06/2019

Je crois avoir déjà mentionné le terme « d’hyperchamps » dans ce blog, mais je vais revenir dessus. Concrètement, un champ donne naissance à un mouvement et le modifie par la suite. Un hyperchamp crée un champ et modifie ensuite sa dynamique.

 

Pour bien fixer le contexte, on revient d’abord sur le mouvement d’un corps dans l’espace 3D, plongé dans un champ extérieur de type gravitationnel, parce que ce type de champ est universel et permet de construire des champs plus spécifiques. Il s’agit tout d’abord de bien identifier les objets physiques. L’espace PARAMETRIQUE est de dimension 1, le paramètre dynamique est le temps t. L’espace PHYSIQUE est de dimension 3, les variables sont les coordonnées spatiales xa (a = 1,2,3). L’espace des TRAJECTOIRES xa(t) AU COURS DU TEMPS est l’espace MOBILE E3(t), de dimension infinie, dans l’hypothèse du continuum temporel. Le paramètre temporel a un caractère « absolu », c’est-à-dire qu’il est le même partout, alors que les variables de position xa ont un caractère « relatif », c’est-à-dire qu’elles prennent des aspects différents d’un système de coordonnées (ou « référentiel physique ») à un autre. Ces rappels étant effectués, la dynamique du système corps - champ est décrite par le lagrangien :

 

(1)               L[x(t),v(t),t] = ½ m(t)va(t)va(t) + m(t)va(t)Ga[x(t),t]

(2)               va(t) = dxa(t)/dt

 

On notera également Dt, da et da(t), la dérivée totale par rapport au temps, la dérivée partielle par rapport à la coordonnée FIXE xa et celle par rapport à la coordonnée MOBILE xa(t), respectivement :

 

(3)               Dt = d/dt + va(t)da(t) , da = d/dxa , da(t) = d/dxa(t)

 

L’impulsion du système étant :

 

(4)               dL/dva(t) = m(t){va(t) + Ga[x(t),t]} = pa(t) + m(t)Ga[x(t),t]

 

les équations de mouvement du corps incident seront,

 

(5)               dpa(t)/dt = -(d/dt){m(t)Ga[x(t),t]} + m(t)Wab[x(t),t]pb(t)

(6)               Wab[x(t),t] = da(t)Gb[x(t),t] - db(t)Ga[x(t),t]

 

Ainsi, même si les Ga ne sont que continus en les xb(t) :

 

(7)               Ga[x(t),t] = G0,a(t)  =>  Wab[x(t),t] = 0       pour tout xb(t)

 

les équations (5) fournissent encore,

 

(8)               dpa(t)/dt = -(d/dt)[m(t)G0,a(t)]  =>  pa(t) = -m(t)G0,a(t) + pa(0)

 

C’est le champ qui donne naissance au mouvement du corps.

 

Le terme de droite dans (8) joue alors le rôle de force globale. Pour que cette force soit définie sur un intervalle de temps non nul, il suffit que le produit m(t)G0,a(t) soit C1 en t sur cet intervalle. Les conditions de l’apparition d’un mouvement sont donc très souples.

 

On transpose ces résultats au champ lui-même. L’espace paramétrique devient l’espace-temps 4D. Les paramètres dynamiques xa (a = 1,2,3,4) prennent un caractère absolu. L’espace de configuration est un « espace-temps gravitationnel » de coordonnées Ga. Ce sont ces variables qui prennent maintenant un caractère relatif. L’espace mobile correspondant est un espace de dimension infinie de coordonnées Ga(x), dans l’hypothèse d’un continuum spatio-temporel. Ces substitutions étant effectuées, les vitesses va(t) sont remplacées par les intensités de champ Wab(x), qui apparaissent comme des FREQUENCES, la masse m(t) du corps incident est remplacée par une DENSITE D’INERTIE i(x) et les potentiels de champ Ga[x(t),t], par des potentiels « d’hyperchamp » GAMab[G(x),x], antisymétriques. Le lagrangien du système corps - champ est remplacé par une DENSITE DE LAGRANGIEN champ - hyperchamp :

 

(9)               L[G(x),W(x),x] = ½ i(x)Wab(x)Wab(x) + i(x)Wab(x)GAMab[G(x),x]

(10)           Wab(x) = daGb(x) - dbGa(x)

 

Petite mise au point pas forcément inutile : en mécanique analytique, on raisonne en termes de lagrangiens et de densités de lagrangiens, mais le principe de base est le minimum d’action. Je préfère donc exprimer (1) comme une DENSITE TEMPORELLE D’ACTION, en Js/s = J et (9) comme une DENSITE SPATIO-TEMPORELLE D’ACTION, en Js/m4, au lieu des J/m3 habituels, qui traitent le paramètre du genre temps A PART des paramètres du genre espace. Or, la relativité d’Einstein rapporte cette différence de nature physique au niveau des propriétés METRIQUES de l’espace-temps. En dehors de ça, les 4 coordonnées xa se retrouvent au même pied d’égalité. Il est donc préférable d’intégrer sur un 4-VOLUME SPATIO-TEMPOREL, plutôt que sur un volume spatial 3D, PUIS intégrer sur le temps. La densité d’inertie i(x) va donc être une densité SPATIO-TEMPORELLE, ce qui est d’ailleurs plus logique vis-à-vis de la géométrie : en dimension d, les densités sont des d-formes.

 

La dérivée totale Dt dans (3) est remplacée par les dérivées TOTALES par rapport à CHAQUE paramètre:

 

(11)           Da = da + Wab(x)d/dGb(x)  , 

 

L’impulsion du champ étant :

 

(12)           dL/dWab(x) = i(x){Wab(x) + GAMab[G(x),x]}

 

les équations d’Euler-Lagrange,

 

(13)           DadL/dWab(x) = dL/dGb(x)

 

vont donner les équations de la dynamique du champ,

 

(14)           da[i(x)Wab(x)] = -da{i(x)GAMab[G(x),x]} + i(x)OMEabc[G(x),x]Wac(x)

(15)           OMEabc[G(x),x] = [d/dGb(x)]GAMac[G(x),x] - [d/dGc(x)]GAMab[G(x),x]

 

Les OMEabc sont antisymétriques en b et c et se mesurent en m-1. Les identités de Bianchi sur W restent inchangées :

 

(16)           daWbc(x) + dbWca(x) + dcWab(x) = 0

 

de sorte que l’invariance de jauge reste valable dans tous les cas,

 

(17)           Ga(x) -> Ga(x) + daf(x)  =>  Wab(x) -> Wab(x)

 

Si bien qu’on peut toujours se placer dans la jauge de Lorentz,

 

(18)           daGa(x) = 0            pour tout x

 

Comme dans le cas du système corps - champ, il suffit que les GAMab soient continus en les Gc(x) et C1 sur un domaine de l’espace-temps pour provoquer l’apparition du champ :

 

(19)           GAMab[G(x),x] = GAM0,ab(x)  =>  OMEabc[G(x),x] = 0         pour tout Gb(x)

=> Wab(x) = -GAM0,ab(x) + i(0)Wab(0)/i(x)

 

C’EST L’HYPERCHAMP QUI CREE LE CHAMP.

 

Le terme -da[i(x)GAM0,ab(x)] joue alors le rôle de DENSITE DE 4-IMPULSION. En prenant i(x) en kg/m², on trouve :

 

(20)           pb(x) = -da[i(x)GAM0,ab(x)]            en kg/m3s = (kgm/s)/m4

 

comme il se doit.

 

La relation (20) peut, de prime abord, donner l’impression que l’on tourne en rond et que l’introduction des hyperchamps n’apporte rien de nouveau. Tout au contraire :

 

L’INTERET MAJEUR DES HYPERCHAMPS EST DE RENFERMER EN UN SEUL OBJET GEOMETRIQUE LE CHAMP ET SA SOURCE.

 

Pour des GAMab CN en les Gc(x) :

 

(21)           GAMab[G(x),x] = GAM0,ab(x) +

+ Sn=1N GAMn,abc(1)…c(n)(x)Gc(1)(x)…Gc(n)(x)/n!

 

(on peut même inclure un reste intégral à l’ordre N+1), les coefficients sont calculés A CHAMP NUL. Ils ne sont donc forcément de nature différente. (21) exprime plutôt la superposition linéaire de COUPLAGES SOURCE - CHAMP à des degrés allant de 0 à N. Ensuite, c’est une question de statistiques quantiques. Ici, nous avons pris l’exemple d’un champ 4-vectoriel de type gravitationnel, donc bosonique, de spin 1. Mais, s’agissant d’espaces de CONFIGURATION, on peut considérer des sources et des champs aussi bien bosoniques que fermioniques. Rien n’est spécifié sur les coefficients de GAMab, hormis qu’ils sont symétriques en les indices c(1) à c(n).

 

Pour passer à des champs non gravitationnels, on utilise les relations bien connues :

 

(22)           q(t)Aa[x(t),t] = m(t)Ga[x(t),t]

 

entre masses et charges.

 

Enfin, contrairement à la supersymétrie, on n’a plus besoin d’étendre l’espace-temps PHYSIQUE en un « super-espace-temps » de dimension 8. Avec les hyperchamps, l’espace-temps ne fait que passer « au second plan ». C’est un espace ABSTRAIT qui passe « au premier plan » mais ceci n’a aucune importance, puisque l’on ne retrouve que des composantes de CHAMPS dès que l’on décompose les hyperchamps en séries de puissances.

 

Je ne peux pas encore dire si les hyperchamps peuvent nous êtres utiles à quelque chose par la suite. Tout ce que je peux dire, c’est que nous en avons des exemples à foison en TQRC. Ce n’est donc pas qu’un simple exercice « esthétique »…

 

Quant à Maxwell, regardez (19-20) : c’est une théorie « d’ordre zéro ». Par contre, en TQRC, ça devient une théorie « d’ordre 1 » (GAMab linéaires en les Gc). ça explique pourquoi, du point de vue « classique », la portée de l’interaction électromagnétique est illimitée, alors que, du point de vue « quantique », sa portée est limitée : parce que l’hyperchamp y est un peu plus régulier (moins « grossier »).

 

 

B 162: J'AI PEUT-ÊTRE TROUVé;;;

Le 27/05/2019

Dans la théorie mathématique des ENVELOPPES. Regardez.

 

Soit F(x,y) = 0 la forme implicite de l’équation d’une courbe et F(x,y,a) = 0, celle d’une famille de courbes paramétrées par a. On suppose que a varie continûment et que F est continûment dérivable en a. Pour CHAQUE valeur de a,

 

(1)               F(x,y,a) = 0

 

est une formule LOCALE, puisqu’elle correspond à une seule courbe. Par contre, l’élimination de a entre (1) et :

 

(2)               (d/da)F(x,y,a) = 0

 

conduit à une formule GLOBALE, puisqu’indépendante du paramètre a. Plus précisément, posons :

 

(3)               (d/da)F(x,y,a) = F1(x,y,a)

 

Alors, F1(x,y,a) = 0 donne, sous forme explicite, la surface :

 

(4)               a = f1(x,y)

 

qui, une fois reportée dans (1), conduit à l’expression,

 

(5)               F[x,y,f1(x,y)] = F’(x,y) = 0  =>  y = y(x)

 

soit la courbe ENVELOPPE des courbes (1). Cette dernière courbe est bien GLOBALE et elle ne dépend PLUS de a. ça veut dire que :

 

QUELLE QUE SOIT LA VALEUR DE a, LA COURBE ENVELOPPE (5) RESTE LA MEME.

 

L’intérêt, c’est qu’on a un FAISCEAU (1) de courbes, on n’est donc plus local et on a une courbe enveloppe, au niveau GLOBAL de description, qui ne dépend plus du paramètre, PAS MEME IMPLICITEMENT et ce, SANS NECESSITER LE RECOURS AUX FORMULES INTEGRALES. Au contraire, on DERIVE par rapport au paramètre.

 

L’ENVELOPPE SE DEBARRASSE DE TOUS LES PARAMETRES « GÊNANTS ».

 

J’ai déjà publié une bidouille là-dessus, concernant les systèmes à énergie totale nulle. Le paramètre était alors le vecteur impulsion p du système et la fonction implicite, le lagrangien. On sait, en outre, que les enveloppes sont des objets géométriques SINGULIERS, PAR DEFINITION MEME [formules (1) et surtout (2)]. C’est-à-dire que :

 

LES ENVELOPPES N’ENTRENT PAS DANS LE CADRE DES COMPORTEMENTS REGULIERS D’UN MODELE.

 

Ce qui correspond bien à ce que l’on recherche. Je prends un autre exemple (parmi tant d’autres), beaucoup plus explicite (si je peux dire). Considérons l’équation implicite :

 

(6)               F(x,y,z,T) = 0

 

avec T, un paramètre de température. Cette équation correspond au champ de températures :

 

(7)               T = T(x,y,z)

 

qui est un champ SPATIAL et VOLUMIQUE. Prenons l’enveloppe des champs (6) lorsque T parcourt TOUTES LES VALEURS NON-NEGATIVES POSSIBLES (T est en Kelvins) :

 

(8)               (d/dT)F(x,y,z,T) = F1(x,y,z,T) = 0

(9)               T = f1(x,y,z)           en K

(10)           F[x,y,z,f1(x,y,z)] = F’(x,y,z) = 0  =>  z = z(x,y)

 

On obtient une surface, enveloppe des SURFACES (6) obtenues pour CHAQUE valeur de T. L’objet géométrique :

 

(11)           {F(x,y,z,T) = 0 , T dans R+}

 

est en effet un FAISCEAU DE SURFACES. L’enveloppe est donc, elle aussi, une surface. Mais cette surface est GLOBAL, SINGULIERE ET TOTALEMENT INDEPENDANTE DE LA TEMPERATURE. Ça signifie que, vous la plongez dans le zéro absolu ou au cœur d’une étoile, voire même aux températures de Grande Unification, ELLE N’Y EST PAS SENSIBLE.

 

Ce qui n’empêche absolument pas le FAISCEAU, lui, d’y être : quand on passera d’une température à l’autre, on passera d’une surface à l’autre. Pas l’enveloppe : sa forme restera la même à toute température.

 

Vous voulez vous débarrasser de la viscosité ? Vous la prenez pour paramètre. L’enveloppe n’en dépendra plus. Etc.

 

Cela répond-t-il à toutes les questions ? En tous cas, ça élimine la plupart des obstructions et ne nécessite pas l’introduction de dimensions physiques supplémentaires.

 

Faut toujours se fier à sa première intuition : des COMPORTEMENTS NOUVEAUX plutôt que de nouvelles dimensions. La théorie des enveloppes permet aussi autre chose : d’obtenir des comportements nouveaux et singuliers A PARTIR DE DYNAMIQUES CONNUES.

 

Du coup, je me suis dit : au lieu de rechercher une « matière exotique », qu’on est bien en mal de détecter et d’observer, pourquoi ne pas regarder LES ENVELOPPES DES CHAMPS DE MATIERE ? Ce sont forcément des champs singuliers et globaux. Donc, des champs issus, au niveau fondamental, des équations de Dirac, MAIS QUI NE VERIFIENT PLUS LA DYNAMIQUE FERMIONIQUE. Ils se comporteront donc forcément de manière TRES DIFFERENTE de leurs homologues ordinaires.

 

Soit un champ de particules de spin s, entier ou demi-entier. On sait que, dans le référentiel de repos, ce champ est représentable par un spineur de rang 2s à 2s+1 composantes complexes, soit 2(2s+1) composantes réelles :

 

(12)           psiA = fA(x1,…,x4)              [A = 1,…, 2(2s+1)]

 

Si 2(2s + 1) < 4, soit pour s = 0, ce système d’équations n’est pas inversible (2 équations pour 4 inconnues xa). Si 2(2s + 1) > 4, soit pour s > ½, ce système est redondant. Introduisons à la place les variables de champ modifiées :

 

(13)           psi’A(x) = psiA - fA(x1,…,x4)

 

Lorsque (12) sera vérifié, tous les psi’A(x) s’annuleront (et réciproquement). Considérons donc la fonctionnelle F[psi’(x),x]. Si F est N continûment dérivable en les psi’A(x) au voisinage de psi’A(x) = 0, alors F admet un développement de Mac-Laurin :

 

(14)           F[psi’(x),x] = S Fn(1)…n[2(2s+1)](x)[psi’1(x)]n(1)…[psi’2(2s+1)]n[2(2s+1)]/n(1)!...n[2(2s+1)]!

 

où la somme s’étend sur tous les n(1) +…+ n[2(2s+1)] = N. La contribution d’ordre 0 donnant un terme F0…0(x) = F(0,x), on la retire de F[psi’(x),x] :

 

(15)           F’[psi’(x),x] = F[psi’(x),x] - F(0,x)

 

Cette nouvelle fonctionnelle vérifie automatiquement :

 

(16)           F’(0,x) = 0            pour tout x

 

Etant donné que toutes les puissances du développement (14) sont positives ou nulles, tous les zéros de F’ seront bien situés en (12). Cela veut dire que l’équation :

 

(17)           F’[psi’(x),x] = 0

 

est bien la forme implicite de (12). Elle n’y présente aucun pôle. Nous pouvons dès lors prendre les xa pour paramètres et les psi’A(x) pour variables de champ. Cette description correspond bien à celle du modèle standard. Mais, contrairement à (12), le système :

 

(18)           daF’[psi’(x),x] = 0  ,  da = d/dxa

 

est toujours résoluble, puisqu’il présente autant d’équations que d’inconnues. En le résolvant, on trouve donc les xa en fonction des psi’A(x) :

 

(19)           xa = Xa[psi’(x)]

 

Ce n’est pas encore tout à fait convenable. On repasse donc en variables psiA en utilisant (13) :

 

(20)           xa = Xa[psi - f(x)]  =>  xa = xa(psi)

 

et on obtient enfin une expression convenable des xa en fonction des psiA. Il ne reste plus qu’à insérer ces dépendances fonctionnelles dans (17) en utilisant (15) et (13) pour obtenir :

 

(21)           F{psi - f[x(psi)],x(psi)} - F[0,x(psi)] = G(psi) = 0

 

qui ne dépend PLUS des xa. Comme les psiA forment un « volume » 2(2s+1) dimensionnel dans un « espace spinoriel » FICTIF (on n’ajoute pas de dimensions physiques), l’équation (21) représentera une sous-variété « spinorielle » réelle de dimension 2(2s + 1) - 1 = 4s + 1 et d’équation explicite :

 

(22)           psi2(2s+1) = PSI[psi1,…,psi(4s + 1)]

 

à 4s + 1 degrés de liberté. On obtient de la sorte une enveloppe GLOBALE INDEPENDANTE DU POINT D’ESPACE-TEMPS. Si l’on n’ajoute aucune dimension physique à l’espace-temps, cette enveloppe restera a priori INOBSERVABLE et même INDETECTABLE. Ce qui EST observable et détectable, ce sont les champs (12). Il n’en reste pas moins que l’enveloppe en question EXISTE BEL ET BIEN mais, n’ayant plus aucune dépendance, même implicite, avec l’espace-temps physique, RIEN NE PERMET PLUS DE LA DETECTER. On peut néanmoins s’assurer de son existence de manière indirecte, un peu comme on procède avec les quarks. En effet, la fonctionnelle (14) utilisant des variables de champ « externes », c’est-à-dire, dépendant du point d’espace-temps, cette fonctionnelle-là EST observable et peut donc être modélisée. Ce qui reste inobservable, c’est (21) [ou (22)]. Mais cela n’empêche nullement de calculer l’enveloppe.

 

Il faut donc plutôt partir du principe qu’on n’aura peu ou prou de chances d’observer directement des enveloppes spatio-temporelles de champs de matière ou de rayonnement, mais qu’on pourra toujours s’assurer de leur existence via l’observation des composantes de champ (12) et d’une fonctionnelle « externe » (14) et qu’on pourra aussi toujours modéliser ces enveloppes. Après tout, c’est amplement suffisant.

 

Pour un spin 0 (champ de bosons scalaires), (22) donne une courbe psi2 = PSI(psi1) ; pour un spin ½ (champ de fermions « élémentaires »), elle donne déjà un volume psi4 = PSI(psi1,psi2,psi3) ; pour un spin 1 (champs de bosons vectoriels, a priori renormalisables par le théorème de t’Hooft), un hypervolume pentadimensionnel psi6 = PSI(psi1,…,psi5) ; etc.

 

Il doit sembler évident que toutes ces enveloppes ne vont plus du tout se comporter de la même manière que chacune de leurs composantes de champ, BIEN QU’ELLES EN SOIENT ISSUES.

 

Pour illustrer ces différences frappantes de comportement (ce n’est pas forcément du poltergeist, mais c’est frappant quand même lol), donnons un dernier exemple.

 

Dans le cadre d’un modèle (ultra-)simplificateur, considérons un champ de matière organique modélisable par une fonction implicite F(x,y,z,t,n), où n représente un nombre de cellules biologiques. On a désormais compris que l’équation :

 

(23)           F(x,y,z,t,n) = 0

 

pouvait fournir une description explicite,

 

(24)           n = n(x,y,z,t)

 

du nombre (éventuellement moyen) de cellules au point (x,y,z) à l’instant t. Il suffit pour cela de se placer à un niveau de description « mésoscopique », grand par rapport à la dimension caractéristique d’une cellule (de l’ordre du micron), mais petit par rapport à celle d’un organe ou de l’organisme en question. Si je prends l’enveloppe de tous les volumes (23) obtenus pour chaque valeur de n, j’obtiens un volume t = t(x,y,z) QUI NE DEPEND PLUS DE n. J’en déduis immédiatement que, MÊME POUR n = 0, UN TEL VOLUME EXISTE.

 

Wow… ça signifie qu’il ne dépend plus de la constitution cellulaire de l’organe ou de l’organisme dont il est pourtant issu…

 

Si, ça, ça n’est pas singulier, alors qu’est-ce qui l’est ?...

 

On a un organe(isme) biologique dont l’enveloppe N’A PLUS RIEN DE BIOLOGIQUE…

 

Mince : on dirait que ça ne correspond pas trop mal à ce que l’on recherche…

 

En phase de multiplication cellulaire (développement, croissance), le nombre n de cellules augmente et le faisceau F(x,y,z,t,n) se constitue. Or, pour obtenir l’enveloppe de ce faisceau, il faut en fait L’ANNULER et annuler SIMULTANEMENT sa variation par rapport à n. On obtient alors un « objet » dont la dynamique (dans le modèle ici présent) se réduit à un volume spatial et une loi d’évolution t = t(x,y,z) au cours du temps. Néanmoins, chaque composante F(x,y,z,t,n) du faisceau, pour n fixé, contribuant à la complexification de l’ensemble, on peut raisonnablement s’attendre à ce que, soit l’enveloppe hérite de cette complexité, soit qu’elle ait un rapport quelconque avec elle. Mais sa structure SINGULIERE fait qu’elle est complètement DESOLIDARISEE du nombre croissant de cellules qui lui a donné naissance. C’est en fait ce que veut dire « exister même pour n = 0 » : ça ne veut pas forcément dire « pré-exister à », mais « ne plus dépendre de ». Et cette dernière assertion est beaucoup plus forte, parce qu’elle dit que :

 

MÊME APRES UN DEMANTELEMENT CELLULAIRE COMPLET (n décroit alors jusqu’à n = 0), L’ENVELOPPE « BIOLOGIQUE » PERSISTE.

 

Alors que le « substrat » qui lui aura donné naissance, lui, se sera complètement désagrégé.

 

Moi, ça me va déjà bien mieux, même dans un modèle aussi simpliste. Il faudrait le confirmer dans des modèles plus réalistes, mais de tels modèles ne font qu’ajouter plus de paramètres non spatiaux-temporels et les enveloppes n’en sont que plus sophistiquées.

 

 

B 161: THERMODYNAMIQUE QUANTIQUE

Le 04/04/2019

L’introduction d’un signe d’échelle devrait nous simplifier considérablement le problème de la comparaison de deux grandeurs quantiques, notamment en ce qui concerne les quantités INFINITESIMALES qui apparaissent dans tous les calculs de mécanique statistique ou de géométrie locale. A PRIORI, je n’ai pas trouvé de différence significative avec les arguments avancés en classique pour définir entropie, quantité de chaleur et température. Au contraire, les conditions d’équilibre entre deux systèmes peuvent même être incluses dans le quantique comme première série de conditions de Cauchy-Riemann ! En effet, si j’ai une fonction quantique f(x) de la variable quantique x, j’ai forcément df(x)/dx* = 0, d’où df1/dx1 = df2/dx2. Quant à la loi de probabilité binomiale, qui conduit à la loi de Gauss des grands nombres, c’est du DETERMINISME : vous piochez dans une boite où ne figure que des boules, soit noires, soit blanches, vous n’avez qu’une proba P de sortir une boule noire et une proba 1 - P de sortir une blanche ; c’est un processus EXCLUSIF. En quantique, c’est le MELANGE, c’est-à-dire, le METISSAGE, qui prime : vous pouvez être, soit noire, soit blanche, mais vous êtes surtout et avant tout, EN PARTIE NOIRE ET EN PARTIE BLANCHE. La loi binomiale n’a donc plus cours et vous ne pouvez plus en déduire le concept de probabilité quantique.

 

On va donc reprendre les formules classiques stricto sensu et les complexifier, en commençant par l’entropie :

 

(1)               S = -kBPLn(P)

 

On conserve le « -«  pour le retrouver dans le cas classique « pur ». Comme pour l’information, on va trouver PLUS D’ENTROPIE que dans le cas pur :

 

S = -kB|P|exp(iPI)[Ln(|P|) + iPI]

 

Il faut s’attendre à ce que l’amplitude de cette entropie reste une quantité positive ou nulle (il ne s’agit pas ici d’une différence entre deux quantités quantiques) :

 

(2)               |S| = kB|P|[Ln²(|P|) + PI²]1/2

 

On va donc inclure le signe dans la PHASE de l’entropie quantique :

 

SIGn = PI + Arctan[PI/Ln(|P|)] + (2n + 1)pi + pi ,  n dans Z

 

de sorte que SIG est en réalité UNIVALUEE,

 

(3)               SIG = PI + Arctan[PI/Ln(|P|)]

 

puisqu’un nombre entier de tours COMPLETS n’apporte rien de plus à la détermination principale de la phase, ni au signe de l’expression. Lorsque PI = 0, |P| = P1, SIG = 0 et on retrouve la formule classique sous la forme « neutre » S1 = |S| = kBP1|Ln(P1)|. Pour tout autre valeur de PI, l’information supplémentaire apportée par la phase AUGMENTE l’entropie du système :

 

LES SYSTEMES QUANTIQUES SONT PLUS DESORDONNéS QUE LES CLASSIQUES.

 

Il suffit de considérer le cas du laser, lumière monochromatique (« cohérente ») : elle est plus ordonnée que la lumière « blanche », polychromatique ou « incohérente ». Le laser, c’est de la lumière dans un état PUR.

 

Comme à l’habitude maintenant, on ne s’étonnera plus de trouver des projections SIGNEES sur les états purs :

 

(4)               S1 = |S|cos(SIG)  ,  S2 = |S|sin(SIG)

 

En revanche, un observateur de l’un ou l’autre état, limité à cet état et qui ne se douterait pas qu’il a affaire à un système quantique se dirait sans doute qu’il a commis une erreur de mesure si jamais il trouvait une SA < 0 ! Et si, en revérifiant les mesures, il ne trouvait aucune erreur de protocole, ce serait l’incompréhension totale : « dans quel état j’erre ?... » comme disait Coluche… :) Dans nos prévisions théoriques, il n’y a pas d’erreur : l’entropie DE MELANGE (2) est bien une quantité positive ou nulle. Après, conformément à la discussion que nous avons eue à ce sujet dans la bidouille 159, le signe des SA n’est qu’une affaire de convention. Dans aucun cas, on n’est « plus ordonné que l’ordre total » : il n’y a « d’ultra-déterminisme » nulle part.

 

Si l’une quelconque des entropies d’état pur est constante, l’autre l’est forcément, sinon, |S| et/ou SIG varierai(en)t. Donc :

 

(5)               S1 = cte <=> S2 = cte <=> |S| = cte <=> SIG = cte

 

SI L’ON EST ISENTROPIQUE DANS UN ETAT, ON L’EST PARTOUT.

 

Par conséquent, si S1 est variable, le système quantique tout entier NE PEUT PAS être isentropique. En ce qui concerne les variations S(s) d’entropie par rapport à une abscisse curviligne s :

 

(6)               S’(s) = dS(s)/ds = -kBP’(s){Ln[P(s)] + 1}

 

S’(s) = 0 a pour solutions P’(s) = 0 ou P(s) = 1/e. Dans les deux cas, la probabilité est constante :

 

ISENTROPIE <=> CONSERVATION DE LA PROBABILITE

<=> EQUILIBRE THERMODYNAMIQUE.

 

Ensuite, eh bien, B160 est tellement ETENDU qu’il suffit de reprendre les résultats classiques. Là où les choses divergent franchement, c’est au niveau de la distribution de Gibbs ou « fonction de partition ». Dans le classique, les températures absolues n’étant jamais négatives, exp(-E/kBT) converge pour E > 0. Elle n’est pas envisageable pour E < 0. Le signe, lui, provient directement de l’entropie et de sa relation linéaire avec la moyenne énergétique <E>, l’énergie mesurable du système macroscopique. Dans le quantique :

 

E/T = (|E|/|T|)exp[i(EPS - TAU)]

      = (|E|/|T|){cos[(EPS - TAU)] + isin[(EPS - TAU)]}

 

Or, nous avons vu en début d’article que S = |S|exp(iSIG) avec SIG UNIvaluée : exit le signe devant le S quantique. On va donc pouvoir envisager DEUX « semi-distributions de Gibbs » :

 

(7)               g+ = A+exp(E/kBT)            pour cos[(EPS - TAU)] > 0  (secteurs I et IV)

 

et

 

(8)               g- = A-exp(-E/kBT)            pour cos[(EPS - TAU)] < 0  (secteurs II et III)

 

avec un raccordement en cos[(EPS - TAU)] = 0 et des coefficients de « normalisation »,

 

(9)               A+ = ST*X exp[E(x,q)/kBT]ddxddq

(10)           A- = ST*X exp[-E(x,q)/kBT]ddxddq

 

Comme par hasard (…), les systèmes à un seul état correspondent à EPS = TAU = 0 et à la condition de raccordement, moyennant le retour du signe de S.

 

C’est LA SEULE nouveauté apportée aux formules classiques après application du signe d’échelle, parce qu’elle se réfère à une question de CONVERGENCE. Pour tout le reste, il suffit maintenant de remplacer les quantités réelles par des quantités complexes, d’appliquer le théorème sur le signe d’échelle dès qu’on a affaire à une différence ou une variation et… c’est tout.

 

Je ne m’étends pas plus sur le cas de particules identiques, parce que, même si nous convenons de considérer la cellule vivante comme une « particule » d’un organisme (ce qui est envisageable, vue la différence d’échelle entre les deux), il existe une telle variété de cellules que le modèle des particules identiques est tout simplement irréaliste. Je note, par ailleurs, l’optimisme d’un auteur, qui a au moins la franchise d’annoncer, de but en blanc, qu’hormis dans le cas de particules identiques, les distributions de Gibbs sont AVANT TOUT THEORIQUES et QUASI-IMPOSSIBLES A CALCULER EN PRATIQUE… :|

 

Toujours très utile de disposer de THEORIES PUISSANTES, mais INAPPLICABLES EN PRATIQUE… lol

 

Le tout, c’est de le savoir.

 

 

B 160: SIGNES D'ECHELLE

Le 04/04/2019

Avant de poursuivre, un résultat, à valeur de théorème mathématique, qui va nous aider à comparer deux grandeurs quantiques entre elles.

 

Nous avons déjà noté la présence de deux orientations distinctes dans l’espace quantique : l’externe et l’interne. Il en existe en fait une troisième, qui n’est, ni externe, ni interne, mais relative à la COMPARAISON D’AMPLITUDES. Géométriquement, aux RAYONS DE CERCLES.

 

Soient |x|’ et |x| deux grandeurs réelles > 0 quelconques, mais scalaires. La différence :

 

(1)               |x|’ - |x| = (|x|’/|x| - 1)|x|

 

sera positive ssi le RAPPORT D’ECHELLE |x|’/|x| > 1. Sinon, elle sera négative. Du point de vue géométrique, cela revient à retirer au cercle de rayon |x|’ un cercle de rayon |x| : si ce second cercle est plus petit que le premier, le résultat sera un cercle de rayon |x|’’ > 0. Sinon, |x|’’ sera < 0. C’est tout bête, mais ça permet de comparer deux grandeurs quantiques x = |x|exp(iksi) et x’ = |x|’exp(iksi’) INDEPENDAMMENT DES VALEURS PRISES PAR LEURS PHASES.

 

On a l’habitude de calculer la différence QUANTIQUE x’ - x, ce qui conduit à une amplitude présentant un terme d’interférence et à un décalage de phase souvent compliqué. Or, cela ne nous renseigne EN RIEN sur le résultat, puisque ||x|’ - |x|| =< |x’ - x| =< |x|’ + |x| couvre une TRES LARGE GAMME de valeurs. Du coup, j’ai eu l’idée d’utiliser le QUOTIENT |x|’/|x|, qui a valeur de rapport d’échelle, puisqu’il n’est jamais dimensionné, et de le COMPARER à l’unité. D’où le théorème suivant :

 

 SIGNE D’ECHELLE : THEOREME

 

Soient x = |x|exp(iksi) et x’ = |x|’exp(iksi’) deux scalaires quantiques d’amplitudes |x| > 0 et |x|’ > 0 et soit x’’ = |x|’’exp(iksi’’) = x’ - x leur différence. Alors, |x|’’ devra être comptée POSITIVEMENT si le RAPPORT D’ECHELLE |x|’/|x| > 1, sinon, elle devra être comptée NEGATIVEMENT et ce, INDEPENDAMMENT DE L’ORIENTATION INTERNE. Dans le cas de vecteurs, ce « SIGNE D’ECHELLE » sera également INDEPENDANT DE L’ORIENTATION EXTERNE.

 

Si l’on passe de x à x’, on aura donc une AUGMENTATION pour |x|’/|x| > 1 (signe d’échelle POSITIF) et une DIMINUTION pour |x|’/|x| < 1 (signe d’échelle NEGATIF).

 

 SIGNE D’ECHELLE : CONSTRUCTION

 

Soit Y(.) la fonction d’Heaviside. Alors :

 

(2)               s(|x|’,|x|) = 2Y(|x|’/|x| - 1) - 1  ,  s(|x|,|x|) = 0

 

est le SIGNE D’ECHELLE ENTRE |x|’ et |x|.

 

En effet, Y(x) = 0 pour x < 0 et Y(x) = 1 pour x >= 0. Par convention assez logique et naturelle, on ajoute la condition s(|x|,|x|) = 0 pour signifier qu’une différence nulle est algébriquement neutre.

 

 SIGNE D’ECHELLE : REGLE D’EXTENSION

 

On conviendra d’écrire :

 

(3)               « x’ > x »  ou bien  « x’ - x > 0 »  si  s(|x|’,|x|) = +1

(4)               « x’ < x »  ou bien  « x’ - x < 0 »  si  s(|x|’,|x|) = -1

 

L’écriture conventionnelle « x’ = x » ou bien « x’ - x = 0 » correspondant à s(|x|’,|x|) = 0.

 

 

B 159: PROBABILITES QUANTIQUES

Le 04/04/2019

Il y a, grosso modo, deux justifications principales à l’introduction du concept de probabilité en physique. La première est l’impossibilité de connaître le futur : cette limitation impose donc de PRONOSTIQUER la réalisation d’événements à venir. La seconde est beaucoup plus « fataliste » : elle établit le fait que, dans les systèmes physiques composés de N corps, il devient très vite impossible de connaître avec une précision absolue l’évolution de la trajectoire individuelle de chaque constituants, même si le système est entièrement déterministe. La preuve formelle de ceci fut apportée au début du 20ème siècle par Henri Poincaré : pour N >= 3, le problème à N corps liés n’est pas résoluble par quadratures. Les interactions entre constituants génèrent des perturbations qui « troublent » les trajectoires individuelles. PIRE : il établit ensuite que, PLUS LE NOMBRE N DE CONSTITUANTS EST ELEVé, MOINS LA CONNAISSANCE DES TRAJECTOIRES INDIVIDUELLES EST PERTINENTE. Des FAISCEAUX de trajectoires apparaissent dans les solutions des équations de mouvement, traduisant le fait que l’on passe d’un niveau de description « local » de trajectoires individuelles à un niveau de description « global » de L’ENSEMBLE des trajectoires, qui constitue la trajectoire du SYSTEME. Les interactions entre constituants engendrant des CORRELATIONS entre leurs trajectoires, il n’est plus possible de déterminer la position de chaque corps avec une précision absolue, MEME A UN INSTANT DONNé (donc, SANS PLUS se projeter dans l’avenir) et l’introduction des probabilités de présence devient OBLIGATOIRE.

 

On n’a donc pas besoin d’être « quantique » pour être « statistique », il suffit d’être COLLECTIF.

 

Sur le plan des collisions, problème étudié notamment par Maxwell dans la dynamique des gaz enfermés dans une boite (le fameux « démon de Maxwell »), on démontre facilement que ce type de système perd TRES RAPIDEMENT la mémoire des collisions passées et donc, des trajectoires individuelles. Là aussi, les probabilités deviennent incontournables.

 

Il ne s’agit donc pas seulement d’une question de PREDICTION, il s’agit aussi (et peut-être même SURTOUT) d’une propriété INHERENTE des systèmes constitués de plus de 2 corps. Autant dire que cela apparaît TRES VITE, au point que le déterminisme pourrait presque être qualifié « d’exceptionnel » voire, une fois de plus, IDEALISTE…

 

Dans le cas classique, la probabilité de présence d’un corps est un nombre P compris entre 0 et 1. P = 0 correspond à l’absence de corps, P = 1 établit la certitude que le corps est présent. ENTRE LES DEUX, ON NE PEUT RIEN AFFIRMER : 0 < P < 1. On estime généralement qu’une probabilité négative est dénuée de sens physique, parce qu’on ne peut pas être « moins probable que totalement improbable ».

 

Dans le cas des systèmes à 2 états, P n’est plus un scalaire, mais un VECTEUR INTERNE à deux composantes P1 et P2, ce qui en fait une grandeur ORIENTABLE. Dans B150, nous avons noté deux types d’orientation, l’externe et l’interne. Les grandeurs quantiques scalaires ne sont pas orientables en externe, mais elles le sont en interne. De la sorte, le MELANGE PROBABILISTE :

 

(1)               |P| = eA(PI)PA

 

qui constitue L’AMPLITUDE de la probabilité quantique, peut rester positif ou nul, la présence d’une PHASE PI va SIGNER les probabilités P:

 

(2)               PA = eA(PI)|P|

 

Quelle est l’interprétation physique à apporter à cette nouveauté ? Jusqu’ici, il n’a pas été nécessaire de distinguer entre les différents secteurs angulaires. Considérons de nouveau l’espace pur XA. Si la phase ksi de l’espace quantique associé est à zéro (« pôle est » sur le cercle unité), nous sommes dans X1+. Si ksi = pi (« pôle ouest »), nous sommes dans X1-. Idem pour ksi = pi/2 (« pôle nord »), qui correspond à X2+ et ksi = 3pi/2 (« pôle sud »), qui correspond à X2-. En règle générale, les positions quantiques x(ksi) et x(ksi + pi) = -x(ksi) sont en OPPOSITION DE PHASE. Leur amplitude est la même, soit |x|, mais leur orientations INTERNES sont opposées, nonobstant leur orientation externe. Lorsque l’on transpose cela aux probabilités, il s’agit donc de distinguer entre « événements » et « ANTI-événements » : événement et anti-événement sont en OPPOSITION DE PHASE. Il ressort bien de (2) que P1 comme P2 ont même amplitude |P|, 0 =< |P| =< 1. Par contre, si l’on décale la phase PI de pi, on INVERSE LE SIGNE des PA. Une probabilité négative n’aurait donc pas de sens physique si elle ne se référait pas à un ANTI-événement. Dans ce cas, elle DOIT être comptée négativement, afin de tenir compte de l’orientation INTERNE des espaces quantiques. Cela ne revêt plus d’importance du moment que |P|, la probabilité de MELANGE, reste positive. -1 =< PA =< 0 ne signifie donc pas qu’un événement est « encore moins probable qu’impossible », mais que L’ANTI-événement a une probabilité d’occurrence 0 =< -PA =< 1.

 

Soit un événement quantique quelconque. P1 mesure la probabilité que cet événement se produise dans l’état 1. Si la phase de cet événement est en 1+ (soit 0), 0 =< P1 =< 1. Si elle est en 1- (soit pi), 0 =< -P1 =< 1. P2 mesure la probabilité d’occurrence de l’événement dans l’état 2. Si la phase est en 2+ (soit pi/2), 0 =< P2 =< 1. Si la phase est en 2- (soit 3pi/2), 0 =< -P2 =< 1. PARTOUT AILLEURS, i.e. hors de ces 4 pôles, on va trouver un MELANGE de ces deux probabilités « idéales », soit (1) ci-dessus, avec :

 

(3)               (P1)² + (P2)² = |P|²             dans [0,1]

 

La phase PI de cette probabilité quantique est alors donnée par le rapport de probabilités :

 

(4)               PI = Arctan(P2/P1) (mod pi)

 

C’est une grandeur qui n’a pas besoin d’être comprise dans un intervalle fermé. Par contre, |P| comme PI (et donc, P1 comme P2) doivent suivre l’événement auquel elles sont associées. Si donc x = |x|exp(iksi) = x1 + ix2 est un événement quantique quelconque, la probabilité que cet événement se présente est P(x), qui est une fonction COMPLEXE de la variable COMPLEXE x. Du coup, |P| comme PI (et donc, P1 comme P2) vont se présenter comme des fonctions de |x| et de ksi (ou de x1 ET de x2) :

 

(5)               P(x) = |P|(|x|,ksi)exp[iPI(|x|,ksi)]

 

Il faut bien se dire que, si l’on introduit des probabilités QUANTIQUES, c’est que même un observateur QUANTIQUE n’est plus certain d’observer l’événement x, pour les raisons invoquées en début d’article. Il n’est donc à même de déterminer, ni |x|, ni ksi avec certitude. Dans le cas plus pratique qui nous intéresse tout particulièrement, un observateur limité à l’état 1 ne peut percevoir au mieux que ce qui est susceptible de se produire dans l’état 1. Donc, même si cet observateur-là sait avec certitude que l’événement x va se réaliser dans l’état 1 sous la forme x1, IL NE PEUT PLUS AFFIRMER AVEC LA MEME CERTITUDE QU’IL NE VA PAS AUSSI SE REALISER SOUS LA FORME x2 DANS L’ETAT 2, PARCE QU’IL N’Y A PAS DIRECTEMENT ACCES. On a là affaire à un MANQUE D’INFORMATION sur l’état quantique de l’événement qui nécessite, là encore, l’usage des probabilités : si on ne connaît que x1, il est impossible d’en déduire à la fois |x| et ksi ; de même si l’on ne connaît que x2. Cela veut dire que, même si l’on s’attend à observer un événement dans l’un des deux états, ON NE PEUT PAS EXCLURE QU’IL NE PUISSE PAS SE REALISER DANS L’AUTRE : la réalité physique, c’est bien le MELANGE D’ETATS PURS, qui inclut automatiquement chaque état séparément. Ainsi, l’observabilité de x sous la forme « pure » x1 avec la probabilité de réalisation P1(x1) n’est pas suffisante pour affirmer que ksi = 0 ni même pi, donc qu’on a affaire à un événement ou un anti-évenement dans l’état 1. PI(|x|,ksi) introduit une DISTORSION DE PHASE. Quant à la proba de MELANGE |P|(|x|,ksi), elle doit bien tenir compte de TOUTES les possibilités. Il faut se dire en fait que, si x1 (ou x2, pour un observateur de l’état 2 n’ayant pas d’accès direct à l’état 1), est susceptible de se réaliser, c’est l’événement QUANTIQUE x qui est susceptible de l’être et avec la probabilité QUANTIQUE P. Par conséquent, x2 (resp. x1) est automatiquement susceptible de se réaliser (ou pas) : (5) nous informe que la probabilité de réalisation de l’événement quantique x dans l’état 1 est P1(x1,x2) et P2(x1,x2) dans l’état 2. Et non P1(x1) ou P2(x2) : ces pronostics-là restent PARTIELS… Ils ne prennent pas en compte le caractère QUANTIQUE des choses.

 

Comme |P| et PI sont des grandeurs scalaires, les courbes implicites |P|(|x|,ksi) = |P| = cte et PI(|x|,ksi) = PI = cte vont donner lieu à deux familles de courbes explicites :

 

(6)               ksi = ksi|P|(|x|)

 

et

 

(7)               ksi = ksiPI(|x|)

 

dans le « plan événementiel » (|x|,ksi). Ainsi, tout le long de la courbe (6), la proba de mélange restera constante, fixée à une valeur |P|, tandis que, tout le long de la courbe (7), c’est la phase de mélange PI qui restera constante, égale à une valeur PI. Par exemple, |P| = 0, qui correspond à un événement impossible, renvoie à une courbe événementielle ksi = ksi|P|=0(|x|); |P| = 1, qui correspond à un événement certain, à une courbe ksi = ksi|P|=1(|x|). Maintenant, |P| = 1 donne P1 = cos(PI), P2 = sin(PI). Donc, à moins que PI ne soit situé sur l’un des quatre pôles, IL N’EST PAS CERTAIN que l’événement quantique se produise dans l’un quelconque des deux états purs. Ce n’est que le MELANGE de ces probabilités d’occurrence dans les deux états purs qui fournit un résultat certain. On est donc bien loin du déterminisme classique, non seulement parce qu’on a affaire à des mélanges généralisés d’états purs, mais parce que la certitude obtenue sur un mélange ne pronostique aucunement de ce qui est susceptible de se produire dans l’un ou l’autre de ces états purs. Il faut vraiment que PI (et non ksi) se situe à l’un des quatre pôles pour que la probabilité de mélange se réduise à la probabilité de réalisation dans l’un ou l’autre des états purs. Et encore, P1 comme P2 seront des fonctions du MELANGE EVENEMENTIEL |x| et non de l’un quelconque de ses états purs.

 

Ceci dit, si l’on étend la formule de Claude Shannon au contexte quantique, la quantité d’information quantique véhiculée par l’événement quantique x vaudra :

 

(8)               I[|x|,ksi] = -kBLn P[|x|,ksi] = -kB{Ln |P|[|x|,ksi] + iPI[|x|,ksi]}

 

où kB est la constante de Boltzmann, en J/K. Il résulte de l’expression ci-dessus un MELANGE D’INFORMATIONS :

 

(9)               |I|[|x|,ksi] = kB{Ln²|P|[|x|,ksi] + PI²[|x|,ksi]}1/2 >= 0

 

(de nouveau, s’agissant d’un scalaire, I n’est pas orientable en externe) et une PHASE DE MELANGE,

 

(10)           IOT[|x|,ksi] = Arctan{PI[|x|,ksi]/Ln |P|[|x|,ksi]}                 (mod pi)

 

Il est évident que l’introduction de phases va apporter une information supplémentaire par rapport au classique. Les systèmes quantiques vont donc naturellement renfermer plus d’info que les systèmes classiques. Si l’événement est impossible, |P| = 0 et, le long de ksi = ksi|P|=0(|x|), la quantité d’info est illimitée, quelle que soit PI : on retrouve le même résultat qu’en classique, moyennant quelques extensions. Par contre, si l’événement est CERTAIN, la théorie classique nous donnait une quantité d’information NULLE, alors que la théorie quantique nous donne :

 

(11)           |P|[|x|,ksi] = 1  =>  |I|[|x|,ksi] = kB|PI[|x|,ksi]|

 

une quantité d’information PROPORTIONNELLE A LA VALEUR ABSOLUE DE LA PHASE DU MELANGE PROBABILISTE. L’événement quantique, même certain, CONTIENT DONC ENCORE DE L’INFORMATION, sauf au pôle est PI[|x|,ksi] = 0, c’est-à-dire, le long de la courbe ksi = ksiPI=0(|x|).

 

Pour ce qui est des phases, un dernier aspect que nous n’avons pas abordé jusqu’ici : le choix du SENS DE ROTATION sur le cercle unité. La convention mathématique veut que les angles soient comptés positivement dans le sens trigonométrique et négativement dans le sens direct (sens des aiguilles d’une montre). Comme cos(.) est une fonction PAIRE, cela ne change rien aux premières projections. Par contre, sin(.) est IMPAIRE et le changement de sens INVERSE les secondes projections. Nous n’avions pas à nous en préoccuper plus avant pour les grandeurs déterministes, cependant, l’introduction des probabilités nécessite un éclaircissement. Lorsque nous avons introduit la notion de probabilité négative, nous avons, sans le dire, appliquer le sens trigonométrique.  Il va sans dire que, si nous inversons le sens de rotation, événements et anti-événements vont S’ECHANGER. C’est donc une simple question de CONVENTION : un « événement dans le sens DIRECT » va devenir un « ANTI-événement dans le sens trigo » et un « anti-événement dans le sens direct », un « événement dans le sens trigo ». Cela renforce en fait l’argument que nous avancions, selon lequel le signe des probas de réalisation dans chaque état pur n’a AUCUNE IMPORTANCE, du moment que les probas de MELANGE restent positive. Néanmoins, même si ces dernières apparaissaient, pour une raison ou une autre, négatives, il suffirait d’inverser le sens de rotation sur le cercle unité pour retrouver le « bon » signe (sinon, c’est qu’il y a une erreur de calcul quelque part).

 

Pourquoi tant de précisions ? Parce que, dans les FONCTIONS complexes de variables complexes, les angles sont déterminés modulo pi et que le nombre de tours est un entier RELATIF, donc SIGNé. Rappelons que, contrairement à l’exponentielle réelle, qui est une fonction univaluée (bijective), l’exponentielle complexe est une fonction MULTIvaluée (seulement surjective) : exp[i(ksi + 2npi)] = exp(iksi) pour tout n dans Z, de sorte que Tan[Arctan(.) + npi] = Tan[Arctan(.)]. Si donc, on regarde (10), on va trouver une infinité dénombrable de IOT[|x|,ksi] dans les DEUX sens de rotation, ce qui va induire un arbitraire sur le signe de I2[|x|,ksi]. Or, dans la théorie classique, l’information était présentée comme une quantité NON NEGATIVE. Dans le cas quantique, il est désormais possible de trouver des I1 comme des I2 des DEUX signes. Là encore, ça n’a pas d’importance, du moment que |I| reste positive ou nulle. Toutefois, dans le cas |P| = 1 d’un événement quantique certain, la formule (10) aboutit à :

 

(12)           |P| = 1  =>  ksi = ksi|P|=1(|x|)  =>  IOTn(|x|) = pi/2 + npi  ,  n dans Z

 

de sorte qu’en combinant (8) et (10), on obtient

 

(13)           I2(|x|) = |I|(|x|)sin[IOTn(|x|)] = -kBPI(|x|)

 

Si cette quantité est positive, pas de problème. Mais alors, PI(|x|) est NEGATIF, c’est-à-dire que l’on tourne dans le sens DIRECT dans le plan des probabilités. Pourquoi ? Parce que nous avons conservé le signe « -«  devant kB de manière à le retrouver dans le cas classique. Si I2(|x|) > 0, cela signifie donc que l’on est, soit dans le secteur I, soit dans le secteur II du plan des INFORMATIONS et que la convention à adopter dans le plan des probas est le sens direct. Si I2(|x|) < 0, on est, soit dans le secteur III, soit dans le secteur IV du plan des informations et la convention à adopter dans le plan des probas est le sens trigo. Il est tout à fait possible de parler « d’anti-information » mais, ne se référant pas automatiquement à un anti-événement [il suffit de regarder (12) pour s’en convaincre : ksi ne se limite pas à pi, loin s’en faut], ça ne me semble plus aussi approprié que pour les probas. Il me parait préférable de jouer sur les CONVENTIONS DE SIGNES pour retrouver des quantités positives : événements comme anti-événements présentent de L’INFORMATION, pas de « l’anti-information », cela n’a plus beaucoup de sens physique.

 

Nous retrouverons d’ailleurs cet argumentaire dans la bidouille suivante à propos de l’entropie des systèmes quantiques. Il était donc nécessaire de bien fouiller l’interprétation physique à donner à ces quantités désormais signées.

 

Terminons cette bidouille-ci avec la FONCTION DE DISTRIBUTION ou « densité de proba dans l’espace des phases » d’un système physique. En classique, si X est un espace de configuration (incluant donc l’espace physique) de dimension D et T*X son espace des phases, la fonction de distribution est un champ scalaire p(x,q) mesuré en m-D, où q représente ici le vecteur impulsion du système. En quantique, tout est complexifié, de sorte qu’on trouve une amplitude de densité de probabilité et une phase :

 

(14)           p(x,q) = |p|(|x|,ksi,|q|,thê)exp[ipi(|x|,ksi,|q|,thê)]

 

On voit immédiatement le rapport avec la fonction d’onde de Schrödinger en prenant la racine carrée de p(x,q) : ici aussi, |p| est le carré du module de cette fonction. Avec une amélioration, toutefois : la description proposée SANS DEMONSTRATION par Schrödinger ne tenait compte que de l’espace PHYSIQUE. Ici, nous sommes automatiquement dans l’espace DES PHASES.

 

Le calcul des valeurs moyennes va maintenant conduire à des intégrales oscillantes. Soit F(x,q) une fonction sur T*X, sa moyenne statistique sera :

 

(15)           <F(x,q)> = [S F(x,q)p(x,q)dDxdDq]/[S p(x,q)dDxdDq]

 

L’intégration peut s’effectuer, soit de manière étendue sur tout l’espace des phases, soit seulement sur un volume délimité de celui-ci. En classique, on avait la condition de normalisation ST*X p(x,q)ddxddq = 1. En quantique, seule L’AMPLITUDE |p| est normalisable :

 

(16)           ST*X |p|(|x|,ksi,|q|,thê)dd|x|dd|q|dksidthê = 1

 

De toute façon, p(x,q) est bornée par cette amplitude :

 

|ST*X p(x,q)dDxdDq| =< ST*X |p(x,q)dDxdDq| = ST*X |p|(|x|,ksi,|q|,thê)dd|x|dd|q|dksidthê

 

En vertu de (16), on a donc toujours :

 

(17)           |ST*X p(x,q)dDxdDq| =< 1

 

Il est donc préférable de laisser le dénominateur dans (15). D’abord, parce que la moyenne ainsi obtenue est évidemment complexe (on est quantique…) ; ensuite, parce que l’amplitude de cette moyenne :

 

|<F(x,q)>| = |S F(x,q)p(x,q)dDxdDq|/|S p(x,q)dDxdDq|

 

et, d’après (17),

 

(18)           |<F(x,q)>| >= |S F(x,q)p(x,q)dDxdDq|

 

L’EGALITE NE SE PRODUISANT EN GENERAL QUE DANS LE CAS CLASSIQUE. Il faut donc s’attendre à ce que les moyennes quantiques soient généralement SUPERIEURES (en amplitude) aux moyennes classiques.

 

On obtient des résultats semblables pour les moyennes d’ordres supérieurs de Fn(x,q) ou « moments statistiques d’ordre n » de F(x,q), ou bien de produits (convolutifs) de fonctions.

 

 

Minibluff the card game

Hotels