blogs.fr: Blog multimédia 100% facile et gratuit

doclabidouille

Blog multimédia 100% facile et gratuit

 

BLOGS

Blog dans la catégorie :
Sciences

 

Statistiques

 




Signaler un contenu illicite

 

doclabidouille

B 162: J'AI PEUT-ÊTRE TROUVé;;;

Le 27/05/2019

Dans la théorie mathématique des ENVELOPPES. Regardez.

 

Soit F(x,y) = 0 la forme implicite de l’équation d’une courbe et F(x,y,a) = 0, celle d’une famille de courbes paramétrées par a. On suppose que a varie continûment et que F est continûment dérivable en a. Pour CHAQUE valeur de a,

 

(1)               F(x,y,a) = 0

 

est une formule LOCALE, puisqu’elle correspond à une seule courbe. Par contre, l’élimination de a entre (1) et :

 

(2)               (d/da)F(x,y,a) = 0

 

conduit à une formule GLOBALE, puisqu’indépendante du paramètre a. Plus précisément, posons :

 

(3)               (d/da)F(x,y,a) = F1(x,y,a)

 

Alors, F1(x,y,a) = 0 donne, sous forme explicite, la surface :

 

(4)               a = f1(x,y)

 

qui, une fois reportée dans (1), conduit à l’expression,

 

(5)               F[x,y,f1(x,y)] = F’(x,y) = 0  =>  y = y(x)

 

soit la courbe ENVELOPPE des courbes (1). Cette dernière courbe est bien GLOBALE et elle ne dépend PLUS de a. ça veut dire que :

 

QUELLE QUE SOIT LA VALEUR DE a, LA COURBE ENVELOPPE (5) RESTE LA MEME.

 

L’intérêt, c’est qu’on a un FAISCEAU (1) de courbes, on n’est donc plus local et on a une courbe enveloppe, au niveau GLOBAL de description, qui ne dépend plus du paramètre, PAS MEME IMPLICITEMENT et ce, SANS NECESSITER LE RECOURS AUX FORMULES INTEGRALES. Au contraire, on DERIVE par rapport au paramètre.

 

L’ENVELOPPE SE DEBARRASSE DE TOUS LES PARAMETRES « GÊNANTS ».

 

J’ai déjà publié une bidouille là-dessus, concernant les systèmes à énergie totale nulle. Le paramètre était alors le vecteur impulsion p du système et la fonction implicite, le lagrangien. On sait, en outre, que les enveloppes sont des objets géométriques SINGULIERS, PAR DEFINITION MEME [formules (1) et surtout (2)]. C’est-à-dire que :

 

LES ENVELOPPES N’ENTRENT PAS DANS LE CADRE DES COMPORTEMENTS REGULIERS D’UN MODELE.

 

Ce qui correspond bien à ce que l’on recherche. Je prends un autre exemple (parmi tant d’autres), beaucoup plus explicite (si je peux dire). Considérons l’équation implicite :

 

(6)               F(x,y,z,T) = 0

 

avec T, un paramètre de température. Cette équation correspond au champ de températures :

 

(7)               T = T(x,y,z)

 

qui est un champ SPATIAL et VOLUMIQUE. Prenons l’enveloppe des champs (6) lorsque T parcourt TOUTES LES VALEURS NON-NEGATIVES POSSIBLES (T est en Kelvins) :

 

(8)               (d/dT)F(x,y,z,T) = F1(x,y,z,T) = 0

(9)               T = f1(x,y,z)           en K

(10)           F[x,y,z,f1(x,y,z)] = F’(x,y,z) = 0  =>  z = z(x,y)

 

On obtient une surface, enveloppe des SURFACES (6) obtenues pour CHAQUE valeur de T. L’objet géométrique :

 

(11)           {F(x,y,z,T) = 0 , T dans R+}

 

est en effet un FAISCEAU DE SURFACES. L’enveloppe est donc, elle aussi, une surface. Mais cette surface est GLOBAL, SINGULIERE ET TOTALEMENT INDEPENDANTE DE LA TEMPERATURE. Ça signifie que, vous la plongez dans le zéro absolu ou au cœur d’une étoile, voire même aux températures de Grande Unification, ELLE N’Y EST PAS SENSIBLE.

 

Ce qui n’empêche absolument pas le FAISCEAU, lui, d’y être : quand on passera d’une température à l’autre, on passera d’une surface à l’autre. Pas l’enveloppe : sa forme restera la même à toute température.

 

Vous voulez vous débarrasser de la viscosité ? Vous la prenez pour paramètre. L’enveloppe n’en dépendra plus. Etc.

 

Cela répond-t-il à toutes les questions ? En tous cas, ça élimine la plupart des obstructions et ne nécessite pas l’introduction de dimensions physiques supplémentaires.

 

Faut toujours se fier à sa première intuition : des COMPORTEMENTS NOUVEAUX plutôt que de nouvelles dimensions. La théorie des enveloppes permet aussi autre chose : d’obtenir des comportements nouveaux et singuliers A PARTIR DE DYNAMIQUES CONNUES.

 

Du coup, je me suis dit : au lieu de rechercher une « matière exotique », qu’on est bien en mal de détecter et d’observer, pourquoi ne pas regarder LES ENVELOPPES DES CHAMPS DE MATIERE ? Ce sont forcément des champs singuliers et globaux. Donc, des champs issus, au niveau fondamental, des équations de Dirac, MAIS QUI NE VERIFIENT PLUS LA DYNAMIQUE FERMIONIQUE. Ils se comporteront donc forcément de manière TRES DIFFERENTE de leurs homologues ordinaires.

 

Soit un champ de particules de spin s, entier ou demi-entier. On sait que, dans le référentiel de repos, ce champ est représentable par un spineur de rang 2s à 2s+1 composantes complexes, soit 2(2s+1) composantes réelles :

 

(12)           psiA = fA(x1,…,x4)              [A = 1,…, 2(2s+1)]

 

Si 2(2s + 1) < 4, soit pour s = 0, ce système d’équations n’est pas inversible (2 équations pour 4 inconnues xa). Si 2(2s + 1) > 4, soit pour s > ½, ce système est redondant. Introduisons à la place les variables de champ modifiées :

 

(13)           psi’A(x) = psiA - fA(x1,…,x4)

 

Lorsque (12) sera vérifié, tous les psi’A(x) s’annuleront (et réciproquement). Considérons donc la fonctionnelle F[psi’(x),x]. Si F est N continûment dérivable en les psi’A(x) au voisinage de psi’A(x) = 0, alors F admet un développement de Mac-Laurin :

 

(14)           F[psi’(x),x] = S Fn(1)…n[2(2s+1)](x)[psi’1(x)]n(1)…[psi’2(2s+1)]n[2(2s+1)]/n(1)!...n[2(2s+1)]!

 

où la somme s’étend sur tous les n(1) +…+ n[2(2s+1)] = N. La contribution d’ordre 0 donnant un terme F0…0(x) = F(0,x), on la retire de F[psi’(x),x] :

 

(15)           F’[psi’(x),x] = F[psi’(x),x] - F(0,x)

 

Cette nouvelle fonctionnelle vérifie automatiquement :

 

(16)           F’(0,x) = 0            pour tout x

 

Etant donné que toutes les puissances du développement (14) sont positives ou nulles, tous les zéros de F’ seront bien situés en (12). Cela veut dire que l’équation :

 

(17)           F’[psi’(x),x] = 0

 

est bien la forme implicite de (12). Elle n’y présente aucun pôle. Nous pouvons dès lors prendre les xa pour paramètres et les psi’A(x) pour variables de champ. Cette description correspond bien à celle du modèle standard. Mais, contrairement à (12), le système :

 

(18)           daF’[psi’(x),x] = 0  ,  da = d/dxa

 

est toujours résoluble, puisqu’il présente autant d’équations que d’inconnues. En le résolvant, on trouve donc les xa en fonction des psi’A(x) :

 

(19)           xa = Xa[psi’(x)]

 

Ce n’est pas encore tout à fait convenable. On repasse donc en variables psiA en utilisant (13) :

 

(20)           xa = Xa[psi - f(x)]  =>  xa = xa(psi)

 

et on obtient enfin une expression convenable des xa en fonction des psiA. Il ne reste plus qu’à insérer ces dépendances fonctionnelles dans (17) en utilisant (15) et (13) pour obtenir :

 

(21)           F{psi - f[x(psi)],x(psi)} - F[0,x(psi)] = G(psi) = 0

 

qui ne dépend PLUS des xa. Comme les psiA forment un « volume » 2(2s+1) dimensionnel dans un « espace spinoriel » FICTIF (on n’ajoute pas de dimensions physiques), l’équation (21) représentera une sous-variété « spinorielle » réelle de dimension 2(2s + 1) - 1 = 4s + 1 et d’équation explicite :

 

(22)           psi2(2s+1) = PSI[psi1,…,psi(4s + 1)]

 

à 4s + 1 degrés de liberté. On obtient de la sorte une enveloppe GLOBALE INDEPENDANTE DU POINT D’ESPACE-TEMPS. Si l’on n’ajoute aucune dimension physique à l’espace-temps, cette enveloppe restera a priori INOBSERVABLE et même INDETECTABLE. Ce qui EST observable et détectable, ce sont les champs (12). Il n’en reste pas moins que l’enveloppe en question EXISTE BEL ET BIEN mais, n’ayant plus aucune dépendance, même implicite, avec l’espace-temps physique, RIEN NE PERMET PLUS DE LA DETECTER. On peut néanmoins s’assurer de son existence de manière indirecte, un peu comme on procède avec les quarks. En effet, la fonctionnelle (14) utilisant des variables de champ « externes », c’est-à-dire, dépendant du point d’espace-temps, cette fonctionnelle-là EST observable et peut donc être modélisée. Ce qui reste inobservable, c’est (21) [ou (22)]. Mais cela n’empêche nullement de calculer l’enveloppe.

 

Il faut donc plutôt partir du principe qu’on n’aura peu ou prou de chances d’observer directement des enveloppes spatio-temporelles de champs de matière ou de rayonnement, mais qu’on pourra toujours s’assurer de leur existence via l’observation des composantes de champ (12) et d’une fonctionnelle « externe » (14) et qu’on pourra aussi toujours modéliser ces enveloppes. Après tout, c’est amplement suffisant.

 

Pour un spin 0 (champ de bosons scalaires), (22) donne une courbe psi2 = PSI(psi1) ; pour un spin ½ (champ de fermions « élémentaires »), elle donne déjà un volume psi4 = PSI(psi1,psi2,psi3) ; pour un spin 1 (champs de bosons vectoriels, a priori renormalisables par le théorème de t’Hooft), un hypervolume pentadimensionnel psi6 = PSI(psi1,…,psi5) ; etc.

 

Il doit sembler évident que toutes ces enveloppes ne vont plus du tout se comporter de la même manière que chacune de leurs composantes de champ, BIEN QU’ELLES EN SOIENT ISSUES.

 

Pour illustrer ces différences frappantes de comportement (ce n’est pas forcément du poltergeist, mais c’est frappant quand même lol), donnons un dernier exemple.

 

Dans le cadre d’un modèle (ultra-)simplificateur, considérons un champ de matière organique modélisable par une fonction implicite F(x,y,z,t,n), où n représente un nombre de cellules biologiques. On a désormais compris que l’équation :

 

(23)           F(x,y,z,t,n) = 0

 

pouvait fournir une description explicite,

 

(24)           n = n(x,y,z,t)

 

du nombre (éventuellement moyen) de cellules au point (x,y,z) à l’instant t. Il suffit pour cela de se placer à un niveau de description « mésoscopique », grand par rapport à la dimension caractéristique d’une cellule (de l’ordre du micron), mais petit par rapport à celle d’un organe ou de l’organisme en question. Si je prends l’enveloppe de tous les volumes (23) obtenus pour chaque valeur de n, j’obtiens un volume t = t(x,y,z) QUI NE DEPEND PLUS DE n. J’en déduis immédiatement que, MÊME POUR n = 0, UN TEL VOLUME EXISTE.

 

Wow… ça signifie qu’il ne dépend plus de la constitution cellulaire de l’organe ou de l’organisme dont il est pourtant issu…

 

Si, ça, ça n’est pas singulier, alors qu’est-ce qui l’est ?...

 

On a un organe(isme) biologique dont l’enveloppe N’A PLUS RIEN DE BIOLOGIQUE…

 

Mince : on dirait que ça ne correspond pas trop mal à ce que l’on recherche…

 

En phase de multiplication cellulaire (développement, croissance), le nombre n de cellules augmente et le faisceau F(x,y,z,t,n) se constitue. Or, pour obtenir l’enveloppe de ce faisceau, il faut en fait L’ANNULER et annuler SIMULTANEMENT sa variation par rapport à n. On obtient alors un « objet » dont la dynamique (dans le modèle ici présent) se réduit à un volume spatial et une loi d’évolution t = t(x,y,z) au cours du temps. Néanmoins, chaque composante F(x,y,z,t,n) du faisceau, pour n fixé, contribuant à la complexification de l’ensemble, on peut raisonnablement s’attendre à ce que, soit l’enveloppe hérite de cette complexité, soit qu’elle ait un rapport quelconque avec elle. Mais sa structure SINGULIERE fait qu’elle est complètement DESOLIDARISEE du nombre croissant de cellules qui lui a donné naissance. C’est en fait ce que veut dire « exister même pour n = 0 » : ça ne veut pas forcément dire « pré-exister à », mais « ne plus dépendre de ». Et cette dernière assertion est beaucoup plus forte, parce qu’elle dit que :

 

MÊME APRES UN DEMANTELEMENT CELLULAIRE COMPLET (n décroit alors jusqu’à n = 0), L’ENVELOPPE « BIOLOGIQUE » PERSISTE.

 

Alors que le « substrat » qui lui aura donné naissance, lui, se sera complètement désagrégé.

 

Moi, ça me va déjà bien mieux, même dans un modèle aussi simpliste. Il faudrait le confirmer dans des modèles plus réalistes, mais de tels modèles ne font qu’ajouter plus de paramètres non spatiaux-temporels et les enveloppes n’en sont que plus sophistiquées.

 

 

B 161: THERMODYNAMIQUE QUANTIQUE

Le 04/04/2019

L’introduction d’un signe d’échelle devrait nous simplifier considérablement le problème de la comparaison de deux grandeurs quantiques, notamment en ce qui concerne les quantités INFINITESIMALES qui apparaissent dans tous les calculs de mécanique statistique ou de géométrie locale. A PRIORI, je n’ai pas trouvé de différence significative avec les arguments avancés en classique pour définir entropie, quantité de chaleur et température. Au contraire, les conditions d’équilibre entre deux systèmes peuvent même être incluses dans le quantique comme première série de conditions de Cauchy-Riemann ! En effet, si j’ai une fonction quantique f(x) de la variable quantique x, j’ai forcément df(x)/dx* = 0, d’où df1/dx1 = df2/dx2. Quant à la loi de probabilité binomiale, qui conduit à la loi de Gauss des grands nombres, c’est du DETERMINISME : vous piochez dans une boite où ne figure que des boules, soit noires, soit blanches, vous n’avez qu’une proba P de sortir une boule noire et une proba 1 - P de sortir une blanche ; c’est un processus EXCLUSIF. En quantique, c’est le MELANGE, c’est-à-dire, le METISSAGE, qui prime : vous pouvez être, soit noire, soit blanche, mais vous êtes surtout et avant tout, EN PARTIE NOIRE ET EN PARTIE BLANCHE. La loi binomiale n’a donc plus cours et vous ne pouvez plus en déduire le concept de probabilité quantique.

 

On va donc reprendre les formules classiques stricto sensu et les complexifier, en commençant par l’entropie :

 

(1)               S = -kBPLn(P)

 

On conserve le « -«  pour le retrouver dans le cas classique « pur ». Comme pour l’information, on va trouver PLUS D’ENTROPIE que dans le cas pur :

 

S = -kB|P|exp(iPI)[Ln(|P|) + iPI]

 

Il faut s’attendre à ce que l’amplitude de cette entropie reste une quantité positive ou nulle (il ne s’agit pas ici d’une différence entre deux quantités quantiques) :

 

(2)               |S| = kB|P|[Ln²(|P|) + PI²]1/2

 

On va donc inclure le signe dans la PHASE de l’entropie quantique :

 

SIGn = PI + Arctan[PI/Ln(|P|)] + (2n + 1)pi + pi ,  n dans Z

 

de sorte que SIG est en réalité UNIVALUEE,

 

(3)               SIG = PI + Arctan[PI/Ln(|P|)]

 

puisqu’un nombre entier de tours COMPLETS n’apporte rien de plus à la détermination principale de la phase, ni au signe de l’expression. Lorsque PI = 0, |P| = P1, SIG = 0 et on retrouve la formule classique sous la forme « neutre » S1 = |S| = kBP1|Ln(P1)|. Pour tout autre valeur de PI, l’information supplémentaire apportée par la phase AUGMENTE l’entropie du système :

 

LES SYSTEMES QUANTIQUES SONT PLUS DESORDONNéS QUE LES CLASSIQUES.

 

Il suffit de considérer le cas du laser, lumière monochromatique (« cohérente ») : elle est plus ordonnée que la lumière « blanche », polychromatique ou « incohérente ». Le laser, c’est de la lumière dans un état PUR.

 

Comme à l’habitude maintenant, on ne s’étonnera plus de trouver des projections SIGNEES sur les états purs :

 

(4)               S1 = |S|cos(SIG)  ,  S2 = |S|sin(SIG)

 

En revanche, un observateur de l’un ou l’autre état, limité à cet état et qui ne se douterait pas qu’il a affaire à un système quantique se dirait sans doute qu’il a commis une erreur de mesure si jamais il trouvait une SA < 0 ! Et si, en revérifiant les mesures, il ne trouvait aucune erreur de protocole, ce serait l’incompréhension totale : « dans quel état j’erre ?... » comme disait Coluche… :) Dans nos prévisions théoriques, il n’y a pas d’erreur : l’entropie DE MELANGE (2) est bien une quantité positive ou nulle. Après, conformément à la discussion que nous avons eue à ce sujet dans la bidouille 159, le signe des SA n’est qu’une affaire de convention. Dans aucun cas, on n’est « plus ordonné que l’ordre total » : il n’y a « d’ultra-déterminisme » nulle part.

 

Si l’une quelconque des entropies d’état pur est constante, l’autre l’est forcément, sinon, |S| et/ou SIG varierai(en)t. Donc :

 

(5)               S1 = cte <=> S2 = cte <=> |S| = cte <=> SIG = cte

 

SI L’ON EST ISENTROPIQUE DANS UN ETAT, ON L’EST PARTOUT.

 

Par conséquent, si S1 est variable, le système quantique tout entier NE PEUT PAS être isentropique. En ce qui concerne les variations S(s) d’entropie par rapport à une abscisse curviligne s :

 

(6)               S’(s) = dS(s)/ds = -kBP’(s){Ln[P(s)] + 1}

 

S’(s) = 0 a pour solutions P’(s) = 0 ou P(s) = 1/e. Dans les deux cas, la probabilité est constante :

 

ISENTROPIE <=> CONSERVATION DE LA PROBABILITE

<=> EQUILIBRE THERMODYNAMIQUE.

 

Ensuite, eh bien, B160 est tellement ETENDU qu’il suffit de reprendre les résultats classiques. Là où les choses divergent franchement, c’est au niveau de la distribution de Gibbs ou « fonction de partition ». Dans le classique, les températures absolues n’étant jamais négatives, exp(-E/kBT) converge pour E > 0. Elle n’est pas envisageable pour E < 0. Le signe, lui, provient directement de l’entropie et de sa relation linéaire avec la moyenne énergétique <E>, l’énergie mesurable du système macroscopique. Dans le quantique :

 

E/T = (|E|/|T|)exp[i(EPS - TAU)]

      = (|E|/|T|){cos[(EPS - TAU)] + isin[(EPS - TAU)]}

 

Or, nous avons vu en début d’article que S = |S|exp(iSIG) avec SIG UNIvaluée : exit le signe devant le S quantique. On va donc pouvoir envisager DEUX « semi-distributions de Gibbs » :

 

(7)               g+ = A+exp(E/kBT)            pour cos[(EPS - TAU)] > 0  (secteurs I et IV)

 

et

 

(8)               g- = A-exp(-E/kBT)            pour cos[(EPS - TAU)] < 0  (secteurs II et III)

 

avec un raccordement en cos[(EPS - TAU)] = 0 et des coefficients de « normalisation »,

 

(9)               A+ = ST*X exp[E(x,q)/kBT]ddxddq

(10)           A- = ST*X exp[-E(x,q)/kBT]ddxddq

 

Comme par hasard (…), les systèmes à un seul état correspondent à EPS = TAU = 0 et à la condition de raccordement, moyennant le retour du signe de S.

 

C’est LA SEULE nouveauté apportée aux formules classiques après application du signe d’échelle, parce qu’elle se réfère à une question de CONVERGENCE. Pour tout le reste, il suffit maintenant de remplacer les quantités réelles par des quantités complexes, d’appliquer le théorème sur le signe d’échelle dès qu’on a affaire à une différence ou une variation et… c’est tout.

 

Je ne m’étends pas plus sur le cas de particules identiques, parce que, même si nous convenons de considérer la cellule vivante comme une « particule » d’un organisme (ce qui est envisageable, vue la différence d’échelle entre les deux), il existe une telle variété de cellules que le modèle des particules identiques est tout simplement irréaliste. Je note, par ailleurs, l’optimisme d’un auteur, qui a au moins la franchise d’annoncer, de but en blanc, qu’hormis dans le cas de particules identiques, les distributions de Gibbs sont AVANT TOUT THEORIQUES et QUASI-IMPOSSIBLES A CALCULER EN PRATIQUE… :|

 

Toujours très utile de disposer de THEORIES PUISSANTES, mais INAPPLICABLES EN PRATIQUE… lol

 

Le tout, c’est de le savoir.

 

 

B 160: SIGNES D'ECHELLE

Le 04/04/2019

Avant de poursuivre, un résultat, à valeur de théorème mathématique, qui va nous aider à comparer deux grandeurs quantiques entre elles.

 

Nous avons déjà noté la présence de deux orientations distinctes dans l’espace quantique : l’externe et l’interne. Il en existe en fait une troisième, qui n’est, ni externe, ni interne, mais relative à la COMPARAISON D’AMPLITUDES. Géométriquement, aux RAYONS DE CERCLES.

 

Soient |x|’ et |x| deux grandeurs réelles > 0 quelconques, mais scalaires. La différence :

 

(1)               |x|’ - |x| = (|x|’/|x| - 1)|x|

 

sera positive ssi le RAPPORT D’ECHELLE |x|’/|x| > 1. Sinon, elle sera négative. Du point de vue géométrique, cela revient à retirer au cercle de rayon |x|’ un cercle de rayon |x| : si ce second cercle est plus petit que le premier, le résultat sera un cercle de rayon |x|’’ > 0. Sinon, |x|’’ sera < 0. C’est tout bête, mais ça permet de comparer deux grandeurs quantiques x = |x|exp(iksi) et x’ = |x|’exp(iksi’) INDEPENDAMMENT DES VALEURS PRISES PAR LEURS PHASES.

 

On a l’habitude de calculer la différence QUANTIQUE x’ - x, ce qui conduit à une amplitude présentant un terme d’interférence et à un décalage de phase souvent compliqué. Or, cela ne nous renseigne EN RIEN sur le résultat, puisque ||x|’ - |x|| =< |x’ - x| =< |x|’ + |x| couvre une TRES LARGE GAMME de valeurs. Du coup, j’ai eu l’idée d’utiliser le QUOTIENT |x|’/|x|, qui a valeur de rapport d’échelle, puisqu’il n’est jamais dimensionné, et de le COMPARER à l’unité. D’où le théorème suivant :

 

 SIGNE D’ECHELLE : THEOREME

 

Soient x = |x|exp(iksi) et x’ = |x|’exp(iksi’) deux scalaires quantiques d’amplitudes |x| > 0 et |x|’ > 0 et soit x’’ = |x|’’exp(iksi’’) = x’ - x leur différence. Alors, |x|’’ devra être comptée POSITIVEMENT si le RAPPORT D’ECHELLE |x|’/|x| > 1, sinon, elle devra être comptée NEGATIVEMENT et ce, INDEPENDAMMENT DE L’ORIENTATION INTERNE. Dans le cas de vecteurs, ce « SIGNE D’ECHELLE » sera également INDEPENDANT DE L’ORIENTATION EXTERNE.

 

Si l’on passe de x à x’, on aura donc une AUGMENTATION pour |x|’/|x| > 1 (signe d’échelle POSITIF) et une DIMINUTION pour |x|’/|x| < 1 (signe d’échelle NEGATIF).

 

 SIGNE D’ECHELLE : CONSTRUCTION

 

Soit Y(.) la fonction d’Heaviside. Alors :

 

(2)               s(|x|’,|x|) = 2Y(|x|’/|x| - 1) - 1  ,  s(|x|,|x|) = 0

 

est le SIGNE D’ECHELLE ENTRE |x|’ et |x|.

 

En effet, Y(x) = 0 pour x < 0 et Y(x) = 1 pour x >= 0. Par convention assez logique et naturelle, on ajoute la condition s(|x|,|x|) = 0 pour signifier qu’une différence nulle est algébriquement neutre.

 

 SIGNE D’ECHELLE : REGLE D’EXTENSION

 

On conviendra d’écrire :

 

(3)               « x’ > x »  ou bien  « x’ - x > 0 »  si  s(|x|’,|x|) = +1

(4)               « x’ < x »  ou bien  « x’ - x < 0 »  si  s(|x|’,|x|) = -1

 

L’écriture conventionnelle « x’ = x » ou bien « x’ - x = 0 » correspondant à s(|x|’,|x|) = 0.

 

 

B 159: PROBABILITES QUANTIQUES

Le 04/04/2019

Il y a, grosso modo, deux justifications principales à l’introduction du concept de probabilité en physique. La première est l’impossibilité de connaître le futur : cette limitation impose donc de PRONOSTIQUER la réalisation d’événements à venir. La seconde est beaucoup plus « fataliste » : elle établit le fait que, dans les systèmes physiques composés de N corps, il devient très vite impossible de connaître avec une précision absolue l’évolution de la trajectoire individuelle de chaque constituants, même si le système est entièrement déterministe. La preuve formelle de ceci fut apportée au début du 20ème siècle par Henri Poincaré : pour N >= 3, le problème à N corps liés n’est pas résoluble par quadratures. Les interactions entre constituants génèrent des perturbations qui « troublent » les trajectoires individuelles. PIRE : il établit ensuite que, PLUS LE NOMBRE N DE CONSTITUANTS EST ELEVé, MOINS LA CONNAISSANCE DES TRAJECTOIRES INDIVIDUELLES EST PERTINENTE. Des FAISCEAUX de trajectoires apparaissent dans les solutions des équations de mouvement, traduisant le fait que l’on passe d’un niveau de description « local » de trajectoires individuelles à un niveau de description « global » de L’ENSEMBLE des trajectoires, qui constitue la trajectoire du SYSTEME. Les interactions entre constituants engendrant des CORRELATIONS entre leurs trajectoires, il n’est plus possible de déterminer la position de chaque corps avec une précision absolue, MEME A UN INSTANT DONNé (donc, SANS PLUS se projeter dans l’avenir) et l’introduction des probabilités de présence devient OBLIGATOIRE.

 

On n’a donc pas besoin d’être « quantique » pour être « statistique », il suffit d’être COLLECTIF.

 

Sur le plan des collisions, problème étudié notamment par Maxwell dans la dynamique des gaz enfermés dans une boite (le fameux « démon de Maxwell »), on démontre facilement que ce type de système perd TRES RAPIDEMENT la mémoire des collisions passées et donc, des trajectoires individuelles. Là aussi, les probabilités deviennent incontournables.

 

Il ne s’agit donc pas seulement d’une question de PREDICTION, il s’agit aussi (et peut-être même SURTOUT) d’une propriété INHERENTE des systèmes constitués de plus de 2 corps. Autant dire que cela apparaît TRES VITE, au point que le déterminisme pourrait presque être qualifié « d’exceptionnel » voire, une fois de plus, IDEALISTE…

 

Dans le cas classique, la probabilité de présence d’un corps est un nombre P compris entre 0 et 1. P = 0 correspond à l’absence de corps, P = 1 établit la certitude que le corps est présent. ENTRE LES DEUX, ON NE PEUT RIEN AFFIRMER : 0 < P < 1. On estime généralement qu’une probabilité négative est dénuée de sens physique, parce qu’on ne peut pas être « moins probable que totalement improbable ».

 

Dans le cas des systèmes à 2 états, P n’est plus un scalaire, mais un VECTEUR INTERNE à deux composantes P1 et P2, ce qui en fait une grandeur ORIENTABLE. Dans B150, nous avons noté deux types d’orientation, l’externe et l’interne. Les grandeurs quantiques scalaires ne sont pas orientables en externe, mais elles le sont en interne. De la sorte, le MELANGE PROBABILISTE :

 

(1)               |P| = eA(PI)PA

 

qui constitue L’AMPLITUDE de la probabilité quantique, peut rester positif ou nul, la présence d’une PHASE PI va SIGNER les probabilités P:

 

(2)               PA = eA(PI)|P|

 

Quelle est l’interprétation physique à apporter à cette nouveauté ? Jusqu’ici, il n’a pas été nécessaire de distinguer entre les différents secteurs angulaires. Considérons de nouveau l’espace pur XA. Si la phase ksi de l’espace quantique associé est à zéro (« pôle est » sur le cercle unité), nous sommes dans X1+. Si ksi = pi (« pôle ouest »), nous sommes dans X1-. Idem pour ksi = pi/2 (« pôle nord »), qui correspond à X2+ et ksi = 3pi/2 (« pôle sud »), qui correspond à X2-. En règle générale, les positions quantiques x(ksi) et x(ksi + pi) = -x(ksi) sont en OPPOSITION DE PHASE. Leur amplitude est la même, soit |x|, mais leur orientations INTERNES sont opposées, nonobstant leur orientation externe. Lorsque l’on transpose cela aux probabilités, il s’agit donc de distinguer entre « événements » et « ANTI-événements » : événement et anti-événement sont en OPPOSITION DE PHASE. Il ressort bien de (2) que P1 comme P2 ont même amplitude |P|, 0 =< |P| =< 1. Par contre, si l’on décale la phase PI de pi, on INVERSE LE SIGNE des PA. Une probabilité négative n’aurait donc pas de sens physique si elle ne se référait pas à un ANTI-événement. Dans ce cas, elle DOIT être comptée négativement, afin de tenir compte de l’orientation INTERNE des espaces quantiques. Cela ne revêt plus d’importance du moment que |P|, la probabilité de MELANGE, reste positive. -1 =< PA =< 0 ne signifie donc pas qu’un événement est « encore moins probable qu’impossible », mais que L’ANTI-événement a une probabilité d’occurrence 0 =< -PA =< 1.

 

Soit un événement quantique quelconque. P1 mesure la probabilité que cet événement se produise dans l’état 1. Si la phase de cet événement est en 1+ (soit 0), 0 =< P1 =< 1. Si elle est en 1- (soit pi), 0 =< -P1 =< 1. P2 mesure la probabilité d’occurrence de l’événement dans l’état 2. Si la phase est en 2+ (soit pi/2), 0 =< P2 =< 1. Si la phase est en 2- (soit 3pi/2), 0 =< -P2 =< 1. PARTOUT AILLEURS, i.e. hors de ces 4 pôles, on va trouver un MELANGE de ces deux probabilités « idéales », soit (1) ci-dessus, avec :

 

(3)               (P1)² + (P2)² = |P|²             dans [0,1]

 

La phase PI de cette probabilité quantique est alors donnée par le rapport de probabilités :

 

(4)               PI = Arctan(P2/P1) (mod pi)

 

C’est une grandeur qui n’a pas besoin d’être comprise dans un intervalle fermé. Par contre, |P| comme PI (et donc, P1 comme P2) doivent suivre l’événement auquel elles sont associées. Si donc x = |x|exp(iksi) = x1 + ix2 est un événement quantique quelconque, la probabilité que cet événement se présente est P(x), qui est une fonction COMPLEXE de la variable COMPLEXE x. Du coup, |P| comme PI (et donc, P1 comme P2) vont se présenter comme des fonctions de |x| et de ksi (ou de x1 ET de x2) :

 

(5)               P(x) = |P|(|x|,ksi)exp[iPI(|x|,ksi)]

 

Il faut bien se dire que, si l’on introduit des probabilités QUANTIQUES, c’est que même un observateur QUANTIQUE n’est plus certain d’observer l’événement x, pour les raisons invoquées en début d’article. Il n’est donc à même de déterminer, ni |x|, ni ksi avec certitude. Dans le cas plus pratique qui nous intéresse tout particulièrement, un observateur limité à l’état 1 ne peut percevoir au mieux que ce qui est susceptible de se produire dans l’état 1. Donc, même si cet observateur-là sait avec certitude que l’événement x va se réaliser dans l’état 1 sous la forme x1, IL NE PEUT PLUS AFFIRMER AVEC LA MEME CERTITUDE QU’IL NE VA PAS AUSSI SE REALISER SOUS LA FORME x2 DANS L’ETAT 2, PARCE QU’IL N’Y A PAS DIRECTEMENT ACCES. On a là affaire à un MANQUE D’INFORMATION sur l’état quantique de l’événement qui nécessite, là encore, l’usage des probabilités : si on ne connaît que x1, il est impossible d’en déduire à la fois |x| et ksi ; de même si l’on ne connaît que x2. Cela veut dire que, même si l’on s’attend à observer un événement dans l’un des deux états, ON NE PEUT PAS EXCLURE QU’IL NE PUISSE PAS SE REALISER DANS L’AUTRE : la réalité physique, c’est bien le MELANGE D’ETATS PURS, qui inclut automatiquement chaque état séparément. Ainsi, l’observabilité de x sous la forme « pure » x1 avec la probabilité de réalisation P1(x1) n’est pas suffisante pour affirmer que ksi = 0 ni même pi, donc qu’on a affaire à un événement ou un anti-évenement dans l’état 1. PI(|x|,ksi) introduit une DISTORSION DE PHASE. Quant à la proba de MELANGE |P|(|x|,ksi), elle doit bien tenir compte de TOUTES les possibilités. Il faut se dire en fait que, si x1 (ou x2, pour un observateur de l’état 2 n’ayant pas d’accès direct à l’état 1), est susceptible de se réaliser, c’est l’événement QUANTIQUE x qui est susceptible de l’être et avec la probabilité QUANTIQUE P. Par conséquent, x2 (resp. x1) est automatiquement susceptible de se réaliser (ou pas) : (5) nous informe que la probabilité de réalisation de l’événement quantique x dans l’état 1 est P1(x1,x2) et P2(x1,x2) dans l’état 2. Et non P1(x1) ou P2(x2) : ces pronostics-là restent PARTIELS… Ils ne prennent pas en compte le caractère QUANTIQUE des choses.

 

Comme |P| et PI sont des grandeurs scalaires, les courbes implicites |P|(|x|,ksi) = |P| = cte et PI(|x|,ksi) = PI = cte vont donner lieu à deux familles de courbes explicites :

 

(6)               ksi = ksi|P|(|x|)

 

et

 

(7)               ksi = ksiPI(|x|)

 

dans le « plan événementiel » (|x|,ksi). Ainsi, tout le long de la courbe (6), la proba de mélange restera constante, fixée à une valeur |P|, tandis que, tout le long de la courbe (7), c’est la phase de mélange PI qui restera constante, égale à une valeur PI. Par exemple, |P| = 0, qui correspond à un événement impossible, renvoie à une courbe événementielle ksi = ksi|P|=0(|x|); |P| = 1, qui correspond à un événement certain, à une courbe ksi = ksi|P|=1(|x|). Maintenant, |P| = 1 donne P1 = cos(PI), P2 = sin(PI). Donc, à moins que PI ne soit situé sur l’un des quatre pôles, IL N’EST PAS CERTAIN que l’événement quantique se produise dans l’un quelconque des deux états purs. Ce n’est que le MELANGE de ces probabilités d’occurrence dans les deux états purs qui fournit un résultat certain. On est donc bien loin du déterminisme classique, non seulement parce qu’on a affaire à des mélanges généralisés d’états purs, mais parce que la certitude obtenue sur un mélange ne pronostique aucunement de ce qui est susceptible de se produire dans l’un ou l’autre de ces états purs. Il faut vraiment que PI (et non ksi) se situe à l’un des quatre pôles pour que la probabilité de mélange se réduise à la probabilité de réalisation dans l’un ou l’autre des états purs. Et encore, P1 comme P2 seront des fonctions du MELANGE EVENEMENTIEL |x| et non de l’un quelconque de ses états purs.

 

Ceci dit, si l’on étend la formule de Claude Shannon au contexte quantique, la quantité d’information quantique véhiculée par l’événement quantique x vaudra :

 

(8)               I[|x|,ksi] = -kBLn P[|x|,ksi] = -kB{Ln |P|[|x|,ksi] + iPI[|x|,ksi]}

 

où kB est la constante de Boltzmann, en J/K. Il résulte de l’expression ci-dessus un MELANGE D’INFORMATIONS :

 

(9)               |I|[|x|,ksi] = kB{Ln²|P|[|x|,ksi] + PI²[|x|,ksi]}1/2 >= 0

 

(de nouveau, s’agissant d’un scalaire, I n’est pas orientable en externe) et une PHASE DE MELANGE,

 

(10)           IOT[|x|,ksi] = Arctan{PI[|x|,ksi]/Ln |P|[|x|,ksi]}                 (mod pi)

 

Il est évident que l’introduction de phases va apporter une information supplémentaire par rapport au classique. Les systèmes quantiques vont donc naturellement renfermer plus d’info que les systèmes classiques. Si l’événement est impossible, |P| = 0 et, le long de ksi = ksi|P|=0(|x|), la quantité d’info est illimitée, quelle que soit PI : on retrouve le même résultat qu’en classique, moyennant quelques extensions. Par contre, si l’événement est CERTAIN, la théorie classique nous donnait une quantité d’information NULLE, alors que la théorie quantique nous donne :

 

(11)           |P|[|x|,ksi] = 1  =>  |I|[|x|,ksi] = kB|PI[|x|,ksi]|

 

une quantité d’information PROPORTIONNELLE A LA VALEUR ABSOLUE DE LA PHASE DU MELANGE PROBABILISTE. L’événement quantique, même certain, CONTIENT DONC ENCORE DE L’INFORMATION, sauf au pôle est PI[|x|,ksi] = 0, c’est-à-dire, le long de la courbe ksi = ksiPI=0(|x|).

 

Pour ce qui est des phases, un dernier aspect que nous n’avons pas abordé jusqu’ici : le choix du SENS DE ROTATION sur le cercle unité. La convention mathématique veut que les angles soient comptés positivement dans le sens trigonométrique et négativement dans le sens direct (sens des aiguilles d’une montre). Comme cos(.) est une fonction PAIRE, cela ne change rien aux premières projections. Par contre, sin(.) est IMPAIRE et le changement de sens INVERSE les secondes projections. Nous n’avions pas à nous en préoccuper plus avant pour les grandeurs déterministes, cependant, l’introduction des probabilités nécessite un éclaircissement. Lorsque nous avons introduit la notion de probabilité négative, nous avons, sans le dire, appliquer le sens trigonométrique.  Il va sans dire que, si nous inversons le sens de rotation, événements et anti-événements vont S’ECHANGER. C’est donc une simple question de CONVENTION : un « événement dans le sens DIRECT » va devenir un « ANTI-événement dans le sens trigo » et un « anti-événement dans le sens direct », un « événement dans le sens trigo ». Cela renforce en fait l’argument que nous avancions, selon lequel le signe des probas de réalisation dans chaque état pur n’a AUCUNE IMPORTANCE, du moment que les probas de MELANGE restent positive. Néanmoins, même si ces dernières apparaissaient, pour une raison ou une autre, négatives, il suffirait d’inverser le sens de rotation sur le cercle unité pour retrouver le « bon » signe (sinon, c’est qu’il y a une erreur de calcul quelque part).

 

Pourquoi tant de précisions ? Parce que, dans les FONCTIONS complexes de variables complexes, les angles sont déterminés modulo pi et que le nombre de tours est un entier RELATIF, donc SIGNé. Rappelons que, contrairement à l’exponentielle réelle, qui est une fonction univaluée (bijective), l’exponentielle complexe est une fonction MULTIvaluée (seulement surjective) : exp[i(ksi + 2npi)] = exp(iksi) pour tout n dans Z, de sorte que Tan[Arctan(.) + npi] = Tan[Arctan(.)]. Si donc, on regarde (10), on va trouver une infinité dénombrable de IOT[|x|,ksi] dans les DEUX sens de rotation, ce qui va induire un arbitraire sur le signe de I2[|x|,ksi]. Or, dans la théorie classique, l’information était présentée comme une quantité NON NEGATIVE. Dans le cas quantique, il est désormais possible de trouver des I1 comme des I2 des DEUX signes. Là encore, ça n’a pas d’importance, du moment que |I| reste positive ou nulle. Toutefois, dans le cas |P| = 1 d’un événement quantique certain, la formule (10) aboutit à :

 

(12)           |P| = 1  =>  ksi = ksi|P|=1(|x|)  =>  IOTn(|x|) = pi/2 + npi  ,  n dans Z

 

de sorte qu’en combinant (8) et (10), on obtient

 

(13)           I2(|x|) = |I|(|x|)sin[IOTn(|x|)] = -kBPI(|x|)

 

Si cette quantité est positive, pas de problème. Mais alors, PI(|x|) est NEGATIF, c’est-à-dire que l’on tourne dans le sens DIRECT dans le plan des probabilités. Pourquoi ? Parce que nous avons conservé le signe « -«  devant kB de manière à le retrouver dans le cas classique. Si I2(|x|) > 0, cela signifie donc que l’on est, soit dans le secteur I, soit dans le secteur II du plan des INFORMATIONS et que la convention à adopter dans le plan des probas est le sens direct. Si I2(|x|) < 0, on est, soit dans le secteur III, soit dans le secteur IV du plan des informations et la convention à adopter dans le plan des probas est le sens trigo. Il est tout à fait possible de parler « d’anti-information » mais, ne se référant pas automatiquement à un anti-événement [il suffit de regarder (12) pour s’en convaincre : ksi ne se limite pas à pi, loin s’en faut], ça ne me semble plus aussi approprié que pour les probas. Il me parait préférable de jouer sur les CONVENTIONS DE SIGNES pour retrouver des quantités positives : événements comme anti-événements présentent de L’INFORMATION, pas de « l’anti-information », cela n’a plus beaucoup de sens physique.

 

Nous retrouverons d’ailleurs cet argumentaire dans la bidouille suivante à propos de l’entropie des systèmes quantiques. Il était donc nécessaire de bien fouiller l’interprétation physique à donner à ces quantités désormais signées.

 

Terminons cette bidouille-ci avec la FONCTION DE DISTRIBUTION ou « densité de proba dans l’espace des phases » d’un système physique. En classique, si X est un espace de configuration (incluant donc l’espace physique) de dimension D et T*X son espace des phases, la fonction de distribution est un champ scalaire p(x,q) mesuré en m-D, où q représente ici le vecteur impulsion du système. En quantique, tout est complexifié, de sorte qu’on trouve une amplitude de densité de probabilité et une phase :

 

(14)           p(x,q) = |p|(|x|,ksi,|q|,thê)exp[ipi(|x|,ksi,|q|,thê)]

 

On voit immédiatement le rapport avec la fonction d’onde de Schrödinger en prenant la racine carrée de p(x,q) : ici aussi, |p| est le carré du module de cette fonction. Avec une amélioration, toutefois : la description proposée SANS DEMONSTRATION par Schrödinger ne tenait compte que de l’espace PHYSIQUE. Ici, nous sommes automatiquement dans l’espace DES PHASES.

 

Le calcul des valeurs moyennes va maintenant conduire à des intégrales oscillantes. Soit F(x,q) une fonction sur T*X, sa moyenne statistique sera :

 

(15)           <F(x,q)> = [S F(x,q)p(x,q)dDxdDq]/[S p(x,q)dDxdDq]

 

L’intégration peut s’effectuer, soit de manière étendue sur tout l’espace des phases, soit seulement sur un volume délimité de celui-ci. En classique, on avait la condition de normalisation ST*X p(x,q)ddxddq = 1. En quantique, seule L’AMPLITUDE |p| est normalisable :

 

(16)           ST*X |p|(|x|,ksi,|q|,thê)dd|x|dd|q|dksidthê = 1

 

De toute façon, p(x,q) est bornée par cette amplitude :

 

|ST*X p(x,q)dDxdDq| =< ST*X |p(x,q)dDxdDq| = ST*X |p|(|x|,ksi,|q|,thê)dd|x|dd|q|dksidthê

 

En vertu de (16), on a donc toujours :

 

(17)           |ST*X p(x,q)dDxdDq| =< 1

 

Il est donc préférable de laisser le dénominateur dans (15). D’abord, parce que la moyenne ainsi obtenue est évidemment complexe (on est quantique…) ; ensuite, parce que l’amplitude de cette moyenne :

 

|<F(x,q)>| = |S F(x,q)p(x,q)dDxdDq|/|S p(x,q)dDxdDq|

 

et, d’après (17),

 

(18)           |<F(x,q)>| >= |S F(x,q)p(x,q)dDxdDq|

 

L’EGALITE NE SE PRODUISANT EN GENERAL QUE DANS LE CAS CLASSIQUE. Il faut donc s’attendre à ce que les moyennes quantiques soient généralement SUPERIEURES (en amplitude) aux moyennes classiques.

 

On obtient des résultats semblables pour les moyennes d’ordres supérieurs de Fn(x,q) ou « moments statistiques d’ordre n » de F(x,q), ou bien de produits (convolutifs) de fonctions.

 

 

B 158: DISCUSSION PHYSIQUE

Le 24/03/2019

En mécanique ondulatoire, les états de polarisation complètement définie sont appelés « états purs ». Dans la réalité quotidienne, les choses s’observent rarement à l’état pur tout au long de leur existence, qu’il s’agisse de matière inerte ou vivante : tout n’est jamais « 100% positif » ou « 100% négatif », « droit » ou « gauche »,… on assiste plutôt à des MELANGES. C’est ce que semblent traduire les formules de décomposition de la bidouille précédente : on pourrait croire que les choses sont créées « en double ». Elles sont plutôt réalisées comme des ETATS MELANGéS. Pour assurer sa stabilité, par exemple, la matière ne peut se trouver dans un état de charge électrique complètement défini, positif ou négatif. Il doit, au contraire, s’établir un équilibre des charges de manière à ce que l’ensemble soit globalement neutre. Même les plasmas, qui sont des fluides parcourus par des courants électriquement chargés, sont globalement neutres. Les observations à toutes les échelles ne vont donc pas dans le sens d’objets physiques créés « en double » mais, au contraire, comme « mélanges simples » de deux états « idéaux ».

 

Dès lors, ce qui nous intéresse vraiment, ce n’est pas tant de connaître l’évolution des systèmes physiques dans CHACUN des états purs que comme MELANGES. A force de « décortiquer » les mécanismes de base du quantique, nous avons été amenés à conclure que le quantique est un MELANGE DE 2 ETATS « PURS », DE TYPE « CORPUSCULAIRE » OU « CLASSIQUE » et que les effets « ondulatoires » résultent en fait du REGROUPEMENT DE CES 2 ETATS. Et ceci s’applique A TOUT. Si on prend l’espace physique 3D, on a 2 états « purs », 2 « espaces idéaux » X1 et X2 et l’espace « effectif », celui qui est effectivement réalisé dans la Nature et un MELANGE de ces deux « cas extrêmes » :

 

(1)               |X| = eA(ksi)XA

 

où la somme contractée est directe, au sens de la théorie des ensembles, c’est-à-dire que les états purs sont supplémentaires. On a vu que, de là, on tirait chaque état pur comme le produit (d’échelle) de « l’espace de mélange » |X| par le « coefficient de mélange » correspondant :

 

(2)               XA = eA(ksi)|X|

 

et, finalement, que ce que l’on appelait l’espace « quantique » associé était la somme directe complexifiée :

 

(3)               X = |X|exp(iksi) = X1 + iX2 = [e1(ksi) + ie2(ksi)]|X|

 

ce qui ne revient qu’à transformer les distances dans |X| par un coefficient d’échelle OSCILLANT exp(iksi) = e1(ksi) + ie2(ksi).

 

On ne peut guère décomposer plus… On ne peut qu’ajouter que le « quantique » est en correspondance biunivoque avec les systèmes à 2 états purs et que le « classique » est précisément L’UN OU L’AUTRE DE CES « ETATS PURS ».

 

La physique « classique » était donc IDEALISTE ; la physique « quantique » est plus REALISTE. Néanmoins, la réalité physique semble plutôt être le MELANGE DE DEUX ETATS IDEALISTES.

 

On pourrait donc passer un peu de temps à développer une théorie dynamique des systèmes à deux états mais à quoi bon, en fin de compte, puisque cela ne TRADUIT PAS LA REALITE ? Il vaut bien mieux, à mon sens, comprendre l’évolution des systèmes QUANTIQUES, qui nous donnent les informations, à la fois sur « l’externe » (dans l’exemple ci-dessus, l’amplitude |X| de l’espace quantique X) et sur « l’interne » [le facteur d’échelle oscillant exp(iksi) associé à cet espace] et de chercher par la suite à comprendre pourquoi et comment cette dynamique est « filtrée » pour ne faire apparaître et percevoir que l’état « 1 » ou, au mieux, DEFORMEE, de manière à faire croire à une « dualité corpusculaire / ondulatoire », alors même que le concept « d’onde », on l’a vu dans les bidouilles précédentes, EST DEJA ET PUREMENT QUANTIQUE.

 

Autrement dit, on observait du quantique SANS LE SAVOIR et, une fois que nos instruments nous ont permis de détecter le quantique, EH BIEN, ON N’A PAS SU FAIRE LE RAPPROCHEMENT… :| On n’a pas sur faire le rapprochement, parce que les phénomènes constatées à l’échelle atomique et en deçà ne semblaient pas se reproduire à titre individuel aux échelles supérieures. On a donc invoqué la petitesse de h pour expliquer cela. Sauf qu’en fin de compte, h n’est qu’une ACTION, qui n’a RIEN DE « QUANTIQUE », ni au sens de Planck, ni au sens de de Broglie. Cette « explication » me parait donc manquer un peu d’argumentaire solide… En fait, on a expliqué « comme on pouvait »… pour, ensuite, ne tomber que sur des « paradoxes », des comportements « contradictoires », qu’on a fini par ACCEPTER TELS QUELS, parce qu’on ne parvenait pas à les comprendre…

 

Sans doute, parce que la LOGIQUE CARTESIENNE est ancrée bien trop profondément dans nos sociétés occidentales et que cette logique, dichotomique, ne fait, après tout, que DECOMPOSER LES CHOSES ET LES RAISONNEMENTS EN DEUX « ETATS PURS », IDEAUX… :). La logique cartésienne est « FILTRANTE », c’est du « tout-ou-rien ». C’était donc, soit « corpusculaire », soit « ondulatoire », mais certainement pas « tantôt l’un, tantôt l’autre » et encore moins « les 2 à la fois ».

 

Quand nous disons aujourd’hui que les choses sont réalisées comme des MELANGES, on n’est plus cartésien du tout, on n’est plus « BINAIRE », on devient PROPORTIONNEL.  Et là, comme par hasard, on se rend compte que le « quantique » n’a plus rien de paradoxal ni de contradictoire, que c’était plutôt le CARTESIANISME qui l’était, en DICTANT de manière un peu trop contraignante, en DECRETANT, sur la foi d’observations de l’époque, que les choses étaient conçues « soit sous telle forme, soit sous telle autre » A L’EXCLUSION DE TOUT « MELANGE DE GENRES »… :|

 

La logique cartésienne était EXCLUSIVE, la logique quantique ou 2 états est INCLUSIVE.

 

Et, sur un plan beaucoup plus SOCIAL, qui paraît à première vue bien loin des principes de physique fondamentale, je pense que c’est aussi et peut-être surtout pour cela que les sociétés INCLUSIVES semblent en telle « opposition de phase » avec les sociétés EXCLUSIVES, basées sur le raisonnement cartésien. Pourquoi les COMPORTEMENTS des sociétés inclusives paraissent si PARADOXAUX et CONTRADICTOIRES avec les principes des sociétés exclusives.

 

La culture occidentale, par exemple, c’est d’affirmer que, chez l’humain, IL NE PEUT EXISTER BIOLOGIQUEMENT QUE 2 SEXES, le « mâle » et la « femelle ». Et donc, que L’HERMAPHRODISME ne peut que résulter d’une PERTURBATION quelconque, génétique ou psychologique. On POLARISE : « mâle OU EXCLUSIF femelle ». Et on EDUQUE les gens comme cela, dès la naissance, c’est une croyance qui se transmet de génération en génération, en ajoutant que tout « mélange » est NOCIF A LA REPRODUCTION DE L’ESPECE, ce qui explique le REJET SYSTEMATIQUE DE L’HOMOSEXUALITE.

 

Les cultures chamaniques, au contraire, ont TOUJOURS INCLUS l’hermaphrodisme dans leurs sociétés. Et elles les qualifient de « DEUX ESPRITS » : MELANGE ! :) Le mélange est autorisé, toléré, est traité de la même manière que « l’état pur ». Il n’est pas taxé « D’IMPUR »…

 

La culture juive aussi, inclut l’homosexualité (mais pas l’orthodoxie juive). C’est sans doute la seule culture occidentale qui l’admette sans que cela amène à polémique.

 

Ces deux approches sont clairement EN CONTRADICTION. D’où CHOC DES CULTURES.

 

Vous voyez bien que le « quantique » S’APPLIQUE A TOUT… Il n’y a pas de « dualisme » : le dualisme est engendré par le CARTESIANISME. Si on ne SEPARAIT PAS systématiquement tout, par « principe », on n’aurait sans doute moins de difficultés à comprendre les REGROUPEMENTS…

 

Il n’est pas question de faire le procès de l’approche cartésienne, seulement de reconnaître que cette approche est REDUCTIVE PAR PRINCIPE. Qu’elle EXCLUT TOUTE POSSIBILITE DE SITUATION « INTERMEDIAIRE ». En théorie des ondes, tout mélange d’états de polarisation « purs » est considéré comme « impur » : ça ne figure dans aucun manuel, naturellement, néanmoins, on parle très souvent d’état « NON » ou « PARTIELLEMENT » polarisés… une manière « diplomatico-scientifique » de dire la même chose, partant du principe (cartésien là encore !) que tout ce qui n’est pas vu comme pur est forcément impur… :)

 

Continuons donc à être « IMPURISTES » car c’est cela qui devrait répondre à nos attentes.

 

Schrödinger se posait la question du chat « à la fois vivant et mort »… : comment pourrait-on être les 2 à la fois ou bien ni l’un ni l’autre ?...

 

Qu’est-ce que le « vivant » ? C’est de l’inerte devenu autonome.

Qu’est-ce que le « mort » ? C’est du vivant REDEVENU INERTE.

Mais inerte pour QUI ? Pour l’observateur CARTESIEN DE L’ETAT 1 (OU 2).

 

Qu’est-ce qui nous autorise à parler de « vie » ou de « mort » dans le cas de « MELANGES EXISTENTIELS » ? Ce découpage perd son sens strict… Tout ce que l’on peut dire, c’est que les systèmes physiques GERENT LEUR ENERGIE et qu’une FORME d’énergie se TRANSFORME en une autre. Quand on parle de « dégradation de l’ énergie », à la base de L’USURE des systèmes, il ne s’agit que de la transformation d’une énergie interne en énergie DE FROTTEMENT qui se « dissipe » PARCE QU’ELLE EST RESTITUEE A L’EXTERIEUR SOUS FORME DE « CHALEUR ». Si vous excluez l’environnement extérieur à un système, l’énergie de ce système se DISSIPE en général. Mais, si vous INCLUEZ l’extérieur, ainsi que TOUTES les formes d’énergie, l’énergie se CONSERVE… le bilan énergétique RESTE NUL… C’est ce que soutenait le Marquis de Lavoisier : « rien ne se crée, rien ne se perd, tout se transforme ». Il avait déjà compris, à mon sens et à sa façon sans doute, que la « thermodynamique » était une discipline INCLUSIVE. On aurait même tendance à dire, aujourd’hui, « holistique » : je ne suis pas trop d’accord avec ça. L’holistique est un TOUT. L’inclusif est différent, il consiste à prendre tous les ASPECTS en compte, de manière NON DISCRIMINATOIRE.

 

A défaut de faire de l’holistique, on va déjà commencer par faire de l’inclusif et on verra bien où ça nous mène. Il faut à présent se tourner vers la thermodynamique et la mécanique statistique. Ce n’est que de là que pourront émerger d’autres réponses.

 

 

Minibluff the card game

Hotels