doclabidouille
B79 : APPLICATION A LA THEORIE DES CODES
Le 11/03/2014
Typiquement, on serait tenté de prendre une delta de Dirac pour fonction de distribution néo-déterministe. Ce n’est pas la seule possibilité. Regardez sur l’équation toute bête de la chaleur : si r’(x) est indépendante de s, les harmoniques :
(1a) ¶r’(x)/¶x² = 0
sont encore des possibilités. En dimension n :
(1b) r’(x) ~ 1/|x|n-2 , |x|² = Si=1n (xi)²
Cette diversité de possibilités est offerte par la liberté de choix de r’(x) = r’(x,0) dans (1d), B78, qui agit comme dans une jauge. Ceci veut dire qu’il n’existe pas qu’une stratégie à risque zéro envisageable pour un modèle à risque donné, mais plusieurs, voire une infinité. En pratique, (1c) B78 limite quand même les possibilités en fonction de la physique du problème. Pour obtenir (1b) ci-dessus, par exemple, on a utilisé la même équation de la chaleur que pour r(x,s), en y posant s = 0. L’une des possibilités est r’(x) = d(x) = Lims->0 r(x,s), l’autre est le potentiel newtonien (1b), d’autres encore sont les harmoniques de Laplace. En fait, toutes les solutions de (1a). La physique fixe alors les conditions aux limites, i.e. la forme du domaine d’intégration.
Mais tout est déjà fourni au départ par les données du problème à risque. On n’a rien besoin de rechercher de plus.
Pour obtenir une stratégie à risque zéro à partir d’une stratégie à risque non nul, il suffit, soit d’intégrer (1c) B78 suivant s seul, soit d’utiliser l’équation en r(x,s) du modèle à risque et d’y poser s = 0.
Pour obtenir une stratégie à risque non nul à partir d’une stratégie à risque zéro, il faut résoudre (1c) B78 en r(x,s), ce qui s’avère beaucoup plus difficile, surtout si le modèle n’est plus linéaire.
J’ajoute, pour terminer sur le sujet, qu’une stratégie à risque zéro possède un catalogue de prévisions évidemment plus sûr que n’importe quel modèle à risque non nul, puisque la stratégie à risque zéro est déterministe.
Passons maintenant à un autre problème de fond, qui n’est pas sans rapport avec le précédent.
Il s’agit de la théorie des codes. Et, en particulier, des codes bancaires.
La théorie mathématique du cryptage est fondée sur l’arithmétique, c’est-à-dire, la théorie des nombres.
Et, à la base de la théorie des nombres, on trouve les nombres premiers.
Précisons d’ors et déjà que les nombres premiers ne constituent pas une « fatalité » en soi : si vous basez votre calcul sur l’addition – soustraction (méthode du boulier indien ou chinois), vous n’avez pas de table de multiplication et donc, pas de problème de nombres premiers.
Ce problème n’apparaît que dans l’arithmétique occidentale, fondée sur la multiplication.
La « suite » des premiers est foncièrement aléatoire.
Mais, si vous intégrez cet aléatoire dans votre système de chiffres, l’aléatoire disparaît. Donc, en principe, vous devriez aboutir à une suite néo-déterministe de premiers.
Ce qui rendrait de facto obsolètes tous les algorithmes de cryptage.
Nous allons d’ailleurs prendre un exemple qui illustre bien cette réalité.
On dit que l’informatique quantique est, en principe, capable de craquer n’importe quelle clé de cryptage actuelle en collectant toutes les combinaisons possibles, même s’il y en a une infinité non dénombrable, et en les regroupant au sein d’un seul paquet d’ondes (principe de superposition quantique ou de mélange statistique). Chaque combinaison est alors pondérée par une probabilité d’occurrence et, comme le système traite toutes les possibilités simultanément et non plus séquentiellement, la solution est obtenue « quasi-instantanément » comme l’occurrence la plus probable.
Dans sa structure, la théorie quantique intègre l’aléatoire. Dit autrement, l’aléatoire fait partie intégrante du monde quantique. C’est le paquet d’ondes qui est probabiliste par nature, pas ses équations d’évolution : Schrödinger comme Klein-Gordon sont déterministes !
Voilà l’explication. C’est parce que la théorie quantique intègre l’aléatoire dans ses systèmes qu’elle est en mesure de mettre en défaut tous les cryptages programmés sur des machines « classiques » de Turing-Von Neumann qui, elles, traitent l’aléatoire comme un « bruit perturbateur » extérieur au système.
Dans les modèles classiques, vous pouvez toujours, au moins en principe, supprimer le bruit perturbateur. Vous obtiendrez alors un modèle déterministe, réglé comme une horloge. Ce modèle réduit ne sera plus très réaliste, mais qu’importe : vous pouvez toujours le faire.
Dans les modèles quantiques, ceci est impossible. Le « bruit » est devenu une « composante » du système, il s’y est incorporé. Si vous le supprimez, vous supprimez le système…
Eh bien, ce qui a été développé dans B77 et B78, c’est le même principe, pour des systèmes « classiques », c’est-à-dire, « fonctionnels » (les systèmes « quantiques » étant, je le rappelle pour mémoire, des systèmes « opératoriels »).
Tous les modèles financiers actuels sont basés sur la gestion de portefeuilles à risques.
Cette approche considère que le « risque zéro » n’existe pas.
Or, non seulement, nous avons démontré le contraire, mais nous avons montré qu’à toute stratégie à risque correspondait au moins une stratégie à risque zéro.
Ces modèles tombent donc en défaut, puisqu’à n’importe quelle stratégie on peut opposer une risque zéro, forcément meilleure. Forcément optimale, car prévisible.
Ne restent plus que deux possibilités :
- soit suspendre toutes les cotations en place boursière, ce qui paralyserait tout le système économique ;
- soit poursuivre et s’exposer à tout instant au… risque de se voir opposer une stratégie à risque zéro qui raflera la mise au passage. En toute légalité.
Mieux qu’une martingale. Une martingale est une combinaison de jeu. Ici, on ne combine pas, on évalue toujours au plus juste. On mise « à coup sûr ».
Du coup, celui qui mise à risque « perd à coup sûr ».
Pour la théorie des codes, les perspectives ne sont guères meilleures : repenser le cryptage de A à Z, mais sur quelles bases ? ou s’exposer au risque que quelqu’un, quelque part dans le monde, trouve une suite déterministe de premiers qui craquera tous les codes ?
Dans le cas où cela se présenterait, qui assumera la responsabilité du choix ?...
Quel trader acceptera de sacrifier tous ses portefeuilles en échange d’une chance assez illusoire de sauvegarder l’intérêt financier général ?...
Qui serait prêt à assumer pareilles charges ?
Je collecte les candidatures.
Commentaires textes : Écrire
B78 : INTERPRETATIONS - "RISQUE ZERO"
Le 08/03/2014
On va interpréter un petit peu les résultats obtenus dans B77.
Considérons pour commencer l’opérateur covariant :
(1a) Ds = ¶/¶s - s¶²/¶x²
Factorisons :
(1b) Ds = (¶/¶s)[Id - ò sds¶²/¶x²]
Prenons une fonction-densité r(x,s) de forme quelconque et faisons lui correspondre une fonction-densité r’(x,s) telle que :
(1c) Dsr(x,s) = (¶/¶s)r’(x,s)
On trouve aussitôt :
(1d) r’(x,s) = r’(x,0) + r(x,s) - ò sds¶²r(x,s)/¶x²
SI, maintenant, r(x,s) est solution de Dsr(x,s) = 0, ALORS r’(x,s) = r’(x,0) est indépendante de s et réciproquement. r(x,s) est le « noyau dissipatif », r’(x,s) est le « noyau conservatif ». Vous n’aurez d’ailleurs pas manqué de remarquer que r’(x,0) est « déterministe ».
Interprétons.
s caractérise le « risque » ; c’est le « paramètre de la dissipation » : si s² = 0, auquel cas s = 0, le processus est « déterministe ».
Dans « l’espace paramétrique s », le passage de la dérivation « naturelle » ¶/¶s à la dérivation « covariante » Ds donne lieu à une transformation du noyau fonctionnel, qui passe de r(x,s) à r’(x,s). Si r(x,s) représente la « distribution du risque » dans le modèle Dsr(x,s) = 0, r’(x,s) = r’(x,0) représente la distribution « covariante » correspondante.
Dans r’(x,s) = r’(x,0), il n’y a plus de « risque ». Celui-ci a été « absorbé » par la dérivation covariante Ds et a donc été complètement éliminé du nouveau cadre paramétrique (alors qu’il ressort nettement dans l’ancien) :
r(x,s) EST LA « DISTRIBUTION A RISQUE »
r’(x,s) EST LA « DISTRIBUTION A RISQUE ZERO »
N’en déplaise à nos grands « stratèges » de par le monde (surtout occidental), l’idée que je défends depuis 2001 est exacte : le risque zéro existe bel et bien.
L’explication est simple, je la reformule ici : r(x,s) gère le « risque » comme une « perturbation extérieure au système » ; r’(x,s) l’a intégré au système, quelle que soit la nature de ce risque (ici, gaussien ordinaire). Conséquence : il n’y a plus de « risque » en tant que perturbation extérieure au système étudié.
Le fait que, dans le modèle gaussien ordinaire, je peux toujours passer de r(x,s) à r’(x,s) montre que le « risque gaussien ordinaire » peut toujours être « éliminé » au profit d’un « super-modèle » déterministe.
Vous voyez bien qu’avec des modèles plus élaborés de « risques », comme les gaussiennes (2), (3) ou (4) (la plus générale), il existe partout une dérivée covariante. Donc un noyau r’(x,s) « à risque zéro ». Prenez (2) :
(2a) Ds = ¶/¶s - s[½ s²k2²(s)¶²/¶x² + k1(s)¶/¶x + k0(s)Id/s]
(2b) Dsr(x,s) = (¶/¶s)r’(x,s)
(2c) r’(x,s) = r’(x,0) + ò Dsr(x,s)ds
r(x,s) = « distribution à risque », r’(x,s) = « distribution à risque zéro »…
Pour toutes les formes de « dissipation », même principe : on ne rejette pas ces phénomènes (ce serait contraire à l’observation) ; non seulement on les prend en compte (comme dans les modèles dissipatifs), mais en plus, on les incorpore dans le système étudié.
Dans l’approche « dissipative », on raisonne : « système mécanique » soumis à une « dégradation thermodynamique ». Cette dégradation a beau être interne au système, on raisonne de manière « dichotomique », en distinguant la partie dissipative de la partie mécanique. On sépare le système en deux, quitte à coupler les deux aspects.
Dans l’approche « néo-conservative », on élargit la variation par rapport au paramètre, donc la géométrie de l’espace paramétrique, ce qui permet de traiter les deux aspects comme une seule dynamique synthétisée.
Conclusion (pratique) :
LA DISSIPATION, LE « RISQUE » N’APPARAIT DANS LES SYSTEMES QUE PARCE QUE CEUX-CI SONT ANALYSES DANS UN CADRE DYNAMIQUE A LA GEOMETRIE TROP RESTREINTE.
IL SUFFIT D’ADAPTER LA GEOMETRIE DE CE CADRE A LA SITUATION DYNAMIQUE QUI LUI EST PROPRE (S’AGISSANT DE L’ESPACE DES ETATS DU SYSTEME ETUDIé) POUR ELIMINER TOUTE DISSIPATION, TOUT « RISQUE ».
Et, quand on a affaire à des « stratèges économiques » à l’esprit aussi étriqué, sinon plus, que leur cadre de travail, on a du mal à se faire à cette idée… c’est sûr…
Commentaires textes : Écrire
B77 : TOUT SYSTEME PEUT ÊTRE RENDU CONSERVATIF
Le 07/03/2014
Dans cette bidouille, nous allons montrer que le phénomène de dissipation de l’information est encore un « faux » problème théorique. La dissipation est un phénomène bien observé expérimentalement et il n’est pas question de remettre ce fait en cause. C’est à partir du moment où l’on construit un modèle théorique à partir d’une synthèse de données expérimentales que l’on entre dans le « faux » débat.
Nous partons du modèle dissipatif le plus simple : le processus gaussien. C’est la solution de « l’équation (homogène) de la chaleur » :
(1a) ¶r/s¶s = ¶²r/¶x² , r(x,s) = exp(-x²/2s²)/s(2p)1/2
Dans cette équation, x est traité comme un point fixe de l’espace. s est la racine carrée de l’écart-type par rapport à la moyenne. Notez également que, dans cette modélisation du processus de conduction de la chaleur, x est un variable fluctuante, ce qui sous-entend que l’espace lui-même est fluctuant (au moins pour le processus considéré). Mais (1a) peut toujours se réécrire :
(1b) [¶/s¶s - ¶²/¶x²]r = 0
qui devient alors une équation de conservation. Du coup, r(x,s) devient une grandeur conservative, vis-à-vis de (l’action à gauche de) l’opérateur ¶/s¶s - ¶²/¶x². Cet opérateur est plus général que ¶/s¶s. Ainsi, vis-à-vis de l’opérateur ¶/s¶s, r(x,s) n’est pas conservé, mais il le devient vis-à-vis de l’opérateur plus général :
(1c) ¶/s’¶s’ = ¶/s¶s - ¶²/¶x²
car (1b) signifie que r devient indépendante du nouveau paramètre s’.
Nous allons généraliser ceci.
Commençons déjà par rechercher la solution de l’équation homogène linéaire :
(2a) ¶r/s¶s = [½ s²k2²(s)¶/¶x² + k1(s)¶/¶x + k0(s)/s]r
avec des coefficients k0(s), k1(s) et k2(s) en m-1 connus, sous la forme :
(2b) r(x,s) = exp[-½ K2²(s)x² + K1(s)x + K0(s)s]/s(2p)1/2
Le calcul des dérivées successives de r conduit au système du premier ordre :
(2c) d[K2²(s)]/ds = -s3k2²(s)K24(s)
(2d) dK1(s)/ds = -s3k2²(s)K1(s)K2²(s) – k1(s)K2²(s)
(2e) d[K0(s)s]/ds = 1/s + ½ s3k2²(s)[K1²(s) – K2²(s)] + sk1(s)K1(s) + k0(s)
La première de ces équations se résout directement et donne :
(2f) 1/K2²(s) = ò s3k2²(s)ds
La deuxième se résout par la méthode de variation des constantes et donne :
(2g) K1(s) = -exp[-V1(s)] ò exp[V1(s)]sk1(s)K2²(s)ds
(2h) V1(s) = ò s3k2²(s)K2²(s)ds
La troisième s’obtient également directement :
(2i) K0(s) = s-1ò {1/s + ½ s3k2²(s)[K1²(s) – K2²(s)] + sk1(s)K1(s) + k0(s)}ds
Ces expressions ne sont pas simples, mais on vérifie très facilement que, dans le cas k2²(s) = 2/s², k1(s) = k0(s) = 0, qui correspond à (1a), on retrouve bien la gaussienne K2²(s) = 1/s², K1(s) = K0(s) = 0. Réciproquement, si K2²(s) = 1/s², K1(s) = K0(s) = 0, on trouve k2²(s) = 2/s², k1(s) = k0(s) = 0. Par conséquent, la gaussienne (2b) est conservée par l’opérateur (local) :
(2j) ¶/s’¶s’ = ¶/s¶s - [½ s²k2²(s)¶/¶x² + k1(s)¶/¶x + k0(s)Id/s]
alors qu’elle ne l’est pas par les opérateurs plus restreints ¶/s¶s - ½ s²k2²(s)¶/¶x², ¶/s¶s - k1(s)¶/¶x, ¶/s¶s - k0(s)Id/s, ½ s²k2²(s)¶/¶x² + k1(s)¶/¶x, ½ s²k2²(s)¶/¶x² + k0(s)Id/s, k1(s)¶/¶x + k0(s)Id/s, ¶/s¶s - [½ s²k2²(s)¶/¶x² + k1(s)¶/¶x], ¶/s¶s - [½ s²k2²(s)¶/¶x² + k0(s)Id/s] et [½ s²k2²(s)¶/¶x² + k1(s)¶/¶x + k0(s)Id/s]. Pour tous ces opérateurs-là, il y a « dissipation » (= « non conservation du noyau fonctionnel »).
Poursuivons. Cherchons maintenant la solution de :
(3a) dr’/sds = s-1{¶/¶s + [dx(s)/ds]¶/¶x(s)}r’ =
= [½ s²k2²(s)¶/¶x²(s) + k1(s)¶/¶x(s) + k0(s)/s]r’
cette fois, pour un point mobile x(s), modélisant typiquement la trajectoire de l’un des constituants d’un milieu physique en général supposé « continu », c’est-à-dire, composé d’un très grand nombre de constituants. Cherchons cette solution sous la forme :
(3b) r’[x(s),s] = r(x,s)exp{Q[x(s),s]}
où r(x,s) est la solution (très mal écrite) (2b) pour x(s) fixe. Je vais détailler le calcul, car il me faut justifier la procédure.
dr’/sds = expQ(dr/sds + rdQ/sds)
¶r’/¶x(s) = expQ[¶r/¶x + r¶Q/¶x(s)]
¶²r’/¶x²(s) = expQ{¶²r/¶x² + 2(¶r/¶x)[¶Q/¶x(s)] + r¶²Q/¶x²(s) + r[¶Q/¶x(s)]²}
où je poursuis dans mon écriture « matheusement pourrie » en notant ¶r/¶x à la place de ce qui devrait s’écrire « ¶r/¶x(s) pour x(s) considéré comme fixe » (!!! – bin, je préfère encore mon écriture « matheusement pourrie » lol). L’insertion dans (3a) conduit à :
dr/sds + rdQ/sds = ½ s²k2²(s){¶²r/¶x² + 2(¶r/¶x)[¶Q/¶x(s)] + r¶²Q/¶x²(s) + r[¶Q/¶x(s)]²} + k1(s)[¶r/¶x + r¶Q/¶x(s)] + k0(s)r/s
(où l’on apprécie l’usage intempestif du copier-coller, impossible sur papier… lol)
Après simplification par (2a), puisque dr/sds = ¶r/s¶s :
dQ/sds = ½ s²k2²(s){2(¶Lnr/¶x)[¶Q/¶x(s)] + ¶²Q/¶x²(s) + [¶Q/¶x(s)]²} + k1(s)¶Q/¶x(s)
La condition sur laquelle s’appuie la résolution est :
(3c) Q[x(s),s] º 0 pour x(s) fixe.
Cette condition ne laisse en effet qu’une possibilité :
[dx(s)/sds]¶Q/¶x(s) = ½ s²k2²(s)[¶Q/¶x(s)]²
soit :
(3d) ¶Q/¶x(s) = [2/s3k2²(s)]dx(s)/ds
Etant donné que x(s) n’est pas la trajectoire du milieu, mais seulement celle de l’un de ses constituants individuels, dx(s)/ds ne dépend pas de x(s) mais seulement de s et donc :
(3e) ¶²Q/¶x²(s) = 0
Il reste :
¶Q/s¶s = [s²k2²(s)¶Lnr/¶x + k1(s)]¶Q/¶x(s) = 2[¶Lnr/¶x + k1(s)/s²k2²(s)]dx(s)/sds
= 2[-K2²(s)x(s) + K1(s) + k1(s)/s²k2²(s)]dx(s)/sds
On déduit de tout cela la demi-dérivée totale de Q[x(s),s] par rapport à s :
(3f) ½ dQ[x(s),s]/ds = [1/s3k2²(s)][dx(s)/ds]² + [-K2²(s)x(s) + K1(s) + k1(s)/s²k2²(s)]dx(s)/ds
qui vérifie bien (3c). Q apparaît donc bien comme une fonction de x(s), mais aussi et surtout, de sa dérivée dx(s)/ds.
De nouveau, r’[x(s),s] est conservée vis-à-vis de l’opérateur :
(3g) d/s’ds’ = d/sds - [½ s²k2²(s)¶/¶x²(s) + k1(s)¶/¶x(s) + k0(s)/s]
mais pas par (2j), sauf en chaque point x(s).
Si vous passez à l’espace des états du système, coordonnées mobiles [x(s),p(s),s], le principe de résolution reste le même pour la distribution produit :
(4a) r’[x(s),p(s),s] = r’x[x(s),s]r’p[p(s),p(s)]
En effet, le rapport x(s)/s étant sans unité physique, doit être remplacé par le rapport d’impulsions sans unité p(s)/p(s). Il s’avère que, dans le cas des opérateurs linéaires, le choix de p(s) est libre, au sens où ces modèles ne conduisent à aucune condition sur p(s). Après, bien sûr, c’est la physique du problème qui établit la forme de la dépendance de p envers s. La différentielle totale par rapport à s devient :
(4b) d/ds = ¶/¶s + [dx(s)/ds]¶/¶x(s) + [dp(s)/ds]¶/¶p(s) + [dp(s)/ds]¶/¶p(s) =
= ¶/¶s + [dx(s)/ds]¶/¶x(s) + [dp(s)/ds]{¶/¶p(s) + [dp(s)/dp(s)]¶/¶p(s)}
et l’opérateur « conservatif » (3g) est remplacé par :
(4c) d/s’ds’ = d/sds - [½ s²k2²(s)¶/¶x²(s) + k1(s)¶/¶x(s) + k0(s)/s] –
- [p(s)/s][dp(s)/ds][½ p²(s)k2²(s)¶/¶p²(s) + k1(s)¶/¶p(s) + k0(s)/p(s)]
avec k0(s),k1(s),k2(s) en (kgm/s)-1. Les physiciens interprètent les trois premiers termes de (4b) comme la contribution « purement mécanique », les termes apparaissant dans la différence d/sds - d/s’ds’ étant interprétés comme « dissipatifs ».
D’une manière fort générale, à partir du moment où vous établissez une « équation de physique mathématique » quelconque :
(5a) L{r’[x(s),p(s),s],x(s),p(s),s} = 0
où L est un opérateur pas forcément linéaire, vous venez d’établir une équation de conservation pour la densité de probabilité r’[x(s),p(s),s]. Ça veut bien dire ce que ça veut dire : que r’[x(s),p(s),s] est conservée vis-à-vis de l’opérateur L. Que la solution de votre équation puisse s’obtenir explicitement ou non, vous savez qu’il en existe forcément une, car à toute équation correspond au moins une solution. Analytique ou pas, peu importe. Si, en plus, vos conditions initiales et aux limites vous sont imposées par la physique du problème, vous savez (théorèmes de Cauchy et de Riemann et variantes) qu’hors d’une situation « franchement singulière », ces conditions rendent votre solution unique. Dans la physique actuelle, ces situations « franchement singulières » se classent typiquement en : chaos et singularités essentielles de modèles dits « classiques ». Ces derniers conduisent généralement à des extensions « quantiques » de vos singularités.
Par exemple, en « régime laminaire », vous êtes régulier, votre solution sera unique.
En « régime turbulent », vous êtes en situation de bifurcation et de transition vers le chaos. Et, plus votre turbulence sera développée, plus votre entropie de Kolmogorov-Sinaï sera grande et plus le traitement statistique du problème vous deviendra incontournable.
Comme l’a montré Liouville en son temps, ce qui vaut pour les fluides physiques est applicable en l’état aux « fluides de phases ». Et r’[x(s),p(s),s] est un “fluide de phases”.
En résumé, à chaque processus physique correspond un opérateur L tel que le « fluide de phases » r’[x(s),p(s),s] modélisant ce processus vérifie (5a). Il n’existe pas, a priori, de processus physique dans la Nature qui ne soit pas modélisable. Ceux qui ne le sont pas par la physique mathématique actuelle sont, soit ceux qui n’ont pas encore été découverts, soit ceux pour lesquels l’arsenal théorique actuel est insuffisant. Mais le caractère foncièrement abstrait des mathématiques rend automatiquement modélisable tout processus physique se produisant réellement dans la Nature.
Conclusion :
TOUS LES PROCESSUS PHYSIQUES PEUVENT TOUJOURS ÊTRE RENDUS CONSERVATIFS.
La « dissipation » est « absorbée » dans une variation plus générale que celle que l’on s’est donnée au départ. C’est toujours cette idée de base « d’élargir le cadre de travail de départ », cette idée de « covariance des systèmes ». (1c), par exemple, établit une « covariance » (en langage tensoriel, je précise)
Une covariance s’établit toujours dans l’espace des paramètres.
C’est en ce sens-là qu’ en début de texte je qualifiais de « faux problème théorique » les systèmes dits « dissipatifs ».
Les résultats que nous venons d’établir s’appliquent aussi bien à la finance mathématique qu’au multivers. On rejoint du coup les bidouilles 4,5 et 6 de départ tout comme les toutes dernières bidouilles sur le multivers.
J’ajoute pour terminer que la constructibilité d’un multivers classique n’est pas applicable à la seule « parapsychologie » : selon le système choisi, la démarche est identique. Pour le multivers, j’ai considéré le système U dans son intégralité. Si je prends n’importe quel « sous-système classique » de U, autrement dit, n’importe quel corps matériel ou système de corps matériels de U peut être décomposé en « configurations propres ».
Ceci, justement grâce au fait que nous venons de démontrer que tout processus physique peut être rendu conservatif : dans le cas linéaire au moins, (5a) conduit à une équation aux valeurs propres pour l’opérateur (conservatif) L et donc à des états propres du système considéré.
Exactement comme pour le multivers tout entier.
Mais, « modulo l’extension adéquate ».
Les problèmes auxquels je vais devoir faire face maintenant sont fort ardus et je doute que je reste aussi prolixe dans les semaines et mois à venir.
Entretemps, il n’est pas impossible que je découvre d’autres « faux problèmes »… J
Commentaires textes : Écrire
B76 : LE MULTIVERS CLASSIQUE
Le 26/02/2014
En nous appuyant sur ce qui a été développé hier dans la bidouille précédente, nous allons maintenant montrer que l’on peut construire un multivers classique. Bien qu’étant tout sauf raciste, j’avoue que ça m’arrange considérablement, car nous avons coutume d’attribuer le quantique au microscopique et le classique au macroscopique. Force est de constater, en effet, que les milieux quantiques macroscopiques sont assez « exceptionnels », au sens qu’ils exigent, pour se constituer, des conditions thermodynamiques « hors du commun ». Au contraire, un multivers classique nous permettra d’aborder des corps « classiques », c’est-à-dire, tout le vaste domaine de la vie courante.
Le point de départ est un espace des phases fluctuant. Sur un tel espace, on localise un corps physique quelconque, supposé ramené à son centre de gravité, par sa position x dans l’espace euclidien E3, son impulsion p et l’instant t. On commence par étendre E3 en lui conférant une structure d’espace fluctuant. La coordonnée de position x devient stochastique :
(1a) x = <x>x + dx
On procède de même avec l’impulsion :
(1b) p = <p>p + dp
Considérons d’abord un temps t non fluctuant : t = <t>t. La trajectoire du corps dans son espace des phases est [x(t),p(t)]. Ce sont surtout les parties purement fluctuantes qui nous intéressent. Les fluctuations de position dx autour de la trajectoire déterministe <x>x(t) et les fluctuations d’impulsion dp conduisent à une distribution de probabilité r[dx(t),dp(t),t]. La dérivée totale par rapport au temps à considérer est :
(1c) d/dt = ¶/¶t + {d[dx(t)]/dt}¶/¶[dx(t)] + {d[dp(t)]/dt}¶/¶[dp(t)]
On ne tient plus compte ici que des fluctuations car, dans la situation stochastique, ce sont les éléments qui sont vraiment considérés comme variables. Les moyennes sont considérées comme des résultantes de la répartition statistique. C’est ce qui explique que seules les fluctuations interviennent dans les distributions de probabilité, souvent sous la forme d’un « recentrage autour de la moyenne statistique ». Par exemple, dx = x – <x>x.
Soit H[dx(t),dp(t),t] l’hamiltonien du système. En variables fluctuantes, H devient solution du système d’équations canoniques :
(2a) d[dx(t)]/dt = ¶H[dx(t),dp(t),t]/¶[dp(t)]
(2b) d[dp(t)]/dt = -¶H[dx(t),dp(t),t]/¶[dx(t)]
(en fait, on raisonne exactement de la même manière que dans le cas « déterministe », en remplaçant les variables « déterministes » x(t) et p(t) – ici les moyennes statistiques (1a) et (1b) transformées en fonctions du temps – par les variables fluctuantes associées, ce qui revient à « recentrer les variables – stochastiques – autour de leurs moyennes »)
Compte tenu de (2a et b), la distribution de probabilité va obéir à Liouville :
(2c) ¶r[dx(t),dp(t),t]/¶t = {H[dx(t),dp(t),t] , r[dx(t),dp(t),t]}
à condition, bien sûr, que le système considéré soit conservatif. Or, si nous prenons l’Univers U comme système en question, il est évidemment conservatif. Donc U obéit à Liouville.
Factorisons r[dx(t),dp(t),t] comme en (2a), B75. Une telle factorisation n’est nullement nécessaire, on peut raisonner directement sur r mais, dans la situation « pure », i.e. hors mélange statistique d’états (l’espace classique des phases ouvre sur la notion – classique – d’états d’un système dynamique), nous allons utiliser cette propriété de r. Ceci nous conduit à une amplitude de probabilité :
(2d) y[dx(t),dp(t),t] = {r[dx(t),dp(t),t]}1/2exp{iq[dx(t),dp(t),t]}
sur l’espace des états du système (= espace des phases + paramètre temporel, dim = 2n+1 pour n ddls). On vérifie aussitôt que y est aussi solution de Liouville :
(2e) ¶y[dx(t),dp(t),t]/¶t = {H[dx(t),dp(t),t] , y[dx(t),dp(t),t]}
de même que sa conjuguée :
(2f) ¶y*[dx(t),dp(t),t]/¶t = {H[dx(t),dp(t),t] , y*[dx(t),dp(t),t]}
On pourrait en rester là, ce n’est déjà pas si mal. Ce qui nous permet d’aller plus loin, c’est le fait que :
(3a) L[dx(t),dp(t),t] = {H[dx(t),dp(t),t],.}
est un opérateur (local). En conséquence, il lui correspond des états propres et des valeurs propres :
(3b) L[dx(t),dp(t),t]yi[dx(t),dp(t),t] = niyi[dx(t),dp(t),t] = ¶yi[dx(t),dp(t),t]/¶t
Les solutions de ces équations sont des modes de fréquences ni déterminés :
(3c) yi[dx(t),dp(t),t] = yi[dx(0),dp(0),0]exp(nit)
Si y[dx(t),dp(t),t] est la « fonction d’ondes classique de l’Univers », alors à chaque fréquence propre ni de l’opérateur de Liouville va correspondre un état propre de U, c’est-à-dire, un univers Xi. Ce qui remplace les projecteurs quantiques rij = |yi><yj|, ce sont les distributions :
(3d) rij[dx(t),dp(t),t] = yi[dx(t),dp(t),t]yj*[dx(t),dp(t),t]
= yi[dx(0),dp(0),0]yj*[dx(0),dp(0),0]exp[(ni + nj)t]
= rij[dx(0),dp(0),0]exp[(ni + nj)t]
Décidément, la frontière entre le « classique » et le « quantique » devient de plus en plus ténue, au fur et à mesure que les similitudes de structure apparaissent…
La seule différence qui subsiste jusqu’ici est que, dans le contexte classique, H est une fonctionnelle (d’ordinaire réelle) sur l’espace des états du système, dx(t) et dp(t), des fonctions du temps, de sorte que c’est le crochet de Poisson (ou son inverse, le crochet de Lagrange) qui est constructible. Tout le reste est assez similaire, au moins à la théorie quantique « première » de Schrödinger-Heisenberg et al.
L’expression (3d) est tout de suite beaucoup plus parlante que son homologue quantique : les couplages entre états propres y apparaissent très nettement pour j ¹ i, de même que la nécessité de tenir compte des plans propres (yi , yj). La différence avec la situation quantique est que ces couplages, qui donnent lieu à des « interférences temporelles classiques » ne sont plus bornées : les régimes sont, soit amplifiés au cours du temps [(ni + nj)t > 0], soit amortis [(ni + nj)t < 0] et il faut nj = -ni pour que le régime soit stationnaire. Mais, à côté de ces couplages temporels, rij[dx(t),dp(t),t] présente encore des interférences classiques en espace et impulsion, cette fois, en régimes oscillants.
Pour j = i,
(3e) rii[dx(t),dp(t),t] = rii[dx(0),dp(0),0]exp(2nit)
A partir des rij, je peux mélanger les états propres, en pondérant avec des probabilités pij(t) et je retrouve une forme classique de mes opérateurs quantiques Rij de mélange :
(3f) Rij[dx(t),dp(t),t] = pik(t)rjk[dx(t),dp(t),t]
[Attention : les coefficients pij de mélange sont des probabilités et non des densités de probabilités. Ils ne peuvent donc être, au mieux, que des fonctions du temps, puisque l’élément de volume sur l’espace des phases est d3x(t)d3p(t), avec t pour paramètre (et non variable d’intégration)]
avec toujours un invariant, maintenant fonctionnel :
(3g) R[dx(t),dp(t),t] = pik(t)rik[dx(t),dp(t),t]
Si mon système est U, je viens de construire le multivers classique associé. Grâce à Liouville.
Ça veut dire qu’a priori, je suis constructible en « n » unités distinctes, chacune dans « un » univers Xi, n pouvant être infini et que toutes ces unités distinctes, mélangées, forme un seul être. Dans l’autre sens : chaque être apparaît unique (dans U) et se laisse « conjuguer » en divers « modes déterminés » (un dans chaque Xi), qui possèdent chacun leur existence « propre ».
Mes probabilités pij(t) vérifient encore :
(3h) Si,j |pij(t)| £ 1
A l’instar du contexte quantique, des coefficients pij(t) complexes correspondent à une situation de chaos. Dans ce cas, en effet, les valeurs propres de Liouville deviennent complexes et il apparaît des régimes oscillants dans les états propres et donc, dans les rij. Or, toute probabilité est l’intégrale d’une densité sur un volume de phase. Il faut donc tenir compte de la possibilité de « probabilités définies à une phase près », pour inclure toutes les situations.
Pour le multivers classique, Si,j |pij(t)| = 1. Par conséquent, chaque Xi est dissipatif, de même que chaque « interstice » entre les Xi. L’info circule dans U, comme dans le cas quantique.
Ça veut dire que chaque « unité vivante » peut subir le vieillissement dans « son » univers, mais que l’être obtenu par mélange statistique de toutes ces unités est, lui, soit insensible au vieillissement, soit (auto)régénératif.
Commentaires textes : Écrire
B75 : VIDES "CLASSIQUES" ET FONCTIONS D'ONDES
Le 25/02/2014
J’abrège les énoncés des titres des bidouilles à partir de celle-ci pour rallonger leur contenu : on arrive à la 75… et il reste encore des manques théoriques à combler… L
Aujourd’hui, il va être question des vides classiques. Ces vides-là sont complètement négligés par la physique classique et, une fois encore, c’est fort dommage, car ils apportent le lien direct avec la notion de fonction d’ondes.
Comme souvent dans mes travaux, l’idée de départ est connue depuis longtemps, surtout des praticiens :
IL EST IMPOSSIBLE DE CONCEVOIR UN APPAREIL DE MESURE CAPABLE DE MESURER UNE GRANDEUR PHYSIQUE DONNEE AVEC UNE PRECISION INFINIE, I.E. D’EN OBTENIR LA VALEUR EXACTE. TOUT APPAREILLAGE DE CE TYPE REALISE NECESSAIREMENT UNE APPROXIMATION, UN ARRONDI, QUI INTRODUIT UNE ERREUR DE MESURE DANS L’EVALUATION DE LA GRANDEUR.
LE DEFAUT EST SYSTEMIQUE, EN CE SENS QU’IL APPARAIT MÊME POUR UN SEUL CORPS CONSIDERE COMME ISOLé.
Je prends un exemple fort parlant. Considérons un corps physique quelconque, de forme quelconque. Tout ce que l’on « exigera » de ce corps est d’être matériel. Soit m sa masse exacte et <m>m, sa masse effectivement mesurée. La différence dm = m - <m>m est l’erreur « systémique » commise sur la mesure de m. Cette erreur peut être imputée à l’imprécision de l’appareil de mesure. Qu’à cela ne tienne, perfectionnons-le. Néanmoins, à partir de l’échelle atomique, les effets ondulatoires deviennent prépondérants et finissent par « masquer » la valeur « déterministe » <m>m de la masse mesurée : l’opérateur est forcé de faire un compromis imposé par le principe d’incertitude. C’est en ce sens que l’erreur devient « systémique » : ce n’est plus seulement une question d’imprécision, ça devient indépendant de l’appareil de mesure et même de l’opérateur. Ce n’est pas non plus une question de « systèmes à grand nombre de constituants », comme en physique statistique : la masse mesurée de l’électron est de 0,910956 x 10-30 kg ; sa masse exacte reste inconnue, en raison des fluctuations du « vide électronique » (« nuage virtuel ») autour de cet électron. Aucun appareil de mesure ne pourra évaluer cette masse avec une précision infinie, parce que dm diffère fondamentalement de la différentielle de masse dm : là où dm est considérée comme une quantité infinitésimale, mais toujours déterministe, dm est une variation aléatoire de masse, susceptible de changer d’un instant à l’autre et de manière imprévisible à l’avance. En outre et non des moindres, dm n’a aucune raison d’être infinitésimale. Elle peut même devenir macroscopique et dépasser largement la valeur « classique » mesurée <m>m.
Il en va de même de toute grandeur physique mesurable.
On a donc un problème de mesure qui n’a plus rien à voir avec la mesure de Lebesgue.
Cette fluctuation dm peut être positive, nulle ou négative. Elle peut changer de signe de façon tout à fait aléatoire. C’est sur la fluctuation qu’est basé le calcul des probabilités à la limite continue. Dans l’exemple ci-dessus, la masse m est stochastique et seule sa moyenne <m>m est considérée comme « déterministe » (et encore, nous allons voir que c’est faux).
Pour le moment, nous ne considérerons que des distributions gaussiennes et nous raisonnerons en dimension 1 pour simplifier les écritures. Soit :
(1a) rm(dm) = [2p<(dm)²>]-1/2exp[-(dm)²/2<(dm)²>]
la distribution gaussienne de masse associée à la masse stochastique m = <m>m + dm. J’ai placé en indice la nature physique de la grandeur considérée. Rappelons les propriétés essentielles de la gaussienne :
(1b) òR rm(dm)d(dm) = 1
(1c) <(dm)n>m = òR (dm)nrm(dm)d(dm) = <(dm)n+2>m/(n+1)<(dm)²>m
comme le montre une simple intégration par parties, de sorte que :
(1d) <(dm)2n>m = (2n+1)!!<(dm)²>mn (n Î N)
(1e) <dm>m = 0 => <(dm)2n+1>m = (2n)!!<(dm)²>mn<dm>m = 0
La notation (.)!! signifie « factorielle paire ou impaire » suivant que le nombre entre parenthèses est pair ou impair : (2n+1)!! = (2n+1)x(2n-1)x(2n-3)x…x5x3x1, (2n)!! = (2n)x(2n-2)x(2n-4)x…x4x2.
dm = 0 correspond à la valeur la plus probable, pour laquelle m = <m>m et rm(0) = [2p<(dm)²>]-1/2.
<(dm)²>m = 0 => <(dm)2n>m = 0 pour tout n Î N et rm(dm) = d(dm).
LE DETERMINISME CORRESPOND A <(dm)²>m = 0 ET NON A dm = 0. EN CONSEQUENCE, MÊME LES GRANDEURS CLASSIQUES CONSIDERES COMME « DETERMINISTES » PEUVENT ÊTRE ENTACHEES D’UNE ERREUR SYSTEMIQUE NON NULLE. C’EST Là UNE GRAVE CONFUSION DE LA PHYSIQUE « CLASSIQUE » D’AVOIR REJETé LES SYSTEMES STOCHASTIQUES A ECART-TYPE NUL DE SON « DETERMINISME ».
On a fait, en effet, le découpage historique suivant : physique classique / physique statistique / physique quantique. En assignant à chaque domaine : « déterminisme » / indéterminisme des grands systèmes / indéterminisme systémique (principe d’incertitude).
<dm>m = 0 signifie qu’il y a autant de fluctuations de masse positives que de fluctuations de masse négatives. On n’a nullement besoin de la TQRC pour établir cela.
dm > 0 (resp. < 0) signifie que j’ai en réalité « plus » (resp. « moins ») de masse que ce que j’ai mesuré. Mais comme ça change constamment…
Quoiqu’il en soit, je peux toujours factoriser ma distribution de probabilité rm(dm) en :
(2a) rm(dm) = ym*(dm)ym(dm)
et j’obtiens une « fonction d’ondes », i.e. une « amplitude de probabilité » :
(2b) y(dm) = [rm(dm)]1/2exp[iqm(dm)]
dans un “espace des fluctuations de masse”. Le lien, aussi bien direct que naturel, entre ma fluctuation et l’amplitude de probabilité associée vient d’être établi. A cette étape, je ne peux absolument pas en déduire que je suis « quantique » : je suis « classique », parce que ma grandeur (ici, la masse) n’est pas un opérateur ; si, de plus, <(dm)²>m = 0, je suis « déterministe » !
D’ailleurs, là où tout le monde est (pour une fois) d’accord, c’est de dire que Schrödinger (ou même Klein-Gordon) est déterministe…
Qu’il s’agisse de rm(dm) ou de y(dm), j’ai un exemple de fonction (et même de « fonction-densité ») d’une variable purement fluctuante (variable aléatoire) dm.
dm REPRESENTE LE « VIDE DE MASSE » AUTOUR DE LA MASSE MESUREE m, PARCE QUE dm NE DONNE LIEU A AUCUNE REALISATION CONCRETE DE MASSE.
Ainsi, un « vide classique » correspond à une fluctuation pure. Dans l’autre sens, toute fluctuation pure autour d’une grandeur physique moyenne est une modélisation mathématique d’une réalité physique qui est un vide classique.
Ça vaut pour toutes les autres grandeurs physiques mesurables :
- la position exacte d’un corps, x = <x>x + dx, est une grandeur stochastique, de gaussienne rx(dx) = [2p<(dx)²>]-1/2exp[-(dx)²/2<(dx)²>] ;
- la vitesse d’un corps, v = <v>v + dv, est une grandeur stochastique, de gaussienne rv(dv) = [2p<(dv)²>]-1/2exp[-(dv)²/2<(dv)²>] ;
- le temps, t = <t>t + dt, est une grandeur stochastique, de gaussienne rt(dt) = [2p<(dt)²>]-1/2exp[-(dt)²/2<(dt)²>] ; etc.
La difficulté est d’exprimer une vitesse stochastique instantanée v(t) = dx(t)/dt lorsque le temps est stochastique et la position x est stochastique. Parce que les distributions associées sont indépendantes les unes des autres. On peut déjà développer x(t) = x(<t>t + dt) en puissances de la fluctuation temporelle au voisinage de dt = 0, i.e. de « l’instant le plus probable ». Ce développement est justifié par le fait que la gaussienne n’est valable qu’au voisinage de la valeur la plus probable. Pour des valeurs éloignées, il faut revenir à la distribution binomiale. Pour une CN :
(3a) x(<t>t + dt) = Sn=0N xn(<t>t)(dt)n/n!
(3b) xn(<t>t) = [¶nx(<t>t)/¶(dt)n]dt = 0 = dnx(<t>t)/d<t>tn
(3c) xn+1(<t>t) = dxn(<t>t)/d<t>t
(3d) xn-1(<t>t) = ò xn(<t>t)d<t>t + xn-1(0)
Mais x est aussi égale à <x>x + dx. Donc, x(<t>t + dt) = <x>x(<t>t + dt) + dx(<t>t + dt) et xn(<t>t) = <xn>x(<t>t) + dxn(<t>t), ce qui complique les choses. Alors, on s’affole pas, on regarde : dx(<t>t + dt) -> fluctuations de position, de toute façon ;
(3e) <x>x(<t>t + dt) = Sn=0N <xn>x(<t>t)(dt)n/n!
puisque la distri en t et celle en x sont indépendantes. Conclusion : n’est indépendant de toute fluctuation que le terme <x0>x(<t>t). <x>x(<t>t + dt) - <x0>x(<t>t) fluctue avec le temps, (dx)0(<t>t) fluctue dans l’espace et dx(<t>t + dt) - (dx)0(<t>t) fluctue dans le temps et dans l’espace.
SOIT g UNE GRANDEUR PHYSIQUE MESURABLE. SA VALEUR LA PLUS PROBABLE, <g>g, VALEUR EFFECTIVEMENT MESUREE, SE SITUERA TOUJOURS HORS DE SON VIDE.
Puisque <g>g correspond à dg = 0 et que dg représente le « vide de g ». Résultat somme toute logique et qui confirme que le vide d’une grandeur physique mesurable quelconque, d’une part, n’est pas mesurable (sinon, on connaitrait g avec exactitude), d’autre part, ne correspond à aucune réalisation physique concrète (ce qui ne l’empêche pas d’être là !).
Soit maintenant F(x) un champ physique sur un espace euclidien fluctuant de dimension d. Chaque coordonnée de position xi est stochastique :
(4a) xi = <x>xi + dxi
F(x) admet un développement au voisinage de dx1 =…= dxn = 0 de la forme (3a) en multi-variables. La gaussienne associée à (4a) est :
(4b) rx(dx) = Pi=1d rx,i(dxi)
(4c) rx,i(dxi) = [2p<(dxi)²>]-1/2exp[-(dxi)²/2<(dxi)²>]
En posant :
(4d) rx,i(dxi) = yx,i*(dxi)yx,i(dxi) , rx(dx) = yx*(dx)yx(dx)
J’obtiens des amplitudes de probabilités :
(4e) yx,i(dxi) = [rx,i(dxi)]1/2exp[iqx,i(dxi)] , yx(dx) = Pi=1d yx,i(dxi)
(4f) |yx(dx)| = Pi=1d |yx,i(dxi)| , qx(dx) = Si=1d qx,i(dxi)
A la « fonction d’ondes » yx,i(dxi), je peux associer le ket |yx,i> de l’espace des états de mon système (ici, un corps matériel). A yx(dx) correspond alors le ket produit tensoriel |yx> = Äi=1d |yx,i>. Tant que je ne passe pas d’un espace fonctionnel à l’espace D des opérateurs sur l’espace des états de mon système, je n’ai pas besoin d’être quantique. J’ai juste besoin de prendre mes vides en compte.
Les amplitudes yx,i(dxi) ne caractérisent pas des vides, mais des distributions de vides. Mes « vides spatiaux », ce sont les dxi. Mon « vide spatial » d-dimensionnel, c’est dx = (dx1,…, dxd). Les yx,i prennent leurs valeurs dans le vide spatial dxi (espace unidimensionnel des fluctuations spatiales dans la direction i). yx(dx) prend ses valeurs dans le vide spatial dx (espace des fluctuations spatiales d-dimensionnelles).
Quand je pose dxi = 0, je « chasse le vide de la direction i » et je trouve <xi>x,i.
Commentaires textes : Écrire