doclabidouille
B 199 : QUANTIFICATION DES TRAJECTOIRES ET DES CHAMPS
Le 21/06/2024
La quantification des trajectoires et des champs est une procédure qui se fait en 3 étapes. La théorie des ensembles permet de s'y retrouver. Pour un déplacement dans l'espace 3D au cours du temps, on aura une application composite,
(1) R -> C -> R3 -> C3
qui se décompose en :
- une première quantification du temps,
(2a) T : R -> C , t -> T = T(t) = S0t exp[is(t')/h]dt'
(2b) T(t1) = T(t0) + T(t1 - t0) pour t1 > t0,
l'intégration étant une application linéaire (S0t1 = S0t0 + St0t1 = S0t0 + S0t1-t0) ;
- une extension du mouvement classique en temps QUANTIQUE,
(3) x : C -> R3 , T -> x = x(T)
et une seconde quantification de l'espace,
(4) X : R3 -> C3 , Xa = Xa(x) = S0xa exp[is(x')/h]dx'a (a = 1,2,3)
C'est le prix fixé par l'analogie opto-mécanique.
Détaillons la dynamique (3). Pour T donné par (2a), x est une fonctionnelle x[T(t)] du temps classique, qui renvoie à une fonction xt(t) = x[T(t)] de t. Ce déplacement s'effectue à la vitesse :
(5) v[T(t)] = dx[T(t)]/dT(t) = exp[-is(t)/h]dx[T(t)]/dt = exp[-is(t)/h]vt(t)
Les masses deviennent des fonctions m[T(t)] = mt(t) du temps classique. L'impulsion est :
(6) p[T(t)] = m[T(t)]v[T(t)] = exp[-is(t)/h]mt(t)vt(t) = exp[-is(t)/h]pt(t)
Les équations de mouvement s'écrivent :
(7a) dp[T(t)]/dT(t) = exp[-is(t)/h]dp[T(t)]/dt
= exp[-2is(t)/h][d/dt - (i/h)ds(t)/dt]pt(t)
= f[T(t)] = exp[-2is(t)/h]ft(t)
avec s(t), l'action classique en temps classique, d'où,
(7b) ds(t)/dt = l[x(t),dx(t)/dt,t]
Par contre, le lagrangien en temps quantique sera de la forme :
(8) lq{x[T(t)],v[T(t)],T(t)} = ½ m[T(t)]v²[T(t)] + f[T(t)].x[T(t)]
= exp[-2is(t)/h][½ mt(t)vt²(t) + ft(t).xt(t)]
= exp[-2is(t)/h]lt[xt(t),vt(t),t]
Lt étant évidemment différent de (7b) (ça se voit). Puisque T(0) = 0, l'action correspondante sera :
(9a) sq[T(t)] = S0T(t) lq{x[T'(t)],v[T'(t)],T'(t)}dT'(t)
= S0t exp[-2is(t')/h]lt[xt(t'),vt(t'),t']dt' = st(t)
(9b) sq[T(0)] = sq(0) = st(0) = 0
C'est xt = xt(t) = x[T(t)] qui vient se substituer à x dans dXa(x) = exp[is(x)/h]dx'a, donnant :
(10) Xta = Xta(xt) = S0xta exp[is(xt')/h]dxt'a
Du point de vue fonctionnel, on assiste à une encapsulation des variables :
(11) t -> T(t) -> x[T(t)] -> X{x[T(t)]}
Le temps classique est transformé en temps quantique ; le temps quantique, en distances quasi-classiques et celles-ci, en distances quantiques. En théorie des fonctions complexes de variables complexes, nous aurions simplement X(T). Mais l'analogie opto-mécanique transforme des variables en paquets d'ondes. Et nous devons tenir compte de ce fait physique. La description ne peut dès lors plus être aussi simple, elle doit porter sur des signaux fonctions d'autres signaux.
Je tiens tout de même à préciser que, s'agissant d'espaces(-temps) physiques, la contrainte est que les cadres quantiques soient de spin s et donc, de dimension classique D(s) et quantique D(s)/2 = D(s - ½), avec signature [p(s),q(s)]. Aussi, quitte à annuler des composantes de champ pour réduire leur nombre, mieux vaut travailler sur des trajectoires :
(12) R -> C -> R3,1 -> C3,1
avec des temps PROPRES t = (g(0)abxaxb)½/c et T = (g(0)abXaXb)½/c, (a,b = 0,1,2,3), d'autant plus que la quantification se moque éperduement que t soit réel ou pas, couvrant ainsi tout le domaine du mouvement physique.
Même en biophysique, il sera préférable de se placer dans le cadre (12), puis de poser, en fin de calculs, c -> +oo : c'est plus correct, les cadres physiques étant 4D, non 3D.
La quantification des champs suivra la même procédure, en partant de R3,1 au lieu de R, étant donné que l'on passe de 1 à 4 paramètres classiques. On aura une succession de liens fonctionnels :
(13) R3,1 -> C3,1 -> Rp(s'),q(s') -> Cp(s'),q's')
(x,ct) -> [X(x,ct),cT(x,ct)] -> fA1...A2s'+1[X(x,ct),cT(x,ct)] ->
-> FA1...A2s'+1{fB1...B2s'+1[X(x,ct),cT(x,ct)]}
Quantification de l'espace-temps (x,ct) -> [X(x,ct),cT(x,ct)] ; champ quasi-classique f de spin s' dans l'espace-temps quantique ; champ quantique F correspondant (donc, de même spin).
Pour la quantification de l'espace-temps, nous venons de le voir dans la bidouille précédente : on passe par une densité d'action s(x,ct). Le "point d'univers" classique (x,ct) est envoyé sur le "point d'univers" quantique (X,cT) = [X(x,ct),cT(x,ct)], lequel est transformé en des "coordonnées de champ" :
fA1...A2s'+1 = fx,ctA1...A2s'+1(x,ct) = fA1...A2s'+1[X(x,ct),cT(x,ct)]
dans un espace-temps classique de dimension 22s'+1 et signature [p(s'),q(s')]. Enfin, ces dernières sont quantifiées à leur tour en les :
FA1...A2s'+1{f0...0,...,f1...1} = S0fA1...A2s'+1 exp[is(f)/h]dfA1...A2s'+1
Par exemple, pour s' = 0, vous aurez :
fA1 = fx,ctA1(x,ct) = fA1[X(x,ct),cT(x,ct)]
FA1(f0,f1) = S0fA1 exp[is(f0,f1)/h]dfA1
Pour s' = ½ :
fA1A2 = fx,ctA1A2(x,ct) = fA1A2[X(x,ct),cT(x,ct)]
FA1A2(f00,f01,f10,f11) = S0fA1A2 exp[is(f00,f01,f10,f11)/h]dfA1A2
et ainsi de suite.
Comprenons-nous bien : toute la technique déversée dans ces bidouilles ne sert qu'à CONSTRUIRE le quantique à partir du classique, qui nous est beaucoup plus familier. EN REALITE, temps, espace, corps, champs, milieux physiques : TOUT EST QUANTIQUE. Seulement, nous ne le percevons pas dans la vie de tous les jours, nous ne percevons que le classique. Je l'avoue très simplement : je me passerais volontiers de toutes ces démonstrations techniques... Mais, en recherche scientifique, on DEMONTRE les choses, on les PROUVE, on les DECRIT.
Toutes ces grandeurs quantiques sont des quantités complexes, avec amplitude et phase. De la plus petite échelle à la plus grande, ce sont toutes des paquets d'ondes. Ils n'ont simplement pas même amplitude ni phase à toutes les échelles de description, à moins d'être invariants d'échelle, ce qui concerne les structures fractales. Si leur phase est multiple entier de pi radians, elles se réduisent à des grandeurs classiques. Si elle est multiple impair de pi/2 radians, ces quantités se ramènent encore à des grandeurs classiques mais, en quadrature de phase. C'est la seule chose qu'il faut retenir : que le classique n'est qu'une REDUCTION du quantique. On quantifie au moyen de l'analogie opto-mécanique parce qu'on a découvert le quantique que beaucoup plus tard. Si l'inverse s'était produit, on serait parti de grandeurs COMPLEXES et on en aurait DEDUIT le classique comme VALEURS PARTICULIERES DES PHASES. On n'aurait sans doute pas eu besoin de tout cet arsenal mathématique : il est beaucoup plus facile de passer d'une situation générale à des cas particuliers que de généraliser des particularités...
Je peux fort bien me limiter à décrire, disons, le temps quantique par le seul nombre complexe T = |T|eiTAU. A condition que je me mette à la place d'un observateur quantique. Si je me pose comme observateur CLASSIQUE, cette description est insuffisante, je DOIS utiliser le paquet d'ondes intégral (2a), ce qui complique considérablement les choses, vu qu'il ne s'exprime pas au moyen de fonctions élémentaires.
Le problème n'est donc pas de faire de la "mécanique quantique" : il suffirait de "copier-coller" le formalisme de Lagrange-Hamilton-Jacobi en y remplaçant toutes les grandeurs, réelles, par des homologues complexes. La difficulté est de faire ce type de mécanique du point de vue d'un observateur classique. Un observateur avec une perception REDUITE des choses, restreinte à la manifestation CORPUSCULAIRE de la matière. Pour lui, la "matière", c'est du "palpable". Mais la matière PHYSIQUE, ce n'est pas ça... Les atomes s'associent par liaisons chimiques. Ces liaisons, c'est de l'ondulatoire... C'est comme ça que se constitue sa "matière palpable" : avec de l'impalpable... :) Pour lui, le "passe-muraille", c'est de la science-fiction ; dans le monde quantique, il n'y a QUE du passe-muraille... Il n'y a PAS d'obstacle matériel. La difficulté, c'est de retrouver le paquet d'ondes initial à la sortie. Parce que la traversée d'un milieu physique le DEFORME : son amplitude n'a plus même forme et il est déphasé. Il contient la même information qu'en entrée, parce qu'il n'y a pas de viscosité, mais il n'a plus "la même tronche". Donc, vous voyez : même dans le monde quantique, il n'est pas aussi facile qu'on le penserait de "traverser des portails", il faut encore être doté de la faculté de se reconstituer sa forme d'origine en sortie...
Eh bien, ça, c'est un exemple de capacité autonome qu'on n'a pas encore observé à ce jour, parce qu'on n'a observé que de l'inerte. Les systèmes biologiques classiques atteignent des niveaux de complexité MOLECULAIRE qui leur permettent de développer des facultés d'autonomie, il en va de même (et conjointement) pour les paquets d'ondes, qui s'associent suivant les lois ondulatoires, jusqu'à développer des structures de plus en plus sophistiquées, avec des fonctions ONDULATOIRES de plus en plus compliquées, jusqu'à l'autonomie.
On sait former aujourd'hui des alliages chimiquement assez complexes qui sont isolants au-dessus de leur point de Curie et supraconducteurs en dessous, mais ils restent ridiculement simples comparés à une machinerie vivante.
Ce que nous apprend l'observation physique, c'est que le corpusculaire est INDISSOCIABLE de l'ondulatoire. La déduction me semble évidente : si le corpusculaire EVOLUE dans la complexité, il en va de même de l'ondulatoire... On aboutit donc aussi bien à une autonomie MOLECULAIRE qu'à une autonomie ONDULATOIRE... parce que le vivant se construit à partir de l'inerte et que l'inerte est QUANTIQUE par nature.
Ensuite, ce sont des comportements thermodynamiques : au-dessus du point de Curie, le "palpable" masque complètement "l'impalpable", principalement à cause de l'agitation thermique ; mais en-dessous de ce point, il n'y a plus suffisamment d'activité thermique et c'est l'impalpable qui prend le dessus.
On a le droit de croire ce qu'on veut : c'est le Libre Arbitre. Mais les gens qui ne croient pas en "la vie après la vie" (biologique) rejettent tout simplement des FAITS D'OBSERVATION PHYSIQUES...
Nous ne sommes plus dans le domaine du fantasme, plus depuis la découverte des comportements quantiques...
C'est pour ça : faire le con de son "vivant" en se disant qu'il faut en profiter parce qu'ensuite "y a plus rien"... chacun voit midi à sa porte... Nous, nous rapportons ce que nous observons. Dans nos labos, dans l'Univers.
La vie "d'après", on se la construit ICI... ce n'est pas un aboutissement, ce n'est que le point de départ. On n'est "palpable" que parce que l'on développe une activité thermique interne, qui occassionne des chocs moléculaires, qui produisent des frottements, lesquels dissipent une partie de l'énergie et se manifestent, à grande échelle, sous forme de viscosité. Baissez suffisamment l'activité thermique sans la supprimer pour autant : les échanges énergétiques se réorganisent, suivant des lois physiques différentes ; l'ondulatoire se met en cohérence et forme des motifs macroscopiques à viscosité NULLE. Plus de viscosité, plus de frottements internes, plus de dissipation d'énergie, plus d'usure mécanique ni de vieillissement : c'est le domaine du "mouvement perpétuel".
Je tiens d'ailleurs à préciser que le "choc moléculaire" n'est qu'une représentation "en sphères dures". En réalité, les molécules ne s'entrechoquent pas, parce qu'elles sont entourées par leur paquet d'ondes respectif. Ce n'est pas comme deux véhicules qui entrent en collision : elles "rebondissent" plutôt au moment de la rencontre. C'est la représentation "en sphères molles".
Seulement, il faut savoir tout ça, avant d'affirmer que, dans le trou, y a plus de son, plus d'image... Dans le trou, y a une carcasse biologique qui se décompose. Une "enveloppe". Qui continue d'obéir aux lois de la thermodynamique MOLECULAIRE (dégradation de l'énergie !). Il n'y a pas non plus de "résurrection d'entre les morts", les lois physiques ne fonctionnent pas comme ça.
La quantité de CONNERIES qu'on a pu sortir au fil des siècles pour des raisons purement POLITIQUES... :|
Pendant qu'on faisait griller les chimistes et les physiciens "non orthodoxes" sur les bûchers pour "sorcellerie"...
On en a perdu, du temps et des connaissances !... Si vous aviez le malheur de sortir des choses à contre-courant, soit des idées reçues, soit de la "bienséance auto-proclamée", c'était censure immédiate...
C'est d'ailleurs toujours le cas... lol Combien de fois je me suis fait interdire de publication pour avoir oser "critiquer le travail des maitres" ?... Si j'ai lancé ce blog... c'est pour pouvoir publier LIBREMENT... :)
Pas pour éviter les critiques. La critique et L'AUTO-critique font partie intégrante du travail du théoricien : t'as pas la science infuse...
(1) R -> C -> R3 -> C3
qui se décompose en :
- une première quantification du temps,
(2a) T : R -> C , t -> T = T(t) = S0t exp[is(t')/
(2b) T(t1) = T(t0) + T(t1 - t0) pour t1 > t0,
l'intégration étant une application linéaire (S0t1 = S0t0 + St0t1 = S0t0 + S0t1-t0) ;
- une extension du mouvement classique en temps QUANTIQUE,
(3) x : C -> R3 , T -> x = x(T)
et une seconde quantification de l'espace,
(4) X : R3 -> C3 , Xa = Xa(x) = S0xa exp[is(x')/
C'est le prix fixé par l'analogie opto-mécanique.
Détaillons la dynamique (3). Pour T donné par (2a), x est une fonctionnelle x[T(t)] du temps classique, qui renvoie à une fonction xt(t) = x[T(t)] de t. Ce déplacement s'effectue à la vitesse :
(5) v[T(t)] = dx[T(t)]/dT(t) = exp[-is(t)/
Les masses deviennent des fonctions m[T(t)] = mt(t) du temps classique. L'impulsion est :
(6) p[T(t)] = m[T(t)]v[T(t)] = exp[-is(t)/
Les équations de mouvement s'écrivent :
(7a) dp[T(t)]/dT(t) = exp[-is(t)/
= exp[-2is(t)/
= f[T(t)] = exp[-2is(t)/
avec s(t), l'action classique en temps classique, d'où,
(7b) ds(t)/dt = l[x(t),dx(t)/dt,t]
Par contre, le lagrangien en temps quantique sera de la forme :
(8) lq{x[T(t)],v[T(t)],T(t)} = ½ m[T(t)]v²[T(t)] + f[T(t)].x[T(t)]
= exp[-2is(t)/
= exp[-2is(t)/
Lt étant évidemment différent de (7b) (ça se voit). Puisque T(0) = 0, l'action correspondante sera :
(9a) sq[T(t)] = S0T(t) lq{x[T'(t)],v[T'(t)],T'(t)}dT'(t)
= S0t exp[-2is(t')/
(9b) sq[T(0)] = sq(0) = st(0) = 0
C'est xt = xt(t) = x[T(t)] qui vient se substituer à x dans dXa(x) = exp[is(x)/
(10) Xta = Xta(xt) = S0xta exp[is(xt')/
Du point de vue fonctionnel, on assiste à une encapsulation des variables :
(11) t -> T(t) -> x[T(t)] -> X{x[T(t)]}
Le temps classique est transformé en temps quantique ; le temps quantique, en distances quasi-classiques et celles-ci, en distances quantiques. En théorie des fonctions complexes de variables complexes, nous aurions simplement X(T). Mais l'analogie opto-mécanique transforme des variables en paquets d'ondes. Et nous devons tenir compte de ce fait physique. La description ne peut dès lors plus être aussi simple, elle doit porter sur des signaux fonctions d'autres signaux.
Je tiens tout de même à préciser que, s'agissant d'espaces(-temps) physiques, la contrainte est que les cadres quantiques soient de spin s et donc, de dimension classique D(s) et quantique D(s)/2 = D(s - ½), avec signature [p(s),q(s)]. Aussi, quitte à annuler des composantes de champ pour réduire leur nombre, mieux vaut travailler sur des trajectoires :
(12) R -> C -> R3,1 -> C3,1
avec des temps PROPRES t = (g(0)abxaxb)½/c et T = (g(0)abXaXb)½/c, (a,b = 0,1,2,3), d'autant plus que la quantification se moque éperduement que t soit réel ou pas, couvrant ainsi tout le domaine du mouvement physique.
Même en biophysique, il sera préférable de se placer dans le cadre (12), puis de poser, en fin de calculs, c -> +oo : c'est plus correct, les cadres physiques étant 4D, non 3D.
La quantification des champs suivra la même procédure, en partant de R3,1 au lieu de R, étant donné que l'on passe de 1 à 4 paramètres classiques. On aura une succession de liens fonctionnels :
(13) R3,1 -> C3,1 -> Rp(s'),q(s') -> Cp(s'),q's')
(x,ct) -> [X(x,ct),cT(x,ct)] -> fA1...A2s'+1[X(x,ct),cT(x,ct)] ->
-> FA1...A2s'+1{fB1...B2s'+1[X(x,ct),cT(x,ct)]}
Quantification de l'espace-temps (x,ct) -> [X(x,ct),cT(x,ct)] ; champ quasi-classique f de spin s' dans l'espace-temps quantique ; champ quantique F correspondant (donc, de même spin).
Pour la quantification de l'espace-temps, nous venons de le voir dans la bidouille précédente : on passe par une densité d'action s(x,ct). Le "point d'univers" classique (x,ct) est envoyé sur le "point d'univers" quantique (X,cT) = [X(x,ct),cT(x,ct)], lequel est transformé en des "coordonnées de champ" :
fA1...A2s'+1 = fx,ctA1...A2s'+1(x,ct) = fA1...A2s'+1[X(x,ct),cT(x,ct)]
dans un espace-temps classique de dimension 22s'+1 et signature [p(s'),q(s')]. Enfin, ces dernières sont quantifiées à leur tour en les :
FA1...A2s'+1{f0...0,...,f1...1} = S0fA1...A2s'+1 exp[is(f)/
Par exemple, pour s' = 0, vous aurez :
fA1 = fx,ctA1(x,ct) = fA1[X(x,ct),cT(x,ct)]
FA1(f0,f1) = S0fA1 exp[is(f0,f1)/
Pour s' = ½ :
fA1A2 = fx,ctA1A2(x,ct) = fA1A2[X(x,ct),cT(x,ct)]
FA1A2(f00,f01,f10,f11) = S0fA1A2 exp[is(f00,f01,f10,f11)/
et ainsi de suite.
Comprenons-nous bien : toute la technique déversée dans ces bidouilles ne sert qu'à CONSTRUIRE le quantique à partir du classique, qui nous est beaucoup plus familier. EN REALITE, temps, espace, corps, champs, milieux physiques : TOUT EST QUANTIQUE. Seulement, nous ne le percevons pas dans la vie de tous les jours, nous ne percevons que le classique. Je l'avoue très simplement : je me passerais volontiers de toutes ces démonstrations techniques... Mais, en recherche scientifique, on DEMONTRE les choses, on les PROUVE, on les DECRIT.
Toutes ces grandeurs quantiques sont des quantités complexes, avec amplitude et phase. De la plus petite échelle à la plus grande, ce sont toutes des paquets d'ondes. Ils n'ont simplement pas même amplitude ni phase à toutes les échelles de description, à moins d'être invariants d'échelle, ce qui concerne les structures fractales. Si leur phase est multiple entier de pi radians, elles se réduisent à des grandeurs classiques. Si elle est multiple impair de pi/2 radians, ces quantités se ramènent encore à des grandeurs classiques mais, en quadrature de phase. C'est la seule chose qu'il faut retenir : que le classique n'est qu'une REDUCTION du quantique. On quantifie au moyen de l'analogie opto-mécanique parce qu'on a découvert le quantique que beaucoup plus tard. Si l'inverse s'était produit, on serait parti de grandeurs COMPLEXES et on en aurait DEDUIT le classique comme VALEURS PARTICULIERES DES PHASES. On n'aurait sans doute pas eu besoin de tout cet arsenal mathématique : il est beaucoup plus facile de passer d'une situation générale à des cas particuliers que de généraliser des particularités...
Je peux fort bien me limiter à décrire, disons, le temps quantique par le seul nombre complexe T = |T|eiTAU. A condition que je me mette à la place d'un observateur quantique. Si je me pose comme observateur CLASSIQUE, cette description est insuffisante, je DOIS utiliser le paquet d'ondes intégral (2a), ce qui complique considérablement les choses, vu qu'il ne s'exprime pas au moyen de fonctions élémentaires.
Le problème n'est donc pas de faire de la "mécanique quantique" : il suffirait de "copier-coller" le formalisme de Lagrange-Hamilton-Jacobi en y remplaçant toutes les grandeurs, réelles, par des homologues complexes. La difficulté est de faire ce type de mécanique du point de vue d'un observateur classique. Un observateur avec une perception REDUITE des choses, restreinte à la manifestation CORPUSCULAIRE de la matière. Pour lui, la "matière", c'est du "palpable". Mais la matière PHYSIQUE, ce n'est pas ça... Les atomes s'associent par liaisons chimiques. Ces liaisons, c'est de l'ondulatoire... C'est comme ça que se constitue sa "matière palpable" : avec de l'impalpable... :) Pour lui, le "passe-muraille", c'est de la science-fiction ; dans le monde quantique, il n'y a QUE du passe-muraille... Il n'y a PAS d'obstacle matériel. La difficulté, c'est de retrouver le paquet d'ondes initial à la sortie. Parce que la traversée d'un milieu physique le DEFORME : son amplitude n'a plus même forme et il est déphasé. Il contient la même information qu'en entrée, parce qu'il n'y a pas de viscosité, mais il n'a plus "la même tronche". Donc, vous voyez : même dans le monde quantique, il n'est pas aussi facile qu'on le penserait de "traverser des portails", il faut encore être doté de la faculté de se reconstituer sa forme d'origine en sortie...
Eh bien, ça, c'est un exemple de capacité autonome qu'on n'a pas encore observé à ce jour, parce qu'on n'a observé que de l'inerte. Les systèmes biologiques classiques atteignent des niveaux de complexité MOLECULAIRE qui leur permettent de développer des facultés d'autonomie, il en va de même (et conjointement) pour les paquets d'ondes, qui s'associent suivant les lois ondulatoires, jusqu'à développer des structures de plus en plus sophistiquées, avec des fonctions ONDULATOIRES de plus en plus compliquées, jusqu'à l'autonomie.
On sait former aujourd'hui des alliages chimiquement assez complexes qui sont isolants au-dessus de leur point de Curie et supraconducteurs en dessous, mais ils restent ridiculement simples comparés à une machinerie vivante.
Ce que nous apprend l'observation physique, c'est que le corpusculaire est INDISSOCIABLE de l'ondulatoire. La déduction me semble évidente : si le corpusculaire EVOLUE dans la complexité, il en va de même de l'ondulatoire... On aboutit donc aussi bien à une autonomie MOLECULAIRE qu'à une autonomie ONDULATOIRE... parce que le vivant se construit à partir de l'inerte et que l'inerte est QUANTIQUE par nature.
Ensuite, ce sont des comportements thermodynamiques : au-dessus du point de Curie, le "palpable" masque complètement "l'impalpable", principalement à cause de l'agitation thermique ; mais en-dessous de ce point, il n'y a plus suffisamment d'activité thermique et c'est l'impalpable qui prend le dessus.
On a le droit de croire ce qu'on veut : c'est le Libre Arbitre. Mais les gens qui ne croient pas en "la vie après la vie" (biologique) rejettent tout simplement des FAITS D'OBSERVATION PHYSIQUES...
Nous ne sommes plus dans le domaine du fantasme, plus depuis la découverte des comportements quantiques...
C'est pour ça : faire le con de son "vivant" en se disant qu'il faut en profiter parce qu'ensuite "y a plus rien"... chacun voit midi à sa porte... Nous, nous rapportons ce que nous observons. Dans nos labos, dans l'Univers.
La vie "d'après", on se la construit ICI... ce n'est pas un aboutissement, ce n'est que le point de départ. On n'est "palpable" que parce que l'on développe une activité thermique interne, qui occassionne des chocs moléculaires, qui produisent des frottements, lesquels dissipent une partie de l'énergie et se manifestent, à grande échelle, sous forme de viscosité. Baissez suffisamment l'activité thermique sans la supprimer pour autant : les échanges énergétiques se réorganisent, suivant des lois physiques différentes ; l'ondulatoire se met en cohérence et forme des motifs macroscopiques à viscosité NULLE. Plus de viscosité, plus de frottements internes, plus de dissipation d'énergie, plus d'usure mécanique ni de vieillissement : c'est le domaine du "mouvement perpétuel".
Je tiens d'ailleurs à préciser que le "choc moléculaire" n'est qu'une représentation "en sphères dures". En réalité, les molécules ne s'entrechoquent pas, parce qu'elles sont entourées par leur paquet d'ondes respectif. Ce n'est pas comme deux véhicules qui entrent en collision : elles "rebondissent" plutôt au moment de la rencontre. C'est la représentation "en sphères molles".
Seulement, il faut savoir tout ça, avant d'affirmer que, dans le trou, y a plus de son, plus d'image... Dans le trou, y a une carcasse biologique qui se décompose. Une "enveloppe". Qui continue d'obéir aux lois de la thermodynamique MOLECULAIRE (dégradation de l'énergie !). Il n'y a pas non plus de "résurrection d'entre les morts", les lois physiques ne fonctionnent pas comme ça.
La quantité de CONNERIES qu'on a pu sortir au fil des siècles pour des raisons purement POLITIQUES... :|
Pendant qu'on faisait griller les chimistes et les physiciens "non orthodoxes" sur les bûchers pour "sorcellerie"...
On en a perdu, du temps et des connaissances !... Si vous aviez le malheur de sortir des choses à contre-courant, soit des idées reçues, soit de la "bienséance auto-proclamée", c'était censure immédiate...
C'est d'ailleurs toujours le cas... lol Combien de fois je me suis fait interdire de publication pour avoir oser "critiquer le travail des maitres" ?... Si j'ai lancé ce blog... c'est pour pouvoir publier LIBREMENT... :)
Pas pour éviter les critiques. La critique et L'AUTO-critique font partie intégrante du travail du théoricien : t'as pas la science infuse...
B 198 : RAPPELS DE BIOPHYSIQUE
Le 20/06/2024
Nous allons faire un petit point intermédiaire pour savoir ce qui a déjà été accompli et ce qu'il reste encore à faire (et je crains qu'il y ait encore pas mal à faire...).
Je l'ai sans doute déjà dit : l'objectif d'une théorie physique est 1) de rendre compte le mieux possible des données d'observatioon recueillies et de les regrouper dans un cadre commun ; 2) d'expliquer les mécanismes sous-jacents menant à ces observations et, pourquoi pas, 3) de prédire des comportements non encore observés.
Une théorie physique ne se contente pas de décrire l'existant, elle doit aussi permettre d'envisager l'avenir.
La biodynamique n'échappe pas à cette règle. Son but est de décrire le plus fidèlement possible l'évolution des organismes vivants dans l'espace au cours du temps. Par "vivant", on entend des ensembles COHERENTS de constituants capables de S'AUTO-GERER. C'est la différence essentielle avec l'inerte : le vivant PART de l'inerte et atteint un "seuil de développement" au-delà duquel l'inerte devient AUTONOME. Les organismes végétaux ou animaux savent gérer leurs dépenses énergétiques parce que leurs constituants de base, les cellules, ont atteint un niveau de complexité qui les rend aptes à le faire d'elles-mêmes. Il se constitue une forme "d'intelligence cellulaire", biochimique, très différente de notre conception courante de l'intelligence neurologique, mais d'une redoutable efficacité. Les plantes, par exemple, sont dépourvues de système nerveux, propre aux animaux, mais communiquent sans cesse entre elles via des échanges biochimiques, certains nocifs (incompatibilités), d'autres participatifs. Dans une foret, même un sous-bois, les arbres sont solidaires. Si vous déforestez trop, vous mettez l'ensemble du massif en difficulté.
Les modèles bio-mathématiques généralement employés pour décrire ce type d'évolution se basent sur l'étude des variations : spatiales, temporelles, spatio-temporelles (mais au sens de Galilée, pas d'Einstein - la vitesse de la lumière n'est pas d'une grande utilité en biophysique). La description fait appel à la notion d'échelle. On commence par définir ce que l'on va s'employer à étudier : la cellule vivante, un tissu, un organe ou un organisme. S'il s'agit d'une cellule, les petites échelles vont porter sur les molécules simples, voire les atomes ; les échelles intermédiaires, sur les macro-molécules, les protéines, les constituants de la cellule ; l'échelle "macroscopique", sur la cellule elle-même. S'il s'agit d'un tissu, ces "niveaux de description" vont se décaler, la cellule passant à l'échelon "intermédiaire", "mésoscopique". Pour un organe, ce sera le tissu. Et pour un organisme, l'organe.
Aussi, si l'on cherche à décrire la biodynamique d'un organisme complet, le constituant de base, la cellule, n'y apparaîtra pas plus gros qu'un grain de sable. Il faudra un microscope optique pour l'observer. Le théoricien traitera alors la cellule comme un "point matériel", un "corpuscule", sans se préoccuper de sa structure interne à cette échelle. Pour lui, l'organisme se composera d'un très grand nombre de "constituants cellulaires réduits à leur centre de gravité (cdg)". A l'échelle de l'organisme, ce mode de description schématique n'occasionnera pas d'erreurs majeures. Le passage à des échelles inférieures, à des résolutions moins grossières, permettra d'affiner les résultats obtenus à grande échelle.
Notre théoricien partira donc du fait qu'il a à gérer un ensemble de N "corpuscules" en mouvement et en interaction les uns avec les autres. Pour 1 =< n =< N, le corpuscule "n° n" se trouvera à la position xn(t) dans l'espace 3D à l'instant t. La variation de cette position au cours du temps sera décrite par un champ de vitesses assez compliqué :
(1) dxn(t)/dt = vn[x1(t),...,xN(t),t,a1,...,aP] (1 =< n =< N)
dépendant des positions de TOUS les corpuscules constituants l'ensemble, du temps naturellement (le paramètre mécanique), mais aussi de P paramètres thermodynamiques et chimiques (a1,...,aP). Il va sans dire qu'un tel système dynamique est quasi-impossible à résoudre dans les situations réalistes avec les outils d'analyse actuels. Même en recourant à des algorithmes numériques performants, les interactions cellulaires ont tendance à augmenter exponentiellement le volume des calculs. Sans compter que, pour des valeurs "critiques" des paramètres a, de tels systèmes entrent en "chaos déterministe" dès l'ordre 2, c'est-à-dire, dès l'interaction cellulaire deux à deux et ce, même pour de petits ensembles de constituants.
De toute façon, les cellules baignent généralement dans des liquides amniotiques, comme vous pouvez le voir dans un simple microscope optique acheté dans le commerce, ce qui rend leur mouvement très rapidement erratique.
A moins de former un ensemble cohérent. A ce moment-là, le mouvement individuel de CHAQUE cellule n'est plus libre. Les N cellules font partie d'un système, une sorte de "tout" au sein duquel le mouvement de l'une quelconque des N cellules dépend de celui de toutes les autres à chaque instant : c'est le système dynamique (1).
Maintenant, ce système peut aussi être commandé. On obtient alors une régulation. La régulation permet de stabiliser un système en mouvement. La modélisation se complique encore plus, puisqu'aux positions variables xn(t), il faut adjoindre N vecteurs commande un(t). (1) devient :
(2a) dxn(t)/dt = vn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
(2b) dun(t)/dt = wn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
qu'il est possible de ramener à une forme similaire à (1) en égalisant les systèmes d'unités et en remplaçant les 3N positions xn(t) de (1) par les 6N variables [xn(t),un(t)]. C'est de la mathématique.
Comment fonctionne un système régulé ? Au départ, vous avez un processus biochimique, généralement complexe (au sens de complexité) que nous modéliserons par un opérateur b^(t,a1,...,aP). Si vous laissez le système agir librement, il évoluera de la manière qu'il souhaitera. Si, au contraire, vous voulez qu'il se comporte d'une certaine manière, vous imposerez une "consigne" en entrée c(t) = [c1(t),...,cN(t)]. La réponse m(t) = [m1(t),...,mN(t)] en sortie du système sera alors comparée à cette consigne :
(3) e(t) = [e1(t),...,eN(t)] = c(t) - m(t) = [c1(t) - m1(t),...,cN(t) - mN(t)]
donnant un vecteur "erreur". Cette erreur sera corrigée par un correcteur r^(t,a1,...,aP) qui la transformera en la commande [u1(t),...,uN(t)] :
(4) r^(t,a1,...,aP).e(t) = u(t)
La correction est "adaptative", voire "auto-adaptative", c'est-à-dire qu'elle s'adapte au cours du temps ainsi que selon la valeur des paramètres thermo-chimiques. C'est cette commande qui va être appliquée au processus biochimique et qui va rectifier la mesure en sortie m(t) :
(5) b^(t,a1,...,aP).u(t) = m(t)
et la forcer à s'aligner sur la consigne c(t). Lorsque le résultat souhaité est atteint, i.e. aussi longtemps que c(t) = m(t), soit e(t) = 0, la commande s'annule : elle n'est plus nécessaire, le processus est régulé. S'il se dérégule, la correction reprend.
Si vous regroupez les équations (3), (4) et (5), il vient :
u(t) = r^(t,a1,...,aP).[c(t) - b^(t,a1,...,aP).u(t)]
ce qui vous donne le vecteur commande sous la forme (très théorique),
(6) u(t) = [Id + b^(t,a1,...,aP)]-1.r^(t,a1,...,aP).c(t)
où Id est l'opérateur identité (qui change une fonction en elle-même). Il s'agit donc de prendre l'inverse de l'opérateur Id + b^ et d'appliquer le résultat au correcteur r^. Si c'est VOUS qui fixez la consigne, c'est VOUS qui régulez le système. Si c'est le système qui s'applique sa propre consigne, il se fixe son propre objectif et il s'auto-régule.
En pratique, les opérateurs biochimiques deviennent rapidement très compliqués et ne se modélisent au mieux que très schématiquement et de manière empirique (= par des données d'observation). Ils ne sont quasiment jamais linéaires, plutôt "stochastiques" (aléatoires). Mathématiquement, l'inverse de Id + b^ s'obtient à l'aide de la série infinie :
(Id + b^)-1 = Sn=0+oo (-1)n(b^)n
Mais, même si (6) vous donne théoriquement la commande à partir de la consigne, il vous faut encore résoudre le système des équations d'évolution (2a-2b). La tâche est tout sauf simple, à la hauteur de la complexité des systèmes à l'étude.
Et encore, nous ne venons d'aborder la question que pour un nombre FINI de constituants. Or, à l'échelle d'un organisme, les cellules forment un milieu "continu", surtout dans les tissus (eux-mêmes constituants des organes). A ce niveau de description là, le théoricien va donc poser que N est "infini". On va entrer dans le cadre de ce que l'on appelle les modèles "phénoménologiques" : les systèmes dynamiques "discrets" (i.e. à nombres FINIS de constituants) vont être remplacés par des équations aux dérivées partielles (EDPs), voire des systèmes d'EDPs, ce qui va compliquer considérablement la tâche du théoricien quant à leur résolution. Dans (1) avec commande intégrée ou pas, on va substituer à l'entier n les variables de position x elles-mêmes. Il va donc falloir changer les trajectoires individuelles xn(t) en une champ de positions X(x,t) et considérer les variations de ce champ aussi bien dans le temps que dans l'espace. La loi de la diffusion dite "moléculaire", par exemple, va être décrite par l'EDP de type parabolique :
(7) (d/dt + Dd²/dxadxa)X(x,t) = Q(x,t) (a = 1,2,3)
où Q(x,t) est la perturbation source et D, un coefficient de diffusion en m²/s, qui dépend généralement des caractéristiques physico-chimiques du milieu. Mais je viens de donner l'un des exemples les plus simples. Nombre de phénomènes macroscopiques ne peuvent se décrire qu'à l'aide de modèles différentiels NON linéaires ou intégro-différentiels,... sans évoquer les conditions aux limites, qui peuvent être elles-mêmes non linéaires.
Bref, la biophysique n'est peut-être pas l'astrophysique ni la cosmologie quantique, mais elle reste tout de même l'une des branches de la physique la plus compliquée de toutes. La dynamique cellulaire est extrêmement compliquée à modéliser. Les cellules communiquent entre elles en s'échangeant des informations chimiques au moyen de protéines, d'enzymes en tous genres et d'ARN messager. Les cascades enzymatiques impressionnent même les biologistes... On a beau disposer désormais de la carte génétique complète du patrimoine humain, ça ne permet pas de résoudre tous les problèmes à la fois... Pourquoi ? Parce que c'est une chose de décomposer les structures complexes en éléments simples et c'en est une toute autre de les recomposer. Ce fut déjà une tâche ardue que de décrypter le génome humain, c'en est une encore plus difficile de reconstituer un organisme avec ses réactions biochimiques interactives, qui sapent totalement tout espoir de déterminisme. La seule chose que le biologiste sait, c'est qu'il est dans le diffus, le stochastique, l'aléatoire, le chaotique. Sans entrer dans les détails très techniques de la dynamique "hyperbolique", il se forme des "bassins d'attractions" où les trajectoires convergent. Ces bassins d'attractions ne sont pas tous "étranges". Mais ils font tous partie des solutions CONVERGENTES des équations dynamiques pour des valeurs critiques des paramètres biochimiques. Eh bien, tout ça, les systèmes dynamiques, les situations de chaos, les équations aux dérivées partielles, ça se recoupe... C'est déjà un défi technique que d'établir des équations aux variations dans le temps et dans l'espace, c'en est un encore plus difficile de résoudre ces équations. Ça fait partie de la phase de test des modèles théoriques : soit vous êtes dans les clous avec une marge d'imprécision tolérable, soit vous êtes complètement à côté de la plaque et il n'y a plus qu'à tout recommencer... C'est la seule chose qui ne soit pas compliquée : le test. Les simulations numériques. Elles vous disent rapidement si vous avez travaillé pour rien ou pas...
Et nous, qu'avons-nous obtenus jusqu'ici ?
La quantification du temps, de l'espace et de l'espace-temps. C'est déjà bien, mais... avons-nous au moins égratigné l'iceberg ?... Nous avons transformé des VARIABLES classiques en SIGNAUX quantiques de même nature et, pour ce faire, l'analogie opto-mécanique nous a obligé à passer par des FONCTIONS. Des fonctions issues de l'intégration (!) de fonctionnelles classiques (les lagrangiens et densités de lagrangiens). Ici, nous venons de voir que la biophysique étudie DES TRAJECTOIRES ET DES CHAMPS. Avons-nous quantifié des courbes, des surfaces, des volumes,... ? NON... Il nous reste à quantifier des FONCTIONS. C'est-à-dire, l'essentiel de l'analyse.
Ce n'est pas parce que nous avons passé les étapes :
T(t) = S0t exp[is(t')/h]dt' et Xa(x) = S0xa exp[is(x')/h]dx'a (a = 1,2,3)
que cela nous permet de quantifier x(t). Pour quantifier une fonction f(t) du temps, il faudrait une action s[f(t)]. Mais, non : le lagrangien classique est fonction de x(t), de v(t) et de t, pas de x[f(t)], de v[f(t)] et de f(t), à moins que f ne soit elle-même une fonction qui transforme le temps en un autre temps. A ce moment-là, df(t) = f(1)(t)dt et on a une intégrale :
S0f(t) exp{is[f'(t')]/h}df'(t') = S0t exp[is'(t')/h]f(1)(t')dt'
avec f(1)(t) sans unité, puisque, dans ce cas, f(t) est en secondes. C'est déjà mieux. Mais alors...
ON EST DANS LE DOMAINE DE LA RG ! lol
Et ça, c'est sans doute la meilleure, parce que le "programme déformation" lancé par l'école du géomètre Français André Lichnerowicz dans les années 1950 proposait de quantifier l'espace-temps courbe au moyen d'une déformation induite par un paramètre, l'action de Planck h. A présent, c'est L'INVERSE : c'est LA RG qui va permettre la quantification... :))
Nous l'avons vu en B 193 : la quantification par analogie opto-mécanique n'est ni plus ni moins qu'une DEFORMATION (du temps, de l'espace, de l'espace-temps,...), bref, du CADRE DE TRAVAIL.
Je l'ai sans doute déjà dit : l'objectif d'une théorie physique est 1) de rendre compte le mieux possible des données d'observatioon recueillies et de les regrouper dans un cadre commun ; 2) d'expliquer les mécanismes sous-jacents menant à ces observations et, pourquoi pas, 3) de prédire des comportements non encore observés.
Une théorie physique ne se contente pas de décrire l'existant, elle doit aussi permettre d'envisager l'avenir.
La biodynamique n'échappe pas à cette règle. Son but est de décrire le plus fidèlement possible l'évolution des organismes vivants dans l'espace au cours du temps. Par "vivant", on entend des ensembles COHERENTS de constituants capables de S'AUTO-GERER. C'est la différence essentielle avec l'inerte : le vivant PART de l'inerte et atteint un "seuil de développement" au-delà duquel l'inerte devient AUTONOME. Les organismes végétaux ou animaux savent gérer leurs dépenses énergétiques parce que leurs constituants de base, les cellules, ont atteint un niveau de complexité qui les rend aptes à le faire d'elles-mêmes. Il se constitue une forme "d'intelligence cellulaire", biochimique, très différente de notre conception courante de l'intelligence neurologique, mais d'une redoutable efficacité. Les plantes, par exemple, sont dépourvues de système nerveux, propre aux animaux, mais communiquent sans cesse entre elles via des échanges biochimiques, certains nocifs (incompatibilités), d'autres participatifs. Dans une foret, même un sous-bois, les arbres sont solidaires. Si vous déforestez trop, vous mettez l'ensemble du massif en difficulté.
Les modèles bio-mathématiques généralement employés pour décrire ce type d'évolution se basent sur l'étude des variations : spatiales, temporelles, spatio-temporelles (mais au sens de Galilée, pas d'Einstein - la vitesse de la lumière n'est pas d'une grande utilité en biophysique). La description fait appel à la notion d'échelle. On commence par définir ce que l'on va s'employer à étudier : la cellule vivante, un tissu, un organe ou un organisme. S'il s'agit d'une cellule, les petites échelles vont porter sur les molécules simples, voire les atomes ; les échelles intermédiaires, sur les macro-molécules, les protéines, les constituants de la cellule ; l'échelle "macroscopique", sur la cellule elle-même. S'il s'agit d'un tissu, ces "niveaux de description" vont se décaler, la cellule passant à l'échelon "intermédiaire", "mésoscopique". Pour un organe, ce sera le tissu. Et pour un organisme, l'organe.
Aussi, si l'on cherche à décrire la biodynamique d'un organisme complet, le constituant de base, la cellule, n'y apparaîtra pas plus gros qu'un grain de sable. Il faudra un microscope optique pour l'observer. Le théoricien traitera alors la cellule comme un "point matériel", un "corpuscule", sans se préoccuper de sa structure interne à cette échelle. Pour lui, l'organisme se composera d'un très grand nombre de "constituants cellulaires réduits à leur centre de gravité (cdg)". A l'échelle de l'organisme, ce mode de description schématique n'occasionnera pas d'erreurs majeures. Le passage à des échelles inférieures, à des résolutions moins grossières, permettra d'affiner les résultats obtenus à grande échelle.
Notre théoricien partira donc du fait qu'il a à gérer un ensemble de N "corpuscules" en mouvement et en interaction les uns avec les autres. Pour 1 =< n =< N, le corpuscule "n° n" se trouvera à la position xn(t) dans l'espace 3D à l'instant t. La variation de cette position au cours du temps sera décrite par un champ de vitesses assez compliqué :
(1) dxn(t)/dt = vn[x1(t),...,xN(t),t,a1,...,aP] (1 =< n =< N)
dépendant des positions de TOUS les corpuscules constituants l'ensemble, du temps naturellement (le paramètre mécanique), mais aussi de P paramètres thermodynamiques et chimiques (a1,...,aP). Il va sans dire qu'un tel système dynamique est quasi-impossible à résoudre dans les situations réalistes avec les outils d'analyse actuels. Même en recourant à des algorithmes numériques performants, les interactions cellulaires ont tendance à augmenter exponentiellement le volume des calculs. Sans compter que, pour des valeurs "critiques" des paramètres a, de tels systèmes entrent en "chaos déterministe" dès l'ordre 2, c'est-à-dire, dès l'interaction cellulaire deux à deux et ce, même pour de petits ensembles de constituants.
De toute façon, les cellules baignent généralement dans des liquides amniotiques, comme vous pouvez le voir dans un simple microscope optique acheté dans le commerce, ce qui rend leur mouvement très rapidement erratique.
A moins de former un ensemble cohérent. A ce moment-là, le mouvement individuel de CHAQUE cellule n'est plus libre. Les N cellules font partie d'un système, une sorte de "tout" au sein duquel le mouvement de l'une quelconque des N cellules dépend de celui de toutes les autres à chaque instant : c'est le système dynamique (1).
Maintenant, ce système peut aussi être commandé. On obtient alors une régulation. La régulation permet de stabiliser un système en mouvement. La modélisation se complique encore plus, puisqu'aux positions variables xn(t), il faut adjoindre N vecteurs commande un(t). (1) devient :
(2a) dxn(t)/dt = vn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
(2b) dun(t)/dt = wn[x1(t),...,xN(t),u1(t),...,uN(t),t,a1,...,aP]
qu'il est possible de ramener à une forme similaire à (1) en égalisant les systèmes d'unités et en remplaçant les 3N positions xn(t) de (1) par les 6N variables [xn(t),un(t)]. C'est de la mathématique.
Comment fonctionne un système régulé ? Au départ, vous avez un processus biochimique, généralement complexe (au sens de complexité) que nous modéliserons par un opérateur b^(t,a1,...,aP). Si vous laissez le système agir librement, il évoluera de la manière qu'il souhaitera. Si, au contraire, vous voulez qu'il se comporte d'une certaine manière, vous imposerez une "consigne" en entrée c(t) = [c1(t),...,cN(t)]. La réponse m(t) = [m1(t),...,mN(t)] en sortie du système sera alors comparée à cette consigne :
(3) e(t) = [e1(t),...,eN(t)] = c(t) - m(t) = [c1(t) - m1(t),...,cN(t) - mN(t)]
donnant un vecteur "erreur". Cette erreur sera corrigée par un correcteur r^(t,a1,...,aP) qui la transformera en la commande [u1(t),...,uN(t)] :
(4) r^(t,a1,...,aP).e(t) = u(t)
La correction est "adaptative", voire "auto-adaptative", c'est-à-dire qu'elle s'adapte au cours du temps ainsi que selon la valeur des paramètres thermo-chimiques. C'est cette commande qui va être appliquée au processus biochimique et qui va rectifier la mesure en sortie m(t) :
(5) b^(t,a1,...,aP).u(t) = m(t)
et la forcer à s'aligner sur la consigne c(t). Lorsque le résultat souhaité est atteint, i.e. aussi longtemps que c(t) = m(t), soit e(t) = 0, la commande s'annule : elle n'est plus nécessaire, le processus est régulé. S'il se dérégule, la correction reprend.
Si vous regroupez les équations (3), (4) et (5), il vient :
u(t) = r^(t,a1,...,aP).[c(t) - b^(t,a1,...,aP).u(t)]
ce qui vous donne le vecteur commande sous la forme (très théorique),
(6) u(t) = [Id + b^(t,a1,...,aP)]-1.r^(t,a1,...,aP).c(t)
où Id est l'opérateur identité (qui change une fonction en elle-même). Il s'agit donc de prendre l'inverse de l'opérateur Id + b^ et d'appliquer le résultat au correcteur r^. Si c'est VOUS qui fixez la consigne, c'est VOUS qui régulez le système. Si c'est le système qui s'applique sa propre consigne, il se fixe son propre objectif et il s'auto-régule.
En pratique, les opérateurs biochimiques deviennent rapidement très compliqués et ne se modélisent au mieux que très schématiquement et de manière empirique (= par des données d'observation). Ils ne sont quasiment jamais linéaires, plutôt "stochastiques" (aléatoires). Mathématiquement, l'inverse de Id + b^ s'obtient à l'aide de la série infinie :
(Id + b^)-1 = Sn=0+oo (-1)n(b^)n
Mais, même si (6) vous donne théoriquement la commande à partir de la consigne, il vous faut encore résoudre le système des équations d'évolution (2a-2b). La tâche est tout sauf simple, à la hauteur de la complexité des systèmes à l'étude.
Et encore, nous ne venons d'aborder la question que pour un nombre FINI de constituants. Or, à l'échelle d'un organisme, les cellules forment un milieu "continu", surtout dans les tissus (eux-mêmes constituants des organes). A ce niveau de description là, le théoricien va donc poser que N est "infini". On va entrer dans le cadre de ce que l'on appelle les modèles "phénoménologiques" : les systèmes dynamiques "discrets" (i.e. à nombres FINIS de constituants) vont être remplacés par des équations aux dérivées partielles (EDPs), voire des systèmes d'EDPs, ce qui va compliquer considérablement la tâche du théoricien quant à leur résolution. Dans (1) avec commande intégrée ou pas, on va substituer à l'entier n les variables de position x elles-mêmes. Il va donc falloir changer les trajectoires individuelles xn(t) en une champ de positions X(x,t) et considérer les variations de ce champ aussi bien dans le temps que dans l'espace. La loi de la diffusion dite "moléculaire", par exemple, va être décrite par l'EDP de type parabolique :
(7) (d/dt + Dd²/dxadxa)X(x,t) = Q(x,t) (a = 1,2,3)
où Q(x,t) est la perturbation source et D, un coefficient de diffusion en m²/s, qui dépend généralement des caractéristiques physico-chimiques du milieu. Mais je viens de donner l'un des exemples les plus simples. Nombre de phénomènes macroscopiques ne peuvent se décrire qu'à l'aide de modèles différentiels NON linéaires ou intégro-différentiels,... sans évoquer les conditions aux limites, qui peuvent être elles-mêmes non linéaires.
Bref, la biophysique n'est peut-être pas l'astrophysique ni la cosmologie quantique, mais elle reste tout de même l'une des branches de la physique la plus compliquée de toutes. La dynamique cellulaire est extrêmement compliquée à modéliser. Les cellules communiquent entre elles en s'échangeant des informations chimiques au moyen de protéines, d'enzymes en tous genres et d'ARN messager. Les cascades enzymatiques impressionnent même les biologistes... On a beau disposer désormais de la carte génétique complète du patrimoine humain, ça ne permet pas de résoudre tous les problèmes à la fois... Pourquoi ? Parce que c'est une chose de décomposer les structures complexes en éléments simples et c'en est une toute autre de les recomposer. Ce fut déjà une tâche ardue que de décrypter le génome humain, c'en est une encore plus difficile de reconstituer un organisme avec ses réactions biochimiques interactives, qui sapent totalement tout espoir de déterminisme. La seule chose que le biologiste sait, c'est qu'il est dans le diffus, le stochastique, l'aléatoire, le chaotique. Sans entrer dans les détails très techniques de la dynamique "hyperbolique", il se forme des "bassins d'attractions" où les trajectoires convergent. Ces bassins d'attractions ne sont pas tous "étranges". Mais ils font tous partie des solutions CONVERGENTES des équations dynamiques pour des valeurs critiques des paramètres biochimiques. Eh bien, tout ça, les systèmes dynamiques, les situations de chaos, les équations aux dérivées partielles, ça se recoupe... C'est déjà un défi technique que d'établir des équations aux variations dans le temps et dans l'espace, c'en est un encore plus difficile de résoudre ces équations. Ça fait partie de la phase de test des modèles théoriques : soit vous êtes dans les clous avec une marge d'imprécision tolérable, soit vous êtes complètement à côté de la plaque et il n'y a plus qu'à tout recommencer... C'est la seule chose qui ne soit pas compliquée : le test. Les simulations numériques. Elles vous disent rapidement si vous avez travaillé pour rien ou pas...
Et nous, qu'avons-nous obtenus jusqu'ici ?
La quantification du temps, de l'espace et de l'espace-temps. C'est déjà bien, mais... avons-nous au moins égratigné l'iceberg ?... Nous avons transformé des VARIABLES classiques en SIGNAUX quantiques de même nature et, pour ce faire, l'analogie opto-mécanique nous a obligé à passer par des FONCTIONS. Des fonctions issues de l'intégration (!) de fonctionnelles classiques (les lagrangiens et densités de lagrangiens). Ici, nous venons de voir que la biophysique étudie DES TRAJECTOIRES ET DES CHAMPS. Avons-nous quantifié des courbes, des surfaces, des volumes,... ? NON... Il nous reste à quantifier des FONCTIONS. C'est-à-dire, l'essentiel de l'analyse.
Ce n'est pas parce que nous avons passé les étapes :
T(t) = S0t exp[is(t')/
que cela nous permet de quantifier x(t). Pour quantifier une fonction f(t) du temps, il faudrait une action s[f(t)]. Mais, non : le lagrangien classique est fonction de x(t), de v(t) et de t, pas de x[f(t)], de v[f(t)] et de f(t), à moins que f ne soit elle-même une fonction qui transforme le temps en un autre temps. A ce moment-là, df(t) = f(1)(t)dt et on a une intégrale :
S0f(t) exp{is[f'(t')]/
avec f(1)(t) sans unité, puisque, dans ce cas, f(t) est en secondes. C'est déjà mieux. Mais alors...
ON EST DANS LE DOMAINE DE LA RG ! lol
Et ça, c'est sans doute la meilleure, parce que le "programme déformation" lancé par l'école du géomètre Français André Lichnerowicz dans les années 1950 proposait de quantifier l'espace-temps courbe au moyen d'une déformation induite par un paramètre, l'action de Planck h. A présent, c'est L'INVERSE : c'est LA RG qui va permettre la quantification... :))
Nous l'avons vu en B 193 : la quantification par analogie opto-mécanique n'est ni plus ni moins qu'une DEFORMATION (du temps, de l'espace, de l'espace-temps,...), bref, du CADRE DE TRAVAIL.
- Commentaires textes : Écrire
B 197 : DYNAMIQUE QUANTIQUE SPATIALE ET SPATIO-TEMPORELLE
Le 19/06/2024
Après la quantification du temps, celle de l'espace. Le passage de R3 à C3(x) se fait, cette fois, via des champs de position y(x) dans l'espace ordinaire 3D, qui correspondent à des déplacements x' = y(x). Comme il y a maintenant 3 paramètres de mouvement x1, x2 et x3, la vitesse de déplacement vab(x) = cdayb(x) forme un champ de 2-tenseurs mixtes dans R3. L'action classique correspondante est s(x) = S s'[ya(x),vab(x),x]d3x avec s(0) = 0, c'est l'intégrale volumique d'une densité d'action s', en Js/m3. La densité de lagrangien correspondante est :
(0) l'[ya(x),vab(x),x] = cuadas'[ya(x),vab(x),x]
= ½ m(x)vab(x)vab(x) + fb(x)yb(x) en J/m3
dans le modèle le plus simple, où m(x) est une densité corpusculaire de masse (en kg/m3) ; f(x), une densité de force (en N/m3 = kg/m2s2) et ua = dxa/dx = xa/x. Le signal quantique de position résultant est :
(1) Xa(x) = S exp[is(x)/h]dxa (a = 1,2,3)
Comme nous l'avons déjà vu dans B 193, le signal quantique de vitesse est le champ de 2-tenseurs mixtes dans R3 :
(2a) Cab(x) = cdaXb(x) = cexp[is(x)/h]Idab
d'invariant spatial,
(2b) Caa(x) = 3cexp[is(x)/h] = 3C(x) , C(0) = c.
Aussi, pour une densité quantique de masse M(x), le signal quantique impulsionnel sera :
(3a) Pab(x) = d£/dCab(x) = M(x)Cab(x) = M(x)cexp[is(x)/h]Idab en kg/m²s
(3b) P(x) = M(x)C(x) = M(x)cexp[is(x)/h]
et les équations de Lagrange,
(4) cdad£/dCab(x) = d£/dXb(x)
donneront les équations de mouvement,
(5) daPab(x) = Fb(x)/c
pour le quantifié de (0),
(6) £[Xa(x),Cab(x),x] = cuadaS'[Xa(x),Cab(x),x]
= ½ M(x)Cab(x)Cab(x) + Fb(x)Xb(x)
L'hamiltonien dual de Legendre de £ :
(7) H[Xa(x),Pab(x),x] = Pab(x)Cab(x) - £[Xa(x),Cab(x),x]
= ½ M(x)Cab(x)Cab(x) - Fb(x)Xb(x)
= E(x) en J/m3
fournira l'énergie totale du système quantique en mouvement par unité de volume.
Les coordonnées quantiques de position Xa(x) forment une application vectorielle X : R3 -> C3. D'après (2), l'unique degré de liberté pertinent des vitesses Cab(x) est leur invariant C(x), application de spin 0, C : R3 -> C. Localement, l'espace "ambiant" est de dimension quantique 3 et son espace tangent se réduit à la dimension quantique 1. Il en va de même pour les impulsions, en vertu de (3b). En nombre de ddls, l'espace des phases T*C3(x) se limite donc à la dimension quantique 4 et l'espace des états T*C3(x) xc R3, à la dimension quantique 4 + 3 = 7. Les équations d'Hamilton,
(8) dH/dPab(x) = Cab(x) , dH/dXb(x) = -Fb(x) = -cdaPab(x)
donnent le crochet de Poisson :
(9) cua[da + daXb(x)d/dXb(x) + daPcb(x)d/dPcb(x)] =
= cuada + [uadH/dPab(x)]d/dXb(x) - [uadH/dXb(x)]d/dPab(x) =
= cuada + {H,.}
Si D : T*C3(x) xc R3 -> C est une loi de répartition de spin 0 dans l'espace des états quantiques,
(10a) Dx = cuadaD + {H,D} = daJa+ {H,D}
où :
(10b) J = cuD
est le courant associé.
Il me semble inutile de refaire le raisonnement sur le théorème de Liouville. Les conclusions sont identiques, pour les mêmes raisons : à cause des interférences dues à la superposition de signaux quantiques, l'information sera dissipée pour qui l'observera depuis l'espace classique 3D.
La dynamique spatio-temporelle regroupe la dynamique temporelle et la dynamique spatiale. L'action classique devient l'intégrale quadri-volumique :
(11a) s(x,ct) = S s'[ya(x,ct),vab(x,ct),x,ct]d3xcdt (a,b,... = 0,1,2,3)
d'une densité d'action s' en Js/m4, la densité de lagrangien correspondante étant,
(11b) l' = (cu.Grad + u0d/dt)s' en J/m4.
Si j'avais maintenu l'expression traditionnelle s = S ld3xdt = S ld4x/c, j'aurais fait jouer un rôle DISSYMETRIQUE aux coordonnées spatio-temporelles, car la densité de lagrangien continue de s'y mesurer en J/m3, ce qui en fait une densité spatiale et non spatio-temporelle, comme il se doit. Si cela était admissible tant que l'on considérait R3,1 comme un cadre fictif, le véritable support physique restant R3, ça ne l'est plus depuis le lien entre le spin ½ et la dimension 4, qui fait de R3,1 un espace-temps PHYSIQUE. Les densités doivent donc s'y mesurer en m-4 et non plus en m-3 : la substance se distribue aussi bien dans l'espace que dans le temps...
Le signal quantique de position se décline en :
(12a) Xa(x,ct) = S exp[is(x,ct)/h]dxa (a = 1,2,3)
(12b) X0(x,ct) = cT(x,ct) = S exp[is(x,ct)/h]cdt
On retrouve [B196, (4)] à la différence que T dépend maintenant de x. Le signal de vitesse a pour composantes :
(13a) Cab(x,ct) = cdaXb(x,ct) = cexp[is(x,ct)/h]Idab (a,b = 1,2,3)
(13b) Ca0(x,ct) = 0 et C0b(x,ct) = 0 pour tout (x,ct)
(13c) C00(x,ct) = -cexp[is(x,ct)/h] = -C(x,ct)
L'inversion de polarité dans (13c) par rapport à [B196, (3)] étant due au choix de la signature (3,1).
Dans notre modèle de densité de lagrangien,
(14) £ = ½ M(x,ct)Cab(x,ct)Cab(x,ct) + Fb(x,ct)Xb(x,ct) (a,b = 0,1,2,3)
= 2M(x,ct)C²(x,ct) + F(x,ct).X(x,ct) - cF0(x,ct)T(x,ct)
M(x,ct) est en kg/m4 et [F(x,ct),F0(x,ct)], en N/m4. Pour le signal impulsionnel :
(15a) Pab(x,ct) = P(x,ct)Idab
reste la densité spatiale d'impulsion, mais en kg/m3s ;
(15b) Pa0(x,ct) = P0b(x,ct) = 0
la densité spatio-temporelle d'impulsion est nulle et
(15c) P00(x,ct) = -M(x,ct)C(x,ct) = -P(x,ct)
est la densité temporelle d'impulsion. CE N'EST PLUS LA DENSITE D'ENERGIE DU SYSTEME DIVISEE PAR c.
Du fait de (15b), les équations de mouvement se réduisent à :
(16a) daPab(x,ct) = Fb(x,ct)/c
(16b) d0P00(x,ct) = F0(x,ct)/c => dP(x,ct)/dt = F0(x,ct)
C'est encore l'hamiltonien qui représente la densité d'énergie totale du système :
(17) H = 2M(x,ct)C²(x,ct) - F(x,ct).X(x,ct) + cF0(x,ct)T(x,ct)
= 2P²(x,ct)/M(x,ct) - F(x,ct).X(x,ct) + cF0(x,ct)T(x,ct)
Nous ne sommes plus dans l'extension lorentzienne de la relativité de Galilée où l'on aboutissait à l'identité H = 0 parce que la composante temporelle p0 de l'impulsion était égale à l'énergie E divisée par c. Ça, c'était du bricolage pour rester en dimension 3 (je peux vraiment parler de bricolage car les transformations de Poincaré-Lorentz valent uniquement dans le cas de vitesses CONSTANTES - on les a ensuite extrapolées aux vitesses VARIABLES pour satisfaire aux besoins de la RR - sinon, c'est Liénard-Wiechert). Mike and the Mechanics, hein... ;)
Le crochet de Poisson est construit de la même manière que dans (9) mais avec le temps propre x/c et en tenant évidemment compte de la métrique de Minkowski.
Toujours pour une loi de répartition de spin 0, D : T*C3,1(x,ct) xc R3,1 -> C,
(18a) Dx,ct = (cu.Grad + u0d/dt)D + {H,D} = daJa + {H,D} (a = 01,2,3)
(18b) daJa = Div.J + dJ0/cdt
(18c) J = cuD , J0 = cu0D
et toujours cette dissipation d'information pour un observateur spatio-temporel classique : Dx,ct = 0 => D = 0 et l'annulation de tous les courants.
(0) l'[ya(x),vab(x),x] = cuadas'[ya(x),vab(x),x]
= ½ m(x)vab(x)vab(x) + fb(x)yb(x) en J/m3
dans le modèle le plus simple, où m(x) est une densité corpusculaire de masse (en kg/m3) ; f(x), une densité de force (en N/m3 = kg/m2s2) et ua = dxa/dx = xa/x. Le signal quantique de position résultant est :
(1) Xa(x) = S exp[is(x)/
Comme nous l'avons déjà vu dans B 193, le signal quantique de vitesse est le champ de 2-tenseurs mixtes dans R3 :
(2a) Cab(x) = cdaXb(x) = cexp[is(x)/
d'invariant spatial,
(2b) Caa(x) = 3cexp[is(x)/
Aussi, pour une densité quantique de masse M(x), le signal quantique impulsionnel sera :
(3a) Pab(x) = d£/dCab(x) = M(x)Cab(x) = M(x)cexp[is(x)/
(3b) P(x) = M(x)C(x) = M(x)cexp[is(x)/
et les équations de Lagrange,
(4) cdad£/dCab(x) = d£/dXb(x)
donneront les équations de mouvement,
(5) daPab(x) = Fb(x)/c
pour le quantifié de (0),
(6) £[Xa(x),Cab(x),x] = cuadaS'[Xa(x),Cab(x),x]
= ½ M(x)Cab(x)Cab(x) + Fb(x)Xb(x)
L'hamiltonien dual de Legendre de £ :
(7) H[Xa(x),Pab(x),x] = Pab(x)Cab(x) - £[Xa(x),Cab(x),x]
= ½ M(x)Cab(x)Cab(x) - Fb(x)Xb(x)
= E(x) en J/m3
fournira l'énergie totale du système quantique en mouvement par unité de volume.
Les coordonnées quantiques de position Xa(x) forment une application vectorielle X : R3 -> C3. D'après (2), l'unique degré de liberté pertinent des vitesses Cab(x) est leur invariant C(x), application de spin 0, C : R3 -> C. Localement, l'espace "ambiant" est de dimension quantique 3 et son espace tangent se réduit à la dimension quantique 1. Il en va de même pour les impulsions, en vertu de (3b). En nombre de ddls, l'espace des phases T*C3(x) se limite donc à la dimension quantique 4 et l'espace des états T*C3(x) xc R3, à la dimension quantique 4 + 3 = 7. Les équations d'Hamilton,
(8) dH/dPab(x) = Cab(x) , dH/dXb(x) = -Fb(x) = -cdaPab(x)
donnent le crochet de Poisson :
(9) cua[da + daXb(x)d/dXb(x) + daPcb(x)d/dPcb(x)] =
= cuada + [uadH/dPab(x)]d/dXb(x) - [uadH/dXb(x)]d/dPab(x) =
= cuada + {H,.}
Si D : T*C3(x) xc R3 -> C est une loi de répartition de spin 0 dans l'espace des états quantiques,
(10a) Dx = cuadaD + {H,D} = daJa+ {H,D}
où :
(10b) J = cuD
est le courant associé.
Il me semble inutile de refaire le raisonnement sur le théorème de Liouville. Les conclusions sont identiques, pour les mêmes raisons : à cause des interférences dues à la superposition de signaux quantiques, l'information sera dissipée pour qui l'observera depuis l'espace classique 3D.
La dynamique spatio-temporelle regroupe la dynamique temporelle et la dynamique spatiale. L'action classique devient l'intégrale quadri-volumique :
(11a) s(x,ct) = S s'[ya(x,ct),vab(x,ct),x,ct]d3xcdt (a,b,... = 0,1,2,3)
d'une densité d'action s' en Js/m4, la densité de lagrangien correspondante étant,
(11b) l' = (cu.Grad + u0d/dt)s' en J/m4.
Si j'avais maintenu l'expression traditionnelle s = S ld3xdt = S ld4x/c, j'aurais fait jouer un rôle DISSYMETRIQUE aux coordonnées spatio-temporelles, car la densité de lagrangien continue de s'y mesurer en J/m3, ce qui en fait une densité spatiale et non spatio-temporelle, comme il se doit. Si cela était admissible tant que l'on considérait R3,1 comme un cadre fictif, le véritable support physique restant R3, ça ne l'est plus depuis le lien entre le spin ½ et la dimension 4, qui fait de R3,1 un espace-temps PHYSIQUE. Les densités doivent donc s'y mesurer en m-4 et non plus en m-3 : la substance se distribue aussi bien dans l'espace que dans le temps...
Le signal quantique de position se décline en :
(12a) Xa(x,ct) = S exp[is(x,ct)/
(12b) X0(x,ct) = cT(x,ct) = S exp[is(x,ct)/
On retrouve [B196, (4)] à la différence que T dépend maintenant de x. Le signal de vitesse a pour composantes :
(13a) Cab(x,ct) = cdaXb(x,ct) = cexp[is(x,ct)/
(13b) Ca0(x,ct) = 0 et C0b(x,ct) = 0 pour tout (x,ct)
(13c) C00(x,ct) = -cexp[is(x,ct)/
L'inversion de polarité dans (13c) par rapport à [B196, (3)] étant due au choix de la signature (3,1).
Dans notre modèle de densité de lagrangien,
(14) £ = ½ M(x,ct)Cab(x,ct)Cab(x,ct) + Fb(x,ct)Xb(x,ct) (a,b = 0,1,2,3)
= 2M(x,ct)C²(x,ct) + F(x,ct).X(x,ct) - cF0(x,ct)T(x,ct)
M(x,ct) est en kg/m4 et [F(x,ct),F0(x,ct)], en N/m4. Pour le signal impulsionnel :
(15a) Pab(x,ct) = P(x,ct)Idab
reste la densité spatiale d'impulsion, mais en kg/m3s ;
(15b) Pa0(x,ct) = P0b(x,ct) = 0
la densité spatio-temporelle d'impulsion est nulle et
(15c) P00(x,ct) = -M(x,ct)C(x,ct) = -P(x,ct)
est la densité temporelle d'impulsion. CE N'EST PLUS LA DENSITE D'ENERGIE DU SYSTEME DIVISEE PAR c.
Du fait de (15b), les équations de mouvement se réduisent à :
(16a) daPab(x,ct) = Fb(x,ct)/c
(16b) d0P00(x,ct) = F0(x,ct)/c => dP(x,ct)/dt = F0(x,ct)
C'est encore l'hamiltonien qui représente la densité d'énergie totale du système :
(17) H = 2M(x,ct)C²(x,ct) - F(x,ct).X(x,ct) + cF0(x,ct)T(x,ct)
= 2P²(x,ct)/M(x,ct) - F(x,ct).X(x,ct) + cF0(x,ct)T(x,ct)
Nous ne sommes plus dans l'extension lorentzienne de la relativité de Galilée où l'on aboutissait à l'identité H = 0 parce que la composante temporelle p0 de l'impulsion était égale à l'énergie E divisée par c. Ça, c'était du bricolage pour rester en dimension 3 (je peux vraiment parler de bricolage car les transformations de Poincaré-Lorentz valent uniquement dans le cas de vitesses CONSTANTES - on les a ensuite extrapolées aux vitesses VARIABLES pour satisfaire aux besoins de la RR - sinon, c'est Liénard-Wiechert). Mike and the Mechanics, hein... ;)
Le crochet de Poisson est construit de la même manière que dans (9) mais avec le temps propre x/c et en tenant évidemment compte de la métrique de Minkowski.
Toujours pour une loi de répartition de spin 0, D : T*C3,1(x,ct) xc R3,1 -> C,
(18a) Dx,ct = (cu.Grad + u0d/dt)D + {H,D} = daJa + {H,D} (a = 01,2,3)
(18b) daJa = Div.J + dJ0/cdt
(18c) J = cuD , J0 = cu0D
et toujours cette dissipation d'information pour un observateur spatio-temporel classique : Dx,ct = 0 => D = 0 et l'annulation de tous les courants.
- Commentaires textes : Écrire
B 196 : DYNAMIQUE QUANTIQUE TEMPORELLE
Le 11/06/2024
L'étape suivante consiste en la construction formelle de l'espace des phases d'un système quantique. Nous en avons besoin pour faire de la statistique. C'est le point de passage obligé pour pouvoir décrire la dynamique des ensembles comportant un très grand nombre de particules pas nécessairement identiques. Je pense en particulier aux coefficients d'Onsager, qui donnent les proportions de chaque espèce dans un mélange chimique.
Si l'on s'y prend avec méthode et minutie, ça ne devrait pas être trop long, tous les outils d'analyse étant d'ors et déjà à notre disposition.
A partir de maintenant, j'adopterai la convention d'écriture suivante : les grandeurs classiques figureront en minuscules ; les grandeurs quantiques, en majuscules. Cela évitera de préciser à chaque fois "classique" ou "quantique".
La quantification du temps t fait référence à un mouvement x(t) de vitesse v(t) = dx(t)/dt dans l'espace R3 et d'action :
(1) s(t) = S0t l[x(t'),v(t'),t']dt' , s(0) = 0.
Elle renvoie à un signal temporel T(t), de différentielle :
(2) dT(t) = exp[is(t)/h]dt = exp[is(t)/h]dT(0)
Le groupe unitaire U(1) a une action locale et fait office de groupe de mouvement. On a vraiment affaire à une loi d'évolution qui fait passer de l'intervalle temporel dt initial à l'intervalle dT(t) à l'instant t.
La vitesse de propagation de ce signal est :
(3) C(t) = cdT(t)/dt = cexp[is(t)/h] , C(0) = c
Tout se passe comme si l'axe des temps t agissait comme une lame fine biréfringente d'indice de réfraction n1(t) = cos[s(t)/h] et de réflexion n2(t) = sin[s(t)/h] : le signal de vitesse C(t) est en partie "réfracté" (= "conduit") en proportion cos[s(t)/h] et en partie "réfléchi" (= "repoussé") en proportion complémentaire sin[s(t)/h]. Ce n'est, bien sûr, qu'une analogie. En réalité, l'amplitude du signal de vitesse est c et sa phase, s(t)/h.
La donnée de :
(4) T(t) = S0t exp[is(t')/h]dt' = S0t C(t')dt'/c
et de (3) permet déjà de construire un lagrangien quantique, à condition de se donner un signal de masse M(t) et au moins une force F(t), puisque C(t) est variable. Le modèle le plus simple est donc :
(5) L[T(t),C(t),t] = ½ M(t)C²(t) + cF(t)T(t)
Le formalisme LHJ donne alors :
- un signal impulsionnel,
(6) P(t) = dL/dC(t) = M(t)C(t)
- des équations de mouvement,
(7) dP(t)/dt = dL/dT(t) = (d/dt)[M(t)C(t)] = cF(t)
- et un signal d'énergie,
(8) H[T(t),P(t),t] = P(t)C(t) - L[T(t),C(t),t] = ½ M(t)C²(t) - cF(t)T(t) = E(t)
Tout cela constitue, à son tour, une première action QUANTIQUE :
(9a) S(t) = S0t L[T(t'),C(t'),t']dt' = S0t [P(t')C(t') - E(t')]dt'
de différentielle totale,
(9b) dS(t) = P(t)dT(t) - E(t)dt
où toutes les quantiques sont a priori complexes, hormis t.
Comme en mécanique classique, l'espace des phases de ce système "masse - force extérieure" est constitué des signaux T(t) et P(t) ; l'espace des états, des "coordonnées quantiques" [T(t),P(t),t].
Situons géométriquement les choses. Le signal temporel T(t) est dans l'espace mobile C(t), c'est une application R -> C. C(t) est dans l'espace tangent TC(t) à C(t) ; P(t), dans l'espace cotangent (dual de l'espace tangent) T*C(t). La dualité en question est de Jacobi : (9b) donne P(t) comme dérivée partielle de S(t) par rapport à T(t), E(t) comme dérivée paramétrique de S(t) par t. Notre espace des phases est donc T*C(t) et les "points figuratifs" ont pour coordonnées [T(t),P(t)]. Localement, i.e. à chaque instant t, il est de dimension complexe 2, donc isomorphe à C2 : T(t) et P(t) sont tous deux associables à un spin 0, mais le couple [T(t),P(t)] est, lui, associable à un spin ½.
A présent que nous avons notre espace des états, produit euclidien de T*C(t) et de R, nous pouvons y définir une DENSITé QUANTIQUE (de spin 0 pour simplifier) D comme une application :
(10) D : T*C(t) xc R -> C , [T(t),P(t),t] -> D[T(t),P(t),t]
La variation COMPLETE de cette densité par rapport à t sera :
(11a) Dt[T(t),P(t),t] = {d/dt + [dT(t)/dt]d/dT(t) + [dP(t)/dt]d/dP(t)}D[T(t),P(t),t]
= {d/dt + [dH/cdP(t)]d/dT(t) - [dH/cdT(t)]d/dP(t)}D[T(t),P(t),t]
= [d/dt - {H,.}]D[T(t),P(t),t]
où,
(11b) {H,D} = [dH/cdT(t)]dD/dP(t) - [dH/cdP(t)]dD/dT(t)
est le crochet de Poisson de H et de D.
Le théorème de Liouville a été établi dans le contexte classique. Von Neumann en a, par la suite, fourni une version "quantique". Plus exactement : spectrométrique. Dans les deux cas, un système est dit conservatif ssi (11a) est nulle. Lorsque la fonctionnelle D est remplacée par l'hamiltonien H du système à l'étude, Ht = dH/dt et le système conserve son énergie ssi celle-ci ne dépend pas explicitement du temps. Le théorème de Liouville est une généralisation de ce résultat pour toute fonctionnelle dans l'espace des états d'un système physique classique, incluant les lois de répartition de ses constituants corpusculaires. Il est à la base du "théorème H" établi ensuite par Boltzmann dans le contexte statistique.
Classiquement, si t' = T(t) représentait une déformation du temps, vous auriez Dt = 0 <=> dD/dt = {H,D}. Il en va tout autrement dans le contexte quantique, où une grandeur complexe ne s'annule que ssi son amplitude s'annule. Or :
(12a) 0 =< |Dt|min =< |Dt| =< |Dt|max
(12b) (|Dt|min)² = (|dD/dt| - |dD/dT(t)|)² + (|dD/dt| - |F(t)||dD/dP(t)|)² +
+ (|dD/dT(t)| - |F(t)||dD/dP(t)|)² - (|dD/dt|² + |dD/dT(t)|² + |F(t)|²||dD/dP(t)|²)
(12c) (|Dt|max)² = |dD/dt|² + |dD/dT(t)|² + |F(t)|²||dD/dP(t)|²
en raison des interférences (inexistantes dans le contexte corpusculaire). De ce fait, on ne pourra avoir que :
(12d) Dt = 0 <=> |Dt|min = 0 <=> |dD/dt| = 0, |dD/dT(t)| = 0, |dD/dP(t)| = 0
<=> D = |D|eiDEL = cte <=> (|D| = cte ET DEL = cte)
<=> D = 0 après ré-étalonnage de |D|.
Ainsi, à cause des interférences, qu'elles soient constructives ou destructives, les systèmes quantiques de masse M(t) se déplaçant à la vitesse C(t) ne pourront être conservatifs vis-à-vis du temps classique. Autrement dit :
L'information quantique est naturellement DISSIPEE au cours du temps CLASSIQUE.
Il se produit une perte inévitable d'information pour qui observe un système quantique en mouvement avec une horloge classique. C'est dans la logique des choses, après tout. Par contre, dD/dT(t) = 0 N'IMPLIQUE PLUS DE DISSIPATION :
L'information quantique est tout à fait conservable au cours du temps quantique.
Soit dans son contexte. Cela confirme une fois de plus, si nécessaire, que le quantique doit s'observer avec des moyens quantiques.
Le théorème de Liouville étendu au contexte quantique aboutit à un résultat plutôt fort, puisqu'il dit que, même si vous parvenez à obtenir des informations sur les phases avec des moyens classiques, vous ne pourrez pas disposer d'informations COMPLETES sur l'état d'un système quantique, à cause du phénomène général d'interférences. C'est exactement ce qu'a formulé l'école de Copenhague. Mais sur des bases spectroscopiques établies dans un cadre classique.
Et nous ne venons d'examiner que la dynamique la plus simple !...
Si l'on s'y prend avec méthode et minutie, ça ne devrait pas être trop long, tous les outils d'analyse étant d'ors et déjà à notre disposition.
A partir de maintenant, j'adopterai la convention d'écriture suivante : les grandeurs classiques figureront en minuscules ; les grandeurs quantiques, en majuscules. Cela évitera de préciser à chaque fois "classique" ou "quantique".
La quantification du temps t fait référence à un mouvement x(t) de vitesse v(t) = dx(t)/dt dans l'espace R3 et d'action :
(1) s(t) = S0t l[x(t'),v(t'),t']dt' , s(0) = 0.
Elle renvoie à un signal temporel T(t), de différentielle :
(2) dT(t) = exp[is(t)/
Le groupe unitaire U(1) a une action locale et fait office de groupe de mouvement. On a vraiment affaire à une loi d'évolution qui fait passer de l'intervalle temporel dt initial à l'intervalle dT(t) à l'instant t.
La vitesse de propagation de ce signal est :
(3) C(t) = cdT(t)/dt = cexp[is(t)/
Tout se passe comme si l'axe des temps t agissait comme une lame fine biréfringente d'indice de réfraction n1(t) = cos[s(t)/
La donnée de :
(4) T(t) = S0t exp[is(t')/
et de (3) permet déjà de construire un lagrangien quantique, à condition de se donner un signal de masse M(t) et au moins une force F(t), puisque C(t) est variable. Le modèle le plus simple est donc :
(5) L[T(t),C(t),t] = ½ M(t)C²(t) + cF(t)T(t)
Le formalisme LHJ donne alors :
- un signal impulsionnel,
(6) P(t) = dL/dC(t) = M(t)C(t)
- des équations de mouvement,
(7) dP(t)/dt = dL/dT(t) = (d/dt)[M(t)C(t)] = cF(t)
- et un signal d'énergie,
(8) H[T(t),P(t),t] = P(t)C(t) - L[T(t),C(t),t] = ½ M(t)C²(t) - cF(t)T(t) = E(t)
Tout cela constitue, à son tour, une première action QUANTIQUE :
(9a) S(t) = S0t L[T(t'),C(t'),t']dt' = S0t [P(t')C(t') - E(t')]dt'
de différentielle totale,
(9b) dS(t) = P(t)dT(t) - E(t)dt
où toutes les quantiques sont a priori complexes, hormis t.
Comme en mécanique classique, l'espace des phases de ce système "masse - force extérieure" est constitué des signaux T(t) et P(t) ; l'espace des états, des "coordonnées quantiques" [T(t),P(t),t].
Situons géométriquement les choses. Le signal temporel T(t) est dans l'espace mobile C(t), c'est une application R -> C. C(t) est dans l'espace tangent TC(t) à C(t) ; P(t), dans l'espace cotangent (dual de l'espace tangent) T*C(t). La dualité en question est de Jacobi : (9b) donne P(t) comme dérivée partielle de S(t) par rapport à T(t), E(t) comme dérivée paramétrique de S(t) par t. Notre espace des phases est donc T*C(t) et les "points figuratifs" ont pour coordonnées [T(t),P(t)]. Localement, i.e. à chaque instant t, il est de dimension complexe 2, donc isomorphe à C2 : T(t) et P(t) sont tous deux associables à un spin 0, mais le couple [T(t),P(t)] est, lui, associable à un spin ½.
A présent que nous avons notre espace des états, produit euclidien de T*C(t) et de R, nous pouvons y définir une DENSITé QUANTIQUE (de spin 0 pour simplifier) D comme une application :
(10) D : T*C(t) xc R -> C , [T(t),P(t),t] -> D[T(t),P(t),t]
La variation COMPLETE de cette densité par rapport à t sera :
(11a) Dt[T(t),P(t),t] = {d/dt + [dT(t)/dt]d/dT(t) + [dP(t)/dt]d/dP(t)}D[T(t),P(t),t]
= {d/dt + [dH/cdP(t)]d/dT(t) - [dH/cdT(t)]d/dP(t)}D[T(t),P(t),t]
= [d/dt - {H,.}]D[T(t),P(t),t]
où,
(11b) {H,D} = [dH/cdT(t)]dD/dP(t) - [dH/cdP(t)]dD/dT(t)
est le crochet de Poisson de H et de D.
Le théorème de Liouville a été établi dans le contexte classique. Von Neumann en a, par la suite, fourni une version "quantique". Plus exactement : spectrométrique. Dans les deux cas, un système est dit conservatif ssi (11a) est nulle. Lorsque la fonctionnelle D est remplacée par l'hamiltonien H du système à l'étude, Ht = dH/dt et le système conserve son énergie ssi celle-ci ne dépend pas explicitement du temps. Le théorème de Liouville est une généralisation de ce résultat pour toute fonctionnelle dans l'espace des états d'un système physique classique, incluant les lois de répartition de ses constituants corpusculaires. Il est à la base du "théorème H" établi ensuite par Boltzmann dans le contexte statistique.
Classiquement, si t' = T(t) représentait une déformation du temps, vous auriez Dt = 0 <=> dD/dt = {H,D}. Il en va tout autrement dans le contexte quantique, où une grandeur complexe ne s'annule que ssi son amplitude s'annule. Or :
(12a) 0 =< |Dt|min =< |Dt| =< |Dt|max
(12b) (|Dt|min)² = (|dD/dt| - |dD/dT(t)|)² + (|dD/dt| - |F(t)||dD/dP(t)|)² +
+ (|dD/dT(t)| - |F(t)||dD/dP(t)|)² - (|dD/dt|² + |dD/dT(t)|² + |F(t)|²||dD/dP(t)|²)
(12c) (|Dt|max)² = |dD/dt|² + |dD/dT(t)|² + |F(t)|²||dD/dP(t)|²
en raison des interférences (inexistantes dans le contexte corpusculaire). De ce fait, on ne pourra avoir que :
(12d) Dt = 0 <=> |Dt|min = 0 <=> |dD/dt| = 0, |dD/dT(t)| = 0, |dD/dP(t)| = 0
<=> D = |D|eiDEL = cte <=> (|D| = cte ET DEL = cte)
<=> D = 0 après ré-étalonnage de |D|.
Ainsi, à cause des interférences, qu'elles soient constructives ou destructives, les systèmes quantiques de masse M(t) se déplaçant à la vitesse C(t) ne pourront être conservatifs vis-à-vis du temps classique. Autrement dit :
L'information quantique est naturellement DISSIPEE au cours du temps CLASSIQUE.
Il se produit une perte inévitable d'information pour qui observe un système quantique en mouvement avec une horloge classique. C'est dans la logique des choses, après tout. Par contre, dD/dT(t) = 0 N'IMPLIQUE PLUS DE DISSIPATION :
L'information quantique est tout à fait conservable au cours du temps quantique.
Soit dans son contexte. Cela confirme une fois de plus, si nécessaire, que le quantique doit s'observer avec des moyens quantiques.
Le théorème de Liouville étendu au contexte quantique aboutit à un résultat plutôt fort, puisqu'il dit que, même si vous parvenez à obtenir des informations sur les phases avec des moyens classiques, vous ne pourrez pas disposer d'informations COMPLETES sur l'état d'un système quantique, à cause du phénomène général d'interférences. C'est exactement ce qu'a formulé l'école de Copenhague. Mais sur des bases spectroscopiques établies dans un cadre classique.
Et nous ne venons d'examiner que la dynamique la plus simple !...
- Commentaires textes : Écrire
B 195 : INTERFERENCES
Le 26/05/2024
Nous allons parler d'interférences.
S'il s'agit d'une trajectoire classique x(t) dans R3, de vitesse instantanée v(t) = dx(t)/dt, l'action de ce mouvement est une :
(1) S(t) = S0t L[x(t1),v(t1),t1]dt1
où t1 est la variable d'intégration, 0 =< t1 =< t. Localement, i.e. sur un intervalle de temps dt, le temps quantique correspondant est :
(2a) dT(t) = exp[iS(t)/h]dt
Son amplitude est dt (> 0) ; sa phase, S(t)/h. A t = 0, S(0) = 0 et dT(0) = dt. Globalement :
(2b) T(t) = S0t exp[iS(t1)/h]dt1
représente une aire variable comprise entre l'axe des temps classiques et le signal quantique exp[iS(t)/h]. Etant donné que :
|T(t)|² = {S0t exp[iS(t1)/h]dt1}{S0t exp[-iS(t2)/h]dt2}
= {S0t exp[-iS(t1)/h]dt1}{S0t exp[iS(t2)/h]dt2}
= S0tS0t exp{i[S(t1) - S(t2)]/h}dt1dt2
= S0tS0t exp{-i[S(t1) - S(t2)]/h}dt1dt2
on aura,
|T(t)|² = S0tS0t cos{[S(t1) - S(t2)]/h}dt1dt2
= S0tS0t dt1² + 2St1=0t-2dtSt2=t1+dtt cos{[S(t1) - S(t2)]/h}dt1dt2
= (S0t dt1)² - 2St1=0t-2dtSt2=t1+dtt sin²{[S(t1) - S(t2)]/2h}dt1dt2
soit,
(3a) |T(t)|² = t² - 2St1=0t-2dtSt2=t1+dtt sin²{[S(t1) - S(t2)]/2h}dt1dt2
(3b) S0tS0t dt1² =< |T(t)|² =< (S0t dt1)² = t²
A l'échelle MACROSCOPIQUE se produisent des INTERFERENCES TEMPORELLES. Ces interférences sont de deux sortes : les AUTO-interférences, qui concernent chaque instant avec lui-même et les interférences passé-futur (t2 > t1). Le signal temporel est minimal lorsque toutes les inférences passé-futur sont destructives (= en opposition de phase), maximal lorsque qu'elles sont constructives (= en phase). Les auto-interférences, elles, sont toutes constructives (cos = +1).
D'après (1), S(t2) - S(t1) représente l'action du système classique de l'instant t1 à l'instant ultérieur t2. L'interférence entre t2 et t1 sera constructive pour :
(4a) sin²{[S(t1) - S(t2)]/2h} = 0 => S(t2) - S(t1) = nh
et destructive pour,
(4b) sin²{[S(t1) - S(t2)]/2h} = 1 => S(t2) - S(t1) = (n + ½)h
Lorsque S(t) est partout constante (ce qui est aussi le cas des enveloppes lagrangiennes, cf. B116), S(t) = S(0) = 0 pour tout t et (2b) => T(t) = t : le temps reste classique, il n'y a pas d'interférence passé-futur.
Mais, dès que S(t) = Et est linéaire en t,
T(t) = S0t exp(iEt1/h)dt1 = S0t exp(iwt1)dt1 = (-i/w)[exp(iwt) - 1]
et
|T(t)|² = 2[1 - cos(wt)]/w² = (2/w)²sin²(wt/2) = t² - (2/w)²[(wt/2)² - sin²(wt/2)]
Les interférences passé-futur apparaissent dans :
2St1=0t-2dtSt2=t1+dtt sin²{[S(t1) - S(t2)]/2h}dt1dt2 = (2/w)²[(wt/2)² - sin²(wt/2)]
Elles ont donc un caractère systématique, puisqu'elles se manifestent dès qu'il y a action classique.
Voilà donc la situation : on a un signal temporel T(t) qui constitue un paquet d'ondes dans lequel chaque instant classique interfère avec lui-même, le reste des interférences concernant le passé avec le futur. C'est ce signal temporel qui se substitue, dans le monde quantique, à la notion classique de "temps".
La même chose se produit pour les coordonnées de position dans R3,1, en plus général. L'action classique est une intégrale :
(5a) S(x) = SV4(x) £[X(x1),V(x1),x1]d4x1
obtenue sur un quadri-volume variable V4(x), comme S(t) était obtenue en fixant des bornes variables à l'intégrale. En gras, les quantités quadrivectorielles. Cette action est générée par les déplacements :
(5b) x'a = Xa(x) (a = 0,1,2,3)
Si u = dx/dx désigne le 4-vecteur tangent, le groupe des rotations "externes" S(3,1) laisse invariante la forme quadratique :
(5c) dx² = g(0)abdxadxb
de sorte que,
(5d) u² = g(0)abuaub = 1
et les vitesses de déplacements sont données par,
(5e) Va(x) = cubdXa(x)/dxb = cubeba(x)
Contrairement à la vitesse v = cu, dont le carré de la norme est toujours égal à c² en vertu de (5d),
(5f) V²(x) = g(0)abVa(x)Vb(x) = c²uaubgab(x)
En pratique, la partie la plus difficile est sans doute le calcul de S(x), car c'est (5b) qui détermine la forme des volumes spatio-temporels V4(x) en fonction des sources classiques données au départ. Il s'agit donc déjà de calculer les intégrales doubles de la courbure de Riemann qui donneront les coefficients de dilatation, puis réintégrer ces derniers pour obtenir la forme correspondante.
Les formules théoriques les plus compactes cachent généralement les calculs appliqués les plus compliqués...
Ensuite, le signal de position dans C3,1 suit des expressions similaires à (2) :
(6a) dza(x) = exp[iS(x)/h]dxa
(6b) za(x) = S0xa exp[iS(x1)/h]dx1a
Là encore, de sérieuses difficultés pratiques dès que S(x) n'est pas séparable en une somme S(x) = Sa=03 Sa(xa). Et, même si c'est le cas,
(6c) S(x) = Sa=03 Sa(xa) => za(x) = exp[iS(x1)/h - Sa(xa)]S0xa exp[iSa(x1a)/h]dx1a
et il faut encore calculer l'intégrale de exp[iSa(x1a)/h]. Autant dire que ce n'est pas livré sur un plateau... même avec des algorithmes numériques performants (et même en possédant les solutions de la RG).
On se débarrasse tout de suite des ua, qui ne concerne que les directions :
(6d) dza(x) = uadz(x) => dz(x) = exp[iS(x)/h]dx
(6e) z(x) = S0x exp[iS(x1)/h]dx1 , x = uaxa
[ces ua sont constants, on n'est pas en présence d'une courbe xa(x)]. On s'attend évidemment à des interférences spatio-temporelles, cette fois :
(7a) |z(x)|² = x² - 2Sx1=0x-2dxSx2=x1+dxx sin²{[S(x1) - S(x2)]/2h}dx1dx2
(7b) S0xS0x dx1² =< |z(x)|² =< (S0x dx1)² = x²
Je ne vois rien de plus à ajouter qui n'ait déjà été dit dans le cas de la variable temporelle.
Trois remarques techniques pour terminer :
a) si la densité de lagrangien dans (5a) dépend bien des coordonnées de position et de vitesses X(x1) et V(x1) dans l'espace-temps COURBE, l'intégration de cette densité porte bien, elle, sur l'espace-temps PLAN ; cette précision ne s'avérait pas utile dans la formule (1) puisque les variables de position et de vitesse y étaient de nature différente du paramètre temps ;
b) la géométrie de C3,1 étant PSEUDO-euclidienne, l'amplitude |z(x)|² N'EST PLUS une grandeur définie positive, mais cela ne change rien aux inégalités (7b) car z(x) = |z(x)|exp[izet(x)] => za(x) = |z(x)|aexp[izet(x)] ; c'est l'amplitude qui se projette sur les axes de coordonnées ; la phase, elle, répond à la symétrie "interne" U(1) ; en conséquence, le passage du genre espace au genre temps inverse les signes de tous les carrés simultanément ;
c) lorsque x est du genre lumière, |z(x)| =< 0 et, soit |z(x)| est elle aussi du genre lumière (quand toutes les interférences sont constructives), soit elle est du genre temps.
Et deux commentaires à caractère général.
Le premier porte sur la quantification du temps. Je conçois que ce soit difficile à se représenter. Moi-même, je suis comme tout le monde, ça heurte mes habitudes de pensée. Mais la quantique, c'est ça. Ce serait sûrement plus facile à expliquer à un jeune enfant, qui ne sait pas encore ce qu'est la notion de "temps". Il faut se dire que tout ce qui est "passé", "présent", "futur" n'existe que dans une représentation CLASSIQUE du monde. Dès qu'on passe en dimension 4, on voit que tout n'est plus question que D'ORIENTATIONS. Il ne faut donc pas chercher à "hiérarchiser" le "temps" dans le monde quantique. Il faut le prendre tel qu'il est, à savoir, un SIGNAL TEMPOREL. L'indicateur d'une durée. L'intensité de ce signal sera affaiblie par des interférences destructives, renforcée par des interférences constructives. La hiérarchisation, dans (3a), c'est du pur calcul : d'une part, nous avons ORDONNé les instants de manière à REGROUPER les termes faisant intervenir deux instants DIFFERENTS (d'où l'apparition d'une "flèche" t2 > t1) ; d'autre part, le cosinus, comme le sinus carré, sont des fonctions paires, donc, si vous renversez l'ordre de succession temporel (ce qui revient à permuter t2 et t1 ou encore, à inverser la flèche en t1 > t2), le résultat sera inchangé (à condition de reporter cet échange dans les bornes des intégrales, naturellement). Par conséquent, quelle pertinence PHYSIQUE à ce que t2 se trouve vraiment "dans le futur de t1" si le fait qu'elle se retrouve "dans le passé de t1" n'induit aucune modification ?...
Ce qui compte, c'est le "paquet d'ondes temporel" au sein duquel on trouve des instants CLASSIQUES, soit égaux, soit différents. Le fait qu'ils se succèdent dans un sens ou dans l'autre n'a plus d'importance. C'est l'intensité et la phase du signal qui deviennent significatifs. On passe de la notion classique "d'instants" à celle, quantique, "d'onde temporelle" : à un instant classique t correspond un temps quantique T(t) = |T(t)|exp[iTAU(t)].
Ensuite, je regarde pas mal de films d'anticipation pour voir comment les scénaristes et réalisateurs abordent les problèmes liés au voyage interplanétaire ou interstellaire, aspects spectaculaires mis à part. Je crains d'avoir encore une mauvaise nouvelle à leur annoncer : les distances à couvrir sont bien trop grandes pour envisager quoi que ce soit dans des délais raisonnables. Déjà, pour couvrir les distances interplanétaires dans notre propre système solaire, il ne faut pas être pressé. Et, même en admettant qu'on mette au point des technologies nous permettant d'aller vite, la dilatation temporelle sera là : le temps passé l'intérieur d'un véhicule spatial sera d'autant plus COURT par rapport à celui passé sur Terre que la vitesse de déplacement sera grande. Ça veut dire que vous génèrerez de cette manière un décalage inévitable entre la durée qui se sera écoulée sur Terre, très grande, et celle, de plus en plus courte, qu'il vous faudra pour atteindre une autre planète du système. Avec les problèmes de communication que cela produira (vous allez vous adresser à des gens situés des années dans votre futur ?...). La dilatation "relativiste" du temps est une réalité classique. Plus vous irez vite, plus vous le dilaterez.
Mais c'est encore la moindre des difficultés. Parce que, pour couvrir des distances interstellaires (donc, d'un système planétaire à un autre, voire d'un endroit de l'Univers à un autre), vous ne pourrez PAS utiliser les "trous de vers". La quantique, cette fois, est formelle là-dessus : seule LES ONDES peuvent traverser les barrières de potentiel. La matière corpusculaire est bloquée en entrée. Pour être en mesure de traverser un "portail", il faudra d'abord EVOLUER. Et de manière plus que significative, bien au-delà de la seule évolution génétique (qui reste biologique). Il faudra développer un corps VIRTUEL : c'est cette composante qui pourra traverser le "portail". A condition d'être en capacité de se REMATERIALISER en sortie. Et à l'identique, si possible. Ce n'est donc pas encore pour demain.
L'autre solution, nous l'avons vue dans B 194, c'est de passer en dessous de son point de Curie. Mais ça veut dire mourir. On ne peut pas subsister biologiquement en dessous de son seuil de température interne critique. Je le répète : CE N'EST PAS DE LA MISE EN HIBERNATION... Si vous êtes morts, où est l'intérêt ?...
Vous savez quoi ?
On n'est pas si mal sur Terre...
Alors, avant de penser à s'en aller ailleurs, on ferait bien mieux de se préoccuper de sa survie dans NOTRE environnement. Parce que, tout ce que nous sommes en train de faire, c'est de l'altérer de manière à nous le rendre INVIVABLE. Nous aurons disparu de sa surface BIEN AVANT d'aller sur d'autres planètes.
C'est bien de rêver et d'espérer, mais la science est là pour ramener aux réalités : nous sommes des créatures TERRESTRES, notre avenir est sur Terre AVANT TOUT AUTRE LIEU. Il serait bon de se le rappeler.
Moi, je suis bien sur Terre. J'irais voir ailleurs quand je serai mort. :)
S'il s'agit d'une trajectoire classique x(t) dans R3, de vitesse instantanée v(t) = dx(t)/dt, l'action de ce mouvement est une :
(1) S(t) = S0t L[x(t1),v(t1),t1]dt1
où t1 est la variable d'intégration, 0 =< t1 =< t. Localement, i.e. sur un intervalle de temps dt, le temps quantique correspondant est :
(2a) dT(t) = exp[iS(t)/
Son amplitude est dt (> 0) ; sa phase, S(t)/
(2b) T(t) = S0t exp[iS(t1)/
représente une aire variable comprise entre l'axe des temps classiques et le signal quantique exp[iS(t)/
|T(t)|² = {S0t exp[iS(t1)/
= {S0t exp[-iS(t1)/
= S0tS0t exp{i[S(t1) - S(t2)]/
= S0tS0t exp{-i[S(t1) - S(t2)]/
on aura,
|T(t)|² = S0tS0t cos{[S(t1) - S(t2)]/
= S0tS0t dt1² + 2St1=0t-2dtSt2=t1+dtt cos{[S(t1) - S(t2)]/
= (S0t dt1)² - 2St1=0t-2dtSt2=t1+dtt sin²{[S(t1) - S(t2)]/2
soit,
(3a) |T(t)|² = t² - 2St1=0t-2dtSt2=t1+dtt sin²{[S(t1) - S(t2)]/2
(3b) S0tS0t dt1² =< |T(t)|² =< (S0t dt1)² = t²
A l'échelle MACROSCOPIQUE se produisent des INTERFERENCES TEMPORELLES. Ces interférences sont de deux sortes : les AUTO-interférences, qui concernent chaque instant avec lui-même et les interférences passé-futur (t2 > t1). Le signal temporel est minimal lorsque toutes les inférences passé-futur sont destructives (= en opposition de phase), maximal lorsque qu'elles sont constructives (= en phase). Les auto-interférences, elles, sont toutes constructives (cos = +1).
D'après (1), S(t2) - S(t1) représente l'action du système classique de l'instant t1 à l'instant ultérieur t2. L'interférence entre t2 et t1 sera constructive pour :
(4a) sin²{[S(t1) - S(t2)]/2
et destructive pour,
(4b) sin²{[S(t1) - S(t2)]/2
Lorsque S(t) est partout constante (ce qui est aussi le cas des enveloppes lagrangiennes, cf. B116), S(t) = S(0) = 0 pour tout t et (2b) => T(t) = t : le temps reste classique, il n'y a pas d'interférence passé-futur.
Mais, dès que S(t) = Et est linéaire en t,
T(t) = S0t exp(iEt1/
et
|T(t)|² = 2[1 - cos(wt)]/w² = (2/w)²sin²(wt/2) = t² - (2/w)²[(wt/2)² - sin²(wt/2)]
Les interférences passé-futur apparaissent dans :
2St1=0t-2dtSt2=t1+dtt sin²{[S(t1) - S(t2)]/2
Elles ont donc un caractère systématique, puisqu'elles se manifestent dès qu'il y a action classique.
Voilà donc la situation : on a un signal temporel T(t) qui constitue un paquet d'ondes dans lequel chaque instant classique interfère avec lui-même, le reste des interférences concernant le passé avec le futur. C'est ce signal temporel qui se substitue, dans le monde quantique, à la notion classique de "temps".
La même chose se produit pour les coordonnées de position dans R3,1, en plus général. L'action classique est une intégrale :
(5a) S(x) = SV4(x) £[X(x1),V(x1),x1]d4x1
obtenue sur un quadri-volume variable V4(x), comme S(t) était obtenue en fixant des bornes variables à l'intégrale. En gras, les quantités quadrivectorielles. Cette action est générée par les déplacements :
(5b) x'a = Xa(x) (a = 0,1,2,3)
Si u = dx/dx désigne le 4-vecteur tangent, le groupe des rotations "externes" S(3,1) laisse invariante la forme quadratique :
(5c) dx² = g(0)abdxadxb
de sorte que,
(5d) u² = g(0)abuaub = 1
et les vitesses de déplacements sont données par,
(5e) Va(x) = cubdXa(x)/dxb = cubeba(x)
Contrairement à la vitesse v = cu, dont le carré de la norme est toujours égal à c² en vertu de (5d),
(5f) V²(x) = g(0)abVa(x)Vb(x) = c²uaubgab(x)
En pratique, la partie la plus difficile est sans doute le calcul de S(x), car c'est (5b) qui détermine la forme des volumes spatio-temporels V4(x) en fonction des sources classiques données au départ. Il s'agit donc déjà de calculer les intégrales doubles de la courbure de Riemann qui donneront les coefficients de dilatation, puis réintégrer ces derniers pour obtenir la forme correspondante.
Les formules théoriques les plus compactes cachent généralement les calculs appliqués les plus compliqués...
Ensuite, le signal de position dans C3,1 suit des expressions similaires à (2) :
(6a) dza(x) = exp[iS(x)/
(6b) za(x) = S0xa exp[iS(x1)/
Là encore, de sérieuses difficultés pratiques dès que S(x) n'est pas séparable en une somme S(x) = Sa=03 Sa(xa). Et, même si c'est le cas,
(6c) S(x) = Sa=03 Sa(xa) => za(x) = exp[iS(x1)/
et il faut encore calculer l'intégrale de exp[iSa(x1a)/
On se débarrasse tout de suite des ua, qui ne concerne que les directions :
(6d) dza(x) = uadz(x) => dz(x) = exp[iS(x)/
(6e) z(x) = S0x exp[iS(x1)/
[ces ua sont constants, on n'est pas en présence d'une courbe xa(x)]. On s'attend évidemment à des interférences spatio-temporelles, cette fois :
(7a) |z(x)|² = x² - 2Sx1=0x-2dxSx2=x1+dxx sin²{[S(x1) - S(x2)]/2
(7b) S0xS0x dx1² =< |z(x)|² =< (S0x dx1)² = x²
Je ne vois rien de plus à ajouter qui n'ait déjà été dit dans le cas de la variable temporelle.
Trois remarques techniques pour terminer :
a) si la densité de lagrangien dans (5a) dépend bien des coordonnées de position et de vitesses X(x1) et V(x1) dans l'espace-temps COURBE, l'intégration de cette densité porte bien, elle, sur l'espace-temps PLAN ; cette précision ne s'avérait pas utile dans la formule (1) puisque les variables de position et de vitesse y étaient de nature différente du paramètre temps ;
b) la géométrie de C3,1 étant PSEUDO-euclidienne, l'amplitude |z(x)|² N'EST PLUS une grandeur définie positive, mais cela ne change rien aux inégalités (7b) car z(x) = |z(x)|exp[izet(x)] => za(x) = |z(x)|aexp[izet(x)] ; c'est l'amplitude qui se projette sur les axes de coordonnées ; la phase, elle, répond à la symétrie "interne" U(1) ; en conséquence, le passage du genre espace au genre temps inverse les signes de tous les carrés simultanément ;
c) lorsque x est du genre lumière, |z(x)| =< 0 et, soit |z(x)| est elle aussi du genre lumière (quand toutes les interférences sont constructives), soit elle est du genre temps.
Et deux commentaires à caractère général.
Le premier porte sur la quantification du temps. Je conçois que ce soit difficile à se représenter. Moi-même, je suis comme tout le monde, ça heurte mes habitudes de pensée. Mais la quantique, c'est ça. Ce serait sûrement plus facile à expliquer à un jeune enfant, qui ne sait pas encore ce qu'est la notion de "temps". Il faut se dire que tout ce qui est "passé", "présent", "futur" n'existe que dans une représentation CLASSIQUE du monde. Dès qu'on passe en dimension 4, on voit que tout n'est plus question que D'ORIENTATIONS. Il ne faut donc pas chercher à "hiérarchiser" le "temps" dans le monde quantique. Il faut le prendre tel qu'il est, à savoir, un SIGNAL TEMPOREL. L'indicateur d'une durée. L'intensité de ce signal sera affaiblie par des interférences destructives, renforcée par des interférences constructives. La hiérarchisation, dans (3a), c'est du pur calcul : d'une part, nous avons ORDONNé les instants de manière à REGROUPER les termes faisant intervenir deux instants DIFFERENTS (d'où l'apparition d'une "flèche" t2 > t1) ; d'autre part, le cosinus, comme le sinus carré, sont des fonctions paires, donc, si vous renversez l'ordre de succession temporel (ce qui revient à permuter t2 et t1 ou encore, à inverser la flèche en t1 > t2), le résultat sera inchangé (à condition de reporter cet échange dans les bornes des intégrales, naturellement). Par conséquent, quelle pertinence PHYSIQUE à ce que t2 se trouve vraiment "dans le futur de t1" si le fait qu'elle se retrouve "dans le passé de t1" n'induit aucune modification ?...
Ce qui compte, c'est le "paquet d'ondes temporel" au sein duquel on trouve des instants CLASSIQUES, soit égaux, soit différents. Le fait qu'ils se succèdent dans un sens ou dans l'autre n'a plus d'importance. C'est l'intensité et la phase du signal qui deviennent significatifs. On passe de la notion classique "d'instants" à celle, quantique, "d'onde temporelle" : à un instant classique t correspond un temps quantique T(t) = |T(t)|exp[iTAU(t)].
Ensuite, je regarde pas mal de films d'anticipation pour voir comment les scénaristes et réalisateurs abordent les problèmes liés au voyage interplanétaire ou interstellaire, aspects spectaculaires mis à part. Je crains d'avoir encore une mauvaise nouvelle à leur annoncer : les distances à couvrir sont bien trop grandes pour envisager quoi que ce soit dans des délais raisonnables. Déjà, pour couvrir les distances interplanétaires dans notre propre système solaire, il ne faut pas être pressé. Et, même en admettant qu'on mette au point des technologies nous permettant d'aller vite, la dilatation temporelle sera là : le temps passé l'intérieur d'un véhicule spatial sera d'autant plus COURT par rapport à celui passé sur Terre que la vitesse de déplacement sera grande. Ça veut dire que vous génèrerez de cette manière un décalage inévitable entre la durée qui se sera écoulée sur Terre, très grande, et celle, de plus en plus courte, qu'il vous faudra pour atteindre une autre planète du système. Avec les problèmes de communication que cela produira (vous allez vous adresser à des gens situés des années dans votre futur ?...). La dilatation "relativiste" du temps est une réalité classique. Plus vous irez vite, plus vous le dilaterez.
Mais c'est encore la moindre des difficultés. Parce que, pour couvrir des distances interstellaires (donc, d'un système planétaire à un autre, voire d'un endroit de l'Univers à un autre), vous ne pourrez PAS utiliser les "trous de vers". La quantique, cette fois, est formelle là-dessus : seule LES ONDES peuvent traverser les barrières de potentiel. La matière corpusculaire est bloquée en entrée. Pour être en mesure de traverser un "portail", il faudra d'abord EVOLUER. Et de manière plus que significative, bien au-delà de la seule évolution génétique (qui reste biologique). Il faudra développer un corps VIRTUEL : c'est cette composante qui pourra traverser le "portail". A condition d'être en capacité de se REMATERIALISER en sortie. Et à l'identique, si possible. Ce n'est donc pas encore pour demain.
L'autre solution, nous l'avons vue dans B 194, c'est de passer en dessous de son point de Curie. Mais ça veut dire mourir. On ne peut pas subsister biologiquement en dessous de son seuil de température interne critique. Je le répète : CE N'EST PAS DE LA MISE EN HIBERNATION... Si vous êtes morts, où est l'intérêt ?...
Vous savez quoi ?
On n'est pas si mal sur Terre...
Alors, avant de penser à s'en aller ailleurs, on ferait bien mieux de se préoccuper de sa survie dans NOTRE environnement. Parce que, tout ce que nous sommes en train de faire, c'est de l'altérer de manière à nous le rendre INVIVABLE. Nous aurons disparu de sa surface BIEN AVANT d'aller sur d'autres planètes.
C'est bien de rêver et d'espérer, mais la science est là pour ramener aux réalités : nous sommes des créatures TERRESTRES, notre avenir est sur Terre AVANT TOUT AUTRE LIEU. Il serait bon de se le rappeler.
Moi, je suis bien sur Terre. J'irais voir ailleurs quand je serai mort. :)
- Commentaires textes : Écrire
Lire les commentaires textes
Super intéressant, merci