doclabidouille
BIDOUILLE 36 : RETOUR, PLUS EN DETAIL, SUR LA "FONCTION NEURONE"
Le 04/05/2013
Je réécris complètement les bidouilles 36 à 38. Il y aura donc du changement à venir dans l'affichage. Il est difficile d’extrapoler, comme je l’ai fait. Je vais plutôt revenir en détail sur la FONCTION NEURONE, parce qu’il me semble que c’est elle qui est au centre (ou à la base, comme on voudra) de tout le reste.
On considère donc un neurone situé en x dans le volume 3D V occupé par le système nerveux. Ce neurone présente un total de N(x) entrées, dont NE(x) issues de neurones excitateurs (type E) et NI(x) issues de neurones inhibiteurs (type I). Evidemment :
- N(x) = NE(x) + NI(x)
A l’instant t >= 0, certaines seulement de ces entrées seront actives, les autres étant silencieuses. Seules les entrées actives vont contribuer à la fonction neuronale. Soient donc NE(x,t) et NI(x,t), le nombre d’entrées actives à t, respectivement de type E et de type I. Il est tout aussi évident qu’on aura toujours :
- 0 =< NE(x,t) =< NE(x) , 0 =< NI(x,t) =< NI(x) => 0 =< N(x,t) =< N(x) pour tout t.
Mais une première distinction se présente déjà : que faut-il entendre par « entrées actives » dans les neurones à synapses chimiques ? Naturellement, celles qui entrent effectivement dans le soma du neurone récepteur. Or, le transfert synaptique n’est pas systématique. Un signal amont peut arriver à la membrane pré-synaptique et ne pas être diffusé à travers la fente. Dans ce cas, le résultat au niveau du récepteur post-synaptique sera zéro, comme si le neurone amont était silencieux. En conséquence, NE(x,t) comme NI(x,t) restent en réalité inférieures ou égales au nombre total de neurones amont actifs, excitateurs comme inhibiteurs.
Notons Umem, Useuil et U les tensions de membrane, de seuil de déclenchement de l’influx nerveux et de sortie, respectivement. Il s’agit de paramètres caractéristiques de la cellule nerveuse. Si le neurone est de type E, nous noterons +|U| sa tension de sortie, -|U| s’il est de type I. Il y a essentiellement deux modes de fonctionnement possibles : le mode « évoqué » et le mode « spontané ».
Le mode évoqué répond à des entrées actives. Puisque nous en dénombrons NE(x,t) excitatrices et NI(x,t) inhibitrices à t (au niveau post-synaptique, donc), La tension d’entrée à t dans le soma du neurone x sera :
- Uin(x,t) = +|Usyn|[NE(x,t) – NI(x,t)] , |Usyn| = 2|U|/15 (environ) = tension synaptique
puisque, dans l’ensemble du système nerveux, on peut considérer, au moins en moyenne statistique, qu’aux fluctuations près, qui restent petites, les paramètres Umem, Useuil et U restent sensiblement les mêmes pour tous les neurones, au signe près.
Cette tension d’entrée (signée) vient s’ajouter à la tension de membrane, puis le total est comparé à la tension de seuil. La fonction ou, plus exactement, la distribution, qui décrit assez adéquatement le calcul réalisé par le soma est la distribution d’Heaviside Y(.). La tension de sortie en mode évoqué du neurone x à l’instant t peut donc être modélisée de la façon suivante :
- Uout(évoq)(x,t) = U.Y[Uin(x,t) + Umem – Useuil]
avec U = +|U| si le neurone x est de type E, -|U| s’il est de type I. Lorsque Uin(x,t) + Umem < Useuil, on a bien Uout(évoq)(x,t) = 0 : en mode évoqué, le neurone x reste silencieux à t.
(NB 1 : les neurones étant considérés comme ponctuels à cette échelle de description, le temps de calcul dans le soma et de déclenchement est négligé devant t, de sorte que le résultat est considéré comme quasi-instantané – l’ouverture des canaux Na+ est rapide, échelle ms)
Au contraire, lorsque Uin(x,t) + Umem >= Useuil, Y(.) renvoie l’unité et on a bien Uout(évoq)(x,t) = U.
Le mode spontané répond, en principe, à une activité intrinsèque à la cellule nerveuse, donc à des entrées toutes inactives. Dans ce mode, on peut donc poser Uin(x,t) = 0. Par contre, la tension de membrane ne peut plus être considérée comme constante, puisque c’est son amplitude qui se met à varier (cycle K+-Ca2+, lent, échelle s). Nous pouvons modéliser la tension de sortie par :
- Uout(spont)(x,t) = U.Y[Umem(x,t) – Useuil]
où Umem(x,t), x fixé, varie au cours du temps. De nouveau, si Umem(x,t) < Useuil, le neurone reste silencieux ; mais si Umem(x,t) >= Useuil, une impulsion peut partir : car, là encore, le déclenchement de l’influx nerveux n’est pas toujours systématique.
Il est possible de combiner les deux modes, bien qu’ils soient manifestement exclusifs l’un de l’autre : si x est activé en entrée, il n’entrera pas en même temps en oscillation et, s’il entre en oscillation, c’est parce qu’il ne reçoit rien en entrée. La combinaison des deux s’obtient, une fois de plus, grâce à Y(.) :
- Uout(x,t) = Y[N(x,t) – 1]Uout(évoq)(x,t) + {1 - Y[N(x,t) – 1]}Uout(spont)(x,t)
Vérifiez : puisque N(x,t) est un entier naturel, N(x,t) = 0 donne bien le mode spontanée, puisqu’alors Y[N(x,t) – 1] = Y(-1) = 0, tandis que N(x,t) >= 1 donne bien le mode évoqué, puisqu’alors Y[N(x,t) – 1] = 1. Mais on ne peut avoir les deux à la fois.
Il nous reste à introduire la température T. Parce que le fonctionnement de la membrane y est sensible. Alors, là, j’avoue que j’y suis allé « à l’arrache », en utilisant encore une Heaviside :
- Uout(x,t,T) = Uout(x,t)Y(T – Tc)
Pour T >= Tc, on a bien Uout(x,t,T) = Uout(x,t), fonctionnement normal, évoqué, spontané ou silencieux, mais temporaire ; pour T < Tc, Uout(x,t,T) = 0 : le neurone est bloqué.
Je dis que j’y suis allé un peu « à l’arrache », parce que ce blocage devient immédiatement effectif partout et tout le temps, jusqu’à ce que la température remonte. C’est manifestement le cas dans un graphe neuronal, qui baigne dans un milieu biologique à la température T. Il n’en reste pas moins que la distribution Y(.) prend parfois des allures assez « schématiques ».
Quand on va passer du neurone x à un neurone y connecté à x, la tension de sortie de x, (7), va se retrouver en pré-synaptique au voisinage immédiat de y et sera donc susceptible d’entrer dans la composition de Uin(y,t + |x-y|/cI), tension d’entrée du neurone y à l’instant postérieur t + |x-y|/cI, puisqu’il faut tenir compte du délai de propagation du signal provenant de x, cI étant la vitesse (constante) de propagation de l’influx nerveux. Seulement, ça perd un peu tout son intérêt, d’étudier la propagation, parce que le processus n’est plus causal :
LA TRANSMISSION DU SIGNAL NERVEUX A TRAVERS LA FENTE SYNAPTIQUE N’ETANT PAS TOUJOURS SYSTEMATIQUE, IL N’Y A PLUS DE RELATION DIRECTE DE CAUSE A EFFET ENTRE LE SIGNAL AMONT ET LA REPONSE DE LA SYNAPSE.
Les équations de fonctionnement établies ci-dessus modélisent des observations à l’instant même où les entrées arrivent bien au soma du neurone x. On se borne à constater ce qui arrive à cet instant précis et c’est la raison pour laquelle ces équations sont déterministes.
Si, au contraire, on veut établir un catalogue de prévisions, c'est-à-dire, si l’on anticipe sur les événements qui se produiront effectivement, alors il faut introduire des probabilités et là, en effet, les processus deviennent bayésiens. Néanmoins, comme je l’ai déjà dit par ailleurs, il serait néfaste de pondérer des niveaux de tensions par des probabilités de transmission, car cela équivaudrait physiquement à considérer des « morceaux de signaux ». Or, les signaux sont transmis en intégralité ou ne sont pas transmis. Il n’y a pas de « bout de signal » qui est transmis et « le reste » qui reste en arrière. Il vaut donc bien mieux associer des probabilités aux processus.
Par exemple, en entrée, l’entrée « 1 » sera affectée de la probabilité de transmission p1(x,t), l’entrée « 2 » de p2(x,t),… jusqu’à pN(x,t)(x,t). Etant donné que toutes ces entrées actives à t convergent vers le même soma x, la proba d’entrée est conjointe et sera donc le produit de ces N(x,t) probas :
- pin(x,t) = p1(x,t)p2(x,t)…pN(x,t)(x,t)
Nous dirons que la tension d’entrée du neurone en x sera prévue à l’instant t à la valeur (déterministe !) Uin(x,t) avec la probabilité pin(x,t).
Au lieu de dire : « je pondère chaque tension en entrée avec sa proba de transmission, je somme, je compare… », ce qui est d’ailleurs faux.
Soit nous effectuons l’observation et la mesure à l’instant même où les événements se produisent et nous sommes déterministes, soit nous réalisons des prédictions à l’avance sur ce qui va être susceptible de se produire à tel instant, et nous devons affecter nos prévisions de mesures de probabilités, mais séparément des mécanismes qui, eux, restent déterministes.
Le neurone ne fonctionne pas « au petit bonheur des choses », sa fonction est toujours la même. Ce sont les valeurs des entrées (en mode évoqué) ou de la sortie (en mode oscillatoire) qu’on ne peut déterminer à l’avance avec exactitude. Mais la fonction neuronale reste déterministe…
On s’attend donc à ce que, si Uin(x,t) est attendue à t avec la proba pin(x,t), la fonction (4) soit réalisée avec la même probabilité, de sorte que la proba pout(évoq)(x,t) de sortie de Uout(évoq)(x,t) soit la même que pin(x,t).
De même, si Umem(x,t) est attendue > Useuil à t avec proba pmem(x,t), Uout(spont)(x,t) sera attendue avec la même probabilité : pout(spont)(x,t) = pmem(x,t).
Quant à la combinaison (6) des deux, étant exclusifs l’un de l’autre, la proba d’entrée sera la somme des probas d’entrée de chaque mode, pin(x,t) + pmem(x,t) et la proba de sortie, idem, puisque toutes les Y(.) sont déterministes : pout(x,t) = pout(évoq)(x,t) + pout(spont)(x,t) = pin(x,t) + pmem(x,t).
On se demande donc franchement l’intérêt d’étudier une propagation de signaux nerveux à travers un graphe électrochimique, quand un neurone peut recevoir ou pas des influx amont pourtant bien transmis le long de l’axone et quand il peut produire son propre influx en l’absence de toute entrée… Même le renforcement synaptique, qui augmente la probabilité de transfert et qui reste la meilleure solution, ne rétablira pas toute la causalité.
Je comprends bien que le neurobiologiste s’intéresse à ces questions de propagation et, surtout, d’améliorations de ces propagations, en relation avec la capacité mémoire mais, pour le physicien, si on n’est pas causal, autant raisonner en termes de distributions, en faisant varier x, ce qui fait passer d’un neurone à un autre, plutôt que de rechercher d’illusoires relations de causalité entre neurones interconnectés.
Si je fais varier x et si je considère même l’ensemble des points x du volume V, ma tension de sortie (6) devient une distribution s’étendant sur l’ensemble des neurones du système nerveux. Mais on le voit sur les formules (4) à (7) incluse, la fonction neurone cumule l’addition (signée) des tensions en entrée et la comparaison avec la tension de seuil, mais nulle part ne fait intervenir directement, ni la position x du neurone considéré, ni l’instant t auquel sont effectuées les mesures. Les variables de la fonction neurone se ramènent en fait aux NE(x,t) et aux NI(x,t) qui deviennent eux-mêmes des distributions (d’entiers naturels) lorsque x et t varient :
POUR UN NEURONE PARTICULIER SITUé EN x, LES VARIABLES DE LA FONCTION NEURONE SONT LES ENTIERS NATURELS NE(x,t) ET NI(x,t), DONT LES VALEURS VARIENT SUIVANT t ET POUR L’ENSEMBLE DES NEURONES DU SYSTEME NERVEUX, LES VARIABLES SONT DES VARIABLES DISTRIBUTIVES NE(x,t) ET NI(x,t), POUR L’ENSEMBLE DES POINTS x DANS LE VOLUME V. LA FONCTION NEURONE A ALORS POUR BUT DE TRANSFORMER LOCALEMENT :
- SOIT UN NOMBRE N(x,t) D’ENTREES ACTIVES EN UNE SORTIE « EVOQUEE » DE MEME NATURE ;
- SOIT UNE TENSION DE MEMBRANE VARIABLE EN UNE TENSION DE SORTIE « SPONTANEE » DE MEME NATURE ;
EN TERMES MATHEMATIQUES, IL S’AGIT DONC D’UN OPERATEUR LOCAL AGISSANT (A GAUCHE),
- SOIT SUR UN VECTEUR D’ETAT A N(x,t) >= 1 COMPOSANTES POUR LE TRANSFORMER EN UN SCALAIRE DE MEME NATURE (ELECTROCHIMIQUE), EN MODE « EVOQUé » ;
- SOIT SUR UN SCALAIRE (POTENTIEL DE MEMBRANE VARIABLE), POUR LE TRANSFORMER EN UN AUTRE SCALAIRE DE MEME NATURE, EN MODE « SPONTANé ».
On entend ici par « scalaire », un vecteur d’état à 1 seule composante. Maintenant, il est bien évident que tous ces « potentiels » sont, physiquement, des champs électrochimiques (donc, vectoriels dans l’espace E3 et même quadrivectoriels dans l’espace-temps M).
Par contre, les entiers NE(x,t), NI(x,t) et N(x,t) sont, eux, de vrais scalaires.
Au niveau global (i.e. dans V), on a une distribution de neurones. Comme chaque neurone réalise une fonction neurone (la même pour tous les neurones du système nerveux), on trouvera, non pas une distribution de fonctions neurone, mais une distribution de valeurs renvoyées par LA fonction neurone en CHAQUE point x. En l’occurrence, la distribution (dynamique) {Uout(x,t) , x dans V} : les valeurs Uout(x,t) en chaque point x sont distribuées dans le volume V selon une loi de répartition de type aléatoire.
Au niveau des graphes, on l’a vu, bien que ces valeurs s’imbriquent les unes dans les autres, au gré des interconnexions entre neurones, le lien de causalité ne peut être formellement établi d’un neurone à l’autre, donc d’une sortie à l’entrée suivante. Sauf à établir des pronostics et entourer l’ensemble du processus, du local au global, de probabilités de réalisation.
(NB 2 : les « distributions » NE(x,t), NI(x,t), N(x,t) et Uout(x,t), x dans V sont ici des distributions au sens physique du terme, c'est-à-dire, des « fonctions-densité » ; les distributions mathématiques correspondantes sont les produits de ces distributions « physiques » par l’élément de volume d3x.)
En sortie, par contre, la tension délivrée U (signée) est envoyée à un nombre Nout >= 1 de neurones « aval ». La vitesse cI de propagation de l’influx étant une constante et le signal se propageant sans atténuation sur des distances de l’ordre du mètre, ce signal U arrivera au neurone i, situé en xi, 1 =< i =< Nout, à l’instant postérieur ti = t + |x – xi|/cI.
Commentaires textes : Écrire
BIDOUILLE 35 : RETOUR AUX EMIs
Le 16/04/2013
Après une longue digression, nous sommes enfin prêts à revenir aux bidouilles 1 à 3 du début… et recoller avec le sujet. Si vous relisez ces 3 premières bidouilles, vous vous convaincrez rapidement qu’elles bouclent bien sur les bidouilles 22, 23 et 26 à 32 sur le retour au 3D. La différence est qu’on n’a plus besoin de changer de cadre, il suffit de rester dans l’espace 3D. Première simplification de principe, pas forcément négligeable. Ceci n’invalide pas pour autant l’hypothèse du PSI, il faut seulement la reformuler : comme je l’ai signalé à moults reprises, soit on change de cadre physique et on poursuit sur des principes similaires, soit on reste dans le cadre et on doit alors procéder à une nouvelle physique.
Eh bien, les derniers développements nous montrent que c’est la seconde voie qu’il va maintenant nous falloir emprunter : trouver de nouvelles propriétés physiques au sein du cadre 3D. C’est désormais une question d’interprétation de nos modèles.
Quelques détails de la dynamique des neurones m’avaient échappé, qui ont pourtant toute leur importance. Lorsque le neurone est silencieux, son « potentiel de membrane », qui est en fait une différence de potentiel, autrement dit, un champ électrique, est au repos. La force électromotrice (fém) à l’intérieur de la membrane est négative (aux alentours des -70 mV) et cette valeur est fournie directement par le rapport des concentrations chimiques en ions potassium (K+) entre l’intérieur et l’extérieur de la membrane : il y a 10 fois plus de K+ à l’intérieur qu’à l’extérieur de la membrane. Au repos, celle-ci se trouve donc « sous tension » et on peut même considérer cette tension comme maximale. En effet, tout apport d’ions extérieurs, comme les ions sodium (Na+) ou calcium (Ca2+), dix fois plus nombreux qu’à l’intérieur, aura tendance à diminuer ce potentiel de membrane (en valeur absolue).
Lorsque le neurone est actif sur stimulus (« potentiel évoqué »), ce sont les ions Na+ extérieurs qui sont sollicités et lorsqu’il est actif en mode oscillateur, ce sont les ions Ca2+ qui sont sollicités. Tous ces ions, K+, Na+ et Ca2+ sont transportés de part et d’autre de la membrane par des enzymes-pompe (ATPase), qui coupe la molécule d’ATP issue de la respiration cellulaire et utilise l’énergie dégagée par cette opération pour transporter les ions à travers les « molécules-canaux » appropriées, présentes dans la membrane. Certaines de ces molécules canaux sont réceptives aux Na+, d’autres aux Ca2+. Leur ouverture est commandée par le potentiel de membrane, lorsque celui-ci atteint une valeur-seuil. SAUF K+, qui peut être transféré en mode silencieux (en mode actif, les canaux K+ s’ouvrent transitoirement).
Voilà, en tous cas, ce que j’ai retenu de la leçon de neurobiologie.
Ce qui nous intéresse tout particulièrement ici, c’est le mode silencieux. Lorsque le patient atteint le coma de stade IV, l’ensemble des neurones de son système nerveux et, en particulier, de son système nerveux central, se placent en mode silencieux : plus aucune impulsion ne part, pas même en mode oscillateur. Il n’y a plus aucune activité électrique, hormis celle qui concerne les ions K+ seuls. Le patient n’est plus réceptif à aucun stimulus, il ne produit même plus sa propre activité interne. Il est « cérébralement mort ».
Or, est-il inutile de le rappeler, lorsque cela se produit en bloc opératoire, il est maintenu en survie artificielle : l’arrêt cardiaque qui précède la mort cérébrale est remplacé par un « cœur artificiel » qui continue à l’alimenter. Donc, ce n’est pas une question de pression sanguine, puisque celle-ci est maintenue, tant que le dispositif reste branché. Ce n’est qu’une question de température corporelle : tant que la température interne de l’organisme reste inférieure à Tc = 25° C, l’ensemble du système nerveux reste en mode silencieux, « bloqué ».
Voici un petit modèle tout bête de circuit électrique qui semble répondre à notre question, au moins dans les grandes lignes, à savoir :
QUE SE PASSE-T-IL AU MOMENT Où LE PATIENT PASSE EN COMA STADE IV ?
Ce petit modèle va, en fait, confirmer notre modèle beaucoup plus général de champ électromagnétique non linéaire, i.e. non maxwellien. Il va aussi nous réserver une belle surprise.
Ce modèle reprend le principe de la varistance et de la thermistance. Varistance, parce que la résistance R est fonction du courant I qui circule ; thermistance, parce que R dépend aussi de la température T. On se donne alors une fém :
- U(I,T) = -U0 + R(I,T)I
où U0 > 0 est une tension à vide et on se donne la loi suivante :
- U(I,T) = -U0exp[-R0(T)I/U0] , R0(T) >= 0 pour tout T.
En identifiant les deux expressions, on trouve la loi suivante pour la résistance :
- R(I,T) = (U0/I){1 – exp[-R0(T)I/U0]}
Par la règle de l’Hôpital, on trouve facilement :
- R(0,T) = R0(T)
Il est tout aussi facile de se convaincre que, la relation entre U et I n’étant plus linéaire, le modèle local correspondant ne sera plus maxwellien. Inversant (2), on a en effet :
- I(U,T) = -[U0/R0(T)]Ln(-U/U0) , U =< 0
Or, qu’est-ce que U localement ? C’est moins le gradient du potentiel électrique Phi et/ou moins la variation, dans le temps, du potentiel magnétique A. Et qu’est-ce que I localement ? C’est la distribution de courant J. On retrouve donc bien une dépendance fonctionnelle en J(A,Phi,x) et, en étendant au 4D, en Ji(Aj,x).
Revenant à notre petit modèle à 4 sous, lorsque R0(T) -> 0, R(I,T) -> 0 pour tout I. Mais quel est le courant qui nous intéresse ici ? C’est évidemment celui des K+, c’est-à-dire :
- I = dQint(K+)/dt
Comme Q(K+) > 0, lorsque les ions K+ sortent de la membrane, Qint(K+) diminue et I < 0 ; il s’ensuit que U(I,T) croît de manière exponentielle, tout en restant négative, de –U0 à I = 0 à (théoriquement, bien sûr) –oo pour I -> +oo. A l’inverse, lorsque les K+ (r)entrent dans la membrane, Qint(K+) (ré)augmente et I > 0 ; il s’ensuit que U(I,T) décroît de manière exponentielle, toujours en restant négative (puisque exp est essentiellement non négative), de –U0 à 0-. Ce modèle rend donc bien compte d’un accroissement de la tension de membrane lorsque les K+ en sortent et d’une diminution de cette tension lorsqu’ils entrent. Après, savoir s’il s’agit ou non d’une loi exponentielle ou d’une autre, non linéaire, ce n’est qu’un modèle de base. On note cependant une circonstance qui me semble intéressante : lorsque R0(T) s’annule, cette loi me donne :
- R0(T) = 0 => U(I,T) = -U0 pour tout I.
Ma tension de membrane reste alors bloquée à sa valeur à vide –U0. Etant donné que la résistance est une quantité toujours positive ou nulle,
- R0(Tc) = 0 => R0(T) = 0 pour tout T =< Tc.
Il suffit donc, dans ce modèle, que R0 s’annule en T = Tc pour que la tension de membrane reste bloquée à –U0 à toute température corporelle inférieure ou égale à Tc et donc, que le neurone concerné reste silencieux, au point de ne même plus présenter aucune activité intrinsèque. Ce n’est pas trop différent de ce que nous demande la neurobiologie.
Maintenant, la petite surprise.
Appliquons la loi de Lenz. La fém induite (1) ou (2) doit s’opposer à la variation, au cours du temps, du flux magnétique PHI(t) à travers toute surface fermée :
- U(I,T) = -dPHI(t)/dt
On en déduit :
- dPHI(t)/dt = U0exp[-R0(T)I/U0] >= 0
Par conséquent, le flux croît au cours du temps et ce, quelque soit le signe du courant I. Mais, quest-ce que PHI(t), cette fois ? C’est l’intégrale de surface :
- PHI(t) = I B(x,t).dS
du champ magnétique, orientée suivant la normale extérieure. Il en résulte que, si PHI(t) croît, alors B(x,t) croît en direction de la normale extérieure :
LE CHAMP MAGNETIQUE EST BEL ET BIEN REPOUSSé HORS DE L’ORGANISME, PAR EFFET FARADAY-LENZ.
Admettons. Qu’il soit repoussé à la surface intérieure, passe encore. Quant à traverser la matière organique et les parois osseuses en particulier ?...
J’ai fait un calcul tout bête, niveau classe préparatoire (et pas aux écoles d’ingénieurs…) : si tous les neurones du seul système central se retrouvent au repos en même temps et en supposant qu’en première approximation au moins, le champ est linéaire, les valeurs de repos de CHAQUE neurone vont s’additionner, ce qui donnera un champ électrique résultant de :
- Erépulsif = -70 mV x 100 x 109 neurones = -7 x 109 V !!! 8(((
Gigantesque ! L’équivalent de plusieurs dizaines de milliers d’éclairs. S’il n’y en a pas assez pour repousser un champ de pensée hors du corps, je me demande ce qu’il faudrait…
Ce que les instruments de mesure sont chargés de détecter, ce sont les influx nerveux, pas le champ macroscopique de repos. Même si le phénomène n’était que transitoire, la « catapulte » serait amplement suffisante. Non seulement il n’est pas transitoire, mais il est permanent, tant que la température corporelle reste en dessous de 25° C :
A T =< Tc = 25° C, LE CHAMP DE PENSEE N’A AUCUNE CHANCE DE REINTEGRER L’INTERIEUR DE L’ORGANISME.
Pour qu’il puisse y avoir EMI, c’est-à-dire mort clinique avec retour à la vie, il est impératif que la température corporelle repasse au-dessus du seuil des 25° C. Sinon, le processus est définitif.
Ce qui se passe ensuite ne relève tout simplement plus des neurosciences. Car il ne se passe plus rien d’intéressant à l’intérieur du système nerveux.
Il n’est d’ailleurs pas très étonnant que les patients ayant expériencé une EMI ne présente généralement pas de séquelle neurologique : parce que, durant le processus, l’organisme a été conservé artificiellement en état de marche… C’est donc aux médecins qu’ils le doivent et non à une quelconque « intervention mystique extérieure »… :)
Peut-on aller plus loin avec notre physique actuelle ? Difficile à dire. La seule voie d’investigation qui m’est offerte est celle des champs électromagnétiques non linéaires, en l’absence de sources (puisque celles-ci sont restées à l’intérieur de l’organisme). Quant à décrire l’environnement extérieur… 8(
La vérité est que je n’y comprends toujours pas grand-chose… :)
Commentaires textes : Écrire
BIDOUILLE 34: L'ANALOGIE OPTO-MECANIQUE REVISITEE. VERS SCHRÖDINGER ET KLEIN-GORDON
Le 05/04/2013
Dans la bidouille 32 sur les ondes en dimension 3, nous avons vu comment les nombres complexes se laissaient ramener à des réels. Appliquant cela aux ondes, nous avons abouti à la conclusion qu’une onde de la Aeithêta se ramenait à deux composantes réels (27) et (28), respectivement en quadrature avant et arrière. La phase thêta initiale, même si elle peut être réelle, comme nous en avions fait l’hypothèse dans cette bidouille, se « scinde » en DEUX phases thêta+(x+,x-) = thêta(x+,x-) + pi/4 et thêta-(x+,x-) = thêta(x+,x-) - pi/4, soit :
- thêtaa(x+,x-) = thêta(x+,x-) + a.pi/4 , thêtaa(x+,x-) = thêta(x+,x-) – a.pi/4
L’analogie opto-mécanique entre le principe de Fermat et celui d’Hamilton-Jacobi conduit à établir une équivalence plutôt formelle entre l’action d’un système mécanique et la phase d’une onde. Ici, l’action est devenue une quantité à deux composantes Sa [bidouille 30, après la formule (11)]. On peut donc maintenir cette correspondance entre Sa et thêtaa et poser :
- Sa = hbar.thêtaa
où hbar est évidemment la constante de Planck réduite h/2pi. Prenant Sa pour les fonctions de Jacobi, on obtient des fonctions des xc des deux côtés. Dérivons :
- ðSa/ðxb = ðbSa = pab = hbar.ðbthêtaa = hbar.kab
On trouve une matrice de vecteurs d’onde, là où l’on aurait pu s’attendre à un objet à deux composantes seulement, dual de xc.
Nous allons voir que toutes les grandeurs caractéristiques d’une onde sont matricielles.
Appliquant, en effet, l’analogie entre la matrice énergie Hab et la pulsation, nous trouvons :
- Hab = -ðSa/ðtb = -hbar.ðthêtaa/ðtb = hbar.wab
Rappelons qu’en vertu de xa.xa = ¼ c²tata, on peut toujours ramener les dépendances fonctionnelles en les xa en des dépendances en les ta et réciproquement. D’autre part, il y a complémentarité entre pab et Hab, transformée de Legendre de L. Par application de l’analogie, on établit de ce fait une complémentarité équivalente entre kab et wab. L’équation mécanique pab.pab = m²c² conduit, en vertu de (3), à :
- kab.kab = m²c²/hbar²
et on déduit aussi de (3) :
- kab = mvab/hbar = ½ (m/hbar).(cn + av)/(1+bv/c)
Ce sont les vecteurs d’onde vus par l’observateur fixe, tandis que les wab sont les pulsations vues par lui. Si Hab possède une partie potentielle, wab en dépendra via (4). En effet, étant donné que Hab = vca.pcb – Ldab = (pca.pcb – ½ pcd.pcddab)/m – Lpotdab, on trouve :
- wab = (hbar/m)(kca.kcb – ½ kcd.kcddab) – Lpotdab
et Lpot, partie potentielle du lagrangien, est linéaire en les kab, puisqu’elle l’est en les pab. Par exemple, Lpot = qvab.Aab donne (qhbar/m)kab.Aab.
Le système d’Hamilton est le suivant :
- ðHab/ðpcb = dxc/dta , ðHab/ðxc = -(ðL/ðxc)dab = -[(d/dtd)ðL/ðvcd]dab = -(dpcd/dtd)dab
On en tire :
- ðwab/ðkcb = (vgr)ca , ðwab/ðxc = -(dkcd/dtd)dab => dkab/dtb = -ðwab/ðxb
La vitesse de groupe vgr, à l’instar de la vitesse v du corpuscule, est une matrice. Enfin, puisque la pulsation est 2pi fois la fréquence, il nous faut désormais une matrice fréquence fab et, puisque la période T = 1/f, il nous faut une matrice Tab, inverse de fab. Quant à la longueur d’onde l = cT, on obtient une matrice lab = cTab. Comme annoncé, tout devient matriciel.
Et tous ces développements nous amènent inévitablement à reparler de la quantification des systèmes. On se casse la tête depuis un siècle à tenter d’établir une correspondance formelle, mathématiquement solide, assurant le passage des fonctions impulsions-énergies pi aux opérateurs p^i. On a établi quantités de programmes pour tenter de retrouver Schrödinger à partir d’Hamilton-Jacobi, les deux plus puissants étant sans doute le programme déformation et la géométrie non-commutative de Connes (appliquée, dans le présent contexte, à la théorie quantique dite « première », celle qui conduit à Schrödinger et au quasi-classique et qui correspond à la « préquantification » des mathématiciens). Tous ces efforts sont loin d’être injustifiés, malgré tout, peine perdue : on n’y est toujours pas parvenu. Même la théorie de Souriau prend comme hypothèse de départ l’existence des densités de probabilités, absolument pas justifiées dans la description classique, déterministe, de la mécanique, ce qui prouve qu’il faut bien partir de quelque chose… d’un postulat physique… qu’on est bien obligé d’ériger au rang d’axiome mathématique… On a ensuite tenté de justifier l’apparition de ces probas par une transition macro-micro via le chaos… toujours pas convaincant à 100%, on s’enfonce dans la complication.
Il n’est pas question de casser tout ça, je pose simplement la question : avons-nous choisi, pour travailler, le BON cadre ?
Hamilton-Jacobi est établie dans l’espace-temps 4D (dans la version originale). Klein-Gordon et Schrödinger aussi. Donc, on a pris, en toute logique, l’espace-temps comme cadre de travail. Or, la relation classique :
- pipi = m²c²
est établie, non pas dans l’espace-temps M, mais dans son dual M*. ça, on le sait bien. Alors, pourquoi ne pas passer dans ce cadre ? Dans M, les coordonnées de position sont les xi ; dans M*, elles deviennent les pi. Et, ce qui s’avère une gageure dans M devient immédiat dans M*, sans hypothèse supplémentaire, ni complication d’aucune sorte. Le procédé est le suivant :
- on se place dans le dual M* de M et on part de la relation classique (10) ci-dessus ;
- on applique l’analogie opto-mécanique pi = hbar.ki ; on obtient kiki = m²c²/hbar²
- on multiplie algébriquement cette relation par une fonction f^(k) pour l’instant quelconque, ce qui ne change absolument rien : kikif^(k) = (m²c²/hbar²)f^(k) ;
- on revient à l’espace-temps M, ce qui consiste à prendre la transformée inverse de l’équation ci-dessus. C’est à ce moment-là que l’on peut restreindre le choix des f^(k) à des champs physiques, sans effets de bord. C'est-à-dire, à décroissance rapide, avec transformée f^(k) régulière, etc. Tout ce qui se trouve dans l’espace fonctionnel S des distributions dites « tempérées ». C’est la traduction mathématique de la notion de « paquet d’ondes » physique. Les probabilités n’apparaissent pas ici, elles apparaissent du fait de l’impossibilité de localiser avec une précision infinie à la fois le signal et son spectre. Dans le fait qu’on ne peut effectuer de mesure classique, déterministe, dans MxM* : soit on les fait dans M et on a une incertitude maximale dans M*, soit on les fait dans M* et on a une incertitude maximale dans M. L’inversion donne directement l’équation de Klein-Gordon ðiðif(x) = (m²c²/hbar²)f(x) si l’on passe par Laplace et ðiðif(x) = -(m²c²/hbar²)f(x) si l’on passe par Fourier.
- Le procédé est exactement le même pour Schrödinger, en distinguant (relativité de Galilée oblige) H^ = -(i)hbarð/ðt de P^ = (i)hbarð/ðx et en prenant la formule galiléenne H = P²/2m + potentielle.
Il n’y a aucune hypothèse de départ ou supplémentaire nulle part. On ne se fonde que sur des relations classiques bien établies. On a simplement changé de cadre, on est passé dans celui qui est adapté. Et ce n’est qu’en fin de parcours que l’on revient au cadre spatio-temporel, pour connaître la dépendance des champs dans l’espace au cours du temps. On peut continuer à utiliser les opérateurs énergie H^ et impulsion P^, pourquoi pas, mais ce n’est même plus nécessaire, puisqu’il suffit d’utiliser les transformations spectrales. On se demande d’ailleurs pourquoi, une fois encore, le monde physique jouirait de propriétés non-commutatives à l’échelle microscopique et deviendrait subitement commutatif à l’échelle macroscopique… Les résultats établis dans cette bidouille semblent plutôt aller dans le sens de propriétés et de dynamiques différentes pour les corpuscules et pour les ondes. Dans l’espace spectral 3D, les positions sont les kab, les temps les wab : des quantités matricielles. LA, il est possible qu’on trouve de la non-commutativité : DANS LES ONDES. Il est possible que la DESCRIPTION des corpuscules soit commutative et que la DESCRIPTION des ondes ne le soit plus. Et que, de plus, le principe d’incertitude entre signal et spectre, renforce cette non-commutativité. Mais, là encore, cela concerne les SIGNAUX, donc les ONDES, pas les corpuscules.
Ce sera tout pour aujourd’hui. :)
Commentaires textes : Écrire
BIDOUILLE 33: RETOUR SUR LES EXPERIENCES D'ASPECT
Le 02/04/2013
Je n’ai pas trop envie de déballer beaucoup de calculs aujourd’hui, plutôt de parler de questions de fond, de principes, et de revenir sur une série d’expériences qui marqua les années 80-90 : celles d’Alain Aspect sur les faisceaux de protons corrélés.
On sait que les solutions des équations de mouvement en présence de perturbations extérieures s’obtiennent à un mouvement libre près. On peut donc aussi interpréter :
- xa(t) = cnt + ax(t)
en paramétrisation t, cette fois, comme une telle solution, x(t) étant la solution perturbée, à laquelle on ajoute un mouvement libre s’effectuant ici à la vitesse c, dans la direction n.
Il en va de même lorsqu’on passe à l’espace spectral. En place des x(t), on trouve les k(w) (lire oméga pour w) et :
- ka(w) = nw/c + ak(w)
Le mouvement spectral perturbé a pour loi k(w). On lui ajoute un mouvement libre, nw/c.
On sait qu’à la vitesse moyenne d’un corps ponctuel (corpuscule) correspond la vitesse de phase d’une onde et qu’à sa vitesse instantanée correspond la vitesse de groupe de cette onde. On se dit donc que, s’il n’y a plus de limitation physique à la vitesse de déplacement des corps matériels, il ne devrait plus y avoir de limite physique à la vitesse de déplacement des signaux. C'est-à-dire que vgr devrait pouvoir prendre n’importe quelle valeur entre 0 et l’infini. Seulement, ce qui peut finir par être acceptable pour des corpuscules l’est beaucoup moins pour des signaux, parce que cela signifierait alors que c ne serait plus la vitesse maximale de propagation des signaux.
Là est le dilemme du jour et il est renforcé par le succès incontestable des expériences d’Aspect.
Si nous admettons qu’il puisse exister des signaux qui se propagent plus vite que c, soit on entre en conflit avec nos hypothèses de départ, soit on doit se poser la question : « qu’est-ce que c alors et que représente-t-elle ? »
Si nous rejetons l’existence de tels signaux, on entre cette fois en conflit avec les résultats d’Aspect.
Le dilemme avait été partiellement résolu en invoquant l’opposition de principe entre « propagation » et « corrélation » : ce qui est corrélé ne se propage pas, parce que c’est inutile, ça fait partie d’un seul et même système ; ce qui se propage n’est pas corrélé. Grosso modo.
Cette réponse était, sinon valable, du moins acceptable dans le cadre de la théorie originale, où la contrainte sur la vitesse de propagation des signaux était vgr < c toujours, tandis que vph > c toujours. Comme on n’observait aucun échange ni transfert d’information entre fermions corrélés, on pouvait invoquer la non propagation du processus qui, de ce fait, devenait « non local ». A présent que c n’est plus qu’une vitesse critique, le problème revient entier : existe-t-il, oui ou non, des signaux superluminiques ?
La logique du raisonnement voudrait qu’on réponde oui. Evidemment, ce n’est pas suffisant.
Par contre, il devient évident que la corrélation de départ entre protons se laisse maintenant réinterpréter comme une propagation instantanée d’information. Une propagation à vitesse de groupe infinie.
Si vous reprenez l’expression de la matrice vitesses d’un corps ponctuel en mouvement, vous constatez vite qu’à v = +oo correspond des vitesses vab = acn/2b, donc finies. On s’attend à un résultat similaire pour la matrice vitesses de groupe, lorsque vgr = +oo. Ce qui est le cas.
A condition, bien sûr, de cibler les bonnes données cinématiques, il n’apparaît donc aucune contradiction de principe, ni aucune violation du caractère relatif de l’espace ou du temps, ni même de la causalité.
Ainsi, si j’admets que vph comme vgr peuvent désormais prendre n’importe quelles valeurs (positives ou nulles, s’agissant de modules), je réconcilie automatiquement « propagation » et « corrélation », « local » et « non local » :
- je suis « local », lorsque mes vitesses sont finies et qu’il y a alors déplacement (pour des corpuscules) ou propagation (pour des signaux) dans l’espace environnant ;
- je suis « non local », lorsque l’une au moins de mes vitesses devient infinie, ce qui occasionne un déplacement de matière ou une propagation d’information instantanée, donc insensible à la distance. Si ça me gêne d’évoquer l’instantanéité, je peux toujours appeler ça de la « corrélation de départ », c’est formellement équivalent : une transmission ne peut s’effectuer physiquement sans délai, ni retard, ni avance, que si et seulement si l’émetteur et le récepteur ne forme QU’UN, un seul système, ce qui paraît logique.
Quoiqu’il en soit, dès qu’une vitesse v devient > c, le processus devient inobservable pour un observateur fixe, qui ne peut en constater que les effets. Par contre, il devient parfaitement observable pour un observateur mobile se déplaçant à une vitesse v’ par rapport à l’observateur fixe et telle que |v-v’| =< c (retour à la région causale, intérieure à la sphère de Kirchhoff). Mais, si v -> +oo, il faut alors v’ -> +oo et |v-v’| =< c pour que le processus reste observable par quelqu’un.
La vitesse c n’est donc en aucun cas reléguée dans les placards, bien au contraire : elle sert de « pivot », en quelque sorte ; c’est sa finitude et sa constance dans le vide qui garantissent la relativité du temps. Même s’il se peut qu’elle ne soit plus « la » vitesse maximale de propagation des signaux et des interactions, elle n’en reste pas moins une vitesse critique, qui marque une frontière physique entre deux régimes aux comportements sans doute très différents : le régime subluminique, familier, et le superluminique, qui pourrait bien être le siège de pas mal de processus quantiques.
Des signaux qui arrivent à destination AVANT les photons…
Je dis que de tels signaux existent. Non pas parce que ça m’arrange ; c’est vrai, ça m’arrange. Mais parce que les faits expérimentaux m’imposent de chercher d’autres voies que celles auxquelles on se rattache trop facilement. Quitte à heurter les sensibilités et bousculer les habitudes de pensée. Je me contente de dire : « si les faits sont comme ça, c’est qu’il nous faut élargir les modèles ».
Voici le postulat général (à démontrer expérimentalement, ce qui devrait confirmer les résultats d’Aspect par une autre voie, synthétique) :
CORRELATION COMPLETE DE PHASE = PROPAGATION A vph = +oo.
CORRELATION COMPLETE DE SIGNAUX = PROPAGATION A vgr = +oo.
CORRELATION PARTIELLE DE PHASE = PROPAGATION A c < vph < +oo.
CORRELATION PARTIELLE DE SIGNAUX = PROPAGATION A c < vgr < +oo.
DECORRELATION DE PHASE = PROPAGATION A 0 =< vph < c.
DECORRELATION DE SIGNAUX = PROPAGATION A 0 =< vgr < c.
Une corrélation complète entre deux systèmes signifie qu’on a affaire à des systèmes identiques, qui ne forme donc qu’un seul système. Si ce sont les phases qui sont corrélées, c’est la vitesse de phase, vitesse de déplacement des nœuds de l’onde, qui est concernée. Comme ces nœuds ont une amplitude nulle, aucune information n’est véhiculée. Si ce sont les signaux qui sont concernés, ce sont les paquets d’ondes, c’est de la modulation et c’est la vitesse de groupe qui est concernée. L’information est alors véhiculée.
L’intrication peut être totale ou seulement partielle. Si elle n’est que partielle, les deux systèmes ne sont pas formellement identiques. Il existe des disparités entre eux, notamment sur leurs états physiques respectifs. Les faisceaux de protons corrélés d’Aspect correspondent à de la corrélation complète de signaux, sauf erreur de ma part.
Le raisonnement tenu par Louis de Broglie se basait sur la version originale et aboutissait naturellement à la conclusion qu’étant donné que toute vitesse devait être nécessairement =< c, on devait avoir vgr =< c. Ce qui s’avérait être le cas, puisque, dans la dualité onde-corpuscule, on trouve que la vitesse de propagation du paquet d’ondes est égale à la vitesse de déplacement du corpuscule associé : vgr = v. On y trouve par ailleurs vph = c²/v >= c.
Mais alors, que pourrait bien représenter la sphère de Kirchhoff ?
UNE SURFACE DE DISCONTINUITé. UN « FRONT D’ONDE ».
Et sans doute la première surface de ce type que rencontre un mobile en mouvement. La nature physique et surtout l’utilité de cette « frontière physique » deviennent alors évidentes. La théorie quantique confirme cela : les particules de « non matière », les bosons, ne se comportent pas du tout comme les fermions.
Je crois que là où l’on se fausse le jugement, c’est qu’on se trouve en présence d’infinis au voisinage de c. On en déduit alors que c est une valeur asymptotique. Néanmoins, une simple valeur critique suffit à produire des infinis dans la modélisation. Tout le monde s’accorde à dire, me semble-t-il, que la présence d’un infini non réductible, d’une singularité essentielle, dans un modèle théorique ne démontre que l’insuffisance, l’inadaptation, de ce modèle au voisinage de cette valeur. A-t-on le droit d’en déduire pour autant qu’elle est inaccessible ?
On pourra me reprocher de toujours faire le parallèle avec l’hydrodynamique, mais si vous reprenez l’équation de Tchaplyguine du régime transsonique, il crève les yeux que, contexte mis à part, la vitesse du son est une valeur singulière de l’équation. A moins que je ne sois victime d’hallucinations visuelles et auditives, auquel cas, je serais loin d’être le seul, il me semble qu’on est pourtant bien parvenu à dépasser le mur du son…
Pourquoi donc ne parviendrions-nous pas à faire de même avec c ? Les tenants les plus acharnés de la version originale disent : « parce que ce n’est pas un fluide, c’est une propriété intrinsèque de l’espace et du temps ».
Ce quoi je réponds : certainement pas. Une fois de plus, on confond le cadre et ce qui se passe DANS ce cadre. La lumière, quelle que soit sa nature, c’est un ensemble de particules. Ces particules évoluent DANS l’espace. Elles n’ont RIEN A VOIR avec l’espace, ni même le temps. Il y a « l’espace », « le temps » et dedans, « la matière » et la « non matière ». La vitesse c est liée à la dynamique de la « non matière ».
C’est comme de dire que la gravité est une propriété de l’espace et du temps. Non. La gravité est un processus physique qui se déroule DANS le cadre, comme les autres. Le fait qu’elle agisse de la même manière sur tous les corps INCIDENTS (et encore, tant que l’équivalence entre masse inerte et masse pesante vaut) en fait, certes, une interaction particulière, mais pas une propriété de l’espace ni du temps pour autant. Si c’était le cas, elle n’aurait besoin d’aucune SOURCE pour être produite ! Or, il faut bien une masse pour produire un champ de gravité : pas de masse, pas de gravité…
C’est ce que je disais dans la bidouille 31 : ne pas se laisser abuser par les systèmes d’unités ! Ce n’est pas parce que les potentiels de gravité se laissent exprimer en m/s qu’on a affaire à une vraie vitesse ! Ce n’est pas de l’énergie de mouvement qui est produite par couplage, mais de l’énergie potentielle ! Or, seule l’énergie de mouvement entre dans le cadre du principe de Jacobi… reprenez l’équation d’Hamilton-Jacobi en présence de potentiels extérieurs : elle se ramène à la partie cinétique… Il est bien démontré, mathématiquement, en mécanique analytique, que la géométrie de Riemann est associée à la cinématique, tandis que les géométries non-Riemanniennes sont associées à la théorie du potentiel…
On peut inclure du potentiel dans un cadre Riemannien à condition de se ramener à du cinétique pur, ce que l’on fait en retirant à « l’impulsion généralisée » sa contribution potentielle… :)
Autre incohérence : ranger la gravité parmi les inerties, puis affirmer que, contrairement aux référentiels d’inertie qui ne tendent pas vers zéro à l’infini spatial, les référentiels « de gravité », eux, tendent vers zéro, comme tout champ physique bien sage qui se respecte… :)
Personnellement, je ne suis pas convaincu du tout que d’Alembert ait eu une bonne idée en introduisant cette notion « d’inertie » dans le seul but, à l’époque, de ramener la dynamique à la statique. C’est un peu comme identifier l’hyperboloïde à la pseudo-sphère… et je crains que ça n’ait mené à bon nombre de confusions.
Je prends une charge électrique q et un potentiel magnétique A, je divise qA par une masse m, j’obtiens des m/s… ai-je un champ de gravité pour autant et, a fortiori, une « pseudo-force d’inertie » ??? Alors, ce qui courberait la trajectoire des particules chargées dans les accélérateurs seraient des « pseudo-générateurs de pseudo-champs magnétiques inertiels » ?...
Actionnés par des « pseudo-physiciens », je suppose ? lol
Et si nous arrêtions plutôt les « PSEUDO-THEORIES » ?... :)
Et reprenions des modélisations théoriques qui se fondent sur des FAITS EXPERIMENTAUX plutôt que sur d’improbables « projections mentales » et autres « expériences de pensée » ?...
Ecoutez. J’écoute la météo tous les jours, sauf exceptions. Et je finis par dire autour de moi que je ne m’étonne plus que de plus en plus de gens rejettent le côté technique de la science dans le registre « inutilité pratique », parce que nous nous enfonçons dangereusement dans une société de PSEUDO-SCIENCES. Les « NOUVEAUX MAGES »… Du très grand n’importe quoi, affirmé dur comme fer. On n’est même pas foutu de vous prédire avec précision le temps qu’il fera demain qu’on ne craint pas de vous affirmer ce qu’il fera la semaine prochaine…
Et que dire des sciences du comportement, qui touchent directement au mental ? On voit pousser les « pseudo-psys » COMME DES CHAMPIGNONS. Les « psychothérapeutes », les « psychologues de médias », les « psychos » tout court…
Et les CONNERIES qu’ils vous sortent à longueurs de journées… les vessies qu’ils vous font prendre pour des lanternes… c’est franchement préoccupant.
Quant à la classe politique dirigeante qui fait appel aux Madame Irma…
Les grands économistes avec leurs « modèles de banqueroutes »… à vous rajouter des paramètres, tous ajustables… lol (proscrit en physique, dois-je le rappeler !)
Nous avons bâti une PSEUDO-SOCIETE dans laquelle ne sévissent plus que les PSEUDO-SCIENTIFIQUES de tous poils.
Mais qui nous mène dans un VRAI mur.
Une prédiction, par contre, qui s’avèrera à coup sûr, s’il est démontré expérimentalement que de la matière peut dépasser c, ainsi que des signaux :
LA FIN DE LA SOCIETE D’INFORMATION ET DE SURVEILLANCE ACTUELLE.
Ça, c’est certain.
Commentaires textes : Écrire
BIDOUILLE 32: RETOUR AUX NOMBRES COMPLEXES - ONDES EN DIM 3
Le 29/03/2013
Aujourd’hui, je vais parler des ondes. Ce sera l’occasion de revenir un peu plus en profondeur sur les nombres complexes, puisque toute onde, en dimension 3, se laisse mettre sous la forme :
- Phi(x+,x-) = A(x+,x-)exp[-iw(x+,x-)]
où A(x+,x-) est l’amplitude de l’onde, qui peut être un tenseur de rang quelconque et w(x+,x-) est sa phase, un scalaire réel (je ne considèrerai ici que les régimes oscillants – entretenus ; les ondes avec facteur d’amortissement s’y ramène, en modifiant l’amplitude de manière adéquate). Nous avons donc à reconsidérer les nombres complexes de la forme :
- z = x + iy
de manière à n’employer que des nombres réels. Rappelons, pour commencer, l’algèbre de base sur le corps C. Soient z = (x,y) et z’ = (x’,y’) deux nombres complexes écrits sous forme de paires de réels. On a :
- addition : z + z’ = (x+x’,y+y’)
- multiplication : zz’ = (xx’-yy’,xy’+x’y)
- multiplication par un réel a : az = (ax,ay)
- conjugaison complexe : z* = (x,-y)
- module : |z|² = zz* = x²+y² = (x²+y² , 0)
- inverse : 1/z = z*/|z|² = [x/(x²+y²),-y/(x²+y²)]
Reprenons l’orientation de l’espace due à la finitude de c et posons :
- x = x+ + x- , y = x+ - x- <=> x+ = ½(x+y) , x- = ½ (x-y)
Remplaçons dans les lois de composition (3) à (8), on obtient :
- z = (x++x-,x+-x-) = x+(1,1) + x-(1,-1)
- z* = (x++x-,-x++x-) = x+(1,-1) + x-(1,1)
On voit déjà que le passage au complexe conjugué équivaut formellement à la permutation des directions (+) et (-). Ensuite :
- z² = (x²-y²,2xy) = [4x+x-,2(x+²-x-²)] = 2(2x+x-,x+²-x-²)
la symétrie est criante, entre les variables (x,y) et les (x+,x-) : c’est comme si, cette fois, partie réelle et partie imaginaire étaient permutées (au facteur multiplicatif 2 près).
- zz’ = 2(x+x’- + x-x’+ , x+x’+ - x-x’-)
De nouveau, cette impression que parties réelle et imaginaire ont été permutées.
- az = ax+(1,1) + ax-(1,-1) = x+(a,a) + x-(a,-a) , a réel ;
- az* = ax+(1,-1) + ax-(1,1) = x+(a,-a) + x-(a,a)
- zz* = 2(x+2 + x-²) = 2(x+2 + x-² , 0)
- 1/z = [(x++x-)/2(x+2 + x-²) , -(x+-x-)/2(x+2 + x-²)] = [x+(1,-1) + x-(1,1)]/2(x+2 + x-²)
On voit bien qu’à la structure dédoublée déjà existante (x+,x-), il faut adjoindre une seconde structure double qui rende compte de l’appariement. Le complexe unité (1,1) vérifie :
- (1,1)* = (1,-1) , (1,1) + (1,-1) = (1,1)(1,-1) = (2,0) , (1,1) – (1,-1) = (1,1)² = (0,2)
On sent bien qu’il y a une histoire de matrice 2x2 derrière. En effet, on peut toujours écrire le nombre z comme le produit de (x+,x-) par la matrice Tab+ de composantes :
- T+++ = T+-+ = T-++ = -T--+ = +1 , det(Tab+) = -2 , Tr(Tab+) = 0
tandis que son conjugué z* est le produit de (x+,x-) par la matrice Tab- de composantes :
- T++- = T+-- = T--- = T’-+- = +1 , det(Tab-) = +2 , Tr(Tab-) = +2
La somme des deux matrices donne la matrice de composantes (2,2,0,0). Leur produit n’est pas commutatif :
- (T+T-)ab = 2hab = (0,2,2,0) , (T-T+) = (2,0,0,-2)
Par contre, on a les dualités suivantes :
- Tab+ = Tab- , Tab- = Tab+ , Tab+ = Tab- , Tab+ = Tab- , Tab+ = Tab-
C’est apparemment le fait de monter / descendre l’indice b qui s’accompagne d’un passage de la matrice T+ à la matrice T-, la position de l’indice a (1er indice) importe peu. En écriture synthétique, on a :
- Xac = Tabcxb
Tous les Xac sont à présent des réels. Les Xa+ sont les deux composantes de z et les Xa-, les deux composantes de z*.
ON A SUBSTITUé AU NOMBRE COMPLEXE z = x+iy ET A SON CONJUGUé z* = x-iy UNE MATRICE 2x2 Xac DE REELS.
IL N’Y A PLUS DE COMPLEXES.
Les propriétés de Xac sont :
- Tr(Xac) = 2x- = x-y , Tr(Xac) = 2x+ = x+y , det(Xac) = -2(x+²-x-+²) = -2xy
Appliquons tous ces résultats aux ondes. Le complexe (1) a pour partie réelle :
- Re[Phi(x+,x-)] = A(x+,x-)cos[w(x+,x-)]
et pour partie imaginaire :
- Im[Phi(x+,x-)] = -A(x+,x-)sin[w(x+,x-)]
En vertu de (9), il leur correspond des champs :
- Phi+(x+,x-) = ½ A(x+,x-){cos[w(x+,x-)] - sin[w(x+,x-)]} = 21/2A(x+,x-)cos[w(x+,x-) + pi/4]
- Phi-(x+,x-) = ½ A(x+,x-){cos[w(x+,x-)] + sin[w(x+,x-)]} = 21/2A(x+,x-)cos[w(x+,x-) - pi/4]
On utilise (23) et on trouve directement :
- Phiac(x+,x-) = TabcPhib(x+,x-)
On vient de remplacer le champ complexe Phi par la matrice 2x2 de champs réels Phiac. Les comportements oscillants sont donnés par (27-28). On ne peut pas se débarrasser des fonctions trigonométriques et c’est tant mieux d’ailleurs, mais on a remplacé la formule de de Moivre exp(iw) = cos(w)+isin(w) par des réels.
On constate deux choses : la première, que l'amplitude a été multipliée par racine de 2, donc amplifiée; la seconde, qu'il apparaît un décalage de phase en quadrature avant (pour Phi+) et arrière (pour Phi-).
Commentaires textes : Écrire