doclabidouille
Première page <<< … 31 32 33 34 35 [36] 37 38 39 40 41 … >>> Dernière page
/ 43
BIDOUILLE 39 : COMPLEMENTS SUR LES SIGNAUX QUANTIQUES
Le 29/05/2013
Notons tout d'abord que l'extension intégrale :
(1) f(x,l) = ID f(x',0)rhô[(x'-x)/l]dx' = IDs f(0,l')éta[(l'-l)/x]dl'
(formules 1 et 3 de ladite bidouille) s'applique aussi bien aux fonctions ordinaires f(x,0) qu'aux fonctions-densités ordinaires (et à leurs homologues spectraux), puisque f(x,l) n'est autre que le produit de convolution ordinaire de f(x,0) avec rhô (x/l) ou de f(0,l) avec éta(l/x). Bidouille 38, nous avons déjà vu un exemple d'extension du mouvement ordinaire x(t), fonction du temps, en le mouvement quantique X(t,ts), fonction de t et de ts, et un autre exemple d'extension de la densité de masse mu(x) en une densité quantique M(x,xs).
Considérons en particulier la distribution d(x) de Dirac : c'est l'unité des distributions. Mais lesquelles ? Manifestement, des distributions ordinaires. Car, si nous la convoluons avec rhô(x/l), nous obtenons :
(2) D(x,l) = ID d(x')rhô[(x'-x)/l]dx' = rhô(x/l)
PAR DUALITE SPECTRALE, L'EXTENSION INTEGRALE DE d(l) EST LE NOYAU INTEGRAL éta(l/x).
Qu'est-ce que cela signifie ? Ceci :
LA THEORIE QUANTIQUE DES DISTRIBUTIONS EN POSSEDE UNE DOUBLE INFINITE : A SAVOIR, TOUTES LES FONCTIONS-DENSITES rhô(x/l) ET LEURS RECIPROQUES éta(l/x) VERIFIANT LES PROPRIETES ETABLIES BIDOUILLE 37.
(3) ID f(x',0)d(x'-x)dx' = ID f(x'-x,0)d(x')dx' = f(x,0)
C'est la convolution de f(x,0) avec l'unité ordinaire d(x), qui redonne évidemment f(x,0). L'extension de ce produit est la convolution quantique de f(x,l) avec rhô(x/l) ou éta(x/l), qui redonne f(x,l) :
(4) IDIDs f(x',l')rhô[(x'-x)/(l'-l)]dx'dl' = IDIDs f(x'-x,l'-l)rhô(x'/l')dx'dl' = f(x,l)
(5) IDIDs f(x',l')éta[(l'-l)/(x'-x)]dx'dl' = IDIDs f(x'-x,l'-l)éta(l'/x')dx'dl' = f(x,l)
parce que, justement, rhô et éta sont des unités quantiques. On voit que :
Le prix à payer pour cette désingularisation est la double infinité d'unités. En combinant (4) et (1), on obtient les propriétés associatives suivantes des unités quantiques :
(6) IDIDs rhô[(x"-x')/l']rhô[(x'-x)/(l - l')]dx'dl' = rhô[(x"-x)/l]
(7) IDIDs éta[(l"-l')/x']éta[(l'-l)/(x - x')]dx'dl' = éta[(l"-l)/x]
qui impliquent :
(8) IDIDs rhô[(x"-x')/l']rhô[(x'-x)/l']dx'dl' = d(x"-x) pour l = 0 ;
(9) IDIDs rhô[(x"-x')/l']rhô[x'/(l - l')]dx'dl' = rhô(x"/l) pour x = 0 ;
(10) IDIDs éta[(l"-l')/x']éta[(l'-l)/x']dx'dl' = d(l"-l) pour x = 0 ;
(11) IDIDs éta[(l"-l')/x']éta[l'/(x - x')]dx'dl' = éta(l"/x) pour l = 0.
De la même manière, les formules (4) et (5) ci-dessus impliquent les formules importantes suivantes :
(12) f(x,0) = IDIDs f(x',l')rhô[(x'-x)/l']dx'dl' = IDIDs f(x'-x,l')rhô(x'/l')dx'dl'
(13) f(x,0) = IDIDs f(x',l')éta[l'/(x'-x)]dx'dl' = IDIDs f(x'-x,l')éta(l'/x')dx'dl'
(15) f(0,l) = IDIDs f(x',l')éta[(l'-l)/x']dx'dl' = IDIDs f(x',l'-l)éta(l'/x')dx'dl'
Avec celles établies bidouille 37, ce sont les seules formules intéressantes que l'on peut tirer de l'extension intégrale en toute généralité. On n'obtient aucune équation générale intéressante pour les extensions intégrales f(x,l) avec noyaux quelconques. En particulier, f(x,l) ne vérifie pas l'équation des noyaux. Il n'existe donc pas "d'équation quantique" générale. En physique quantique, rhô est la densité de probabilité de présence, carré de l'amplitude de la fonction d'onde, laquelle vérifie une EDP du second ordre type Klein-Gordon et généralisés. Cette "équation d'état" donne la forme du noyau rhô. A partir de cette forme, on peut (en principe, du moins) calculer les extensions f(x,l) d'un signal ordinaire f(x), en déduire son dual spectral f(0,l) et en dériver l'équation régissant f(x,l). Ainsi, même en microphysique, il existe un couple (rhô, éta) de noyaux pour chaque classe de phénomènes. Exit donc "la grande équation de la physique fondamentale". Tant mieux, en fin de compte, car ceci révèle la richesse du monde physique.
Revenons, pour finir cet article, sur la notion de mouvement quantique, bidouille 38. Si un mouvement ordinaire x(t) est en tn, le mouvement spectral associé sera en tsn, par simple conservation des unités de mesure. Ainsi, seuls les coefficients du mouvement changeront. Par contre, le mouvement quantique, lui, sera en :
(16) X(t,ts) ~ tnY(t/ts) ou bien tsnZ(ts/t)
Commentaires textes : Écrire
BIDOUILLE 38 : SUR LA SEPARATION CORPS ORGANIQUE - CORPS SPECTRAL
Le 12/05/2013
Nous allons maintenant passer à la décomposition canonique de tout processus quantique.
Afin d’économiser les symboles d’écriture, j’introduis une nouvelle notation, avec un indice « s » pour les grandeurs spectrales.
Commençons par la notion de « mouvement quantique ». C’est un double mouvement qui peut se modéliser sous la forme X(t,ts). Ici, t est le temps « ordinaire », ts est le temps « spectral », soit encore la période. Un simple développement en série de Taylor-Mac Laurin montre que X(t,ts) se laisse décomposer de la manière suivante :
- X(t,ts) = X(0,0) + X1(t,0) + X2(0,ts) + Xint(t,ts) = Sn>=0Sm>=0 Xnmtntsm/n!m!
- X1(t,0) = Sn>=1 Xn0tn/n! => X1(0,0) = 0
- X2(0,ts) = Sm>=1 X0mtsm/m! => X2(0,0) = 0
- Xint(t,ts) = X11tts + ½ X21t²ts + ½ X12tts² + ¼ X22t²ts² + t.Sm>=3 X1mtsm/m! + ts.Sn>=3 Xn1tn/n! + ½ t².Sm>=3 X2mtsm/m! + ½ ts².Sn>=3 Xn2tn/n! + Sn>=3Sm>=3 Xnmtntsm/n!m!
- Xint(0,ts) = 0 pour tout ts , Xint(t,0) = 0 pour tout t
(S = somme discrète) J’ai décomposé la partie interactive en vue du calcul des composantes de vitesses et d’accélérations. Conséquences immédiates :
- X(t,0) = X(0,0) + X1(t,0) = x(t)
- X(0,ts) = X(0,0) + X2(0,ts) = xs(ts)
Le mouvement quantique est donc superposition d’une position initiale, d’un mouvement « classique » x(t) (signal ordinaire), d’un mouvement spectral xs(ts) [spectre de x(t)] et d’un entrelacement de ces deux mouvements [Xint(t,ts)] :
- X(t,ts) = -X(0,0) + x(t) + xs(ts) + Xint(t,ts)
La décomposition est canonique : X1(t,0) [resp. X2(0,ts)] ne contient que de puissances de t (resp. ts) d’ordre >= 1, Xint(t,ts) contient comme plus bas terme tts.
Ce mouvement étant double, il s’effectue évidemment à deux vitesses :
- V1(t,ts) = ðX(t,ts)/ðt = dx(t)/dt + ðXint(t,ts)/ðt = v(t) + ðXint(t,ts)/ðt = v(t) + X11ts + X21tts + ½ X12ts² + ½ X22tts² + Sm>=3 X1mtsm/m! + ts.Sn>=3 Xn1tn-1/(n-1)! + t.Sm>=3 X2mtsm/m! + ½ ts².Sn>=3 Xn2tn-1/(n-1)! + Sn>=3Sm>=3 Xnmtn-1tsm/(n-1)!m!
d’où l’on déduit :
- V1(0,0) = v(0)
- V1(t,0) = v(t)
- V1(0,ts) = v(0) + X11ts + ½ X12ts² + Sm>=3 X1mtsm/m! = v(0) + Sm>=1 X1mtsm/m!
- V1,int(t,ts) = X21tts + ½ X22tts² + ts.Sn>=3 Xn1tn-1/(n-1)! + t.Sm>=3 X2mtsm/m! + ½ ts².Sn>=3 Xn2tn-1/(n-1)! + Sn>=3Sm>=3 Xnmtn-1tsm/(n-1)!m!
puis :
- V2(t,ts) = ðX(t,ts)/ðts = dxs(ts)/dts + ðXint(t,ts)/ðts = vgr(ts) + X11t + ½ X21t² + X12tts + ½ X22t²ts + t.Sm>=3 X1mtsm-1/(m-1)! + Sn>=3 Xn1tn/n! + ½ t².Sm>=3 X2mtsm-1/(m-1)! + ts.Sn>=3 Xn2tn/n! + Sn>=3Sm>=3 Xnmtntsm-1/n!(m-1)!
- V2(0,0) = vgr(0)
- V2(0,ts) = vgr(ts)
- V2(t,0) = vgr(0) + X11t + ½ X21t² + Sn>=3 Xn1tn/n! = vgr(0) + Sn>=1 Xn1tn/n!
- V2,int(t,ts) = X12tts + ½ X22t²ts + t.Sm>=3 X1mtsm-1/(m-1)! + ½ t².Sm>=3 X2mtsm-1/(m-1)! + ts.Sn>=3 Xn2tn/n! + Sn>=3Sm>=3 Xnmtntsm-1/n!(m-1)!
La vitesse V1 conjugue la vitesse « mécanique » v(t), ordinaire, avec une vitesse « d’entrelacement » vis-à-vis du temps ordinaire (dérivée partielle par rapport à t). La vitesse V2 conjugue la vitesse de groupe vgr(ts) avec une vitesse « d’entrelacement » vis-à-vis du temps spectral (dérivée partielle par rapport à ts). Résultat : comme vgr(ts) est la duale spectrale de v(t),
V2(0,ts) = spectre de V1(t,0) , V1(0,ts) = spectre de V2(t,0)
Par ailleurs, nous voyons que V1(0,ts) est la superposition de la vitesse mécanique initiale v(0) et d’un mouvement accéléré dans l’espace spectral, tandis que V2(t,0) est la superposition de la vitesse de groupe initiale vgr(0) et d’un mouvement accéléré dans l’espace ordinaire.
Voyons les accélérations. Il y en a 3 :
- A11(t,ts) = ðV1(t,ts)/ðt = a(t) + X21ts + ½ X22ts² + ts.Sn>=3 Xn1tn-2/(n-2)! + Sm>=3 X2mtsm/m! + ½ ts².Sn>=3 Xn2tn-2/(n-2)! + Sn>=3Sm>=3 Xnmtn-2tsm/(n-2)!m!
- A11(0,0) = [dv(t)/dt]t=0 = a(0)
- A11(t,0) = dv(t)/dt = a(t)
- A11(0,ts) = a(0) + X21ts + ½ X22ts² + Sm>=3 X2mtsm/m! = a(0) + Sm>=1 X2mtsm/m!
- A11,int(t,ts) = ts.Sn>=3 Xn1tn-2/(n-2)! + ½ ts².Sn>=3 Xn2tn-2/(n-2)! + Sn>=3Sm>=3 Xnmtn-2tsm/(n-2)!m!
- A12(t,ts) = A21(t,ts) = ðV1(t,ts)/ðts = ðV2(t,ts)/ðt = ð²X(t,ts)/ðtðts = X11 + X21t + X12ts + X22tts + Sm>=3 X1mtsm-1/(m-1)! + Sn>=3 Xn1tn-1/(n-1)! + t.Sm>=3 X2mtsm-1/(m-1)! + ts.Sn>=3 Xn2tn-1/(n-1)! + Sn>=3Sm>=3 Xnmtn-1tsm-1/(n-1)!(m-1)!
- A12(0,0) = X11
- A12(t,0) = X11 + X21t + Sn>=3 Xn1tn-1/(n-1)! = X11 + Sn>=2 Xn1tn-1/(n-1)!
- A12(0,ts) = X11 + X12ts + Sm>=3 X1mtsm-1/(m-1)! = X11 + Sm>=2 X1mtsm-1/(m-1)!
- A12,int(t,ts) = X22tts + t.Sm>=3 X2mtsm-1/(m-1)! + ts.Sn>=3 Xn2tn-1/(n-1)! + Sn>=3Sm>=3 Xnmtn-1tsm-1/(n-1)!(m-1)!
- A22(t,ts) = ðV2(t,ts)/ðts = agr(ts) + X12t + ½ X22t² + t.Sm>=3 X1mtsm-2/(m-2)! + ½ t².Sm>=3 X2mtsm-2/(m-2)! + Sn>=3 Xn2tn/n! + Sn>=3Sm>=3 Xnmtntsm-2/n!(m-2)!
- A22(0,0) = agr(0)
- A22(0,ts) = agr(ts)
- A22(t,0) = agr(0) + X12t + ½ X22t² + Sn>=3 Xn2tn/n! = agr(0) + Sn>=1 Xn2tn/n!
- A22,int(t,ts) = t.Sm>=3 X1mtsm-2/(m-2)! + ½ t².Sm>=3 X2mtsm-2/(m-2)! + Sn>=3Sm>=3 Xnmtntsm-2/n!(m-2)!
L’énumération paraît un peu rébarbative, mais elle nous apprend beaucoup de choses. Parce que cette décomposition canonique n’est bien sûr pas limitée au mouvement, elle concerne toutes les fonctions, distributions et même fonctionnelles. Tout dépend de l’espace de travail dans lequel on se place.
Au lieu d’une position x(t) dans l’espace, je considère une masse ordinaire m(t) : c’est un signal temporel. Moyennant des lois de distribution temporelles réciproques rhôt(t/ts) et état(ts/t), je peux construire la masse quantique correspondante, soit M(t,ts). Cette dernière se laissera décomposer canoniquement en :
- M(t,ts) = -M(0,0) + m(t) + ms(ts) + Mint(t,ts)
- M(t,0) = m(t) = masse ordinaire
- M(0,ts) = ms(ts) = masse spectrale
- M(0,0) = m(0) = ms(0) = coïncidence des masses en (0,0)
où Mint(t,ts) est une masse résultant de l’entrelacement de m(t) et de ms(ts).
Si je me place dans un espace de fonctions sur E3 ou M, je raisonnerai avec des champs f(x) en place des positions x(t). Moyennant des lois de distribution réciproques rhôx(x/xs) et étax(xs/x), je construirai mon champ quantique correspondant F(x,xs), qui se décomposera canoniquement en :
- F(x,xs) = -F(0,0) + f(x) + fs(xs) + Fint(x,xs)
avec des notations désormais évidentes. Exemple : une densité de masse mu(x), qui donne une densité de masse quantique,
- MU(x,xs) = -MU(0,0) + mu(x) + mus(xs) + MUint(x,xs)
On a bien une densité de masse spectrale mus(xs), qui atteste d’une répartition de « matière spectrale » dans l’espace spectral et qui n’est autre que le spectre de mu(x). Ici, on a supposé la régularité de MU au point origine (0,0), ce qui paraît a priori censé, s’agissant de champs quantiques (qui doivent, en principe, gommer les singularités des champs « classiques »).
Je peux même définir les notions de volume quantique et de volume spectral, essentielles pour établir l’existence de corps physiques. Rien qu’en dimension spatiale 1, j’ai, par construction même :
- xs = Ix xrhôx(x/xs)dx , x = Ixs xsétax(xs/x)dxs
Donc, à une longueur x dans E1 correspondra une longueur spectrale xs dans Es1 = Spec(E1) et réciproquement. En dimension 3, c’est exactement pareil : à un volume V3 dans E3 correspondra un volume spectral Vs3 dans Es3 = Spec(E3) et réciproquement. En général, ces deux volumes n’auront évidemment aucune raison d’avoir la même taille. Par contre, une sphère donnera une sphère.
On remarquera enfin que la composante d’interaction s’annule automatiquement dès que l’une au moins des deux variables s’annule. ça veut dire que le découplage devient systématique.
Par ailleurs, si f(x) s’annule à partir d’une certaine valeur de x, cela n’entraîne nullement l’annulation de son spectre fs(xs), puisque ce dernier s’obtient par intégration, donc sommation de toutes les valeurs de f précédent la valeur qui annule cette fonction.
Cela répond à bon nombre de nos questions sur la décorporation dans les EMIs : en neurobiologie, les fonctions sont les tensions de sortie U(x,t) avec x dans le volume de l’organisme. Je peux désormais étendre U(x,t) en un champ quantique U(x,t,xs,ts) et en tirer le champ spectral U(0,0,xs,ts) = Us(xs,ts). Aux températures corporelles internes T > Tc, j’ai un entrelacement quantique entre U(x,t) et Us(xs,ts) qui me conditionne la dynamique de ma pensée, non seulement en fonction d’elle-même, mais aussi d’après l’état spectral (et réciproquement) ; a 0 =< T =< Tc, cet entrelacement disparaît de lui-même, parce qu’alors, U(x,t) = 0 et globalement en plus ! Que reste-t-il ? Un spectre d’organisme, un organisme spectral, qui aura accumulé l’ensemble des informations acquises via l’entrelacement et qui se détachera de la composante biologique sans aucune intervention extérieure. Les mouvements des deux organismes deviendront complètement indépendants : l’organisme biologique pourra donc rester immobile, faute de toute activité, et l’organisme spectral se déplacer.
En ce qui concerne l'information, le signal biologique reste, mais découplé de son spectre.
L’erreur de raisonnement que j’ai commise dans ma « bioquantique » fut d’attribuer le rôle des phénomènes parapsychiques aux fonctions d’onde (ou à leurs amplitudes). Non : les champs quantiques sont des objets physiques de transition, qui permettent de passer d’une composante biologique à son homologue spectrale et réciproquement. Ce ne sont pas les composants de la matière ni des processus « paranormaux ». Les réponses se trouvent dans les spectres, dans les espaces spectraux.
Si vous recherchez un niveau de tension électrochimique en coma dépassé dans l’espace physique, vous ne trouverez plus rien.
Si vous recherchez son homologue spectral dans le dual spectral de l’espace physique, il se peut que vous trouviez quelque chose.
Si ce « quelque chose » est toujours dans le secteur, naturellement… :)
Commentaires textes : Écrire
BIDOUILLE 37 : SIGNAUX ORDINAIRES, SPECTRAUX, QUANTIQUES
Le 10/05/2013
J’ai désormais acquis la conviction que la neurobiologie ne pouvait plus me permettre d’aller plus loin dans le décorticage des EMIs, pour la raison principale que, contrairement aux machines, le système nerveux et sa composante centrale en particulier, ne sont dotés d’aucune configuration statique et d’aucun circuit dédié. Même les aires sensorielles sont foncièrement dynamiques. Cette absence de sous-structures rend impossible une organisation hiérarchisée nécessaire à la constitution d’un organisme, qu’il soit matériel ou non. Et ceci est d’autant plus vrai dans la formation des concepts, objets mentaux typiquement distribués. J’ai donc dû me rendre à l’évidence qu’aussi puissantes soient-elles, les neurosciences ne concernaient vraiment que les processus purement biologiques et leurs conséquences directes, les comportements mentaux. Je rejoins donc les neurobiologistes, qui affirment que la psychologie et toutes les sciences du comportement ont bel et bien des origines purement biologiques. Ces origines, on les trouve dans le fonctionnement du neurone et des assemblées de neurones.
Pour tout ce qui concerne le PARA-psychologique, il faut chercher les origines ailleurs. Dans quelque chose DE PLUS.
Et ce « quelque chose de plus », on ne voit pas bien ce que cela pourrait être d’autre que le SPECTRAL.
Je suis donc revenu beaucoup plus en détail que je ne l’avais fait jusqu’ici sur la structure de ces transformations. J’ai non seulement compris beaucoup de choses qui m’avaient échappées, mais j’ai retrouvé un lien direct avec la théorie quantique. Sans tourner en boucle, comme je pourrais en donner l’impression, ce que la présente bidouille infirmera, je ne disais finalement pas que des bêtises dans ma « bioquantique ». Avec des différences notables, toutefois, que nous allons voir ci-dessous.
Comme souvent, nous allons raisonner en dimension 1, pour ne pas compliquer inutilement les écritures. L’idée de base est la suivante : SI (je dis bien : si) phénomènes « para » psychologiques il doit y avoir, il est peu crédible qu’on puisse en fournir une quelconque explication sur la base de structures mentales, pour les raisons invoquées ci-dessus. Par contre, il y aurait FORCEMENT une corrélation étroite entre ces structures mentales et des structures « PSI ». L’idée est donc de se dire : admettons (pure hypothèse de travail à valider) qu’à toute structure biologique soit associée une structure SPECTRALE de même complexité. Alors, nous aurons résolu le problème de l’organisation. Parce qu’à un organisme biologique, on pourra associer un organisme spectral.
Je mentionnais déjà dans ma thèse sur la réunion du biologique et du quantique que les fonctions d’onde des constituants d’un système se couplaient les unes aux autres pour donner des structures ondulatoires de plus en plus complexes. C’est la physique elle-même qui le montre : les nucléons (protons et neutrons) apportent chacun leur fonction d’onde individuelle et ces fonctions d’onde se combinent pour former LA fonction d’onde du noyau atomique ; celle-ci s’associe ensuite avec les fonctions d’onde des électrons pour former LA fonction d’onde de l’atome ; les atomes se lient chimiquement entre eux et donnent des fonctions d’onde moléculaires ; qui s’associent à leur tour pour donner des fonctions d’onde macro-moléculaires ; quand ces macromolécules se replient sur elles-mêmes, elles donnent des fonctions d’onde enzymatiques et protéiques ; lesquelles donnent des fonctions d’onde cellulaires ; puis proto-tissulaires, tissulaires, organiques. A chaque assemblage, le niveau de complexité de la fonction d’onde de l’ensemble suit celui du substrat matériel.
Mais les choses, qui sont déjà franchement compliquées, ne sont pas encore aussi « simples ». Pour s’y retrouver, il est absolument nécessaire de classer correctement les êtres mathématiques en présence, qui sont autant de modélisations de processus physiques.
Suivant Gasquet et Witomski, rappelons que la notion physique de signal est très vaste et qu’elle correspond à la nation mathématique de fonction et même mieux, de distribution, qui en est une modélisation. Cela sous-entend que, non seulement tout processus, mais tout objet physique, étant modélisable par une fonction ou une distribution, représente déjà, en soi, un signal. Un mouvement x(t) est un signal (temporel) ; une masse m(t) est un signal ; etc. En fait, tout ce qui est variable est un signal. Néanmoins, même des quantités constantes peuvent être ramenées à des signaux. Par exemple, si une masse m est constante, on peut toujours l’écrire sous la forme m(t) = mY(t), où Y(.) est l’échelon unité d’Heaviside.
Ce point est crucial, car il nous permet d’apporter les réponses à toutes nos questions.
On distinguera, en effet, trois types de signaux physiques : les signaux « ordinaires » (« originaux » ou encore « classiques »), qui se déroulent dans l’espace physique E3 ou M ; les signaux « spectraux », qui se déroulent dans le dual spectral du précédent, qui lui est d’ailleurs isomorphe ; et les signaux « quantiques », qui mélangent les deux aspects et permettent ainsi de passer de l’un de ces aspects à l’autre.
Voyons tout cela.
Considérons pour commencer une variable réelle x et une fonction f(x,0) que nous supposerons également à valeurs réelles (de toute façon, nous avons vu, bidouille 32, comment ramener tout objet complexe à une paire d’objets réels). Cette fonction f(x,0) modélise un signal « ordinaire ». Pour être en mesure d’étendre f(x,0) en une fonction f(x,l), il faut nous donner une loi de distribution rhô(x/l) qui dépend de x et de l. C’est cette loi qui nous permettra de réaliser la transition de l’ordinaire vers le spectral. rhô(x/l) est un exemple de distribution quantique. Chez QED, par exemple, ce sera le carré de l’amplitude de la « fonction d’onde », c’est-à-dire, du champ de particules électriquement chargées. Mais, tout comme le concept d’entropie va bien au-delà de la thermodynamique, le concept de loi de distribution va bien au-delà du domaine de la microphysique.
Connaissant f(x,0) et rhô(x/l), nous pouvons construire l’extension intégrale de f(x,0) comme la superposition linéaire :
- f(x,l) = ID f(x’,0)rhô[(x’-x)/l]dx’ , rhô(x/l) = Kexp[-a(x/l)]/l
où D est un intervalle de R tel que l’expression ci-dessus soit sommable et que :
- ID rhô(x/l)dx = 1
K est une constante de normalisation et a(.) une fonction positive ou nulle. Dans cette représentation-là, x est la variable et l le paramètre. Mais il est tout aussi possible de construire la même extension intégrale dans la représentation duale suivante :
- f(x,l) = IDs f(0,l’)éta[(l’-l)/x]dl’ , éta(l/x) = K’exp[-b(l/x)]/x
- IDs éta (l/x)dl = 1
où Ds est le dual spectral de D (un autre intervalle de R), éta(.) une autre loi de distribution, utilisant cette fois l pour variable et x pour paramètre (on permute les rôles), b >=0 et f(0,l) une fonction liée à f(x,0) par dualité et qui, comme nous allons le voir ci-après, n’est autre que le spectre de f(x,0) (c’est donc un signal spectral).
Les autres propriétés de rhô et de éta sont :
- Liml->0 rhô(x/l) = d(x) , Limx->0 éta(l/x) = d(l)
- Liml->oo rhô(x/l) = Limx->oo éta(l/x) = 0
On montre facilement qu’elles sont solutions de la même équation fonctionnelle et ce, quelques soient les fonctions a et b :
- (xð/ðx + lð/ðl + Id)(rhô , éta) = 0
Cette équation fort générale est d’ailleurs symétrique sous la permutation de x et de l. C’est aussi, par voie de conséquence, l’équation vérifiée par toute extension intégrale f(x,l). Ensuite,
- f(0,l) = ID f(x’,0)rhô(x’/l)dx’ = IDs f(0,l’)d(l’-l)dl’ = spectre de f(x,0)
- f(x,0) = IDf(x’,0)d(x’-x)dx’ = IDs f(0,l’)éta(l’/x)dl’ = original de f(0,l)
En associant cela avec (1) et (3), on trouve :
f(x,l) = ID {IDs f(0,l’)éta(l’/x’)dl’}rhô[(x’-x)/l]dx’
= IDs {ID f(x’,0)rhô(x’/l’)dx’}éta[(l’-l)/x]dl’
= IDIDs f(0,l’)éta(l’/x’)rhô[(x’-x)/l]dl’dx’
= IDsID f(x’,0)rhô(x’/l’)éta[(l’-l)/x]dx’dl’
= ID f(x’,0)rhô[(x’-x)/l]dx’
= IDs f(0,l’)éta[(l’-l)/x]dl’
C’est-à-dire :
- IDs rhô(x’/l’)éta[(l’-l)/x]dl’ = rhô[(x’-x)/l]
- ID éta(l’/x’)rhô[(x’-x)/l]dx’ = éta[(l’-l)/x]
Ceci montre que les deux distributions sont à leur tour liées, ce à quoi on était en droit de s’attendre. En particulier pour l = 0 et pour x = 0 :
- IDs rhô(x’/l’)éta(l’/x)dl’ = d(x’-x)
- ID éta(l’/x’)rhô(x’/l)dx’ = d(l’-l)
Les autres relations qu’on peut déduire de (10) et de (11) se réduisent à des identités fonctionnelles. Ces relations (12) et (13) montrent clairement que rhô et éta, contrairement aux apparences, sont bel et bien inverses l’une de l’autre (et pas seulement dans leurs arguments). En résumé :
f(x,0) MODELISE UN SIGNAL ORDINAIRE (= DANS L’ESPACE PHYSIQUE).
f(0,l) MODELISE UN SIGNAL SPECTRAL, SPECTRE DE f(x,0).
f(x,l) MODELISE UN SIGNAL QUANTIQUE.
TOUT SIGNAL SPECTRAL EST UN SIGNAL ORDINAIRE DANS LE DUAL SPECTRAL DE L’ESPACE PHYSIQUE.
LE DUAL D’UN DUAL REDONNANT L’ORIGINAL, TOUT SIGNAL ORDINAIRE EST LE DUAL SPECTRAL D’UN SIGNAL SPECTRAL.
La bidouille suivante sera dédiée à la décomposition canonique de ces signaux quantiques, avec des applications à notre propos.
Rétablissant les unités physiques, nous constatons immédiatement que :
LE PASSAGE DE L’ORDINAIRE AU SPECTRAL ET RECIPROQUEMENT
CONSERVE LES UNITES PHYSIQUES.
puisque rhô et éta s’expriment ici en m-1.
Commentaires textes : Écrire
BIDOUILLE 36 : RETOUR, PLUS EN DETAIL, SUR LA "FONCTION NEURONE"
Le 04/05/2013
Je réécris complètement les bidouilles 36 à 38. Il y aura donc du changement à venir dans l'affichage. Il est difficile d’extrapoler, comme je l’ai fait. Je vais plutôt revenir en détail sur la FONCTION NEURONE, parce qu’il me semble que c’est elle qui est au centre (ou à la base, comme on voudra) de tout le reste.
On considère donc un neurone situé en x dans le volume 3D V occupé par le système nerveux. Ce neurone présente un total de N(x) entrées, dont NE(x) issues de neurones excitateurs (type E) et NI(x) issues de neurones inhibiteurs (type I). Evidemment :
- N(x) = NE(x) + NI(x)
A l’instant t >= 0, certaines seulement de ces entrées seront actives, les autres étant silencieuses. Seules les entrées actives vont contribuer à la fonction neuronale. Soient donc NE(x,t) et NI(x,t), le nombre d’entrées actives à t, respectivement de type E et de type I. Il est tout aussi évident qu’on aura toujours :
- 0 =< NE(x,t) =< NE(x) , 0 =< NI(x,t) =< NI(x) => 0 =< N(x,t) =< N(x) pour tout t.
Mais une première distinction se présente déjà : que faut-il entendre par « entrées actives » dans les neurones à synapses chimiques ? Naturellement, celles qui entrent effectivement dans le soma du neurone récepteur. Or, le transfert synaptique n’est pas systématique. Un signal amont peut arriver à la membrane pré-synaptique et ne pas être diffusé à travers la fente. Dans ce cas, le résultat au niveau du récepteur post-synaptique sera zéro, comme si le neurone amont était silencieux. En conséquence, NE(x,t) comme NI(x,t) restent en réalité inférieures ou égales au nombre total de neurones amont actifs, excitateurs comme inhibiteurs.
Notons Umem, Useuil et U les tensions de membrane, de seuil de déclenchement de l’influx nerveux et de sortie, respectivement. Il s’agit de paramètres caractéristiques de la cellule nerveuse. Si le neurone est de type E, nous noterons +|U| sa tension de sortie, -|U| s’il est de type I. Il y a essentiellement deux modes de fonctionnement possibles : le mode « évoqué » et le mode « spontané ».
Le mode évoqué répond à des entrées actives. Puisque nous en dénombrons NE(x,t) excitatrices et NI(x,t) inhibitrices à t (au niveau post-synaptique, donc), La tension d’entrée à t dans le soma du neurone x sera :
- Uin(x,t) = +|Usyn|[NE(x,t) – NI(x,t)] , |Usyn| = 2|U|/15 (environ) = tension synaptique
puisque, dans l’ensemble du système nerveux, on peut considérer, au moins en moyenne statistique, qu’aux fluctuations près, qui restent petites, les paramètres Umem, Useuil et U restent sensiblement les mêmes pour tous les neurones, au signe près.
Cette tension d’entrée (signée) vient s’ajouter à la tension de membrane, puis le total est comparé à la tension de seuil. La fonction ou, plus exactement, la distribution, qui décrit assez adéquatement le calcul réalisé par le soma est la distribution d’Heaviside Y(.). La tension de sortie en mode évoqué du neurone x à l’instant t peut donc être modélisée de la façon suivante :
- Uout(évoq)(x,t) = U.Y[Uin(x,t) + Umem – Useuil]
avec U = +|U| si le neurone x est de type E, -|U| s’il est de type I. Lorsque Uin(x,t) + Umem < Useuil, on a bien Uout(évoq)(x,t) = 0 : en mode évoqué, le neurone x reste silencieux à t.
(NB 1 : les neurones étant considérés comme ponctuels à cette échelle de description, le temps de calcul dans le soma et de déclenchement est négligé devant t, de sorte que le résultat est considéré comme quasi-instantané – l’ouverture des canaux Na+ est rapide, échelle ms)
Au contraire, lorsque Uin(x,t) + Umem >= Useuil, Y(.) renvoie l’unité et on a bien Uout(évoq)(x,t) = U.
Le mode spontané répond, en principe, à une activité intrinsèque à la cellule nerveuse, donc à des entrées toutes inactives. Dans ce mode, on peut donc poser Uin(x,t) = 0. Par contre, la tension de membrane ne peut plus être considérée comme constante, puisque c’est son amplitude qui se met à varier (cycle K+-Ca2+, lent, échelle s). Nous pouvons modéliser la tension de sortie par :
- Uout(spont)(x,t) = U.Y[Umem(x,t) – Useuil]
où Umem(x,t), x fixé, varie au cours du temps. De nouveau, si Umem(x,t) < Useuil, le neurone reste silencieux ; mais si Umem(x,t) >= Useuil, une impulsion peut partir : car, là encore, le déclenchement de l’influx nerveux n’est pas toujours systématique.
Il est possible de combiner les deux modes, bien qu’ils soient manifestement exclusifs l’un de l’autre : si x est activé en entrée, il n’entrera pas en même temps en oscillation et, s’il entre en oscillation, c’est parce qu’il ne reçoit rien en entrée. La combinaison des deux s’obtient, une fois de plus, grâce à Y(.) :
- Uout(x,t) = Y[N(x,t) – 1]Uout(évoq)(x,t) + {1 - Y[N(x,t) – 1]}Uout(spont)(x,t)
Vérifiez : puisque N(x,t) est un entier naturel, N(x,t) = 0 donne bien le mode spontanée, puisqu’alors Y[N(x,t) – 1] = Y(-1) = 0, tandis que N(x,t) >= 1 donne bien le mode évoqué, puisqu’alors Y[N(x,t) – 1] = 1. Mais on ne peut avoir les deux à la fois.
Il nous reste à introduire la température T. Parce que le fonctionnement de la membrane y est sensible. Alors, là, j’avoue que j’y suis allé « à l’arrache », en utilisant encore une Heaviside :
- Uout(x,t,T) = Uout(x,t)Y(T – Tc)
Pour T >= Tc, on a bien Uout(x,t,T) = Uout(x,t), fonctionnement normal, évoqué, spontané ou silencieux, mais temporaire ; pour T < Tc, Uout(x,t,T) = 0 : le neurone est bloqué.
Je dis que j’y suis allé un peu « à l’arrache », parce que ce blocage devient immédiatement effectif partout et tout le temps, jusqu’à ce que la température remonte. C’est manifestement le cas dans un graphe neuronal, qui baigne dans un milieu biologique à la température T. Il n’en reste pas moins que la distribution Y(.) prend parfois des allures assez « schématiques ».
Quand on va passer du neurone x à un neurone y connecté à x, la tension de sortie de x, (7), va se retrouver en pré-synaptique au voisinage immédiat de y et sera donc susceptible d’entrer dans la composition de Uin(y,t + |x-y|/cI), tension d’entrée du neurone y à l’instant postérieur t + |x-y|/cI, puisqu’il faut tenir compte du délai de propagation du signal provenant de x, cI étant la vitesse (constante) de propagation de l’influx nerveux. Seulement, ça perd un peu tout son intérêt, d’étudier la propagation, parce que le processus n’est plus causal :
LA TRANSMISSION DU SIGNAL NERVEUX A TRAVERS LA FENTE SYNAPTIQUE N’ETANT PAS TOUJOURS SYSTEMATIQUE, IL N’Y A PLUS DE RELATION DIRECTE DE CAUSE A EFFET ENTRE LE SIGNAL AMONT ET LA REPONSE DE LA SYNAPSE.
Les équations de fonctionnement établies ci-dessus modélisent des observations à l’instant même où les entrées arrivent bien au soma du neurone x. On se borne à constater ce qui arrive à cet instant précis et c’est la raison pour laquelle ces équations sont déterministes.
Si, au contraire, on veut établir un catalogue de prévisions, c'est-à-dire, si l’on anticipe sur les événements qui se produiront effectivement, alors il faut introduire des probabilités et là, en effet, les processus deviennent bayésiens. Néanmoins, comme je l’ai déjà dit par ailleurs, il serait néfaste de pondérer des niveaux de tensions par des probabilités de transmission, car cela équivaudrait physiquement à considérer des « morceaux de signaux ». Or, les signaux sont transmis en intégralité ou ne sont pas transmis. Il n’y a pas de « bout de signal » qui est transmis et « le reste » qui reste en arrière. Il vaut donc bien mieux associer des probabilités aux processus.
Par exemple, en entrée, l’entrée « 1 » sera affectée de la probabilité de transmission p1(x,t), l’entrée « 2 » de p2(x,t),… jusqu’à pN(x,t)(x,t). Etant donné que toutes ces entrées actives à t convergent vers le même soma x, la proba d’entrée est conjointe et sera donc le produit de ces N(x,t) probas :
- pin(x,t) = p1(x,t)p2(x,t)…pN(x,t)(x,t)
Nous dirons que la tension d’entrée du neurone en x sera prévue à l’instant t à la valeur (déterministe !) Uin(x,t) avec la probabilité pin(x,t).
Au lieu de dire : « je pondère chaque tension en entrée avec sa proba de transmission, je somme, je compare… », ce qui est d’ailleurs faux.
Soit nous effectuons l’observation et la mesure à l’instant même où les événements se produisent et nous sommes déterministes, soit nous réalisons des prédictions à l’avance sur ce qui va être susceptible de se produire à tel instant, et nous devons affecter nos prévisions de mesures de probabilités, mais séparément des mécanismes qui, eux, restent déterministes.
Le neurone ne fonctionne pas « au petit bonheur des choses », sa fonction est toujours la même. Ce sont les valeurs des entrées (en mode évoqué) ou de la sortie (en mode oscillatoire) qu’on ne peut déterminer à l’avance avec exactitude. Mais la fonction neuronale reste déterministe…
On s’attend donc à ce que, si Uin(x,t) est attendue à t avec la proba pin(x,t), la fonction (4) soit réalisée avec la même probabilité, de sorte que la proba pout(évoq)(x,t) de sortie de Uout(évoq)(x,t) soit la même que pin(x,t).
De même, si Umem(x,t) est attendue > Useuil à t avec proba pmem(x,t), Uout(spont)(x,t) sera attendue avec la même probabilité : pout(spont)(x,t) = pmem(x,t).
Quant à la combinaison (6) des deux, étant exclusifs l’un de l’autre, la proba d’entrée sera la somme des probas d’entrée de chaque mode, pin(x,t) + pmem(x,t) et la proba de sortie, idem, puisque toutes les Y(.) sont déterministes : pout(x,t) = pout(évoq)(x,t) + pout(spont)(x,t) = pin(x,t) + pmem(x,t).
On se demande donc franchement l’intérêt d’étudier une propagation de signaux nerveux à travers un graphe électrochimique, quand un neurone peut recevoir ou pas des influx amont pourtant bien transmis le long de l’axone et quand il peut produire son propre influx en l’absence de toute entrée… Même le renforcement synaptique, qui augmente la probabilité de transfert et qui reste la meilleure solution, ne rétablira pas toute la causalité.
Je comprends bien que le neurobiologiste s’intéresse à ces questions de propagation et, surtout, d’améliorations de ces propagations, en relation avec la capacité mémoire mais, pour le physicien, si on n’est pas causal, autant raisonner en termes de distributions, en faisant varier x, ce qui fait passer d’un neurone à un autre, plutôt que de rechercher d’illusoires relations de causalité entre neurones interconnectés.
Si je fais varier x et si je considère même l’ensemble des points x du volume V, ma tension de sortie (6) devient une distribution s’étendant sur l’ensemble des neurones du système nerveux. Mais on le voit sur les formules (4) à (7) incluse, la fonction neurone cumule l’addition (signée) des tensions en entrée et la comparaison avec la tension de seuil, mais nulle part ne fait intervenir directement, ni la position x du neurone considéré, ni l’instant t auquel sont effectuées les mesures. Les variables de la fonction neurone se ramènent en fait aux NE(x,t) et aux NI(x,t) qui deviennent eux-mêmes des distributions (d’entiers naturels) lorsque x et t varient :
POUR UN NEURONE PARTICULIER SITUé EN x, LES VARIABLES DE LA FONCTION NEURONE SONT LES ENTIERS NATURELS NE(x,t) ET NI(x,t), DONT LES VALEURS VARIENT SUIVANT t ET POUR L’ENSEMBLE DES NEURONES DU SYSTEME NERVEUX, LES VARIABLES SONT DES VARIABLES DISTRIBUTIVES NE(x,t) ET NI(x,t), POUR L’ENSEMBLE DES POINTS x DANS LE VOLUME V. LA FONCTION NEURONE A ALORS POUR BUT DE TRANSFORMER LOCALEMENT :
- SOIT UN NOMBRE N(x,t) D’ENTREES ACTIVES EN UNE SORTIE « EVOQUEE » DE MEME NATURE ;
- SOIT UNE TENSION DE MEMBRANE VARIABLE EN UNE TENSION DE SORTIE « SPONTANEE » DE MEME NATURE ;
EN TERMES MATHEMATIQUES, IL S’AGIT DONC D’UN OPERATEUR LOCAL AGISSANT (A GAUCHE),
- SOIT SUR UN VECTEUR D’ETAT A N(x,t) >= 1 COMPOSANTES POUR LE TRANSFORMER EN UN SCALAIRE DE MEME NATURE (ELECTROCHIMIQUE), EN MODE « EVOQUé » ;
- SOIT SUR UN SCALAIRE (POTENTIEL DE MEMBRANE VARIABLE), POUR LE TRANSFORMER EN UN AUTRE SCALAIRE DE MEME NATURE, EN MODE « SPONTANé ».
On entend ici par « scalaire », un vecteur d’état à 1 seule composante. Maintenant, il est bien évident que tous ces « potentiels » sont, physiquement, des champs électrochimiques (donc, vectoriels dans l’espace E3 et même quadrivectoriels dans l’espace-temps M).
Par contre, les entiers NE(x,t), NI(x,t) et N(x,t) sont, eux, de vrais scalaires.
Au niveau global (i.e. dans V), on a une distribution de neurones. Comme chaque neurone réalise une fonction neurone (la même pour tous les neurones du système nerveux), on trouvera, non pas une distribution de fonctions neurone, mais une distribution de valeurs renvoyées par LA fonction neurone en CHAQUE point x. En l’occurrence, la distribution (dynamique) {Uout(x,t) , x dans V} : les valeurs Uout(x,t) en chaque point x sont distribuées dans le volume V selon une loi de répartition de type aléatoire.
Au niveau des graphes, on l’a vu, bien que ces valeurs s’imbriquent les unes dans les autres, au gré des interconnexions entre neurones, le lien de causalité ne peut être formellement établi d’un neurone à l’autre, donc d’une sortie à l’entrée suivante. Sauf à établir des pronostics et entourer l’ensemble du processus, du local au global, de probabilités de réalisation.
(NB 2 : les « distributions » NE(x,t), NI(x,t), N(x,t) et Uout(x,t), x dans V sont ici des distributions au sens physique du terme, c'est-à-dire, des « fonctions-densité » ; les distributions mathématiques correspondantes sont les produits de ces distributions « physiques » par l’élément de volume d3x.)
En sortie, par contre, la tension délivrée U (signée) est envoyée à un nombre Nout >= 1 de neurones « aval ». La vitesse cI de propagation de l’influx étant une constante et le signal se propageant sans atténuation sur des distances de l’ordre du mètre, ce signal U arrivera au neurone i, situé en xi, 1 =< i =< Nout, à l’instant postérieur ti = t + |x – xi|/cI.
Commentaires textes : Écrire
BIDOUILLE 35 : RETOUR AUX EMIs
Le 16/04/2013
Après une longue digression, nous sommes enfin prêts à revenir aux bidouilles 1 à 3 du début… et recoller avec le sujet. Si vous relisez ces 3 premières bidouilles, vous vous convaincrez rapidement qu’elles bouclent bien sur les bidouilles 22, 23 et 26 à 32 sur le retour au 3D. La différence est qu’on n’a plus besoin de changer de cadre, il suffit de rester dans l’espace 3D. Première simplification de principe, pas forcément négligeable. Ceci n’invalide pas pour autant l’hypothèse du PSI, il faut seulement la reformuler : comme je l’ai signalé à moults reprises, soit on change de cadre physique et on poursuit sur des principes similaires, soit on reste dans le cadre et on doit alors procéder à une nouvelle physique.
Eh bien, les derniers développements nous montrent que c’est la seconde voie qu’il va maintenant nous falloir emprunter : trouver de nouvelles propriétés physiques au sein du cadre 3D. C’est désormais une question d’interprétation de nos modèles.
Quelques détails de la dynamique des neurones m’avaient échappé, qui ont pourtant toute leur importance. Lorsque le neurone est silencieux, son « potentiel de membrane », qui est en fait une différence de potentiel, autrement dit, un champ électrique, est au repos. La force électromotrice (fém) à l’intérieur de la membrane est négative (aux alentours des -70 mV) et cette valeur est fournie directement par le rapport des concentrations chimiques en ions potassium (K+) entre l’intérieur et l’extérieur de la membrane : il y a 10 fois plus de K+ à l’intérieur qu’à l’extérieur de la membrane. Au repos, celle-ci se trouve donc « sous tension » et on peut même considérer cette tension comme maximale. En effet, tout apport d’ions extérieurs, comme les ions sodium (Na+) ou calcium (Ca2+), dix fois plus nombreux qu’à l’intérieur, aura tendance à diminuer ce potentiel de membrane (en valeur absolue).
Lorsque le neurone est actif sur stimulus (« potentiel évoqué »), ce sont les ions Na+ extérieurs qui sont sollicités et lorsqu’il est actif en mode oscillateur, ce sont les ions Ca2+ qui sont sollicités. Tous ces ions, K+, Na+ et Ca2+ sont transportés de part et d’autre de la membrane par des enzymes-pompe (ATPase), qui coupe la molécule d’ATP issue de la respiration cellulaire et utilise l’énergie dégagée par cette opération pour transporter les ions à travers les « molécules-canaux » appropriées, présentes dans la membrane. Certaines de ces molécules canaux sont réceptives aux Na+, d’autres aux Ca2+. Leur ouverture est commandée par le potentiel de membrane, lorsque celui-ci atteint une valeur-seuil. SAUF K+, qui peut être transféré en mode silencieux (en mode actif, les canaux K+ s’ouvrent transitoirement).
Voilà, en tous cas, ce que j’ai retenu de la leçon de neurobiologie.
Ce qui nous intéresse tout particulièrement ici, c’est le mode silencieux. Lorsque le patient atteint le coma de stade IV, l’ensemble des neurones de son système nerveux et, en particulier, de son système nerveux central, se placent en mode silencieux : plus aucune impulsion ne part, pas même en mode oscillateur. Il n’y a plus aucune activité électrique, hormis celle qui concerne les ions K+ seuls. Le patient n’est plus réceptif à aucun stimulus, il ne produit même plus sa propre activité interne. Il est « cérébralement mort ».
Or, est-il inutile de le rappeler, lorsque cela se produit en bloc opératoire, il est maintenu en survie artificielle : l’arrêt cardiaque qui précède la mort cérébrale est remplacé par un « cœur artificiel » qui continue à l’alimenter. Donc, ce n’est pas une question de pression sanguine, puisque celle-ci est maintenue, tant que le dispositif reste branché. Ce n’est qu’une question de température corporelle : tant que la température interne de l’organisme reste inférieure à Tc = 25° C, l’ensemble du système nerveux reste en mode silencieux, « bloqué ».
Voici un petit modèle tout bête de circuit électrique qui semble répondre à notre question, au moins dans les grandes lignes, à savoir :
QUE SE PASSE-T-IL AU MOMENT Où LE PATIENT PASSE EN COMA STADE IV ?
Ce petit modèle va, en fait, confirmer notre modèle beaucoup plus général de champ électromagnétique non linéaire, i.e. non maxwellien. Il va aussi nous réserver une belle surprise.
Ce modèle reprend le principe de la varistance et de la thermistance. Varistance, parce que la résistance R est fonction du courant I qui circule ; thermistance, parce que R dépend aussi de la température T. On se donne alors une fém :
- U(I,T) = -U0 + R(I,T)I
où U0 > 0 est une tension à vide et on se donne la loi suivante :
- U(I,T) = -U0exp[-R0(T)I/U0] , R0(T) >= 0 pour tout T.
En identifiant les deux expressions, on trouve la loi suivante pour la résistance :
- R(I,T) = (U0/I){1 – exp[-R0(T)I/U0]}
Par la règle de l’Hôpital, on trouve facilement :
- R(0,T) = R0(T)
Il est tout aussi facile de se convaincre que, la relation entre U et I n’étant plus linéaire, le modèle local correspondant ne sera plus maxwellien. Inversant (2), on a en effet :
- I(U,T) = -[U0/R0(T)]Ln(-U/U0) , U =< 0
Or, qu’est-ce que U localement ? C’est moins le gradient du potentiel électrique Phi et/ou moins la variation, dans le temps, du potentiel magnétique A. Et qu’est-ce que I localement ? C’est la distribution de courant J. On retrouve donc bien une dépendance fonctionnelle en J(A,Phi,x) et, en étendant au 4D, en Ji(Aj,x).
Revenant à notre petit modèle à 4 sous, lorsque R0(T) -> 0, R(I,T) -> 0 pour tout I. Mais quel est le courant qui nous intéresse ici ? C’est évidemment celui des K+, c’est-à-dire :
- I = dQint(K+)/dt
Comme Q(K+) > 0, lorsque les ions K+ sortent de la membrane, Qint(K+) diminue et I < 0 ; il s’ensuit que U(I,T) croît de manière exponentielle, tout en restant négative, de –U0 à I = 0 à (théoriquement, bien sûr) –oo pour I -> +oo. A l’inverse, lorsque les K+ (r)entrent dans la membrane, Qint(K+) (ré)augmente et I > 0 ; il s’ensuit que U(I,T) décroît de manière exponentielle, toujours en restant négative (puisque exp est essentiellement non négative), de –U0 à 0-. Ce modèle rend donc bien compte d’un accroissement de la tension de membrane lorsque les K+ en sortent et d’une diminution de cette tension lorsqu’ils entrent. Après, savoir s’il s’agit ou non d’une loi exponentielle ou d’une autre, non linéaire, ce n’est qu’un modèle de base. On note cependant une circonstance qui me semble intéressante : lorsque R0(T) s’annule, cette loi me donne :
- R0(T) = 0 => U(I,T) = -U0 pour tout I.
Ma tension de membrane reste alors bloquée à sa valeur à vide –U0. Etant donné que la résistance est une quantité toujours positive ou nulle,
- R0(Tc) = 0 => R0(T) = 0 pour tout T =< Tc.
Il suffit donc, dans ce modèle, que R0 s’annule en T = Tc pour que la tension de membrane reste bloquée à –U0 à toute température corporelle inférieure ou égale à Tc et donc, que le neurone concerné reste silencieux, au point de ne même plus présenter aucune activité intrinsèque. Ce n’est pas trop différent de ce que nous demande la neurobiologie.
Maintenant, la petite surprise.
Appliquons la loi de Lenz. La fém induite (1) ou (2) doit s’opposer à la variation, au cours du temps, du flux magnétique PHI(t) à travers toute surface fermée :
- U(I,T) = -dPHI(t)/dt
On en déduit :
- dPHI(t)/dt = U0exp[-R0(T)I/U0] >= 0
Par conséquent, le flux croît au cours du temps et ce, quelque soit le signe du courant I. Mais, quest-ce que PHI(t), cette fois ? C’est l’intégrale de surface :
- PHI(t) = I B(x,t).dS
du champ magnétique, orientée suivant la normale extérieure. Il en résulte que, si PHI(t) croît, alors B(x,t) croît en direction de la normale extérieure :
LE CHAMP MAGNETIQUE EST BEL ET BIEN REPOUSSé HORS DE L’ORGANISME, PAR EFFET FARADAY-LENZ.
Admettons. Qu’il soit repoussé à la surface intérieure, passe encore. Quant à traverser la matière organique et les parois osseuses en particulier ?...
J’ai fait un calcul tout bête, niveau classe préparatoire (et pas aux écoles d’ingénieurs…) : si tous les neurones du seul système central se retrouvent au repos en même temps et en supposant qu’en première approximation au moins, le champ est linéaire, les valeurs de repos de CHAQUE neurone vont s’additionner, ce qui donnera un champ électrique résultant de :
- Erépulsif = -70 mV x 100 x 109 neurones = -7 x 109 V !!! 8(((
Gigantesque ! L’équivalent de plusieurs dizaines de milliers d’éclairs. S’il n’y en a pas assez pour repousser un champ de pensée hors du corps, je me demande ce qu’il faudrait…
Ce que les instruments de mesure sont chargés de détecter, ce sont les influx nerveux, pas le champ macroscopique de repos. Même si le phénomène n’était que transitoire, la « catapulte » serait amplement suffisante. Non seulement il n’est pas transitoire, mais il est permanent, tant que la température corporelle reste en dessous de 25° C :
A T =< Tc = 25° C, LE CHAMP DE PENSEE N’A AUCUNE CHANCE DE REINTEGRER L’INTERIEUR DE L’ORGANISME.
Pour qu’il puisse y avoir EMI, c’est-à-dire mort clinique avec retour à la vie, il est impératif que la température corporelle repasse au-dessus du seuil des 25° C. Sinon, le processus est définitif.
Ce qui se passe ensuite ne relève tout simplement plus des neurosciences. Car il ne se passe plus rien d’intéressant à l’intérieur du système nerveux.
Il n’est d’ailleurs pas très étonnant que les patients ayant expériencé une EMI ne présente généralement pas de séquelle neurologique : parce que, durant le processus, l’organisme a été conservé artificiellement en état de marche… C’est donc aux médecins qu’ils le doivent et non à une quelconque « intervention mystique extérieure »… :)
Peut-on aller plus loin avec notre physique actuelle ? Difficile à dire. La seule voie d’investigation qui m’est offerte est celle des champs électromagnétiques non linéaires, en l’absence de sources (puisque celles-ci sont restées à l’intérieur de l’organisme). Quant à décrire l’environnement extérieur… 8(
La vérité est que je n’y comprends toujours pas grand-chose… :)
Commentaires textes : Écrire
Première page <<< … 31 32 33 34 35 [36] 37 38 39 40 41 … >>> Dernière page
/ 43