blogs.fr: Blog multimédia 100% facile et gratuit

doclabidouille

Blog multimédia 100% facile et gratuit

 

BLOGS

Blog dans la catégorie :
Sciences

 

Statistiques

 




Signaler un contenu illicite

 

doclabidouille

BIDOUILLE 63 : QUELQUES PRECISIONS

Le 22/11/2013

Je vais d’abord apporter une précision, afin d’éviter tout risque de confusion. Il ne faut pas confondre un point de l’espace E3 avec la position d’un corps ponctuel dans cet espace : les deux se modélisent au moyen de la même variable abstraite x, mais le point de l’espace a quelque chose « d’universel » que n’a pas la position, en ce sens que le point est indépendant des caractéristiques physiques des corps. C’est une façon complémentaire de dire que l’espace est une chose, les corps qui le peuplent en sont une autre. On a conçu l’espace à 3 dimensions autour de nous parce que nous avons constaté (perçu !) que nous étions en mesure de bouger dans 3 directions différentes de l’espace et que les corps qui nous entouraient, à commencer par le nôtre, s’étendaient aussi dans ces 3 directions. Par extension et projection mentale, nous en avons ainsi déduit que tout l’espace autour de nous était à 3 dimensions. Tout au moins, l’espace tel que nous pouvions le percevoir. L’espace « perceptuel ».

A partir de ce constat, nous nous sommes inventés le concept de position dans l’espace pour nous permettre d’y repérer les corps physiques. La position n’a donc rien « d’universel », puisqu’elle est systématiquement associée à un corps physique.

Il ne faut pas non plus confondre position et mouvement. La position est statique, elle est établie à un instant donné et peut changer d’un instant à l’autre ; le mouvement est dynamique, il s’établit sur une certaine durée (éventuellement illimitée). De ce point de vue, la position est donc un concept local, tandis que le mouvement est un concept global.

 

Il en va exactement de même avec l’espace d’état et c’est la raison pour laquelle j’ai tenu à rappeler auparavant ces quelques « évidences ».

y(x) est le mouvement d’un corps quantique dans M4, c’est un concept dynamique, qui reste quand même global, mais d’un point de vue différentiel. Alors, ça peut paraître contradictoire, donc je précise : ce qu’il faut entendre ici par « global » est le fait de s’étendre sur un domaine d’espace-temps donné, fut-il infinitésimal. La fonction d’onde y(x) s’étend bien autour du point x sur un 4-volume d4x. Au sens différentiel du terme, elle est donc globale sur ce domaine : c’est un « micro-champ ». On revoit apparaître ici l’analyse non standard. En effet, la seule fonction-densité qu’on puisse véritablement considérer comme locale est la fonction singulière de Dirac d(x) qui ne possède de valeur qu’au point x lui-même et qui est nulle partout ailleurs, y compris dans le 4-volume d4x autour de x. De ce fait, d(x)d4x est vraiment une mesure locale.

La position dans l’espace d’état, je peux l’obtenir en fixant x, ce qui revient à me donner au préalable une position dans l’espace-temps. Mais quid des corps immobiles ? Dans la théorie quantique actuelle, de tels corps quantiques sont inconcevables, parce que y(x) est un signal, qu’un signal est la déformation d’une onde et qu’une onde n’est immobile nulle part.

Nulle part… dans M4.

Si nous nous plaçons dans l’espace d’état, nous sortons de M4. Il nous faut alors reconsidérer notre point de vue d’ensemble. Par analogie avec ce que nous avons établi dans E3 ou M4 (s’agissant du temps propre), nous définissons la position d’un corps quantique dans l’espace d’état comme un point de cet espace, mais associé au corps en question. Et nous définissons le point de l’espace d’état comme un concept « universel », indépendant des caractéristiques physiques des corps quantiques. Nous les notons tous les deux y.

 

Oui ?... Pour ceux qui ne seraient pas tout à fait convaincus, reprenons les équations du mouvement d’un corps ponctuel classique de masse m (supposée constante pour simplifier) soumis à une force résultante extérieure f(t) :

 

(1a)  md²x(t)/dt² = f(t)

 

La solution dépend bien des caractéristiques physiques, du corps incident, mais aussi des corps perturbateurs, ces dernières étant contenues dans f(t) :

 

(1b)  x(t) = x(t0) + v(t0)t + m-1òt0tòt0t f(t)dt²

 

(avec un léger abus de notation que, j’ose espérer, on voudra bien m’excuser)

Même ma position de départ x(t0) = x0 est associée au corps incident, puisque c’est de ce point de E3 qu’il débute son mouvement. Sans le dire, j’associe donc automatiquement toute position de mon mouvement, position de départ incluse, au corps mobile que je considère. Il n’en reste pas moins que la position dans l’espace n’est pas l’espace. En conséquence, nous devons distinguer la position du point : le point existe même en l’absence de tout corps physique.

Il suffit de faire de même avec une équation de champ de la forme :

 

(2a)  iiy(x) = -(ħ²/2m)f(x)

 

de solution complète :

 

(2b)  y(x) = yond(x) - (ħ²/2m)òM4 f(x’)d4x’/(xi-x’i)(xi-x’i)

 

(je n’arrive plus à retrouver le n° de la bidouille où j’ai établi ce résultat invariant relativiste… lol)

On aurait préféré une expression analogue à (1b). Essayons toujours :

 

(2c)  y(x) = y(x0) + xi(iy)(x0) - (ħ²/2m)òx0xòx0x f(x)dxidxi

 

les intégrales étant curvilignes. ça a l’air de fonctionner, ma parole… K

Comme on dit : tant que ça tient… on touche plus à rien… J

Idem : y(x0) est la valeur de la fonction d’onde du corps quantique incident autour du point x0, point de départ du corpuscule. Donc, position : position x0 du corpuscule dans M4, position y(x0) du signal associé dans L²(M4) ou H1(M4). Position quantique : [x0,y(x0)].

Maintenant, si je retire tout corps quantique, je trouve le vide quantique. Mais où ? Dans M! Car le vide quantique reste une fonction d’onde, purement fluctuante, dans M4. Dans l’espace d’état, il lui correspond un point.

 

La différence, ici, est beaucoup moins abstraite :

 

-         si je considère un point y de l’espace d’état, je fais référence à quelque chose « d’universel », i.e. indépendant des caractéristiques physiques des corps quantiques, ce qui me renvoie au vide quantique dans M;

-         si je considère une position y dans l’espace d’état, j’associe ce concept à un corps quantique et à sa fonction d’onde y(x), je casse l’universalité du point.

 

Même le spin est une caractéristique physique (et dynamique !) des corps quantiques, puisque c’est un moment cinétique et qu’en plus, il est intrinsèque !

De ce fait, on ne peut même pas tenter de dimensionner l’espace d’état au moyen des composantes de spin, quitte à spécifier deux sortes d’espaces d’état.

Quant aux isoespaces, ils sont spécifiques aux corps…

En… l’état, toutes les dimensions « internes » que l’on connaît ou que l’on a établi sont relatives aux propriétés physiques des corps quantiques. Aucune de ces dimensions ne présentent donc de caractère universel.

 

Je veux dire par là que je serais bien en mal de donner ne serait-ce qu’une indication sur le nombre de dimensions physiques éventuelles de l’espace des états quantiques en m’appuyant sur la théorie des quanta actuelle…

 

Pour l’instant, je reste de dimension complexe 1. Est-ce bien important pour nos besoins ?

Je n’en sais rien du tout…

Je serais tenté de dire : non, parce qu’on rapporte tout à M4 et que y(x) est déjà 4D.

La question de fond est : l’espace d’état a-t-il un contenu physique ou bien est-ce seulement l’espace des fonctions d’ondes ?

 

 

 

 

BIDOUILLE 62: HYPERCHAMPS

Le 20/11/2013

On va commencer à réfléchir sur ces hyperchamps, sans se bousculer. Depuis hier, je n’ai évidemment pas eu le temps de trouver quoi que ce soit de « révolutionnaire »… J

Traduction : ce n’est pas encore aujourd’hui que je serai en mesure de révéler les « mystères du PSI »… :))

On va plutôt regarder les structures. Ça nous guidera pour la suite et ça en apprend toujours beaucoup plus qu’on ne croit.

Première des choses : le cadre d’un hyperchamp F(y,y*,x) est l’espace des états quantiques, i.e. l’espace des fonctions d’ondes. L’espace-temps M4 y joue le rôle d’espace-temps paramétrique éventuel. En effet, F peut ne pas dépendre des xi, i.e. être le même en tout point de M4 et donc, global sur l’espace-temps. Sinon, en plus d’être local dans l’espace des états, il est également local dans M4, i.e. susceptible de varier en valeur d’un point à un autre de l’espace-temps.

Ensuite, si l’on ne tient pas compte d’un spin éventuel, cet espace des états est de dimension complexe 1, c’est-à-dire, de dimension réelle 2 : y = yR + iyI donne un doublet réel (yR, yI). Ainsi, pour un système à N objets quantiques de fonctions d’ondes y1,…, yN, l’espace de configuration sera de dimension complexe N, soit 2N réelle. Et, s’il existe M relations entre ces N fonctions d’ondes, idem qu’en mécanique classique, on ne trouvera que Q = N-M « coordonnées généralisées » y1,…, yQ indépendantes, ce qui réduira la dimension de l’espace de configuration à Q, soit 2Q réelle.

Après, quand on regarde, cette fois, les trajectoires dans M: en mécanique classique, on a deux sortes de xi(t) : les fonctions et les fonctions-densités. Toutes deux sont des applications, mais les fonctions-densités ne sont pas des fonctions : l’ensemble des fonctions-densités (qui conduit aux espaces de distributions) inclut l’ensemble des fonctions. En pratique, on modélisera plutôt un signal au moyen d’une fonction-densité. On peut le faire au moyen d’une fonction, mais c’est moins adapté, voire pas du tout.

En mécanique quantique, y(x) est d’emblée une fonction-densité. Le carré de son module, |y(x)|², est une densité de probabilité. De manière générale, une fonction-densité est donc, très grossièrement, une fonction localisée au voisinage d’un point, c’est-à-dire, significative seulement dans ce voisinage. C’est une fonction, mais uniquement au sens différentiel : ce qui est mesurable, dans cette classe de « fonctions », c’est |y(x)|²d4x. C’est un peu comme dire que les potentiels vecteurs du champ électromagnétique ne sont pas directement mesurables et que seules les intensités de champ qui en dérivent le sont. Mais, attention : ce n’est qu’une analogie ! On n’a pas construit, jusqu’à présent, du moins pas à ma connaissance, de théorie quantique basée sur des fonctions.

Cela change-t-il quelque chose au niveau des variables d’hyperchamps, i.e. au niveau de l’espace d’état ? Pas vraiment : quand on passe des xi(t) aux F(x), on se préoccupe guère plus de savoir si les xi se comportent comme des fonctions ou des fonctions-densités dans l’espace paramétrique. On les traite comme des points de l’espace(-temps) ambiant. Il en va de même des couples (y,y*). C’est l’avantage que présentent les hyperchamps sur les fonctionnelles : ces dernières utilisant les variables locales [y(x),y*(x)], il devient indispensable de connaître les propriétés de l’espace fonctionnelle dans lequel « vivent » ces variables. On n’aura pas, en effet, le même résultat pour le produit hilbertien dans un L² ou dans un H1.

L’inconvénient, c’est qu’il faut se sortir de l’espace-temps, pour raisonner dans l’espace d’état, sans pour autant perdre de vue que le véritable cadre physique reste M4

 

Voilà, je pense avoir fait le tour des propriétés de base… Travailler dans l’espace d’état facilite considérablement les calculs, car on peut encore y appliquer les opérations arithmétiques habituelles et notamment, le produit usuel. Au contraire, travailler dans l’espace fonctionnel impose de définir le produit hilbertien adapté et poser sans cesse la question de ce qui est mesurable et ce qui ne l’est pas : on a vu plus haut que c’est en fait |y(x)|²d4x qui est mesurable. Tout formellement, |y(x)|² ne représente pas une mesure. Au mieux, une mesure locale, ce qui nécessiterait de la définir de point en point (et même, de voisinage de point en voisinage de point ! L). Il n’est donc pas possible de donner une définition univoque de la mesure dans ces espaces fonctionnels, c’est-à-dire, valable en tous points (globale, quoi). C’est d’ailleurs toute la théorie de Lebesgue de l’intégration (et donc, de la mesure) qui a conduit Laurent Schwartz à remplacer le produit usuel, valable pour les fonctions, par le produit de convolution, valable pour les distributions. Ça signifie qu’un produit usuel tel que |y(x)|² = y(x)y*(x) n’est défini au mieux que localement. Il est impossible de l’établir en tous points. On ne peut l’établir qu’au voisinage de chaque point.

C’est une difficulté mathématique considérable qui a des incidences physiques immédiates sur l’allure (la forme) et le comportement des signaux. Le passage à l’espace d’état contourne cette difficulté. Bien entendu, on la retrouvera dès que l’on cherchera à reprojeter les variables d’hyperchamps dans M4.

Par exemple, dans toute analyse dynamique : le point [y(x),y*(x)] étant mobile, les influences appliquées sur le mouvement seront des fonctionnelles de la forme générale F[y(x),y*(x),x], F étant un tenseur d’ordre quelconque.

Les hyperchamps sortent donc du domaine de la dynamique des fonctions d’ondes, tout comme les champs ordinaires F(x,t) sortent du domaine de la dynamique des trajectoires classiques x(t) : dès qu’on regroupe les deux, on redevient fonctionnel.

C’est facile à comprendre : au lieu de considérer un point matériel (centre de gravité d’un corps ou d’un système de corps) de masse m situé en x à l’instant t, on considère une particule quantique de masse m située en (y,y*), i.e. dans l’état (y,y*) au point d’espace-temps xi.

Et on entendra par « particule quantique » un corps ponctuel, mais dans l’espace d’état (dans M4, ce corps présente son extension ondulatoire autour du corpuscule).

Par suite, alors qu’un champ F(x) verra sa valeur changer d’un point à l’autre [F1 = F(x1) -> F2 = F(x2)], un hyperchamp verra sa valeur changer d’un état quantique à l’autre : F1 = F(y1,y*1) -> F2 = F(y2,y*2)]. L’espace-temps n’intervient en rien dans cette variation.

 

Le concept d’hyperchamp global F(y,y*) remplace celui de champ statique F(x).

Le concept d’hyperchamp local F(y,y*,x) remplace celui de champ dynamique F(x,t).

Globalité et localité sont évidemment relatives à M: un hyperchamp qui serait global dans l’espace d’état se réduirait à un champ ordinaire (aucun intérêt)…

 

La suite, c’est de l’analyse complexe dans l’espace d’état… L’hypothèse du continu permet de définir la notion de voisinage et celle de différentielle : dy représente, dans ce cas, un changement infinitésimal d’état quantique. L’espace des états quantiques (hors spin) étant de dimension réelle 2, dydy* y représente un élément de surface. C’est le « volume » (2D) élémentaire. Connaissant dy, on peut construire une théorie de l’intégration qui donne un sens à des expressions comme :

 

òy1y2 F(y)dy, òy*1y*2 F(y*)dy*, òy1y2 F(y,y*)dy, òy*1y*2 F(y,y*)dy*,

òy1y2òy*1y*2 F(y,y*)dydy*

 

Et puis, on récupère tous les théorèmes d’analyse complexe : holomorphie, résidus, etc.

D’après Cauchy-Riemann, on sait immédiatement que, si F est un hyperchamp holomorphe (dans un domaine donné d’états quantiques, éventuellement illimité), F ne dépend que de y et F est harmonique sur ce domaine. En dimension 2, cela donne aussitôt un comportement logarithmique en ½ Ln(y1² + y2²). Mais, dire que F est harmonique sur ce domaine revient à dire qu’il n’y a pas de source ou pas de perturbation à l’intérieur de ce domaine : l’hyperchamp F y est libre. C’est une « hyperonde ».

 

Pour construire des sources physiques, il faut utiliser une théorie des distributions sur l’espace d’état : c’est parfaitement constructible, alors que ce serait impossible dans l’espace fonctionnel. On ne peut pas construire des « distributions de distributions », on ne peut pas localiser ce qui l’est déjà. A moins de faire intervenir des arguments d’échelle et de partir dans l’analyse non standard. Mais alors, on ne fait que repousser le concept de « localité »…

 

Une « hypersource » est alors une fonction-densité S(y,y*) sur l’espace d’état. Je reviendrai là-dessus plus en détail lorsque j’aurai approfondi un peu mieux le concept.

 

Les concepts d’hyperchamp et d’hypersource sont importants à étudier, car ils pourraient être les clés de la parapsychologie physique.

 

 

 

 

BIDOUILLE 61 : PRIGOGINE LE SAUVEUR ?

Le 13/11/2013

L’ambiance, ces derniers jours, était assez morose car je commençais à perdre espoir de trouver quelque chose de significatif à mettre sous la dent des biologistes.

Comme toujours dans ces cas-là, j’ai farfouillé dans mes bouquins aux pages noircies par l’utilisation et j’ai déjà retrouvé une première pépite :

 

CONTRAIREMENT A LA LONGUEUR D’ONDE MECANIQUE lméc = h/mv QUI DEVIENT RAPIDEMENT NEGLIGEABLE POUR DES CORPS MACROSCOPIQUES, LA LONGUEUR D’ONDE THERMIQUE lth = hc/kBT EST LOIN DE L’ETRE. ELLE EST MÊME D’AUTANT PLUS GRANDE QUE LA TEMPERATURE DU MILIEU EST BASSE. QUANT AU RAPPORT hc/kB, IL VAUT APPROXIMATIVEMENT 1,44 10-2 Km.

 

Comparez : pour un grain de sable d’1mm de masse 1mg et de vitesse 1mm/s, lméc » 6,63 10-16 m = 0,663 F, alors qu’à température ambiante T = 27°C » 300K, lth » 4,8 10-5 m = 48 mm, 48 fois le rayon du grain de sable !!!

Je me suis donc reposé la question de fond : à quoi peut-être due la nature probabiliste du module de la fonction d’onde ? Principalement, sinon essentiellement, à l’agitation thermique. Et de répartir les deux longueurs d’ondes de la manière suivante : la mécanique dans la phase, la thermique, dans le module. De la sorte, lth² joue le rôle de l’écart-type pour des fluctuations métriques autour d’un point de l’espace(-temps). Lesquelles fluctuations métriques sont alors dues à l’agitation thermique.

Les deux longueurs d’ondes sont des grandeurs macroscopiques (elles s’obtiennent par mises en moyenne). Si la mécanique est négligeable à nos échelles, la thermique est loin de l’être. C’est déjà un premier argument en faveur de l’influence des effets quantiques à nos échelles, via l’amplitude et non la phase de la fonction d’onde et grâce à la petitesse de la constante de Boltzmann kB (» 1,38 10-23 J/K), qui vient compenser en bonne partie celle de h.

Il subsiste quand même un petit hic dans cette construction de la fonction d’onde : elle présuppose que l’espace-temps soit fluctuant. C’est loin d’être impossible, mais ça reste contraignant, car on s’attend à des fluctuations significatives dans le tissu spatio-temporel à des températures bien plus élevées. Aux températures ambiantes, on renverse en quelque sorte le problème : lth devient (très) significative, mais les fluctuations de l’espace-temps deviennent infimes…

 

C’est, en fin de compte, Prigogine qui sauve la baraque. Je ne sais pas si, de son vivant, il avait envisagé une conséquence quelconque de sa synthèse sur la parapsychologie. Et il n’est pas venu de me dire ce qu’il en pensait désormais… J

Toujours est-il qu’il nous sort une ENORME épine du pied. Car, il place au même niveau trajectoires et fonctions d’ondes :

 

AU NIVEAU MICROSCOPIQUE, ON EST LOCAL ET DETERMINISTE. C’EST LE SIEGE DES TRAJECTOIRES ET DES FONCTIONS D’ONDES DE CORPS INDIVIDUELS. C’EST LE DOMAINE DE L’INSTABILITE ET DU DESORDRE STRUCTUREL.

 

Les équations de mouvement de la mécanique classique sont déterministes, puisqu’elles traduisent des lois physiques déterministes : une fois données les conditions initiales au départ du mouvement ou à un instant quelconque de celui-ci, on peut en déduire toute l’information sur le passé et le futur de ce mouvement. La trajectoire x(t) dans l’espace E3 ou xi(t) dans l’espace-temps M4 a un caractère local.

Il en va exactement de même pour les fonctions d’ondes y(x,t) en relativité de Galilée ou y(x) en relativité d’Einstein : y(x,t) obéit à l’équation de Schrödinger, qui est déterministe ; y(x) obéit à des généralisations de Schrödinger telles que Klein-Gordon, Dirac,…, qui sont toutes déterministes.

Quant à la nature des objets y(x,t) et y(x), elle est foncièrement locale : dans le cas galiléen, la probabilité de trouver la particule quantique dans un voisinage dx de x à l’instant t est dP(x,t) = |y(x,t)|²d3x, si y(x,t) est exprimé en m-3/2 ; dans le cas einsteinien, la même proba de trouver la particule dans un voisinage dxi de xi est dP(x) = |y(x)|²d4x, en mesurant y(x) en m-2. En fait, y(x,t) représente « l’étalement ondulatoire » autour d’un objet classique, ponctuel, à savoir, le corpuscule. y(x) ne représente rien d’autre, dans l’espace-temps.

Il en résulte que y(x,t) comme y(x) sont bel et bien des paquets d’ondes, mais des paquets d’ondes individuels : ils ne concernent qu’un seul corpuscule. Quand on est passé de la mécanique classique à la mécanique quantique, on a simplement changé de cadre de travail : on est passé de E3 ou M4 à un espace d’états, mathématiquement un L2 ou un H1 de Sobolev, dont les « points » sont les y et les « paramètres de mouvement », les (x,t) ou les xi. En conséquence, dans les systèmes classiques à N corps, l’espace de configuration sera E3N ou M4N et, dans les systèmes quantiques à N particules (pas forcément identiques), l’espace d’état de configuration sera un (L2)N ou un (H1)N

Nous avons été nombreux à nous laisser abuser par la fonctionnalité de y et à nous représenter y(x) comme un champ de particules relativistes. Ilioupoulos lui-même expliquait, lors d’un séminaire Normale Sup à la fin des années 1970, que le problème des « divergences infrarouges » était dû au fait que, même dans un volume d’espace (ou un 4-volume d’espace-temps) fini, on se retrouvait avec un nombre infini de degrés de liberté, parce que y(x) était physiquement un milieu continu

C’est Prigogine qui avait raison : y(x) n’est pas un milieu continu, ce n’est pas un champ, c’est l’extension ondulatoire, de nature probabiliste, censé entourer un corpuscule classique situé en x ; c’est un objet physique individuel. Je pense que la confusion des genres est venue du fait qu’en physique des particules, on traite souvent d’ensembles de particules identiques. Et donc, on a une tendance assez naturelle à assimiler la fonction d’onde individuelle y(x) au « champ de particules identiques » tout entier, en positionnant les corpuscules en chaque point du (4-)volume…

Prigogine nous explique : cette représentation est erronée. Dans un système à N particules, on doit trouver N fonctions d’ondes yi(xi), la fonction d’onde yi étant localisée autour du i-ème corpuscule classique, i = 1,…,N.

 

Et ça change tout. Parce qu’au niveau mésoscopique, on trouve la statistique : la mécanique statistique de Maxwell-Boltzmann est le niveau de description mésoscopique de la mécanique classique, la statistique quantique est le niveau de description mésoscopique de la mécanique quantique. Il le disait lui-même dans ses « Lois du chaos » : ce niveau intermédiaire de description des (grands) systèmes réconcilie mécanique classique et thermodynamique. On y trouve des faisceaux de trajectoires. Si l’on est classique, ce sont des ensembles plus ou moins denses de courbes x(t) ou xi(t) ; si l’on est quantique, ce sont des ensembles plus ou moins denses de y(x,t) ou de y(x). Il rappelle les deux représentations duales et équivalentes de la mécanique classique : le formalisme hamiltonien et celui de Liouville. C’est ce dernier qui est le mieux adapté au niveau mésoscopique : la trajectoire x(t) ou xi(t), objet individuel et local, se voit remplacée par la fonction de distribution (une loi de probabilité) r[x(t),t] dans l’espace de configuration ou, mieux, r[x(t),p(t),t] dans l’espace des phases du système ; idem en 4D.

 

Prigogine fait de même avec la mécanique quantique. Il remplace l’équation de Liouville, qui utilise le crochet de Poisson, par l’équation de Liouville-Von Neumann, qui utilise le crochet de Lie, il remplace la fonction de distribution précédente par la densité de probabilité de présence r(x,t) = |y(x,t)|² et exhibe ainsi l’analogie complète entre l’équation de conservation de la probabilité dans le cas classique, rclass/t = {H,rclass} = Lclass^rclass, et dans le cas quantique, rquant/t = [H,rquant] = Lquant^rquant : dans les deux cas, on trouve un opérateur de Liouville…

Il va alors plus loin et propose un formalisme général : passer de la description en termes de trajectoires et fonctions d’ondes, cantonnées au domaine microscopique, à une description en termes de fonctions de distribution. Dans le cas quantique, ceci revient à utiliser la matrice densité. Dans le cas dit « pur », elle est donnée par r = |y|². Dans le cas général, elle est un mélange statistique de cas « purs » et n’est donc plus factorisable. Il explique que c’est cette perte de factorisation qui modélise l’irréversibilité des processus quantiques et le chaos quantique. Le chaos quantique est un chaos ondulatoire. Tout comme le chaos déterministe, il résulte de la non-linéarité des équations de mouvement de la mécanique quantique.

 

Il y a des gens, que je n’aurai pas (ou plus) l’impudence de nommer, qui ont pignon sur rue, et qui vous affirment noir sur blanc que « la quantification linéarise les équations de la mécanique classique »…

Non seulement, c’est faux, mais c’est une idiotie : ces gens-là n’ont qu’à compulser leur biblio pour voir qu’en mécanique quantique, exactement comme en mécanique classique, il existe des équations de mouvement non-linéaires. La plus typique est sine-Gordon. On a aussi tous les oscillateurs anharmoniques. Donc, le passage aux opérateurs ne linéarise rien du tout.

Prenez la fonction de Lagrange générale d’un système classique :

 

(1a)  Lclass = ½ m(t)[dx(t)/dt]² + P[x(t),t].dx(t)/dt – V[x(t),t]

 

et mettez-la sous la forme suivante, mieux adaptée à l’analogie avec le quantique :

 

(1b)  Lclass = p²(t)/2m(t) + (1/m)P[x(t),t].p(t) - V[x(t),t]  ,  p(t) = m(t)dx(t)/dt

 

Maintenant, prenez la densité de force d’un KG anharmonique :

 

(2a)  Nquant = [p^iy(x)][p^iy(x)]*/2m + ½ Gi[y(x),y*(x),x]{y(x)[p^iy(x)]* + y*(x)[p^iy(x)]} – Npot[y(x),y*(x),x]

(2b)  Lquant = ò Nquantds  ,  p^i = iħi

 

obtenue en “singeant” (1b) par simple changement d’espace de configuration (et, par suite, de phase), l’analogie est aussi complète que flagrante : il a suffi de passer de x à (y,y*) et de t aux xi… Que vous apporte de nouveau, en fin de compte, l’opérateur 4-impulsion p^i ? Rien du tout… : p^iy(x) = iħiy(x) remplace p(t) = m(t)dx(t)/dt = [m(t)d/dt]x(t), c’est tout…

Je peux également mettre toute la mécanique classique sous forme opératorielle…

Dans le cas où les Gi (en m/s) ne dépendent pas explicitement de (y,y*), je retrouve l’oscillateur anharmonique relativiste.

 

Du coup, on peut aller encore plus loin que Prigogine et proposer une fonction de distribution quantique r[y(x),y*(x),x] dans l’espace de configuration des états et même une r{y(x),y*(x),p^iy(x),[p^iy(x)]*,x} dans l’espace des phases.

Mais alors, vous pouvez vérifier par vous-mêmes : la non-linéarité des équations de la dynamique quantique introduisent naturellement, non plus un crochet de Lie, mais un nouveau crochet de Poisson

 

Au bout du bout, on ne voit aucune différence significative de structure entre les équations de la mécanique classique et celles de la mécanique quantique, hormis le changement de cadre de travail et le nombre de paramètres de mouvement.

 

Mais, on voit apparaître un nouveau concept physique, celui d’hyperchamp : un hyperchamp, c’est une fonction ayant pour variable (y,y*) et pour paramètres de mouvement les xi.

Dans (2a), les Gi et Npot sont des fonctionnelles sur M4. Par contre, les Gi(y,y*,x), fonctions dynamiques dans l’espace d’état, de même que Npot(y,y*,x) deviennent des hyperchamps.

 

Pour résumer et pour tenter de satisfaire tout le monde (« vaste programme »…), ceux qui préfèrent s’arrêter de traiter les effets ondulatoires au-dessus des protéines pourront se tourner avec profit vers le chaos quantique… direction le macroscopique.

La démarche est en tout point identique à celle qu’ils effectuent pour des corps matériels. Au lieu d’être substantielle, elle est ondulatoire, c’est tout.

Le chaos déterministe ou quantique, substantiel ou ondulatoire, introduit l’irréversibilité dans les processus, les brisures de symétrie (temporelle, spatiale et même spatio-temporelle), qui finissent par conduire à l’établissement de formes macroscopiques.

 

C’est le Bi chinois, version substantielle ou ondulatoire : matière turbulente intégrée dans une forme rigoureuse.

 

Je le disais en introduction de cet article : Prigogine vient sans doute de nous sauver la mise.

Et pas un peu.

 

 

 

 

BIDOUILLE 60 : AU-DELA DE GINZBURG-LANDAU

Le 12/11/2013

Voici le problème du jour : Ginzburg-Landau est intéressant, mais bien trop simpliste dans notre contexte. Il n’enfonce guère que des portes ouvertes : on se doute bien que, plus la tension va approcher zéro, plus le nombre de neurones inactivables va augmenter. Mais, ce nombre reste global : il ne dépend que de la tension. Cela sous-entend une uniformité dans les zones silencieuses (la densité de neurones inactivables y est la même, non seulement en tous les points, mais à tout instant). Pour autant, le modèle n’explique en rien pourquoi ces neurones sont devenus inactivables. Il se borne à constater et à en fournir le nombre. D’autre part, on a besoin du condensat. Or, GL ne nous apprend strictement rien sur sa dynamique interne. Les variations spatio-temporelles de ce condensat apparaissent surtout aux interfaces entre zones activables et zones inactivables. Enfin, à quoi est-il censé se coupler, si couplage il y a ? Au champ électrochimique ? Dans les zones silencieuses, il est nul…

Du coup, je recherche des réponses possibles dans la prise en compte des états de vide.

Partons du lagrangien d’un corps « classique » de masse m en relativité de Galilée :

 

(1a)  L = ½ m[dx(t)/dt]² + P[x(t),t].dx(t)/dt – V[x(t),t]

 

et effectuons les remplacements suivants :

 

(1b)  m -> -ħ²/m , t -> xi , x(t) -> [y(x),y*(x)] , dx(t)/dt -> [iy(x),iy*(x)]

 

On constate que les champs P et V sont remplacés par des fonctionnelles Pi[y(x),y*(x),x] et V[y(x),y*(x),x]. De plus, les Pi doivent être complexes. La densité de lagrangien correspondante devant rester réelle, (1a) sera remplacé par :

 

(1c)  £y = -(ħ²/2m)iy(x)iy*(x) + P*i[y(x),y*(x),x]iy(x) + Pi[y(x),y*(x),x]iy*(x) - V[y(x),y*(x),x] =

= -(ħ²/2m){iy(x) – (2m/ħ²)Pi[y(x),y*(x),x]}{iy*(x) – (2m/ħ²)P*i[y(x),y*(x),x]} + (2m/ħ²)Pi[y(x),y*(x),x]Pi[y(x),y*(x),x] - V[y(x),y*(x),x]

= -(ħ²/2m)(Diy)(Diy)* + (2m/ħ²)PiP*i – V

 

La dérivation covariante a maintenant pour expression générale :

 

(1d)  Diy(x) = iy(x) – (2m/ħ²)Pi[y(x),y*(x),x]

 

Regardons les premières puissances du développement en y des Pi :

 

(1e)  Pi[y(x),y*(x),x] = P0i(x) + P1i(x)y(x) + ½ P2i(x)y²(x) + …

(1f)  P*i[y(x),y*(x),x] = P*0i(x) + P*1i(x)y*(x) + ½ P*2i(x)y*²(x) + …

 

Pi ne dépend donc que de y(x) et non de y*(x). Son conjugué ne dépend donc que de y*(x) et non de y(x). Qu’est-ce qui me fait dire ça ? L’examen de l’ordre 1, tout simplement : à cet ordre, Diy(x) = iy(x) – (2m/ħ²)P1i(x)y(x) est bien la dérivation covariante de la théorie quasi-classique usuelle, sa conjuguée étant (Diy)*(x) = iy*(x) – (2m/ħ²)P*1i(x)y*(x). Exemple typique : P1i(x) = i(ħq/2m)Ai(x).

Il ne faut quand même pas perdre de vue que l’ordre 1 n’est plus valable que pour des fonctions d’ondes y(x) suffisamment faibles. Quant à l’exemple P1i(x) = i(ħq/2m)Ai(x), il suggère d’introduire le champ :

 

(2a)  Ai[y(x),x] = A0i(x) + A1i(x)y(x) + ½ A2i(x)y²(x) + …

 

tel que Pi[y(x),x] = i(ħq/2m)Ai[y(x),x].

Interprétons : A0i(x) = Ai(0,x) est le champ « classique » que l’on obtient en négligeant complètement la présence de y(x), où que ce soit. C’est le potentiel de Maxwell. Lorsque l’on tient compte d’une « petite composante ondulatoire », on voit apparaître A1i(x)y(x). Plus on tiendra compte de « l’effet ondulatoire », ou plus celui-ci deviendra significatif, plus il faudra pousser loin le développement en puissances de y(x) et plus il apparaîtra de nouvelles composantes Ani(x) de champ.

Supposons à présent que y(x) soit un « champ de vide ». Alors, y(x) º 0 correspondra à l’ordre zéro, c’est-à-dire, à A0i(x) : c’est bien le cadre du « vide classique » de la théorie de Maxwell. Toute autre valeur non nulle ou non partout nulle de y(x) donnera un « autre » champ Ai[y1(x),x].

Tournons-nous vers la fonctionnelle V. Si je la prends telle que :

 

(2b)  V[y(x),y*(x),x] = (2m/ħ²)Pi[y(x),x]P*i[y(x),x] = (q²/4m)Ai[y(x),x]Ai[y*(x),x]

 

{on a A*i[y(x),x] = Ai[y*(x),x], cf. (2a)}, je ne conserverai plus que ma partie cinétique -(ħ²/2m)(Diy)(Diy)* dans le référentiel tournant (dans l’espace des fonctions d’onde). Ma densité de lagrangien prend la forme :

 

(2c)  £y = -(ħ²/2m)iy(x)iy*(x) + Pi[y*(x),x]iy(x) + Pi[y(x),x]iy*(x) - (2m/ħ²)Pi[y(x),x]Pi[y*(x),x]

 

Moments :

 

(2d)  £y/[iy*(x)] = -(ħ²/2m)iy(x) + Pi[y(x),x]

 

Ensuite :

 

(2e)  £y/y*(x) = [Pi/y*(x)][iy(x) + (2m/ħ²)Pi]

 

Equation :

 

(2f)  di£y/[iy*(x)] = £y/y*(x)  ,  di = i + (iy)/y + (iy*)/y*

 

On trouve :

 

(2g)  -(ħ²/2m)iiy(x) = -iPi + {(/y*)Pi[y*(x),x] – (/y)Pi[y(x),x]}iy(x) + (2m/ħ²)Pi[y(x),x](/y*)Pi[y*(x),x]

 

Le membre de droite représente la “force”. L’équilibre sera atteint lorsque cette force s’annulera, ce qui conduit à l’équation d’équilibre :

 

(2h)  iPi + {(/y)Pi[y(x),x] – (/y*)Pi[y*(x),x]}iy(x) –

(2m/ħ²)Pi[y(x),x](/y*)Pi[y*(x),x] = 0

 

 

EDP fortement non linéaire en (y,y*), mais du premier ordre, dont la solution yeq(x) va dépendre des coefficients Pni(x) et de leurs 4-divergences iPni(x). A moins que je n’ai de sérieux problèmes de vue, yeq(x) est encore un champ variable :

 

(3a)  yeq(x) = Yeq[P0i(x),…,PNi(x);iP0i(x),…,iPNi(x)]  ,  Pni(x) = i(ħq/2m)Ani(x)

 

avec N entier positif, éventuellement infini. De plus, mes Pni(x) et iPni(x) jouent, dans cette expression, le rôle de paramètres (champs). Si je rentre (3a) dans (2g), j’obtiens une équation aux dérivées partielles liant ces paramètres :

 

(3b)  iiYeq[P0i(x),…,PNi(x);iP0i(x),…,iPNi(x)] = 0

 

Hors équilibre, par contre, j’ai à résoudre (2g).

Regardons (2h) en yeq(x) º 0. Des développements (1e) et (1f), je tire :

 

(3c)  iP0i - (2m/ħ²)P0iP*1i = 0            [yeq(x) º 0]

 

qui me donne P1i d’après P0i (si P0i º 0, l’équation est identiquement vérifiée). Cela signifie qu’en cet état d’équilibre, P1i dérive de P0i. En particulier, le potentiel électromagnétique A1i(x) dérivera du potentiel maxwellien A0i(x).

 

Que nous apprennent ces quelques développements ?

Qu’en passant d’un modèle quasi-classique de type Ginzburg-Landau à un modèle non linéaire un peu plus élaboré, on peut utiliser les composantes Ani(x) de champs électromagnétiques comme des paramètres de contrôle d’une transition.

Que les fonctions d’ondes à l’équilibre peuvent rester des champs variables, ce qui est bien plus intéressant que des champs globaux, partout uniformes.

Que les champs Ani(x) ne sont pas tous indépendants, mais liés par (3b).

 

Je sais, certains grinceront des dents : « le problème des ‘vides locaux’, c’est de privilégier certains référentiels… »

On n’est pas tout à fait dans le même contexte : ce qu’on appelle « vide » ici, c’est seulement la fonction d’onde qui minimise toute la partie non purement cinétique de (2c), soit les 3 derniers termes. Ce n’est pas l’absence totale de particules. Ce n’est pas le vide des hautes énergies, même si j’ai fait le traitement en Klein-Gordon. On peut d’ailleurs toujours revenir à Schrödinger en passant à la limite c -> ¥, ce qui ramène de l’hyperbolique au parabolique. C’est quand même plus simple à traiter en KG, parce qu’espace et temps sont sur un pied d’égalité.

 

Ceci dit, le modèle ne nous en dit toujours pas plus sur la dynamique interne du condensat, ni sur ce qu’il est censé devenir ensuite…

 

 

 

BIDOUILLE DEUCH'NORD (59): HEIN ??? C'EST QUÔI L'TITRE ??? 8((((

Le 08/11/2013

J’essaie de me mettre à la place des biologistes et même de certains biochimistes qui pourraient légitimement, soit douter de l’efficacité réelle des effets quantiques à l’échelle de l’animal, soit se demander comment ces effets pourraient bien se manifester à cette échelle de façon significative. Je vais donc commencer par essayer de démystifier ce point, avant de passer au fonctionnement proprement dit.

Lorsqu’on apprend les bases de la « mécanique ondulatoire », on nous explique que la longueur d’onde du signal associé au corpuscule, l, est inversement proportionnelle à l’impulsion de ce corpuscule et donc, au produit de sa masse par sa vitesse de déplacement : l = h/p = h/mv. En conséquence, plus la masse du corps considéré est importante, plus cette longueur d’onde est petite, reléguant de facto les effets proprement ondulatoires dans le domaine du microscopique. L’exemple typique donné est celui du grain de sable. Je ne vais pas revenir là-dessus, c’est dans tous les cours de présentation de la quantique. Ainsi, pour des corps géants comme des étoiles ou des planètes, l est ridiculement petit, de sorte que l’effet ondulatoire devient complètement négligeable et le maximum de la fonction d’onde se confond sans erreur notable avec le mouvement du corpuscule décrit par la mécanique classique. Il n’en reste pas moins que cette fonction d’onde existe bel et bien ! La confusion pourrait alors provenir du fait que cette extrême petitesse de l est due à celle de la constante de Planck h. C’est vrai, mais uniquement, pour des corps individuels. C’est là qu’intervient tout l’intérêt des comportements collectifs. Car, collectivement, ces effets quantiques peuvent alors passer du négligeable au notoire. Jean-Marc Lévy-Leblond l’explique de manière vulgarisée dans un article intitulé « la quantique à grande échelle », paru dans « Le monde quantique », coll. Points Sciences, Seuil. Il précise que c’est même le quantique qui explique la matière. Et d’ajouter que la matière existe parce que la quantique existe. La physique classique, elle, ne sait pas décrire correctement la matière, en tous cas, pas son essence.

Vous savez au moins qu’il est beaucoup plus facile de mettre des bosons, particules de rayonnement, en état collectif, car ces particules ont un comportement naturellement « moutonnier », « grégaire ». Pour obtenir un résultat similaire avec des fermions, particules de matière, il faut les coupler en paires. Ces paires deviennent alors des bosons.

Pour en revenir à la biologie, on s’attend donc logiquement à ce que la fonction d’onde d’une cellule vivante quelconque, mais individuelle, soit quasiment impossible à mettre en évidence, en raison de l’extrême petitesse de sa longueur d’onde. En revanche, si un ensemble de cellules, même différentes, adopte un comportement collectif, après changement d’état, la fonction d’onde de cet ensemble pourra devenir détectable. A condition de la rechercher, bien évidemment.

Si ceci est mieux acquis, revenons sur un cas d’actualité qui illustrera bien le changement radical de contexte : la notion de qubit.

Dans les transistors en commutation courants, on n’a que 2 états logiques en sortie, 0 (absence de courant, donc pas de transmission entrée -> sortie, transistor « bloqué », circuit ouvert) et 1 (présence de courant en sortie, donc transmission entrée -> sortie, transistor « saturé », circuit fermé). C’est la logique « déterministe ».

Dans les transistors exploitant le maximum de l’effet tunnel (parler de transistors « quantiques » ne voudrait rien dire : le transistor est déjà un dispositif quantique), un 3ème état logique devient possible : 0/1. Dans cet état, instable (oscillatoire) pour le transistor courant, mais bien défini dans « l’exotique », le transistor se retrouve en même temps « bloqué » et « saturé », comme un commutateur qui serait à la fois « ouvert » et « fermé ». C’est un état clairement contradictoire pour la logique déterministe (et même pour la logique rationnelle tout court) : on ne peut pas être et ne pas être à la fois. C’est pourtant ce qui se passe avec les qubits : si la barrière tunnel est assez fine, le corpuscule matériel (ici, l’électron) est toujours stoppé en entrée, mais sa fonction d’onde a une probabilité de franchir la barrière par effet tunnel, proportionnellement à l’épaisseur de cette barrière. Si T (resp. R) est le coefficient de transmission (resp. de réflexion) de la barrière (qui agit comme une lame optique vis-à-vis des fonctions d’onde), le paquet d’ondes se scinde en deux : une partie est transmise de l’autre côté de la barrière, en sortie, avec la probabilité T, l’autre partie est réfléchie par la barrière, en entrée, et repart en arrière, avec la probabilité R. On a évidemment T + R = 1.

Attention : quand on parle de scission d’un paquet d’ondes, il s’agit en réalité d’un dédoublement de celui-ci. La copie transmise va se voir amortie à la traversée de la barrière. Formellement, il faudrait une barrière d’épaisseur infinie pour que la transmission ne s’effectue pas (T = 0). A moins que le paquet d’ondes ne soit absorbé par le milieu, mais alors, il se couplera à la fonction d’onde dudit milieu, ce qui redonnera une autre fonction d’onde. Bref… J

Le maître-mot sur les fonctions d’ondes, c’est : transformation. Une fonction d’onde ne se perd jamais, elle se transforme ou est transformée en ou absorbée dans une autre. En relativité d’espace, tout du moins. En relativité d’espace-temps, on a, en plus, la faculté de créer des fonctions d’ondes à partir du vide.

Pour en revenir à nos qubits, en pratique, il y aura donc toujours transmission. Ce n’est que si l’épaisseur de la barrière est suffisante que le coefficient de transmission deviendra négligeable. Néanmoins, il ne sera jamais rigoureusement nul !

(une probabilité n’est d’ailleurs jamais rigoureusement nulle, en théorie seulement ; en pratique, elle ne peut devenir qu’exponentiellement négligeable)

Par conséquent, ce que nous révèlent les qubits, c’est que le véritable état de fonctionnement de tout transistor en commutation, quelle que soit sa technologie, est le mode 0/1. Ce mode est une superposition statistique des modes 0 et 1. En notation de Dirac (vecteurs d’état) :

 

(1)  |0/1> = ÖR|0> + ÖT|1>

 

et ce n’est que si T (resp. R) devient négligeable que le transistor se « bloque » (resp. devient passant). Le mode déterministe « 0 ou 1 mais pas les deux » n’est qu’un cas particulier du mode « 0 ou 1 ou même les deux à la fois ».

ça dérange la conception de beaucoup, y compris des scientifiques, ça ne devrait pourtant pas, parce que ça se base sur les propriétés des probabilités, qui ne déroutent plus personne depuis longtemps. Je pense que ça tient uniquement à une difficulté de se représenter les choses. Sinon, les propriétés sont exactement les mêmes :

 

(2a)  « |0> et |1> mutuellement exclusifs »  <=>  P(|0> Å |1>) = P(|0>) + P(|1>) = R + T = 1

(2b) « |0> et |1> statistiquement indépendants »  <=>  P(|0> ET |1>) = P(|0>)P(|1>) = RT

(2c)  « |0> et |1> statistiquement dépendants »  <=>  P(|0> OU |1>) = P(|0>) + P(|1>) - P(|0> ET |1>) = R + T – RT = 1 – RT

 

Je me doute que, ce qui est difficile à avaler, sur des objets macroscopiques, c’est cette faculté de se dédoubler, inaccessible à la matière substantielle, de se déformer, oui, mais en conservant sa surface, déjà moins ; quant à traverser n’importe quel obstacle… pour se retrouver à la fois devant et derrière le mur…

C’est pourtant ce qui est observé et ce qui a fait dire à bon nombre de théoriciens des quanta « qu’il fallait tout simplement s’y faire, bon gré, mal gré, parce que c’est comme ça et pas autrement que fonctionne la Nature »…

Alors, je ne dis pas qu’il FAUT l’accepter en biologie, je dis que, non seulement c’est constructible, mais qu’il n’y a aucune raison physique que ça ne le soit plus à partir d’un certain niveau de complexité et qu’on devrait déjà chercher à le mettre en évidence expérimentale avant de le rejeter purement et simplement.

Rien ne justifie la disparition des effets ondulatoires en biologie. Après, qu’on dise que ça sorte de la biologie, je ne suis pas même d’accord : c’est une forme complémentaire de biologie, comme la fonction d’onde est complémentaire du corpuscule. J’irais même jusqu’à dire que c’est une forme indissociable, parce qu’en fonctionnement « normal » au moins, la fonction d’onde est indissociable du corpuscule.

On a fait de la biologie des supports, des substrats ; au fur et à mesure qu’on a décortiqué les mécanismes, on a exploré de plus en plus petit, pour finir par croiser la route de la chimie quantique au niveau génétique et moléculaire ; il faudrait peut-être à présent remonter les chaînes de la complexité en leur associant les compléments ondulatoires.

Et en se trouvant souvent dans le cadre d’une logique contradictoire.

Je prends un exemple très simple : une cellule non nerveuse est corrélée à un neurone par voie ondulatoire. La corrélation concerne donc leurs fonctions d’onde, pas leurs substrats. Résultat ? Une cellule, même pas composite, une nouvelle cellule (virtuelle, ici) ne possédant qu’un seul noyau (et non deux comme on pourrait s’y attendre) et présentant la propriété plutôt contradictoire de progager et ne pas progager en même temps le signal nerveux ! L

Cette nouvelle cellule virtuelle se comporte assure les deux fonctionnalités à la fois et ceci, à tout instant. Résultat de l’intrication…

Autre exemple : l’intrication ondulatoire d’une cellule différenciée et d’une cellule non différenciée. Le résultat sera une cellule à la fois différenciée et non différenciée…

La propriété d’un mélange, c’est bien quand même de ne plus être en mesure de séparer les différents ingrédients… J Il y a une irréversibilité dans le processus.

Prenez deux particules indépendantes, faites-les interagir, séparez-les : quand on dit « qu’elles n’interagissent plus », c’est en fait, non seulement inexact, mais carrément faux ! Il conviendrait de dire qu’elles continuent d’interagir, mais que l’intensité de leur interaction s’affaiblit avec leur distance de séparation. Ce qui est complètement différent ! ça veut dire qu’une fois avoir interagi, elles interagiront toujours, mais plus ou moins fortement. Vous ne pourrez donc plus retrouver les particules de départ dans leur état initial exact. C’est fini, ça appartient au passé. Vous les retrouverez dans des états proches de leurs états initiaux, mais pertubés par l’interaction qu’elles auront subie, comme des séquelles. Des « traces ». Une « mémoire de l’interaction ».

Vous prenez deux cellules, vous les collez, soit vous parvenez à les décoller, soit vous utilisez des « bistouris chimiques » : vous retrouverez vos cellules dans leurs états initiaux respectifs, à moins que l’une n’ait bouffé l’autre. Sans doute trouverez-vous, avec une bonne résolution, quelques traces du collage sur les membranes externes, mais ça n’ira pas plus loin.

Essayez de faire de même avec des cellules virtuelles : macache ! Vous obtiendrez deux cellules, c’est vrai, mais quand vous regarderez la composition et les fonctionnalités des deux, vous vous trouverez en présence de deux « hybrides »…

Et ces hybrides continueront d’interagir, quoique vous fassiez pour les en empêcher !

 

Eh bien, ce qui vaudrait pour des cellules devrait valoir pour des tissus, des organes et, en fin de compte, des animaux, puisque ce n’est qu’une question d’assemblages et qu’on a vu que cet assemblage de substance s’accompagnait d’un assemblage de fonctions d’ondes

 

Dans un atome, tous les constituants (protons, neutrons et électrons) sont corrélés, puisqu’ils sont tous en interaction. A l’échelle de l’atome, cette corrélation est globale (macroscopique); à l’échelle d’une cellule vivante, elle apparaît déjà locale (microscopique) ; à l’échelle d’un animal, elle apparaît carrément « microlocale » (sub-microscopique). Pour autant, dans mon atome, tous les constituants ne peuvent se trouver sur les mêmes niveaux d’énergie. Parce que protons, neutrons et électrons sont des fermions. Au mieux, seules des paires de fermions identiques peuvent se trouver sur le même niveau d’énergie. On peut donc être corrélé, même fortement, sans pour autant se trouver sur le même niveau d’énergie et, en particulier, sur le niveau fondamental, où l’énergie d’interaction est la plus basse (fond du puits de potentiel).

 

Il ne s’agit donc pas de confondre corrélation et cohérence (de phase) : toute cohérence de phase est nécessairement une corrélation, mais la réciproque est fausse.

 

Moralité : vous pouvez corréler des cellules vivantes en les collant les unes aux autres pour former des tissus, l’ensemble sera structuré, mais pas cohérent pour autant.

La biologie observe des corrélations (entre cellules, entre tissus, entre organes). L’interconnexion est une corrélation (organique).

Il n’en reste pas moins que toutes ces corrélations restent incohérentes.

Le stade suivant, c’est la cohérence de phase. Et ça, c’est du pur ondulatoire : il est physiquement impossible de cohérer des systèmes en ne faisant appel qu’aux propriétés substantielles de la matière.

Pour obtenir une phase cohérente à partir d’un ensemble incohérent, il faut abaisser un ou plusieurs paramètre(s) d’ordre. Afin de constituer un ordre global, dans cet ensemble, mais un nouvel ordre, à la fois ondulatoire et d’énergie potentielle minimale. Un ordre de cohérence.

Le principe de ce qui se passe est assez simple à comprendre : au-dessus du seuil critique de transition, c’est l’agitation qui maintient l’incohérence du système. Au-dessous de ce seuil, l’énergie d’agitation n’est plus suffisante pour empêcher les constituants de « se condenser » en une configuration dont l’énergie potentielle sera la plus petite possible. Si la transition est thermique, le paramètre d’ordre est la température et l’agitation en question est l’agitation thermique. Dans le cas du système nerveux, la seule transition qui paraisse couvrir les 4 stades de coma tout en incluant la possibilité de maintien en survie artificielle me semble être le champ de pensée U(x,t). L’agitation en cause est alors électrique. Elle devient électromagnétique si l’on prend la composante magnétochimique en compte. Les fluctuations sont dues, non plus à la température du milieu, mais à l’intensité de son activité électrique.

Au-dessus d’un seuil critique Uc, ces fluctuations sont trop importantes, elles empêchent les fonctions d’ondes neuronales d’entrer en cohérence. Ce qui ne les empêche nullement, par contre, de se corréler entre elles.

Au-dessous de ce seuil, l’intensité de l’activité électrique n’est plus suffisante pour empêcher l’entrée en cohérence. Les fonctions d’onde commencent à s’accumuler sur le niveau énergétique fondamental. Sur ce point JM Lévy-Leblond confirme ce que je disais dans la bidouille 58 : le comportement bosonique étant par nature grégaire, plus on trouve de bosons sur le mode fondamental, plus les autres sont « attirés » vers ce mode et tentés de « rejoindre la meute ».

Et c’est bien ce que les médecins constatent, non ? Il est plus facile de s’enfoncer dans le coma que de remonter des profondeurs du coma. A cause, justement, de ce comportement ondulatoire collectif : on tient là une explication physique, au moins théorique.

Hormis le stade I, les autres stades restent inexpliqués par la biologie, qui se borne à constater. Si elle avait une explication, elle aurait l’antidote… J

L’anesthésiste maîtrise bien, de nos jours, le stade I : parce qu’on en connaît les mécanismes, plus biologiques qu’ondulatoires (ces derniers sont encore négligeables, car les populations de neurones concernés restent négligeables par rapport au nombre total – d’autant plus dans les anesthésies locales). Cette compréhension des mécanismes de transmission chimique de l’influx nerveux a permis l’élaboration de substances pharmacologiques permettant d’inhiber temporairement l’activité électrique des neurones concernés.

Pour une biopsie du cavum, on m’a injecté une berceuse, 200 fois la morphine… Je te l’ai écrasée, mon pauvre… lol

On a des molécules, aujourd’hui, adaptées à tous les âges, à presque tous les profils médicaux, réveil sans séquelles, sans trous de mémoire, sans rien…

Quand je pense que, quand j’étais petit, j’ai encore connu le masque à gaz (pour l’ablation des végétations), les nausées qui s’ensuivaient, et on avait abandonné le chloroforme depuis pas longtemps… et je date pas des Mérovingiens…

Si on n’est pas allé au-delà, je me doute bien que c’est parce qu’on n’a pas encore pu…

Et moi, le peu que j’ai appris et compris de la biologie m’a expliqué que rien de biologique n’explique le refus des assemblées de neurones de redémarrer, alors que tous les voyants biochimiques sont au vert

On nous décortique le mécanisme d’activation du neurone, on nous explique qu’il est même capable de s’activer lui-même et le con, y refuse de le faire quand on en a besoin !...

C’est pas vrai ? Y a Jipé qui prend l’axone géant du calmar, y bourre sa mère de solutions salines, le truc, il est complètement isolé du reste de l’organisme, disséqué… y fout une électrode, ça marche ! Y prend un gonze même en stade II, y fout une microélectrode dans le chou-fleur, ça marche pas !!! 8(((

Question : pourquoi ça marche pas, alors que ça devrait ?... Pourquoi le boudin isolé fonctionne et pas le cerveau interconnecté du gonze ?... Faut tout disséquer pour que ça se remette à fonctionner ?... lol Faut lui bourrer la tronche d’eau de mer ?...

 

Par contre, dès lors qu’on avance l’hypothèse, vérifiable expérimentalement en raison de ses effets macroscopiques, de la mise en cohérence de phase des fonctions d’ondes neuronales, on saisit déjà un peu mieux la possible origine physique du problème.

Dans l’état conscient, je peux trouver des neurones individuels et même des blocs de neurones silencieux pendant une durée donnée, qui peut même s’avérer relativement longue, si ces zones ou ces neurones ne sont pas sollicités. Ça ne pose aucun problème de fonctionnement, ni aucun souci au biologiste, parce que tous les neurones du système nerveux sont connectés et donc corrélés les uns aux autres : la corrélation est globale. On n’a pas de neurone isolé.

En revanche, il y a un savant désordre, généralisé, de nature électrique, qui règne à l’intérieur de ce système :

 

L’ETAT CONSCIENT EST GLOBALEMENT CORRELé, MAIS GLOBALEMENT INCOHERENT.

 

Dans l’état inconscient, mon système reste évidemment globalement corrélé, sauf tumeurs et autres lésions qui pourraient se présenter et qui peuvent se modéliser comme des « impuretés » (tumeurs) ou des « défauts de structure » (lésions) dans le milieu mais, en plus, il devient cohérent :

 

L’ETAT INCONSCIENT EST A LA FOIS GLOBALEMENT CORRELé ET COHERENT.

 

Néanmoins, cette cohérence concerne tout ou partie du système. Les neurones silencieux vont se corréler à distance, sans avoir besoin d’être interconnectés, parce que leurs fonctions d’ondes vont toutes basculer sur le fondamental. Plus l’intensité de l’activité électrique de l’ensemble va baisser, plus on va trouver de neurones silencieux, plus de fonctions d’ondes vont s’accumuler sur le fondamental. Le patient va s’enfoncer dans le coma.

Lorsque l’ensemble de l’activité électrique aura cessé, tous les neurones du système seront silencieux, toutes les fonctions d’ondes neuronales auront basculé sur le fondamental, l’effet sera macroscopique et global : le patient sera en coma dépassé.

 

Pour que des patients déclarés en état de « mort clinique » ait pu « revenir à la vie » alors qu’on ne s’y attendait plus, il leur a fallu remonter du stade IV au stade 0 de l’état conscient.

Et, pour remonter, il faut casser la cohérence.

Si le médecin n’y est pas parvenu lui-même, si le recours aux électrochocs serait catastrophique, c’est que quelque chose d’autre, un autre champ physique, est intervenu pour casser cette cohérence. C’est obligatoire. Le patient est incapable de remonter de lui-même.

Si vous prenez des systèmes, certes « simplistes » au regard de la complexité biologique, comme des superfluides, vous augmentez la température pour casser la cohérence de phase et retrouver un liquide « normal ». Si vous prenez des supraconducteurs, vous pouvez, soit remonter la température, soit appliquer un courant électrique ou un champ magnétique extérieur : ces deux derniers casseront la cohérence de phase des paires de Cooper.

Un superfluide, un supraconducteur, un laser, n’importe quoi de cohérent, ne retournera pas de lui-même à l’état d’incohérence. Il lui faudrait pour cela passer d’un équilibre stable d’énergie potentielle minimale à un équilibre instable, d’énergie relative maximale : c’est contraire aux lois physiques (principe de moindre action).

Il faut une intervention extérieure. Sans tomber dans l’ésotérisme, j’indique seulement que la sortie du coma III et IV par soi-même est physiquement irréalisable : trop de neurones ont basculés en cohérence.

 

 

 

Minibluff the card game

Hotels