doclabidouille
BIDOUILLE 61 : PRIGOGINE LE SAUVEUR ?
Le 13/11/2013
L’ambiance, ces derniers jours, était assez morose car je commençais à perdre espoir de trouver quelque chose de significatif à mettre sous la dent des biologistes.
Comme toujours dans ces cas-là, j’ai farfouillé dans mes bouquins aux pages noircies par l’utilisation et j’ai déjà retrouvé une première pépite :
CONTRAIREMENT A LA LONGUEUR D’ONDE MECANIQUE lméc = h/mv QUI DEVIENT RAPIDEMENT NEGLIGEABLE POUR DES CORPS MACROSCOPIQUES, LA LONGUEUR D’ONDE THERMIQUE lth = hc/kBT EST LOIN DE L’ETRE. ELLE EST MÊME D’AUTANT PLUS GRANDE QUE LA TEMPERATURE DU MILIEU EST BASSE. QUANT AU RAPPORT hc/kB, IL VAUT APPROXIMATIVEMENT 1,44 10-2 Km.
Comparez : pour un grain de sable d’1mm de masse 1mg et de vitesse 1mm/s, lméc » 6,63 10-16 m = 0,663 F, alors qu’à température ambiante T = 27°C » 300K, lth » 4,8 10-5 m = 48 mm, 48 fois le rayon du grain de sable !!!
Je me suis donc reposé la question de fond : à quoi peut-être due la nature probabiliste du module de la fonction d’onde ? Principalement, sinon essentiellement, à l’agitation thermique. Et de répartir les deux longueurs d’ondes de la manière suivante : la mécanique dans la phase, la thermique, dans le module. De la sorte, lth² joue le rôle de l’écart-type pour des fluctuations métriques autour d’un point de l’espace(-temps). Lesquelles fluctuations métriques sont alors dues à l’agitation thermique.
Les deux longueurs d’ondes sont des grandeurs macroscopiques (elles s’obtiennent par mises en moyenne). Si la mécanique est négligeable à nos échelles, la thermique est loin de l’être. C’est déjà un premier argument en faveur de l’influence des effets quantiques à nos échelles, via l’amplitude et non la phase de la fonction d’onde et grâce à la petitesse de la constante de Boltzmann kB (» 1,38 10-23 J/K), qui vient compenser en bonne partie celle de h.
Il subsiste quand même un petit hic dans cette construction de la fonction d’onde : elle présuppose que l’espace-temps soit fluctuant. C’est loin d’être impossible, mais ça reste contraignant, car on s’attend à des fluctuations significatives dans le tissu spatio-temporel à des températures bien plus élevées. Aux températures ambiantes, on renverse en quelque sorte le problème : lth devient (très) significative, mais les fluctuations de l’espace-temps deviennent infimes…
C’est, en fin de compte, Prigogine qui sauve la baraque. Je ne sais pas si, de son vivant, il avait envisagé une conséquence quelconque de sa synthèse sur la parapsychologie. Et il n’est pas venu de me dire ce qu’il en pensait désormais… J
Toujours est-il qu’il nous sort une ENORME épine du pied. Car, il place au même niveau trajectoires et fonctions d’ondes :
AU NIVEAU MICROSCOPIQUE, ON EST LOCAL ET DETERMINISTE. C’EST LE SIEGE DES TRAJECTOIRES ET DES FONCTIONS D’ONDES DE CORPS INDIVIDUELS. C’EST LE DOMAINE DE L’INSTABILITE ET DU DESORDRE STRUCTUREL.
Les équations de mouvement de la mécanique classique sont déterministes, puisqu’elles traduisent des lois physiques déterministes : une fois données les conditions initiales au départ du mouvement ou à un instant quelconque de celui-ci, on peut en déduire toute l’information sur le passé et le futur de ce mouvement. La trajectoire x(t) dans l’espace E3 ou xi(t) dans l’espace-temps M4 a un caractère local.
Il en va exactement de même pour les fonctions d’ondes y(x,t) en relativité de Galilée ou y(x) en relativité d’Einstein : y(x,t) obéit à l’équation de Schrödinger, qui est déterministe ; y(x) obéit à des généralisations de Schrödinger telles que Klein-Gordon, Dirac,…, qui sont toutes déterministes.
Quant à la nature des objets y(x,t) et y(x), elle est foncièrement locale : dans le cas galiléen, la probabilité de trouver la particule quantique dans un voisinage dx de x à l’instant t est dP(x,t) = |y(x,t)|²d3x, si y(x,t) est exprimé en m-3/2 ; dans le cas einsteinien, la même proba de trouver la particule dans un voisinage dxi de xi est dP(x) = |y(x)|²d4x, en mesurant y(x) en m-2. En fait, y(x,t) représente « l’étalement ondulatoire » autour d’un objet classique, ponctuel, à savoir, le corpuscule. y(x) ne représente rien d’autre, dans l’espace-temps.
Il en résulte que y(x,t) comme y(x) sont bel et bien des paquets d’ondes, mais des paquets d’ondes individuels : ils ne concernent qu’un seul corpuscule. Quand on est passé de la mécanique classique à la mécanique quantique, on a simplement changé de cadre de travail : on est passé de E3 ou M4 à un espace d’états, mathématiquement un L2 ou un H1 de Sobolev, dont les « points » sont les y et les « paramètres de mouvement », les (x,t) ou les xi. En conséquence, dans les systèmes classiques à N corps, l’espace de configuration sera E3N ou M4N et, dans les systèmes quantiques à N particules (pas forcément identiques), l’espace d’état de configuration sera un (L2)N ou un (H1)N…
Nous avons été nombreux à nous laisser abuser par la fonctionnalité de y et à nous représenter y(x) comme un champ de particules relativistes. Ilioupoulos lui-même expliquait, lors d’un séminaire Normale Sup à la fin des années 1970, que le problème des « divergences infrarouges » était dû au fait que, même dans un volume d’espace (ou un 4-volume d’espace-temps) fini, on se retrouvait avec un nombre infini de degrés de liberté, parce que y(x) était physiquement un milieu continu…
C’est Prigogine qui avait raison : y(x) n’est pas un milieu continu, ce n’est pas un champ, c’est l’extension ondulatoire, de nature probabiliste, censé entourer un corpuscule classique situé en x ; c’est un objet physique individuel. Je pense que la confusion des genres est venue du fait qu’en physique des particules, on traite souvent d’ensembles de particules identiques. Et donc, on a une tendance assez naturelle à assimiler la fonction d’onde individuelle y(x) au « champ de particules identiques » tout entier, en positionnant les corpuscules en chaque point du (4-)volume…
Prigogine nous explique : cette représentation est erronée. Dans un système à N particules, on doit trouver N fonctions d’ondes yi(xi), la fonction d’onde yi étant localisée autour du i-ème corpuscule classique, i = 1,…,N.
Et ça change tout. Parce qu’au niveau mésoscopique, on trouve la statistique : la mécanique statistique de Maxwell-Boltzmann est le niveau de description mésoscopique de la mécanique classique, la statistique quantique est le niveau de description mésoscopique de la mécanique quantique. Il le disait lui-même dans ses « Lois du chaos » : ce niveau intermédiaire de description des (grands) systèmes réconcilie mécanique classique et thermodynamique. On y trouve des faisceaux de trajectoires. Si l’on est classique, ce sont des ensembles plus ou moins denses de courbes x(t) ou xi(t) ; si l’on est quantique, ce sont des ensembles plus ou moins denses de y(x,t) ou de y(x). Il rappelle les deux représentations duales et équivalentes de la mécanique classique : le formalisme hamiltonien et celui de Liouville. C’est ce dernier qui est le mieux adapté au niveau mésoscopique : la trajectoire x(t) ou xi(t), objet individuel et local, se voit remplacée par la fonction de distribution (une loi de probabilité) r[x(t),t] dans l’espace de configuration ou, mieux, r[x(t),p(t),t] dans l’espace des phases du système ; idem en 4D.
Prigogine fait de même avec la mécanique quantique. Il remplace l’équation de Liouville, qui utilise le crochet de Poisson, par l’équation de Liouville-Von Neumann, qui utilise le crochet de Lie, il remplace la fonction de distribution précédente par la densité de probabilité de présence r(x,t) = |y(x,t)|² et exhibe ainsi l’analogie complète entre l’équation de conservation de la probabilité dans le cas classique, ¶rclass/¶t = {H,rclass} = Lclass^rclass, et dans le cas quantique, ¶rquant/¶t = [H,rquant] = Lquant^rquant : dans les deux cas, on trouve un opérateur de Liouville…
Il va alors plus loin et propose un formalisme général : passer de la description en termes de trajectoires et fonctions d’ondes, cantonnées au domaine microscopique, à une description en termes de fonctions de distribution. Dans le cas quantique, ceci revient à utiliser la matrice densité. Dans le cas dit « pur », elle est donnée par r = |y|². Dans le cas général, elle est un mélange statistique de cas « purs » et n’est donc plus factorisable. Il explique que c’est cette perte de factorisation qui modélise l’irréversibilité des processus quantiques et le chaos quantique. Le chaos quantique est un chaos ondulatoire. Tout comme le chaos déterministe, il résulte de la non-linéarité des équations de mouvement de la mécanique quantique.
Il y a des gens, que je n’aurai pas (ou plus) l’impudence de nommer, qui ont pignon sur rue, et qui vous affirment noir sur blanc que « la quantification linéarise les équations de la mécanique classique »…
Non seulement, c’est faux, mais c’est une idiotie : ces gens-là n’ont qu’à compulser leur biblio pour voir qu’en mécanique quantique, exactement comme en mécanique classique, il existe des équations de mouvement non-linéaires. La plus typique est sine-Gordon. On a aussi tous les oscillateurs anharmoniques. Donc, le passage aux opérateurs ne linéarise rien du tout.
Prenez la fonction de Lagrange générale d’un système classique :
(1a) Lclass = ½ m(t)[dx(t)/dt]² + P[x(t),t].dx(t)/dt – V[x(t),t]
et mettez-la sous la forme suivante, mieux adaptée à l’analogie avec le quantique :
(1b) Lclass = p²(t)/2m(t) + (1/m)P[x(t),t].p(t) - V[x(t),t] , p(t) = m(t)dx(t)/dt
Maintenant, prenez la densité de force d’un KG anharmonique :
(2a) Nquant = [p^iy(x)][p^iy(x)]*/2m + ½ Gi[y(x),y*(x),x]{y(x)[p^iy(x)]* + y*(x)[p^iy(x)]} – Npot[y(x),y*(x),x]
(2b) Lquant = ò Nquantds , p^i = iħ¶i
obtenue en “singeant” (1b) par simple changement d’espace de configuration (et, par suite, de phase), l’analogie est aussi complète que flagrante : il a suffi de passer de x à (y,y*) et de t aux xi… Que vous apporte de nouveau, en fin de compte, l’opérateur 4-impulsion p^i ? Rien du tout… : p^iy(x) = iħ¶iy(x) remplace p(t) = m(t)dx(t)/dt = [m(t)d/dt]x(t), c’est tout…
Je peux également mettre toute la mécanique classique sous forme opératorielle…
Dans le cas où les Gi (en m/s) ne dépendent pas explicitement de (y,y*), je retrouve l’oscillateur anharmonique relativiste.
Du coup, on peut aller encore plus loin que Prigogine et proposer une fonction de distribution quantique r[y(x),y*(x),x] dans l’espace de configuration des états et même une r{y(x),y*(x),p^iy(x),[p^iy(x)]*,x} dans l’espace des phases.
Mais alors, vous pouvez vérifier par vous-mêmes : la non-linéarité des équations de la dynamique quantique introduisent naturellement, non plus un crochet de Lie, mais un nouveau crochet de Poisson…
Au bout du bout, on ne voit aucune différence significative de structure entre les équations de la mécanique classique et celles de la mécanique quantique, hormis le changement de cadre de travail et le nombre de paramètres de mouvement.
Mais, on voit apparaître un nouveau concept physique, celui d’hyperchamp : un hyperchamp, c’est une fonction ayant pour variable (y,y*) et pour paramètres de mouvement les xi.
Dans (2a), les Gi et Npot sont des fonctionnelles sur M4. Par contre, les Gi(y,y*,x), fonctions dynamiques dans l’espace d’état, de même que Npot(y,y*,x) deviennent des hyperchamps.
Pour résumer et pour tenter de satisfaire tout le monde (« vaste programme »…), ceux qui préfèrent s’arrêter de traiter les effets ondulatoires au-dessus des protéines pourront se tourner avec profit vers le chaos quantique… direction le macroscopique.
La démarche est en tout point identique à celle qu’ils effectuent pour des corps matériels. Au lieu d’être substantielle, elle est ondulatoire, c’est tout.
Le chaos déterministe ou quantique, substantiel ou ondulatoire, introduit l’irréversibilité dans les processus, les brisures de symétrie (temporelle, spatiale et même spatio-temporelle), qui finissent par conduire à l’établissement de formes macroscopiques.
C’est le Bi chinois, version substantielle ou ondulatoire : matière turbulente intégrée dans une forme rigoureuse.
Je le disais en introduction de cet article : Prigogine vient sans doute de nous sauver la mise.
Et pas un peu.
- Commentaires textes : Écrire
BIDOUILLE 60 : AU-DELA DE GINZBURG-LANDAU
Le 12/11/2013
Voici le problème du jour : Ginzburg-Landau est intéressant, mais bien trop simpliste dans notre contexte. Il n’enfonce guère que des portes ouvertes : on se doute bien que, plus la tension va approcher zéro, plus le nombre de neurones inactivables va augmenter. Mais, ce nombre reste global : il ne dépend que de la tension. Cela sous-entend une uniformité dans les zones silencieuses (la densité de neurones inactivables y est la même, non seulement en tous les points, mais à tout instant). Pour autant, le modèle n’explique en rien pourquoi ces neurones sont devenus inactivables. Il se borne à constater et à en fournir le nombre. D’autre part, on a besoin du condensat. Or, GL ne nous apprend strictement rien sur sa dynamique interne. Les variations spatio-temporelles de ce condensat apparaissent surtout aux interfaces entre zones activables et zones inactivables. Enfin, à quoi est-il censé se coupler, si couplage il y a ? Au champ électrochimique ? Dans les zones silencieuses, il est nul…
Du coup, je recherche des réponses possibles dans la prise en compte des états de vide.
Partons du lagrangien d’un corps « classique » de masse m en relativité de Galilée :
(1a) L = ½ m[dx(t)/dt]² + P[x(t),t].dx(t)/dt – V[x(t),t]
et effectuons les remplacements suivants :
(1b) m -> -ħ²/m , t -> xi , x(t) -> [y(x),y*(x)] , dx(t)/dt -> [¶iy(x),¶iy*(x)]
On constate que les champs P et V sont remplacés par des fonctionnelles Pi[y(x),y*(x),x] et V[y(x),y*(x),x]. De plus, les Pi doivent être complexes. La densité de lagrangien correspondante devant rester réelle, (1a) sera remplacé par :
(1c) £y = -(ħ²/2m)¶iy(x)¶iy*(x) + P*i[y(x),y*(x),x]¶iy(x) + Pi[y(x),y*(x),x]¶iy*(x) - V[y(x),y*(x),x] =
= -(ħ²/2m){¶iy(x) – (2m/ħ²)Pi[y(x),y*(x),x]}{¶iy*(x) – (2m/ħ²)P*i[y(x),y*(x),x]} + (2m/ħ²)Pi[y(x),y*(x),x]Pi[y(x),y*(x),x] - V[y(x),y*(x),x]
= -(ħ²/2m)(Diy)(Diy)* + (2m/ħ²)PiP*i – V
La dérivation covariante a maintenant pour expression générale :
(1d) Diy(x) = ¶iy(x) – (2m/ħ²)Pi[y(x),y*(x),x]
Regardons les premières puissances du développement en y des Pi :
(1e) Pi[y(x),y*(x),x] = P0i(x) + P1i(x)y(x) + ½ P2i(x)y²(x) + …
(1f) P*i[y(x),y*(x),x] = P*0i(x) + P*1i(x)y*(x) + ½ P*2i(x)y*²(x) + …
Pi ne dépend donc que de y(x) et non de y*(x). Son conjugué ne dépend donc que de y*(x) et non de y(x). Qu’est-ce qui me fait dire ça ? L’examen de l’ordre 1, tout simplement : à cet ordre, Diy(x) = ¶iy(x) – (2m/ħ²)P1i(x)y(x) est bien la dérivation covariante de la théorie quasi-classique usuelle, sa conjuguée étant (Diy)*(x) = ¶iy*(x) – (2m/ħ²)P*1i(x)y*(x). Exemple typique : P1i(x) = i(ħq/2m)Ai(x).
Il ne faut quand même pas perdre de vue que l’ordre 1 n’est plus valable que pour des fonctions d’ondes y(x) suffisamment faibles. Quant à l’exemple P1i(x) = i(ħq/2m)Ai(x), il suggère d’introduire le champ :
(2a) Ai[y(x),x] = A0i(x) + A1i(x)y(x) + ½ A2i(x)y²(x) + …
tel que Pi[y(x),x] = i(ħq/2m)Ai[y(x),x].
Interprétons : A0i(x) = Ai(0,x) est le champ « classique » que l’on obtient en négligeant complètement la présence de y(x), où que ce soit. C’est le potentiel de Maxwell. Lorsque l’on tient compte d’une « petite composante ondulatoire », on voit apparaître A1i(x)y(x). Plus on tiendra compte de « l’effet ondulatoire », ou plus celui-ci deviendra significatif, plus il faudra pousser loin le développement en puissances de y(x) et plus il apparaîtra de nouvelles composantes Ani(x) de champ.
Supposons à présent que y(x) soit un « champ de vide ». Alors, y(x) º 0 correspondra à l’ordre zéro, c’est-à-dire, à A0i(x) : c’est bien le cadre du « vide classique » de la théorie de Maxwell. Toute autre valeur non nulle ou non partout nulle de y(x) donnera un « autre » champ Ai[y1(x),x].
Tournons-nous vers la fonctionnelle V. Si je la prends telle que :
(2b) V[y(x),y*(x),x] = (2m/ħ²)Pi[y(x),x]P*i[y(x),x] = (q²/4m)Ai[y(x),x]Ai[y*(x),x]
{on a A*i[y(x),x] = Ai[y*(x),x], cf. (2a)}, je ne conserverai plus que ma partie cinétique -(ħ²/2m)(Diy)(Diy)* dans le référentiel tournant (dans l’espace des fonctions d’onde). Ma densité de lagrangien prend la forme :
(2c) £y = -(ħ²/2m)¶iy(x)¶iy*(x) + Pi[y*(x),x]¶iy(x) + Pi[y(x),x]¶iy*(x) - (2m/ħ²)Pi[y(x),x]Pi[y*(x),x]
Moments :
(2d) ¶£y/¶[¶iy*(x)] = -(ħ²/2m)¶iy(x) + Pi[y(x),x]
Ensuite :
(2e) ¶£y/¶y*(x) = [¶Pi/¶y*(x)][¶iy(x) + (2m/ħ²)Pi]
Equation :
(2f) di¶£y/¶[¶iy*(x)] = ¶£y/¶y*(x) , di = ¶i + (¶iy)¶/¶y + (¶iy*)¶/¶y*
On trouve :
(2g) -(ħ²/2m)¶i¶iy(x) = -¶iPi + {(¶/¶y*)Pi[y*(x),x] – (¶/¶y)Pi[y(x),x]}¶iy(x) + (2m/ħ²)Pi[y(x),x](¶/¶y*)Pi[y*(x),x]
Le membre de droite représente la “force”. L’équilibre sera atteint lorsque cette force s’annulera, ce qui conduit à l’équation d’équilibre :
(2h) ¶iPi + {(¶/¶y)Pi[y(x),x] – (¶/¶y*)Pi[y*(x),x]}¶iy(x) –
(2m/ħ²)Pi[y(x),x](¶/¶y*)Pi[y*(x),x] = 0
EDP fortement non linéaire en (y,y*), mais du premier ordre, dont la solution yeq(x) va dépendre des coefficients Pni(x) et de leurs 4-divergences ¶iPni(x). A moins que je n’ai de sérieux problèmes de vue, yeq(x) est encore un champ variable :
(3a) yeq(x) = Yeq[P0i(x),…,PNi(x);¶iP0i(x),…,¶iPNi(x)] , Pni(x) = i(ħq/2m)Ani(x)
avec N entier positif, éventuellement infini. De plus, mes Pni(x) et ¶iPni(x) jouent, dans cette expression, le rôle de paramètres (champs). Si je rentre (3a) dans (2g), j’obtiens une équation aux dérivées partielles liant ces paramètres :
(3b) ¶i¶iYeq[P0i(x),…,PNi(x);¶iP0i(x),…,¶iPNi(x)] = 0
Hors équilibre, par contre, j’ai à résoudre (2g).
Regardons (2h) en yeq(x) º 0. Des développements (1e) et (1f), je tire :
(3c) ¶iP0i - (2m/ħ²)P0iP*1i = 0 [yeq(x) º 0]
qui me donne P1i d’après P0i (si P0i º 0, l’équation est identiquement vérifiée). Cela signifie qu’en cet état d’équilibre, P1i dérive de P0i. En particulier, le potentiel électromagnétique A1i(x) dérivera du potentiel maxwellien A0i(x).
Que nous apprennent ces quelques développements ?
Qu’en passant d’un modèle quasi-classique de type Ginzburg-Landau à un modèle non linéaire un peu plus élaboré, on peut utiliser les composantes Ani(x) de champs électromagnétiques comme des paramètres de contrôle d’une transition.
Que les fonctions d’ondes à l’équilibre peuvent rester des champs variables, ce qui est bien plus intéressant que des champs globaux, partout uniformes.
Que les champs Ani(x) ne sont pas tous indépendants, mais liés par (3b).
Je sais, certains grinceront des dents : « le problème des ‘vides locaux’, c’est de privilégier certains référentiels… »
On n’est pas tout à fait dans le même contexte : ce qu’on appelle « vide » ici, c’est seulement la fonction d’onde qui minimise toute la partie non purement cinétique de (2c), soit les 3 derniers termes. Ce n’est pas l’absence totale de particules. Ce n’est pas le vide des hautes énergies, même si j’ai fait le traitement en Klein-Gordon. On peut d’ailleurs toujours revenir à Schrödinger en passant à la limite c -> ¥, ce qui ramène de l’hyperbolique au parabolique. C’est quand même plus simple à traiter en KG, parce qu’espace et temps sont sur un pied d’égalité.
Ceci dit, le modèle ne nous en dit toujours pas plus sur la dynamique interne du condensat, ni sur ce qu’il est censé devenir ensuite…
- Commentaires textes : Écrire
BIDOUILLE DEUCH'NORD (59): HEIN ??? C'EST QUÔI L'TITRE ??? 8((((
Le 08/11/2013
J’essaie de me mettre à la place des biologistes et même de certains biochimistes qui pourraient légitimement, soit douter de l’efficacité réelle des effets quantiques à l’échelle de l’animal, soit se demander comment ces effets pourraient bien se manifester à cette échelle de façon significative. Je vais donc commencer par essayer de démystifier ce point, avant de passer au fonctionnement proprement dit.
Lorsqu’on apprend les bases de la « mécanique ondulatoire », on nous explique que la longueur d’onde du signal associé au corpuscule, l, est inversement proportionnelle à l’impulsion de ce corpuscule et donc, au produit de sa masse par sa vitesse de déplacement : l = h/p = h/mv. En conséquence, plus la masse du corps considéré est importante, plus cette longueur d’onde est petite, reléguant de facto les effets proprement ondulatoires dans le domaine du microscopique. L’exemple typique donné est celui du grain de sable. Je ne vais pas revenir là-dessus, c’est dans tous les cours de présentation de la quantique. Ainsi, pour des corps géants comme des étoiles ou des planètes, l est ridiculement petit, de sorte que l’effet ondulatoire devient complètement négligeable et le maximum de la fonction d’onde se confond sans erreur notable avec le mouvement du corpuscule décrit par la mécanique classique. Il n’en reste pas moins que cette fonction d’onde existe bel et bien ! La confusion pourrait alors provenir du fait que cette extrême petitesse de l est due à celle de la constante de Planck h. C’est vrai, mais uniquement, pour des corps individuels. C’est là qu’intervient tout l’intérêt des comportements collectifs. Car, collectivement, ces effets quantiques peuvent alors passer du négligeable au notoire. Jean-Marc Lévy-Leblond l’explique de manière vulgarisée dans un article intitulé « la quantique à grande échelle », paru dans « Le monde quantique », coll. Points Sciences, Seuil. Il précise que c’est même le quantique qui explique la matière. Et d’ajouter que la matière existe parce que la quantique existe. La physique classique, elle, ne sait pas décrire correctement la matière, en tous cas, pas son essence.
Vous savez au moins qu’il est beaucoup plus facile de mettre des bosons, particules de rayonnement, en état collectif, car ces particules ont un comportement naturellement « moutonnier », « grégaire ». Pour obtenir un résultat similaire avec des fermions, particules de matière, il faut les coupler en paires. Ces paires deviennent alors des bosons.
Pour en revenir à la biologie, on s’attend donc logiquement à ce que la fonction d’onde d’une cellule vivante quelconque, mais individuelle, soit quasiment impossible à mettre en évidence, en raison de l’extrême petitesse de sa longueur d’onde. En revanche, si un ensemble de cellules, même différentes, adopte un comportement collectif, après changement d’état, la fonction d’onde de cet ensemble pourra devenir détectable. A condition de la rechercher, bien évidemment.
Si ceci est mieux acquis, revenons sur un cas d’actualité qui illustrera bien le changement radical de contexte : la notion de qubit.
Dans les transistors en commutation courants, on n’a que 2 états logiques en sortie, 0 (absence de courant, donc pas de transmission entrée -> sortie, transistor « bloqué », circuit ouvert) et 1 (présence de courant en sortie, donc transmission entrée -> sortie, transistor « saturé », circuit fermé). C’est la logique « déterministe ».
Dans les transistors exploitant le maximum de l’effet tunnel (parler de transistors « quantiques » ne voudrait rien dire : le transistor est déjà un dispositif quantique), un 3ème état logique devient possible : 0/1. Dans cet état, instable (oscillatoire) pour le transistor courant, mais bien défini dans « l’exotique », le transistor se retrouve en même temps « bloqué » et « saturé », comme un commutateur qui serait à la fois « ouvert » et « fermé ». C’est un état clairement contradictoire pour la logique déterministe (et même pour la logique rationnelle tout court) : on ne peut pas être et ne pas être à la fois. C’est pourtant ce qui se passe avec les qubits : si la barrière tunnel est assez fine, le corpuscule matériel (ici, l’électron) est toujours stoppé en entrée, mais sa fonction d’onde a une probabilité de franchir la barrière par effet tunnel, proportionnellement à l’épaisseur de cette barrière. Si T (resp. R) est le coefficient de transmission (resp. de réflexion) de la barrière (qui agit comme une lame optique vis-à-vis des fonctions d’onde), le paquet d’ondes se scinde en deux : une partie est transmise de l’autre côté de la barrière, en sortie, avec la probabilité T, l’autre partie est réfléchie par la barrière, en entrée, et repart en arrière, avec la probabilité R. On a évidemment T + R = 1.
Attention : quand on parle de scission d’un paquet d’ondes, il s’agit en réalité d’un dédoublement de celui-ci. La copie transmise va se voir amortie à la traversée de la barrière. Formellement, il faudrait une barrière d’épaisseur infinie pour que la transmission ne s’effectue pas (T = 0). A moins que le paquet d’ondes ne soit absorbé par le milieu, mais alors, il se couplera à la fonction d’onde dudit milieu, ce qui redonnera une autre fonction d’onde. Bref… J
Le maître-mot sur les fonctions d’ondes, c’est : transformation. Une fonction d’onde ne se perd jamais, elle se transforme ou est transformée en ou absorbée dans une autre. En relativité d’espace, tout du moins. En relativité d’espace-temps, on a, en plus, la faculté de créer des fonctions d’ondes à partir du vide.
Pour en revenir à nos qubits, en pratique, il y aura donc toujours transmission. Ce n’est que si l’épaisseur de la barrière est suffisante que le coefficient de transmission deviendra négligeable. Néanmoins, il ne sera jamais rigoureusement nul !
(une probabilité n’est d’ailleurs jamais rigoureusement nulle, en théorie seulement ; en pratique, elle ne peut devenir qu’exponentiellement négligeable)
Par conséquent, ce que nous révèlent les qubits, c’est que le véritable état de fonctionnement de tout transistor en commutation, quelle que soit sa technologie, est le mode 0/1. Ce mode est une superposition statistique des modes 0 et 1. En notation de Dirac (vecteurs d’état) :
(1) |0/1> = ÖR|0> + ÖT|1>
et ce n’est que si T (resp. R) devient négligeable que le transistor se « bloque » (resp. devient passant). Le mode déterministe « 0 ou 1 mais pas les deux » n’est qu’un cas particulier du mode « 0 ou 1 ou même les deux à la fois ».
ça dérange la conception de beaucoup, y compris des scientifiques, ça ne devrait pourtant pas, parce que ça se base sur les propriétés des probabilités, qui ne déroutent plus personne depuis longtemps. Je pense que ça tient uniquement à une difficulté de se représenter les choses. Sinon, les propriétés sont exactement les mêmes :
(2a) « |0> et |1> mutuellement exclusifs » <=> P(|0> Å |1>) = P(|0>) + P(|1>) = R + T = 1
(2b) « |0> et |1> statistiquement indépendants » <=> P(|0> ET |1>) = P(|0>)P(|1>) = RT
(2c) « |0> et |1> statistiquement dépendants » <=> P(|0> OU |1>) = P(|0>) + P(|1>) - P(|0> ET |1>) = R + T – RT = 1 – RT
Je me doute que, ce qui est difficile à avaler, sur des objets macroscopiques, c’est cette faculté de se dédoubler, inaccessible à la matière substantielle, de se déformer, oui, mais en conservant sa surface, déjà moins ; quant à traverser n’importe quel obstacle… pour se retrouver à la fois devant et derrière le mur…
C’est pourtant ce qui est observé et ce qui a fait dire à bon nombre de théoriciens des quanta « qu’il fallait tout simplement s’y faire, bon gré, mal gré, parce que c’est comme ça et pas autrement que fonctionne la Nature »…
Alors, je ne dis pas qu’il FAUT l’accepter en biologie, je dis que, non seulement c’est constructible, mais qu’il n’y a aucune raison physique que ça ne le soit plus à partir d’un certain niveau de complexité et qu’on devrait déjà chercher à le mettre en évidence expérimentale avant de le rejeter purement et simplement.
Rien ne justifie la disparition des effets ondulatoires en biologie. Après, qu’on dise que ça sorte de la biologie, je ne suis pas même d’accord : c’est une forme complémentaire de biologie, comme la fonction d’onde est complémentaire du corpuscule. J’irais même jusqu’à dire que c’est une forme indissociable, parce qu’en fonctionnement « normal » au moins, la fonction d’onde est indissociable du corpuscule.
On a fait de la biologie des supports, des substrats ; au fur et à mesure qu’on a décortiqué les mécanismes, on a exploré de plus en plus petit, pour finir par croiser la route de la chimie quantique au niveau génétique et moléculaire ; il faudrait peut-être à présent remonter les chaînes de la complexité en leur associant les compléments ondulatoires.
Et en se trouvant souvent dans le cadre d’une logique contradictoire.
Je prends un exemple très simple : une cellule non nerveuse est corrélée à un neurone par voie ondulatoire. La corrélation concerne donc leurs fonctions d’onde, pas leurs substrats. Résultat ? Une cellule, même pas composite, une nouvelle cellule (virtuelle, ici) ne possédant qu’un seul noyau (et non deux comme on pourrait s’y attendre) et présentant la propriété plutôt contradictoire de progager et ne pas progager en même temps le signal nerveux ! L
Cette nouvelle cellule virtuelle se comporte assure les deux fonctionnalités à la fois et ceci, à tout instant. Résultat de l’intrication…
Autre exemple : l’intrication ondulatoire d’une cellule différenciée et d’une cellule non différenciée. Le résultat sera une cellule à la fois différenciée et non différenciée…
La propriété d’un mélange, c’est bien quand même de ne plus être en mesure de séparer les différents ingrédients… J Il y a une irréversibilité dans le processus.
Prenez deux particules indépendantes, faites-les interagir, séparez-les : quand on dit « qu’elles n’interagissent plus », c’est en fait, non seulement inexact, mais carrément faux ! Il conviendrait de dire qu’elles continuent d’interagir, mais que l’intensité de leur interaction s’affaiblit avec leur distance de séparation. Ce qui est complètement différent ! ça veut dire qu’une fois avoir interagi, elles interagiront toujours, mais plus ou moins fortement. Vous ne pourrez donc plus retrouver les particules de départ dans leur état initial exact. C’est fini, ça appartient au passé. Vous les retrouverez dans des états proches de leurs états initiaux, mais pertubés par l’interaction qu’elles auront subie, comme des séquelles. Des « traces ». Une « mémoire de l’interaction ».
Vous prenez deux cellules, vous les collez, soit vous parvenez à les décoller, soit vous utilisez des « bistouris chimiques » : vous retrouverez vos cellules dans leurs états initiaux respectifs, à moins que l’une n’ait bouffé l’autre. Sans doute trouverez-vous, avec une bonne résolution, quelques traces du collage sur les membranes externes, mais ça n’ira pas plus loin.
Essayez de faire de même avec des cellules virtuelles : macache ! Vous obtiendrez deux cellules, c’est vrai, mais quand vous regarderez la composition et les fonctionnalités des deux, vous vous trouverez en présence de deux « hybrides »…
Et ces hybrides continueront d’interagir, quoique vous fassiez pour les en empêcher !
Eh bien, ce qui vaudrait pour des cellules devrait valoir pour des tissus, des organes et, en fin de compte, des animaux, puisque ce n’est qu’une question d’assemblages et qu’on a vu que cet assemblage de substance s’accompagnait d’un assemblage de fonctions d’ondes…
Dans un atome, tous les constituants (protons, neutrons et électrons) sont corrélés, puisqu’ils sont tous en interaction. A l’échelle de l’atome, cette corrélation est globale (macroscopique); à l’échelle d’une cellule vivante, elle apparaît déjà locale (microscopique) ; à l’échelle d’un animal, elle apparaît carrément « microlocale » (sub-microscopique). Pour autant, dans mon atome, tous les constituants ne peuvent se trouver sur les mêmes niveaux d’énergie. Parce que protons, neutrons et électrons sont des fermions. Au mieux, seules des paires de fermions identiques peuvent se trouver sur le même niveau d’énergie. On peut donc être corrélé, même fortement, sans pour autant se trouver sur le même niveau d’énergie et, en particulier, sur le niveau fondamental, où l’énergie d’interaction est la plus basse (fond du puits de potentiel).
Il ne s’agit donc pas de confondre corrélation et cohérence (de phase) : toute cohérence de phase est nécessairement une corrélation, mais la réciproque est fausse.
Moralité : vous pouvez corréler des cellules vivantes en les collant les unes aux autres pour former des tissus, l’ensemble sera structuré, mais pas cohérent pour autant.
La biologie observe des corrélations (entre cellules, entre tissus, entre organes). L’interconnexion est une corrélation (organique).
Il n’en reste pas moins que toutes ces corrélations restent incohérentes.
Le stade suivant, c’est la cohérence de phase. Et ça, c’est du pur ondulatoire : il est physiquement impossible de cohérer des systèmes en ne faisant appel qu’aux propriétés substantielles de la matière.
Pour obtenir une phase cohérente à partir d’un ensemble incohérent, il faut abaisser un ou plusieurs paramètre(s) d’ordre. Afin de constituer un ordre global, dans cet ensemble, mais un nouvel ordre, à la fois ondulatoire et d’énergie potentielle minimale. Un ordre de cohérence.
Le principe de ce qui se passe est assez simple à comprendre : au-dessus du seuil critique de transition, c’est l’agitation qui maintient l’incohérence du système. Au-dessous de ce seuil, l’énergie d’agitation n’est plus suffisante pour empêcher les constituants de « se condenser » en une configuration dont l’énergie potentielle sera la plus petite possible. Si la transition est thermique, le paramètre d’ordre est la température et l’agitation en question est l’agitation thermique. Dans le cas du système nerveux, la seule transition qui paraisse couvrir les 4 stades de coma tout en incluant la possibilité de maintien en survie artificielle me semble être le champ de pensée U(x,t). L’agitation en cause est alors électrique. Elle devient électromagnétique si l’on prend la composante magnétochimique en compte. Les fluctuations sont dues, non plus à la température du milieu, mais à l’intensité de son activité électrique.
Au-dessus d’un seuil critique Uc, ces fluctuations sont trop importantes, elles empêchent les fonctions d’ondes neuronales d’entrer en cohérence. Ce qui ne les empêche nullement, par contre, de se corréler entre elles.
Au-dessous de ce seuil, l’intensité de l’activité électrique n’est plus suffisante pour empêcher l’entrée en cohérence. Les fonctions d’onde commencent à s’accumuler sur le niveau énergétique fondamental. Sur ce point JM Lévy-Leblond confirme ce que je disais dans la bidouille 58 : le comportement bosonique étant par nature grégaire, plus on trouve de bosons sur le mode fondamental, plus les autres sont « attirés » vers ce mode et tentés de « rejoindre la meute ».
Et c’est bien ce que les médecins constatent, non ? Il est plus facile de s’enfoncer dans le coma que de remonter des profondeurs du coma. A cause, justement, de ce comportement ondulatoire collectif : on tient là une explication physique, au moins théorique.
Hormis le stade I, les autres stades restent inexpliqués par la biologie, qui se borne à constater. Si elle avait une explication, elle aurait l’antidote… J
L’anesthésiste maîtrise bien, de nos jours, le stade I : parce qu’on en connaît les mécanismes, plus biologiques qu’ondulatoires (ces derniers sont encore négligeables, car les populations de neurones concernés restent négligeables par rapport au nombre total – d’autant plus dans les anesthésies locales). Cette compréhension des mécanismes de transmission chimique de l’influx nerveux a permis l’élaboration de substances pharmacologiques permettant d’inhiber temporairement l’activité électrique des neurones concernés.
Pour une biopsie du cavum, on m’a injecté une berceuse, 200 fois la morphine… Je te l’ai écrasée, mon pauvre… lol
On a des molécules, aujourd’hui, adaptées à tous les âges, à presque tous les profils médicaux, réveil sans séquelles, sans trous de mémoire, sans rien…
Quand je pense que, quand j’étais petit, j’ai encore connu le masque à gaz (pour l’ablation des végétations), les nausées qui s’ensuivaient, et on avait abandonné le chloroforme depuis pas longtemps… et je date pas des Mérovingiens…
Si on n’est pas allé au-delà, je me doute bien que c’est parce qu’on n’a pas encore pu…
Et moi, le peu que j’ai appris et compris de la biologie m’a expliqué que rien de biologique n’explique le refus des assemblées de neurones de redémarrer, alors que tous les voyants biochimiques sont au vert…
On nous décortique le mécanisme d’activation du neurone, on nous explique qu’il est même capable de s’activer lui-même et le con, y refuse de le faire quand on en a besoin !...
C’est pas vrai ? Y a Jipé qui prend l’axone géant du calmar, y bourre sa mère de solutions salines, le truc, il est complètement isolé du reste de l’organisme, disséqué… y fout une électrode, ça marche ! Y prend un gonze même en stade II, y fout une microélectrode dans le chou-fleur, ça marche pas !!! 8(((
Question : pourquoi ça marche pas, alors que ça devrait ?... Pourquoi le boudin isolé fonctionne et pas le cerveau interconnecté du gonze ?... Faut tout disséquer pour que ça se remette à fonctionner ?... lol Faut lui bourrer la tronche d’eau de mer ?...
Par contre, dès lors qu’on avance l’hypothèse, vérifiable expérimentalement en raison de ses effets macroscopiques, de la mise en cohérence de phase des fonctions d’ondes neuronales, on saisit déjà un peu mieux la possible origine physique du problème.
Dans l’état conscient, je peux trouver des neurones individuels et même des blocs de neurones silencieux pendant une durée donnée, qui peut même s’avérer relativement longue, si ces zones ou ces neurones ne sont pas sollicités. Ça ne pose aucun problème de fonctionnement, ni aucun souci au biologiste, parce que tous les neurones du système nerveux sont connectés et donc corrélés les uns aux autres : la corrélation est globale. On n’a pas de neurone isolé.
En revanche, il y a un savant désordre, généralisé, de nature électrique, qui règne à l’intérieur de ce système :
L’ETAT CONSCIENT EST GLOBALEMENT CORRELé, MAIS GLOBALEMENT INCOHERENT.
Dans l’état inconscient, mon système reste évidemment globalement corrélé, sauf tumeurs et autres lésions qui pourraient se présenter et qui peuvent se modéliser comme des « impuretés » (tumeurs) ou des « défauts de structure » (lésions) dans le milieu mais, en plus, il devient cohérent :
L’ETAT INCONSCIENT EST A LA FOIS GLOBALEMENT CORRELé ET COHERENT.
Néanmoins, cette cohérence concerne tout ou partie du système. Les neurones silencieux vont se corréler à distance, sans avoir besoin d’être interconnectés, parce que leurs fonctions d’ondes vont toutes basculer sur le fondamental. Plus l’intensité de l’activité électrique de l’ensemble va baisser, plus on va trouver de neurones silencieux, plus de fonctions d’ondes vont s’accumuler sur le fondamental. Le patient va s’enfoncer dans le coma.
Lorsque l’ensemble de l’activité électrique aura cessé, tous les neurones du système seront silencieux, toutes les fonctions d’ondes neuronales auront basculé sur le fondamental, l’effet sera macroscopique et global : le patient sera en coma dépassé.
Pour que des patients déclarés en état de « mort clinique » ait pu « revenir à la vie » alors qu’on ne s’y attendait plus, il leur a fallu remonter du stade IV au stade 0 de l’état conscient.
Et, pour remonter, il faut casser la cohérence.
Si le médecin n’y est pas parvenu lui-même, si le recours aux électrochocs serait catastrophique, c’est que quelque chose d’autre, un autre champ physique, est intervenu pour casser cette cohérence. C’est obligatoire. Le patient est incapable de remonter de lui-même.
Si vous prenez des systèmes, certes « simplistes » au regard de la complexité biologique, comme des superfluides, vous augmentez la température pour casser la cohérence de phase et retrouver un liquide « normal ». Si vous prenez des supraconducteurs, vous pouvez, soit remonter la température, soit appliquer un courant électrique ou un champ magnétique extérieur : ces deux derniers casseront la cohérence de phase des paires de Cooper.
Un superfluide, un supraconducteur, un laser, n’importe quoi de cohérent, ne retournera pas de lui-même à l’état d’incohérence. Il lui faudrait pour cela passer d’un équilibre stable d’énergie potentielle minimale à un équilibre instable, d’énergie relative maximale : c’est contraire aux lois physiques (principe de moindre action).
Il faut une intervention extérieure. Sans tomber dans l’ésotérisme, j’indique seulement que la sortie du coma III et IV par soi-même est physiquement irréalisable : trop de neurones ont basculés en cohérence.
- Commentaires textes : Écrire
BIDOUILLE 58 : ON REMET UN PEU D'ORDRE DANS TOUT CE FATRAS...
Le 02/11/2013
Je pêche souvent, à la fois par mes origines et mon isolement. Je suis issu de la physique des hautes énergies et de l’astrophysique quantique relativiste, aussi mes connaissances du domaine des basses énergies remontent à loin… il a fallu que je m’y remette. J’ai presque toutes les bases nécessaires au travail de recherche que j’effectue dans ma biblio, mais je perds assez inutilement beaucoup de temps et d’énergie à tout faire seul. Sûr qu’un travail en équipe, y compris avec des physiciens plus spécialisés dans les basses énergies, ainsi qu’avec des (bio)chimistes faciliterait et accélèrerait considérablement les choses : de part et d’autre, ils me diraient tout de suite : « attention, vous faites fausse route ! vous oubliez ceci ou cela, ou bien, il vous faut savoir ceci »… je passe donc à côté de pas mal de choses évidentes pour ces gens-là simplement parce que j’ai « oublié » ces notions depuis longtemps…
Aujourd’hui, nous allons remettre les choses en ordre et tenter d’y voir un peu plus clair dans tout ce fatras biologique. Il va y avoir bon nombre de rappels, mais qui m’ont permis de faire une synthèse. Et d’envisager enfin une meilleure compréhension du mécanisme de changement d’état.
Les premiers rappels portent sur les principes de base de la chimie quantique ; les seconds, sur la biologie proprement dite. Ensuite, nous réanalyserons le mécanisme de transition de phase, échelle par échelle.
On peut classifier les choses. On a déjà un premier cycle, « mécanochimique », comprenant 4 niveaux d’organisation : atomes, molécules, macromolécules, cellules. C’est la « chaîne de l’inerte », qui permet de construire le premier maillon du vivant, la cellule. Dans ce cycle, les liaisons sont de nature électrique (voire électronique) : les divers constituants s’échangent des signaux de type électrique. Si l’on tient compte d’une contribution magnétique beaucoup plus faible, on a des liaisons électromagnétiques.
Le second cycle est biologique. Il va de la cellule vivante aux organes. Ces derniers s’interconnectent pour constituer un organisme vivant. Dans ce second cycle, les liaisons sont de nature moléculaire et macromoléculaire. Les divers constituants s’échangent des signaux de nature chimique et non plus seulement électromagnétique.
Partout, à quelque niveau de complexité que ce soit, on trouve le concept de fonction d’onde. Ça confirme mon hypothèse de départ sur l’existence de « motifs ondulatoires complexes », mais ça confirme surtout le postulat de Schrödinger : tout système physique, quelle que soit sa complexité, est représentable par une fonction d’onde.
Revenons sur tout ça plus en détail.
Qu’est-ce qu’une liaison chimique ? Ce n’est autre qu’une fonction d’onde électronique localisée dans l’espace séparant des atomes. Si vous prenez l’exemple simple de l’ion d’hydrogène moléculaire H2+, la physique quantique appliquée à la chimie démontre, dans le cadre stationnaire et sous approximation de Born-Oppenheimer (j’y reviendrai), que la fonction d’onde de l’électron responsable de la liaison chimique est localisée entre les deux protons du système. C’est justement cette localisation de la fonction d’onde électronique qui, non seulement assure, mais est à l’origine physique de la liaison chimique.
A la base, une liaison chimique entre atomes (flèche dans les bilans) n’est donc qu’une fonction d’onde électronique localisée.
Claude Cohen-Tannoudji, Bernard Diu et Franck Laloë donnent, dans le tome II de leur cours de mécanique quantique, une démonstration rigoureuse de l’origine physique de la liaison chimique pour n’importe quelle molécule à N noyaux et Q charges. La démo se fonde sur trois théorèmes : le théorème d’Euler sur les fonctions homogènes de degré s, le théorème quantique d’Hellmann-Feynman sur les opérateurs hamiltoniens hermitiques et le sacro-saint théorème du Viriel, largement utilisé en mécanique classique et en cosmologie dès lors qu’il s’agit d’établir des relations entre valeurs moyennes (ou évolutions moyennes au cours du temps).
C’est le fameux problème à N+Q corps en interaction mutuelle. Si vous ne considérez qu’une seule particule, sa fonction d’onde associée sera une fonction-densité à valeurs complexes y(x,t) (1 corps). Si vous considérez N particules, l’espace de configuration classique étant de dimension 3N, la fonction d’onde du système sera une y(x1,…,xN,t). Si elle est indépendante du temps, elle sera dite stationnaire. Il s’ensuit que, dans une molécule comportant N noyaux atomiques et Q charges électroniques, la fonction d’onde de la molécule en question sera de la forme y(x1,…,xN,xN+1,…xN+Q,t). Dans le cas d’un ensemble de N particules sans interaction entre elles, l’espace des états d’un tel « gaz » de particules est le produit tensoriel des espaces d’états de chaque particule. En foi de quoi, y(x1,…,xN,t) est factorisable en y(x1,t)… y(xN,t). En revanche, dès que les particules sont en interaction, ce qui est le cas dans tout système lié (molécule, par exemple), l’espace des états du système n’est plus le produit tensoriel précédent et la fonction d’onde du système n’est plus factorisable, en raison de l’apparition de corrélations entre les constituants du système, qui sont devenus interdépendants. Pour déduire des prévisions de mesure sur l’un de ces constituants particulier ou sur toute partie du système, il faut faire appel à l’opérateur densité et considérer le système comme un mélange statistique de N états. On sort alors de la mécanique quantique pour entrer dans la statistique quantique.
Toute molécule s’avère donc être un système lié d’atomes et d’électrons, soit un système physique dans lequel les constituants sont tous corrélés les uns aux autres et interdépendants, en raison de leur interaction mutuelle (entre noyaux, entre électrons et entre noyaux et électrons). La fonction d’onde y(x1,…,xN,xN+1,…xN+Q,t) n’est donc jamais factorisable. Par contre, si l’on casse la molécule en, disons deux fragments, que l’on sépare ensuite suffisamment l’un de l’autre pour qu’ils n’interagissent plus, y(x1,…,xN,xN+1,…xN+Q,t) deviendra factorisable en deux fonctions d’ondes représentatives de chaque sous-système, mais chaque de ces « sous-fonctions d’ondes » ne sera toujours pas factorisable (à moins qu’elle ne comporte plus qu’une seul particule).
Plus personne ne conteste l’existence des fonctions d’ondes moléculaires. Comme ceci vaut pour n’importe quelle molécule, on en déduit immédiatement l’existence des fonctions d’ondes macromoléculaires (chaînes 1D), protéiques (chaînes 3D après repliement) et enzymatiques (un cas particulier du second).
Regardons ce qu’il se passe dans ces structures. Dans une molécule pas trop longue (ex : bases nucléotidiques, peptides), les atomes constitutifs piègent les électrons dans leurs espaces intersticiels : les liaisons chimiques sont établies, certaines seront plus fortes que d’autres (je passe sur tout ce qui relève des orbitales atomiques et hybrides, sinon, on en a pour un livre). On peut donc considérer qu’en ce sens, la molécule peut servir de réservoir d’électrons (de liaison). Allongeons la molécule (ADN/ARN, polypeptides) : les chaînes macromoléculaires peuvent, de la même manière servir de réservoirs à électrons, voire même à des ions simples. Replions la structure : les protéines et enzymes piègent électrons, ions, voire même petites molécules ionisées. Protéines et enzymes peuvent aussi servir de réservoirs à électrons et à ions. Enfin, la cellule vivante étant un assemblage de protéines et autres macromolécules, elle piège ions, molécules ionisées et même macromolécules et peut servir de réservoir de tous ces éléments.
Il y a quand même quelque chose de plus dans la cellule : ses différentes unités. La cellule n’est pas uniforme, elle est constituée d’éléments dont les principaux sont : les mitochondries (déjà des « sous-cellules », ou cellules plus rudimentaires), l’appareil de Golgi, le noyau, les radicaux libres, etc. Tous ces éléments constitutifs de la cellule sont liés entre eux et donc, interdépendants (la cellule fonctionne comme un tout, ou elle ne fonctionne pas). La fonction d’onde cellulaire ycell, formée à partir de la réunion et de l’interaction mutuelle de tous les sous-constituants macromoléculaires, ne sera pas, à son tour, factorisable. Mais son existence ne devrait pas faire de doute !
On a le schéma, on peut passer au second cycle. Pour cela, on remplace les charges électriques par des molécules (CAM, SAM et CJM). Les signaux échangés passent de l’électromagnétique au chimique. Les cellules se lient entre elles par l’intermédiaire de ces molécules d’adhésion et de jonction. Les ensembles liés correspondants forment les prototissus, épithélia et mésenchymes.
Qu’est-ce qui permettrait de dire qu’il n’y a plus de fonction d’onde « prototissulaire » yproto ?
Absolument rien, car rien n’est spécifié sur la nature du potentiel d’interaction dans l’équation de Schrödinger… Tant qu’on s’échange des charges électriques, ce potentiel est de nature électromachin ; quand on se met à échanger des signaux moléculaires, ce potentiel devient tout simplement de nature chimique. Tout ce que l’on peut dire est qu’à partir du niveau cellulaire, i.e. à la transition inerte -> vivant, le potentiel d’interaction change effectivement de nature physique. Néanmoins, on peut toujours tout décomposer en atomes et électrons, donc… donc, il serait illogique et même contradictoire d’affirmer que yproto n’existe plus : non seulement son existence théorique est claire, mais elle est constructible à partir des ycell et des molécules d’adhésion.
On continue. Se serait se gêner. Les prototissus se densifient en s’assemblant, pour former des tissus. Même mécanisme, moléculaire. Je construis ytissus à partir des yproto et des molécules d’adhésion, voire de cellules périphériques. Et puis, mes tissus forment mes organes, de sorte que j’obtiens yorgane en rassemblant et en corrélant des ytissus.
Résumons. J’ai d’abord le cycle « mécanochimique » ou « de l’inerte » :
Atomes -> molécules -> macromolécules -> cellules
Puis, j’ai le cycle « biologique » ou « du vivant » :
Cellules -> prototissus -> tissus -> organes
Il est tentant d’établir un parallèle :
Atomes <-> Cellules
Molécules <-> Prototissus
Macromolécules <-> Tissus
Cellules <-> Organes
Dans le cycle « du vivant », les cellules jouent alors un rôle « d’atomes » et les CAM, SAM, CJM, un rôle « d’électrons de liaison ». Et ainsi de suite.
Je reviens brièvement sur l’approximation de Born-Oppenheimer. Dans un système à N noyaux et Q charges, de fonction d’onde (stationnaire) y(x1,…,xN,xN+1,…xN+Q), elle consiste à traiter les N variables de position des noyaux classiquement et les Q variables de position des charges par la mécanique quantique. Dans les calculs, il faut donc remplacer (xN+1,…xN+Q) par les opérateurs de position (XN+1,…XN+Q) agissant sur la fonction d’onde du système complet (et pas seulement sur le sous-système électronique).
Nous venons d’établir l’existence des fonctions d’ondes « biologiques ». On peut donc étendre l’approximation ci-dessus aux niveaux de complexité biologiques. Il suffit pour cela de remplacer le nom de « noyaux », spécifiques des atomes, par « sites ». Un « site » pourra alors être un atome, une molécule, une macromolécule, une cellule,… Ces sites seront traités classiquement dans le cadre de cette approximation et seules les « charges » (électriques ou moléculaires) seront traitées par opérateurs de position.
Fini pour les rappels. On va s’intéresser maintenant au changement d’état. On va considérer un paramètre d’ordre h, dont on ne précise pas la nature pour le moment (on verra bien à l’issue de tout ça).
On peut déjà énoncer un principe physique général :
POUR QU’IL Y AIT CHANGEMENT QUALITATIF D’ETAT DANS UN SYSTEME PHYSIQUE DONNé, IL FAUT QU’AU-DESSUS D’UN SEUIL CRITIQUE hc (I.E. POUR h > hc), LES INTERACTIONS LOCALES (I.E. A COURTES DISTANCES) SOIENT PRIVILEGIEES ENTRE LES CONSTITUANTS DU SYSTEME ET QU’EN DESSOUS DE CE SEUIL (I.E. POUR h < hc), LES INTERACTIONS GLOBALES (I.E. LONGUES DISTANCES) LE SOIENT.
Ceci revient à dire qu’au-dessus de hc, c’est le mode d’échange d’informations par transmission de « vecteurs d’informations » (signaux électriques, chimiques) qui est privilégiée, de sorte que les interactions favorisent d’abord les voisins les plus proches et se propagent ensuite aux voisins plus éloignés. Plus la distance entre deux sites est grande, plus le délai de transmission et donc d’échange d’informations est long.
Au contraire, au-dessous de hc, c’est le mode d’échange par corrélations qui se voit privilégié aux dépens du mode de transmission. Ce mode d’échange-là est indépendant de la distance entre les sites : à la transition (h = hc), la distance de corrélation diverge, indiquant que les corrélations initialement à courtes portées passent à longue portée.
Concrètement, qu’est-ce que ça veut dire ?
Ça veut déjà dire que le mode « transmission » concerne la matière substantielle (corpuscules, atomes, molécules, cellules, etc.) et que les signaux transmis peuvent avoir un support matériel (électrons, ions, molécules, etc.). Au contraire, le mode « corrélatif » concerne les fonctions d’ondes. Il n’y a plus de signaux à supports matériels, c’est de l’ondulatoire d’un bout à l’autre.
La liaison chimique, nous venons de le rappeler, n’est pas assurée par les électrons périphériques, c’est une déformation ou un abus de langage, mais par leurs fonctions d’onde. Ce qui est en cause n’est pas le corpuscule, mais le paquet d’ondes associé. Ce n’est pas seulement important, c’est crucial. Parce que deux atomes formant molécule constituent un seul et même système physique et non plus deux entités « collées » l’une à l’autre : le mode d’échange entre eux est corrélatif. Alors que, si vous les prenez séparés et assez distants l’un de l’autre pour qu’ils n’interagissent pas, ces deux atomes peuvent s’échanger du rayonnement sous forme de photons. C’est alors de la transmission.
Corrélatif signifie : « au départ, j’avais deux fonctions d’ondes distinctes ; à l’arrivée, je n’en ai plus qu’une seule, formée par mes deux de départ, mais intriquées par l’interaction, de sorte qu’elles ne sont plus séparables ». Pour les séparer, il faut les écarter l’une de l’autre.
Si je forme une chaîne polymérisée à partir d’un même peptide, toutes les « copies » de mon peptide de départ mises bout à bout vont former un seul et même système : c’est du corrélatif. Mais alors, n’importe quel « copie » de mon peptide sera connectée à n’importe quelle autre de ma chaîne et ce, quelle que soit la longueur de ma chaîne. L’information est « véhiculée » d’un exemplaire à l’autre via la fonction d’onde de la chaîne. Comme cette dernière recouvre toute la chaîne, la « transmission » est instantanée.
Autrement dit, il n’y a plus de transmission.
Ou encore : la transmission d’informations est devenue inutile et même obsolète.
Plus besoin de s’envoyer des signaux.
Continuons ! Prenons deux cellules vivantes. Supposons (c’est un « cas d’école » pour montrer les différences fondamentales entre les modes transmission et corrélation) qu’un mécanisme quelconque de changement d’état ait concerné l’échelle macromoléculaire et, en particulier, les ADN cellulaires. Supposons encore, pour corser l’affaire, que mes deux cellules en question sont situées à deux extrémités opposées d’un organisme animal. Si mes ADN cellulaires se retrouvent corrélés, ils formeront un seul et même système macromoléculaire. C’est-à-dire qu’ils deviendront aptes à s’échanger instantanément leurs informations et ceci, quels que soient les obstacles matériels entre eux. Et ça, c’est uniquement dû aux propriétés de leurs fonctions d’ondes. Plus besoin d’ARN messager. Plus de délai de transmission. Plus d’obstacle biologique.
On commence à concevoir que le fonctionnement de la machinerie biologique après changement qualitatif d’état n’ait plus rien à voir avec son fonctionnement « normal ».
Des cellules corrélées n’auront plus à s’échanger de signaux chimiques. A moins que quelque chose, dans le mécanisme de transition, spécifie telle ou telle catégorie de cellules, n’importe quelle cellule de n’importe quel type, différenciée ou pas, est susceptible d’être corrélée avec n’importe quelle autre cellule de l’organisme animal de n’importe quel autre type, où qu’elles se trouvent dans cet organisme. Vous pouvez avoir, par exemple, une cellule du foie corrélée avec un neurone du néocortex. Ce sont deux modes de fonctionnement cellulaires différents, il n’empêche : ça formera un seul système.
Vous associez bien l’hydrogène avec l’oxygène, deux atomes aux configurations nucléaires et électroniques différentes, pour former de l’eau, non ? Ici, c’est pareil. On a seulement changé de niveau de complexité.
Par contre, il semble logique de considérer que les corrélations s’effectuent à chaque niveau de complexité. Vous n’allez pas corréler une cellule avec un organe auquel elle n’appartient pas… L Vous allez plutôt corréler cette cellule avec une cellule de cet organe. Ça me paraît plus normal…
Le cas des organes, comme celui des neurones, est un petit peu plus délicat. Car les organes, comme les neurones, sont déjà interconnectés entre eux. Par de la matière, c’est vrai. Mais, je dis que c’est plus délicat, parce qu’il ne s’agirait pas de confondre ces deux modes d’interconnexion, qui n’ont absolument rien à voir entre eux : le mode d’interconnexion dont il est question ici est ondulatoire. On l’a dit, on le répète pour ces deux cas particuliers. Plus question de « tirer des câbles ou des tuyaux » pour relier les uns aux autres. Oubliez la plomberie. Les organes se transmettent des signaux chimiques ; les somas des neurones, des signaux électriques ou électrochimiques : ça, c’est de la plomberie. Polonaise ou pas, on s’en fout, c’est de la plomberie. ;)
Les organes ou les neurones qui auront transité n’auront plus besoin de se transmettre des signaux : ils seront, c’est tout. Un bloc. Un système. On aura une fonction d’onde organique ou neuronale (cellulaire) qui recouvrira tous les organes ou neurones concernés et c’est tout. C’est la fonction d’onde qui assurera tout le fonctionnement du système.
Alors, justement, venons-en à notre propos, qui est le système nerveux. En mode « transmission », vous avez besoin que les neurones soient connectés entre eux. En mode « corrélation », vous pouvez avoir des neurones qui ne sont pas reliés entre eux par terminaisons axonales et pourtant corrélés ! Par exemple, une cellule à axone court d’une aire visuelle, directement corrélée à un neurone moteur de la moelle épinière.
(c’est justement ce qui est à l’origine de la blague – connue : « quel est le nerf le plus long du corps ? » Réponse : le nerf optique. Parce que, quand on t’arrache un poil du cul, ça te fait cligner de l’œil…)
(c’est une blague de carabin, ça, non ?...)
Autant dire, pour revenir aux choses sérieuses, que le fonctionnement de la pensée sera sans aucun doute à revoir de A à Z, à commencer par la notion de percept ! Parce qu’on nous dit : « le percept est un objet mental localisé » et il faudra ajouter « avant changement d’état ». Après changement, quid du percept en tant qu’objet localisé ?...
A priori, tout devient concept. Parce que tout se voit délocalisé.
Mais pas seulement les objets mentaux : tout l’organisme ! Tout est délocalisé et, à la limite ultime h = 0, toutes les cellules de l’organisme sont corrélées.
De h = hc à 0 exclu, la transition cellulaire corrèlent par blocs dans l’organisme. Le nombre de cellules corrélées augmentant avec la diminution du paramètre d’ordre, au bout du compte, c’est toute la population cellulaire (les « atomes » du vivant) qui est corrélée.
L’organisme tout entier n’a alors plus besoin d’émettre de signaux.
Si l’on cherche à appliquer ces principes physico-chimiques aux différents stades du coma, on se rend vite compte que la difficulté pour « sortir » un patient du coma tient en grande partie au fait que, si le système trouve une autre situation d’équilibre stable, plus stable que la précédente, plus il y aura de cellules dans ce nouvel état, plus il faudra d’énergie pour « faire remonter la pente ». Parce que la corrélation est un effet collectif. Et donc, que plus la population neuronale va augmenter, plus ses membres vont se renforcer mutuellement pour rester dans cet état plus stable. En conséquence, plus le patient s’enfoncera dans le coma, plus il deviendra difficile de l’en sortir. Voire seulement de le ramener à un stade plus superficiel. On pourrait penser procéder comme avec le cœur : par électrochocs. Je suis persuadé que les toubibs y ont pensé avant moi… si ça se faisait, ça se saurait. Le problème est qu’on risque de griller ce qui est quand même encore sain et de précipiter le patient vers un stade IV certain ! Et puis, où cibler exactement ? Le scanner peut indiquer, d’accord.
Mais le scanner indique-t-il l’activité des fonctions d’ondes ?...
Or, il faudra aussi en tenir compte, vu que ça devient primordial et prépondérant…
Quand je disais, dans une bidouille précédente, que les organes se remettaient à fonctionner une fois un cœur artificiel branché, je me suis fort mal exprimé : il est évident qu’en l’absence d’activité cérébrale, on n’a plus aucune activité motrice, ni sympathique, ni parasympathique. J’aurais dû me contenter de dire qu’on les maintenait vivants, en les alimentant correctement, en les conservant à température et pression sanguine normales.
Du coup, une fois que tout ça, c’est corrélé… t’en as plus rien à foutre d’être alimenté ou pas… Qu’est-ce qui nécessiterait encore de fonctionner ? on a un système virtuel complet qui s’est formé. Ce système, il est automatiquement autonome, parce que le support matériel qui lui a donné naissance était autonome. De quoi a-t-il besoin ? de glucose ? de la fonction d’onde du glucose ? J ça ne marche plus comme ça ! lol
Ce système virtuel, il n’a plus besoin que D’ENERGIE. Et encore, on n’est pas fixé du tout sur son fonctionnement interne : s’il ne dépense aucune énergie, il n’a nul besoin de la renouveler.
En guise de conclusion :
PLUS RIEN NE FONCTIONNE COMME AVANT,
MAIS çA FONCTIONNE QUAND MÊME… J
A ceux à qui ça paraitrait absurde, je les rassure : la physique quantique elle-même nous apparaît encore absurde, parfois illogique, voire même contradictoire !
C’est bourré de paradoxes à la logique rationnelle… RIEN n’y fonctionne de manière rationnelle. RIEN.
Je comprends fort bien que ça déroute un biologiste. Même un biochimiste, habitué à faire de la quantique jusqu’où ? aux protéines… Au-dessus, il se dit (corrigez-moi si je fais erreur) : « on va entrer dans le mésoscopique avec les cellules, puis le macroscopique, à cause de h, les effets quantiques vont devenir rapidement négligeables… »
Et puis ? Qu’ai-je expliqué dans cet article ?
On privilégie des interactions locales, donc microscopiques, AVANT transition. Mais, APRES transition, on passe macroscopique et ça compense LARGEMENT la petitesse de h !
Bin, évidemment : sinon, point de naines blanches, brunes ou noires, point de laser, etc. !... J
C’est tout de la quantique MACROSCOPIQUE, ça !
Ce sont les effets COLLECTIFS qui viennent compenser la petitesse de h.
Individuellement, on s’attendra (moi, en tous cas) à ne trouver que de la quantique cellulaire et des interactions plutôt locales.
Collectivement, on s’attendra (toujours moi) à trouver de la quantique organique (oui et pourquoi pas, orgasmique – bravo, y en a qui suivent – t’as fait la biffe, toi… lol) et des interactions globales.
Dernier point : je ne vois toujours pas d’autre candidat potentiel autre que la tension électrique pour jouer le paramètre de contrôle de la transition nerveuse…
Température, pression : pour la mort naturelle, je veux bien. Mais pas pour le coma ni la mort clinique. Or, tous ces processus sont liés : ce sont les phases de coma.
Car, entre avoir un neurone par-ci par-là temporairement silencieux et des assemblées entières de neurones silencieuses pendant une durée indéterminée… y a comme une différence…
C’est ce que j’expliquais juste au-dessus : plus vous aurez de neurones silencieux, plus la tendance à passer au mode silencieux se fera sentir chez les actifs et plus les silencieux se conforteront dans leur silence collectif…
Pratiquement, ça veut dire que, si votre patient est neurovégétatif, tant que son état reste stable, vous avez une chance de le voir se réveiller un jour (ça arrive, là aussi, y a des records de longévité…) mais, si son état est perturbé en quoi que ce soit, il a beaucoup plus de risques de passer en coma dépassé, autrement dit, de clamser, que de remonter à un niveau plus léger.
Parce que les ¾ (pour schématiser) du système nerveux étant inactifs, le ¼ restant basculera à son tour plus facilement que les ¾ ne redeviendront actifs.
- Commentaires textes : Écrire
BIDOUILLE 57 : UN MODELE DE COMAS (AU PLURIEL)
Le 27/10/2013
Eh bin, je crois qu’on se trompe tous de combat ! Je m’avance peut-être un peu, mais j’ajouterais : y compris les neurobios.
On nous dit : la mort clinique n’est pas la mort cérébrale ; la première est réversible, pas la seconde. Soit. Je m’intéresse à la mort cérébrale.
A ce sujet, on nous dit (enfin, si j’ai bien compris) : au stade IV, le cerveau est HS. Ceci se passe évidemment après arrêt cardiaque. Il n’y a plus de respiration autonome, puisque le cerveau contrôle toutes les fonctions de l’organisme. Jusque là, ça va.
Là où ça commence à coincer dans le raisonnement, c’est quand on branche un cœur artificiel.
Reprenons le déroulement des choses.
A t = 0, le cœur s’arrête. A t » 7 mns, le cerveau s’arrête, faute d’irrigation sanguine. En conséquence, l’organisme tout entier s’arrête de fonctionner, faute de messages nerveux.
Si on laisse la situation en l’état, les cellules du corps vont enclencher la paroptose (mort cellulaire). Les mitochondries gèrent le processus : l’ADN mitochondrial se retrouve dépourvu de défense ; il est attaqué par les radicaux libres, ce qui provoque des erreurs de recopiage ; la nouvelle séquence ne peut plus synthétiser les enzymes protecteurs contre l’oxydation et ne produit plus les protéines nécessaires à la vie de la cellule, qui finit par mourir. A distinguer (si, là encore, j’ai bien appris la leçon) de l’apoptose ou « mort cellulaire programmée » ou encore « suicide cellulaire », qui se produit en trois étapes :rétraction, démantèlement interne et fragmentation générale. Ce « suicide » des cellules vivantes empêche le système immunitaire de se retourner contre l’organisme. C’est, en fin de compte, un système de défense. Les télomères, situés aux extrémités des chromosomes, se raccourcissent à chaque division cellulaire. Lorsqu’ils deviennent trop courts, la cellule ne se multiplie plus et meurt.
Bien. Admettons maintenant qu’à, disons, t = 8mns, soit 1 mn après avoir constaté l’EEG plat, je branche le patient sur cœur artificiel. En 8 mns après l’arrêt cardiaque, l’organisme n’a pas eu le temps de se détériorer de façon irréversible. La pression sanguine remonte, la température interne aussi, puisque la respiration artificielle induite par le cœur artificiel rétablit la respiration cellulaire. Les cellules se remettent donc à fonctionner. D’ailleurs, tous les organes sains du patient refonctionnent normalement.
Tous, sauf un : son système nerveux…
Le cerveau ne redémarre pas. Pourtant, il est de nouveau oxygéné et alimenté correctement. Donc, ses cellules devraient se remettre à fonctionner, comme les autres cellules non nerveuses de son organisme. Et même d’autant plus que les neurones ont la faculté supplémentaire de se placer en oscillations spontanées. Chaque neurone recevant, en moyenne, 104 entrées, il suffirait de 104 neurones réactivés sur le total pour relancer la machine. Or, l’EEG reste plat, ce qui indique que les neurones restent silencieux.
Pourquoi ?
Qu’ils soient inhibiteurs ou excitateurs, peu importe : les inhibiteurs devraient être réactivés comme les excitateurs. Ce n’est pas une question de type.
Etape suivante : on regarde les transferts de charges à travers la membrane. Les molécules-canaux ne s’ouvrent pas. Ce qui les active, c’est l’ATP. L’ATP est produite dans le soma, par les mitochondries.
Retour à la case départ : pourquoi les somas neuronaux ne fonctionnent-ils plus ?
Si je constatais un ECG puis un EEG plat et qu’il me suffise de rediriger le flux sanguin de mon patient dans une machine, il sortirait aussitôt du coma dépassé.
Or, ce n’est pas le cas.
Je peux faire fonctionner tous ses autres organes sains par voie artificielle, sauf son cerveau.
Sans système nerveux central, le patient ne peut recouvrer son autonomie.
Et ceci se produit même à T > Tc. Ce n’est donc pas une question de température interne.
Ce n’est pas non plus une question de pression, puisque celle-ci a retrouvé sa valeur nominale.
Ce n’est pas une question de concentrations chimiques : aucun neurotransmetteur ne peut être libéré sans signal nerveux.
LES PARAMETRES THERMODYNAMIQUES (TEMPERATURE, PRESSION, VOLUME MASSIQUE, CONCENTRATIONS CHIMIQUES) NE SONT PAS LES PARAMETRES DE CONTRÔLE DE LA TRANSITION.
Dans la bidouille précédente, j’avais considéré un scénario selon lequel, SI on abaisse la température interne en dessous d’un seuil critique, ALORS le cœur s’arrête de battre, suivi du cerveau, etc. Mais ça ne couvre en aucun cas la situation générale.
J’ai donc recherché un autre candidat susceptible de contrôler ce type de transition. Et le seul qui paraisse tenir la route, contre toute attente, est le champ de pensée lui-même. En le prenant comme paramètre de contrôle, on peut construire un scénario de changement d’états (au pluriel) couvrant les 4 stades du coma. Voyons comment.
On sait que la pensée matérielle est un champ de tensions électriques U(x,t), avec x dans le volume V3 de l’organisme. Prenons une valeur critique (« seuil de conscience ») Uc > 0. Le domaine de tensions U > Uc est l’état conscient. C’est le domaine « normal » de l’éveil conscient, du sommeil lent et du sommeil paradoxal. Le domaine 0 < U < Uc est celui du coma. Enfin, U = 0 (plus rigoureusement, U º 0) est le domaine du coma dépassé (stade IV, EEG plat, scanner et angiographie noires). A chaque stade, le volume spatial du champ actif (ou activable) se réduit : à l’état conscient, l’ensemble du système nerveux est activable à tout moment ; au stade I, certaines fonctions conscientes sont désactivées ; au stade II, d’autres s’y ajoutent ; au stade III ne subsiste plus que le neuro-végétatif et, au stade IV, plus rien n’est activable, ni système sensoriel, ni système moteur, plus rien.
Un tel processus de changements d’états successifs est bien indépendant de tous les paramètres thermodynamiques. Il peut donc se produire à des températures, pressions et concentrations chimiques normales ou maintenues artificiellement normales. Toute cellule vivante est polarisée, mais seules les cellules nerveuses sont interconnectées. De la sorte, le champ de pensée ne peut concerner que les neurones. Les autres champs biologiques sont réactivables par voie artificielle : il s’agit de champs mécaniques, thermiques ou thermomécaniques.
Pour modéliser le processus, on peut encore utiliser un modèle en Y4. La valeur critique Y1 s’exprimant à l’aide des coefficients de l’énergie ou de l’enthalpie libre V(Y,U), elle dépendra de U, sera exclue du domaine physique pour U > Uc, nulle en U = Uc et n’aura qu’à évoluer de manière à abaisser continuellement la valeur V[Y1(U),U] = V1(U) jusqu’en U = 0. le modèle décrira alors un patient qui, entré dans le coma, s’y enfoncera graduellement jusqu’à atteindre le stade IV. Voilà, au moins, pour un premier modèle :
(1) V(Y,U) = ½ V2(U)Y² + ¼ V4(U)Y4 = ¼ V4(U)Y2[Y² + 2V2(U)/V4(U)]
(2) ¶V(Y,U)/¶Y = V4(U)Y[Y² + V2(U)/V4(U)] = V4(U)Y[Y² - Y1²(U)]
(3) Y1²(U) = -V2(U)/V4(U)
(4) V4(U) > 0 pour tout U
(5) V2(U) > 0 pour U > Uc , V2(Uc) = 0 , V2(U) < 0 pour 0 < U < Uc
(6) ¶²V(Y,U)/¶Y² = V2(U) + 3V4(U)Y² = 3V4(U)[Y² - Y1²(U)/3]
(7) V(Y0 = 0,U) º 0 , ¶²V(Y0,U)/¶Y² = V2(U) > 0 pour tout U > Uc ;
(8) V[Y1(U),U] = -¼ V4(U)Y14(U) < 0 , ¶²V(Y,U)/¶Y² = 2V4(U)Y1²(U) > 0 pour 0 < U < Uc ;
(9) Y1²(0) = -V2(0)/V4(0) , V[Y1(0),0] = -¼ V4(0)Y14(0) < V[Y1(U),U] , 0 < U < Uc => Y1²(0) > Y1²(U) => V2(0) < V2(U) < 0 , 0 < U < Uc ;
Ce minimum Y1 dépend en réalité, non pas de U seul, mais de U(x,t) : c’est donc une fonctionnelle sur l’espace ordinaire ou sur l’espace-temps. Rappelons que x modélise la position d’un neurone dans l’organisme et que U(x,t) est la valeur en sortie fournie par ce neurone. C’est l’ensemble {U(x,t), x Î V3} qui modélise la pensée. Ainsi, au « stade zéro » de l’état conscient, le domaine activable est V3 tout entier ; au stade I, c’est une partie V3,1 Ì V3 ; au stade II, une partie plus réduite V3,2 Ì V3,1 ; au stade III ne subsiste plus que le domaine neurovégétatif V3,3 Ì V3,2 et au stade IV, V3,4 = Æ. Tous ces ensembles sont évidemment à prendre au sens topologique du terme. Du point de vue ensembliste, on peut dire que le domaine image Y1(Æ) modélise un « condensat » complètement formé, qui recouvre l’ensemble du système nerveux, réduit tout entier au silence.
D’après la dernière voie que nous avons empruntée, il doit s’agir d’un condensat de matière. La matière en question est formée de neurones. Lorsque ceux-ci se retrouvent tous sur le mode silencieux, le condensat est complètement formé. Mais, on n’est pas plus avancé, ce condensat ne traduisant alors que « l’état dans lequel tous les neurones du système nerveux se trouvent inactivés » : la belle affaire ! on a, certes, un modèle de coma, mais rien de plus que ce que nous apprendrait la neurobiologie…
Tout ce que l’on peut en conclure est que, plus l’état stable de coma est profond, plus il faut apporter d’énergie pour remonter jusqu’au niveau conscient : là aussi, « on s’y attendait » ! :))
Ne soyons quand même pas trop critiques : on a quand même fait ressortir une propriété physique, la cohérence des paquets de neurones placés en mode silencieux.
Justement, c’est peut-être là la porte de sortie (sans mauvais jeu de mots…) :
DANS UNE APPROCHE « CLASSIQUE » DU COMA, LES ENSEMBLES SILENCIEUX DE NEURONES N’ONT RIEN DE PARTICULIER A APPRENDRE : ILS NE FONCTIONNENT PLUS, C’EST TOUT.
DANS UNE APPROCHE « NEO-CLASSIQUE », CES ENSEMBLES DEVIENNENT COHERENTS. CELA SIGNIFIE QU’ILS PEUVENT ENCORE CONTINUER DE FONCTIONNER, MAIS PLUS DU TOUT D’UNE MANIERE CLASSIQUE : GLOBALEMENT. UN PEU COMME AUTANT « D’ASSEMBLEES DE NEURONES » PLACéS EN MODE SILENCIEUX.
Regardons cette nouvelle approche d’un peu plus près. Si je fixe x dans V3, i.e. si je localise un neurone particulier du système nerveux, alors ma tension critique Uc n’est autre que ma tension de seuil, tension de déclenchement de l’influx. Donc, localement, U(x,t) n’est rien d’autre que la tension neuronale de sortie modélise dans « la fonction neurone ». Ce qui distingue essentiellement l’état conscient de l’état comateux est qu’à l’état conscient, tous les neurones ne sont évidemment pas actifs simultanément (et heureusement !), des assemblées de neurones peuvent ne pas être sollicitées à un instant donné, alors que, dans l’état comateux, des assemblées de neurones se retrouvent inactivées pendant une durée indéterminée, puisqu’alors, ce « silence collectif » devient un état stable. Et, plus le patient s’enfonce dans le coma, plus ces assemblées se regroupent, pour finir par englober tous les neurones et donner un « silence global stable ».
Pour la neurobio « classique », il ne se passe plus rien d’intéressant.
Pour l’approche « néo-classique », on trouve encore un mode de fonctionnement, parce que le nouvel état est stable, au même titre que l’était l’état conscient. J’insiste lourdement là-dessus, car c’est cette stabilisation du processus qui autorise encore un fonctionnement. A l’opposé, l’état conscient étant devenu instable, il ne peut plus fonctionner. Il se voit ainsi remplacé par un « fonctionnement collectivement silencieux » (stades I, II et III), puis « globalement silencieux » (stade IV).
Il va de soi qu’un tel mode de fonctionnement est parfaitement « anormal » et même « anomal » (c’est pas de l’africain, ça vient d’anomalie lol) pour la neurobiologie classique, incapable d’en expliquer le mécanisme, puisqu’il n’y a plus de transferts de charges !
Ça fonctionne, mais pas de la manière qu’elle décrit !
Ça fonctionne, alors que ça ne devrait pas ! K
Si ça fonctionne encore (désolé pour les répétitions, intentionnelles – oui, préméditées, même… J), c’est que quelque chose le fait encore fonctionner (lapalissade). Un mécanisme. Non biochimique. Pas même électrochimique.
Laissons de côté le stade I, c’est vraiment superficiel. On en revient à tout moment, sans séquelles. Regardons le stade III, plus parlant (c’est une tournure de phrase !): seul le système neurovégétatif fonctionne encore sur le principe de l’électrochimie. Tout le reste fonctionne encore, mais sur quel(s) principe(s) biophysique(s) ?...
Je veux pointer du doigt qu’il ne suffit pas d’évoquer la formation d’un « condensat » : ça n’explique rien ou presque rien ; ça ne dit rien des mécanismes sous-jacents, hormis une « collectivisation », concept assez vague, puisqu’il dépend d’ailleurs fortement du contexte.
Quand on traitait de « matière froide », on avait au moins une idée de ce que cet état de matière était susceptible de représenter. A présent, on a de la matière qui peut encore être « chaude », pressurisée normalement et qui, pourtant, ne fonctionne plus du tout selon les lois de l’électrochimie. Parce qu’elle se retrouve en « domaines de silence ».
Ça semble défier tous les lois de la logique elle-même… En effet, la logique, basée sur l’observation, nous dit : « le neurone, ça fonctionne ou pas, c’est du tout-ou rien », « ça passe, ça ne passe pas », « les assemblées de neurones se retrouvent en phase ou en opposition de phase ». Hormis les mécanismes de traçage de la mémoire, il semble que l’on ait décortiqué à peu près tous les modes de fonctionnement biochimiques de la machinerie.
Le modèle du changement d’état (euphémisme !) nous dit maintenant : « le neurone, quand ça ne fonctionne plus, bin ça fonctionne encore ! » « et les assemblées de neurones, pareil ! ».
NON SEULEMENT LES ASSEMBLEES SILENCIEUSES DE NEURONES CONTINUENT DE FONCTIONNER, MAIS ELLES FONCTIONNENT DE PLUS EN PLUS AU FUR ET A MESURE QU’ELLES CESSENT CLASSIQUEMENT DE FONCTIONNER !!!
C’est que la matière neurale transite d’un état à un autre. Le matériau de base, c’est le neurone ; le matériau d’ensemble, c’est le système nerveux : le substrat, c’est ça. Ce ne peut donc être que lui qui transite. Les objets mentaux ne sont que des productions de la matière neurale qui, de ce fait, en est la source. Ces objets n’ont pas à transiter.
Considérons maintenant deux assemblées de neurones « distinctes », c’est-à-dire, qui ne sont pas connectées directement de l’une à l’autre. Supposons qu’entre elles se trouvent un certain nombre d’autres assemblées qui, elles, restent activables. D’après le principe de cohérence de phase, lorsque mes deux assemblées vont se retrouver silencieuses, elles seront immédiatement corrélées l’une à l’autre et fonctionneront en phase. Exactement comme si elles étaient, non seulement directement connectées entre elles mais, en plus, synchronisées.
C’est là l’origine (bio)physique de « l’état mixte » : la cohabitation entre deux états de la même matière, du même substrat et de leurs modes de fonctionnement respectifs.
Les assemblées « cohérentes » fonctionneront entre elles et n’auront plus que faire des « incohérentes », qui fonctionneront sur le mode biochimique usuel.
Si la « conscience » recouvre la totalité du système nerveux, alors oui, le patient restera « conscient » jusqu’au stade III inclus. Cette « conscience » sera simplement de plus en plus limitée. Mais, même le neurovégétatif, c’est de la conscience…
L’absence totale de conscience, c’est le stade IV.
Les assemblées cohérentes se transmettent-elles des signaux ? Non : elles fonctionnement par corrélations. L’information ne circule plus de l’une à l’autre, elle est contenue dans l’ensemble cohérent. En conséquence, l’échange est instantané. Toute modification d’une partie de cet ensemble, disons d’une assemblée, se répercutera aussitôt sur l’ensemble.
Ça rappelle un peu le fonctionnement des groupes neuronaux d’Edelman, à la différence que les membres de ces groupes sont tous silencieux et le restent, jusqu’à nouvel ordre, tout du moins.
En règle générale, les changements d’états ne sont pas expliqués, ni même explicables par la physique « classique » : il faut faire appel à la physique quantique et étudier les processus microscopiques.
Le parallèle avec la neurobio est plus que tentant. En fait, seul le contexte change (la complexité aussi !). Malheureusement, on connaît déjà les mécanismes d’arrêt des cellules et aucun d’entre eux n’explique un changement d’état de « vivant » à « après-vivant ». Sinon, on l’aurait découvert depuis longtemps ! La microphysique apportait son lot de nouvelles lois et de nouveaux postulats. La microbiologie ne nous explique rien de plus que ce que les spécialistes de la question savent déjà.
On est toujours ramené au même point : la fonction d’ondes, les propriétés quantiques de la cellule vivante…
A ce moment-là, on a un début d’explication : les neurones silencieux et stables dans cet état (i.e. non réactivables – sauf exceptions ?) associent leurs fonctions d’ondes et la fonction d’onde résultante présente une phase globale, caractéristique de la cohérence de l’assemblage. Lorsque ces neurones sont activables, ils possèdent chacun leur phase (de fonction d’onde), de sorte que « la » phase q est une fonction de la position x du neurone et du temps : la phase est localisée. Lorsque ces neurones ne sont plus activables, ils se regroupent spontanément en assemblées cohérentes et la phase ne dépend alors plus, ni de x, ni même de t : elle a été globalisée. Elle ne dépend plus que des dimensions du domaine inactif de V3 (conditions aux limites), lesquelles augmentent quand U -> 0.
La thermodynamique intervient dans le processus de mort cellulaire : quand la cellule meurt, son désordre (son entropie) augmente. Le changement d’état associé à la quantique suggère alors que son entropie ondulatoire diminue (ses propriétés ondulatoires s’ordonnent). L’entropie étant une grandeur additive, une première approche naïve consiste à supposer que la somme des deux entropies reste constante :
(10) stotal = smatière + sonde = cte
De la sorte, si l’une diminue, l’autre augmente. Une diminution de l’entropie n’est pas en contradiction avec le Second Principe tant qu’elle reste locale. C’est bien le cas au niveau cellulaire. Donc, la cellule peut transiter de l’état « collectivement matériel » (cellule biologique, vivante) à l’état « collectivement ondulatoire » (cellule « bioquantique », morte pour la biologie). Ensuite, c’est la mise en corrélation, en phase, des ensembles de cellules biologiquement mortes qui conduit à l’état macroscopique.
Pour le neurone, c’est pareil, sauf que l’état « silencieux » remplace l’état « mort » : tout neurone mort est forcément silencieux. Mais l’inverse n’est pas vrai : même si le neurone se retrouve dans un état silencieux stable, il reste vivant tant qu’il est alimenté correctement, à des températures et des pressions correctes.
C’est peut-être ça aussi qui distingue la mort « clinique » de la mort « cérébrale » : si l’on caractérise la mort « clinique » comme l’état globalement silencieux (mais pas forcément mort !) des neurones, et la mort « cérébrale » comme l’état « collectivement mort » des neurones, on a une différence essentielle entre les deux ! Ces définitions supposeraient que la mort « clinique » (« fausse » mort) se laisse encore aborder par la neurobiologie, alors que la mort « cérébrale » (« vraie » mort) sort de son domaine de compétences.
Le mort « clinique » présente tous les aspects cliniques de la mort. Il reste quand même vivant tant que ses cellules le restent… ce qui expliquerait, au moins en partie, que des morts « cliniques » puissent « revenir à la vie »…
Le mort « cérébral » est bel et bien mort pour le médecin et le biologiste. Il ne reviendra pas. Ce que dit la physique des changements d’états concernant son cas est : ce mort biologique est encore susceptible d’exister sous une autre « forme », i.e. dans un autre état. Le processus n’est plus réversible, il n’y a même plus d’hystérésis, le puits de potentiel à U = 0 est bien trop profond pour que son organisme biologique y puise l’énergie nécessaire à la remontée. Et, comme ce nouvel état est bien plus stable que l’état conscient… il y reste.
En l’état (cas de le dire), je vois la chose comme ça. Mon idée sur le sujet évoluera peut-être, je n’en sais encore rien. Pour l’instant, ça me satisfait assez. Et puis, les problèmes à résoudre désormais ne manquent pas :
- mise en évidence expérimentale des propriétés ondulatoires de la cellule vivante et du neurone en particulier ;
- mise en évidence expérimentale des « condensats de matière cellulaire biologiquement morte » ;
Tout ça, c’est du travail sur les cellules. En cas de succès :
- explication de l’inobservabilité de l’état « après-vivant » ;
- explication de l’absence d’effets cinétiques sur le « vivant » ;
- etc.
L’explication que j’avais fournie tenait à la perte des principales propriétés de l’état vivant. Sont-elles encore valables si l’on prend comme paramètre de contrôle de la transition, non plus des variables thermodynamiques, mais le champ de conscience ? Les frottements, par exemple, relèvent de la thermo. L’électromagnétisme n’a que faire des frottements mécaniques. Il y existe un équivalent, mais ce n’est qu’une analogie. On voit déjà que, du stade I au stade III, la perte de conscience n’a aucune influence sur les propriétés physiques de la matière vivante. Cette perte de conscience est due à l’arrêt des neurones, qui ne perdent pas leurs propriétés physiques pour autant.
Si l’hypothèse quantique est confirmée, ces changements de propriétés physiques proviendront des comportements ondulatoires de la matière. Et encore : ceux-ci devraient intervenir minoritairement au stade I, de façon plus prononcée au stade II et majoritairement au stade III. Ah oui : s’il y a une source d’alimentation extérieure, les neurones inactifs conserveront leurs propriétés. Bien sûr. Comme dans tout système. Sinon, ils mourront.
Et même : je me crève bien à essayer de trouver des explications à tout ce fourbis et mes propriétés physiques ne changent pas pour autant ! J
Ça vous fait rire, ça, hein ?
Bande de nazes… lol Vous apprendre à vous foutre de ma gueule, moi ! lol
- Commentaires textes : Écrire