blogs.fr: Blog multimédia 100% facile et gratuit

doclabidouille

Blog multimédia 100% facile et gratuit

 

BLOGS

Blog dans la catégorie :
Sciences

 

Statistiques

 




Signaler un contenu illicite

 

doclabidouille

B88 : UNE REMARQUE SUR LA GRAVITATION

Le 28/01/2015

Chose promise, chose due : nous allons donc revenir encore une fois sur ce « Tunnel » des EMIs, qui me donne décidément beaucoup de fil à retordre… J

Mais, avant de réaborder le sujet, une petite remarque, qui va encore faire grincer. Quelque chose me choque en effet sur l’un des fondements de la Relativité Générale (RG), à savoir, considérer que le champ de gravitation n’est qu’un effet géométrique de la courbure de l’espace-temps, qui permet d’incorporer le potentiel de champ dans un mouvement géodésique et ainsi, de se ramener à de la cinétique pure, mais en géométrie courbe.

Voici ce qui me gêne. On le voit dès la relativité de Galilée. Inutile, donc, de compliquer les choses. Dans le lagrangien censé décrire le mouvement d’un corps incident de masse mI et de vitesse v(t) à l’instant t plongé dans le champ de gravité (newtonien) produit par un corps source de masse mS :

 

(1)    L = ½ mIv²(t) - mIf(x,t) = Lcin + Lpot

 

la partie cinétique décrit le mouvement du corps incident et non du corps source, tandis que la partie potentielle décrit le champ issu de la source selon l’équation de Poisson :

 

(2)    Df(x,t) = 4pkm(x,t)

 

m(x,t) est la densité de masse de la source et k, la constante gravitationnelle de Newton. Le point x est le point de l’espace où l’on observe le champ. Les équations du mouvement dérivées de (1) sont :

 

(3)    d[mIv(t)]/dt = -mIÑf(x,t)

 

Il est bien évidemment que le corps incident ne subira l’influence du champ de gravité de la source que ssi le point d’observation x coïncide avec la position x(t) du corps incident à l’instant t. Je crois avoir déjà débattu de ce point. Si j’ai laissé mI entre parenthèse dans le membre de gauche de (3) c’est parce que les corps macroscopiques « normaux » ont en réalité des masses variables au cours du temps (cf. bidouille précédente). Donc, en fin de compte, la mécanique classique tient compte de corps « parfaits » de masse rigoureusement constante… sans pour autant savoir les traiter. Mais ceci est un autre débat.

Mathématiquement, je peux toujours ramener le membre de droite de (3) à gauche :

 

(4)    d[mIv(t)]/dt + mIÑf(x,t) = 0

 

Ok. Idéalisons les choses et supposons, même si c’est faux, que mI = cte tout le temps. Ça ne change rien au fond du problème. Je simplifie par mI, j’obtiens un mouvement indépendant de la masse du corps incident :

 

(5)     dv(t)/dt + Ñf(x,t) = 0

 

Maintenant, je dis que ce mouvement, perturbé dans l’espace plan, se ramène à un mouvement libre dans un espace courbe, à la manière du Principe de d’Alembert qui ramène la dynamique à la statique ? Essayons. J’introduis donc des symboles de Christoffel Cijk et une dérivée covariante :

 

(6)    Dvi(t)/dt = dvi(t)/dt + Cijkvj(t)vk(t) = 0

 

Cette expression doit, logiquement, être équivalente à (5), d’où j’en tire que :

 

(7)  Cijkvj(t)vk(t) = if(x,t)

 

D’accord ? Ces dernières relations sont algébriques. De deux choses l’une : soient les Cijk dépendent de la vitesse v(t) du corps incident, soit c’est cette vitesse qui dépend de if(x,t) et des Cijk, mais alors, elle dépend aussi du point d’observation, ce qui n’a pas lieu d’être.

Dans les deux cas, il est difficile de voir en les Cijk, qui sont censés dépendre de x (point d’observation) et de t [mais, a priori, pas de v(t)], des « intensités du champ de gravité », d’autant plus qu’on peut toujours les éliminer dans un système de coordonnées adéquat, alors qu’on ne voit pas bien le rapport entre le fait que le mouvement des corps incidents dans un champ de gravité extérieur à eux puisse se faire indépendamment de la masse de ces corps et le fait que la gravitation ne soit qu’une « pseudo-force »…

On abuse un peu vite de d’Alembert et du concept d’inertie, non ?

Si la gravitation était une pseudo-force, elle ne pourrait, au mieux, être produite que par des « pseudo-sources » possédant une « pseudo-masse »…

 

Conclusions identiques en dim 4, en remplaçant le temps par le temps propre.

 

Vous ne m’en voudrez donc pas de « m’obstiner » à préférer un modèle vectoriel de la gravitation et à continuer de la considérer comme une véritable force, produite par une véritable source, dotée d’une véritable masse.

Ce qui n’empêche nullement les partisans de la RG de poursuivre dans cette voie.

Chacun son style, je développe mon propre point de vue, sans chercher à l’imposer, comme toujours.

 

On passe au « Tunnel ».

 

 

B87 : POUR EN FINIR SUR LA POLEMIQUE AUTOUR DES FONCTIONS D'ONDES

Le 25/01/2015

Avant de poursuivre sur le thème de la parapsy, procédons par ordre. Et d’abord, un petit retour technique pour couper court aux débats « physiquement oisifs » sur les propriétés ondulatoires des systèmes vivants.

Revenons sur le concept de paquet d’ondes. Et rappelons déjà que ce concept n’a rien de quantique, on le trouve dans toute la théorie du signal. Ce qui est quantique, répétons-le une fois de plus (mais pas de trop), c’est l’association du corpusculaire et de l’ondulatoire.

Ensuite, un paquet d’ondes peut être déterministe ou statistique, selon que son amplitude est déterministe ou statistique.

D’une manière fort générale, un paquet d’ondes est une superposition linéaire d’ondes. Cette superposition crée des interférences, les unes constructives, les autres destructives.

Commençons donc par reconstruire un paquet d’ondes polychromatique (= à plusieurs fréquences distinctes) comme superposition (ou combinaison) linéaire d’ondes monochromatiques exp(iqn0) :

 

(1)    y1 = Sn0 c(0)n0 exp(iqn0)

 

où les qn0 sont les diverses phases, par exemple qn0 = En0t/ħ, les En0 étant des niveaux d’énergie définis. Les c(0)n0 sont les coefficients de la décomposition du paquet d’ondes sur la base (fonctionnelle) des ondes monochromatiques.

Etape suivante : donnons-nous n1 paquets d’ondes

 

(2)    y1,n1 =  Sn0 c(0)n1,n0 exp(iqn0)

 

Seuls les coefficients de la décomposition sont affectés de l’indice n1, puisque la base des ondes monochromatiques est commune à tous les y1,n1. Superposons-les. Nous obtenons un « paquet de paquets d’ondes » :

 

(3)    y2 = Sn1 c(1)n1y1,n1 = Sn0Sn1 c(1)n1c(0)n1,n0 exp(iqn0) = Sn0 c(1,0)n0 exp(iqn0)

(4)    c(1,0)n0 = Sn1 c(1)n1c(0)n1,n0

 

affecté de nouveaux coefficients c(1)n1, qui n’ont a priori aucune raison d’être égaux aux c(0)n0. La relation (4) donne le rapport entre les c(0)n1,n0, les c(1)n1 et des coefficients c(1,0)n0 correspondants à une décomposition de y2 directement sur la base des ondes monochromatiques. Conclusion :

 

UN « PAQUET DE PAQUETS D’ONDES » EST UN NOUVEAU PAQUET D’ONDES.

 

Continuons. Donnons-nous n2 « paquets de paquets d’ondes » :

 

(5)    y2,n2 = Sn1 c(1)n2,n1y1,n1 = Sn0Sn1 c(1)n2,n1c(0)n1,n0 exp(iqn0) = Sn0 c(1,0)n2,n0 exp(iqn0)

 

qui n’affectent, cette fois, que les coefficients c(1)n1 [pourquoi ? parce que les y1,n1 ont remplacé les exp(iqn0) comme base fonctionnelle. Ils vérifient en effet les propriétés d’orthogonalité <y1,n1|y1,p1> = 0 pour p1 ¹ n1 et de normalité <y1,n1|y1,n1> = 1 des paquets d’ondes normalisés à 1]. Superposons-les. On obtient un « paquet de paquets de paquets d’ondes » :

 

(6)    y3 = Sn2 c(2)n2y2,n2 = Sn0Sn1Sn2 c(2)n2c(1)n2,n1c(0)n1,n0 exp(iqn0) = Sn0 c(2,1,0)n0 exp(iqn0)

(7)     c(2,1,0)n0 = Sn1Sn2 c(2)n2c(1)n2,n1c(0)n1,n0

 

qui se ramène lui aussi à un paquet d’ondes, par récurrence sur ce que nous venons d’établir pour y2. La généralisation est immédiate, tout comme sa preuve par récurrence : à l’ordre k+1,

 

(8)    yk+1 = Snk c(k)nkyk,nk = Sn0 c(k,k-1,…,0)n0 exp(iqn0)

(9)    c(k,k-1,…,0)n0 = Sn1Snk c(k)nkc(k-1)n2,n(k-1)…c(1)n2,n1c(0)n1,n0

 

Maintenant, prenons pour k+1 un niveau de complexité… où est le problème ?...

Plaçons-nous dans l’environnement biologique, associons aux modes monochromatiques les atomes. Les y1,n1 sont les paquets d’ondes moléculaires. Les y2,n2, les paquets d’ondes macromoléculaires (linéaires ou refermées sur elles-mêmes en protéines). Les y3,n3, les paquets d’ondes d’assemblages macromoléculaires, c’est-à-dire ici, des cellules.  Les y4,n4, ceux des assemblages cellulaires, c’est-à-dire, epithelia, mésenchymes et tissues denses (on peut même encore affiner les niveaux de complexité). Les y5,n5, ceux des assemblages de tissus, à savoir, les organes et enfin, les y6,n6, ceux des organismes animaux.

 

Si nous prenons comme cas particuliers de paquets d’ondes les fonctions d’ondes, c’est-à-dire, les paquets d’ondes statistiques, nous retrouvons la conjecture de Schrödinger, selon laquelle le concept de fonction d’onde est susceptible de recouvrir n’importe quel système physique dans son ensemble, quelle que soit sa complexité intrinsèque (dont la description n’est d’ailleurs pas prise en compte dans la conjecture, tout comme la structure interne des corps n’est pas prise en compte dans la dynamique classique).

 

Où est le problème ?...

 

Aujourd’hui, plus aucun physicien ne réfute l’existence de propriétés ondulatoires de la matière jusqu’au niveau protéique inclus. Mais ces propriétés font encore l’objet de polémiques à partir du niveau cellulaire. Serait en cause une soudaine « déquantification ». Due à quoi ? mystère… pourquoi pas avant ? mystère…

 

La conjecture que nous avons émise dans la bidouille précédente énonce les choses un peu différemment. Elle dit qu’à l’état « vivant », on est dans le cadre de la dynamique biologique et qu’il n’y a pas de comportements collectifs d’ensembles. Pas de « cohérence d’états », pas de « mises en résonance » de l’ensemble des constituants internes d’un système vivant donné. A l’état « mort », par contre, la dynamique biologique s’arrête, il ne se produit donc plus rien de ce côté-là, si ce n’est la dégradation thermodynamique des systèmes, des « mises en résonance » globales se produisent alors, qui font passer les systèmes de « globalement incohérents » à « globalement cohérents ». A ce stade, ce sont donc les comportements ondulatoires qui apparaissent, recouvrent l’ensemble du système et gèrent la dynamique. On entre dans un domaine « supra-biologique » : la matière biologique est toujours là, mais elle est inerte et c’est la matière « supra-biologique » qui devient active.

 

Entre les deux, entre le « vivant conscient » et la « mort », des comportements quantiques sont à attendre, puisque les systèmes associent les deux dynamiques.

 

Si ce type de conjecture est absurde, alors toute la physique quantique est absurde, puisque ma conjecture ne repose que sur les principes quantiques…

Par contre, ça restera une conjecture jusqu’à preuves expérimentales, soit dans son sens, soit du contraire. On ne peut pas la qualifier de « théorie » en l’état.

 

B86 : EH BIN, NON, ON REMET çA, MAIS SUR LES EMIs ! :))

Le 23/01/2015

On repart plein pot sur le thème de la parapsychologie, avec une nouvelle approche possible des EMIs. Procédons dans l’ordre. Cet article sera surtout explicatif. Peu de formules techniques.

Pour commencer, rappelons qu’à l’heure actuelle, on connaît deux grandes sortes de matière : la matière « thermiquement active », dite « chaude » et la matière « thermiquement inactive », dite « froide ». La transition qui fait passer de la matière « chaude » à la matière « froide » est dénommée mort thermique. Cette transition s’effectue en dessous d’un seuil de température interne dit critique (pour la substance matérielle considérée). Pour toutes les substances connues jusqu’ici dans la Nature, ce seuil Tc est toujours > 0 K.

Il en va de même pour le rayonnement. Un exemple simple de rayonnement « chaud » est la lumière électromagnétique polychromatique. Le rayonnement « froid » qui lui correspond est la lumière monochromatique ou laser.

D’une manière fort générale, un milieu physique « chaud » est physiquement incohérent, alors qu’un milieu physique « froid » est cohérent. Il s’agit de définitions physiques, absolument pas synonymes « d’illogique » ou de « logique ». Un milieu physique est dit « incohérent » si ses constituants internes tendent à se comporter de manière individualiste, il est dit « cohérent » s’ils tendent à se comporter de manière collectiviste. Il s’agit ici de comportements d’ensemble, globaux, c'est-à-dire, impliquant un grand nombre de ces constituants internes, sinon la totalité d’entre eux.

Prenez un solide « chaud » : ne serons en liens direct avec l’un quelconque de ses atomes constitutifs que les voisins immédiats de celui-ci. Les atomes distants ne seront pas affectés par une perturbation quelconque subie par cet atome.

Dans un solide « froid », les choses sont beaucoup plus compliquées. Des atomes ou des électrons (souvent périphériques) distants se retrouvent en liens directs les uns avec les autres, de sorte que, dans une paire électronique composée d’un électron e1 situé, pour se donner une idée de la chose, à une extrémité du solide et d’un électron e2 situé à l’autre extrémité, si l’un quelconque des deux électrons est perturbée, l’autre « enregistrera » la perturbation en même temps que le premier et sans que l’électron perturbé n’ait besoin d’envoyer un quelconque signal à travers le solide à son partenaire pour l’informer de son changement de situation. La raison de ceci est que e1 et e2 forment désormais un tout, indissociable, la paire (e1,e2), qui ne se comporte plus comme une particule de matière, mais comme une particule de rayonnement. En revanche, dès que l’on réaugmente la température, que l’on applique un courant électrique suffisamment fort ou encore un champ magnétique suffisamment intense, les paires ainsi constituées, les unes proches, les autres très distantes, sont cassées et le solide retrouve ses propriétés physiques « normales », « chaudes ».

Grosso modo, i.e. sans entrer dans les détails techniques, les choses se passent comme ça au sein des solides supraconducteurs, qu’ils le soient à très basse ou à plus haute température critique (la valeur de Tc pour un matériau donné dépend de sa complexité chimique : plus un matériau est chimiquement sophistiqué, plus sa température critique semble élevée).

Dans les superfluides, on observe deux types de mouvements : le mouvement dit « normal » et un second mouvement, dit « superfluide ». Au-dessus de la température critique, on n’observe que le mouvement « normal », celui des fluides « chauds ». Le second mouvement ne s’observe qu’en-dessous de Tc, il est caractéristique des fluides « froids ». Il disparaît dès que la température du fluide remonte au-dessus de Tc.

 

Comment expliquer que, au sein d’une même substance matérielle donnée, on puisse observer des comportements physiques aussi différents, selon que cette substance soit « chaude » ou « froide » ? En fin de compte :

 

LE CHANGEMENT D’ETAT PHYSIQUE NE TRANSFORME EN AUCUN CAS UNE SUBSTANCE DONNEE EN UNE AUTRE, IL TRANSFORME LA DYNAMIQUE DE SES CONSTITUANTS INTERNES EN UNE AUTRE.

 

Mais c’est toujours la même substance. Ce point est essentiel.

Dans un solide conducteur (mauvais ou bon) de l’électricité, les atomes restent les mêmes, les électrons restent des électrons, rien n’est changé. Mais, à T > Tc, les atomes de ce solide n’interagissent que de proche en proche, via leurs électrons périphériques. Si j’applique un son dans ce solide, c’est-à-dire, une vibration, une déformation du milieu, ce son sera véhiculé de proche en proche par les atomes de ce solide sous forme « d’excitations élémentaires » appelées phonons. Comme il s’agit d’une propagation (de signal sonore), cette vibration ne sera observée à un autre endroit du solide qu’après un certain délai, étant donné que la vitesse du son dans ce matériau est finie (et dépend des caractéristiques physiques du matériau). Le comportement de ce matériau dans son état « chaud » est physiquement incohérent.

A T < Tc, une partie des électrons périphériques se combinent en paires, forment des ensembles, toujours matériels, mais obéissant à la statistique de Bose (et non plus de Fermi). La dynamique (le comportement) de ces paires change alors radicalement, parce que la statistique quantique a changé. Une fonction d’onde apparaît, qui recouvre l’ensemble des paires constituées et qui peut s’étendre à tout le matériau, même si celui-ci n’est pas entièrement supraconducteur (parce que des paires distantes peuvent se constituer, à l’échelle du matériau). Apparaît ainsi une seconde dynamique, un « second mouvement », collectif celui-ci, en plus du « premier mouvement », individuel, qui persiste à T > Tc et ne disparaît vraiment totalement qu’à T = 0 K, où le matériau est tout entier supraconducteur. Néanmoins, ces deux mouvements ne se superposent pas, ils sont intriqués (par l’intrication quantique). On est donc d’accord avec Landau et Lifchitz, qui préconisent de parler de « mouvements normal et superfluide » plutôt que de « parties normale et superfluide » (ou supraconductrice) : il ne se forme aucune « frontière nette », aucun « découpage » du milieu en une « partie normale » et une « partie supra ».

C’est le même matériau, le même fluide, la même substance, le même milieu matériel, qui présente simultanément et globalement : une seule dynamique interne à T > Tc, i.e. dans son état « chaud » contre deux dynamiques internes, très différentes l’une de l’autre, à T < Tc, i.e. dans son état « froid ». Les constituants internes de ce milieu n’ayant pas ou pas encore transités du « chaud » au « froid », i.e. pas ou pas encore mort du point de vue thermique, continuent de suivre une dynamique « normale », « classique » ; les autres, ayant transités, sont déclarés « thermiquement morts » et suivent une dynamique ondulatoire, qui obéit aux règles de la physique des quanta.

 

La différence essentielle entre ces deux types de dynamique, de comportement interne, se résume en fait à une simple question de frottements.

Toute substance matérielle réelle est soumise, dans son état « chaud », à des frottements internes (entre ses constituants) et des frottements externes (avec d’autres corps ou le milieu environnant). Ces frottements peuvent être purement mécaniques ou thermomécaniques. Ce sont tous des dissipateurs d’énergie.

Dans son état « froid », par contre, la même substance ne présente plus aucun frottement, ni interne, ni externe. Conséquence immédiate : plus de dissipation d’énergie, plus d’entropie.

 

LA DYNAMIQUE « FROIDE » EST THERMODYNAMIQUEMENT REVERSIBLE.

 

Il s’ensuit que, dans un milieu quantique, i.e. dont la température interne 0 < T < Tc, où l’on observe les deux types de comportements, le comportement « normal » sera sujet aux frottements, mais pas le comportement « supranormal ».

Dans les superfluides, ceci se traduit par présence ou absence de viscosité : le mouvement « normal » reste visqueux, alors que le mouvement « superfluide » s’effectue sans viscosité. Résultat : on observe « deux types de fluides en un », le fluide visqueux, qui s’écoule fort laborieusement à travers les fentes étroites et les capillaires, et le fluide parfait, qui s’y écoule, lui, sans aucune difficulté, au point que tout s’y passe (presque) comme si les obstacles matériels « normaux » étaient absents !

Eh oui : plus de viscosité, plus de frottements, pas même moléculaires… J

 

Voici pour le premier point. La température n’est pourtant pas la seule variable thermodynamique de base utilisable. Il y a aussi la pression, la densité ou volume massique et toutes les concentrations en espèces chimiques.

J’ai d’abord recherché des modèles utilisant la température comme paramètre de structure. Mais, pour obtenir des composés « 100% froids », il faut atteindre des températures extrêmement basses : le zéro absolu pour la matière inerte. Pour la matière vivante, soit ce seuil minimal est maintenu, soit il est possible (complexité oblige) que ce seuil minimal puisse être supérieur mais, de toute façon, rien, dans la dynamique de Bose, ne laisse espérer que ce seuil se situe dans des températures plus « ambiantes », par exemple, le zéro Celsius. De toute façon et quoiqu’il en soit, les modèles d’EMIs basés sur la température interne du corps ne rendent absolument pas compte des phénomènes rapportés, ni même des états de coma ! Au contraire, il semble plutôt que ces états de perte de conscience soient, en fin de compte, insensibles à la température interne du corps, qui peut certes chuter et provoquer ces entrées en stade comateux, mais peut toujours être relevé par voie artificielle, ce qui ne sort pas le patient de son coma pour autant (sauf stade 1)…

Du coup, j’ai pris comme nouveau paramètre de structure la pression sanguine.

Premier avantage : la valeur p = 0 est facilement atteinte. Elle l’est dans tous les arrêts cardiaques. Même si on la rétablit par voie artificielle, la transition « 100% » a été obtenue. On n’est évidemment plus dans le « 100% chaud », puisqu’on n’utilise plus la température, mais la pression. Le « 100% quoi », alors ? « crevé » ? Bin : y a plus de pression !!!

 

(et puis, si on ne fait pas dans l’humour légiste à ce stade, on le fait quand ?...)

 

Avant d’aborder le thème proprement dit, je vais (ré)expliquer en termes moins techniques pourquoi j’ai abandonné l’hypothèse d’un état quelconque de la conscience, y compris d’une « supraconscience ». Je comprends fort bien les justifications cliniques qu’on peut y trouver, je ne les conteste pas, s’agissant de faits médicaux, cette idée d’une « supraconscience » est séduisante (puisqu’elle m’a longtemps séduite), malheureusement…

… elle ne résiste pas à l’épreuve de la physique.

 

Que cherchons-nous ? Un corps, c’est bien ça ? « d’une autre nature », comme a dit Moody, mais un corps quand même ?

Bon. Alors, un corps, c’est de la substance, ça n’occupe qu’un volume fini d’espace et ça possède une forme.

Un corps, c’est de la matière. Ses constituants internes obéissent à la statistique de Fermi.

Notez bien : je parle de ses constituants, pas de leur dynamique !

Aucun rayonnement ne peut constituer un corps, parce que ses constituants obéissent à la statistique de Bose, qui ne permet de former aucune substance.

Or… comme je l’ai déjà expliqué dans une bidouille précédente… mais en plus « techniquement sauvage »… la conscience n’est pas une substance, mais un processus auto-régulé de nature électrochimique. Et ce ne sont pas les ions qui participent du passage de l’influx nerveux qui suffisent à constituer un corps… surtout de même complexité que son homologue biologique.

La conscience n’est pas une substance, mais le produit de la substance neurologique. Ici, les ions sont les sources, l’influx nerveux est « l’élément du champ de conscience ». Mais ce qui constitue cet influx, ce sont des champs électriques et des champs magnétiques produits par le transfert de ces ions à travers la membrane axonale. Tous ces champs… c’est du Bose. Pas du Fermi.

 

Si, par contre, on pousse plus loin, à l’ensemble de l’animal et qu’on pose l’hypothèse (physique) selon laquelle, en tant que substance (hautement) complexe, l’animal peut subir un changement d’état en dessous d’un seuil de pression sanguine (artérielle et/ou veineuse) pc > 0 et ainsi acquérir, en plus de son comportement « normal », un second comportement, « supranormal », alors, au moins, on est dans le « physiquement acceptable », on ne transforme pas l’animal en un autre (ce n’est pas un transformer… on n’en fera pas un vélo, non…), on fait apparaître un second comportement interne, duquel tout frottement a disparu (merci le collectivisme…) et dont les propriétés physiques qui résulteront de la disparition de cette caractéristique fondamentale de l’état « ordinaire » seront radicalement nouvelles et sans commune mesure avec celles auxquelles nous sommes habitués.

 

(oui, j’ai la mauvaise habitude de former des phrases à la Balzac… lol)

(je la perdrai quand je serai mort !!! loool)

 

L’ensemble de l’animal, ça inclut naturellement… la conscience. J Mais, en plus, tout le substrat biologique… et là, on a un corps. Un corps « froid », puisque l’annulation de la pression sanguine a forcément refroidi l’animal. Un corps « mort »…

… mais vis-à-vis de quelle dynamique interne ?... J

S’il s’agit de la dynamique biologique, il est bien « mort ».

S’il s’agit de la dynamique « suprabiologique », il fonctionne toujours, il raisonne même…

… mais plus du tout de la même manière.

 

Quand j’aurai en ma possession des données cliniques précises, j’affinerai le raisonnement. Pour le moment, nous allons tenter de construire un premier scénario très schématique d’une EMI pour nous faire une première idée de ce qui est susceptible de se produire en accord avec les lois connues de la physique.

Nous prenons donc comme paramètre principal de transition la pression sanguine p, que nous mesurerons en pulsations par minute (c’est donc la mesure du pouls).

Considérons le schéma (très) basique suivant :

 

-         à p > pc1, pression critique que nous fixerons autour de 15/mn, le patient se présente dans un état « normal », i.e. « non pathologique » (même si ce n’est pas la forme olympique), « non singulier ». Il est conscient ; R.A.S.

-         à p = pc1, il passe en coma de stade 1. Ce coma est de type hypoglycémique, même si le patient n’est pas diabétique, car la pression sanguine n’est plus suffisante pour alimenter correctement les organes, à commencer par le cerveau, en glucose et en oxygène. Ce stade de coma est néanmoins réversible. Il y reste jusqu’à pc2 = 10/mn ;

-         à p = pc2, il sombre en stade 2 (coma léger, mais déjà irréversible : s’il n’en sort pas de lui-même, on ne peut l’en extraire) et y reste jusqu’à pc3 autour de 5/mn ;

-         à p = pc3, il passe en stade 3 (coma profond) et y reste jusqu’à pc4 = 0 ;

-         à p = pc4, c’est l’arrêt cardio-vasculaire. Au bout d’environ 7 mns, les organes cessent d’être irrigués.

 

Le modèle fera sans nul doute sourire les toubibs, l’important, en l’état, est déjà de noter qu’on peut avoir plusieurs seuils critiques de transition. Pourquoi compliquer les choses ?

On ne complique rien, on ne fait que travailler au plus près possible de la matière réelle. Dans la matière réelle, on ne passe pas brutalement du « 100% ordinaire » au « 100% extra-ordinaire » : une fois passé sous le seuil critique le plus haut, ici pc1, on n’acquiert qu’une partie de composante « supranormale ». Une partie seulement des constituants internes transitent. Pour que la totalité transite, il faut atteindre la valeur minimale p = 0. D’où les différents niveaux, ici associés aux stades comateux : à partir de pc1, plus la tension sanguine baissera, plus le comportement supranormal s’étendra, jusqu’à recouvrir l’ensemble du corps à p = 0.

Cela veut dire qu’on admet l’hypothèse selon laquelle, dans les différents stades de coma, apparaît un comportement « supranormal », en plus du comportement « normal » et que ce comportement supranormal prend de plus en plus d’ampleur au fur et à mesure que le patient sombre dans le coma. Du point de vue « normal », ce patient apparaît inconscient. Mais, du point de vue « supranormal », il apparaît de plus en plus « supraconscient ».

Si vous essayez de détecter ce comportement « supraconscient » par les techniques habituelles, vous n’observerez rien du tout.

Pour comprendre cela, je reprends l’exemple du superfluide. Pour détecter le mouvement normal, vous devez réaliser un test de rotation : plonger un disque dans le liquide et observer son mouvement de rotation ; mais ce test ne vous révèlera en rien le mouvement superfluide.

Pour ce dernier, il vous faudra réaliser un test d’écoulement dans un capillaire : là, comme on l’a vu plus haut, le liquide normal sera bloqué en entrée du fait de sa viscosité (on prend un capillaire extra-fin) et seul le liquide superfluide passera. En plus, on observera un échauffement à l’entrée du capillaire et un refroidissement en sortie de celui-ci, parce que, le superfluide quittant le 1er récipient pour le second et ne transportant avec lui aucune entropie, il restera une plus grande proportion de liquide normal dans le récipient 1, réparti dans le même volume. La température se répartira donc dans moins de matière (normale), d’où l’échauffement. Par contre, en sortie de capillaire, on trouvera plus de matière superfluide que de matière normale et la température se répartira dans une plus grande proportion de liquide quantique (normal + superfluide), d’où le refroidissement. J

Le test du capillaire ne vous révèlera donc rien, cette fois, sur la composante normale du fluide quantique, sinon ce changement de température.

 

Dans tous les cas de figure, on doit mettre en place des protocoles de tests adaptés à ce que l’on recherche. Et la situation présente n’échappe pas à la règle.

Observer un EEG plat en stade 4 ne vous apprend absolument rien sur ce qui est susceptible de se passer au niveau « supra ». Un scanner, une IRM, pas plus : tous ces examens observent le comportement normal du système nerveux.

A savoir : la propagation d’un signal dans de la matière.

C’est la caractéristique de la matière « chaude », « vivante », « à pression normale », « globalement incohérente », comme vous voudrez l’appeler que de se transférer de l’information en s’envoyant des signaux. Matériels ou pas. Les cellules vivantes communiquent en s’envoyant des signaux moléculaires à travers le milieu biologique.

Au contraire, la matière « froide », « morte », « à pression nulle », « globalement cohérente » s’échange de l’information par corrélation.

Il n’y a plus de transfert de signaux.

A la place, on trouve des assemblages cohérents, des « touts », des « ensembles de constituants internes en résonance » : stimuler l’un quelconque d’entre eux, vous stimulez tous les autres, au même instant. C’est la « réponse de groupe » à un stimulus individuel. Elle est instantanée, parce qu’en fait, il n’y a plus de production de signal, donc plus de propagation et plus de délai de réception de l’information.

Et ça n’empêche absolument pas les choses de fonctionner. Elles ne fonctionnent plus selon les mêmes modes qu’auparavant, c’est tout.

 

Je n’ai plus trop le temps, j’ai fait l’essentiel de l’introduction, je parlerai du problème de l’intrication quantique dans l’article suivant.

 

 

 

 

B85 : BILAN ET EXPLICATION FINALE

Le 17/07/2014

J’ai un peu de temps, j’explique.

 

Dans B81, je me suis attaqué à la théorie COMMUTATIVE des nombres. L’algorithme a démontré la faille dans la gestion de l’équation générale AB = C à deux inconnues A et B, dans le cadre des entiers non signés. L’échec de RSA n’en est qu’une conséquence.

 

Dans B84, c’est la théorie NON COMMUTATIVE des codes qui est en cause. Ça signifie l’évaporation des derniers espoirs de sécurisation des systèmes d’information, présents mais surtout à venir. A partir du moment où ce même algorithme binaire qui sert à casser les codes commutatifs s’avère aussi en mesure de venir à bout des équations générales du type :

 

A1A2 + … + AnAn+1 = P

 

pour des Ai dans N (i = 1,…,n+1) via le recours aux hypercomplexes et la conversion en base 2n, ce sont les équations MATRICIELLES qui sont atteintes.

 

Comme on ne connaît rien de plus puissant en algèbre actuelle que le non commutatif, plus aucun système de codage n’est inviolable.

 

Autrement dit, n’importe qui peut accéder à n’importe quelle information, n’importe où et n’importe quand.

 

J’avais porté de grands espoirs dans une extension non commutative de RSA, où le produit commutatif d’entiers non signés était remplacé par le produit non commutatif de matrices à coefficients dans N. Bien sûr, je savais qu’on ne m’avait pas attendu pour développer une théorie non commutative des codes.

 

Malgré ma gueule de con, je suis au courant de pas mal de choses techniques. J

 

Ces espoirs ont été douchés. Mais je préfère l’avoir découvert et compris moi-même. J’avais testé et retesté le système d’équations matricielles AB = C, BA = D. J’avais abouti, soit à des relations triviales du type 0 x (inconnue) = 0, qui n’apportent aucune info sur l’inconnue, soit à des systèmes homogènes, qui admettent une infinité de solutions (les combinaisons linéaires de solutions dites fondamentales). Ces résultats semblaient fournir un critère d’inviolabilité du système : ne connaissant que C ou même C et D, il semblait impossible d’en déduire les A et B privées effectivement utilisées.

J’ai quand même tenu à persister et bien m’en a pris. Car, j’aurais sans doute proposé un système que j’aurais cru, tout aussi à tort, inviolable.

 

Le fond du problème est d’une simplicité assez déconcertante : dès lors que vous publiez une clé publique, quelle que soit sa valeur (même zéro, j’ai évalué), l’algorithme binaire, répété le nombre nécessaire de fois, permettra toujours de remonter aux clés privées, quel que soit leur nombre. De plus, plus la base utilisée sera élevée, plus le nombre d’équations logiques à résoudre sera diminué, remplacé par une combinatoire des possibilités de départ, à l’ordre zéro du développement binaire, qui permet justement de rendre le système d’équations logiques résolubles.

 

Ceux qui pensent que ceci signe la fin de la société de l’information ont tort. Tout ce que ces résultats indiquent est qu’il va être désormais nécessaire de REPENSER TOUTE NOTRE SOCIETE DE L’INFORMATION.

 

Comment, par exemple, effectuer des transferts électroniques de fonds d’une agence bancaire à une autre si n’importe qui peut intercepter le contenu de la transaction au passage ?

Comment une institution comme le GIE Cartes Bancaires peut-il persister ?

Comment assurer la sécurité des sites nucléaires ? des labos P4 ?

 

Il fallait quand même être irraisonné pour refonder l’ensemble de la société planétaire autour du « tout connecté »…

 

Même en mathématiques, TANT QU’IL SUBSISTE DES RELATIONS ENTRE GRANDEURS, ON SE GARDE BIEN D’AFFIRMER QUOI QUE CE SOIT.

Et vous le voyez : MÊME LORSQU’IL NE SUBSISTE PLUS QUE DES RELATIONS TRIVIALES, IL FAUT QUAND MÊME S’ASSURER QU’ELLES NE MASQUENT PAS AUTRE CHOSE.

 

Appelons les choses par leur nom : c’est une catastrophe.

 

Si, au moins, elle pouvait mener à une prise de conscience générale comme pour la « catastrophe ultraviolette » en physique…

 

Car il reste une bonne nouvelle : LA MACHINE NE SUPPLANTERA JAMAIS L’HUMAIN.

 

Et que la poigné d’hurluberlus qui s’est imaginé un instant pouvoir diriger ces machines qui gouverneraient tout le reste de l’humanité aille exporter leurs délires sur Mars.

On ne les regrettera pas.

 

Mais avant, demandez-leur A EUX de vous trouver des solutions alternatives.

Ils ont su mener tout le monde dans l’impasse, ils doivent vous en sortir.

Comment ? Pas mon problème.

 

 

 

B84 : UN DERNIER CLOU DANS LE SYSTEME

Le 15/07/2014

Juste une petite couche de plus, histoire de bien enfoncer le clou, pour ceux qui se feraient encore des illusions sur l’inviolabilité des systèmes de cryptage basés sur la théorie des nombres.

A la fin de B81, j’expliquais pourquoi ni l’informatique quantique ni même l’informatique du chaos n’étaient susceptibles de combler la faille déterministe de RSA.

Les spécialistes de la question pourraient être amenés à se dire : qu’à cela ne tienne, on va doubler les clés privées, soient A et B pour l’expéditeur et C et D pour le destinataire, et former la somme des produits AB + CD, qui servira de nouvelle clé publique. 1 seule équation pour 4 inconnues, ça devrait commencer à faire beaucoup pour le casser.

Perdu : je le casse pareil.

Il suffit en effet de passer de N à N+iN et de considérer les deux entiers de Gauss A+iC et B-iD, puis de former leur produit :

 

(1)    (A+iC)(B-iD) = AB + CD + i(BC – AD)

 

qui me fournit le produit requis en partie réelle. Par contre, si j’applique l’algorithme de décomposition binaire à AB + CD, le terme de degré zéro me donne l’équation logique :

 

(2)    (A ET B) Å (C ET D) = (coeff de deg 0 de ma clé publique)

 

qui ne permet plus de décider de manière univoque. Pas grave, j’identifie N+iN à N² et je raisonne avec des mots binaires de longueur 2, ce qui me ramène à la base 4. Dans cette base, l’équation de degré zéro :

 

(3)    A’0B’0 = (coeff de deg 0 de ma clé publique) = P0

 

m’offre les possibilités suivantes, pour A’0B’0 évidemment non nul et A’0 ³ B’0 : (A’0 = P0 , B’0 = 1), (A’0 = B’0 = 2), P0 = 1,2 ou 3.

Je me retrouve donc simplement avec plus de combinaisons à essayer, mais une seule d’entre elles me conduira au résultat, surtout si l’on persiste à prendre des premiers. Dès que je connais les mots A’0 et B’0, j’en déduis les chiffres binaires A0, B0, C0 et D0 et je casse l’algorithme.

Idem avec des hypercomplexes à n unités imaginaires, que je ramène à Nn+1, ce qui m’offre 2n+1 possibilités à l’ordre zéro, mais toujours l’algorithme binaire…

 

Décidément, ça prend l’eau de toute part…

 

Comme le dit le dicton : on ne fait jamais d’omelette sans casser d’œufs. Dans le cas présent, de la casse, il va y en avoir et de tous côtés.

Mais, comme toujours, les premiers à en pâtir sont ceux qui n’y sont pour rien et qui ne pèse financièrement pas lourd…

J’entendais encore hier soir le Très Respectable Vladimir Fedorovsky, ancien Ambassadeur de la Fédération de Russie en France, dire : « le 21ème siècle est celui de l’espionnage ».

Malheureusement, pour limiter les pertes humaines de la Guerre Froide, on l’a axé sur « l’espionnage à distance ». On a tout misé sur les moyens d’information et de communication. Ce n’est pas une activité que j’affectionne particulièrement, aussi n’ai-je pas beaucoup d’émotion à voir le système se liquéfier, surtout quand on l’a basé sur le contrôle « à but essentiellement lucratif » d’une minorité de Panurges sur le reste de la population mondiale.

Les services de sécurité sont au service des ETATS et non des USURIERS. S’ils ont accepté de changer de patron, qu’ils l’assument.

Mais, c’est un cruel retour à la réalité : il est inutile de payer des « spécialistes » à fabriquer des clés qui n’ont d’inviolable que dans l’esprit de leurs auteurs…

Un système, ça se teste et ça se reteste. Tant qu’il subsiste des relations mathématiques non triviales, on n’affirme rien.

 

J’ai un objectif : celui de recouvrer ma liberté individuelle. Pas de me laisser guider ma vie par des machines ou une poignée de gignolos de par le monde qui s’imaginent qu’ils peuvent contrôler toutes les destinées parce qu’ils contrôlent les marchés financiers.

Les grands modèles économétriques sont bourrés d’erreurs, rarement en phase avec la réalité micro-économique quotidienne ; la « sécurité » informatique s’avère du gruyère.

 

QUI est dans le rêve ? Ou plutôt le cauchemar ?

QUI vit complètement en marge des réalités de tous les jours ?

QUI s’imagine pouvoir renier son humanité en s’inventant un monde utopique ANTI-humain dans lequel il tirera toutes les ficelles ?

 

Pour autant qu’il m’est donné de le constater à ce jour, le 21ème siècle est avant tout le siècle du BLUFF, de L’ESBROUFFE.

Il me fait plus rigoler que peur.

 

 

Minibluff the card game

Hotels