blogs.fr: Blog multimédia 100% facile et gratuit

doclabidouille

Blog multimédia 100% facile et gratuit

 

BLOGS

Blog dans la catégorie :
Sciences

 

Statistiques

 




Signaler un contenu illicite

 

doclabidouille

B90: THE PROBLEM OF MASSLESS PARTICLES

Le 15/03/2015

Pfff… To say i encounter problems is simply an euphemism… Basically, the central obstruction is the appearance of a second body at stade 4, in addition to the biological one. But, overall, it is this aptitude of this second body to apparently disconnect from the first one. And this strikingly contradicts all known approaches from quantum theory and intrication. That’s the main reason why I’ve been turning in circles these last days.

There may be a way out, but it requires a reinterpretation of the wave-corpuscle duality.

Let’s try.

 

The node is the question of massless particles. For massive particles, one can define energy and 3-momentum without ambiguity using space-time relativity, for these quantities are corpuscular characteristics of a given physical body. So, for a corpuscle of mass at rest m0, its energy of motion at velocity v(t) and its 3-momentum are simply:

 

(1)               Ecorp(t) = m0c²/[1 – v²(t)/c²]1/2  ,  pcorp(t) = m0v(t)/[1 – v²(t)/c²]1/2

 

On the other hand, a wave with pulsation w and 3-wave number k will have wavy energy and wavy 3-momentum:

 

(2)               Ewav = ħw  ,  pwav = ħk

 

When m0 ¹ 0, on can always find a reference frame where the corpuscle is at rest and Ecorp(t) as pcorp(t) are perfectly well defined for 0 £ v(t) < c. Going from classical to quantum, we can then use the De Broglie’s relations:

 

(3)               Ecorp(t) = Ewav  ,  pcorp(t) = pwav

 

and define the « (quantum) particle » as being a physical object with both corpuscular and wavy properties. Some experiments enlight its corpuscular behaviour, some its wavy behaviour. We interpret this saying the particle “is a corpuscle and a wave at the same time” or “sometimes behaves like a corpuscle and sometimes like a wave”. This is known as the “wave-corpuscle duality”.

A difficulty appears for massless particles. Consider first the case of the photon. There has been two decisive works on its quantum nature: that of Planck on the so-called “black body” and that of Einstein, on the photoelectric effect. Planck revealed the discrete nature of the electromagnetic radiation in a closed oven at temperature T: when trapped inside a close finite volume of space, an electromagnetic radiation behaves as an harmonic oscillator and its energy spectrum contains only discrete values, namely integral multiples of ħw0, the energy of the fundamental state. Einstein then studied the photoelectric effect, i.e. emission of an electromagnetic radiation by atomic electrons. His theoretical work was confirmed 20 years later by Compton: an atomic electron did seem to emit a single quantum of electromagnetic radiation, when the atom interacted with an electromagnetic wave. The Compton wavelength was in perfect agreement with de Broglie’s relations, bringing people to consider the corpuscle known as “photon”, i.e. the quantum of electromagnetic light, a “quantum reality”, satisfying the De Broglie relations.

Still, there remains a problem with the corpuscular properties of the photon. When m0 = 0, (1) leads to Ecorp º 0 and pcorp º 0 all the time for 0 £ v(t) < c, meaning there’s no classical corpuscle at all. When v = c, (1) leads to 0/0, indefinite quantities, since m0 is not supposed to depend on v and the situation is no better.

I want to point out here the fact that the choice m0 = 0 ó v = c has nothing formal in space-time relativity. It’s merely a result “suitable for everybody”. But, no mathematics based on this frame shows that (m0 = 0 ó v = c) guarantees a finite energy and a finite momentum at all times. De Broglie’s relations (3) then become no longer fully adapted in this case and it’s quite easy to understand it: there’s an essential difference between discrete wavy values such as nħw0, n integer, and associating to them a set of n identical corpuscles.

 

THE PHYSICAL REALITY IS: THE PHOTON HAS NOTHING SUBSTANTIAL AT ALL. IT’S A PURELY WAVY OBJECT. ONE CAN ALWAYS ASSOCIATE A “CORPUSCLE” WITH IT, BUT NOTHING ALLOWS US TO GO BEYOND THIS PURELY UNFORMAL ASSOCIATION.

 

The Compton effect is not set back into question at all. Instead of saying “an atomic electron emit a (corpuscular) photon”, it’s much better to say it emits “a single quantum of electromagnetic radiation”, a single “wavy object called the photon”. Compton’s relation is even better confirmed, if we rewrite it l = h/pwav: pwav, not pcorp!!! pcorp is zero for the photon.

 

THE VERY SAME PROBLEM HOLDS FOR THE NEUTRINO, IF THIS MATTER PARTICLE IS TO REMAIN REALLY MASSLESS: DESPITE THE FACT IT’S A FERMION, THE MASSLESS NEUTRINO CAN HAVE NOTHING SUBSTANTIAL.

 

Let’s get back to history again. Pauli first wrote the spontaneous decay of the free neutron: n0 -> p+ + e-. Energy was conserved. 3-momentum was conserved. But the spin was not: n0 is spin ½, the pair (p+,e-) has spin 1. Now, in order to be allowed, the spin has to be conserved. So, Pauli was forced to introduce a new particle, n0, electrically neutral (to conserve the electric charge in the reaction), he called “neutrino”, “little neutron”. The complete reaction now writes: n0 -> p+ + e- + ne*, ne* being the electronic antineutrino. Since ne* did not contribute for corpuscular energy nor 3-momentum and was ejected at the speed of light out of the decaying neutron, Pauli deduced, still from space-time relativity, that the mass at rest of ne* (and thus ne) should be zero. However, ne* does have an energy, and even a 3-momentum, for it contributes to the energy of spin. 1) spin is a purely quantum quantity, with no classical equivalent at all (not even the kinetic momentum); 2) ne and ne* are pure wavy, yet material, objects.

 

THE DISCOVERY OF THE NEUTRINO WAS ACTUALLY THE FIRST PHYSICAL PROOF OF THE EXISTENCE OF NON-SUBSTANTIAL MATTER.

 

Just like the photon only has two polarization states instead of the three required for a spin 1, the neutrino only has one polarization state instead of the two awaited for a spin ½. The origin of this is well-known, it’s due to the zero mass.

 

SO, BASICALLY, THERE’S NO PROBLEM OF PRINCIPLE IN ENCOUTERING MASSLESS FERMIONS IN NATURE. RIGHT ON THE CONTRARY, IT OPENS US WIDE THE GATE TO “WAVY MATTER”, I.E. MATTER WITH NO CLASSICAL EQUIVALENT.

 

Which does not prevent these fermions to contribute to the (wavy) energy of the Universe. But certainly not to the corpuscular one. Besides, we find no neutrino contribution to the classical energy of the Universe. The “neutrino problem” is a purely quantum one.

Massless fermions only hurt our conception of matter, since we’re used to reason in terms of classical, corpuscular, matter. That’s all.

 

This existence of non-substantial matter, revealed in the particle accelerators, is a first important step in our own researches, about the possible nature of a second physical body.

The second step is harder to make, as it’s about the separation between the corpuscle and the wave. Once more, Prigogine can save us.

 

LOCALLY, I.E. AT THE MICROSCOPIC LEVEL OF DESCRIPTION (INDIVIDUAL TRAJECTORIES), THE CORPUSCLE IS INDISTINGUISHABLE FROM THE WAVE FOR MASSIVE PARTICLES, A PROPERTY INTERPRETED AS QUANTUM INTRICATION, ALLOWING TO ASSOCIATE A “PSEUDO-CORPUSCLE” TO ANY MASSLESS PARTICLE.

 

“interpreted as” is very important. At this elementary level, we find both classical trajectories x(t), xi(t) for corpuscles and wave trajectories y(x,t) (spinor or tensor). The De Broglie duality then means we cannot distinguish between what we will call a “corpuscle” and what we will call a “wave”: any particle has both nature, the “quantum” nature.

This assertion has no reason to hold at the macroscopic level. The reason is, we go from individual objects and separated motions to collections of objects and sheaves of trajectories. A non-reversible process.

 

GLOBALLY, I.E. AT THE MACROSCOPIC LEVEL OF DESCRIPTION, WE HAVE TO DISTINGUISH BETWEEN THE CORPUSCLE (POINT-LIKE BODY) AND THE WAVE, A CHANGE INTERPRETED, THIS TIME, AS QUANTUM DISINTRICATION. HOWEVER, THE WAVEPACKET DOES NOT VANISH, IT’S NOT EVEN “SEPARATED FROM” THE SUBSTANCE, WE NEED TO MAKE THE DISTINCTION BETWEEN THE TWO.

 

I’m going to try and justify all this. If we want the wave-corpuscle duality to include massless particles, we have no other solution than to consider that the wave carries no mass at all. The concept of mass is therefore purely corpuscular and the wave can be endowed, at the best, a “mass equivalent” hf/c², where f is the frequency of the wave. But this “mass equivalent” has nothing substantial. Then and only then can massless particles be properly represented as some “intricated pair” made of a wave, to which we merely associate a corresponding pseudo-corpuscle of zero mass.

This is not a true intrication. A true intrication would be a non-separable pair made of two physical objects, may they have different natures, exchanging their informations. Now, in massless systems, there can be no mass transfert from a “corpuscle” to a wave, since there’s no substantial mass anywhere… Instead and according to space-time relativity, there’s energy and 3-momentum. Both can be converted from one form to another one. And this is exactly what the De Broglie relations tell us: when they hold, the corpuscular energy can be converted into a wavy energy and back, as corpuscular 3-momentum can be converted into wavy 3-momentum and back.

But this actually corresponds to a situation of equilibrium: the De Broglie equivalence relations (3) can be read as equilibrium relations, where the corpuscular energy and 3-momentum of a system become equal to their wavy counterparts.

If we read it this way and then, turn back to Prigogine, we see that such an equilibrium situation can only be local. First, because it’s purely mechanical, between the dynamics of a corpuscle and the dynamics of a wave, for each particle (the corresponding wave is thus the individual wavepacket). Second, because there is no dissipation: all the corpuscular energy and 3-momentum is converted (and back) into the corresponding wavy energy and 3-momentum. Immediate consequence of this: these conversion processes are fully reversible, typical of “ideal” mechanics involving no friction and there’s no “time arrow”. Schrödinger is reversible, Klein-Gordon is reversible, even Ginzburg-Landau is (with respect to the inversion of thermodynamical parameters).

This should justify, once again, the general principles of quantum theory at the microscopic level.

As soon as the mesoscopic scale, this is no longer true. It’s still less true for complex systems, because of chaos. Chaos is a typical non-equilibrium situation. There, the De Broglie equivalence relations do not hold anymore, since we now have to distinguish between the substance and the wave. Both remain present. As we’ve seen before, a complex wavepacket made of more fundamental wavepackets remains a wavepacket (with only sub-structures) and there’s no reason why a wavepacket should vanish at higher scales, because of “information dissipation”. What chaos does is to “cut the system off its past”. In the present case, off its dual nature.

If a wavepacket had to vanish, there could be no light at all… no electromagnetic field… no gravitation… nothing.

The wavepacket is not even “separated from the corpuscle”, we have “substance” on one side and “non-substance” on the other side, carrying their own physical properties. They still can interact. The action of a wave upon a substance is identified with an external force.

The emission of a wave by a substance is identified with a “field of forces” and the substance in question as “the source of the force field”.

At the macroscopic level, the distinction is complete: we observe a world made of “substance with no wave properties at all” and “wave made of no substance at all”.

But we observe both. Both, “separately”. Distinctively.

 

There’s a straight parallel with fermions and bosons: at high temperatures, we don’t need to distinguish between fermions and bosons anymore; at low temperatures, we need to do it.

 

IF WE NOW COMBINE MASSLESS MATTER AND COMPLEXITY, WE ARE LED TO THE POSSIBILITY OF THE PHYSICAL EXISTENCE OF “NON SUBSTANTIAL” BODIES WITH PURELY WAVY PROPERTIES, COMPACT VOLUMES (AS WAVEPACKETS), TO BE DISTINGUISHED WITH SUBSTANTIAL BODIES.

“NON SUBSTANTIAL BODIES” ARE “SUBSTANTIALLY MASSLESS”. THEIR ENERGY IS THAT OF THEIR WAVEPACKET.

THEY ARE ALSO GLOBALLY ELECTRICALLY NEUTRAL.

 

This would imply all physical objects are actually “double made”: a substantial one and a non-substantial one.

 

Why then would the non-substantial body remain non-observable?

 

HEY: MASSLESS AND ELECTRICALLY NEUTRAL!

J

 

Try to catch him with an MRI!... :))

Or feel its presence with your consciousness (an electrochemical process!)…

                                                                                                                                                      

 

 

 

B89 : MOUVEMENT SOUS UN HORIZON DES EVENEMENTS

Le 07/02/2015

J’ai encore eu une intuition subite hier, qui m’a tout d’abord parue un peu biscornue mais qui, somme toute, est parfaitement logique. Il s’agit de mettre à profit au maximum le fait que les Gi(x) sont les composantes d’un champ de 4-vitesses dans l’espace-temps. Si l’on veut que le principe de relativité 4D soit respecté, il faut alors imposer la condition :

 

(1)               GiGi £

 

afin que le champ reste causal (i.e. du genre temps). Voyons ce que cela implique à la limite :

 

(2)               GiGi = c²

 

Dans ce cas,

 

(3)               Gi(x) = -cui  ,  uiui = 1

 

Pour la composante G0(x,t) = f(x,t)/c :

 

(4)               f(x,t) = -c²/(1 – v²/c²)1/2

 

v est la vitesse du corps incident dans l’espace. En explicitant les dépendances paramétriques :

 

(5)               f[x(t),t] = -c²/[1 – v²(t)/c²]1/2

 

pour un corps incident solide. Il en résulte :

 

(6)               v(t) = cn{1 – c4/f²[x(t),t]}1/2

 

avec n, direction de la normale extérieure, n² = 1. On voit déjà que le domaine du mouvement réel sera :

 

(7)               f[x(t),t] ³

 

Pour f[x(t),t] = c², v(t) = 0, la position du solide est fixe dans l’espace. Pour f[x(t),t] -> -¥, v(t) -> cn. Prenons le cas simple, mais intéressant, d’une source fixe dans l’espace, sans rotation propre et supposée ponctuelle. Dans ce cas, f[x(t),t] ne dépend pas explicitement de t et est à symétrie centrale :

 

(8)               f[x(t),t] = f[x(t)] = -km’/|x(t)|

 

(m’ = masse de la source). D’après (6), on obtient :

 

(9)               v(t) = cn{1 – |x(t)|²/Rg’²}1/2

 

(Rg’ = km’/c = rayon gravitationnel de la source). Utilisons la paramétrisation :

 

(10)           x(t) = -nRg’cos(t/Tg’)  ,  Tg’ = Rg’/c

 

Le mouvement incident pointe vers la source. Alors :

 

(11)           v(t) = ±cn|sin(t/Tg’)|

 

On a les deux possibilités : soit le vecteur vitesse incident pointe vers la source, soit il pointe vers « l’horizon » Rg’. Quant à l’accélération :

 

(12)           a(t) = dv(t)/dt = ±(c/Tg’)n|cos(t/Tg’)| = ±(c²/Rg’)n|cos(t/Tg’)|

 

(signe identique à celui de la vitesse). Au départ du mouvement :

 

(13)           x(0) = -nRg’  ,  v(0) = 0  ,  a(t) = ±(c²/Rg’)n

 

LE MOUVEMENT PART DU RAYON GRAVITATIONNEL DE LA SOURCE A VITESSE NULLE ET ACCELERATION a(t) = c²/Rg’ ET SE DIRIGE VERS LE CENTRE DE CELLE-CI.

 

A l’arrivée, on doit avoir x(tf) = 0. De (10), on en tire la durée du mouvement :

 

(14)           tf(q) = ½ p(2q+1)Tg’  ,  q Î Z

 

tandis que :

 

(15)           v[tf(q)] = ±cn  ,  a[tf(q)] = 0

 

LE CORPS INCIDENT ATTEINT DONC LE CENTRE DE LA SOURCE EN UN TEMPS FINI, MULTIPLE DEMI-ENTIER DE pTg’, SA VITESSE EST CELLE DE LA LUMIERE ET SON ACCELERATION EST NULLE.

 

Autrement dit, la condition limite (2) permet, dans tous les cas, de partir d’une position de repos à Rg’ et d’atteindre c en un temps fini, donné par (14). On constate par ailleurs que, pour r > Rg’, (9) fourni un résultat imaginaire. On n’est même pas dans le tachyonique. Interprétation :

 

LE MOUVEMENT CAUSAL SOUS LE RAYON GRAVITATIONNEL S’EFFECTUE « DANS L’IMAGINAIRE DE L’OBSERVATEUR EXTERIEUR » : POUR CE DERNIER, IL N’EXISTE TOUT SIMPLEMENT PAS, PARCE QU’IL SORT COMPLETEMENT DE SON DOMAINE PHYSIQUE.

 

Il était fort tentant d’associer un tel mouvement au « Tunnel » et la source, à la « Grande Lumière Blanche ». Malheureusement, ça ne résiste pas longtemps à la réalité des applications numériques. En effet, pour obtenir un trajet s’effectuant en un peu moins de 8s, ce qui est déjà court, il faudrait disposer d’une source de masse 106 Mʘ : 1 million de masses solaires…, pour un trajet d’un peu moins de 1,5 millions de kms.

Soyons larges d’esprit, admettons. Le problème est que la proximité immédiate d’un tel corps, qui resterait quand même bien réel (seule la dynamique sous Rg’ sort du domaine physique de l’observateur extérieur), non seulement se saurait (ou plutôt se serait su), mais entraînerait tout avec lui sur un rayon d’environ 1,5 x 106 kms, sans compter les perturbations occasionnées dans une sphère d’influence beaucoup plus vaste encore. C’est évidemment hors de question. Et, comme nous avons besoin d’une masse, qu’il s’agisse de matière (normale ou condensée) ou de rayonnement, c’est rôti… et même plus que rôti.

Ces résultats peuvent tout au plus intéresser l’astrophysique, mais pas la parapsychologie…

 

Il me reste une option, qui demande encore approfondissement : la capillarité.

 

Quant au modèle de GL appliqué à notre contexte, il est censé décrire un grand nombre de cellules « mortes » (= biologiquement inactives) en interaction gravitationnelle les unes avec les autres, à une échelle mésoscopique, grande devant les dimensions d’une cellule, mais restant petite devant les dimensions de l’animal (d’où le terme de « quasi-classique »). L’avantage, c’est qu’il garantit la cohésion du système, en phase « froide ». L’inconvénient, c’est que les deux principaux paramètres du modèle [longueur de cohérence x = ħ/mcellc, pour le condensat et longueur de pénétration l = 1/(Rg|y|²)1/2 du champ dans le super-corps] ne correspondent à rien de réaliste : à p = 0 qui nous intéresse, x est de l’ordre du rayon de Planck, alors que l est de l’ordre de 1010 m, soit 10 millions de kms. C’est, certes, une portée finie… mais « un petit peu trop grande de quelques ordres de grandeur »…

En clair, ça ressemble plus aux supercordes qu’à une théorie réaliste… :))

On est à côté de la plaque, mais seulement de la taille d’un dinosaure, dilaté plusieurs milliers de fois… lol

 

 

B88 : UNE REMARQUE SUR LA GRAVITATION

Le 28/01/2015

Chose promise, chose due : nous allons donc revenir encore une fois sur ce « Tunnel » des EMIs, qui me donne décidément beaucoup de fil à retordre… J

Mais, avant de réaborder le sujet, une petite remarque, qui va encore faire grincer. Quelque chose me choque en effet sur l’un des fondements de la Relativité Générale (RG), à savoir, considérer que le champ de gravitation n’est qu’un effet géométrique de la courbure de l’espace-temps, qui permet d’incorporer le potentiel de champ dans un mouvement géodésique et ainsi, de se ramener à de la cinétique pure, mais en géométrie courbe.

Voici ce qui me gêne. On le voit dès la relativité de Galilée. Inutile, donc, de compliquer les choses. Dans le lagrangien censé décrire le mouvement d’un corps incident de masse mI et de vitesse v(t) à l’instant t plongé dans le champ de gravité (newtonien) produit par un corps source de masse mS :

 

(1)    L = ½ mIv²(t) - mIf(x,t) = Lcin + Lpot

 

la partie cinétique décrit le mouvement du corps incident et non du corps source, tandis que la partie potentielle décrit le champ issu de la source selon l’équation de Poisson :

 

(2)    Df(x,t) = 4pkm(x,t)

 

m(x,t) est la densité de masse de la source et k, la constante gravitationnelle de Newton. Le point x est le point de l’espace où l’on observe le champ. Les équations du mouvement dérivées de (1) sont :

 

(3)    d[mIv(t)]/dt = -mIÑf(x,t)

 

Il est bien évidemment que le corps incident ne subira l’influence du champ de gravité de la source que ssi le point d’observation x coïncide avec la position x(t) du corps incident à l’instant t. Je crois avoir déjà débattu de ce point. Si j’ai laissé mI entre parenthèse dans le membre de gauche de (3) c’est parce que les corps macroscopiques « normaux » ont en réalité des masses variables au cours du temps (cf. bidouille précédente). Donc, en fin de compte, la mécanique classique tient compte de corps « parfaits » de masse rigoureusement constante… sans pour autant savoir les traiter. Mais ceci est un autre débat.

Mathématiquement, je peux toujours ramener le membre de droite de (3) à gauche :

 

(4)    d[mIv(t)]/dt + mIÑf(x,t) = 0

 

Ok. Idéalisons les choses et supposons, même si c’est faux, que mI = cte tout le temps. Ça ne change rien au fond du problème. Je simplifie par mI, j’obtiens un mouvement indépendant de la masse du corps incident :

 

(5)     dv(t)/dt + Ñf(x,t) = 0

 

Maintenant, je dis que ce mouvement, perturbé dans l’espace plan, se ramène à un mouvement libre dans un espace courbe, à la manière du Principe de d’Alembert qui ramène la dynamique à la statique ? Essayons. J’introduis donc des symboles de Christoffel Cijk et une dérivée covariante :

 

(6)    Dvi(t)/dt = dvi(t)/dt + Cijkvj(t)vk(t) = 0

 

Cette expression doit, logiquement, être équivalente à (5), d’où j’en tire que :

 

(7)  Cijkvj(t)vk(t) = if(x,t)

 

D’accord ? Ces dernières relations sont algébriques. De deux choses l’une : soient les Cijk dépendent de la vitesse v(t) du corps incident, soit c’est cette vitesse qui dépend de if(x,t) et des Cijk, mais alors, elle dépend aussi du point d’observation, ce qui n’a pas lieu d’être.

Dans les deux cas, il est difficile de voir en les Cijk, qui sont censés dépendre de x (point d’observation) et de t [mais, a priori, pas de v(t)], des « intensités du champ de gravité », d’autant plus qu’on peut toujours les éliminer dans un système de coordonnées adéquat, alors qu’on ne voit pas bien le rapport entre le fait que le mouvement des corps incidents dans un champ de gravité extérieur à eux puisse se faire indépendamment de la masse de ces corps et le fait que la gravitation ne soit qu’une « pseudo-force »…

On abuse un peu vite de d’Alembert et du concept d’inertie, non ?

Si la gravitation était une pseudo-force, elle ne pourrait, au mieux, être produite que par des « pseudo-sources » possédant une « pseudo-masse »…

 

Conclusions identiques en dim 4, en remplaçant le temps par le temps propre.

 

Vous ne m’en voudrez donc pas de « m’obstiner » à préférer un modèle vectoriel de la gravitation et à continuer de la considérer comme une véritable force, produite par une véritable source, dotée d’une véritable masse.

Ce qui n’empêche nullement les partisans de la RG de poursuivre dans cette voie.

Chacun son style, je développe mon propre point de vue, sans chercher à l’imposer, comme toujours.

 

On passe au « Tunnel ».

 

 

B87 : POUR EN FINIR SUR LA POLEMIQUE AUTOUR DES FONCTIONS D'ONDES

Le 25/01/2015

Avant de poursuivre sur le thème de la parapsy, procédons par ordre. Et d’abord, un petit retour technique pour couper court aux débats « physiquement oisifs » sur les propriétés ondulatoires des systèmes vivants.

Revenons sur le concept de paquet d’ondes. Et rappelons déjà que ce concept n’a rien de quantique, on le trouve dans toute la théorie du signal. Ce qui est quantique, répétons-le une fois de plus (mais pas de trop), c’est l’association du corpusculaire et de l’ondulatoire.

Ensuite, un paquet d’ondes peut être déterministe ou statistique, selon que son amplitude est déterministe ou statistique.

D’une manière fort générale, un paquet d’ondes est une superposition linéaire d’ondes. Cette superposition crée des interférences, les unes constructives, les autres destructives.

Commençons donc par reconstruire un paquet d’ondes polychromatique (= à plusieurs fréquences distinctes) comme superposition (ou combinaison) linéaire d’ondes monochromatiques exp(iqn0) :

 

(1)    y1 = Sn0 c(0)n0 exp(iqn0)

 

où les qn0 sont les diverses phases, par exemple qn0 = En0t/ħ, les En0 étant des niveaux d’énergie définis. Les c(0)n0 sont les coefficients de la décomposition du paquet d’ondes sur la base (fonctionnelle) des ondes monochromatiques.

Etape suivante : donnons-nous n1 paquets d’ondes

 

(2)    y1,n1 =  Sn0 c(0)n1,n0 exp(iqn0)

 

Seuls les coefficients de la décomposition sont affectés de l’indice n1, puisque la base des ondes monochromatiques est commune à tous les y1,n1. Superposons-les. Nous obtenons un « paquet de paquets d’ondes » :

 

(3)    y2 = Sn1 c(1)n1y1,n1 = Sn0Sn1 c(1)n1c(0)n1,n0 exp(iqn0) = Sn0 c(1,0)n0 exp(iqn0)

(4)    c(1,0)n0 = Sn1 c(1)n1c(0)n1,n0

 

affecté de nouveaux coefficients c(1)n1, qui n’ont a priori aucune raison d’être égaux aux c(0)n0. La relation (4) donne le rapport entre les c(0)n1,n0, les c(1)n1 et des coefficients c(1,0)n0 correspondants à une décomposition de y2 directement sur la base des ondes monochromatiques. Conclusion :

 

UN « PAQUET DE PAQUETS D’ONDES » EST UN NOUVEAU PAQUET D’ONDES.

 

Continuons. Donnons-nous n2 « paquets de paquets d’ondes » :

 

(5)    y2,n2 = Sn1 c(1)n2,n1y1,n1 = Sn0Sn1 c(1)n2,n1c(0)n1,n0 exp(iqn0) = Sn0 c(1,0)n2,n0 exp(iqn0)

 

qui n’affectent, cette fois, que les coefficients c(1)n1 [pourquoi ? parce que les y1,n1 ont remplacé les exp(iqn0) comme base fonctionnelle. Ils vérifient en effet les propriétés d’orthogonalité <y1,n1|y1,p1> = 0 pour p1 ¹ n1 et de normalité <y1,n1|y1,n1> = 1 des paquets d’ondes normalisés à 1]. Superposons-les. On obtient un « paquet de paquets de paquets d’ondes » :

 

(6)    y3 = Sn2 c(2)n2y2,n2 = Sn0Sn1Sn2 c(2)n2c(1)n2,n1c(0)n1,n0 exp(iqn0) = Sn0 c(2,1,0)n0 exp(iqn0)

(7)     c(2,1,0)n0 = Sn1Sn2 c(2)n2c(1)n2,n1c(0)n1,n0

 

qui se ramène lui aussi à un paquet d’ondes, par récurrence sur ce que nous venons d’établir pour y2. La généralisation est immédiate, tout comme sa preuve par récurrence : à l’ordre k+1,

 

(8)    yk+1 = Snk c(k)nkyk,nk = Sn0 c(k,k-1,…,0)n0 exp(iqn0)

(9)    c(k,k-1,…,0)n0 = Sn1Snk c(k)nkc(k-1)n2,n(k-1)…c(1)n2,n1c(0)n1,n0

 

Maintenant, prenons pour k+1 un niveau de complexité… où est le problème ?...

Plaçons-nous dans l’environnement biologique, associons aux modes monochromatiques les atomes. Les y1,n1 sont les paquets d’ondes moléculaires. Les y2,n2, les paquets d’ondes macromoléculaires (linéaires ou refermées sur elles-mêmes en protéines). Les y3,n3, les paquets d’ondes d’assemblages macromoléculaires, c’est-à-dire ici, des cellules.  Les y4,n4, ceux des assemblages cellulaires, c’est-à-dire, epithelia, mésenchymes et tissues denses (on peut même encore affiner les niveaux de complexité). Les y5,n5, ceux des assemblages de tissus, à savoir, les organes et enfin, les y6,n6, ceux des organismes animaux.

 

Si nous prenons comme cas particuliers de paquets d’ondes les fonctions d’ondes, c’est-à-dire, les paquets d’ondes statistiques, nous retrouvons la conjecture de Schrödinger, selon laquelle le concept de fonction d’onde est susceptible de recouvrir n’importe quel système physique dans son ensemble, quelle que soit sa complexité intrinsèque (dont la description n’est d’ailleurs pas prise en compte dans la conjecture, tout comme la structure interne des corps n’est pas prise en compte dans la dynamique classique).

 

Où est le problème ?...

 

Aujourd’hui, plus aucun physicien ne réfute l’existence de propriétés ondulatoires de la matière jusqu’au niveau protéique inclus. Mais ces propriétés font encore l’objet de polémiques à partir du niveau cellulaire. Serait en cause une soudaine « déquantification ». Due à quoi ? mystère… pourquoi pas avant ? mystère…

 

La conjecture que nous avons émise dans la bidouille précédente énonce les choses un peu différemment. Elle dit qu’à l’état « vivant », on est dans le cadre de la dynamique biologique et qu’il n’y a pas de comportements collectifs d’ensembles. Pas de « cohérence d’états », pas de « mises en résonance » de l’ensemble des constituants internes d’un système vivant donné. A l’état « mort », par contre, la dynamique biologique s’arrête, il ne se produit donc plus rien de ce côté-là, si ce n’est la dégradation thermodynamique des systèmes, des « mises en résonance » globales se produisent alors, qui font passer les systèmes de « globalement incohérents » à « globalement cohérents ». A ce stade, ce sont donc les comportements ondulatoires qui apparaissent, recouvrent l’ensemble du système et gèrent la dynamique. On entre dans un domaine « supra-biologique » : la matière biologique est toujours là, mais elle est inerte et c’est la matière « supra-biologique » qui devient active.

 

Entre les deux, entre le « vivant conscient » et la « mort », des comportements quantiques sont à attendre, puisque les systèmes associent les deux dynamiques.

 

Si ce type de conjecture est absurde, alors toute la physique quantique est absurde, puisque ma conjecture ne repose que sur les principes quantiques…

Par contre, ça restera une conjecture jusqu’à preuves expérimentales, soit dans son sens, soit du contraire. On ne peut pas la qualifier de « théorie » en l’état.

 

B86 : EH BIN, NON, ON REMET çA, MAIS SUR LES EMIs ! :))

Le 23/01/2015

On repart plein pot sur le thème de la parapsychologie, avec une nouvelle approche possible des EMIs. Procédons dans l’ordre. Cet article sera surtout explicatif. Peu de formules techniques.

Pour commencer, rappelons qu’à l’heure actuelle, on connaît deux grandes sortes de matière : la matière « thermiquement active », dite « chaude » et la matière « thermiquement inactive », dite « froide ». La transition qui fait passer de la matière « chaude » à la matière « froide » est dénommée mort thermique. Cette transition s’effectue en dessous d’un seuil de température interne dit critique (pour la substance matérielle considérée). Pour toutes les substances connues jusqu’ici dans la Nature, ce seuil Tc est toujours > 0 K.

Il en va de même pour le rayonnement. Un exemple simple de rayonnement « chaud » est la lumière électromagnétique polychromatique. Le rayonnement « froid » qui lui correspond est la lumière monochromatique ou laser.

D’une manière fort générale, un milieu physique « chaud » est physiquement incohérent, alors qu’un milieu physique « froid » est cohérent. Il s’agit de définitions physiques, absolument pas synonymes « d’illogique » ou de « logique ». Un milieu physique est dit « incohérent » si ses constituants internes tendent à se comporter de manière individualiste, il est dit « cohérent » s’ils tendent à se comporter de manière collectiviste. Il s’agit ici de comportements d’ensemble, globaux, c'est-à-dire, impliquant un grand nombre de ces constituants internes, sinon la totalité d’entre eux.

Prenez un solide « chaud » : ne serons en liens direct avec l’un quelconque de ses atomes constitutifs que les voisins immédiats de celui-ci. Les atomes distants ne seront pas affectés par une perturbation quelconque subie par cet atome.

Dans un solide « froid », les choses sont beaucoup plus compliquées. Des atomes ou des électrons (souvent périphériques) distants se retrouvent en liens directs les uns avec les autres, de sorte que, dans une paire électronique composée d’un électron e1 situé, pour se donner une idée de la chose, à une extrémité du solide et d’un électron e2 situé à l’autre extrémité, si l’un quelconque des deux électrons est perturbée, l’autre « enregistrera » la perturbation en même temps que le premier et sans que l’électron perturbé n’ait besoin d’envoyer un quelconque signal à travers le solide à son partenaire pour l’informer de son changement de situation. La raison de ceci est que e1 et e2 forment désormais un tout, indissociable, la paire (e1,e2), qui ne se comporte plus comme une particule de matière, mais comme une particule de rayonnement. En revanche, dès que l’on réaugmente la température, que l’on applique un courant électrique suffisamment fort ou encore un champ magnétique suffisamment intense, les paires ainsi constituées, les unes proches, les autres très distantes, sont cassées et le solide retrouve ses propriétés physiques « normales », « chaudes ».

Grosso modo, i.e. sans entrer dans les détails techniques, les choses se passent comme ça au sein des solides supraconducteurs, qu’ils le soient à très basse ou à plus haute température critique (la valeur de Tc pour un matériau donné dépend de sa complexité chimique : plus un matériau est chimiquement sophistiqué, plus sa température critique semble élevée).

Dans les superfluides, on observe deux types de mouvements : le mouvement dit « normal » et un second mouvement, dit « superfluide ». Au-dessus de la température critique, on n’observe que le mouvement « normal », celui des fluides « chauds ». Le second mouvement ne s’observe qu’en-dessous de Tc, il est caractéristique des fluides « froids ». Il disparaît dès que la température du fluide remonte au-dessus de Tc.

 

Comment expliquer que, au sein d’une même substance matérielle donnée, on puisse observer des comportements physiques aussi différents, selon que cette substance soit « chaude » ou « froide » ? En fin de compte :

 

LE CHANGEMENT D’ETAT PHYSIQUE NE TRANSFORME EN AUCUN CAS UNE SUBSTANCE DONNEE EN UNE AUTRE, IL TRANSFORME LA DYNAMIQUE DE SES CONSTITUANTS INTERNES EN UNE AUTRE.

 

Mais c’est toujours la même substance. Ce point est essentiel.

Dans un solide conducteur (mauvais ou bon) de l’électricité, les atomes restent les mêmes, les électrons restent des électrons, rien n’est changé. Mais, à T > Tc, les atomes de ce solide n’interagissent que de proche en proche, via leurs électrons périphériques. Si j’applique un son dans ce solide, c’est-à-dire, une vibration, une déformation du milieu, ce son sera véhiculé de proche en proche par les atomes de ce solide sous forme « d’excitations élémentaires » appelées phonons. Comme il s’agit d’une propagation (de signal sonore), cette vibration ne sera observée à un autre endroit du solide qu’après un certain délai, étant donné que la vitesse du son dans ce matériau est finie (et dépend des caractéristiques physiques du matériau). Le comportement de ce matériau dans son état « chaud » est physiquement incohérent.

A T < Tc, une partie des électrons périphériques se combinent en paires, forment des ensembles, toujours matériels, mais obéissant à la statistique de Bose (et non plus de Fermi). La dynamique (le comportement) de ces paires change alors radicalement, parce que la statistique quantique a changé. Une fonction d’onde apparaît, qui recouvre l’ensemble des paires constituées et qui peut s’étendre à tout le matériau, même si celui-ci n’est pas entièrement supraconducteur (parce que des paires distantes peuvent se constituer, à l’échelle du matériau). Apparaît ainsi une seconde dynamique, un « second mouvement », collectif celui-ci, en plus du « premier mouvement », individuel, qui persiste à T > Tc et ne disparaît vraiment totalement qu’à T = 0 K, où le matériau est tout entier supraconducteur. Néanmoins, ces deux mouvements ne se superposent pas, ils sont intriqués (par l’intrication quantique). On est donc d’accord avec Landau et Lifchitz, qui préconisent de parler de « mouvements normal et superfluide » plutôt que de « parties normale et superfluide » (ou supraconductrice) : il ne se forme aucune « frontière nette », aucun « découpage » du milieu en une « partie normale » et une « partie supra ».

C’est le même matériau, le même fluide, la même substance, le même milieu matériel, qui présente simultanément et globalement : une seule dynamique interne à T > Tc, i.e. dans son état « chaud » contre deux dynamiques internes, très différentes l’une de l’autre, à T < Tc, i.e. dans son état « froid ». Les constituants internes de ce milieu n’ayant pas ou pas encore transités du « chaud » au « froid », i.e. pas ou pas encore mort du point de vue thermique, continuent de suivre une dynamique « normale », « classique » ; les autres, ayant transités, sont déclarés « thermiquement morts » et suivent une dynamique ondulatoire, qui obéit aux règles de la physique des quanta.

 

La différence essentielle entre ces deux types de dynamique, de comportement interne, se résume en fait à une simple question de frottements.

Toute substance matérielle réelle est soumise, dans son état « chaud », à des frottements internes (entre ses constituants) et des frottements externes (avec d’autres corps ou le milieu environnant). Ces frottements peuvent être purement mécaniques ou thermomécaniques. Ce sont tous des dissipateurs d’énergie.

Dans son état « froid », par contre, la même substance ne présente plus aucun frottement, ni interne, ni externe. Conséquence immédiate : plus de dissipation d’énergie, plus d’entropie.

 

LA DYNAMIQUE « FROIDE » EST THERMODYNAMIQUEMENT REVERSIBLE.

 

Il s’ensuit que, dans un milieu quantique, i.e. dont la température interne 0 < T < Tc, où l’on observe les deux types de comportements, le comportement « normal » sera sujet aux frottements, mais pas le comportement « supranormal ».

Dans les superfluides, ceci se traduit par présence ou absence de viscosité : le mouvement « normal » reste visqueux, alors que le mouvement « superfluide » s’effectue sans viscosité. Résultat : on observe « deux types de fluides en un », le fluide visqueux, qui s’écoule fort laborieusement à travers les fentes étroites et les capillaires, et le fluide parfait, qui s’y écoule, lui, sans aucune difficulté, au point que tout s’y passe (presque) comme si les obstacles matériels « normaux » étaient absents !

Eh oui : plus de viscosité, plus de frottements, pas même moléculaires… J

 

Voici pour le premier point. La température n’est pourtant pas la seule variable thermodynamique de base utilisable. Il y a aussi la pression, la densité ou volume massique et toutes les concentrations en espèces chimiques.

J’ai d’abord recherché des modèles utilisant la température comme paramètre de structure. Mais, pour obtenir des composés « 100% froids », il faut atteindre des températures extrêmement basses : le zéro absolu pour la matière inerte. Pour la matière vivante, soit ce seuil minimal est maintenu, soit il est possible (complexité oblige) que ce seuil minimal puisse être supérieur mais, de toute façon, rien, dans la dynamique de Bose, ne laisse espérer que ce seuil se situe dans des températures plus « ambiantes », par exemple, le zéro Celsius. De toute façon et quoiqu’il en soit, les modèles d’EMIs basés sur la température interne du corps ne rendent absolument pas compte des phénomènes rapportés, ni même des états de coma ! Au contraire, il semble plutôt que ces états de perte de conscience soient, en fin de compte, insensibles à la température interne du corps, qui peut certes chuter et provoquer ces entrées en stade comateux, mais peut toujours être relevé par voie artificielle, ce qui ne sort pas le patient de son coma pour autant (sauf stade 1)…

Du coup, j’ai pris comme nouveau paramètre de structure la pression sanguine.

Premier avantage : la valeur p = 0 est facilement atteinte. Elle l’est dans tous les arrêts cardiaques. Même si on la rétablit par voie artificielle, la transition « 100% » a été obtenue. On n’est évidemment plus dans le « 100% chaud », puisqu’on n’utilise plus la température, mais la pression. Le « 100% quoi », alors ? « crevé » ? Bin : y a plus de pression !!!

 

(et puis, si on ne fait pas dans l’humour légiste à ce stade, on le fait quand ?...)

 

Avant d’aborder le thème proprement dit, je vais (ré)expliquer en termes moins techniques pourquoi j’ai abandonné l’hypothèse d’un état quelconque de la conscience, y compris d’une « supraconscience ». Je comprends fort bien les justifications cliniques qu’on peut y trouver, je ne les conteste pas, s’agissant de faits médicaux, cette idée d’une « supraconscience » est séduisante (puisqu’elle m’a longtemps séduite), malheureusement…

… elle ne résiste pas à l’épreuve de la physique.

 

Que cherchons-nous ? Un corps, c’est bien ça ? « d’une autre nature », comme a dit Moody, mais un corps quand même ?

Bon. Alors, un corps, c’est de la substance, ça n’occupe qu’un volume fini d’espace et ça possède une forme.

Un corps, c’est de la matière. Ses constituants internes obéissent à la statistique de Fermi.

Notez bien : je parle de ses constituants, pas de leur dynamique !

Aucun rayonnement ne peut constituer un corps, parce que ses constituants obéissent à la statistique de Bose, qui ne permet de former aucune substance.

Or… comme je l’ai déjà expliqué dans une bidouille précédente… mais en plus « techniquement sauvage »… la conscience n’est pas une substance, mais un processus auto-régulé de nature électrochimique. Et ce ne sont pas les ions qui participent du passage de l’influx nerveux qui suffisent à constituer un corps… surtout de même complexité que son homologue biologique.

La conscience n’est pas une substance, mais le produit de la substance neurologique. Ici, les ions sont les sources, l’influx nerveux est « l’élément du champ de conscience ». Mais ce qui constitue cet influx, ce sont des champs électriques et des champs magnétiques produits par le transfert de ces ions à travers la membrane axonale. Tous ces champs… c’est du Bose. Pas du Fermi.

 

Si, par contre, on pousse plus loin, à l’ensemble de l’animal et qu’on pose l’hypothèse (physique) selon laquelle, en tant que substance (hautement) complexe, l’animal peut subir un changement d’état en dessous d’un seuil de pression sanguine (artérielle et/ou veineuse) pc > 0 et ainsi acquérir, en plus de son comportement « normal », un second comportement, « supranormal », alors, au moins, on est dans le « physiquement acceptable », on ne transforme pas l’animal en un autre (ce n’est pas un transformer… on n’en fera pas un vélo, non…), on fait apparaître un second comportement interne, duquel tout frottement a disparu (merci le collectivisme…) et dont les propriétés physiques qui résulteront de la disparition de cette caractéristique fondamentale de l’état « ordinaire » seront radicalement nouvelles et sans commune mesure avec celles auxquelles nous sommes habitués.

 

(oui, j’ai la mauvaise habitude de former des phrases à la Balzac… lol)

(je la perdrai quand je serai mort !!! loool)

 

L’ensemble de l’animal, ça inclut naturellement… la conscience. J Mais, en plus, tout le substrat biologique… et là, on a un corps. Un corps « froid », puisque l’annulation de la pression sanguine a forcément refroidi l’animal. Un corps « mort »…

… mais vis-à-vis de quelle dynamique interne ?... J

S’il s’agit de la dynamique biologique, il est bien « mort ».

S’il s’agit de la dynamique « suprabiologique », il fonctionne toujours, il raisonne même…

… mais plus du tout de la même manière.

 

Quand j’aurai en ma possession des données cliniques précises, j’affinerai le raisonnement. Pour le moment, nous allons tenter de construire un premier scénario très schématique d’une EMI pour nous faire une première idée de ce qui est susceptible de se produire en accord avec les lois connues de la physique.

Nous prenons donc comme paramètre principal de transition la pression sanguine p, que nous mesurerons en pulsations par minute (c’est donc la mesure du pouls).

Considérons le schéma (très) basique suivant :

 

-         à p > pc1, pression critique que nous fixerons autour de 15/mn, le patient se présente dans un état « normal », i.e. « non pathologique » (même si ce n’est pas la forme olympique), « non singulier ». Il est conscient ; R.A.S.

-         à p = pc1, il passe en coma de stade 1. Ce coma est de type hypoglycémique, même si le patient n’est pas diabétique, car la pression sanguine n’est plus suffisante pour alimenter correctement les organes, à commencer par le cerveau, en glucose et en oxygène. Ce stade de coma est néanmoins réversible. Il y reste jusqu’à pc2 = 10/mn ;

-         à p = pc2, il sombre en stade 2 (coma léger, mais déjà irréversible : s’il n’en sort pas de lui-même, on ne peut l’en extraire) et y reste jusqu’à pc3 autour de 5/mn ;

-         à p = pc3, il passe en stade 3 (coma profond) et y reste jusqu’à pc4 = 0 ;

-         à p = pc4, c’est l’arrêt cardio-vasculaire. Au bout d’environ 7 mns, les organes cessent d’être irrigués.

 

Le modèle fera sans nul doute sourire les toubibs, l’important, en l’état, est déjà de noter qu’on peut avoir plusieurs seuils critiques de transition. Pourquoi compliquer les choses ?

On ne complique rien, on ne fait que travailler au plus près possible de la matière réelle. Dans la matière réelle, on ne passe pas brutalement du « 100% ordinaire » au « 100% extra-ordinaire » : une fois passé sous le seuil critique le plus haut, ici pc1, on n’acquiert qu’une partie de composante « supranormale ». Une partie seulement des constituants internes transitent. Pour que la totalité transite, il faut atteindre la valeur minimale p = 0. D’où les différents niveaux, ici associés aux stades comateux : à partir de pc1, plus la tension sanguine baissera, plus le comportement supranormal s’étendra, jusqu’à recouvrir l’ensemble du corps à p = 0.

Cela veut dire qu’on admet l’hypothèse selon laquelle, dans les différents stades de coma, apparaît un comportement « supranormal », en plus du comportement « normal » et que ce comportement supranormal prend de plus en plus d’ampleur au fur et à mesure que le patient sombre dans le coma. Du point de vue « normal », ce patient apparaît inconscient. Mais, du point de vue « supranormal », il apparaît de plus en plus « supraconscient ».

Si vous essayez de détecter ce comportement « supraconscient » par les techniques habituelles, vous n’observerez rien du tout.

Pour comprendre cela, je reprends l’exemple du superfluide. Pour détecter le mouvement normal, vous devez réaliser un test de rotation : plonger un disque dans le liquide et observer son mouvement de rotation ; mais ce test ne vous révèlera en rien le mouvement superfluide.

Pour ce dernier, il vous faudra réaliser un test d’écoulement dans un capillaire : là, comme on l’a vu plus haut, le liquide normal sera bloqué en entrée du fait de sa viscosité (on prend un capillaire extra-fin) et seul le liquide superfluide passera. En plus, on observera un échauffement à l’entrée du capillaire et un refroidissement en sortie de celui-ci, parce que, le superfluide quittant le 1er récipient pour le second et ne transportant avec lui aucune entropie, il restera une plus grande proportion de liquide normal dans le récipient 1, réparti dans le même volume. La température se répartira donc dans moins de matière (normale), d’où l’échauffement. Par contre, en sortie de capillaire, on trouvera plus de matière superfluide que de matière normale et la température se répartira dans une plus grande proportion de liquide quantique (normal + superfluide), d’où le refroidissement. J

Le test du capillaire ne vous révèlera donc rien, cette fois, sur la composante normale du fluide quantique, sinon ce changement de température.

 

Dans tous les cas de figure, on doit mettre en place des protocoles de tests adaptés à ce que l’on recherche. Et la situation présente n’échappe pas à la règle.

Observer un EEG plat en stade 4 ne vous apprend absolument rien sur ce qui est susceptible de se passer au niveau « supra ». Un scanner, une IRM, pas plus : tous ces examens observent le comportement normal du système nerveux.

A savoir : la propagation d’un signal dans de la matière.

C’est la caractéristique de la matière « chaude », « vivante », « à pression normale », « globalement incohérente », comme vous voudrez l’appeler que de se transférer de l’information en s’envoyant des signaux. Matériels ou pas. Les cellules vivantes communiquent en s’envoyant des signaux moléculaires à travers le milieu biologique.

Au contraire, la matière « froide », « morte », « à pression nulle », « globalement cohérente » s’échange de l’information par corrélation.

Il n’y a plus de transfert de signaux.

A la place, on trouve des assemblages cohérents, des « touts », des « ensembles de constituants internes en résonance » : stimuler l’un quelconque d’entre eux, vous stimulez tous les autres, au même instant. C’est la « réponse de groupe » à un stimulus individuel. Elle est instantanée, parce qu’en fait, il n’y a plus de production de signal, donc plus de propagation et plus de délai de réception de l’information.

Et ça n’empêche absolument pas les choses de fonctionner. Elles ne fonctionnent plus selon les mêmes modes qu’auparavant, c’est tout.

 

Je n’ai plus trop le temps, j’ai fait l’essentiel de l’introduction, je parlerai du problème de l’intrication quantique dans l’article suivant.

 

 

 

 

Minibluff the card game

Hotels