Accueil

Computers

 

 

Curious Marc: https://www.curiousmarc.com/

Marc Verdiel a fait ses études en France (il doit être Français ou Belge), X , puis une thèse en optronique à Orsay puis MIT il me semble avant de monter plusieurs sociétés dans la Silicon Valley puis rachat par Intel, il est maintenant Fellow Intel, ça lui laisse apparemment du temps et un peu d'argent. il suffit de regarder son labo. Bref, ce qu'il fait et montre est passionnant !  Christophe F5HRS
 

 

The Computer History Museum, Mountain View, Calfornia US
https://en.wikipedia.org/wiki/Computer_History_Museum

 

 

Apollo Guidance Computer (Curious Marc)

L'ordinateur de guidage d'Apollo 11

 

 

 

  • AGC Part 1:   Restoring the computer that put man on the Moon
    We embark on the restoration of a very rare and historically significant machine: the Apollo Guidance Computer, or AGC. It was the revolutionary MIT-designed computer aboard Apollo that brought man on the Moon (and back!). Mike Stewart, space engineer extraordinaire and living AGC encyclopedia, spearheads this restoration effort. In this first episode, we setup a makeshift lab in his hotel room, somewhere in Houston. The computer belongs to a delightful private collector, Jimmie Loocke, who has generously allowed us to dive in the guts of his precious machine, with the hope of restoring it to full functionality by July 2019, the anniversary of the Apollo 11 Moon Landing.
     

  • AGC Part 2:   Power supplies test
    Mike Stewart gives an overview of the hardware. Enamored by the success at checking the IC gates, we proceed to check out and power up the supplies. Once again a long-ish video, but I hesitate to chop it up too much for fear of losing details that might be important to some. Let me know how I am doing.
     

  • AGC Part 3:   Main bus B undervolt
    In preparation for the AGC power up, we test the alarm module B8, simulate the Apollo 13 main bus undervolt, and discover that our memory is faulty. And we find out how much our AGC did originally cost.
     

  • AGC Part 4:   We are "go" for powerup
    The last module has checked out OK. It's time to attempt powering up the AGC - and see if it awakens from its 43+ years of slumber, even without proper working memory.
     

  • AGC Part 4,5: Bonus material, full logic analyzer trace explanation outcut
    Some inquisitive minds requested a non-edited version of the hard core read-back of the LA trace we obtained in episode 4. Your wish is hereby granted. It's actually quite interesting, provided you are a curious minded enginerd and dedicated follower of this restoration. Normal folks, move right along. Oh, wait, are there any of these left on my channel? Anyhow, I am curious (it's in my name) to see how popular this video is going to be. Frequent comment answers: Yes we know about Francois Rautenbach and the Block I core ropes (https://youtu.be/WquhaobDqLU). These ropes are also from Jimmie and not compatible with our Block II computer Yes we are in contact with Fran https://youtu.be/UjcfepTdvZI (and several others) about their superb DSKYs replicas.
     

  • AGC Part 5:   We run a chunk of original Apollo code
    We are out of time for our first visit, and memory is not working. But our whiz kid Mike manages to whip up an FPGA memory emulator for the AGC just before we have to leave. The AGC gets to run a chunk of an original Apollo program!
     

  • AGC Part 6:   Restauration update, a new sponsor, and a satellite launch
    An update on the work with the DKSY, the rope memory simulator, the core memory, and Mike's satellite launch!
     

  • AGC Part 7:   Erasable memory module B12
    Our core memory module has a fault. We deep dive into its construction and make several measurements to find where the problem is. It will be helpful to first watch my core memory video: https://youtu.be/AwsInQLmjXc . This blog article from Ken Shirriff goes into even more details about the AGC core memory: http://www.righto.com/2019/01/inside-...
     

  • AGC Part 8:   A blinkenlight AGC
    In this update, Mike reveals the hidden Blinkenlights of the AGC.
     

  • AGC Part 9:   Unboxing my Apollo IRIG Gyroscope
    I just scored a genuine Apollo IRIG II gyroscope at the latest RR auction! Let's unbox it, after taking a quick look at more "mundane" military gyros from Ed's collection. In this session we step away from the guidance computer proper and look at its main input sensor, the Inertial Measurement Unit (IMU). I had resigned myself to use a lesser gyro with the Apollo servo electronics Jimmie had donated to the project. Well, no more, now we can use the real thing.
     

  • AGC Part 10: Mike flies Apollo 11 P63, lunar landing, on his hardware replica
    Mike Stewart flies Apollo 11 P63, lunar landing, using his new AGC monitor and his gate-exact AGC replicas. The AGC monitor replica, a key piece of AGC ground test equipment used by MIT for debugging the AGC, has been built in preparation for our upcoming next encounter with the real AGC.
     

  • AGC Part 21: Playing moon landing on our restored Apollo Guidance Computer
    We play moon landing on the real AGC

 

 

Le système de communications d'Apollo 11

 

Notre ami "Curious Marc" ouvre et décrit les deux modules de communication utilisés en 1969 pour les datas, la voix et les images. Cette série de Youtube est magnifique. Le commentaire est en anglais mais vous pouvez enclencher la traduction simultanée en français dans les paramètres Youtube.


En gros il s'agit d'un transpondeur situé dans le module de commande qui va vers la Lune et qui a trois voies distinctes mais qui passent par la même antenne.

Le transpondeur reçoit un signal codé de la Terre vers 2,1 GHz et le renvoie vers 2,2 GHz après l'avoir amplifié. C'est comme un radar sauf que le signal n'est pas réfléchit par le module mais reçu et re-envoyé. Cette fonction permet de déterminer la distance de la capsule et sa vitesse. La direction de l'antenne au sol (de grandes paraboles dont une de 60 mètres de diamètres), donne la direction du point où se trouve le module.

Une autre voie permet d'échanger des datas et de la voix et la troisième, en modulation de fréquence, les images TV.

 


Le transpondeur (ci-dessus) utilise un amplificateur à tube à ondes progressives (il n'y avait pas de transistoors de puissance pour ces fréquences en 1969) qui sort entre 2 et 11 Watts. C'est donc grâce à ces 11 Watts que nous avons pu voir les images transmis depuis le sol lunaire. C'est une performance extraordinaire. Sur Terre, la puissance démission était de 20 kW, dans de grandes paraboles de plusieurs dizaines de mètres de diamètre.

C'est émouvant de voir tout ça ouvert sur la table dans cette vidéo:

 

https://www.youtube.com/watch?v=v49ucdZcx9s

 

Les vidéos suivantes décrivent la mise en route de ce système après en avoir fait le reverse engineering.
 


IBM 1401 computer  (Curious Marc)

  • The vintage IBM 1401 mainframe paying a tribute to Apollo 11

     

  • The 1959 IBM 1401 compiles and runs Fortran II
    We attempt to compile and run a simple FORTRAN program on our vintage 1959 IBM mainframe computer at the Computer History Museum. FORTRAN is a big stretch for this business oriented machine, with 16k memory and a CPU not meant at all for scientific applications. Even integer
     

  • The IBM 1401 mainframeruns"Edith"
    This politically incorrect one is going to lose me the precious few female followers left on my channel. But for the good of academic research, we were asked to run the program "Edith" on the vintage 1959 IBM mainframe at the computer history museum. Which goes on to prove that the more technology evolves, the more things stay the same. And I forgot how to pronounce the alphabet in German.
     

  • 1401 demonstration, Computer History Museum, 14 octobre 2015
    Ken Ross and Paul Laughton demo the IBM 1401 at the Computer History Museum in Mt. View, California

 


General Automation Anaheim, California

 


Computer à relais japonais (Curious Marc)

  • 1958 Facom 128B japanese relay computer, still working
    This FACOM 128B was designed in 1958 and built in 1959, and is part of Fujitsu's (and Japan's) first commercial computers series. It uses over 5,000 relays, and still works to this day! Samtec and Fujitsu arranged for me to see this very special machine in action during a recent visit to Japan.

 

 


 

Systèmes allemands de 39-45

https://www.cdvandt.org/

 

 

 

Emetteur pour sous-marins

 

 

Divers


Ordinateurs quantiques

 

  • Stocke des Qbits, "bits quantiques" qui peuvent prendre une infinité d'états
     

  • L'état d'un  Qbit ne reste stable que quelques microsecondes ce qui introduit des erreurs ou du "bruit" dans les calculs, donc des imprécisions

  • La machine doit être refroidie à -273 degrés afin que les qbits soient isolés du monde extérieurs afin qu'ils ne se modifient pas accidentellement.

  • Elle doit être protégée des interférences magnétiques pour la même raison

  • Fin 2021, IBM dévoilait un ordinateurs avec 127 Qbits et espère arriver à 433 en 2022 et 1121 en 2023.

  • Un ordinateur quantique opérationnel n'est attendu que pour les années 2030

Questions:

  • En fait de "quantique", ne serait-ce pas simplement un bit qui peut prendre un grands nombre d'états par exemple en modifiant son spin?
     

  • Qu'y a-t-il de quantique là dedans?


Bases de la physique quantique

 

  1. Superposition quantique:
    Dans l'infiniment petit, il existes des particules qui n'ont pas d'état défini mais qui en prennent un lorsqu'on les mesure. On pourrait dire qu'avant la mesure, la particule possède tous les états possibles superposés. Mais lorsqu'on la mesurée, il y a effondrement quantique et la particule redevient normale, "0" ou "1".

    QUESTION:  Comment sait-on que la particule a tous les états superposés puisqu'on ne peut pas la mesurer sans la modifier?
     

  2. L'intrication quantique:
    On prend un particule sans spin. Elle se désintègre en 2 particules quantiques qui peuvent avoir chacune un spin. On sépare les 2 particules de plusieurs kilomètres. On mesure le spin de la première et immédiatement après celui de la deuxième. On trouve un spin UP pour la première et DOWN pour la seconde. 
    On pourra mesurer le spin des 2 particules. Si la première est UP, la seconde sera toujours DOWN.

    QUESTION: Comment crée-t-on des particules quantiques?

    Comment peuvent-elles communiquer? En fait elles ne communiquent pas, elles constituent un seul et unique système, bien que séparées. Leur état change plus vite que la lumière parce qu'en fait il n'y a pas de communication.
     

  3. Dans un ordinateur quantique, les Qbits n'ont pas que 2 états possibles, ils en ont une infinité. C'est pour ça qu'ils peuvent calculer plus vite parce qu'ils peuvent obtenir d'un seul coup tous les états possibles.
     

  4. Un ordinateur quantique à 4 qbits va calculer 16 fois plus rapidement qu’un ordinateur classique à 4 bits, et ainsi de suite. On double la puissance d’un ordinateur quantique à chaque fois qu’on lui ajoute un qbit !
     

  5. Pour un bit classique, on a soit alpha =0 et béta = 0 (c’est l’état 0), soit alpha = 0 et béta = 1 (c’est l’état 1). Pour un qbit, ces coefficients (alpha et béta) peuvent prendre n’importe quelle valeur (tant que alpha 2 + béta 2 = 1). Un ordinateur quantique fait varier les coefficients alpha et béta  grâce à des portes quantiques (l’analogue des portes logiques classiques).

    au lieu d’avoir une série de bits indépendants les uns des autres comme dans un ordinateur classique, on les intrique, de sorte à ce que l’ensemble des qbits dans l’ordinateur forme un unique système quantique, et non une série de systèmes isolés.
     

  6. Un des algorithmes quantiques particulièrement prometteurs en informatique quantique est l’algorithme de Grover, qui permet de trouver un élément dans une liste : un numéro de téléphone associé à un nom, le code-barre associé à un produit, ou n’importe quel élément dans un gros jeu de données.

    Imaginez que vous ayez un magasin de peinture qui vende 8 produits différents, chacun doté d’un code-barres :

    • Peinture rouge : 000
    • Peinture jaune : 001
    • Peinture bleue : 010
    • Verte : 011, rose : 100, magenta : 101, marron : 110, noire : 111

    On cherche à savoir quelle est la couleur associée à tel ou tel code-barres de manière automatisée. Évidemment ça paraît absurde tellement le catalogue de peinture est petit, mais imaginez la même situation avec 5000 couleurs et 5000 code-barres !

    Comme les solutions simples ne vous attirent pas, vous décidez de résoudre le problème avec la physique quantique ! Vous créez un ordinateur quantique à 3 qbits, qui se trouvent donc avant toute mesure dans une superposition de 8 états différents, chacun correspondant à une peinture. Autrement dit :

    • Peinture rouge : correspond au coefficient a
    • Peinture jaune : correspond au coefficient b
    • Peinture bleue : correspond au coefficient c
    • Verte : d, rose : e, magenta : f, marron : g, noire : h

    Vous créez aussi un circuit de portes quantiques qui a la caractéristique « d’augmenter » le coefficient associé à la peinture recherchée.

    Une fois l’ordinateur programmé, on lui « envoie » un qbit neutre dont les coefficients sont égaux.

    Après avoir fait plusieurs tours dans le circuit de l’ordinateur, ce qbit va ressortir dans un état superposé, mais avec le coefficient lié à la peinture recherché bien plus élevé que les autres. Lorsque l’on fait une mesure, on peut théoriquement tomber sur n’importe quel état, mais comme le coefficient associé à un état reflète la probabilité de tomber sur cet état lors de la mesure, on tombe avec une quasi-certitude sur le bon état.

    Ainsi les algorithmes quantiques sont souvent probabilistes : ils ne renvoient pas la bonne réponse à coup sûr, mais on peut faire en sorte qu’ils donnent la réponse avec une probabilité très proche de 1.
     

  7. Une porte quantique permet de modifier l’état d’un qbit, tout comme une porte logique classique modifie l’état d’un bit. Pour modifier l’état d’un qbit, on utilise souvent des ondes électromagnétiques envoyées à une fréquence spécifique.
     
  8. Qu'est-ce qu'un qbit? Comme l’information à traiter est de nature quantique, le support utilisé doit être microscopique. Jusque-là, les scientifiques ont utilisé des noyaux atomiques, des ions, des électrons ou même de simples photons.
     
  9. Faire en sorte que les qbits gardent leurs propriétés quantiques malgré leur manipulation via les portes quantiques est très délicat : c’est surtout sur ces problématiques que les scientifiques travaillent actuellement. Le prix Nobel de physique 2012 a été décerné aux chercheurs qui ont réussi à faire des mesures sur des objets quantiques sans les détruire, ouvrant de nouvelles possibilités pour l’informatique quantique.
     

Sources:

 


 

Physique

De quoi ça parle, la perception trompeuse, méthode(s) et certitudes

Olivier Parriaux 12 février 2017 selon la vision de Etienne Klein, CEA, France

 

De quoi ça parle ?

Ça parle du monde naturel perçu mais…

sans s’arrêter à la perception et au sens commun, qui peuvent être trompeurs : il faut déshabiller l’objet pour trouver des lois, des invariants…

… dans le but de s’approcher de la réalité, de faire des prévisions puis d’agir sur le monde naturel.

 

La perception trompeuse (exemples)

 

- Le soleil (et les étoiles avec) tourne autour de la terre.

Ceci induit dans la représentation cyclique qu’a le Mensch de sa destinée que le futur est dans le passé qui revient périodiquement. Cette représentation traditionnelle prend fin avec Copernic (1473 – 1543) et son système héliocentrique, ce qui ouvre vers le futur dans lequel le Mensch peut se projeter d’où l’apparition des utopies.

- La chute des corps, la définition du temps physique.

Galilée (1564-1642) met en contradiction la déduction observationnelle d’Aristote (les corps lourds tomberaient plus vite que les légers) par simple expérience de pensée (sans monter sur la Tour de Pize) et conclut que tous les corps tombent à la même vitesse v quelle que soit leur masse m. De plus, il crée une première définition du temps physique t qui est proportionnel à la vitesse de chute v par t = v/g, g = 9.81 N/Kg est l’intensité de la pesanteur à la surface de la terre.

- Le temps (son déroulement et sa flèche).

Le temps a autant de significations que d’individus et on en parle encore dans le langage courant comme avant Galilée. Il est important en physique de distinguer le cours du temps qui est spatialisé sous forme d’une droite, comme les trois coordonnées d’espace, à ceci près que le principe de causalité impose que la droite n’est parcourue que dans un sens, que ce qui est passé est irrémédiablement révolu (les voyages dans le temps sont impossibles) ; la relation logique entre cause et effet est « temporalisée » dans le cours du temps. Le cours du temps « accueille », lui, des phénomènes physiques qui, eux, dépendent du temps ; s’ils sont irréversibles (nuage de lait dans un café, deux gaz se mélangeant), cela définit une flèche du temps qui correspond à une entropie toujours croissante (2ème principe de la thermodynamique). Voir la confusion de Prigogine entre cours du temps et phénomènes temporels (à la fin de ce texte).

- La simultanéité, la chronologie en rapport avec la relativité restreinte.

En physique newtonienne les interactions sont instantanées et deux événements simultanés le sont pour tout observateur (c’est du bon sens car le Mensch ne se déplace pas assez vite pour qu’il en soit autrement). Or, la relativité restreinte (Einstein 1905), qu’on devrait d’ailleurs plutôt appeler « universelle », dit que chaque observateur a son propre temps propre, ces temps propres n’étant plus synchronisés et pouvant être très différents si les différentes vitesses des référentiels des observateurs sont grandes relativement à la vitesse de la lumière, c; la simultanéité n’est plus un absolu et les interactions ne sont plus instantanées. C’est la vitesse de la lumière qui devient un absolu (dans tout référentiel) et elle est limitée ; mais le principe de causalité impose que la chronologie entre deux événements observés par différents observateurs est maintenue.

 

Exemples concernant les particules élémentaires (mécanique quantique) :

- La relation d’«incertitude» de Heisenberg (qui devrait plutôt être désignée par «relation d’indétermination»).

En parlant d’ «incertitude» on infère que cette méchante mécanique quantique nous empêche de connaître précisément des éléments de réalité, par exemple qu’on ne peut connaître en même temps la position et la vitesse d’une particule (e.g. d’un électron). En effet, le bon sens de la mécanique classique attribue à un objet des propriétés, un état (e.g. position, vitesse) qu’il a en propre indépendamment du fait qu’on les mesure ou non. Si on les mesure, on fait une sorte de « sténographie » de la réalité préexistante. Or, l’état d’un électron est défini par une énergie, un « spin », et nullement par une position dans l’espace et une vitesse (ce n’est pas un « corpuscule »), l’état étant un « vecteur » dans un « espace de Hilbert ». En demandant à l’électron de nous dire où il est et sa vitesse on pose une question non-pertinente qui ne correspond pas à son état ; il nous répondra quelque chose mais quelque chose qui sera approximatif. Ainsi, en attribuant à une particule des propriétés que notre perception juge « naturelles » on s’interdit le contact avec les éléments de réalité auxquels la physique quantique donne accès.

- L’objet quantique et ses propriétés, localité, non-localité

Plus mystérieux, plus ébouriffant encore – en fait inaccessible - pour le sens commun est le phénomène de l’ « intrication » de deux particules « jumelles » (e.g. une paire deux photons issus ensemble d’un seul et même processus d’émission de lumière) distingués par leur état de polarisation qu’on définira ici par v pour l’un (vertical) et h pour l’autre (horizontal). L’un des photons est dirigé vers la doite, l’autre vers la gauche (via deux fibres optiques, exemple de l’expérience de N. Gisin à Genève, 2006). A vingt kilomètres à droite du point d’émission je mesure l’état de polarisation du photon de droite ; ce photon n’a pas un état prédéterminé v ou h que la mesure nous révèlerait ; il a un état « superposé » de v et h (tout comme celui de gauche). C’est le processus de mesure qui réduit son état à v ou h (l’acte de mesure est consubstantiel à l’état). Ce qui se passe alors instantanément, c’est que l’état du photon de gauche est v si j’ai mesuré h pour celui de droite ou h si j’ai mesuré v à droite comme si les deux photons s’étaient donné le mot instantanément où « instantanément » signifie « plus vite que la vitesse de la lumière », ce qu’il est impossible d’assumer depuis 1905. Il faut dire ici que ce que conteste cette expérience ce n’est pas un sens commun très ordinaire : c’est l’hypothèse des tenants de l’ancien testament de la mécanique quantique (Einstein, De Broglie, Schrödinger, contre l’interprétation « orthodoxe » de Copenhague par Bohr, Heisenberg, Born) selon laquelle l’état d’une particule pré-existerait à sa mesure.

- Confusion masse – matière

Aux vitesses de déplacement qui sont les nôtres ici-bas il y a pratiquement identité entre « quantité de matière » et « masse d’inertie » qui, elle, est la résistance au changement de vitesse ou changement de direction (i.e. résistance à l’accélération-décélération). Or, lorsqu’un veut par exemple accélérer une particule comme dans l’accélérateur du CERN aussi près que possible de la vitesse limite de la lumière sa masse d’inertie tend vers l’infini alors même que sa masse- quantité de matière reste la même.

 

Méthode(s) (hypothético-déductive)

- Séparer le sujet de l’objet pour s’éloigner du réel empirique (mise en relation par structure opératoire mathématique)

- Abstraire l’objet et projeter des hypothèses,

- Mathématiser ses propriétés,

- Définir les confrontations avec la réalité perçue (définir les expériences critiques dans notre monde à 4 dimensions) permettant de vérifier les déductions faites à partir des hypothèses.

 

Quelques certitudes

- La réversibilité temporelle des équations de la physique newtonienne (et de l’équation de Schrödinger pour la mécanique quantique) n’est pas en contradiction avec l’irréversibilité des phénomènes macroscopiques.

Le débat féroce à la fin du XIXème siècles entre la vision thermodynamique dominante des transferts irréversibles de chaleur exprimée par le 2ème principe de la thermodynamique de la croissance de l’entropie S (Oswald) et la vision atomiste statistique basée sur la physique newtonienne réversible temporellement (Boltzmann), alors que l’atome n’avait pas encore été découvert, fut résolu sans heurts (à part de suicide de Boltzmann) par la découverte de l’atome et ses constituants durant la 1ère décennie du XXème siècle. (L’entropie S = k log(M), M est le nombre Ω {\displaystyle \Omega } d’états microscopiques, ou nombre de configurations (ou nombre de complexions), définissant l’état d'équilibre d'un système donné au niveau macroscopique, loi exprimant un phénomène irréversible sur la base d’un modèle microscopique réversible, k constante de Boltzmann). Est-ce une anomalie de l’histoire des sciences que cette question soit revenue sur le tapis par le prix Nobel (1977) I. Prigogine avec, entre autres, son livre « La fin des certitudes » 1996 ?

- La confusion entre déterminisme et prévisibilité

Les phénomènes chaotiques sont déterministes, contrairement au bon sens (et celui de Prigogine, voir fin de texte) mais on ne connaît pas toujours, ou il est impossible pratiquement de connaître les conditions initiales d’un système complexe précisément, donc le résultat est imprévisible.

- Le principe de causalité est encore inviolé

mais il doit être réinterprété suivant la théorie physique concernée.

- La théorie peut avoir raison contre l’expérience et imposer des sauts ontologiques dans notre représentation du monde :

# La radiation « béta » et l’existence du neutrino en réponse à la supposée non-conservation de l’énergie constatée expérimentalement

Note 1: depuis le début du XXème on ne parle plus de principe de conservation de la masse mais de conservation de l’énergie par l’égalité célèbre entre masse et énergie : E2 = m2c4 + p2c2 (le 2ème terme, où p est l’impulsion, est nécessaire pour exprimer qu’une particule de masse nulle (e.g. un photon) possède une énergie.

Note 2: le principe de la conservation de l’énergie est une conséquence de l’invariance des lois physiques au cours du temps.

La radiation béta est la transformation d’un neutron d’un noyau instable sous forme d’un proton et de l’émission d’un électron. Du fait de la conservation de l’énergie, les électrons émis devraient toujours avoir la même énergie cinétique. Or, ce n’est pas ce qui est observé (en 1931). Comment se sortir de ce paradoxe ? Législativement en révisant la confiance qu’on a dans la loi de la conservation de l’énergie ? ou ontologiquement en supposant qu’il y a quelque chose dans la réalité que l’on n’a pas « vu » ? Pauli opte pour cette 2ème option et suppose – et calcule – avec Fermi l’existence du neutrino qui ne sera découvert qu’en 1956.

# La causalité et l’existence de l’antimatière

Dirac réécrit l’équation de Schrödinger en y intégrant la relativité restreinte pour modéliser le comportement de particules quantiques relativistes ayant une très grande vitesse (1928). Il tombe avec un exemple de particule sur le paradoxe où la particule disparaît avant d’avoir été créée. Il en conclut qu’il doit introduire le principe de causalité dans son équation, ce qu’il fait et tombe sur un deuxième paradoxe : son équation donne deux solutions, l’une pour une particule connue, l’autre pour une « antiparticule » de même masse mais de charge électrique opposée (e.g. l’ « anti-électron » comme électron de charge positive). Or en 1932 on découvre en effet dans le rayonnement cosmique les « positrons ». L’existence de l’antimatière – qui n’existe plus dans l’univers mais que l’on peut recréer – est donc liée au principe de causalité.

# Le boson de Brout-Englert-Higgs en réponse à la nullité de la masse selon le « modèle standard »

Le « modèle standard » de la physique parvint dans les années soixante à unifier dans le même formalisme théorique trois des quatre forces ou interactions fondamentales dans l’univers (force électromagnétique, force nucléaire faible, de faible portée, responsable du rayonnement béta, force nucléaire forte, responsable de la cohésion du noyau de l’atome; la force gravitationnelle n’est pas comprise dans le modèle standard). Le modèle standard parvint à identifier et donner les propriétés de 61 particules quantiques qui, toutes, ont été découvertes et mesurées expérimentalement avec grande précision jusqu’à aujourd’hui. Or il contient un paradoxe majeur : toutes les particules devraient avoir une masse d’inertie nulle alors que la masse de la majorité d’entre elles a été mesurée précisément non-nulle. Comment lever ce paradoxe ? Législativement en concluant à la non-validité du modèle standard et en procédant à sa révision ? ou en postulant sa validité et en cherchant ce qu’on a pu omettre de la réalité ? Trois chercheurs optent pour la deuxième option et publient simultanément (Higgs et les deux autres) en 1964 quelque chose d’incroyable : que la masses des particules fondamentales n’est pas une propriété première des particules mais l’effet d’une interaction avec un champ uniforme dans l’espace, le champ de Higgs, qui « freine » les particules et leur confère leur inertie, leur masse. Ainsi, le vide n’est pas vide mais rempli de particules latente (le champ) qui n’ont pas assez d’énergie pour exister et que l’énergie de protons projetés les uns contre les autres au LHC à Genève permet de « réveiller » momentanément.

On touche là, avec ces trois derniers exemples des « éléments de réalité » qui échappent totalement à l’intuition humaine et que l’esprit humain peut toucher grâce à un appareil mathématique et conceptuel d’une grande complexité mais aboutissant à une représentation unifiée et simplifiée. Bernard d’Espagnat, décédé en 2015, parlait de l’accès à une « réalité voilée ».


 

Critiques de la position de Prigogine

+ D’Etienne Klein «Le facteur temps ne somme jamais deux fois»:

- Amalgame « cours du temps » - « flèche du temps »

- Contestation de la validité de la mécanique newtonienne

- Incompréhension des apports de la physique statistique de Boltzmann

+ De Jean Bricmont « Science of Chaos or Chaos in Science ? » dans Physicalia Magazine, 1995:

- Critique très détaillée au niveau physique

- Confusion «déterminisme» - «prévisibilité» sur le chaos.

- La prétention largement diffusée selon laquelle la science est en crise, alors que ses réalisations récentes sont le signe d’une progression inouïe, nourrit le relativisme et ouvre les portes aux pseudosciences et superstitions.

+ De R. et A. Pred, University of California, «The new naturalism – A critique of « Order out of Chaos » », 1985,

- Critique très détaillée

- Consternation face à l’extrapolation des hypothèses physiques dans le domaine des sciences humaines où les événements sociaux seraient le résultat de systèmes hors-équilibre (sans aborder la question du pouvoir entre agents sociaux).

+ De René Thom, spécialiste de la théorie des catastrophes, « Halte au hasard, silence au bruit », Le Débat n°3, 1980. « En guise de conclusion », 1981, dans « historique de l’étude des systèmes complexes », Univ. Rennes ainsi que chez Salvador Dali.

- Critique de fond

- Exemple de la chute d’une pièce de monnaie (confusion « déterminisme » - prévisibilité »)

+ Mon interrogation : que diable allait faire Isabelle Stengers dans cette galère ? Prigogine, Stengers, La nouvelle alliance (Gallimard, 1979)