Musique de générique
Découvrir une particule élémentaire, par hasard ou après de longues années de recherche
dans un modeste laboratoire ou dans le plus grand accélérateur de particules du monde
est devenu un événement scientifique aussi rare que spectaculaire.
Découvrir le boson de Higgs après 50 ans d'exploits théoriques et expérimentaux est sans doute le point d'orgue d'une des plus grandes aventures scientifiques de notre temps.
Oui, j'ai tendance à en faire un peu trop. Enfin... pourquoi a t-il fallu autant de temps pour découvrir cette particule ?
Et surtout, en quoi était-ce aussi important ?
Parce qu'il y a une différence entre connaître le chemin et arpenter le chemin.
Partons à la poursuite du boson de Higgs.
Musique de générique
Le 4 juillet 2012, près de Genève, a lieu une conférence exceptionnelle dont le but est d'annoncer la découverte d'une particule élémentaire
que l'on suspecte très fortement d'être l'insaisissable boson de Higgs.
Les physiciens théoriciens Englert,  Higgs, Guralnik et Hagen sont présents.
Ils font partie des scientifiques à l'origine d'un mécanisme, imaginé en 1964, par trois équipes différentes qui explique l'origine de la masse des particules élémentaires.
Mécanisme qui n'attendait en quelque sorte plus que la découverte de cette particule pour être solidement validé.
Il a tout simplement fallu construire le plus grand accélérateur de particules du monde, le LHC
ainsi que les deux plus grands détecteurs du monde Atlas et CMS
pour accomplir cet exploit qui a mobilisé des milliers de personnes pendant plusieurs décennies.
Après sept mois d'analyses complémentaires, le CERN confirma qu'il s'agissait effectivement du boson de Higgs.
Cinq mois plus tard, le prix nobel de physique a été attribué à François Englert et Peter Higgs.
Il a donc fallu presque 50 ans pour découvrir cette "nom de dieu de particule" comme l'a qualifié l'impatient prix nobel, Leon Lederman.
C'est de loin la plus longue période entre le postulat théorique d'une particule et sa découverte expérimentale.
C'est deux fois plus long que ses poursuivants directs et trois fois plus long que pour le photon ou l'électron.
Même si pour ces derniers, ça se discute.
Et oui, une particule élémentaire, ça ne se trouve pas sous le sabot d'un cheval ou de n'importe quel ongulé d'ailleurs.
C'est le genre de découverte qui ne tombe pas du ciel. Quoique. Se pourrait-il que si ?
Descendons tout en bas de ma liste, on remarque que le muon, découvert par monsieur Anderson, a une barre qui part dans l'autre sens
parce qu'il a d'abord été découvert expérimentalement en observant les rayons cosmiques qui nous proviennent des quatre coins de l'Univers.
En admettant que l'Univers ait des coins et surtout qu'il en ait 4.
(soupirs)
Bref, le muon est la seule des dix-sept particules élémentaires découvertes alors qu'on ne la cherchait pas.
Enfin, pas si vite, là on fait comme si tout était normal mais ça ne devrait pas être l'inverse ?
Par quelle magie, des scientifiques sont-ils ou elles capables de prédire l'existence d'une particule ?
C'est grâce à un outil dont la puissance n'a d'égale que son élégante complexité, un outil qu'on appelle sobrement, les mathématiques.
Avec ses intégrales triples et ses séries divergentes, à ne pas confondre avec LA série Divergent, non moins diabolique.
Cet outil a permit d'imaginer le boson de Higgs bien avant sa découverte comme la quasi intégralité des particules élémentaires.
Avant d'expliquer comment le boson de Higgs a été découvert expérimentalement
je voudrais que l'on comprenne comment cette particule est devenue une brique fondamentale de l'édifice de la physique.
Si on lit en diagonale un article rudimentaire sur le sujet, on pourrait comprendre que sans cette particule, la matière n'aurait pas de masse.
Or, sans vouloir dire que c'est complètement faux, je dirais que ça mérite une sérieuse mise au point.
Musique d'interlude
D'où provient la masse de la matière ? La réponse la plus évidente est qu'elle provient... de la matière.
Jusqu'au début du 20e siècle, il était en effet généralement admis que pour qu'il y ait de la masse, il fallait de la matière.
Autrement dit, plus j'ai de la matière, plus j'ai de masse et sans matière, pas de masse possible.
Pour les chimistes, elle se résumait à ce tableau périodique des éléments
montré ici sous sa forme actuelle que Mendeleïev a classé au départ par masse croissante.
Or, en 70 ans, la vision de l'atome a été chamboulée.
Finalement, aussi variés soit-ils, les éléments sont tous constitués d'électrons et d'un noyau lui même constitué de protons et de neutrons qui ne sont pas des particules élémentaires
puisqu'ils sont eux mêmes constitués de deux types de quarks.
Trois sortes de particules élémentaires semble donc suffire à la physique pour reconstruire l'intégralité des éléments connus.
On pourrait se dire qu'en faisant la somme de la masse des quarks et des électrons, on tomberait pile poil sur la masse totale de n'importe quel objet.
Prenons par exemple mon propre corps de 75 kg.
Il contient environ 25 milliards de milliards de milliards d'électrons pour seulement 22 g.
Et mes quarks, qui constituent mes protons et neutrons ont une masse d'environ 800 g.
Où se cachent les 74 kg restants ?
Il y a certaines subtilités dont parle ici David Louapre.
Mais concentrons-nous sur un seul proton dont la masse des quarks est effectivement égale à 1 % de sa masse totale.
D'où proviennent les 99% restants ?
Si je réécris la célébrissime formule E=mc² en E/c²=m
elle prend tout son sens, une forte concentration d'énergie équivaut à de la masse et c'est exactement ce qui se produit dans tout les protons et neutrons de l'Univers.
30 % de la masse des protons vient de l'énergie cinétique de leurs quarks qui s'agitent, tenez-vous bien, à 99,95 % de la vitesse de la lumière.
Vous savez, cette sensation de chatouillement que l'on ressent parfois à l'intérieur...eh bien, ça n'a strictement aucun rapport.
60 % provient de l'énergie de l'interaction forte qui maintient les quarks confinés par l'intermédiaire d'un océan de gluons.
Les 9% restants proviennent de pairs de quarks qui émergent à un rythme effréné au milieu de cette incroyable bouillon énergétique.
D'accord mais quel rapport avec le boson de Higgs ?
Et bien dans les années 60, on est arrivé à une conclusion plutôt brutale dans le cadre du modèle standard tel qu'on l'avait théorisé
les quarks, les électrons et toutes les autres particules élémentaires ont une masse, strictement égale à zéro.
Dans les faits, ce n'est franchement pas ce qu'on observe, on vient de le voir
les quarks et électrons qui nous constituent tous, les planètes les étoiles, même Roland Lehoucq
ont bien une masse même si elle ne participe qu'à 1% de l'ensemble.
Lorsqu'une théorie entre à ce point en contradiction avec l'expérience, on pourrait croire qu'elle finit instantanément à la poubelle, quelle qu'en soit la couleur d'ailleurs.
Pourtant, ça fait 50 ans que les scientifiques s'y accrochent. Parce que depuis 50 ans, elle fait preuve d'une précision difficilement égalable dans le monde de la science.
Pour la sauver, on imagina un mécanisme qui postule l'existence d'un champ présent dans l'intégralité de l'Univers.
Et c'est l'interaction plus ou moins importante avec ce champ qui donnerait une masse plus ou moins importante aux particules élémentaires.
Le boson de Higgs serait une fluctuation de ce champ et donc la preuve de son existence.
Ce champ de higgs n'est donc responsable que de 1% de la masse de la matière connue.
Et c'est en bonne partie pour expliquer ce petit pourcent que l'on a construit le LHC et ses deux énormes détecteurs.
Là, je ne sais pas vous mais moi, avant de sortir les truelles, pieds à coulisse et carnets de chèques, il me faut des garanties.
C'est quand même un peu fort d'affirmer l'existence d'un champ juste pour sauver une théorie.
Justement, pour évaluer ces garanties, intéressons nous à une époque lors de laquelle, personne ne cherchait le boson de Higgs.
J'vous le cache pas, elle a duré 13,8 milliards d'années.
Mais soyons raisonnables et intéressons-nous aux 30 dernières, avec les origines du fameux modèle standard.
Musique d'interlude
A chaque fois que je parle du modèle standard, je montre les 17 sortes de particules élémentaires du modèle actuel
dont 12 de matière avec en leur centre, le boson de Higgs.
Mais le modèle standard n'est pas qu'une simple liste de particules avec leur masse, leurs charges ou toutes autres propriétés quantiques.
Il ne s'agit pas d'un registre poussiéreux qui serait mis à jour à chaque découverte avec une plume de cuisses de dindon taillé au silex de Montélimar.
Il manque au moins une information essentielle : comment toutes ces particules interagissent-t elles ?
Sans interaction, elles vivraient leur vie sans se soucier des autres.
Les étoiles ne se seraient donc pas formées, les planètes non plus, aucune réaction chimique n'aurait lieu.
Ainsi, la vie elle même ne serait jamais apparue.
En modélisant ces interactions, nous pourrions, en quelque sorte, refabriquer sur le papier notre Univers avec les équations qui le gouvernent.
Or, mettre l'Univers en équation, c'est l'essence même de la physique moderne
qui depuis plusieurs siècles peut prédire par exemple la vitesse d'un objet en chute libre ou la position de n'importe quelle planète des années à l'avance.
Alors pourquoi ne pas mettre les particules elles mêmes, et leurs interactions, en équation ?
Ces interactions sont au nombre de quatre. L'interaction électromagnétique qui unit le noyau et les électrons car leurs charges sont opposées.
L'interaction forte qui permet la cohabitation entre quarks et par truchement celle entre neutrons ou protons.
L'interaction faible, responsable de la radioactivité bêta et enfin l'interaction gravitationnelle.
On pourrait croire que c'est l'étude de cette dernière qui a mené à l'idée du champ de Higgs puisqu'il est question de masse pourtant... pas du tout.
Elle est négligeable à l'échelle de l'atome, elle n'est pas traitée par le modèle standard.
Non, l'idée est venue de l'une des trois autres qu'il a fallu modéliser après des décennies acharnées de recherches.
Et pour le faire de manière satisfaisante, il fallait s'assurer que cette modélisation soit en accord avec deux des plus importantes théories physiques du 20e siècle.
La théorie de la relativité restreinte d'Albert Einstein et la mécanique quantique qui décrit le comportement des particules.
Waouh, je sais pas si vous voyez réellement en quoi consiste une sinécure... et bah là, c'est carrément l'opposé.
Ça peut paraître inutilement contraignant comme démarche, après tout, construire des théories qui fonctionnent chacune dans leur coin, c'est déjà pas mal.
Ça mérite même une tripotée de prix nobel.
Mais si l'on souhaite parler le langage de la nature le plus élégamment possible, il est préférable que ces théories puissent s'imbriquer correctement sans s'exclure.
Or contrairement à l'interaction électromagnétique qui semble avoir une portée infinie, les deux autres interactions sont négligeables dès qu'on sort du noyau.
Dans les années 30, Yukawa modélise cela, je dis bien, modélise cela, par un échange d'informations sous forme de médiateurs.
Mais d'où sortent ces médiateurs ?  De la banane des électrons peut-être ?
Non, du vide quantique qui est tous sauf vide.
D'après Heisenberg, on peut les emprunter au vide pour une durée inversement proportionnelle à leur masse.
Plus le médiateur que j'emprunte au vide est massif, moins longtemps je peux l'échanger.
Et comme cet échange ne peut pas être plus rapide que la lumière dans le vide, cela limite la distance de cet échange.
Ainsi, la portée très faible des deux interactions nucléaires serait due à la masse très élevée des médiateurs échangés
Alors que la portée infinie de l'interaction électromagnétique serait dû à leur masse strictement nulle.
C'est cette dernière qui a débloqué le compteur, avec la théorie la plus précise jamais élaborée : l'électrodynamique quantique
qui modélise l'interaction entre particules chargées par l'échange de photons virtuels qui ont effectivement une masse nulle.
Ils peuvent donc être empruntés au vide autant de temps qu'on le souhaite.
La QED est considérée comme le joyau de la physique.
Si vous demandez à la QED de calculer par exemple cette propriété de l'électron et que vous la comparez avec la mesure sur de vrais électrons
les résultats seront équivalents jusqu'au 11 chiffres après la virgule.
C'est comme si l'on était capable de mesurer la distance Terre-Lune à deux cheveux près. Même à 3 cheveux près, ça resterait une incroyable réussite.
Or, les physiciens Yang et Mills étaient très intrigués par cette réussite.
Selon eux, cela tenait à un troisième ingrédient qui semblait commun à toutes les grandes théories de la physique
un ingrédient cher à la fabuleuse mathématicienne Emmy Noether, la symétrie.
Dire qu'une équation respecte une symétrie signifie qu'elle reste inchangée ou invariante après avoir subi une transformation
Comme lorsque j'applique une rotation d'un multiple de 90° à un cube suivant ces différents axes.
Le cube reste le même, ce qui n'est pas le cas avec d'autres angles.
Le top du top est même l'invariance locale, une transformation qui s'adapterait à chaque point de l'espace et du temps.
Il semblerait que pour parler le langage de la nature à la quasi perfection, il faille respecter une symétrie de jauge locale.
Pour la QED, il s'agit de la symétrie U(1) que l'on peut représenter par un ensemble de nombres complexes.
Or, on était tellement sûr de notre QED, on était tellement sûr de notre recette
on était tellement sûr que ça marcherait pour les deux autres interactions qu'on était prêt à dupliquer ce principe.
Il fallait juste trouver la bonne symétrie pour les deux autres interactions.
Sauf qu'il y avait une poutre dans le potage, hein. Si j'ajoute cet ingrédient secret, cela oblige les particules échangées à avoir une masse nulle.
Et autant avec l'interaction forte, on a fini par trouver la bonne symétrie et malgré tout conserver des gluons sans masse.
Autant avec l'interaction faible, c'était la méga tuile en queue de castor sans cannelures.
Même en tournant le problème dans tous les sens, les particules échangées devaient avoir une masse énorme.
C'est ici qu'est intervenu pour la première fois le champ de Higgs. Pour sauver les meubles. Révolutionnaire !
Sauf que là, encore non. Les articles publiés par Brout, Englert, Higgs et autres, à quelques mois d'intervalle, sont sûrement cohérents.
Mais ça ne plaît pas à tout le monde, c'est comme si on voulait sauver une recette de cuisine en ajoutant une sauce de dernière minute, alors qu'il faut peut-être tout recommencer.
La solution est finalement venu de Glashow, Salam et Weinberg qui ont eu l'idée de résoudre le problème.... et bah en le rendant encore plus compliqué.
Je rigole pas, ils ont carrément modélisé l'interaction faible en la mixant avec l'interaction électromagnétique.
Ils l'ont trouvé une symétrie et ils ont réussi à insérer son chausse pieds le mécanisme de Higgs pour expliquer la masse énorme des médiateurs de l'interaction
qui serait en fait deux particules, les bosons Z et W.
Il s'agit de la théorie électrofaible, une des plus grandes prouesses de la physique.
Seulement là encore, il manquait quelque chose.
Les équations étaient mathématiquement justes. Tout s'imbriquait comme dans du beurre salé mis à part un gros détail.
Des valeurs infinies apparaissaient par ci par là.
En mathématiques, ça nous aurait fait une belle jambe. N'importe quelle courbe peut partir à l'infini sans problème mais en physique, on n'aime pas trop ça.
Une théorie physique se doit d'être.. et bah physique.
Ses résultats doivent être réalistes.
On avait déjà résolu ces problèmes d'infini pour l'électrodynamique quantique grâce à Freeman Dyson et sa technique de renormalisation.
qui même si elle a pu être considérée à tort au début comme du bricolage a fini par s'imposer.
Il a fallu attendre 1971 et la soyeuse moustache de Gerard 't Hooft et les sublimes sandales de Martinus Veltman
pour que la théorie électrofaible soit elle aussi re-normalisée par un tour de force mathématiques est plus que jamais prise au sérieux.
Ça y est, on avait enfin une théorie robustes comme peu d'autres avec ses quatre ingrédients qui intégrait le mécanisme de Higgs et donc son presque célèbre boson.
On allait enfin pour partir à sa poursuite. Seul problème...
Elle implique une masse nulle pour l'intégralité des particules élémentaires.
Le champ de Higgs, s'il existe, doit donc attribuer non seulement une masse aux bosons Z et W mais aussi à toutes les autres particules élémentaires.
Alors, comment vérifier qu'on ne s'est pas trompés depuis le début ?
Eh bien, ça fait deux saisons qu'on en parle le LHC, ATLAS et CMS mais pas si vite.
L'idée même du LHC date de 1984.
Et le projet a réellement débuté six ans plus tard, alors qu'est ce qu'il s'est passé pendant plus de 20 ans ?
Eh bien, on a d'abord vérifier que les bosons Z et W existaient vraiment et pour ça, il a fallu construire de prodigieux détecteurs.
Musique de transition
Organiser des collisions avec une énergie de 14 000 milliards d'eV comme au LHC ne sert pas à casser les protons et voir ce qui se cache à l'intérieur.
Mais permet plutôt de faire émerger des particules du vide quantique.
Plus l'énergie des collisions est importante, plus on espère faire émerger des particules de masse élevée.
Comme le dit la formule E/c²=m
Or, les bosons Z et W ont une masse du même ordre de grandeur que celle d'un atome d'argent. Autrement dit, des vrais patapoufs.
On a fini par estimer que l'énergie minimale pour les faire émerger été comprise entre 80 et 100 GeV.
Pas de bol, dans les années 70, on n'avait pas de quoi générer des collisions de cet ordre. Même tarif pour le boson de Higgs, techniquement c'était trop tôt.
Même si dans son cas, on ne le savait pas encore car on n'avait aucune idée de sa masse.
Un indice de l'existence du boson Z est d'abord apparu en 1973 dans l'ancêtre d'ATLAS et CMS, une chambre à bulles nommée Gargamelle.
La mère du géant Gargantua qui avant d'être un trou noir dans Interstellar était un personnage de Rabelais.
Rempli de 12 m3 de gaz maintenu à très haute pression, juste en dessous de l'ébullition.
Huit caméras Fisheye photographient le chemin des particules à travers des hublots.
Pour identifier les particules chargées, on courbe leur trajectoire grâce à un aimant de deux teslas qui entoure la chambre.
La trajectoire dépend de leur charge mais aussi de leur quantité de mouvement qui dépend de leur masse, si elles en ont une, et de leurs vecteurs vitesse.
Plus cette quantité est importante, plus la particule est difficile à dévier.
Pour que les trajectoires se détachent de l'arrière plan, la paroi opposée est peinte en noir.
A l'arrivée des particules, les parois internes malléables sont dégonflées.
Cette soudaine décompression permet l'apparition de traces d'ébullition sur le trajet des particules.
Les 21 flashs s'allument et les photos sont prises.
La procédure a lieu toutes les 1,5 s, le temps de regonfler les parois pour recompresser le gaz et effacer les traces pour ne pas polluer les photos suivantes.
A ce rythme, deux kilomètres de pellicules étaient utilisées chaque heure et ont permis de mettre en évidence les courants neutres, indice solide de l'existence du boson Z.
Les bosons Z et W ont finalement été découverts en 1983 grâce aux énormes détecteurs UA1 et... UA2 du SPS
avec des masses similaires à celle prédite par la théorie, ce qui a valu un prix nobel aux initiateurs de l'expérience.
Ce qui peut paraître injuste, pourquoi pas un prix nobel aux découvreurs de la théorie électrofaible ?
Eh bien, d'abord parce que le monde est injuste, figurez vous.
Et surtout, ils avaient déjà eu le prix nobel en 1979 tellement la confiance en la théorie était élevée, après la réussite de Gargamelle entre autres.
On construisit alors le LEP pour étudier précisément les bosons Z et W
meilleures passerelles connues à l'époque pour débusquer le boson de Higgs.
Mais malgré quelques frémissements, aucune preuve incontestable de son existence n'est apparue et le LEP termina son service en 2000
pour laisser sa place au LHC et ses énormes détecteurs.
Musique de transition
ATLAS et CMS ont permis conjointement la découverte du boson de Higgs en 2012.
Ces deux mille feuilles cylindrique de technologie, fruit de vingt ans de travail
sont placés autour de deux points de collision dans des cavernes gigantesques creusées sur mesure à 100 m sous terre.
Avec ses 13 000 t soit la masse de 4 fusée Saturn V, CMS est le plus massif des deux.
Il occupe la surface de deux terrains de tennis. Haut comme un immeuble de cinq étages.
Le géant ATLAS, quant à lui, haut comme un immeuble de huit étages occupe la surface de six terrains de tennis pour seulement 7000 t soit la masse de la tour Eiffel.
Avant de les éplucher, couche par couche, demandons nous ce qu'ils ont de particulier que les autres n'ont pas.
Excellente question mais permettez moi de demander l'inverse : quel est le point commun entre ATLAS, CMS et l'intégralité des détecteurs jamais construits ?
Bah j'en vois un primordial, ils sont absolument incapable de détecter directement le boson de Higgs.
Houla, mais au début, tu disais qu'on l'avait découvert en 2012 ?
Oui on l'a découvert mais encore aujourd'hui, on ne l'a jamais, je dis bien jamais, détecté directement.
Et on ne le détectera sans doute jamais directement.
Alors ça, ça m'en bouche un isotope.
Détecter le boson de Higgs est impossible car sa durée de vie est incroyablement courte même pour le meilleur détecteur du monde.
A chaque collision, le vide du LHC atteint une température stupéfiante de milliers de milliards de degrés, un million de fois plus qu'au centre du Soleil.
Mais le plaisir est de courte durée, moins de deux dixièmes de zeptosecondes après avoir émergé du vide
il se désintègre en deux particules qui elles mêmes peuvent se désintégrer jusqu'à obtenir des particules avec une durée de vie suffisamment importante pour être observées.
C'est donc pour détecter ce produit de désintégration et non le boson de Higgs lui-même, que ATLAS et CMS ont été conçus.
Or, ce produit peut être une paire de quarks de toute sorte ou de bosons W ou de gluons ou de photons, etc...
Atlas et CMS doivent donc être en mesure de détecter toutes ces sortes de particules et ça ne s'est pas fait tout seul.
Au départ, quatre projets de détecteurs étaient en concurrence.
Finalement CMS absorba l'un d'eux et les deux autres fusionnèrent en une seule expérience nommé ATLAS en référence au titan de la mythologie grecque
condamné à soutenir la voûte céleste pour l'éternité.
Bon, en l'occurrence ATLAS est un acronyme, assez tracté par les poils, qui donne une indication sur sa structure.
Mais pourquoi avoir gardé deux détecteurs au lieu d'un seul ?
D'abord, en cas de découverte, cela permet une sorte de double validation, on en reparlera après.
Ensuite, ça évite certains compromis et les regrets qui vont avec. Au lieu de ne conserver qu'un seul détecteur correct en tout
on a préféré en construire deux complémentaires, d'architectures visuellement assez différentes mais dont l'ordre d'empilement des couches est globalement le même.
Afin de comprendre pourquoi il a fallu d'aussi grandes machines pour détecter d'aussi petites choses
reconstituons le voyage des particules à partir du point de collision en prenant CMS comme exemple.
A peine 4 cm de trajet et nous rencontrons déjà le premier des trois cylindres du détecteur à pixels de 50 cm de long.
Il se décompose en modules contenant en moyenne 40 000 pixels en silicium d'une épaisseur d'un quart de millimètre pour un total de 65 millions de pixels.
Soit l'équivalent de 8 télés 4K mais sur moins d'un mètre carré.
Grâce à dix autres cylindres, on est capable de reconstituer en trois dimensions la trajectoire des particules chargées.
Et pour éviter les angles morts, un ensemble de disques, eux aussi pavés de capteurs, sont placés de chaque côté du point de collision.
pour un total de 75 millions de capteurs répartis sur plus de 200 mètres carrés.
Ça peut paraître banal 200 m² de silicium parce qu'aujourd'hui avec les milliards de processeurs en silicium de nos pc ou smartphone, le prix du mètre carré a fortement baissé.
Mais il y a trente ans, au début d'ATLAS et CMS, le silicium était très cher.
C'est l'explosion du marché de l'informatique qui a divisé son prix par cinq en moins de 3 ans et a rendu cette solution intéressante économiquement.
Bref, nous sommes à un mètre du point de collision, il est temps de traverser le calorimètre électromagnétique.
Après des couches ultra fines qui doivent interagir le moins possible avec les particules, cette fois c'est l'inverse.
On souhaite absorber leur énergie afin de la mesurer indirectement en traversant une couche très épaisse de matériaux.
Les particules perdent leur énergie notamment sous forme de rayonnements électromagnétiques qui produit ces gerbes caractéristiques.
Quelques millimètres suffisent à absorber les trois-quarts de l'énergie initiale d'un électron de haute énergie si on utilise un matériau très dense comme le plomb.
Mais pour être certain d’enregistrer l'intégralité de la gerbe, il faut vingt fois cette longueur.
C'est pourquoi le détecteur est constitué de cristaux de 23 cm de long fabriqués en tétra-oxyde de plomb et de tungstène.
Hum. Étrangement transparent pour du plomb. Les miracles de la chimie.
76 000 de ces cristaux ont été produits en Russie et en Chine pour un total de 11 m3.
Le défi technique et industriel était colossal puisque avant le LHC, un seul centimètre cube de moindre qualité avait été produit dans le monde.
Ensuite le calorimètre hadronique doit absorber l'énergie des particules sensibles à l'interaction forte, les hadrons dont les neutrons et protons font partie mais aussi n'importe quel arrangement de quarks.
La tâche est plus difficile puisque cette fois, on utilise un mètre d'épaisseur de laiton obtenu en faisant fondre 600 tonnes d'obus de l'armée russe.
Comme si les reliques de la guerre disparaissaient tel un T-800 dans les hauts fourneaux de la science. (soupir)
C'est maintenant que l'on constate la plus grande différence architecturale entre ATLAS et CMS, son système d'aimant.
CMS utilise le plus grand solénoïde du monde en niobium titane de 6 mètres de diamètre.
Ce cylindre de 2 500 t refroidi à -268 °C, pour devenir supraconducteur, produit un champ de 4 teslas.
Atlas a de son côté choisi un solénoïde plus petit, de seulement 2 teslas, placé à l'intérieur des calorimètres.
L'avantage est d'avoir des calorimètres aussi épais qu'on le souhaite car on n'est pas limité par la taille de l'aimant, comme pour CMS.
On comprend également mieux la différence de taille entre les deux détecteurs.
Avec un champ magnétique plus faible, il faut une distance plus importante pour obtenir une mesure précise de la courbure des trajectoires qu'avec un champ fort.
Aussi, 8 aimants supplémentaires de 4 teslas en forme de donuts, allongés ou toroïdaux
viennent compléter le système pour une longueur totale de 100 km de câbles afin de former un champ circulaire, à l'intérieur de la prochaine couche commune aux deux mastodontes, le spectromètre de muons.
On constate que la trajectoire des particules s'inverse. Curieux. Quoi que non.
Puisque les lignes de champ du solénoïde se referment à l'extérieur de CMS, guidées par une masse de 10 000 t en acier et inverse la force appliquée aux particules.
Cette masse est également là pour filtrer les particules autres que les muons.
4 m d'épaisseur ne sont pas de trop car les muons, 200 fois plus lourd que les électrons, sont très difficiles à dévier.
Mais, j'oublie les neutrinos, sensibles à l'interaction faible, capable de traverser la Terre sans perdre un sourcil. Ils ne sont pas détectables directement par ATLAS et CMS.
Donc l'astuce consiste à faire la somme des vecteurs de quantité de mouvement des particules détectées
pour en déduire le vecteur opposé de même longueur car leur somme doit toujours être nulle.
Waouh, voilà, on a enfin de quoi détecter tout ce qu'il nous faut pour découvrir le boson de Higgs.
Ça tombe bien, nous sommes le 10 septembre 2008, nous allons enfin pouvoir mettre en route le LHC.
Musique d'interlude
Pour démarrer le plus grand accélérateur de particules du monde, j'imagine qu'il faut, au moins, un voire deux gros boutons et le code pin qui va avec.
Ça demande quelques précautions.
A 9h30, le premier faisceau est lancé à une énergie réduite de 450 GeV. Cette fois, c'est pour de vrai, on y est.
A peine le temps de manger une gexiflette et à 15 heures, le deuxième faisceau en sens inverse est lancé.
Le lendemain, ce sont les deux faisceaux qui parcourent enfin simultanément les 27 km du LHC.
J'aime quand un plan se déroule sans accroc.
Mais gros coup dur, le 19 septembre, un problème d'interconnexion entre deux aimants supraconducteurs met hors service 600 m de tunnel.
1 an d'analyses et de réparations plus tard, le LHC est relancé.
Et les premières collisions à 900 GeV ont lieu. Ça y est, cette fois, le boson de Higgs est cerné.
Au maximum des capacités du LHC, toutes les 25 nanosecondes ou si vous préférez 40 millions de fois par seconde
deux paquets de 100 milliards de protons se croisent.
Ce qui donne 4 milliards de milliards de croisements de protons par seconde, menant à seulement 600 millions de collisions. Tout ça pour produire un seul boson de Higgs.
Et encore avec le vent dans le dos, en descente, le ventre sur la selle.
Il faudrait donc non seulement être capable de détecter 600 millions de collisions ou événements par seconde mais surtout
les enregistrer de préférence sur quelque chose d'un peu plus performant qu'une pellicule, comme un disque dur pour ensuite analyser les données des collisions.
D'accord, mais combien ça pèse en mégaoctets, un événement ?
Et bien, 1 méga octet. Soit la taille d'un mp3 d'une minute. Ça va.
Mais fois 600 millions, ça donne à la louche 600 téraoctets par seconde soit 600 disques durs par seconde.
Même pour le LHC, c'est beaucoup trop.
La solution est donc de filtrer les événements et de n'enregistrer que les plus intéressants avec un algorithme astucieux.
Mais là encore la tâche est insurmontable. N'importe quel processeur même overclocké à l'azote liquide et au piment d'espelette serait débordé par l'avalanche de données.
Il faut plutôt faire un premier filtre avec l'aide de l'électronique et des composants suffisamment performants
pour ignorer sans même passer par la corbeille 99,98 % des événements et n'en garder que 100 000 par seconde.
Une quantité qui devient raisonnable pour 15 000 coeurs de processeurs qui appliquent un deuxième filtre
en ignorant cette fois 99 % de ce que l’électronique leur avait transmis, en ne gardant que 1 000 événements par seconde.
Un calcul rapide montre qu'on ne conserve au total que 0,0002 % des événements. Donc 99,9998% sont oubliés à jamais.
Là encore il s'agissait d'un pari sur les progrès de l'informatique car au début des années 90, les processeurs étaient 100 fois moins puissant qu'en 2008.
Et les jeux vidéo, ça ressemblait à ça, je le rappelle.
Le projet doit donc en partie sa réussite à la progression fulgurante de la puissance des processeurs que l'on a effectivement constaté.
On passe donc de 600 téraoctets ou disques durs par seconde à seulement 1 gigaoctet par seconde.
En 2012, l'année de la découverte du boson de Higgs, 2 milliards d'événements ont été enregistrés soit l'équivalent de 2 000 disques durs.
Mais j'oubliais, chaque événement doit être converti pour être exploitable par logiciel.
Et fait systématiquement l'objet d'une simulation pour finalement utiliser, en moyenne, 8 mégaoctets.
On se retrouve donc avec 16 000 disques durs sur les bras à analyser.
Même le CERN est loin d'avoir assez de puissance pour traiter toute cette masse d'informations en un temps raisonnable.
C'est pourquoi ATLAS et CMS disposent chacun de dix centres de calcul qui vont ensuite dispatcher les informations aux quatre coins du monde, dans 250 autres centres.
Le boson de Higgs est enfin à portée de main ou plutôt je dirais qu'il est probablement à portée de main.
Musique d'interlude
Pourquoi a-t on besoin d'autant de données pour découvrir le boson de Higgs puisque au top du top, on le produit toutes les secondes.
Et bien, parce que le royaume quantique est synonyme de probabilité.
On l'a vu tout à l'heure, on ne cherche pas directement le boson de Higgs mais plutôt le produit de ses désintégrations qui n'est pas toujours le même.
Mais on a de la chance, la probabilité de ces désintégrations est carrément prédite par le modèle standard.
Personnellement, ça m'en cisaille le pancréas.
Le souci, c'est que la probabilité de désintégration en telles ou telles particules dépend de la masse du boson de Higgs.
Masse qui, je le rappelle, était inconnue avant sa découverte.
A 125 GeV, soit la masse réelle du Higgs. On prédit que sur 1 000 bosons
580 se désintégreront en pairs de quarks bottom, 200 en bozons W, 80 en gluons, 30 en bosons Z, etc...
Et seulement deux fois sur 1000 en paires de photons. C'est sûrement négligeable.
Et je ne sais pas pourquoi j'en parle mais il arrive que parfois, les bosons Z se désintègrent en leptons, la famille des électrons et des muons entre autres.
Mais si le boson de Higgs avait eu une masse plus élevée, les probabilités et donc les stratégies de recherche aurait été complètement différentes.
On voit ici par exemple que la désintégration en bosons W devient quasiment inéluctable avec un Higgs plus massif.
Et inversement, la probabilité de désintégration en quarks bottom s'effondre.
Heureusement, le LEP a permis d'exclure une masse inférieure à 114 GeV.
Le Tevatron américain a également permis d'exclure un intervalle de masse.
Et les premières analyses du LHC ont permis de réduire progressivement le champ de recherche.
Aujourd'hui, on connaît sa masse, on pourrait donc croire que c'est la détection des quarks bottom qui a permis sa découverte puisqu'ils sont plus nombreux.
Mais c'est oublier qu'un proton, c'est comme une boîte de chocolats, on ne sait jamais sur quoi on va tomber.
Les véritables collisions ont lieu entre quarks ou gluons et font émerger des milliards de fois plus de quarks que l'hypothétique boson de Higgs créé chaque seconde.
C'est comme chercher du foin dans une meule de foin.... comme dirait Sean Carroll.
Contre toute attente, comme quoi je suis vraiment un petit filou, ce sont les désintégrations en photons ou leptons qui ont principalement contribué à la découverte du boson de Higgs
Ces événements sont très rares mais ils ont plusieurs avantages.
Pour les leptons, après nettoyage, le signal est quasiment aussi important que le bruit de fond. Pas mal.
Pour les photons, c'est moins luxueux, le bruit de fond même après nettoyage est 100 fois plus important que le signal.
Mais il y a une astuce, les photons produits par autre chose que les Higgs peuvent avoir tout type d'énergie mais donneront une distribution en masse invariante de la particule d'origine
qui aura toujours à peu près cette forme.
Alors que ceux issus d'un boson de Higgs donneront ce type de signal .
Donc si le boson de Higgs existe, on s'attend à avoir cette courbe qui est la somme des deux précédentes.
Plutôt simple.
Sauf que non, hein. Car cette courbe de bruit de fond pour les photons
c'est la théorie. Rien ne l'empêche d'avoir des irrégularités que l'on pourrait prendre pour des désintégrations de bosons de Higgs.
Alors comment faire la différence entre une bosse qui arriverait même si le boson de Higgs n'existait pas et le boson de Higgs lui-même ?
Pour y répondre, entrons enfin dans la dernière ligne courbe, en jouant à une version hardcore du pile ou face.
Musique d'interlude
Imaginons que pour les championnats du monde de Higgs ou face, de Saint-Jean-Pied-de-Port
je doive tester si les 1 000 pièces utilisées sont bien équilibrées. On les lançant dix fois, ça devrait suffire.
On pourrait s'attendre à ce que les 1 000 pièces donnent toutes 5 piles et 5 faces.
Sauf que non, sur 10 lancers, même avec une pièce parfaitement équilibrée, d'après les calculs, on a plus de 75% de chances d'obtenir une proportion différente.
Que la personne à qui ça n'est jamais arrivé me jette la première pièce.
On prévoit que seulement 246 pièces vont donner le résultat attendu. Le reste des pièces devraient être réparties équitablement autour de cette moyenne.
Mais ça, c'est la théorie, hein. Que se passe-t-il quand je lance réellement mes pièces ?
Vous imaginez qu'on aura des écarts par rapport aux calculs. Un peu plus par ci, un peu moins par là.
Néanmoins, on ne peut rien en conclure car avec seulement 10 lancers, nous baignons dans l'incertitude.
Il va falloir cumuler, cumuler et re-cumuler les lancers pour réduire cette incertitude.
Si mes écarts sont dus à des fluctuations statistiques, la plupart devraient se résorber au fur et à mesure des lancers.
Mais s'ils sont dus à des pièces faussées, les écarts devraient subsister.
On peut se tromper 10 fois avec 1 000 pièces.
On peut se tromper 100 fois avec 1 000 pièces.
Mais il est moins probable de se tromper un milliard de fois avec 1 000 pièces.
Pfiou.
Alors à partir de quel écart, je pourrai remettre en cause l'équilibre de mes pièces ?
Autrement dit, à partir de quel moment, je peux considérer que dans un monde sans boson de Higgs de tels écarts peuvent se produire ?
Eh bien, ça fonctionne par paliers, plus on s'éloigne de la valeur attendue, moins la bosse est probable dans un univers sans boson de Higgs.
Ces paliers ne viennent pas de nulle part, ce sont des multiples d'une donnée bien connue en statistiques qu'on appelle écart type ou sigma.
A partir de +2 σ ou une chance sur 44 d'avoir un excès au dessus de cette zone alors que le boson de Higgs n'existe pas.
Les scientifiques soulèvent à peine une paupière.
A +3 σ ou une chance sur 740, ça devient sérieux, on parle d'indication.
Il va falloir accumuler les résultats pour voir si cette bosse se résorbe partiellement ou complètement... ou subsiste.
Et alors là, avec +5 σ soit environ une chance sur 3,5 millions d'être au dessus de cette zone dans un Univers sans boson de Higgs
le terme technique est, cette fois, bien connu du grand public, il s'agit d'une découverte.
En décembre 2011, les données combinées d'ATLAS et CMS culminaient à 3,5 σ dans la région de 125 GeV.
En cumulant petit à petit des données, on dépassa les 5 σ.
Ce qui permit d'annoncer la découverte d'un nouveau boson, le 4 juillet 2012.
Et après des mois d'analyses de ses propriétés, on a pu affirmer qu'il s'agissait bel et bien du boson de Higgs.
Après un demi siècle d'efforts, la découverte de cet insaisissable particule fut un succès éclatant pour le modèle standard et pour le LHC.
On pourrait donc croire que le modèle standard est une théorie complète, définitive.
Mais comme toute théorie, elle a ses limites qui font penser qu'une théorie plus globale, peut-être avec d'autres ingrédients de base
devraient émerger pour s'approcher un peu plus du véritable langage de la nature.
Mais l'exploit est bel et bien là. Ce qu'on appelle découverte est une probabilité inférieure à 0,0000287 %
d'obtenir un tel excès dans un Univers dans lequel le boson de Higgs n'existerait pas.
On peut appeler ça de l'humilité, j'appelle ça de la science, dans son plus simple appareil.
Musique de transition
Merci à toutes et à tous d'avoir regardé jusqu'au bout. Merci pour votre énorme patience et votre soutien quels qu'il soit.
On approche des 100 000 abonnés, c'est complètement fou à 7 σ près.
Poussez vers le haut. Commentez, faites-moi vibrer mon petit cœur trop dur.
A la prochaine et d'ici là, ne nous énervons pas, il y a toujours moyen de s'expliquer.
A bientôt sur J'm'énerve pas, j'explique.
Musique de générique
