Grand collisionneur de hadrons : 10 ans de physique et de démesure

Grand collisionneur de hadrons : 10 ans de physique et de démesure

Une nouvelle physique ? Quelle nouvelle physique ?

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

30/03/2020 11 minutes
29

Grand collisionneur de hadrons : 10 ans de physique et de démesure

Le 30 mars 2010, le LHC établissait un record avec une collision de faisceaux à une énergie de 7 TeV et ouvrait les vannes à une moisson sans précédent de données pour les physiciens des particules. On y a notamment trouvé le boson de Higgs. Il est depuis passé à 13 TeV et se prépare pour la haute luminosité, avec encore plus de données.

Pour nous resituer dans le temps, lors de la première collision à 7 TeV (Téra électron Volts) il y a 10 ans, le boson de Higgs n’avait pas encore été observé directement. Prédit par les scientifiques Peter Higgs et François Englert depuis les années 1960, cette particule a été « vue » par les expériences Atlas et CMS du LHC (Grand collisionneur de hadrons). L’Organisation européenne pour la recherche nucléaire (CERN) avait alors fait couler beaucoup d’encre en 2012 lors de la présentation des travaux en… Comic Sans MS.

Cette journée du 30 mars 2010 était d’importance pour le Grand collisionneur de hadrons et le CERN, comme en témoigne le dispositif mis en place à l’époque : des retransmissions en direct et des tables rondes durant toute la journée, de 8h30 à 18h. Une bande-annonce avec la musique Thunderstruck d’AC/DC avait même été mise en ligne.

Mais de quoi s’agit-il et que nous réserve la prochaine décennie du LHC, pour le moment en travaux ? Voici un tour d’horizon à l’occasion de ce 10e anniversaire. 

Des « particules sorties du néant »

Mais tout d’abord, le LHC ou Grand collisionneur de Hadrons, c’est quoi exactement ? C’est « l’accélérateur de particules le plus grand et le plus puissant du monde. C'est un anneau de 27 kilomètres de circonférence, formé de milliers d'aimants supraconducteurs et doté de structures accélératrices pour accroître l'énergie des particules à chaque passage », expliquent le CERN et le CNRS.

Concrètement, deux faisceaux de particules circulent sous ultravide – un vide « très poussé » – dans l’anneau « à des énergies très élevées et à une vitesse proche de celle de la lumière avant de rentrer en collision l’un avec l’autre ». Les faisceaux sont guidés le long de l’anneau « par un puissant champ magnétique, généré par des électroaimants supraconducteurs », c’est-à-dire refroidis à une température de -271°C et conduisant l’électricité sans résistance ni perte d’énergie.

Le CERN explique que la gigantesque installation comporte 1 232 aimants dipolaires de 15 m de long, utilisés pour « courber la trajectoire » des faisceaux de particules. Il y a également 392 aimants quadripolaires de 5 à 7 m pour concentrer les faisceaux. Ces derniers sont constitués « de centaines de paquets de quelques dizaines de centimètres de long. Chaque paquet contient plus de cent milliards de protons ».

« Juste avant la collision, un autre type d’aimant est utilisé pour “coller” les particules les unes aux autres, de façon à augmenter les probabilités d’une collision ». Pour se rendre compte du défi, l’Organisation européenne pour la recherche nucléaire propose une comparaison : « Ces particules sont si minuscules que les faire entrer en collision revient à lancer deux aiguilles éloignées de 10 km, l’une contre l’autre ». 

Ensuite, les scientifiques laissent faire dame nature : « à chaque collision entre protons accélérés, en vertu de l’équivalence entre masse et énergie, l’énergie cinétique accumulée par ces particules se mue en « grains » de matière. Ces particules sorties du néant constituent alors autant d’indices sur les processus élémentaires qui leur ont donné naissance ».

LHC
Crédits : CERN

Record mondial en 2009 avec 2,36 TeV…

Approuvé dans le milieu des années 90, le Grand collisionneur de hadrons n’est entré en service qu’à la fin des années 2000, en retard sur le planning… comme souvent pour ce genre de projet pharaonique. Le CERN rappelle que « la période d’exploitation actuelle du LHC a commencé le 20 novembre 2009, avec un premier faisceau en circulation à 0,45 TeV ». Ce n’était que le début, loin de ce qu’il est aujourd’hui capable de produire.

Trois jours plus tard, le 23 novembre, deux faisceaux étaient en circulation dans le Grand collisionneur. Puis, le 30 novembre, « on a atteint un record mondial d’énergie de faisceau, avec 1,18 TeV ». Tout était en place pour passer à la seconde étape : un télescopage.

Le 16 décembre, un autre record est ainsi atteint (il découle directement du précédent) : « des collisions enregistrées à 2,36 TeV [via deux faisceaux à 1,18 TeV en « sens contraire» , ndlr], produisant une quantité importante de données ».

Alice, Atlas, CMS et LHCb : des instruments de plusieurs milliers de tonnes

En quelques semaines, les grandes expériences du LHC ont ainsi enregistré « plus d’un million de collisions de particules ». Voici un rapide point sur les quatre principaux instruments :

  • Alice (A Large Ion Collider Experiment) : détecteur d’ions conçu pour étudier les propriétés physiques de la matière soumise à l’interaction forte (une des trois interactions du modèle standard). Il mesure 26 x 16 x 16 mètres pour 10 000 tonnes et se trouve 56 mètres sous terre.
  • Atlas : un des deux détecteurs polyvalents étudiant des domaines de physique très variés, de la recherche du boson de Higgs aux dimensions supplémentaires de l’espace-temps, en passant par les particules qui pourraient former la matière noire. Il mesure 46 x 25 x 25 mètres pour 7 000 tonnes et se trouve 100 mètres sous terre.
  • CMS (Solénoïde compact pour muons) : le second détecteur polyvalent ayant le même but qu’Atlas, mais avec une conception différente. Il mesure 21 x 15 x 15 mètres pour 14 000 tonnes et se trouve à 100 mètres sous terre. Petite particularité, le CMS a été construit à la surface puis descendu sous terre en 15 sections.
  • LHCb (Large Hadron Collider beauty) : explore les légères différences existant entre matière et antimatière grâce à l’étude d’un type de particule appelé « quark beauté » ou « quark b ». Il mesure 21 x 10 x 13 mètres pour 5 600 tonnes et se trouve lui aussi à 100 mètres sous terre.

Les données produites sont enregistrées via la Grille de calcul mondiale pour le LHC (WLCG) afin d’être traitées dans un second temps par les scientifiques. Créée en 2002, la WLCG « a pour but de fournir les ressources nécessaires au stockage, à la distribution et à l’analyse des 15 pétaoctets (15 millions de gigaoctets) de données générées chaque année ».

… puis un passage à 7 TeV le 30 mars 2010

En décembre 2009, un premier arrêt technique a eu lieu pour préparer le passage à 3,5 TeV (contre 2,36 TeV pour rappel). Les faisceaux ont de nouveau circulé à partir du 28 février 2010, avec les 3,5 TeV atteints le 19 mars. Des collisions ont ensuite été effectuées à 7 TeV dès le 30 mars, il y a donc tout juste 10 ans. Pour vous donner un ordre de grandeur, cela correspond à l’énergie « d’un moustique en vol… concentré dans un volume mille milliards de fois plus petit ». La machine était alors lancée à son plein régime de l’époque.

La première collision à ce niveau de puissance s’est produite à 13h06 précisément. « Dans le monde entier, des physiciens des particules se préparent à une moisson potentiellement riche de données de nouvelle physique », expliquait à l’époque le CNRS… et cela n’a pas manqué.

Cette première période d’exploitation du LHC s’est terminée le 17 décembre 2012, avec un bilan largement positif : « Pour mettre les choses en perspective, sur les 6 millions de milliards de collisions proton-proton produites par le LHC, les expériences ATLAS et CMS ont chacune, au cours des trois dernières années, enregistré environ 5 milliards de collisions intéressantes. Sur ce nombre, seules 400 collisions environ ont permis de mettre en évidence des événements signalant la particule de type Higgs dont la découverte a été annoncée en juillet [2012, ndlr] ».

Depuis sa mise en service, les équipes du CERN travaillent sur le LHC en permanence pour en améliorer les performances. Fin 2012 par exemple, elles ont pu diviser par deux l’intervalle de temps entre les paquets : de 50 nanosecondes il est passé à 25 nanosecondes, doublant le nombre de paquets dans le faisceau et ainsi les potentielles collisions. En 2012, l’énergie de collision est passée de 7 à 8 TeV, etc.

13 TeV en 2015 pour la seconde période d’exploitation

Des travaux ont ensuite été entrepris pour augmenter significativement les performances du LHC, avec l’objectif d’atteindre 13 TeV début 2015, soit quasiment deux fois plus. C’est donc en 2015 que la seconde période d’exploitation a commencé, et elle a pris fin le 3 décembre 2018 « après trois années fantastiques » selon le CERN.

Le boson de Higgs a été découvert durant la première période, tandis que la seconde a permis d’améliorer « nettement notre connaissance du boson de Higgs, notamment ses modes de couplage aux quarks et leptons de troisième génération […] Grâce à la deuxième période d'exploitation, nous connaissons à présent les masses du boson de Higgs, du quark top et du boson W avec une précision nettement plus grande. Ces mesures sont importantes pour fixer des repères stabilisant le Modèle standard ».

Si nos connaissances ont « considérablement » augmenté, les scientifiques en veulent toujours plus : « Les données de physique recueillies à ce jour mettent en évidence plus que jamais la nécessité de disposer du LHC à haute luminosité [augmenter le nombre de collisions par seconde, ndlr] et d'atteindre l'énergie nominale de 14 TeV ».

Pourquoi une telle importance ? Parce que le Grand collisionneur de hadrons « générera bien plus de collisions que son prédécesseur, accumulant dix fois plus de données que le LHC au cours de son exploitation », explique le CNRS. « En augmentant les statistiques, on se donne plus de chances d’attraper une particule très rare et d’explorer ce qu’il y a au-delà du modèle standard », ajoute le Centre national de la recherche scientifique.

Une nouvelle physique ? Pas si vite…

Ces évolutions commenceront à arriver durant la troisième période d’exploitation du LHC qui débutera en mai 2021, sauf nouveau report du calendrier. Elle sera allongée d’un an pour mener des expériences jusque fin 2024. Ce sera ensuite un nouvel arrêt technique de deux ans pour arriver enfin au LHC haute luminosité prévue pour fin 2027, dont l’exploitation est prévue pour au moins 10 ans.

Et ce n’est pas encore gagné. En 10 ans de recherche, « nous n’avons pas observé l’once du début de quelque chose qui n’entre pas dans le cadre du modèle standard », explique Isabelle Wingerter-Seez, responsable d’Atlas-France jusqu’en 2017. « Inexistence de cette nouvelle physique ? Formes différentes de celles imaginées jusqu’alors ? Signatures plus exotiques que celles recherchées dans les détecteurs ? Nul ne le sait encore », explique le CNRS.

La marge de progression reste importante : « à ce jour, nous n’avons recueilli que 5 % des données que le LHC prendra durant toute sa durée de fonctionnement », explique Laurent Vacavant, directeur adjoint scientifique à l’Institut national de physique nucléaire et de physique des particules (IN2P3).

LHC HL

Le LHC et la « peur » des trous noirs

Depuis sa création, le Grand collisionneur de hadrons soulève des inquiétudes, dont celle d’ouvrir des trous noirs. C’est « très peu probable », affirme fermement le CERN. « Cependant, selon certaines théories, la formation de minuscules trous noirs « quantiques » est possible. L'observation d'un tel phénomène serait un événement, car cela nous permettrait de mieux comprendre l'Univers ; le phénomène ne présenterait d'ailleurs aucun danger ».

« Cela permettrait aux physiciens de mieux comprendre la force la plus insaisissable de la nature – la gravité  [et] confirmerait les théories selon lesquelles notre Univers possède plus de 4 dimensions (3 d'espace et 1 de temps). Ce serait une révolution du point de vue philosophique ! », ajoute l’Organisation européenne pour la recherche nucléaire… mais c’est une autre histoire.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Des « particules sorties du néant »

Record mondial en 2009 avec 2,36 TeV…

Alice, Atlas, CMS et LHCb : des instruments de plusieurs milliers de tonnes

… puis un passage à 7 TeV le 30 mars 2010

13 TeV en 2015 pour la seconde période d’exploitation

Une nouvelle physique ? Pas si vite…

Le LHC et la « peur » des trous noirs

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (29)


J’adore cet article. Merci beaucoup.



J’avais (sûrement mal) lu qu’ils envisageaient 27TeV pour la suite. Quelles sont leurs barrières qui font qu’ils envisagent de plafonner à 14Tev?


les 27, c’est pas la collision de 2 faisceaux ~13.5 TeV ?


C’est vraiment super sympa d’y voir en vrai (tous les 510 ans quand c’est arrêté).

J’avais eut la chance d’aller au portes ouvertes en 2009 je crois, il y avait même eut fred de c’est pas sorcier :)

Les dernières portes ouvertes étaient l’année passée je crois.


Je confirme, on a ouvert le we du 14/09/2019. 75k personnes sur place c’était assez sympa ! J’y travaille depuis plus de 4 ans, et ça fait parfois bizarre de se dire qu’on se donne des objectifs, des plans d’évolution sur 10, 15, 25 ans. On ne trouve ça nul par ailleurs.


Au delà, un trou noir dévore la terre <img data-src=" />


Merci pour cet article. Une remarque cependant. Il est écrit

&nbsp;

« Dans le monde entier, des physiciens des particules se préparent à

une moisson potentiellement riche de données de nouvelle physique », expliquait à l’époque le CNRS… et cela n’a pas manqué.



On ne peut pas écrire que « cela n’a pas manqué » et écrire quelques paragraphes en-dessous « Une nouvelle physique ? Pas si vite… ». En effet, un des gros problèmes des physiciens des hautes énergies actuellement est que rien de ce qu’ils avaient envisagé comme physique au-delà de celle que l’on connait ne pointe le bout de son nez.








GérardMansoif a écrit :



J’adore cet article. Merci beaucoup.



J’avais (sûrement mal) lu qu’ils envisageaient 27TeV pour la suite. Quelles sont leurs barrières qui font qu’ils envisagent de plafonner à 14Tev?





Ce sont les aimants qui ne sont pas assez puissants pour courber des faisceau plus énergétique il me semble. D’ailleurs, si quelqu’un sait quelle est la limitation physique qui empêche générer des champs magnétiques « infinis » dans les aimants supraconducteurs, je suis intéressé.







Si tu ne peux courber le faisceau plus, alors il faut un cercle plus grand pour diminuer le rayon de courbure

<img data-src=" />

Sinon la limite physique est que “l’infini” n’existe pas en physique.

Et accessoirement pour refroidir à -271°C un électro-aimant avec une consommation infinie, c’est l’infini au carré environ.

Donc il faut redéfinir le 1er infini = racine carrée de l’autre infini que l’on t’as donné comme budget thermique réalisable.


Ah, ce Sébastien !

Ses articles sont toujours aussi intéressants. Mais jusqu’où s’arrêtera-t-il ?



Pour revenir aux aimants :

Le bobinage est supraconducteur. Le refroidissement, c’est pour assurer la supraconductivité, pas pour évacuer la chaleur des pertes par effet Joule. La limite du champ magnétique est due à la perte de supraconductivité quand le courant et/ou le champ magnétique deviennent trop grands.



&nbsp;








xapon a écrit :



Le refroidissement, c’est pour assurer la supraconductivité, pas pour évacuer la chaleur des pertes par effet Joule. La limite du champ magnétique est due à la perte de supraconductivité quand le courant et/ou le champ magnétique deviennent trop grands.





<img data-src=" />

Pour être tatillon, l’effet joule est négligeable tant que tu restes dans la zone supra-conductrice, donc le pb n’est pas là.

On est + sur un risque d’emballement thermique si on franchit cette limite, ie + chaud -&gt; effet joule -&gt; ….



Dans la réalité, ton refroidissement a des résistances thermiques, des ponts conducteurs, et une grande déperdition au travers des multiples étages qui permettent de fabriquer cette température.

Même si on sait stocker ce froid sous forme d’azote liquide, il faut se fixer des objectifs atteignables sans risques:



il faut mettre une valeur à tous ces chiffres, combien d’ampères, combien de Teslas, quelles capacités de refroidissement, …

Mais là on passe de la théorie à la physique pratique.



J’ suis allé et c’était vraiment bien.

Je n’ai pas essayé de visité le LHC à cause des aimants qui auraient pu dérégler mon matériel médical mais c’était très bien tout ce que j’ai pu voir.

C’était juste dommage que le spectacle de la bobine tesla se soit terminé avec de la fumée. <img data-src=" />

Heureusement, j’avais déjà pu en voir une partie un peu avant (j’étais arrivé en retard)








xapon a écrit :



Ah, ce Sébastien !

Ses articles sont toujours aussi intéressants. Mais jusqu’où s’arrêtera-t-il ?



Pour revenir aux aimants :

Le bobinage est supraconducteur. Le refroidissement, c’est pour assurer la supraconductivité, pas pour évacuer la chaleur des pertes par effet Joule. La limite du champ magnétique est due à la perte de supraconductivité quand le courant et/ou le champ magnétique deviennent trop grands.



&nbsp;





Je pense en effet que le problème est celui-ci. Est ce que tu aurais une ou deux références à me conseiller traitant du fait que la supraconductivité reste effective uniquement « aux petits courants ».



&nbsp;





barlav a écrit :



<img data-src=" />

Pour être tatillon, l’effet joule est négligeable tant que tu restes dans la zone supra-conductrice, donc le pb n’est pas là.

On est + sur un risque d’emballement thermique si on franchit cette limite, ie + chaud -&gt; effet joule -&gt; ….



Dans la réalité, ton refroidissement a des résistances thermiques, des ponts conducteurs, et une grande déperdition au travers des multiples étages qui permettent de fabriquer cette température.

Même si on sait stocker ce froid sous forme d’azote liquide, il faut se fixer des objectifs atteignables sans risques:



il faut mettre une valeur à tous ces chiffres, combien d’ampères, combien de Teslas, quelles capacités de refroidissement, …

Mais là on passe de la théorie à la physique pratique.





Je me suis mal exprimer. Si on reprend la théorie, on dit qu’un aimant supraconducteur conduit le courant sans effet joule. Si c’est vrai, on peut donc faire passer un courant très grand ce qui créera un champ magnétique très intense. Or aujourd’hui, les aimants les plus puissants (qui sont supra) génèrent des champs de quelques dizaines de tesla. Donc pourquoi on ne sait pas créer des champs de plusieurs milliers de tesla ? Soit, on ne sais pas créer les intensités de courants électriques nécessaires (je n’ai pas fait le calcul), soit il y a un problème avec la supraconductivité avec les grand courant/grand champ magnétique, soit autre chose.





<img data-src=" />

De ce que j’en ai manipulé en thermodynamique et en IR-drop, et même selon les matériaux utilisés les plus parfaits, on a du mal à réduire les milliohms à quelques pouillèmes; et donc à la fin ça finit par exploser le budget si tu veux des perfs avant tout.

La supraconduction permet de passer d’un univers à un autre possible; mais garantir cet univers ça a un coût.

Et plus tu baves sur tes specs plus tu mets les autres corps de métiers dans le rouge.



Ma compréhension est vague concernant ce sujet, ayés pitié.

<img data-src=" />


Article très intéressant. Merci beaucoup 👍


Super article, encore, merci ! <img data-src=" />


Bel article !



13 TeV, ça peut sembler beaucoup, et ça l’est.



Mais le plus grand accélérateur de particules de l’univers, soit l’univers lui-même, produit des particules de l’ordre du ZeV, soit un milliard de fois plus énergétiques. Ce sont les zetta-particules, et on les compte sur les doigts d’une main chaque décennie.

Ici, une seule particule a donc 1 milliard de fois l’énergie que les deux faisceaux entiers du LHC !



Leur énergie est pour l’instant plus haute que n’importe quoi d’artificiel, mais peut-être qu’un jour on pourra tendre vers ça… peut-être !








coco74 a écrit :



C’est vraiment super sympa d’y voir en vrai (tous les 510 ans quand c’est arrêté).

J’avais eut la chance d’aller au portes ouvertes en 2009 je crois, il y avait même eut fred de c’est pas sorcier :)

Les dernières portes ouvertes étaient l’année passée je crois.



Oui, j’y étais allé aussi et Fred était effectivement là et avait fait une conférence.



Dommage que je n’ai pas su pour 2019, j’y serais bien retourné…



J’ai traversé la France (sans blague: Bretagne-&gt;Genève en road-trip) pour avoir la chance d’y découvrir tout ça et c’était juste incroyable, d’ailleurs ici l’article se concentre sur le LHC mais sur place on découvre les centaines d’autres projets qui tournent autour du LHC et c’est passionnant. Par ailleurs la passion des chercheurs (et tous les autres) avec qui on pouvait discuter tout le week-end c’est un de mes meilleurs souvenirs.


Il y avait aussi un gars qui faisait de la glace avec de l’azote liquide ! :)

&nbsp;








coco74 a écrit :



Il y avait aussi un gars qui faisait de la glace avec de l’azote liquide ! :)

&nbsp;



Possible, mais j’ai pas pu tout voir, il y a beaucoup trop de monde à ces visites pour la place disponible, avec plusieurs sites à visiter et 2h de queue à chacun, sans parler des trajets en voiture entre chaque. Donc on ne peut pas aller partout en une seule journée.



Comment ça redéfinir “infini” ?? Comment peux-tu redéfinir ce qui n’est pas fini ?

Ou alors, il y a de nombreuses notions fondamentales en maths qui m’échappent.




En maths, oui.

Mais en physique non.

Et dans les films, “vers l’infini, et au delà!” ça montre qu’il y a encore + que l’infini, donc la définition des maths est fausse.

CQFD

<img data-src=" />








tifounon a écrit :



Comment ça redéfinir “infini” ?? Comment peux-tu redéfinir ce qui n’est pas fini ?

Ou alors, il y a de nombreuses notions fondamentales en maths qui m’échappent.



Le monsieur veut dire que multiplier par 2 la puissance de l’aimant nécessite de multiplier par 4 le coût du refroidissement.



Donc que la puissance que tu voulais infinie est en fait finie et que sa borne maximale correspond à la racine carrée du budget que tu as pour le refroidissement.



Plutôt que d’augmenter le refroidissement, on ne pourrait pas plutôt réduire la durée de l’expérience dans les mêmes proportions ? Ca repousserait la borne maximale sans augmenter le budget.









barlav a écrit :



En maths, oui.

Mais en physique non.

Et dans les films, “vers l’infini, et au delà!” ça montre qu’il y a encore + que l’infini, donc la définition des maths est fausse.

CQFD

<img data-src=" />







Hmm, je ne sais pas si les matheux vont apprécier, comme si on disait que le Mont Saint Michel et Honfleur sont en Bretagne <img data-src=" />







Inodemus a écrit :



Le monsieur veut dire que multiplier par 2 la puissance de l’aimant nécessite de multiplier par 4 le coût du refroidissement.



Donc que la puissance que tu voulais infinie est en fait finie et que sa borne maximale correspond à la racine carrée du budget que tu as pour le refroidissement.



Plutôt que d’augmenter le refroidissement, on ne pourrait pas plutôt réduire la durée de l’expérience dans les mêmes proportions ? Ca repousserait la borne maximale sans augmenter le budget.







je comprends un peu mieux <img data-src=" />



ancien&nbsp; contractuel de l’in2p3 , un collègue qui y est encore m’a fait visité CMS en fin d’année dernière.

c’était génial, j’ai acheté pleins de goodies!! LOL

Et quel satisfaction de voir d’où venait enfin les données dont se remplissaient nos serveurs et bandes magnétiques!!

&nbsp;








Inodemus a écrit :



Le monsieur veut dire que multiplier par 2 la puissance de l’aimant nécessite de multiplier par 4 le coût du refroidissement.





Ton affirmation me paraît inexacte, car un aimant supraconducteur ne chauffe pas puisqu’il n’y a pas d’effet Joule.

Ce qui limite la puissance de l’aimant c’est la perte de la supraconductivité au-delà d’une certaine intensité (soit de courant, soit de champ magnétique induit)







tifounon a écrit :



je comprends un peu mieux <img data-src=" />





Pour ci-dessus.









OlivierJ a écrit :



Ton affirmation me paraît inexacte



C’est possible mais ce n’est pas mon affirmation. C’est barlav qui a dit ça, moi je ne m’y connais pas assez, je n’ai fait que reformuler ce qu’il a dit pour que ça parle à tifounon.









Inodemus a écrit :



C’est possible mais ce n’est pas mon affirmation. C’est barlav qui a dit ça, moi je ne m’y connais pas assez, je n’ai fait que reformuler ce qu’il a dit pour que ça parle à tifounon.





Où Barlav a-t-il dit que “multiplier par 2 la puissance de l’aimant nécessite de multiplier par 4 le coût du refroidissement” ?

(question sérieuse, si j’ai mal lu excuse)