Oggi:

2024-03-28 11:05

Deus ex machina

Il CERN, grandi acceleratori, grandi scienziati, grandi flop

di: 
Domenico Grimaldi

La storia delle grandi macchine acceleratrici del CERN, il ruolo di Carlo Rubbia e i suoi rapporti con il CERN, dall’osservazione dei bosoni W e Z alla costruzione del LHC (Large Hadron Collider), cenni all’esperimento Icarus e ad altre iniziative scientifico-tecnologiche.

L’idea di costruire macchine sempre più grandi e potenti per studiare la fisica subatomica – ed in particolare il LHC sviluppato presso il CERN (European Organization for Nuclear Research) – ha radici lontane essendo nata quando la macchina precedente – il LEP (Large Electron-Positron collider – era da poco entrata in funzione.

Il LEP era stato disegnato nel 1975, la discussione sulla nuova macchina cominciò nel 1977 prima ancora che la costruzione del LEP venisse finalmente decisa nel 1881.

Nel 1883 presso il CERN vennero scoperti i bosoni W e Z previsti dal modello standard. Gli Stati Uniti reagirono a quella che sembrava una perdita di leadership scientifica e tecnologica nel settore della fisica delle alte energie impegnandosi nella realizzazione dell’SSC (Superconducting Super Collider), una macchina da 40 TeV (tera-electron-volt), cioè di una energia di gran lunga superiore a quella di un LHC. Molte furono le discussione sui relativi vantaggi offerti dalle rispettive macchine: gli europei decisero di continuare sulla via dell’LHC, che costava un quinto dell’SSC – pur essendo già molto caro come abbiamo visto nel precedente contributo - e poteva impiegare lo stesso tunnel circolare del LEP ed altre infrastrutture già disponibili.

Questo percorso decisionale e realizzativo indica come la competizione non fosse solo scientifica alla ricerca di quark e leptoni, e neanche ingegneristica in riferimento agli acceleratori, ma più legata al prestigio dei paesi o blocchi di paesi (il Giappone non venne accettato come partner dagli USA, mentre il Regno Unito quasi decise di abbandonare il CERN) in un quadro di lotta tra fisici che stimolavano e sostenevano i rispettivi governi per ottenere macchine sempre più avanzate (e più costose). L’SSC venne infine approvato dal presidente Reagan nel 1987, ma l’iter legislativo e finanziario venne contrastato dal Congresso nord-americano, e il progetto venne abbandonato nel 1993, lasciando al CERN gli onori e gli oneri della costruzione di una supermacchina.

Nel percorso di realizzazione dell’LHC è stato fondamentale il ruolo di Carlo Rubbia, il fisico italiano che aveva ottenuto il premio Nobel insieme a Simon van der Meer per la scoperta dei bosoni deboli W e Z. Rubbia, laureato alla Normale di Pisa nel 1959, aveva lavorato negli Stati Uniti sul decadimento e la cattura nucleare dei muoni iniziando la serie di esperimenti sulle interazioni nucleari deboli che lo avrebbero portato al lavoro presso il CERN, dove si era trasferito nel 1960, nel campo della fisica delle particelle elementari: nel 1981 era pronta la necessaria macchina sperimentale – l’SPS (Super Proton Synchrotron) – e  nel 1983 le due nuove particelle furono osservate, un passo importante nella costruzione di una teoria unificata della fisica atomica. E’ vero che alcuni sostenevano che l’esistenza delle due particelle fosse stata poco prima provata da un altro gruppo del CERN, ma l’assegnazione del Nobel aveva riconosciuto il ruolo di Rubbia e del suo gruppo.

Successivamente, dopo essere stato professore a Harvard dal 1970, passando ogni anno un semestre al CERN per condurre il lavoro sperimentale, nel 1989 Rubbia venne nominato direttore generale del CERN e fu capace di ottenere larghi consensi in Europa a favore dell’LHC, sulla base dei previsti vantaggi di una competizione scientifica tra USA e Europa e delle caratteristiche della macchina per un ulteriore progresso nello studio delle particelle elementari.

Come si può vedere, Carlo Rubbia è stato fondamentale nell’indirizzare le ricerche nel campo della fisica subatomica verso la corsa a macchine sempre più potenti per poter condurre esperimenti che permettessero di scendere nel dettaglio della struttura della materia e dell’energia. In questo, il premio Nobel è stato anche uno dei capiscuola del gruppo di fisici interessati a osservare eventuali segni di decadimento del protone, un fenomeno questo che sarebbe in contrasto con la credenza convenzionale che la materia sia stabile. E’ un esperimento di questo tipo quello noto come Icarus sull’osservazione dei neutrini, che ha portato recentemente alla questione del superamento della velocità della luce.

Nel progetto di ricerca Icarus, doveva essere studiata la trasmutazione di neutrini-mu (muoni) in neutrini-tau: nell’ambito degli esperimenti, un fascio di neutrini veniva “sparato” dall’SPS (Super Proton Synchrotron) di Ginevra – un’altra delle macchine del CERN – e quindi i neutrini-tau potevano essere osservati quantitativamente, in quanto la loro interazione produceva leptoni-tau misurabili da un sistema di detezione (Opera) situato nel Laboratorio nazionale sotterraneo nel tunnel del Gran Sasso, appartenente all’INFN. Il posizionamento sotterraneo è necessario per schermare i neutrini di origine cosmica che potrebbero confondere il rilevamento.

Nel settembre 2011, i risultati resi noti hanno avuto grande risonanza nell’opinione pubblica mondiale: i neutrini, che in quanto tali possono viaggiare attraverso materiale solido, avevano viaggiato per circa 730 km in linea retta sotto la superficie curva terrestre (ossia lungo la corda di un arco) fino al Gran Sasso: osservazioni ripetute sembravano indicare che i neutrini impiegassero a completare il percorso 61 nanosecondi (miliardesimi di secondo) in meno della velocità della luce nel vuoto. Benchè non spiegato, il fenomeno osservato metteva in crisi l’equazione di base della fisica di Einstein E = mc2  in cui c è la velocità della luce che non può essere superata. La cosa veniva giudicata sconvolgente, e qualche commentatore si lanciava nel ricamo di conseguenze pittoresche come distorsioni del tessuto dello spazio-tempo e viaggi nel tempo. Comunque, sul fenomeno giuravano ben 174 co-autori che avevano misurato in 3 anni 16.111 interazioni neutriniche. Ma queste conclusioni sono state contestate duramente da altri gruppi di ricerca e – pare – anche da una frazione del gruppo interno. E’ della fine di marzo la notizia delle dimissioni di Antonio Ereditato, il fisico italiano che era il portavoce del gruppo Icarus e che aveva lanciato la notizia dei neutrini superveloci: sembra proprio quindi che la velocità della luce non sia stata superata.

Nel frattempo, l’inesauribile Rubbia ha proposto un amplificatore di energia di nuova concezione come sistema per produrre energia nucleare mediante la tecnologia degli acceleratori usando scorie ad alta attività, che verrebbero così incenerite ed eliminate, oppure uranio impoverito o torio naturale: la peculiarità dell’approccio risiede nell’uso dell’acceleratore per la produzione dei neutroni della reazione a catena. Rubbia sostiene che tale approccio, basato sul consumo di risorse praticamente illimitate, sarebbe competitivo per costi e sicurezza rispetto alla fusione nucleare. Un reattore di questo tipo, detto colloquialmente “Rubbiatrone”, è ancora allo stato di progetto, ma è già considerato uno dei concorrenti per il finanziamento rispetto alla più classica fusione nucleare, quella a confinamento magnetico del Progetto Ignitor dell’ENEA (reattore al plasma disegnato da Bruno Coppi, e perciò detto “Coppitrone”) o del più grande Progetto ITER a livello internazionale.

Inoltre, durante la sua presidenza dell’ENEA (1999-2005), Rubbia aveva sviluppato un metodo per concentrare la luce solare ottenendo alte temperature per la produzione di energia (Progetto Archimede). Il metodo comporta l’uso di collettori di luce solare a specchi parabolici, di trasferimento di calore con l’impiego di sali liquidi, di turbine per la generazione di elettricità. Diverse centrali di questo tipo, basate sul disegno di Rubbia o di altri, sono attualmente in costruzione o sono state completate, soprattutto in USA e Spagna.

E’ difficile per i profani dare un giudizio sul reale impatto di Carlo Rubbia sulle attività umane. Anzi, è difficile anche per gli addetti ai lavori: se si parla in privato con i fisici, Rubbia viene spesso definito criticamente uno “sperimentale” dai teorici, un “particellaro” dagli sperimentali, un ingegnere e non un fisico dai fisici in generale (è in effetti figlio di un ingegnere), un organizzatore e lobbista dagli ingegneri; e le stesse caratteristiche della sua leadership vengono spesso contestate, sempre in privato, al CERN come all’ENEA.

Quel che è certo è che il premio Nobel porta svariate responsabilità, nel bene come nel male, secondo gli uni o secondo gli altri: la grande corsa alle grandi macchine, soprattutto per uso sperimentale, e tendenzialmente anche per uso energetico; la ricerca in ogni caso di soluzioni grandi e costose; forse la tendenza a sottovalutare le difficoltà realizzative ed i costi reali dei percorsi intrapresi.

Sullo sfondo rimane una questione essenziale che non riguarda certo solo Rubbia, anche se di particolare interesse nel campo scientifico in cui opera. Fermo restante l’importanza degli studi di questo tipo anche per la ricerca di base e l’avanzamento delle conoscenze, rimane il fatto che delle priorità andrebbero stabilite a fronte di un aumentare e dell’allargarsi dei filoni di ricerca e dell’incremento dei costi – priorità che non possono essere stabilite dai proponenti in competizione tra di loro. Non è soltanto un problema di crisi economica, ma di necessità reali del genere umano. Ed è un problema di politiche nazionali: l’esposizione dell’Italia, anche in confronto ad altri paesi, in approcci diversi, lascia da pensare se si tratti di una ridondanza necessaria oppure di una incapacità o non volontà di scelta. La fisica delle grandi macchine, quella che si chiama “big science”, merita oggi un’attenta riflessione.

 

Il LHC (Large Hadron Collider) non è stata la prima delle grandi macchine della “big science” della fisica.

 

Il Large Hadron Collider (LHA) è l’acceleratore di particelle più grande ed a più alta energia mai costruito. Il sincrotrone di questa macchina può far collidere fasci di particelle provenienti da direzioni opposte come protoni fino a 7 TeV (tera-electron-volt) per nucleone oppure nuclei di piombo con energia di 574 TeV per nucleo. Si crede che l’LHA possa mettere in evidenza il bosone di Higgs e la nuova famiglia di particelle prevista dalla supersimmetria.

 

Il modello supersimmetrico standard della fisica delle particelle è una teoria riguardante le interazioni elettromagnetiche, nucleari forti, nucleari deboli e gravitazionali, che governano la dinamica delle particelle subatomiche. Secondo lo schema più accettato, esistono 12 particelle elementari con spin ½ (dette fermioni). Ogni fermione ha una antiparticella corrispondente. I fermioni si distinguono in 6 quark e 6 leptoni a seconda del loro modo di interazione e della carica che portano, e possono essere ulteriormente classificati in generazioni con comportamenti fisici simili:

  carica 1^ generazione  2^ generazione   3^ generazione
quark +2/3 up  charm  top
  -1/3  down     strange bottom
leptoni 1 elettrone muone tau
  0 netrino elettrone neutrino muone neutrino tau

I quark hanno proprietà per cui risultano legati in perpetuo (almeno a partire da un certo momento dopo il Big Bang) l’uno all’altro formando particelle composite (adroni) che contengono un quark e un antiquark (e allora l’adrone viene detto mesone) oppure tre quark (barione). Sono barioni i protoni ed i neutroni, che sono anche detti nucleoni. Il modello standard prevede anche i bosoni di gauge, che sono portatori di forza che mediano le interazioni fondamentali: i fotoni per le interazioni elettromagnetiche; i bosoni W+, W- e Z0 per le interazioni nucleari deboli; 8 gluoni per le interazioni nucleari forti. Vi sarebbe infine il non ancora osservato bosone di Higgs, un bosone chiave per la generazione o meno di massa e quindi per la struttura della materia. E’ questo bosone che si spera venga osservato mediante l’uso dell’LHC del CERN.