Periodico delle Tecnologie dell'Informazione e della
Comunicazione per l'Istruzione e la Formazione
A+ A A-

Ricerca e innovazione

  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 93

Onde Gravitazionali

(di Claudio Meringolo)

La teoria della Gravitazione, sviluppata nel 1915 da Albert Einstein, ha aperto scenari cosmologici altrimenti impensabili con la meccanica classica newtoniana, e tra questi c’è la presenza di un campo di onde che pervade l’Universo intero. Le onde gravitazionali sono delle piccole increspature del tessuto spazio-temporale, talmente piccole da essere impercettibili, generate da oggetti massivi che ruotano uno attorno all’altro a velocità molto elevate, e che si propagano a velocità della luce, circa 300 mila km/s.

I sistemi binari di buchi neri (ossia due buchi neri che ruotano intorno ad un comune centro di massa) sono fra le sorgenti più energetiche di onde gravitazionali, anche se le enormi distanze che ci separano da essi fanno sì che sia alquanto difficile rilevarne il segnale, che ovviamente decresce con la distanza. Tali perturbazioni dello spazio-tempo sono state ipotizzate teoricamente da Einstein nel 1916 come conseguenza della sua Teoria della Gravitazione, e confermate sperimentalmente nel Febbraio 2016 tramite la rilevazione di onde gravitazionali provenienti dalla fusione di due buchi neri di massa pari a circa 30 𝑀*, dover con 𝑀* viene indicata la massa del Sole, ossia circa 2*10^{30} kg. L’esistenza di tali onde fornisce la conferma sperimentale del fatto che l’interazione gravitazionale non è un’azione istantanea a distanza tra corpi massivi come asseriva la teoria newtoniana, ma implica l’esistenza di un campo gravitazionale che si propaga anche nel vuoto e con la velocità della luce.

A rilevare per primi le onde è stato un lavoro in parallelo tra i due strumenti gemelli Laser Interferometer Gravitational-wave Observatory (LIGO) negli Stati Uniti, a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington. Lo scopo di questi strumenti era quello di trovare le increspature che si formano nel tessuto spaziotemporale dell’Universo quando, ad esempio, due masse ruotano vorticosamente l’una attorno all’altra (Fig.1), come avviene in un sistema binario molto massiccio, e i due corpi man mano perdono energia meccanica tramite l’emissione di onde gravitazionali, e si avvicinano al loro centro di massa comune fino a fondersi in un unico corpo.

Fig. 1: Raffigurazione pittorica di un merging di due buchi neri, con relativa emissione di onde gravitazionali.

Le onde gravitazionali rilevate con LIGO sono state prodotte dal processo di fusione di due buchi neri di origine stellare, con massa rispettivamente di 29 e 36 𝑀*, in un unico buco nero ruotante più massiccio di circa 62 𝑀*. Nell’ultima parte del processo, hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all’energia emessa durante il processo di fusione dei due buchi neri sotto forma di onde gravitazionali. C’è da dire che l’evento osservato si trova ad una distanza tale che per arrivare sulla Terra, il segnale ha impiegato quasi 1 miliardo e mezzo di anni (tanto impiega la luce a coprire la distanza che ci separa dalla sorgente), e quindi è avvenuto quando sulla terra facevano la loro comparsa le prime cellule evolute in grado di utilizzare l’ossigeno.

Le onde gravitazionali, abbinate alle onde elettromagnetiche, ci forniscono così una mappatura più completa dell’Universo, dandoci la possibilità di scrutarne dettagli sempre più sottili per carpirne i suoi meccanismi e, fino ad ora, più misteriosi.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

 

 

 

0
0
0
s2sdefault
  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 54

Rivelazione delle Onde Gravitazionali

(di Claudio Meringolo)

Abstract: Le onde gravitazionali, predette da Einstein circa un secolo fa, sono delle increspature dello spazio-tempo generate da eventi astrofisici estremi, come ad esempio la fusione di due buchi neri o l'esplosione di una supernova, e si propagano alla velocità della luce nel vuoto. Sono estremamente importanti perché ci permettono di vedere quello che è invisibile con la luce e ci danno informazioni su zone dell'universo ancora poco conosciute e molto distanti da noi. E’ per questo che carpirne l'essenza in tutti i suoi dettagli è diventata una delle sfide più interessanti per molti scienziati.

 

Nel 1915 Albert Einstein sviluppa quella che verrà chiamata la Teoria della Relatività Generale, ossia la teoria che descrive in maniera completa come lo spazio e il tempo sono legati fra loro a formare il tessuto spazio-temporale quadri-dimensionale. Questa formulazione matematica rivoluziona la concezione di gravità, che non è più una forza fra oggetti distanti, ma piuttosto un effetto geometrico in grado di deformare lo spazio e il tempo.

Queste deformazioni, dovute ad oggetti massivi, si propagano nel vuoto alla velocità della luce (da qui il nome "onda gravitazionale") ed Einstein ne aveva predetto l'esistenza già nel 1916. Solo che lo stesso scienziato tedesco non credeva si potessero mai osservare sperimentalmente, questo perché le onde gravitazionali sono delle perturbazioni del tessuto spazio-temporale incredibilmente deboli, e i principali eventi astrofisici che ne sono la sorgente sono molto lontani da noi. Il risultato netto è che per poter rivelare le onde gravitazionali che arrivano sulla Terra c'è bisogno di rivelatori estremamente sensibili: per dare un'idea, è come riuscire a misurare una variazione della dimensione di un protone su un oggetto grande quanto la distanza Terra-Sole.

 

Fig. 1: Schema semplificato di un interferometro di Michelson. Un laser emette un fascio di luce coerente, il quale viene separato in due fasci da un beam splitter. I due fasci vengono riflessi alle estremità dei bracci da degli specchi. Infine, i due fasci si ricombinano sullo schermo.

L'11 febbraio 2016, ad un secolo esatto dalla loro predizione teorica, è stata annunciata la prima verifica sperimentale dell'esistenza delle onde gravitazionali, per quello che è stato un evento molto importante nell'ambito dell'astrofisica e della cosmologia mondiale.

Le onde gravitazionali rivelate in questo evento sono state prodotte dal processo di fusione di due buchi neri di origine stellare lontani circa 1 miliardo e mezzo di anni luce dalla Terra. La loro massa era rispettivamente di 29 e 36 volte la massa del Sole, e nel processo di fusione hanno formato un unico buco nero ruotante più massiccio di circa 62 masse solari. Nell'ultima parte del processo, i due corpi hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all'energia emessa durante il processo di fusione dei due buchi neri sotto forma di radiazione gravitazionale.

Ma come vengono misurate le onde gravitazionali?

Ad oggi i maggiori rivelatori di onde gravitazionali sono il LIGO (Laser Interferometer Gravitational-Wave Observatory) con le sue due sedi a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington, ed il più vicino Virgo che si trova a Cascina, vicino Pisa. La tecnologia usata per questi rivelatori si basa sull'interferometria di Michelson (dal nome dell'inventore Albert Abraham Michelson). Il principio di funzionamento è semplice: una sorgente produce luce (in genere un laser), ovvero radiazione elettromagnetica. Essa si propaga lungo la direzione di emissione grazie a una lente che concentra i raggi luminosi in un fascio parallelo. Dopo un certo percorso la luce viene separata in due fasci distinti tra loro ortogonali e uguali in intensità, mediante un beam splitter, ossia un divisore di fascio, come ad esempio una lastra piana parallela con la superficie debolmente metallizzata che funge da specchio semi riflettente. Dopo essere stati divisi, i due fasci seguono due cammini ottici diversi, e siccome i fotoni non devono interagire con nessun'altra particella al fine di ottenere un buon esperimento, vengono creati dei cammini ottici in dei tubi dove al loro interno viene creato un vuoto spinto.

Questi cammini ottici vengono posti su un sistema di supporti isolanti in modo da eliminare il più possibile il rumore dovuto alle vibrazioni meccaniche di fondo, dopodiché entrambi i fasci vengono riflessi da due specchi e ritornano così al divisore che agendo in modo contrario rispetto a prima (la parte riflessa viene ora trasmessa e viceversa) li dirige verso uno schermo. Qui, sovrapponendosi, generano delle frange di interferenza, che in base alla differenza di cammino ottico presenteranno dei massimi e dei minimi. Infatti, tenendo fissi i due cammini ottici, lo schermo dell'apparato presenterà delle frange di interferenza dovute alla differenza infinitesima dei due percorsi fatti dalla luce. La ricomposizione dei due fasci sullo schermo è dunque estremamente sensibile a variazioni di un percorso del laser rispetto all'altro o a vibrazioni del suo specchio, mostrando così uno spostamento delle frange di interferenza. In pratica se un'onda gravitazionale attraversa il sistema, i due bracci oscillano e la lunghezza dei due cammini ottici varia, formando un'interferenza che viene rilevata da un fotodiodo.

Per dare un'idea della sensibilità di questi interferometri, le onde gravitazionali che sono originate a centinaia di milioni di anni luce dalla Terra, distorcono i bracci (che sono dell'ordine di qualche chilometro) di soli 10^{-18} metri, ossia di una quantità migliaia di volte più piccola di un nucleo atomico. Il range di frequenza utile per LISA e Virgo va invece da qualche Hertz a circa 10^4 Hertz.

Ovviamente, maggiore è il cammino ottico dei fotoni, maggiore è la sensibilità dell'interferometro. La lunghezza dei bracci degli interferometri di LIGO e Virgo sono, rispettivamente, di 4 e 3 chilometri, tuttavia viene usata una tecnica tale per cui il fascio di fotoni viene riflesso più volte all'interno del braccio, aumentandone così il cammino ottico effettivo. Nonostante ciò, gli interferometri terrestri presentano delle limitazioni dovuti, da una parte all'impossibilità di costruire dei bracci eccessivamente lunghi, e dall'altra alla continua presenza di rumore meccanico di fondo, che nonostante venga continuamente filtrato ostacola comunque la rivelazione di deboli segnali.

Fig. 1: La missione LISA sarà in grado di misurare le onde gravitazionali nello spazio grazie ad un trio di satelliti distanti 5 milioni di chilometri tra di loro, in orbita ad 1UA intorno al Sole. La data di lancio è prevista per il 2034.

A tal proposito è in corso una nuova missione spaziale denominata LISA (Laser Interferometer Space Antenna) attualmente in fase di progettazione presso l'Agenzia Spaziale Europea (ESA), e sarà il primo osservatorio spaziale per le onde gravitazionali. La data di lancio è prevista per il 2034 con una vita operativa di cinque anni. Basata sulla stessa tecnologia degli interferometri terrestri, LISA sarà costituita da tre satelliti artificiali posti ai vertici di un triangolo equilatero e orbitanti attorno al Sole, con una distanza di 5 milioni di chilometri tra di loro. Ogni lato di questo triangolo sarà l'equivalente di un braccio dei rivelatori terrestri dove vengono fatti passare i fasci di fotoni e poi riflessi. La possibilità di creare dei cammini ottici così grandi permetterà a LISA di aumentare di molto la sensibilità delle misurazioni, ed inoltre sarà possibile misurare onde gravitazionali a bassa frequenza, con un range utile che andrà tra 10^{-4} Hertz fino a qualche Hertz, e inoltre non sarà affetto dai disturbi ambientali di origine terrestre come i microsismi.

Tutto questo apre numerose sfide che gli astrofisici devono affrontare. LISA infatti, a differenza dei rivelatori a Terra, sarà dominato dal segnale astrofisico e non dal rumore dello strumento, e questo significa un ottimo rapporto segnale-rumore. Questo rappresenta una sfida tecnologica e di analisi dati molto importante che gli scienziati di LISA si stanno già preparando ad affrontare. Tra questi nuovi segnali dal cosmo più profondo, l’inatteso è dietro l’angolo. Il primo osservatorio di onde gravitazionali dallo spazio, ci aprirà il sipario del palcoscenico cosmico: sentiremo finalmente la musica dell’Universo, e questo ci permetterà coglierne gli aspetti più misteriosi e affascinanti.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

0
0
0
s2sdefault
  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 63

Computer Quantistici: una nuova era informatica di Claudio Meringolo

(di Claudio Meringolo)


Abstract:
I computer quantistici sfruttano alcuni dei fenomeni più straordinari della fisica moderna e della meccanica quantistica per offrire enormi balzi in avanti nella potenza di elaborazione. Le future macchine quantistiche, infatti, promettono di superare anche i più potenti supercomputer di oggi e quelli di domani. La loro potenzialità sta nello sfruttare alcune delle leggi più strane e meno intuitive della meccanica quantistica, ma devono fare ancora i conti con problematiche di aspetto pratico.


Il trasferimento delle informazioni nei computer classici avviene tramite una sequenza ordinata di bit, ossia un flusso di impulsi elettrici oppure ottici che rappresentano degli “1” o degli “0”. Tutta l’informazione elettronica, dai nostri messaggi whatsapp ed e-mail alle pagine internet ai video di YouTube, è essenzialmente composta da lunghe stringhe di queste due cifre binarie. Il bit è essenzialmente l'unità di misura del contenuto d'informazione di un messaggio.
I computer quantistici invece, per trasferire l’informazione usano i qubit. Un qubit (contrazione di “quantum bit”) rappresenta l’equivalente del bit quantistico, ovvero l'unità di informazione quantistica, ed è in genere costituito da una particella subatomica come ad esempio un elettrone o un fotone. Generare e gestire qubit non è semplice, e questa è diventata una sfida scientifica e ingegneristica degli ultimi anni nel campo della ricerca informatica. Ad esempio, per manipolare questi quanti di informazione, alcune aziende come IBM o Google utilizzano circuiti superconduttori raffreddati a temperature più fredde dello spazio profondo, pochi gradi sopra lo zero assoluto. Altri intrappolano i singoli atomi nei campi elettromagnetici su un chip di silicio posto in camere a vuoto ultra spinto. In entrambi i casi, l'obiettivo è isolare i qubit in uno stato quantistico controllato, e questo richiede competenze all’avanguardia di ingegneria elettronica e fisica quantistica.
Essendo delle particelle che non sottostanno alle regole della fisica classica, bensì a quelle della meccanica quantistica, i qubit hanno alcune proprietà alquanto bizzarre. Ad esempio, un qubit può rappresentare contemporaneamente numerose possibili combinazioni di “1” e “0”. Questa capacità di trovarsi contemporaneamente in più stati si chiama “sovrapposizione di stati”, ed è una proprietà che ci può apparire strana e lontana da quello che è il nostro senso comune, ma invece è considerata normale nell’ambito della meccanica quantistica. Per mettere i qubit in sovrapposizione, i ricercatori li manipolano usando laser ad alta precisione e strumenti ad altissima tecnologia. Grazie a questo fenomeno controintuitivo, un computer quantistico con diversi qubit in sovrapposizione può “saltare” contemporaneamente su di un vasto numero di potenziali risultati. Matematicamente, quello che meglio descrive la realtà fisica di un qubit, è una funzione d’onda che ci dà solo la probabilità di trovare il qubit in uno stato quantistico oppure in un altro, ma non la certezza. Il risultato finale di un calcolo, e quindi la certezza, emerge solo una volta misurati i qubit, il che fa immediatamente “collassare” il loro stato quantistico sul valore “1” oppure “0”. E’ solo in questo istante che il qubit assume il suo valore definitivo e lo possiamo misurare.
Ma non è tutto. I ricercatori possono anche generare dei qubit gemelli, ossia delle coppie di qubit che sono "legati", il che significa che i due membri di una coppia esistono in un singolo stato quantistico. Una conseguenza fondamentale di tutto ciò è il fatto che cambiare lo stato di uno dei qubit cambierà istantaneamente lo stato dell'altro in modo prevedibile, e questo succede anche se le due particelle sono separate da distanze molto elevate. Questa proprietà i fisici la chiamano “entanglement”. Nessuno sa davvero come e perché funzioni l'entanglement. Inoltre questa proprietà sembrerebbe violare alcuni principi che stanno alla base della fisica, come ad esempio il limite superiore per quanto riguarda la velocità di propagazione di un segnale da una particella a quella gemella, dato che il segnale si propagherebbe in maniera istantanea e quindi con velocità infinita. Questo fenomeno sconcertò persino Albert Einstein, che lo descrisse notoriamente come una "azione spettrale a distanza". Tuttavia l’entanglement è la chiave della potenza dei computer quantistici. In un computer convenzionale, infatti, il raddoppio del numero di bit raddoppia la sua potenza di elaborazione, ossia diciamo che la potenza aumenta con una legge lineare rispetto al numero di bit. Ma grazie all'entanglement, l'aggiunta di qubit extra in una macchina quantistica produce un aumento che non è lineare bensì esponenziale della sua capacità di calcolo.

Questa è la buona notizia. La cattiva notizia è che le macchine quantistiche sono molto più soggette ad errori rispetto ai computer classici, e questo è dovuto ad un altro effetto quantistico che è la “decoerenza”.
La decoerenza è dovuta essenzialmente all'interazione dei qubit con il loro ambiente, ossia con lo stato fisico che li circonda, e queste interazioni possono far decadere il loro comportamento quantistico prima del dovuto, e con esso l’informazione che trasportavano. Da questo se ne deduce che il loro stato quantistico è estremamente fragile. La minima vibrazione o variazione di temperatura, disturbi noti come "rumore" nel linguaggio fisico, possono farli decadere dalla sovrapposizione prima che il loro lavoro sia stato svolto correttamente. Ecco perché i ricercatori fanno del loro meglio per proteggere i qubit dall’ambiente esterno, in frigoriferi super raffreddati e camere a vuoto ultra spinto.
Ma nonostante i loro sforzi, il rumore provoca ancora molti errori, e questi errori continuano ad propagarsi durante i calcoli. Ci sono algoritmi quantistici intelligenti che possono compensare alcuni di questi errori, e anche l'aggiunta di più qubit aiuta a ridurre questo tipo di problema. Tuttavia, probabilmente occorreranno migliaia di qubit standard per crearne uno singolo effettivo e altamente affidabile, noto come qubit "logico".
Tuttavia, ancora i ricercatori non sono in grado di generare e manipolare in maniera stabile un numero significativo di qubit, e quindi siamo ancora lontani dall'ottenere computer quantistici che possono essere utilizzati a tutti gli effetti per risolvere algoritmi complessi.
 Ma tutto ciò non ha intaccato le speranze dei pionieri di essere i primi a dimostrare quella che viene chiamata da molti la "supremazia quantistica", ossia il momento in cui un computer quantistico potrà completare un calcolo matematico che è chiaramente fuori dalla portata anche del supercomputer classico più potente.
Non è ancora chiaro esattamente quanti qubit saranno necessari per raggiungere questo obiettivo. Tuttavia i ricercatori continuano a trovare nuovi algoritmi per migliorare le prestazioni delle macchine classiche e l'hardware dei supercomputer classici continua a progredire. Ma i ricercatori e le aziende stanno lavorando duramente per rivendicare il titolo. Se da una parte la legge di Moore vuole che la potenza di calcolo dei computer classici raddoppi ogni 18 mesi, dall’altra con lo sviluppo dei computer quantistici, si passerebbe su un altro ordine di grandezza, e non ci sarebbe più storia.

Potrebbero essere necessari ancora molti anni per i computer quantistici per raggiungere il loro pieno potenziale, ma se queste nuove ed esotiche macchine informatiche manterranno la loro promessa, allora potremmo essere testimoni di una nuova era tecnologica.
 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

 
0
0
0
s2sdefault
  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 55

La tecnologia indaga sulle origini dell'Universo

(di Claudio Meringolo)

 

E’ passato poco più di un secolo da quando Albert Einstein completava il suo lavoro più importante, la teoria che lega la gravità alla geometria dello spazio-tempo, la teoria della relatività generale. Con questa teoria Einstein completava il quadro sulla gravitazione, riuscendo finalmente a spiegare alcune piccole incongruenze che invece la vecchia teoria della gravitazione di Newton non riusciva a spiegare, come ad esempio la precessione dell’orbita di Mercurio, oppure la deflessione della luce durante una eclisse.

Questa nuova teoria ammetteva, tra le altre cose, degli oggetti estremi, così densi da generare un campo gravitazionale così forte che nemmeno la luce poteva sfuggirgli. Questi oggetti esotici erano talmente particolari che lo stesso Einstein non credeva esistessero realmente, ma fossero solo un artificio matematico che venivano fuori dalle equazioni. Fu il fisico Karl Schwarzschild nel 1916, un anno dopo la formulazione della teoria della relatività, a formulare matematicamente queste singolarità come soluzione particolare delle equazioni di campo nel vuoto, e solo negli anni 60 questi oggetti vennero battezzati con il nome di “buchi neri” dal fisico John Wheeler. Il fatto che nessuna particella che venisse catturata potesse più riemergere è la ragione del termine "buco", mentre l’aggettivo “nero” deriva dal fatto che oggetti del genere non possono emettere radiazione elettromagnetica, perché anch’essa intrappolata dal potente campo gravitazionale.

Per anni e nonostante le crescenti prove scientifiche, i buchi neri sono rimasti confinati nelle immaginazioni degli artisti, negli algoritmi di modelli numerici fatti con i supercomputer o in affascinanti rappresentazioni in computer grafica come nell'epico film “Interstellar” di Christopher Nolan. Ma il 10 Aprile 2019, gli scienziati dell’Event Horizon Telescope (EHT), un consorzio di 8 radiotelescopi situati in ogni angolo del pianeta, dopo anni di lavoro hanno reso pubblica la prima foto reale di un buco nero, da molti definita la foto del secolo.

L’oggetto in questione è il buco nero supermassiccio M87 situato nel centro della galassia della Vergine, distante 55 milioni di anni luce da noi e con una massa di ben 6,5 miliardi di volte quella del Sole. Data la distanza che ci separa dal buco nero, se si fosse dovuto utilizzare un unico telescopio, questo avrebbe dovuto essere delle dimensioni di 5 chilometri di diametro, una grandezza impossibile da ottenere per qualsiasi strumento di questo genere.

 

Fig. 1: Il buco nero supermassiccio al centro della galassia ellittica Messier 87, immagine mostrata in anteprima mondiale dall’Event Horizon Telescope il 10 Aprile 2019.

 

Così i ricercatori e gli scienziati hanno pensato di ricreare un telescopio enorme attraverso una particolare tecnica, chiamata Very-long-base-interferometry (Vibi). Questa tecnica tiene conto della rotazione terrestre e combina i dati ottenuti da tutti i telescopi della rete EHT. In pratica viene misurata la distanza spaziale fra tutti i telescopi della rete mettendo insieme i dati della differenza di tempo del segnale in ingresso in ciascuno di questi. Attraverso questo processo è un po’ come se si costruisse un unico grande telescopio grande come la Terra, ed avere così maggiore risoluzione angolare, e infatti l’immagine è stata ottenuta con la risoluzione angolare più elevata mai raggiunta.

Anche se è stata definita “foto” dai media – e per semplificare anche da alcuni ricercatori – quella del buco nero M87 non è prettamente una foto, almeno non nel senso comune del termine. Non è stata ottenuta con telescopi ottici, ma con enormi antenne che captano le onde radio (radiotelescopi) emesse da ciò che si trova nello Spazio.

 

Fig. 2: I radiotelescopi dell'Atacama Large Millimeter Array (ALMA), situati a 5100 metri di quota sull'altopiano delle Ande, in Cile, fanno parte dell'EHT che ha osservato per la prima volta l'ombra radio di un buco nero.

 

Una volta sincronizzati tra loro, i radiotelescopi raccolgono negli stessi istanti gigantesche quantità di dati, che sono poi trasportati su dischi rigidi molto capienti per essere poi elaborati. I dati non sono completi, nel senso che ne manca sempre qualche pezzo, ed è quindi necessario ricostruire ciò che manca.

Questo processo di ricostruzione si chiama “imaging”, e si usano supercomputer per cercare di colmare gli spazi vuoti utilizzando algoritmi per prevedere che cosa dovrebbe esserci nei dati mancanti. Tutto questo richiede una grandissima potenza di calcolo, ma porta alla fine alla costruzione dell’immagine vera e propria, come quella svelata dai ricercatori.

Questa è una spiegazione estremamente semplificata, ma che da’ l’idea di un processo molto più complesso, che coinvolge una grande quantità di scienziati in tutto il mondo e gigantesche e interminabili sessioni di calcolo svolte dai supercomputer. La spettacolare immagine finale che è stata mostrata al mondo intero, non è una foto nel senso classico, ma è la dimostrazione visiva più prossima a ciò che accade intorno a un buco nero che si trova miliardi e miliardi di chilometri da noi. O meglio, a come appariva 55 milioni di anni fa: quando la Terra era ancora disabitata e la luce iniziava il suo viaggio da quella remota zona dell’Universo per raggiungerci.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

 

0
0
0
s2sdefault
  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 58

Come la Fisica aiuta la tecnologia di Claudio Meringolo

Abstract: La teoria della Relatività sviluppata tra il 1905 e il 1915 da Albert Einstein, non è solo una descrizione matematica elegante e completa della gravitazione. Possiamo infatti misurarne gli effetti nelle piccole cose di tutti i giorni, come ad esempio quando usiamo un sistema di navigazione che fa uso dei satelliti GPS.

 

Il sistema GPS (Global Positioning System) è composto da più satelliti che orbitano a circa 20 mila chilometri di altezza attorno alla Terra. Ognuno di questi satelliti ha degli orologi atomici ad altissima precisione con i quali, misurando il tempo impiegato da un segnale elettromagnetico a percorrere la distanza satellite-ricevitore e facendo la triangolazione con altri satelliti, riescono a ricavare la posizione esatta del ricevitore sulla superficie della Terra. Questi orologi essendo molto precisi accumulano un errore molto piccolo, circa 86 miliardesimi di secondo al giorno: con un errore del genere, la precisione del GPS, potrebbe essere dell’ordine di qualche decina di centimetri sulla superficie della Terra. Questo se non considerassimo gli effetti relativistici che le teorie della Relatività Ristretta e quella Generale di Einstein apportano al sistema GPS, inducendo quindi degli errori di cui bisogna assolutamente tenere conto se si vuole ottenere un sistema di posizionamento il più accurato possibile.

Partendo dalla teoria della Gravitazione di Newton per arrivare alla teoria della Relatività Generale di Einstein, vediamo cosa ci dice la Fisica a riguardo. 

Dalla pubblicazione dei "Philosophiae Naturalis Principia Mathematica" nel 1687 fino agli inizi del ventesimo secolo, la teoria della Gravitazione di Newton è stata il pilastro portante, il modello che descriveva l'universo da un punto di vista della forza gravitazionale, che insieme alle altre tre forze fondamentali, governano le leggi della Fisica. Nei primi anni del ventesimo secolo c'era un giovane sconosciuto al mondo scientifico dell'epoca, che lavorava presso l'ufficio brevetti di Berna ed era affascinato dalla forza di gravità. Il suo nome era Albert Einstein. Durante le pause di lavoro si era creato il seguente esperimento mentale: immaginiamo di essere su una navicella spaziale nello spazio vuoto, e che questa si muova di moto uniformemente accelerato. In questo caso sulla navicella – e quindi su di noi - agisce una forza proporzionale all'accelerazione ed alla nostra massa inerziale. Immaginiamo adesso che la stessa navicella faccia ritorno sulla Terra (e quindi in un campo gravitazionale) e che stia ferma sulla superficie terrestre: adesso su di noi agisce una forza, quella di gravità, che è proporzionale all'accelerazione di gravità ed alla nostra massa gravitazionale.

I fisici chiamano massa inerziale e massa gravitazionale due grandezze che sono concettualmente differenti: la prima esprime quanto un corpo massivo si oppone ad una forza affinché cambi il suo stato di moto, mentre la seconda è proporzionale alla forza peso, ossia alla forza che risente un corpo in un campo gravitazionale. Tuttavia se noi siamo dentro la navicella spaziale senza la possibilità di poter osservare fuori, ad esempio in una navicella senza finestre, è praticamente impossibile stabilire se ci stiamo muovendo di moto uniformemente accelerato nel vuoto sotto l'azione di una forza, oppure se siamo fermi sulla Terra sotto l'azione della forza di gravità. Il principio che ci fa uguagliare la massa inerziale e la massa gravitazionale si chiama “principio di equivalenza”, e ad oggi gli esperimenti dimostrano che massa inerziale e massa gravitazionale sono numericamente uguali a meno di errori dell'ordine di 10^{-14}, dando credito alla correttezza di questo principio che è ormai accettato da tutti nella comunità scientifica.

Per quanto riguarda il giovane Einstein, la forza di gravità fu il punto di partenza per il suo lavoro più importante, ossia la teoria della Relatività Generale, che pubblicò nel 1915. Per sviluppare la teoria della Relatività Generale, Einstein si servì dell'algebra tensoriale più avanzata, e due matematici italiani, Levi Civita e Ricci Curbastro, gli costruirono gli strumenti adatti per formalizzare la sua teoria. In questa nuova teoria della Gravitazione non compare più la gravità come nella teoria di Newton, e spazio e tempo sono indissolubilmente intrecciati a formare un tessuto spazio-temporale a 4 dimensioni.

Quindi, mentre nella teoria di Newton una massa generava un campo gravitazionale (e quindi una forza gravitazionale), in questa nuova teoria una massa ha l'effetto di curvare lo spazio-tempo modificando, ad esempio, il tensore di curvatura ed il tensore metrico. Questi due tensori descrivono non solo come una massa modifica lo spazio-tempo, ma anche come vengono modificate le geodetiche, ossia le traiettorie che seguono i corpi in movimento. Così, mentre per Newton la Terra ruota attorno al Sole perché sotto l'azione della forza di gravità, per Einstein la Terra segue semplicemente la sua geodetica che però non è rettilinea bensì curvata dalla presenza del Sole.

Fig.1 : Secondo la teoria della Relatività Generale, una massa è in grado di curvare lo spazio-tempo. I satelliti GPS devono tenere conto di queste impercettibili distorsioni e correggere costantemente i calcoli, in accordo con la teoria di Einstein.

Tutto il contenuto della Relatività Generale si può esprimere in maniera breve ed elegante con le equazioni di campo di Einstein, in notazione tensoriale. Ma dato che il tempo non è indipendente dallo spazio, una massa che curva lo spazio ne modifica di conseguenza anche il tempo, il quale scorrerà (per un osservatore esterno) più lentamente nei pressi di uno spazio curvo rispetto ad uno spazio piatto e in assenza di massa. Tali variazioni sono naturalmente impercettibili, ma possono essere verificate sperimentalmente con misurazioni accuratissime. 

Ma vediamo cosa comporta tutto questo per i satelliti GPS.

Avendo la Terra un suo campo gravitazionale, per la teoria della Relatività ritroviamo degli effetti relativistici sugli orologi posti sui satelliti GPS in orbita, che non possiamo trascurare. Gli orologi a terra, essendo più vicini alla superficie terrestre, risentono di una gravità molto più forte di quella che sentono i satelliti in orbita. Questi ultimi, quindi, rispetto ad un orologio terrestre misurano uno scorrere del tempo diverso. Questo effetto è impercettibile e irrilevante nella vita quotidiana, ma in alcuni contesti, come appunto quello dei GPS, può diventare di fondamentale importanza. Infatti gli orologi in orbita sui satelliti GPS hanno un anticipo di circa 45 milionesimi di secondo al giorno rispetto agli orologi sulla Terra. Sembra una cifra molto piccola, ma se non tenuta in considerazione può portare ad errori molto grandi, dato che i segnali viaggiano alla velocità della luce e in tale intervallo di tempo percorrono più di 10 km.

Alla base della teoria di Einstein c’è il postulato che la velocità della luce sia costante in qualsiasi sistema di riferimento, indipendentemente dal moto della sorgente e del ricevitore. Come conseguenza di ciò, due osservatori che si muovono di moto relativo uno rispetto all’altro misurano differenti intervalli di lunghezza e di tempo: lo spazio si contrae mentre il tempo si dilata. I satelliti in orbita sono in movimento rispetto al ricevitore GPS sulla Terra e quindi i loro orologi misurano intervalli temporali differenti, in accordo con la teoria della Relatività Ristretta. I fisici per calcolare l’effetto della dilatazione temporale misurata da due orologi posti in due sistemi di riferimento diversi, usano il fattore di Lorentz. Se tale fattore è uguale a 1 significa che il tempo scorre allo stesso modo per i due orologi, ma questo vale solo se i due sistemi di riferimento hanno velocità relativa molto più piccola rispetto a quella della luce. Dato che il satellite in orbita ruota rispetto alla Terra con una velocità media di 3,8 km/s, la dilatazione temporale non è trascurabile. Essa introduce un errore rallentando l’orologio del satellite di circa 7 milionesimi di secondo al giorno rispetto ad uno fermo sulla Terra.

Fig. 2: Le equazioni di campo di Einstein scritte su una locomotiva abbandonata nel deserto della Bolivia. Il primo membro dell'equazione è composto dal tensore di curvatura di Ricci e dal tensore metrico, che descrivono la geometria dello spazio-tempo punto per punto; Il secondo membro contiene invece il tensore energia-impulso, che tiene conto della presenza di massa. Einstein con questa formula ci dice come massa e curvatura dello spazio-tempo sono legate.

 

In pratica, mentre per effetto della Relatività Generale gli orologi sui satelliti GPS vengono accelerati di circa 45 microsecondi al giorno, come conseguenza della Relatività Ristretta invece lo scorrere del tempo sui satelliti viene rallentato di circa 7 microsecondi al giorno. Al netto ogni orologio sui satelliti viene accelerato rispetto ad uno fermo sulla Terra di circa 38 milionesimi di secondo ogni giorno, introducendo un errore nella posizione di circa 11,5 km! È qua che ci viene in aiuto la fisica. Per rimediare a questi effetti relativistici, gli orologi dei satelliti vengono corretti in maniera continua e automatica, e questo permette al sistema GPS di essere sufficientemente accurato e di tracciare quasi alla perfezione la nostra posizione sulla Terra. Tutto si svolge nel pieno rispetto della teoria di Einstein, altrimenti non arriveremmo a pochi metri dalla meta che abbiamo chiesto al navigatore ma a chilometri di distanza.

Così la prossima volta che il vostro navigatore GPS della vostra auto vi porterà a destinazione correttamente, non dimenticate di ringraziare in parte anche il buon Einstein se avete raggiunto senza problemi la vostra meta.

 

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria


 

      

0
0
0
s2sdefault

Argomento