Ricerca e innovazione

E-HEALTH: VERSO UNA SANITÀ DIGITALE, SEMPRE PIÙ “CONNESSA” E SMART di Cristiana Rizzuto*

Abstract - Il processo di Digital Transformation che ha interessato il settore sanitario, può essere descritto attraverso la nota espressione “E-Health”, un termine piuttosto recente, utilizzato per indicare l'applicazione all'area medica e a quella dell'assistenza sanitaria dell'Information & Communication Technology (ICT). L’ E-Health assume sempre più importanza grazie alle sue iniziative che migliorano l’accesso alle cure da parte del cittadino e che contribuiscono ad aumentare l’efficienza e la sostenibilità del settore sanitario.

* Ingegnere biomedico di presidio presso Ospedale Maggiore di Bologna 

sanitàdigitale

La situazione di emergenza sanitaria, causata dal Covid-19, ha chiesto rapide risposte per far fronte ai nuovi bisogni che si sono manifestati in ambito sanitario,  enfatizzando la necessità di un’innovazione radicale nel settore Healthcare, che ha portato a un’accelerazione del processo di Digitalizzazione della Salute e delle Cure, con un notevole incremento dei servizi di telemedicina e di monitoraggio a distanza delle patologie.

In tale contesto, si è affermato sempre di più il concetto di una Sanità digitale, “connessa” e smart, in grado di garantire una maggiore facilità di accesso alle cure da parte del cittadino, con un aumento dell’efficienza e della sostenibilità del settore sanitario.  Il processo di  Digital Transformation, che ha interessato il settore sanitario, può essere descritto attraverso la nota espressione “E-Health”, un  termine piuttosto recente, utilizzato per indicare l'applicazione all'area medica e a quella dell'assistenza sanitaria dell'Information & Communication Technology (ICT).  Si tratta di un concetto multidimensionale, definito dal Ministero della Salute come:  “L’utilizzo di strumenti basati sulle tecnologie dell’informazione e della comunicazione per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita”. 

Attualmente, le principali iniziative dell’ E-Health a livello nazionale ed europeo sono soprattutto volte a migliorare il percorso assistenziale del cittadino nell’erogazione dei servizi sanitari, con soluzioni innovative che consentono sin dal primo momento di interazione del paziente con la rete di assistenza sanitaria di tracciarne l’intero percorso di cura. Oggi l'avvio del percorso di cura avviene tramite il medico di base, il quale è supportato dal Fascicolo Sanitario Elettronico e dalla E-Prescription. Il paziente  può accedere ai servizi territoriali e ospedalieri attraverso il Centro Unificato di Prenotazione (CUP), nonché il sistema centralizzato informatizzato di prenotazione delle prestazioni sanitarie, incaricato di gestire l'intera offerta dei servizi sanitari (SSN, regime convenzionato, intra moenia) presenti sul territorio di riferimento. Il medico di base viene, inoltre, coinvolto nella gestione della fase post-acuta, durante la quale, oltre al Fascicolo Sanitario Elettronico, entra in gioco la telemedicina.

A livello tecnologico,  gli investimenti più significativi nell’ambito dello sviluppo di software medicali in Italia riguardano la Cartella Clinica Elettronica, il Fascicolo Sanitario Elettronico  e tutte le soluzioni per il download dei referti via web e le prenotazioni via internet. L’ambito della telemedicina è ancora in fase di  espansione. Molto diffuso nelle strutture sanitarie è il teleconsulto medico, specie ai fini della gestione e del monitoraggio di pazienti con patologie croniche, mentre soluzioni più avanzate, come  ad esempio la teleriabilitazione, sono attualmente in fase di sperimentazione. Entriamo nel dettaglio di ciascuna iniziativa E-Health citata.

Cartella Clinica Elettronica e Fascicolo Sanitario Elettronico

Il concetto di Cartella Clinica Elettronica è assimilabile a quello di cartella clinica di ricovero ospedaliero o cartella clinica ambulatoriale specialistica, mentre il Fascicolo Sanitario Elettronico (FSE) è costituito dall'insieme di tutte le cartelle cliniche, indagini diagnostiche preventive e tutte le informazioni relative alla salute presente e passata del paziente. Il Fascicolo Sanitario Elettronico (FSE) quindi è lo strumento attraverso il quale il cittadino può tracciare e consultare la propria storia clinica, condividendola con i professionisti sanitari per garantire un servizio più efficace.

E-Prescription

La prescrizione elettronica o ricetta digitale,  è una prescrizione medica generata, trasmessa e compilata elettronicamente al computer, che sostituisce le prescrizioni cartacee e via fax. Essa presuppone il collegamento in rete delle strutture di erogazione dei servizi sanitari: medici di medicina generale, pediatri, aziende sanitarie locali, aziende ospedaliere e farmacie pubbliche e private.

Telemedicina

Per Telemedicina si intende una modalità di erogazione di servizi di assistenza sanitaria, tramite il ricorso a alle Information and Communication Technologies (ICT), in situazioni in cui il professionista della salute e il paziente non si trovano nella stessa località. La Telemedicina comporta la trasmissione sicura di informazioni e dati di carattere medico per la prevenzione, la diagnosi, il trattamento e il successivo controllo dei pazienti. La prestazione in Telemedicina non sostituisce la prestazione sanitaria tradizionale, ma la integra per migliorarne efficacia, efficienza e appropriatezza, con il vantaggio di ridurre  i costi sanitari, offrire una maggiore disponibilità e ridurre il rischio di diffusione delle malattie infettive. 

La Telemedicina assume grande importanza nella prevenzione secondaria e nella gestione delle patologie croniche, cioè in tutti i casi di pazienti già affetti da patologie (ad esempio diabete o patologie cardiovascolari), che pur conducendo una vita normale devono sottoporsi a costante monitoraggio di alcuni parametri vitali al fine di ridurre il rischio di insorgenza di complicazioni. A tal proposito bisogna sottolineare che fanno parte della telemedicina anche  tutte le applicazioni per smartphone di tipo clinico-medico, che permettono all'utilizzatore di gestire la propria salute attraverso il proprio cellulare. Attualmente lo sviluppo di applicazioni mediche si è concentrato principalmente sulla gestione dell'ipertensione arteriosa e delle condizioni diabetiche, con la possibilità di monitorare il proprio stato di salute, compilando un vero e proprio diario pressorio o alimentare, contenente i dati glicemici.

Il ruolo del 5G

La rete 5G giocherà un ruolo fondamentale nel processo Digitalizzazione della Sanità, con grandi vantaggi in termini di servizi ai cittadini. Quello che può sostanzialmente offrire una rete 5G sono tre vantaggi fondamentali:  velocità superiori, con almeno 20 Gbps in down-link e 10 Gbps in up-link per ogni base di ricarica mobile, una latenza vicina allo zero e una maggiore capacità di supportare dispositivi (si parla di circa un milione di dispositivi connessi  ogni 10 metri quadri). È evidente che questi elementi possano consentire un potenziamento del digitale in sanità, che si tratti di operazioni chirurgiche a distanza o telemedicina o monitoraggio da remoto di pazienti cronici, con vantaggi evidenti per la qualità delle cure e per la sostenibilità economica delle strutture sanitarie. Difatti,  il 5G potenzierà lo sviluppo dell’IoT, consentendo un ulteriore salto in avanti nella cura del paziente, semplificando le diagnosi a distanza o rendendo possibile la remote surgery.

Dall’inizio della pandemia sono già trenta le strutture sanitarie con le quali è stato siglato un accordo per la copertura con micro-antenne DAS (Distributed Antenna System), al cento per cento compatibili con la rete 5G. Le strutture sanitarie coinvolte hanno un bacino di utenza di 9 milioni di persone per oltre 16mila posti letto. Il lavori sono stati già completati in 20 ospedali, mentre nei rimanenti 10 sono in corso, con una distribuzione geografica che ne vede il 50% al Nord e l’altro 50% equamente distribuito tra Centro e Sud del Paese.

L’INTELLIGENZA ARTIFICIALE E IL POTERE COGNITIVO DELLE METAFORE: SPUNTI DI RIFLESSIONE PER UNA DIDATTICA INNOVATIVA

di Mario Catalano

Ricercatore, Docente, Editore Scientifico.

 

Abstract: Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo; tuttavia, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La ricerca nel campo dell’intelligenza artificiale ha iniziato ad indagare alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente. Tutto ciò rappresenta l’occasione per esplorare il mistero dell’apprendimento ed offre anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Ho deciso di scrivere questa breve memoria allo scopo di condividere le riflessioni emerse in un recente confronto con il Prof. Paolo Massimo Buscema, scienziato di fama internazionale nel campo dell’intelligenza artificiale, Presidente e Direttore del Centro di Ricerca Semeion di Roma e Full Professor Adjoint presso il Dipartimento di Matematica e Statistica dell’Università del Colorado. L’ho intervistato in occasione di uno degli episodi della miniserie “Etica e AI” incardinata nel palinsesto di “Intelligenza Artificiale Spiegata Semplice”, una delle principali Web community, in Italia, per la formazione e la divulgazione sui temi legati al mondo dell’intelligenza artificiale (questo è il link alla videoregistrazione dell’incontro: https://youtu.be/P1OVU6-ZdmQ).

 

Fig. 1: “ETICA e AI”: conduce Mario Catalano, ospite Prof. Paolo Massimo Buscema.

 

Gli argomenti toccati sono molteplici: dall’algoretica al rapporto tra scienza e fede, dalle innovative applicazioni dell’intelligenza artificiale in medicina agli studi avanzati sull’apprendimento delle macchine. In particolare, vorrei parlare proprio di quest’ultimi, considerate le potenziali implicazioni per il mondo della formazione e della scuola.

Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo: la sua capacità di analizzare dati ed estrarne regolarità, modelli per interpretare un certo fenomeno (capire, ad esempio, quali siano i suoi fattori principali), la capacità di far previsioni e prendere conseguenti decisioni proficue ed efficienti.

Eppure, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La logica del machine learning, infatti, consiste nel fornire alla macchina moltissimi dati (ad esempio, tante immagini – le più diverse possibili! – di un gatto cui si associa l’etichetta “GATTO” e tante immagini di un cane cui si assegna la categoria “CANE”) e lasciare che un algoritmo determini la rappresentazione matematica del fenomeno studiato minimizzando l’errore di previsione relativo agli esempi selezionati.

Inoltre, i modelli d’intelligenza artificiale in grado di realizzare il cosiddetto “apprendimento profondo” delle macchine (deep learning) operano sui dati-esempio attraverso livelli successivi di astrazione, in modo da catturare, ad ogni livello, i tratti fondamentali di un certo fenomeno e di cogliere, di livello in livello, schemi di crescente complessità. Ad esempio, nel caso di una rete neuronale profonda per il riconoscimento di un’immagine (Nielsen, 2015), un sistema di neuroni artificiali interconnessi ed organizzati in molteplici strati successivi potrebbe, nel primo strato, riconoscere i bordi, nel secondo, individuare forme geometriche semplici create dai bordi (triangoli, rettangoli, etc.) e così via.

Fig. 2: Schema di una rete neuronale artificiale con diversi strati di neuroni interconnessi.

 

Addestrare reti artificiali con molti strati di neuroni totalmente interconnessi (ciascun neurone connesso con tutti gli altri dello strato successivo) presenta dei problemi; pertanto, nella pratica applicativa, si ricorre a delle soluzioni alternative che, tuttavia, s’ispirano alla medesima logica di un apprendimento che avvenga attraverso vari livelli concatenati di astrazione.

Nonostante tutti questi metodi stiano dimostrando grande utilità in molti settori – quali la Medicina, l’Economia, il Marketing, etc. – rivelano un grande limite, ossia l’incapacità di prevedere gli eventi estremi: quelle rare manifestazioni di un fenomeno che si allontanano significativamente dal suo andamento medio. Inoltre, lasciano fuori dal mondo dell’intelligenza artificiale alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente.

Il Prof. Buscema si riferisce a tutto ciò parlando della possibilità di cogliere legami invisibili tra mondi diversi, di costruire “ponti impossibili” tra realtà apparentemente molto lontane (Buscema, 2020). La sua “Teoria dei Mondi Impossibili” (Buscema et al., 2018) mira proprio a sviluppare metodi d’intelligenza artificiale più accurati in un dominio specifico – segnatamente nel prevedere gli eventi rari (i cosiddetti “cigni neri”) – attingendo ad ambiti conoscitivi simili, che possano consentire un notevole ampliamento della fenomenologia, sulla base della “similarità della forma di forme diverse” (Buscema, 2020). Così, ad esempio, impiegando pool di reti neuronali artificiali (differenti sia per la loro architettura sia per la natura dei dati utilizzati nella fase di addestramento) potrebbe essere possibile migliorare le previsioni nel campo della Geofisica, creando sinergie tra set di dati relativi agli eventi sismici, alle eruzioni vulcaniche, agli eventi meteorologici, etc.

Questi studi innovativi sono certamente l’occasione per esplorare il mistero meraviglioso dell’apprendimento ed offrono anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Infatti, saper trasformare conoscenze ed abilità maturate in un certo ambito in competenze spendibili in contesti nuovi può essere la via per il successo formativo, a scuola e nella vita. Si pensi al caso di un allievo della Scuola Primaria che incontri delle difficoltà nell’imparare ad affrontare i problemi di Matematica. Nella mia personale esperienza di docente di Tecnologia, che si dedica alla formazione del pensiero computazionale, ho notato come lo sviluppo di videogiochi con linguaggi di programmazione visuale rappresenti, per i ragazzi, un contesto particolarmente motivante in cui poter apprendere con facilità ed efficacia strategie generali per risolvere un problema, potenzialmente spendibili in molti campi del sapere. Mi riferisco, in particolare, alla capacità di articolare un problema dato in compiti elementari oppure trasformarlo e risolverlo in una versione più semplice, da ricondurre a quella originaria attraverso processi di astrazione (Brennan and Resnick, 2012).

Più in dettaglio, gli allievi possono scoprire, con il supporto del docente, che programmare l’interazione del protagonista di un gioco di avventura con i suoi nemici segue una logica modulare, che prevede la stesura e l’esecuzione in parallelo di più script: il codice per conferire al protagonista le sue abilità di movimento, quello per determinare l’epilogo del gioco quando il protagonista soccombe nello scontro con i suoi nemici e, infine, lo script relativo all’esito opposto. Quando, poi, gli studenti si trovano di fronte ad un problema diverso, ad esempio nell’ambito dello studio della Matematica, le strategie cognitive acquisite nelle attività di game design, in virtù di una forte motivazione intrinseca e di un approccio costruttivo all’errore, possono rivelarsi fruttuose anche nel nuovo contesto.

 

BIBLIOGRAFIA:

Brennan, K. and Resnick, M. (2012). Using artifact-based interviews to study the development of computational thinking in interactive media design. Paper presented at annual American Educational Research Association meeting, Vancouver, BC, Canada.

Buscema, P. M., Sacco, P., Della Torre, F., Massini, G., Breda, M., and Ferilli, G. (2018). “Theory of impossible worlds: Toward a physics of information”. Chaos 28.

Buscema, P. M. (2020). L'arte della previsione Intervista sull’intelligenza artificiale a cura di Vittorio Capecchi. Mimesis Edizioni.

Nielsen, M. A. (2015). Neural Networks and Deep Learning. Determination Press.

Agricoltura 4.0: Scenari, opportunità e ruolo del legislatore

Abstract: Negli ultimi anni l’agricoltura sta vivendo un periodo di forti cambiamenti: sostenibilità e qualità sono i due paradigmi entro cui questi cambiamenti si muovono. L’evoluzione tecnologica sta apportando gli input necessari per guidare questi paradigmi. Questo ecosistema produttivo agricolo digitale tuttavia necessità di norme. L’articolo si pone l’obiettivo di contestualizzare la situazione attuale del settore e offre spunti di riflessione su possibili aspetti normativi.

L’agricoltura rappresenta la prima forma produttiva dell’uomo da molto tempo. Si esplica nell'attività umana che consiste nella coltivazione di specie vegetali al fine di ottenere prodotti a scopo alimentare. Si tratta di un settore che ha notevolmente contribuito allo sviluppo della civiltà umana. Un processo andato di pari passo con le prime forme di società stabili, con una propria organizzazione. Tre fattori hanno contribuito in maniera primaria allo sviluppo di questo settore: 

Onde Gravitazionali

(di Claudio Meringolo)

La teoria della Gravitazione, sviluppata nel 1915 da Albert Einstein, ha aperto scenari cosmologici altrimenti impensabili con la meccanica classica newtoniana, e tra questi c’è la presenza di un campo di onde che pervade l’Universo intero. Le onde gravitazionali sono delle piccole increspature del tessuto spazio-temporale, talmente piccole da essere impercettibili, generate da oggetti massivi che ruotano uno attorno all’altro a velocità molto elevate, e che si propagano a velocità della luce, circa 300 mila km/s.

I sistemi binari di buchi neri (ossia due buchi neri che ruotano intorno ad un comune centro di massa) sono fra le sorgenti più energetiche di onde gravitazionali, anche se le enormi distanze che ci separano da essi fanno sì che sia alquanto difficile rilevarne il segnale, che ovviamente decresce con la distanza. Tali perturbazioni dello spazio-tempo sono state ipotizzate teoricamente da Einstein nel 1916 come conseguenza della sua Teoria della Gravitazione, e confermate sperimentalmente nel Febbraio 2016 tramite la rilevazione di onde gravitazionali provenienti dalla fusione di due buchi neri di massa pari a circa 30 ?*, dover con ?* viene indicata la massa del Sole, ossia circa 2*10^{30} kg. L’esistenza di tali onde fornisce la conferma sperimentale del fatto che l’interazione gravitazionale non è un’azione istantanea a distanza tra corpi massivi come asseriva la teoria newtoniana, ma implica l’esistenza di un campo gravitazionale che si propaga anche nel vuoto e con la velocità della luce.

A rilevare per primi le onde è stato un lavoro in parallelo tra i due strumenti gemelli Laser Interferometer Gravitational-wave Observatory (LIGO) negli Stati Uniti, a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington. Lo scopo di questi strumenti era quello di trovare le increspature che si formano nel tessuto spaziotemporale dell’Universo quando, ad esempio, due masse ruotano vorticosamente l’una attorno all’altra (Fig.1), come avviene in un sistema binario molto massiccio, e i due corpi man mano perdono energia meccanica tramite l’emissione di onde gravitazionali, e si avvicinano al loro centro di massa comune fino a fondersi in un unico corpo.

Fig. 1: Raffigurazione pittorica di un merging di due buchi neri, con relativa emissione di onde gravitazionali.

Le onde gravitazionali rilevate con LIGO sono state prodotte dal processo di fusione di due buchi neri di origine stellare, con massa rispettivamente di 29 e 36 ?*, in un unico buco nero ruotante più massiccio di circa 62 ?*. Nell’ultima parte del processo, hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all’energia emessa durante il processo di fusione dei due buchi neri sotto forma di onde gravitazionali. C’è da dire che l’evento osservato si trova ad una distanza tale che per arrivare sulla Terra, il segnale ha impiegato quasi 1 miliardo e mezzo di anni (tanto impiega la luce a coprire la distanza che ci separa dalla sorgente), e quindi è avvenuto quando sulla terra facevano la loro comparsa le prime cellule evolute in grado di utilizzare l’ossigeno.

Le onde gravitazionali, abbinate alle onde elettromagnetiche, ci forniscono così una mappatura più completa dell’Universo, dandoci la possibilità di scrutarne dettagli sempre più sottili per carpirne i suoi meccanismi e, fino ad ora, più misteriosi.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

 

 

 

Rivelazione delle Onde Gravitazionali

(di Claudio Meringolo)

Abstract: Le onde gravitazionali, predette da Einstein circa un secolo fa, sono delle increspature dello spazio-tempo generate da eventi astrofisici estremi, come ad esempio la fusione di due buchi neri o l'esplosione di una supernova, e si propagano alla velocità della luce nel vuoto. Sono estremamente importanti perché ci permettono di vedere quello che è invisibile con la luce e ci danno informazioni su zone dell'universo ancora poco conosciute e molto distanti da noi. E’ per questo che carpirne l'essenza in tutti i suoi dettagli è diventata una delle sfide più interessanti per molti scienziati.

 

Nel 1915 Albert Einstein sviluppa quella che verrà chiamata la Teoria della Relatività Generale, ossia la teoria che descrive in maniera completa come lo spazio e il tempo sono legati fra loro a formare il tessuto spazio-temporale quadri-dimensionale. Questa formulazione matematica rivoluziona la concezione di gravità, che non è più una forza fra oggetti distanti, ma piuttosto un effetto geometrico in grado di deformare lo spazio e il tempo.

Queste deformazioni, dovute ad oggetti massivi, si propagano nel vuoto alla velocità della luce (da qui il nome "onda gravitazionale") ed Einstein ne aveva predetto l'esistenza già nel 1916. Solo che lo stesso scienziato tedesco non credeva si potessero mai osservare sperimentalmente, questo perché le onde gravitazionali sono delle perturbazioni del tessuto spazio-temporale incredibilmente deboli, e i principali eventi astrofisici che ne sono la sorgente sono molto lontani da noi. Il risultato netto è che per poter rivelare le onde gravitazionali che arrivano sulla Terra c'è bisogno di rivelatori estremamente sensibili: per dare un'idea, è come riuscire a misurare una variazione della dimensione di un protone su un oggetto grande quanto la distanza Terra-Sole.

 

Fig. 1: Schema semplificato di un interferometro di Michelson. Un laser emette un fascio di luce coerente, il quale viene separato in due fasci da un beam splitter. I due fasci vengono riflessi alle estremità dei bracci da degli specchi. Infine, i due fasci si ricombinano sullo schermo.

L'11 febbraio 2016, ad un secolo esatto dalla loro predizione teorica, è stata annunciata la prima verifica sperimentale dell'esistenza delle onde gravitazionali, per quello che è stato un evento molto importante nell'ambito dell'astrofisica e della cosmologia mondiale.

Le onde gravitazionali rivelate in questo evento sono state prodotte dal processo di fusione di due buchi neri di origine stellare lontani circa 1 miliardo e mezzo di anni luce dalla Terra. La loro massa era rispettivamente di 29 e 36 volte la massa del Sole, e nel processo di fusione hanno formato un unico buco nero ruotante più massiccio di circa 62 masse solari. Nell'ultima parte del processo, i due corpi hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all'energia emessa durante il processo di fusione dei due buchi neri sotto forma di radiazione gravitazionale.

Ma come vengono misurate le onde gravitazionali?

Ad oggi i maggiori rivelatori di onde gravitazionali sono il LIGO (Laser Interferometer Gravitational-Wave Observatory) con le sue due sedi a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington, ed il più vicino Virgo che si trova a Cascina, vicino Pisa. La tecnologia usata per questi rivelatori si basa sull'interferometria di Michelson (dal nome dell'inventore Albert Abraham Michelson). Il principio di funzionamento è semplice: una sorgente produce luce (in genere un laser), ovvero radiazione elettromagnetica. Essa si propaga lungo la direzione di emissione grazie a una lente che concentra i raggi luminosi in un fascio parallelo. Dopo un certo percorso la luce viene separata in due fasci distinti tra loro ortogonali e uguali in intensità, mediante un beam splitter, ossia un divisore di fascio, come ad esempio una lastra piana parallela con la superficie debolmente metallizzata che funge da specchio semi riflettente. Dopo essere stati divisi, i due fasci seguono due cammini ottici diversi, e siccome i fotoni non devono interagire con nessun'altra particella al fine di ottenere un buon esperimento, vengono creati dei cammini ottici in dei tubi dove al loro interno viene creato un vuoto spinto.

Questi cammini ottici vengono posti su un sistema di supporti isolanti in modo da eliminare il più possibile il rumore dovuto alle vibrazioni meccaniche di fondo, dopodiché entrambi i fasci vengono riflessi da due specchi e ritornano così al divisore che agendo in modo contrario rispetto a prima (la parte riflessa viene ora trasmessa e viceversa) li dirige verso uno schermo. Qui, sovrapponendosi, generano delle frange di interferenza, che in base alla differenza di cammino ottico presenteranno dei massimi e dei minimi. Infatti, tenendo fissi i due cammini ottici, lo schermo dell'apparato presenterà delle frange di interferenza dovute alla differenza infinitesima dei due percorsi fatti dalla luce. La ricomposizione dei due fasci sullo schermo è dunque estremamente sensibile a variazioni di un percorso del laser rispetto all'altro o a vibrazioni del suo specchio, mostrando così uno spostamento delle frange di interferenza. In pratica se un'onda gravitazionale attraversa il sistema, i due bracci oscillano e la lunghezza dei due cammini ottici varia, formando un'interferenza che viene rilevata da un fotodiodo.

Per dare un'idea della sensibilità di questi interferometri, le onde gravitazionali che sono originate a centinaia di milioni di anni luce dalla Terra, distorcono i bracci (che sono dell'ordine di qualche chilometro) di soli 10^{-18} metri, ossia di una quantità migliaia di volte più piccola di un nucleo atomico. Il range di frequenza utile per LISA e Virgo va invece da qualche Hertz a circa 10^4 Hertz.

Ovviamente, maggiore è il cammino ottico dei fotoni, maggiore è la sensibilità dell'interferometro. La lunghezza dei bracci degli interferometri di LIGO e Virgo sono, rispettivamente, di 4 e 3 chilometri, tuttavia viene usata una tecnica tale per cui il fascio di fotoni viene riflesso più volte all'interno del braccio, aumentandone così il cammino ottico effettivo. Nonostante ciò, gli interferometri terrestri presentano delle limitazioni dovuti, da una parte all'impossibilità di costruire dei bracci eccessivamente lunghi, e dall'altra alla continua presenza di rumore meccanico di fondo, che nonostante venga continuamente filtrato ostacola comunque la rivelazione di deboli segnali.

Fig. 1: La missione LISA sarà in grado di misurare le onde gravitazionali nello spazio grazie ad un trio di satelliti distanti 5 milioni di chilometri tra di loro, in orbita ad 1UA intorno al Sole. La data di lancio è prevista per il 2034.

A tal proposito è in corso una nuova missione spaziale denominata LISA (Laser Interferometer Space Antenna) attualmente in fase di progettazione presso l'Agenzia Spaziale Europea (ESA), e sarà il primo osservatorio spaziale per le onde gravitazionali. La data di lancio è prevista per il 2034 con una vita operativa di cinque anni. Basata sulla stessa tecnologia degli interferometri terrestri, LISA sarà costituita da tre satelliti artificiali posti ai vertici di un triangolo equilatero e orbitanti attorno al Sole, con una distanza di 5 milioni di chilometri tra di loro. Ogni lato di questo triangolo sarà l'equivalente di un braccio dei rivelatori terrestri dove vengono fatti passare i fasci di fotoni e poi riflessi. La possibilità di creare dei cammini ottici così grandi permetterà a LISA di aumentare di molto la sensibilità delle misurazioni, ed inoltre sarà possibile misurare onde gravitazionali a bassa frequenza, con un range utile che andrà tra 10^{-4} Hertz fino a qualche Hertz, e inoltre non sarà affetto dai disturbi ambientali di origine terrestre come i microsismi.

Tutto questo apre numerose sfide che gli astrofisici devono affrontare. LISA infatti, a differenza dei rivelatori a Terra, sarà dominato dal segnale astrofisico e non dal rumore dello strumento, e questo significa un ottimo rapporto segnale-rumore. Questo rappresenta una sfida tecnologica e di analisi dati molto importante che gli scienziati di LISA si stanno già preparando ad affrontare. Tra questi nuovi segnali dal cosmo più profondo, l’inatteso è dietro l’angolo. Il primo osservatorio di onde gravitazionali dallo spazio, ci aprirà il sipario del palcoscenico cosmico: sentiremo finalmente la musica dell’Universo, e questo ci permetterà coglierne gli aspetti più misteriosi e affascinanti.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

La tecnologia indaga sulle origini dell'Universo

E’ passato poco più di un secolo da quando Albert Einstein completava il suo lavoro più importante, la teoria che lega la gravità alla geometria dello spazio-tempo, la teoria della relatività generale. Con questa teoria Einstein completava il quadro sulla gravitazione, riuscendo finalmente a spiegare alcune piccole incongruenze che invece la vecchia teoria della gravitazione di Newton non riusciva a spiegare, come ad esempio la precessione dell’orbita di Mercurio, oppure la deflessione della luce durante una eclisse.

Computer Quantistici: una nuova era informatica

Abstract:

I computer quantistici sfruttano alcuni dei fenomeni più straordinari della fisica moderna e della meccanica quantistica per offrire enormi balzi in avanti nella potenza di elaborazione. Le future macchine quantistiche, infatti, promettono di superare anche i più potenti supercomputer di oggi e quelli di domani. La loro potenzialità sta nello sfruttare alcune delle leggi più strane e meno intuitive della meccanica quantistica, ma devono fare ancora i conti con problematiche di aspetto pratico.

Il trasferimento delle informazioni nei computer classici avviene tramite una sequenza ordinata di bit, ossia un flusso di impulsi elettrici oppure ottici che rappresentano degli “1” o degli “0”. Tutta l’informazione elettronica, dai nostri messaggi whatsapp ed e-mail alle pagine internet ai video di YouTube, è essenzialmente composta da lunghe stringhe di queste due cifre binarie. Il bit è essenzialmente l'unità di misura del contenuto d'informazione di un messaggio.

Come la Fisica aiuta la tecnologia di Claudio Meringolo

Abstract: La teoria della Relatività sviluppata tra il 1905 e il 1915 da Albert Einstein, non è solo una descrizione matematica elegante e completa della gravitazione. Possiamo infatti misurarne gli effetti nelle piccole cose di tutti i giorni, come ad esempio quando usiamo un sistema di navigazione che fa uso dei satelliti GPS.

Il sistema GPS (Global Positioning System) è composto da più satelliti che orbitano a circa 20 mila chilometri di altezza attorno alla Terra. Ognuno di questi satelliti ha degli orologi atomici ad altissima precisione con i quali, misurando il tempo impiegato da un segnale elettromagnetico a percorrere la distanza satellite-ricevitore e facendo la triangolazione con altri satelliti, riescono a ricavare la posizione esatta del ricevitore sulla superficie della Terra.

RIFERIMENTI

logo icted

ICTEDMAGAZINE

Information Communicatio
Technologies Education Magazine

Registrazione al n.157 del Registro Stam­pa presso il Tribunale di Catanzaro del 27/09/2004

Rivista trimestrale  

Direttore responsabile/Editore-responsabile intellettuale

Luigi A. Macrì