Periodico delle Tecnologie dell'Informazione e della
Comunicazione per l'Istruzione e la Formazione
A+ A A-

Ricerca e innovazione

L’INTELLIGENZA ARTIFICIALE E IL POTERE COGNITIVO DELLE METAFORE: SPUNTI DI RIFLESSIONE PER UNA DIDATTICA INNOVATIVA

di Mario Catalano

Ricercatore, Docente, Editore Scientifico.

 

Abstract: Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo; tuttavia, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La ricerca nel campo dell’intelligenza artificiale ha iniziato ad indagare alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente. Tutto ciò rappresenta l’occasione per esplorare il mistero dell’apprendimento ed offre anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Ho deciso di scrivere questa breve memoria allo scopo di condividere le riflessioni emerse in un recente confronto con il Prof. Paolo Massimo Buscema, scienziato di fama internazionale nel campo dell’intelligenza artificiale, Presidente e Direttore del Centro di Ricerca Semeion di Roma e Full Professor Adjoint presso il Dipartimento di Matematica e Statistica dell’Università del Colorado. L’ho intervistato in occasione di uno degli episodi della miniserie “Etica e AI” incardinata nel palinsesto di “Intelligenza Artificiale Spiegata Semplice”, una delle principali Web community, in Italia, per la formazione e la divulgazione sui temi legati al mondo dell’intelligenza artificiale (questo è il link alla videoregistrazione dell’incontro: https://youtu.be/P1OVU6-ZdmQ).

 

Fig. 1: “ETICA e AI”: conduce Mario Catalano, ospite Prof. Paolo Massimo Buscema.

 

Gli argomenti toccati sono molteplici: dall’algoretica al rapporto tra scienza e fede, dalle innovative applicazioni dell’intelligenza artificiale in medicina agli studi avanzati sull’apprendimento delle macchine. In particolare, vorrei parlare proprio di quest’ultimi, considerate le potenziali implicazioni per il mondo della formazione e della scuola.

Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo: la sua capacità di analizzare dati ed estrarne regolarità, modelli per interpretare un certo fenomeno (capire, ad esempio, quali siano i suoi fattori principali), la capacità di far previsioni e prendere conseguenti decisioni proficue ed efficienti.

Eppure, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La logica del machine learning, infatti, consiste nel fornire alla macchina moltissimi dati (ad esempio, tante immagini – le più diverse possibili! – di un gatto cui si associa l’etichetta “GATTO” e tante immagini di un cane cui si assegna la categoria “CANE”) e lasciare che un algoritmo determini la rappresentazione matematica del fenomeno studiato minimizzando l’errore di previsione relativo agli esempi selezionati.

Inoltre, i modelli d’intelligenza artificiale in grado di realizzare il cosiddetto “apprendimento profondo” delle macchine (deep learning) operano sui dati-esempio attraverso livelli successivi di astrazione, in modo da catturare, ad ogni livello, i tratti fondamentali di un certo fenomeno e di cogliere, di livello in livello, schemi di crescente complessità. Ad esempio, nel caso di una rete neuronale profonda per il riconoscimento di un’immagine (Nielsen, 2015), un sistema di neuroni artificiali interconnessi ed organizzati in molteplici strati successivi potrebbe, nel primo strato, riconoscere i bordi, nel secondo, individuare forme geometriche semplici create dai bordi (triangoli, rettangoli, etc.) e così via.

Fig. 2: Schema di una rete neuronale artificiale con diversi strati di neuroni interconnessi.

 

Addestrare reti artificiali con molti strati di neuroni totalmente interconnessi (ciascun neurone connesso con tutti gli altri dello strato successivo) presenta dei problemi; pertanto, nella pratica applicativa, si ricorre a delle soluzioni alternative che, tuttavia, s’ispirano alla medesima logica di un apprendimento che avvenga attraverso vari livelli concatenati di astrazione.

Nonostante tutti questi metodi stiano dimostrando grande utilità in molti settori – quali la Medicina, l’Economia, il Marketing, etc. – rivelano un grande limite, ossia l’incapacità di prevedere gli eventi estremi: quelle rare manifestazioni di un fenomeno che si allontanano significativamente dal suo andamento medio. Inoltre, lasciano fuori dal mondo dell’intelligenza artificiale alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente.

Il Prof. Buscema si riferisce a tutto ciò parlando della possibilità di cogliere legami invisibili tra mondi diversi, di costruire “ponti impossibili” tra realtà apparentemente molto lontane (Buscema, 2020). La sua “Teoria dei Mondi Impossibili” (Buscema et al., 2018) mira proprio a sviluppare metodi d’intelligenza artificiale più accurati in un dominio specifico – segnatamente nel prevedere gli eventi rari (i cosiddetti “cigni neri”) – attingendo ad ambiti conoscitivi simili, che possano consentire un notevole ampliamento della fenomenologia, sulla base della “similarità della forma di forme diverse” (Buscema, 2020). Così, ad esempio, impiegando pool di reti neuronali artificiali (differenti sia per la loro architettura sia per la natura dei dati utilizzati nella fase di addestramento) potrebbe essere possibile migliorare le previsioni nel campo della Geofisica, creando sinergie tra set di dati relativi agli eventi sismici, alle eruzioni vulcaniche, agli eventi meteorologici, etc.

Questi studi innovativi sono certamente l’occasione per esplorare il mistero meraviglioso dell’apprendimento ed offrono anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Infatti, saper trasformare conoscenze ed abilità maturate in un certo ambito in competenze spendibili in contesti nuovi può essere la via per il successo formativo, a scuola e nella vita. Si pensi al caso di un allievo della Scuola Primaria che incontri delle difficoltà nell’imparare ad affrontare i problemi di Matematica. Nella mia personale esperienza di docente di Tecnologia, che si dedica alla formazione del pensiero computazionale, ho notato come lo sviluppo di videogiochi con linguaggi di programmazione visuale rappresenti, per i ragazzi, un contesto particolarmente motivante in cui poter apprendere con facilità ed efficacia strategie generali per risolvere un problema, potenzialmente spendibili in molti campi del sapere. Mi riferisco, in particolare, alla capacità di articolare un problema dato in compiti elementari oppure trasformarlo e risolverlo in una versione più semplice, da ricondurre a quella originaria attraverso processi di astrazione (Brennan and Resnick, 2012).

Più in dettaglio, gli allievi possono scoprire, con il supporto del docente, che programmare l’interazione del protagonista di un gioco di avventura con i suoi nemici segue una logica modulare, che prevede la stesura e l’esecuzione in parallelo di più script: il codice per conferire al protagonista le sue abilità di movimento, quello per determinare l’epilogo del gioco quando il protagonista soccombe nello scontro con i suoi nemici e, infine, lo script relativo all’esito opposto. Quando, poi, gli studenti si trovano di fronte ad un problema diverso, ad esempio nell’ambito dello studio della Matematica, le strategie cognitive acquisite nelle attività di game design, in virtù di una forte motivazione intrinseca e di un approccio costruttivo all’errore, possono rivelarsi fruttuose anche nel nuovo contesto.

 

BIBLIOGRAFIA:

Brennan, K. and Resnick, M. (2012). Using artifact-based interviews to study the development of computational thinking in interactive media design. Paper presented at annual American Educational Research Association meeting, Vancouver, BC, Canada.

Buscema, P. M., Sacco, P., Della Torre, F., Massini, G., Breda, M., and Ferilli, G. (2018). “Theory of impossible worlds: Toward a physics of information”. Chaos 28.

Buscema, P. M. (2020). L'arte della previsione Intervista sull’intelligenza artificiale a cura di Vittorio Capecchi. Mimesis Edizioni.

Nielsen, M. A. (2015). Neural Networks and Deep Learning. Determination Press.

0
0
0
s2sdefault

Agricoltura 4.0: Scenari, opportunità e ruolo del legislatore di Benedetto Fucà

Abstract: Negli ultimi anni l’agricoltura sta vivendo un periodo di forti cambiamenti: sostenibilità e qualità sono i due paradigmi entro cui questi cambiamenti si muovono. L’evoluzione tecnologica sta apportando gli input necessari per guidare questi paradigmi. Questo ecosistema produttivo agricolo digitale tuttavia necessità di norme. L’articolo si pone l’obiettivo di contestualizzare la situazione attuale del settore e offre spunti di riflessione su possibili aspetti normativi.

L’agricoltura rappresenta la prima forma produttiva dell’uomo da molto tempo. Si esplica nell'attività umana che consiste nella coltivazione di specie vegetali al fine di ottenere prodotti a scopo alimentare. Si tratta di un settore che ha notevolmente contribuito allo sviluppo della civiltà umana. Un processo andato di pari passo con le prime forme di società stabili, con una propria organizzazione. Tre fattori hanno contribuito in maniera primaria allo sviluppo di questo settore: 

  • il know how umano che nel tempo si è sviluppato attraverso la conoscenza e la tecnica delle colture, dei terreni, delle modalità.
  • le condizioni climatiche che avvengono in un determinato luogo, nel corso degli anni o del singolo anno produttivo. 
  • L’apporto di nuove tecnologie che hanno migliorato la produzione, la meccanizzazione di alcuni processi

 Sono due fattori che incidono sull’out-put finale. Si tratta di una serie di attività in cui incidono l’attività umana e il ciclo biologico di ciascuna specie vegetale che viene coltivata. Queste attività svolte secondo un criterio conseguenziale al fine di ottenere il raccolto il quale viene immesso nel mercato per soddisfare un bisogno primario: l’alimentazione. Ovviamente proprio per lo sfruttamento delle risorse naturali l’agricoltura viene inquadrata all’interno del settore primario. 

Negli ultimi anni sono due i profili che richiedono tutela: da un lato un’agricoltura sostenibile e in grado di garantire un approvvigionamento alla popolazione mondiale; dall’altro lato la certezza che un prodotto di alta qualità, coltivato in un dato luogo e soggetto a processi di trasformazione tipiche non venga contraffatto attraverso prodotti simili ma che non rispettano i requisiti tipici (aliud pro alio). 

All’interno di questi due requisiti, appare necessario, individuare non soltanto le norme che possano regolamentare questo settore (le quali sono già presenti) quanto comprendere quali tecnologie possano essere utili. Negli ultimi anni, si parla per l’appunto di agricoltura 4.0, un mercato in rapida espansione; solo a titolo esemplificativo si riportano alcuni numeri di una ricerca del 2018 dell’ Osservatorio Smart Agrifood della School of Management del Politecnico di Milano:  vale  fra 370 e 430 milioni di euro, il 5% di quello globale e il 18% di quello europeo, il mercato italiano dell'agricoltura 4.0 nel 2018, di cui oltre 300 soluzioni, già sul mercato, sono impiegate dal 55% delle aziende agricole intervistate. Ed è anche in rapida crescita: +270%.

Le soluzioni tecnologiche e metodologie in grado di incidere positivamente sono diverse: 

  • Sensori e Big Data Analytics: attraverso la sensoristica Internet of Things è possibile monitorare il processo di coltivazione, mediante i dati, di una pianta al fine di comprendere lo sviluppo, possibili malattie, la necessità di interventi specifici. 
  • Big Data Analytics: Questo quantitativo di dati possono essere analizzati proprio grazie al data analytics che consente di fare un’analisi predittiva in grado offrire informazioni per affrontare situazioni future. La Data Analytics è un processo di ispezione, pulizia, trasformazione e modellazione di dati con il fine di evidenziare informazioni che suggeriscano conclusioni e supportino le decisioni strategiche aziendali.
  • Blockchain: catena di blocchi, immutabile e distribuita, in grado di offrire la tracciabilità del prodotto finale, attraverso la raccolta dei dati e la loro analisi: infatti, è possibile offrire al cliente finale tutte le informazioni di quel dato prodotto. Viene, inoltre  garantita la tracciabilità e la certezza che quel dato prodotto sia effettivamente di qualità. 

    A ben vedere si tratta di soluzioni che offrono un ecosistema digitale in grado di guidare una profonda trasformazione del settore.

    Anche l’Unione Europea sta già indirizzando le proprie scelte verso un sistema che favorisca la digitalizzazione del settore: nel periodo 2014-2020 la politica agricola comune dovrebbe fornire servizi e infrastrutture migliori a 18 milioni di cittadini che vivono nelle aree rurali, pari al 6,4 % della popolazione rurale dell’UE. Una priorità in grado di favorire un processo che renda la produttività e la valorizzazione agricola.

    Inoltre, è stata firmata una convenzione “Digital day 2019” sottoscritta da 24 Stati membri dell’UE (tra cui l’Italia). Una dichiarazione di cooperazione sulla digitalizzazione dell'agricoltura nelle aree rurali europee. L'obiettivo della dichiarazione di cooperazione è quello di intraprendere una serie di azioni a sostegno di una digitalizzazione di successo dell'agricoltura e delle aree rurali in Europa, nonché dello smart farming, che si basa sull'idea di creare sistemi di supporto di tecnologie ICT in grado di elaborare dati in tempo reale, in termini di crescita e sviluppo, e quindi di rafforzare i settori dell'agricoltura intelligente e della tracciabilità dei prodotti alimentari.

    Esistono già soluzioni sul mercato in grado di offrire l’ accompagnare questa trasformazione: da soluzioni in grado di adattarsi a qualsiasi coltura ad altri più specifici e maggiormente efficaci che si focalizzano su una sola coltura andando ad offrire una maggiore peculiarità e automazione completa. La scelta non è di poco conto, in quanto una soluzione peculiare è consigliabile laddove la realtà produttiva si concentri su un solo tipo di coltura; viceversa in realtà produttive dedite a più tipologie di coltivazioni appare utile adottare una soluzione in grado di adattarsi a qualsiasi tipo di coltura tenendo ben a mente che questo non incide sulla capacità di analizzare il ciclo produttivo annuale, quanto all’integrazione con requisiti normativi imposti per quel tipo di coltivazione. 

    Questo ecosistema tecnologico, come si è detto sopra, può anche apportare un approccio più consapevole lato consumatore. Dato un prodotto finale immesso in commercio, il cliente attualmente acquista leggendo l’etichetta che accompagna il prodotto. Per quanto esistono già norme che contrastano la frode alimentare, tuttavia non offrono un sistema di certezza e una customer experience completa. Con l’apporto di tecnologie, non solo il cliente attraverso un QR code può leggere le stesse informazioni che essendo condivise su blockchain sono immutabili ed inoltre può anche ricevere ulteriori informazioni sull’azienda che li produce, sul campo, sulle caratteristiche del luogo.

    Questo processo da un lato va fortemente accompagnato con un sistema di norme in grado di tutelare le caratteristiche tecnico-produttive, in quanto l’automazione  è vero che può migliorare ed implementare la produzione, ma è anche vero che la manodopera dell’uomo in alcuni aspetti è insostituibile. Anche per quanto riguarda i sistemi di antifrode è necessario creare un sistema omogeneo di informazioni minime che devono essere riportate all’interno di un ecosistema composto da una blockchain, fermo restando la possibilità di una soluzione che possa offrire informazioni ulteriori.

    Per fare ciò, è necessario un dibattito tra legislatore e stakeholders (agricoltori, operatori digitali, consumatori finali) che sappia avvalorare e allo stesso tempo guidare questi cambiamenti epocali. Risulta evidente che, per fare ciò, è necessario che le istituzioni europee siano in prima linea.

     Benedetto Fucà

    Digital forensic e computer crime

     Business analyst 

    Laurea in Giurisprudenza e Master in Cyber security

0
0
0
s2sdefault
  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 118

Rivelazione delle Onde Gravitazionali

(di Claudio Meringolo)

Abstract: Le onde gravitazionali, predette da Einstein circa un secolo fa, sono delle increspature dello spazio-tempo generate da eventi astrofisici estremi, come ad esempio la fusione di due buchi neri o l'esplosione di una supernova, e si propagano alla velocità della luce nel vuoto. Sono estremamente importanti perché ci permettono di vedere quello che è invisibile con la luce e ci danno informazioni su zone dell'universo ancora poco conosciute e molto distanti da noi. E’ per questo che carpirne l'essenza in tutti i suoi dettagli è diventata una delle sfide più interessanti per molti scienziati.

 

Nel 1915 Albert Einstein sviluppa quella che verrà chiamata la Teoria della Relatività Generale, ossia la teoria che descrive in maniera completa come lo spazio e il tempo sono legati fra loro a formare il tessuto spazio-temporale quadri-dimensionale. Questa formulazione matematica rivoluziona la concezione di gravità, che non è più una forza fra oggetti distanti, ma piuttosto un effetto geometrico in grado di deformare lo spazio e il tempo.

Queste deformazioni, dovute ad oggetti massivi, si propagano nel vuoto alla velocità della luce (da qui il nome "onda gravitazionale") ed Einstein ne aveva predetto l'esistenza già nel 1916. Solo che lo stesso scienziato tedesco non credeva si potessero mai osservare sperimentalmente, questo perché le onde gravitazionali sono delle perturbazioni del tessuto spazio-temporale incredibilmente deboli, e i principali eventi astrofisici che ne sono la sorgente sono molto lontani da noi. Il risultato netto è che per poter rivelare le onde gravitazionali che arrivano sulla Terra c'è bisogno di rivelatori estremamente sensibili: per dare un'idea, è come riuscire a misurare una variazione della dimensione di un protone su un oggetto grande quanto la distanza Terra-Sole.

 

Fig. 1: Schema semplificato di un interferometro di Michelson. Un laser emette un fascio di luce coerente, il quale viene separato in due fasci da un beam splitter. I due fasci vengono riflessi alle estremità dei bracci da degli specchi. Infine, i due fasci si ricombinano sullo schermo.

L'11 febbraio 2016, ad un secolo esatto dalla loro predizione teorica, è stata annunciata la prima verifica sperimentale dell'esistenza delle onde gravitazionali, per quello che è stato un evento molto importante nell'ambito dell'astrofisica e della cosmologia mondiale.

Le onde gravitazionali rivelate in questo evento sono state prodotte dal processo di fusione di due buchi neri di origine stellare lontani circa 1 miliardo e mezzo di anni luce dalla Terra. La loro massa era rispettivamente di 29 e 36 volte la massa del Sole, e nel processo di fusione hanno formato un unico buco nero ruotante più massiccio di circa 62 masse solari. Nell'ultima parte del processo, i due corpi hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all'energia emessa durante il processo di fusione dei due buchi neri sotto forma di radiazione gravitazionale.

Ma come vengono misurate le onde gravitazionali?

Ad oggi i maggiori rivelatori di onde gravitazionali sono il LIGO (Laser Interferometer Gravitational-Wave Observatory) con le sue due sedi a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington, ed il più vicino Virgo che si trova a Cascina, vicino Pisa. La tecnologia usata per questi rivelatori si basa sull'interferometria di Michelson (dal nome dell'inventore Albert Abraham Michelson). Il principio di funzionamento è semplice: una sorgente produce luce (in genere un laser), ovvero radiazione elettromagnetica. Essa si propaga lungo la direzione di emissione grazie a una lente che concentra i raggi luminosi in un fascio parallelo. Dopo un certo percorso la luce viene separata in due fasci distinti tra loro ortogonali e uguali in intensità, mediante un beam splitter, ossia un divisore di fascio, come ad esempio una lastra piana parallela con la superficie debolmente metallizzata che funge da specchio semi riflettente. Dopo essere stati divisi, i due fasci seguono due cammini ottici diversi, e siccome i fotoni non devono interagire con nessun'altra particella al fine di ottenere un buon esperimento, vengono creati dei cammini ottici in dei tubi dove al loro interno viene creato un vuoto spinto.

Questi cammini ottici vengono posti su un sistema di supporti isolanti in modo da eliminare il più possibile il rumore dovuto alle vibrazioni meccaniche di fondo, dopodiché entrambi i fasci vengono riflessi da due specchi e ritornano così al divisore che agendo in modo contrario rispetto a prima (la parte riflessa viene ora trasmessa e viceversa) li dirige verso uno schermo. Qui, sovrapponendosi, generano delle frange di interferenza, che in base alla differenza di cammino ottico presenteranno dei massimi e dei minimi. Infatti, tenendo fissi i due cammini ottici, lo schermo dell'apparato presenterà delle frange di interferenza dovute alla differenza infinitesima dei due percorsi fatti dalla luce. La ricomposizione dei due fasci sullo schermo è dunque estremamente sensibile a variazioni di un percorso del laser rispetto all'altro o a vibrazioni del suo specchio, mostrando così uno spostamento delle frange di interferenza. In pratica se un'onda gravitazionale attraversa il sistema, i due bracci oscillano e la lunghezza dei due cammini ottici varia, formando un'interferenza che viene rilevata da un fotodiodo.

Per dare un'idea della sensibilità di questi interferometri, le onde gravitazionali che sono originate a centinaia di milioni di anni luce dalla Terra, distorcono i bracci (che sono dell'ordine di qualche chilometro) di soli 10^{-18} metri, ossia di una quantità migliaia di volte più piccola di un nucleo atomico. Il range di frequenza utile per LISA e Virgo va invece da qualche Hertz a circa 10^4 Hertz.

Ovviamente, maggiore è il cammino ottico dei fotoni, maggiore è la sensibilità dell'interferometro. La lunghezza dei bracci degli interferometri di LIGO e Virgo sono, rispettivamente, di 4 e 3 chilometri, tuttavia viene usata una tecnica tale per cui il fascio di fotoni viene riflesso più volte all'interno del braccio, aumentandone così il cammino ottico effettivo. Nonostante ciò, gli interferometri terrestri presentano delle limitazioni dovuti, da una parte all'impossibilità di costruire dei bracci eccessivamente lunghi, e dall'altra alla continua presenza di rumore meccanico di fondo, che nonostante venga continuamente filtrato ostacola comunque la rivelazione di deboli segnali.

Fig. 1: La missione LISA sarà in grado di misurare le onde gravitazionali nello spazio grazie ad un trio di satelliti distanti 5 milioni di chilometri tra di loro, in orbita ad 1UA intorno al Sole. La data di lancio è prevista per il 2034.

A tal proposito è in corso una nuova missione spaziale denominata LISA (Laser Interferometer Space Antenna) attualmente in fase di progettazione presso l'Agenzia Spaziale Europea (ESA), e sarà il primo osservatorio spaziale per le onde gravitazionali. La data di lancio è prevista per il 2034 con una vita operativa di cinque anni. Basata sulla stessa tecnologia degli interferometri terrestri, LISA sarà costituita da tre satelliti artificiali posti ai vertici di un triangolo equilatero e orbitanti attorno al Sole, con una distanza di 5 milioni di chilometri tra di loro. Ogni lato di questo triangolo sarà l'equivalente di un braccio dei rivelatori terrestri dove vengono fatti passare i fasci di fotoni e poi riflessi. La possibilità di creare dei cammini ottici così grandi permetterà a LISA di aumentare di molto la sensibilità delle misurazioni, ed inoltre sarà possibile misurare onde gravitazionali a bassa frequenza, con un range utile che andrà tra 10^{-4} Hertz fino a qualche Hertz, e inoltre non sarà affetto dai disturbi ambientali di origine terrestre come i microsismi.

Tutto questo apre numerose sfide che gli astrofisici devono affrontare. LISA infatti, a differenza dei rivelatori a Terra, sarà dominato dal segnale astrofisico e non dal rumore dello strumento, e questo significa un ottimo rapporto segnale-rumore. Questo rappresenta una sfida tecnologica e di analisi dati molto importante che gli scienziati di LISA si stanno già preparando ad affrontare. Tra questi nuovi segnali dal cosmo più profondo, l’inatteso è dietro l’angolo. Il primo osservatorio di onde gravitazionali dallo spazio, ci aprirà il sipario del palcoscenico cosmico: sentiremo finalmente la musica dell’Universo, e questo ci permetterà coglierne gli aspetti più misteriosi e affascinanti.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

0
0
0
s2sdefault
  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 169

Onde Gravitazionali

(di Claudio Meringolo)

La teoria della Gravitazione, sviluppata nel 1915 da Albert Einstein, ha aperto scenari cosmologici altrimenti impensabili con la meccanica classica newtoniana, e tra questi c’è la presenza di un campo di onde che pervade l’Universo intero. Le onde gravitazionali sono delle piccole increspature del tessuto spazio-temporale, talmente piccole da essere impercettibili, generate da oggetti massivi che ruotano uno attorno all’altro a velocità molto elevate, e che si propagano a velocità della luce, circa 300 mila km/s.

I sistemi binari di buchi neri (ossia due buchi neri che ruotano intorno ad un comune centro di massa) sono fra le sorgenti più energetiche di onde gravitazionali, anche se le enormi distanze che ci separano da essi fanno sì che sia alquanto difficile rilevarne il segnale, che ovviamente decresce con la distanza. Tali perturbazioni dello spazio-tempo sono state ipotizzate teoricamente da Einstein nel 1916 come conseguenza della sua Teoria della Gravitazione, e confermate sperimentalmente nel Febbraio 2016 tramite la rilevazione di onde gravitazionali provenienti dalla fusione di due buchi neri di massa pari a circa 30 𝑀*, dover con 𝑀* viene indicata la massa del Sole, ossia circa 2*10^{30} kg. L’esistenza di tali onde fornisce la conferma sperimentale del fatto che l’interazione gravitazionale non è un’azione istantanea a distanza tra corpi massivi come asseriva la teoria newtoniana, ma implica l’esistenza di un campo gravitazionale che si propaga anche nel vuoto e con la velocità della luce.

A rilevare per primi le onde è stato un lavoro in parallelo tra i due strumenti gemelli Laser Interferometer Gravitational-wave Observatory (LIGO) negli Stati Uniti, a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington. Lo scopo di questi strumenti era quello di trovare le increspature che si formano nel tessuto spaziotemporale dell’Universo quando, ad esempio, due masse ruotano vorticosamente l’una attorno all’altra (Fig.1), come avviene in un sistema binario molto massiccio, e i due corpi man mano perdono energia meccanica tramite l’emissione di onde gravitazionali, e si avvicinano al loro centro di massa comune fino a fondersi in un unico corpo.

Fig. 1: Raffigurazione pittorica di un merging di due buchi neri, con relativa emissione di onde gravitazionali.

Le onde gravitazionali rilevate con LIGO sono state prodotte dal processo di fusione di due buchi neri di origine stellare, con massa rispettivamente di 29 e 36 𝑀*, in un unico buco nero ruotante più massiccio di circa 62 𝑀*. Nell’ultima parte del processo, hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all’energia emessa durante il processo di fusione dei due buchi neri sotto forma di onde gravitazionali. C’è da dire che l’evento osservato si trova ad una distanza tale che per arrivare sulla Terra, il segnale ha impiegato quasi 1 miliardo e mezzo di anni (tanto impiega la luce a coprire la distanza che ci separa dalla sorgente), e quindi è avvenuto quando sulla terra facevano la loro comparsa le prime cellule evolute in grado di utilizzare l’ossigeno.

Le onde gravitazionali, abbinate alle onde elettromagnetiche, ci forniscono così una mappatura più completa dell’Universo, dandoci la possibilità di scrutarne dettagli sempre più sottili per carpirne i suoi meccanismi e, fino ad ora, più misteriosi.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

 

 

 

0
0
0
s2sdefault
  • Scritto da CLAUDIO MERINGOLO
  • Categoria: Ricerca e innovazione
  • Visite: 121

La tecnologia indaga sulle origini dell'Universo

(di Claudio Meringolo)

 

E’ passato poco più di un secolo da quando Albert Einstein completava il suo lavoro più importante, la teoria che lega la gravità alla geometria dello spazio-tempo, la teoria della relatività generale. Con questa teoria Einstein completava il quadro sulla gravitazione, riuscendo finalmente a spiegare alcune piccole incongruenze che invece la vecchia teoria della gravitazione di Newton non riusciva a spiegare, come ad esempio la precessione dell’orbita di Mercurio, oppure la deflessione della luce durante una eclisse.

Questa nuova teoria ammetteva, tra le altre cose, degli oggetti estremi, così densi da generare un campo gravitazionale così forte che nemmeno la luce poteva sfuggirgli. Questi oggetti esotici erano talmente particolari che lo stesso Einstein non credeva esistessero realmente, ma fossero solo un artificio matematico che venivano fuori dalle equazioni. Fu il fisico Karl Schwarzschild nel 1916, un anno dopo la formulazione della teoria della relatività, a formulare matematicamente queste singolarità come soluzione particolare delle equazioni di campo nel vuoto, e solo negli anni 60 questi oggetti vennero battezzati con il nome di “buchi neri” dal fisico John Wheeler. Il fatto che nessuna particella che venisse catturata potesse più riemergere è la ragione del termine "buco", mentre l’aggettivo “nero” deriva dal fatto che oggetti del genere non possono emettere radiazione elettromagnetica, perché anch’essa intrappolata dal potente campo gravitazionale.

Per anni e nonostante le crescenti prove scientifiche, i buchi neri sono rimasti confinati nelle immaginazioni degli artisti, negli algoritmi di modelli numerici fatti con i supercomputer o in affascinanti rappresentazioni in computer grafica come nell'epico film “Interstellar” di Christopher Nolan. Ma il 10 Aprile 2019, gli scienziati dell’Event Horizon Telescope (EHT), un consorzio di 8 radiotelescopi situati in ogni angolo del pianeta, dopo anni di lavoro hanno reso pubblica la prima foto reale di un buco nero, da molti definita la foto del secolo.

L’oggetto in questione è il buco nero supermassiccio M87 situato nel centro della galassia della Vergine, distante 55 milioni di anni luce da noi e con una massa di ben 6,5 miliardi di volte quella del Sole. Data la distanza che ci separa dal buco nero, se si fosse dovuto utilizzare un unico telescopio, questo avrebbe dovuto essere delle dimensioni di 5 chilometri di diametro, una grandezza impossibile da ottenere per qualsiasi strumento di questo genere.

 

Fig. 1: Il buco nero supermassiccio al centro della galassia ellittica Messier 87, immagine mostrata in anteprima mondiale dall’Event Horizon Telescope il 10 Aprile 2019.

 

Così i ricercatori e gli scienziati hanno pensato di ricreare un telescopio enorme attraverso una particolare tecnica, chiamata Very-long-base-interferometry (Vibi). Questa tecnica tiene conto della rotazione terrestre e combina i dati ottenuti da tutti i telescopi della rete EHT. In pratica viene misurata la distanza spaziale fra tutti i telescopi della rete mettendo insieme i dati della differenza di tempo del segnale in ingresso in ciascuno di questi. Attraverso questo processo è un po’ come se si costruisse un unico grande telescopio grande come la Terra, ed avere così maggiore risoluzione angolare, e infatti l’immagine è stata ottenuta con la risoluzione angolare più elevata mai raggiunta.

Anche se è stata definita “foto” dai media – e per semplificare anche da alcuni ricercatori – quella del buco nero M87 non è prettamente una foto, almeno non nel senso comune del termine. Non è stata ottenuta con telescopi ottici, ma con enormi antenne che captano le onde radio (radiotelescopi) emesse da ciò che si trova nello Spazio.

 

Fig. 2: I radiotelescopi dell'Atacama Large Millimeter Array (ALMA), situati a 5100 metri di quota sull'altopiano delle Ande, in Cile, fanno parte dell'EHT che ha osservato per la prima volta l'ombra radio di un buco nero.

 

Una volta sincronizzati tra loro, i radiotelescopi raccolgono negli stessi istanti gigantesche quantità di dati, che sono poi trasportati su dischi rigidi molto capienti per essere poi elaborati. I dati non sono completi, nel senso che ne manca sempre qualche pezzo, ed è quindi necessario ricostruire ciò che manca.

Questo processo di ricostruzione si chiama “imaging”, e si usano supercomputer per cercare di colmare gli spazi vuoti utilizzando algoritmi per prevedere che cosa dovrebbe esserci nei dati mancanti. Tutto questo richiede una grandissima potenza di calcolo, ma porta alla fine alla costruzione dell’immagine vera e propria, come quella svelata dai ricercatori.

Questa è una spiegazione estremamente semplificata, ma che da’ l’idea di un processo molto più complesso, che coinvolge una grande quantità di scienziati in tutto il mondo e gigantesche e interminabili sessioni di calcolo svolte dai supercomputer. La spettacolare immagine finale che è stata mostrata al mondo intero, non è una foto nel senso classico, ma è la dimostrazione visiva più prossima a ciò che accade intorno a un buco nero che si trova miliardi e miliardi di chilometri da noi. O meglio, a come appariva 55 milioni di anni fa: quando la Terra era ancora disabitata e la luce iniziava il suo viaggio da quella remota zona dell’Universo per raggiungerci.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

 

0
0
0
s2sdefault

Argomento